Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • Yoeri
  • Registratie: maart 2003
  • Niet online
(overleden)

Waarom dit topic?

Om hardware goed te kunnen beoordelen, is het eigenlijk van belang dat elke review op dezelfde manier gemaakt wordt en dat er steeds dezelfde benchmarks gedraaid worden en zo. Bovendien zorgt een duidelijk protocol ervoor dat we sneller en vooral beter kunnen gaan reviewen. Daarom gaan we binnen de redactie een aantal reviewprotocollen opstellen voor verschillende producten, zodat met behulp daarvan eigenlijk 'iedereen' de nodige tests kan doen om vervolgens de testresultaten aan te leveren aan diegene die het artikel gaat schrijven.

De eerste productgroep waarvoor we dit willen doen, is voor gpu's en videokaarten, anders plaatste ik dit topic natuurlijk ook niet in dit forum. ;) We hebben bij T.net wel intern wat kennis zitten natuurlijk, maar veel tweakers weten meer dan weinig tweakers en waar anders dan in forum 0 zit dè kennis op dit vlak. Daarom heb ik in samenspraak met de modjes hier besloten om dit topic te openen. De bedoeling is dat we op basis van jullie input tot een volwaardig protocol kunnen komen, dat we gewoon af en toe moeten updaten om weer mee te zijn met de recentste stand van zaken (qua games bvb).


In dit protocol komt dus echt alles te staan. Welke drivers gebruiken we, welke games draaien we, welke settings, welke demo gebruiken we voor die games, ... Maar ook hoe presenteren we de resultaten (genormaliseerd? ten opzichte van wat?), wat gebruiken we als vergelijkingsmateriaal, ...

Reviewprotocol gpu's en videokaarten

Introductie & Hardware
Hier valt weinig aan te 'testen'. Wel moet erop gelet worden dat er voldoende informatie gegeven wordt over het ontwerp van de videokaart, eventueel opvallende zaken aan de koeling, ...

Voor het geven van informatie over de specificaties, kan gebruik gemaakt worden van GPU-Z. We wijzen hierbij onder andere op afwijkende kloksnelheden, maar besteden waar nodig ook aandacht aan het aantal shaders (overklok/unlock-potentieel?). We proberen voor zover mogelijk ook steeds te vermelden welke chiprevisie en geheugenchips gebruikt zijn voor de kaart die we testen (koeler verwijderen).

Daarbij ook de nodige achtergrondinfo/duiding geven: Bij vergelijkingen tussen NV en AMD (en anderen) duidelijk maken dat architecturen van elkaar verschillen en dus niet 1 op 1 te vergelijkingen zijn, zoals mensen dat bv doen met het aantal megahertzen (bv AMD is hoger geklokt, maar toch langzamer en dan even over het hoofd zien dat bv NV met meer dan een dubbele shaderklok werkt en dat de ALUs anders zijn opgebouwd).

We bespreken ook of de kaartbouwer gekozen heeft om het reference design aan te houden of waar er afwijkingen zitten ten opzichte van dat reference design, met eventuele voor- en nadelen van die afwijkingen.

Waar relevant besteden we ook aandacht aan extra's op de kaart zoals hdmi, aansluitingen, hdcp-ondersteuning, ... Ook de retail box komt aan bod, met melding van meegeleverde convertors, games, software, ...
Benchmarks
Testplatform
Als testplatform gebruiken we een relatief vast systeem, dat regelmatig van een upgrade voorzien wordt om weer up-to-date te zijn naar de op dat moment geldende eisen van een flink gamesysteem. Zo blijven resultaten van verschillende reviews nog enigszins vergelijkbaar binnen een bepaalde tijdsspanne, terwijl het systeem toch enigszins up-to-date gehouden wordt. Bovendien is de kans klein dat een review van een kaart van vandaag nog echt vergeleken zal worden met een review van drie jaar geleden, zodat het nadeel van de verminderde vergelijkbaarheid door wisselend basissysteem enigszins beperkt blijft.
Software
Tests worden allemaal gedraaid op Windows Vista en er wordt zoveel mogelijk gebruikgemaakt van de laatste WHQL-drivers van AMD of nVidia zelf. In sommige gevallen zal dat niet mogelijk zijn, waarbij we gewoon op zoek gaan naar de optimale (bèta)-driver waarmee de beste resultaten neergezet worden.
Bench-suite
3DMark06
Lightsmark
  • Bioshock
  • Call of Duty 4
  • Crysis
  • Enemy Territory: Quake Wars
  • Half Life 2: Episode Two
  • Oblivion: Shivering Isles
  • Unreal Tournament 3
  • The Witcher
  • World in Conflict
Bench-instellingen
Moeten nog nader bepaald worden. Op dit moment gaat de voorkeur uit naar een drietal sets instellingen: eentje voor low-end, eentje voor mainstream, en eentje voor high-end. Op die manier blijven resultaten enigszins 'vergelijkbaar' over verschillende segmenten heen en zijn de tests toch realistisch binnen het segment waarin de kaart thuishoort, zodat er ook nog wat zinnigs uit de cijfers te halen valt. Ook de exacte benchmethode per benchmark moet nog bepaald worden, afhankelijk van de settings en zo.
Andere metingen
Geluid
We prikken de kaart in een los moederbord, zonder behuizing of verdere componenten. Voor het OS en de software om de kaart te belasten, maken we gebruik van een ssd-harddisk. Verder worden alle overbodige fans uitgeschakeld en wordt de geluidsproductie gemeten onder load èn idle.

Exacte meetafstand, aantal samples, ... nog te bepalen
Temperatuur
Wordt softwarematig uitgelezen als de kaart idle is en onder volle belasting, en dat terwijl de kaart ingebouwd is in het systeem, voor normaal gebruik. Ter referentie geven we ook overige gemeten temperaturen weer van het systeem (chipset, cpu, ...).
Energieverbruik
We hangen het systeem aan een voltcraft en meten het energieverbruik van het volledige systeem idle, en vervolgens opnieuw terwijl de videokaart flink belast wordt. Hoewel het verbruik niet volledig aan de videokaart toegeschreven kan worden, geeft het wel een indruk van de gulzigheid van de videokaart.

Exacte meetafstand, aantal samples, ... nog te bepalen

Jullie beurt nu

Zoals je ziet is dit nog een vrij grove structuur. Het is de bedoeling om dat, mede dankzij jullie input, uit te kristaliseren tot een compleet en gedetailleerd stappenplan. Roep dus gerust alle opmerkingen, tips, valkuilen, ... Daarbij geldt slechts één belangrijke regel: onderbouw wat je post. Zomaar posten dat X of Y geen zin heeft, daar kunnen we niks mee, als je niet zegt wààrom dat dan wel zo is, natuurlijk.

Deze post zal geregeld geüpdatet worden naarmate dingen duidelijker worden.

Alvast hartelijk bedankt voor het meedenken :)

Update: 12 maart, 22u45

Yoeri wijzigde deze reactie 12-03-2008 22:45 (52%)

Kijkje in de redactiekeuken van Tweakers.net
22 dec: Onze reputatie hooghouden
20 dec: Acht fouten


  • ResuCigam
  • Registratie: maart 2005
  • Laatst online: 06:13
Ik denk zelf dat een resolutie van 800*600 niet meer van deze tijd is, misschien beginnen op 1024*768? Verder zal niet iedereen die 4 games hebben liggen.

Just my 2 cents :)

ResuCigam wijzigde deze reactie 28-02-2008 16:48 (17%)

We do what we must because we can.


  • Yoeri
  • Registratie: maart 2003
  • Niet online
(overleden)
quote:
ResuCigam schreef op donderdag 28 februari 2008 @ 16:47:
Ik denk zelf dat een resolutie van 800*600 niet meer van deze tijd is, misschien beginnen op 1024*768? Verder zal niet iedereen die 4 games hebben liggen.

Just my 2 cents :)
Mja, met een spel als Crysis kan die lage resolutie wel nuttig zijn :+

Wat die games betreft volg ik je niet zo; als we ze op de redactie maar liggen hebben om ze te testen toch. Het is niet de bedoeling het spel te testen, het is de bedoeling een indicatie te geven van heo de videokaart presteert, en dat doe je gewoonlijk met een aantal recente spellen. Het is dus zaak een aantal 'representatieve' games uit te kiezen waaruit eenieder voor zich kan afleiden welke kaart voor zijn situatie beter geschikt is.

Kijkje in de redactiekeuken van Tweakers.net
22 dec: Onze reputatie hooghouden
20 dec: Acht fouten


  • Alternativ
  • Registratie: juli 2003
  • Laatst online: 14-04 07:37

Alternativ

4 8 15 16 23 42

Met betrekking tot Demo afspelen en Logging ->

Voor het vaststellen van FPS, is fraps een van de opties.

http://www.fraps.com/faq.php#fps:

How can I average the framerate between two points?
While in the game press the key you assigned to the Benchmarking Hotkey. This will mark the start of where averaging is to take place. A green box is displayed to let you know that logging has begun, and then the counter is removed for maximum accuracy. When you want to end the benchmark, press the Hotkey again. The average framerate will now be displayed in a red box. Full details are also saved in the file FRAPSLOG.TXT in your Fraps folder, and into the benchmark directory if you have detailed statistics enabled.

Het mooie van fraps is dat je dan een gestandaardiseerde manier van logging hebt.

Alternativ wijzigde deze reactie 28-02-2008 17:07 (63%)

alternativ


  • Zeus
  • Registratie: juni 2003
  • Laatst online: 10:46
Stalker lijkt mij geen voorbeeld van representatieve game. Het is slecht geschreven, bevat veel bugs en er zijn een x aantal patches van in omloop. Neem iets wat goed doorschaalt, HL2, UT3 of FEAR bijvoorbeeld.
Daarnaast is 800x600 op het moment echt niet meer interessant, zelfs niet bij crysis.

Voor de temperatuur gewoon een elektrische thermometer aanschaffen en gebruiken voor de temperatuur van de heatsink en het geheugen te meten. Softwarematig kan je dan de temperatuur van de core uitlezen. Met deze methode kan je ongeveer bekijken of de koeling effectief is en hoeveel hitte afgevoerd moet worden door lucht in je kast.

Voor je vragen over drivers en timedemo's moet je gewoon de fora in de gaten houden. Vooral die hard oc fora zullen snel beschikken over de beste drivers, al wordt er regelmatig hier op GoT ook een release geleaked. Zelf een timedemo opnemen is ook niet al te veel werk.
Succes iig.

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


  • ResuCigam
  • Registratie: maart 2005
  • Laatst online: 06:13
quote:
Yoeri schreef op donderdag 28 februari 2008 @ 16:51:
[...]
Wat die games betreft volg ik je niet zo; als we ze op de redactie maar liggen hebben om ze te testen toch.
Sorry dan heb ik de TS verkeerd begrepen, ik dacht dat het om onze (gebruikers) reviews ging.

We do what we must because we can.


  • TERW_DAN
  • Registratie: juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Benchmarks e.d. zijn natuurlijk leuk, maar ik vind naast de snelheid van een kaart ook dingen belangrijk als:
stroomverbruik
beeldkwaliteit
warmteproductie

Daar zijn natuurlijk ook dingen voor te bedenken. Wattmeter aan het systeem, thermometer op de videokaart en een zo objectief mogelijke beoordeling van de beeldkwaliteit (al is dat laatste natuurlijk wat moeilijk, maar denk aan dingen als ghosting, tearing en nog wat andere dingen).

Wil je dit soort dingen ook mee gaan nemen of niet?

V&A eindejaarsopruiming - veul meuk voor weinig

Mijn BGG-list


  • IceEyz
  • Registratie: juni 2002
  • Laatst online: 19-04 17:00

IceEyz

Jawel, da's mijn oog!

Later post ik nog wel wat meer, maar op het eerste gezicht:

Vast systeem. Dat de kaart de bottleneck moet zijn begrijp ik, maar ook op gelijke resoluties zorgt een snellere cpu voor meer frames per seconde. Zolang mogelijk een vast systeem gebruiken, een quadcore met meer dan 2GB geheugen op een P35/X38/X48 chipset, dat gebruikt tenslotte het meerendeel van de gebruikers (Behalve QuadCore).

Resoluties, alle resoluties is veel werk, zelf zou ik de meestgebruikte wederom doen, en een 2560x1600 voor de zware belastingen. Dus 1024x768 - 1280x1024 - 1680x1050 / 1600x1200 - 1920/2560. Wat ik ook een belangrijk nadeel bij veel andere reviewers vind, is dat ze de neiging hebben om de hoge resoluties alleen met AA aan te testen. Het liefst zie ik ze ook zonder AA omdat ik langer met een kaart wil doen dan 1 jaar. Later wil ik dus spellen zonder AA spelen maar nog wel op een hoge resolutie.

Hardware:
Sommige mensen hechten veel waarde aan de revisie van de chipset (koeler eraf halen) en de gebruikte geheugenchips.

Andere metingen: Stroomverbruik!
Bij een gelijk systeem kun je altijd de input meten met de Voltcraft, als je telkens een ander systeem in elkaar zet, moet je daar ook rekening meehouden.

--
Moet nu gaan, erg leuk dat jullie dit in de groep gooien :)

<-- Spekkies -->
Na een praktische theorietest is gebleken dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • LDenninger
  • Registratie: augustus 2005
  • Laatst online: 19-04-2018
Waarop alleen First Person games ?
Misschien goed om eens wat meer across-the-board te testen,
met strategy-games als World in Conflict, Civilization IV etc.,
Race-games als NFS, DiRT etc.

Die renderen anders, dus misschien laten die wel bepaalde sterktes en/of zwaktes zien die in FP-games minder snel opvallen ?

  • Boudewijn
  • Registratie: februari 2004
  • Laatst online: 10:34

Boudewijn

omdat het kan

Ik denk niet dat Civ IV een dusdanige belasting is dat je er wat van gaat merken als je een mindere kaart neemt. Lijkt me slecht dus, maar wel een idee om wat meer diversiteit in de games aan te brengen.

MS Flight Sim X wil ook wel graag wat graka-power meen ik?

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

Civ4 moet je niet onderschatten. Vergeet niet dat we hier niet alleen high-end dingen gaan benchen, maar ook integrated VGA. En Civ4 is uitgerekend iets wat niet op een GMA9xx draait, marginaal op een X3xxx en best redelijk op en X1250 of 7150.

Ben het verder met Terw_Dan eens, stroomverbruik is een relevant punt om mee te nemen, ook omdat je met verbruik icm temperatuur de efficiency van de koeling kunt bepalen.

Overigens is het mbt koeling en temperaturen belangrijk om vast te stellen in wat voor kast en met wat voor airflow (zijkant open of dicht) getest wordt. Voor de hand ligt een vrij grote kast met alleen voor en achter casefans (niet zijkant/bovenkant) en te benchen met dichte zijkant. Dit levert goede en met name reproduceerbare airflow op.

Soittakaa Paranoid!


  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 18-04 22:48
Oblivion kan ook redelijk makkelijk worden gebencht. Je gaat in een redelijk bosrijke omgeving staan, je drukt de automatische toets voor lopen in (Q was dat uit mijn hoofd) , zonder dat hij natuurlijk vast blijft zitten. Na een paar heb je de optimale route gevonden en maak je gewoon een save game van je plek. Dan laat je Fraps meten voor 60 seconden. Het poppetje loopt door en bij 60 seconden stopt fraps. Je krijgt dan een file met min/gem/max. Dan even Oblivion opnieuw opstarten en weer herhalen.

Deze methode is al eerder gebruikt om videokaarten te testen(bij T.net) En het heeft zich dus ook in de loop vd tijd zichzelf bewezen. Het kan misschien nog wel makkelijker door een script te laten afspelen.

De savegame die is gebruikt voor de videokaarten heb ik ook nog wel ergens.

Met het meten van geluidsproductie is het van belang om rest van de fans uit te schakelen. Een simpele schakelaar will do the job. En dan voor het testen eerst een paar waardes noteren van de omgeving. En dan om 5 seconden aantal dB opschrijven, en gemiddelde van nemen :)

Bladeslayer wijzigde deze reactie 28-02-2008 19:29 (14%)

www.frees-it.com


  • Boudewijn
  • Registratie: februari 2004
  • Laatst online: 10:34

Boudewijn

omdat het kan

Feit is wel dat geluid op sommige frequenties storender is dan andere frequenties.
Nemen jullie dat ook mee? (lijkt me wel lasitg trouwens).

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Bladeslayer schreef op donderdag 28 februari 2008 @ 19:26:
[...]

Met het meten van geluidsproductie is het van belang om rest van de fans uit te schakelen. Een simpele schakelaar will do the job. En dan voor het testen eerst een paar waardes noteren van de omgeving. En dan om 5 seconden aantal dB opschrijven, en gemiddelde van nemen :)
Niet zo simpel ben ik bang - bij een rechttoe-rechtaan fan werkt het wel, maar als de fan temperatuurgestuurd is en je schakelt andere fans uit, dan stijgt temperatuur onvermijdelijk, waardoor deze fan dan harder gaat blazen en meer herrie maakt.

Hoe het wel te doen... goede vraag, moeten we nog even over nadenken :o

Soittakaa Paranoid!


  • Annihlator
  • Registratie: juli 2006
  • Laatst online: 15-04 21:58
Ik ben laatst tegen een benchmark opgelopen die ik wel goed vind:
Lightsmark (http://www.lightsmark.com/) misschien een idee om even naar te kijken?
Op www.kustompcs.co.uk wordt het nu ook gebruikt om onderling prestaties te vergelijken, de cpu speelt er vrijwel geen rol in naar mijn weten.

Mijn specs

Hieronder een aantal tips voor een GPU reviewprotocol.

Specificaties
Bij vergelijkingen tussen NV en AMD (en anderen) duidelijk maken dat architecturen van elkaar verschillen en dus niet 1 op 1 te vergelijkingen zijn, zoals mensen dat bv doen met het aantal megahertzen (bv AMD is hoger geklokt, maar toch langzamer en dan even over het hoofd zien dat bv NV met meer dan een dubbele shaderklok werkt en dat de ALUs anders zijn opgebouwd).

Ontwerp
Duidelijk vermelden of iets gebruik maakt van het reference design of van een custom design. In het geval van een customdesign is een vergelijking met het referencedesign wel leuk, zeker wanneer men kijkt naar het stroomverbruik, cooling, voltages, overklokbaarheid etc.

Te gebruiken drivers - Alleen WHQL
AMD: elke maand is er een nieuwe Catalyst die generiek werkt op alle desktop GPUs, dus altijd de meest recente gebruiken. Daarnaast ook controleren of er een officiele hotfix is uitgebracht voor een nieuwe game. Voor die nieuwe game dient dan alleen de hotfix te worden toegepast en niet voor andere games, omdat een hotfix vaak alleen voor die ene game specifieke optimalisaties bevat die nog niet uitvoerig getest zijn en dus in andere games problemen kunnen veroorzaken.
http://game.amd.com/us-en/drivers_catalyst.aspx
NV: deze zijn wat minder regelmatig, maar ook zij weten er om de zoveel tijd een WHQL driver uit te pompen, aangevuld met af en toe een beta/hotfix. Ook hier geldt hetzelfde voor wat betreft het gebruik van hotfixen/beta's.
http://www.nvidia.com/Download/Find.aspx?lang=en-us

Gamessuite
Toevoegen van RTS games heeft zeker een meerwaarde. RTS games en ook Flight Simulator zijn veel meer CPU limited dan FPS games (FSX gebruikt bv alle 4 cores van een Quadcore en performance verdubbelt daar zo'n beetje wanneer je van Dual Core naar Quad gaat met dezelfde GPU).

Daarnaast belasten RTS games de GPU vaak op een hele andere manier (en soms zelfs intensiever) dan een gemiddelde FPS game: veel units in de detail, explosies, soepel in- en uitzoomen met veel actie op je scherm... dat vraagt bv veel geometryshading/vertexshading power en misschien iets minder van de pixelshadingpower. Het is alleen moeilijk te benchen omdat geen enkele battle hetzelfde zal zijn.

Voorbeeld games:
- Anno 1701
- Civ4
- C&C Tiberium Dawn
- Company of Heroes

Daarnaast zou ik in de suite ook in ieder geval een game opnemen die gebruik maakt van de Unreal Engine 3 omdat het op dit moment de meest gelicenseerde engine is. Dus een van de onderstaande zou zeker niet misstaan:
- Unreal Tournament 3
- Rainbow Six
- Bioshock

En ook een game zoals World of Warcraft en/of Guild Wars die door de grote massa gespeeld wordt (resp meer dan 10 miljoen en 5 miljoen mensen), zou ik opnemen in de testsuite. Het zijn dan misschien niet de meest veeleisende games, maar het zijn wel superpopulaire games. De kans is groot dat iemand die een videokaart koopt, ook een van deze games speelt en dan is het leuk om een vergelijking te hebben. In WoW kan je bijvoorbeeld een fly-through (op wyvern/gryphon) gebruiken door drukbevolkte gebieden om de gemiddelde framerates op te meten.

Schaalbaarheid: CPU scaling
Bv. Hoe goed schaalt een videokaart (bv een HD3870X2) mee op de meest gangbare resoluties (bv 1280x1024/1600x1200/en hoger) met een E2160, E4500, E6300, E6750, Q6600, QX9650, Athlon64 X2, Phenom X4 etc. Hier kan je RTS games goed gebruiken omdat deze vrij CPU limited zijn. Uit elk segment een CPU gebruiken maakt van een review dat deze niet alleen geschikt is voor de absolute ubertweaker met veel geld die alleen maar de snelste onderdelen in z'n pc wil hebben. Niet iedereen zal een HD3870X2 op een QX9650 gebruiken. Genoeg mensen die hem op een mainstream dualcore zullen gebruiken.

Framerates
- Minimum
- Average
- Maximum
Veel mensen hebben liever een game die gemiddeld 40fps draait en dipt naar 30, dan een game die 50fps draait maar dips vertoont naar 10fps. Belangrijk dus om in ieder geval het minimum en het gemiddelde te vermelden. En vaak kunnen driverupdates hier ook wat aan veranderen. Veel reviews laten alleen het gemiddelde zien waardoor er niks verandert lijkt, terwijl mensen toch melden dat de boel 'soepeler' loopt in bepaalde games. Dit ligt vaak vooral aan de minimum framerates.

IQ vergelijking
- AA modi: niet alleen 4x, maar ook 8x AA. Er komen steeds snellere kaarten uit die 8xAA aan kunnen. Ook leuk om te zien hoe deze daarin presteren. Er zijn mensen die een highend kaart kopen om heel erg veel FPS op het beeld te krijgen, maar ook een grote groep mensen koopt een highend videokaart zodat ze alle eyecandy aan kunnen zetten. Dit geldt natuurlijk niet voor low-budget en in mindere mate midrange kaarten. Alhoewel met het tempo waarin de performance van de midrange nu omhoog gaat, zal het niet lang meer duren voordat 8xAA ook daar gemeengoed is.

---

To be continued als ik meer tijd heb. :+ Tot zover my 2 cts. }:O

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Yoeri
  • Registratie: maart 2003
  • Niet online
(overleden)
ff van me laten horen:
Ik zie al zeer interessante dingen, verwacht na het weekend een geüpdatete versie van de startpost :)

Kijkje in de redactiekeuken van Tweakers.net
22 dec: Onze reputatie hooghouden
20 dec: Acht fouten


  • Bejit
  • Registratie: februari 2005
  • Laatst online: 18-04 07:31

Bejit

Svenska Faderland

Wat ook wel interessant is, wat HardOCP ook doet, de ervaring van de reviewer(s) te noteren. Wat gamet nou echt lekkerder?

Het liefst natuurlijk meer dan 1 ervaring of dat een andere reviewer het verslag peer reviewed. Lekker uitgebreid dus :).

Systeempje


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
Laat ik ook eens wat input geven:
quote:
Hier zijn er twee opties: een vast testplatform dat af en toe eens up-to-date gebracht wordt, of steeds een wisselend testplatform. Voordeel van dat eerste is dat je de evolutie van de kaarten zelf beter kunt opvolgen. Ik opteer op dit moment echter om bij het reviewen steeds te proberen te zorgen voor de best beschikbare hardware, om zo de gpu/videokaart tot bottleneck te maken. Op die manier zeggen de resultaten imo immers meest over de kaart die we testen.
Ik zou kiezen voor testplatform die regelmatig up-to-date wordt gebracht, maar het is niet nodig hem bij (bijna) elke review te updaten. Als Intel/AMD met een processor komt die 5% sneller is dan het vorige topmodel boeit dat echt niet voor een videokaartenreview:

1. Vaak zijn benchmarks op de hogere resoluties al helemaal gpu gelimiteerd en zorgt een snellere cpu niet voor betere presaties
2. Het heeft geen effect op de relatieve prestaties. Als de ene kaart 5% minder presteert door een kleine cpu bottleneck heeft de andere kaart hetzelfde nadeel
3. De meeste van onze gebruikers zullen ook niet beschikken over de allersnelste cpu, of overwegen deze aan te schaffen. Testen met een wat betaalbare processor geeft de gebruiker een realistischere beeld met betrekking tot de framerates die hij zelf ook zou kunnen halen.

Daarnaast heeft het niet zo snel wisselen van testplatform het voordeel dat resultaten langer vergelijkbaar zijn, alhoewel de houdbaarheid door driverupdates wel beperkt is. Maar hoe langer resultaten van verschillende reviews onderling vergelijkbaar zijn, hoe beter.
quote:
Belangrijkste vraag aan jullie: waar en hoe halen we dus optimale drivers vandaan?
Videokaartdrivers kunnen altijd zonder problemen van de site van amd/nvidia gehaald worden. Ik gebruik iig gewoon altijd de recenste driver die daar te vinden is (dit is immers ook wat de gebruiker zal installeren). Uitzondering zijn natuurlijk nog niet uitgebrachte kaarten waarvoor vaak een beta driver van ati/nvidia nodig is.
quote:
Besturingssysteem: Vista / XP. Hoewel veel gamers bij XP blijven zweren, duiken er nu al af en toe tests op waarvoor Vista een vereiste is. Het lijkt me dan ook het meest logische om steeds alle tests zowel op Vista àls op XP te draaien.
Dat zou ik niet doen, simpelweg omdat je daar heel veel werk mee op de hals haalt en het niet echt veel toevoegd. Je kan - zeker met het blik op de toekomst - het beste kiezen voor Windows Vista en dan een mix van DirectX 9, DirectX 10 en OpenGL-titels.
quote:
Te draaien benchmarks
Die lijst daar is - als je het echt goed wilt doen - te kort. Zie bijv. een willekeurige review van AnandTech voor een flinke lijst met geschikte games. Zelf test ik nu met:

- Crysis
- Company of Heroes: Opposing Fronts
- Enemy Territory: Quake Wars
- Half-Life 2: Episode 2
- 3DMark06

Dat zijn alle games/benchmarks die goede ingebouwde mogelijkheden hebben op de framerate te testen. Call of Duty 4 en The Elder Scrolls IV: Oblivion hebben als nadeel dat er geen ingebouwde benchmarkfunctionaliteit inzit. Dan moet je met fraps handmatig een scene uitzoeken en daar doorheen lopen, maar dat is vaak niet betrouwbaar omdat je nooit exact dezelfde weg kan volgen. Dus dan zal je het een aantal malen moeten doen, het gemiddelde van nemen, en dat als resultaat opschrijven.

Voor sommige erg populaire titels zoals Call of Duty 4 wellicht een goed idee, maar ik zou verder zoveel mogelijk proberen dergelijke benchmarks te vermijden. Het is arbeidsintensief en nite zo betrouwbaar.

Overigens zal deze lijst regelmatig geupdate moeten worden, als er een nieuwe grote titel verschijnt die geschikt is kan die meegenomen worden en een wat oudere, niet meer zo belangrijke titel, kan er dan af.
quote:
Resoluties: alle standaardresoluties vanaf 800x600 tot zo hoog mogelijk, lijkt me het zinvolst
Dat lijkt me niet het handigst. Je kan het beste een paar (bijvoorbeeld drie) resoluties kiezen die het relevanst zijn. Voor een budgetkaart kies je bijv. voor 1024x768, 1280x1024 en 1650x1080 en bij een high-end kaart kies je voor 1650x1080, 1920x1200 en 2560x1600. Een high-end kaart testen op 1024x768 is net zo min interessant als een budgetkaart op 2560x1600.
quote:
Geluidsproductie: in een afgesloten kast met de kaart idle en onder belasting
Je kan beter de geluidsproductie meter zonder kast en met alle andere fans uit. Als je dat niet doet kan je waarschijnlijk niet eens het verschil tussen twee videokaarten meten. Hierbij is het overigens aan te raden om een passief gekoelde voeding te gebruiken en een testsysteem met 1 harde schijf die in een geluidsisolerende behuizing is geplaatst.
quote:
Temperatuur: softwarematig? gesloten kast? probleem is dat het nog een beetje realiseerbaar moet blijven, het handigste is natuurlijk de temps softwarematig uitlezen, maar da's dan weer niet het betrouwbaarste. Input welkom.
Hardwarematig is ook absoluut niet betrouwbaar omdat je de temperatuursensor niet of nauwelijks vlak bij de core zal kunnen plaatsen. Je zal waarschijnlijk bij elke videokaart een stuk van het koelblok moeten wegschuren als je dat wilt doen: imo niet haalbaar.
quote:
stroomverbruik
beeldkwaliteit
warmteproductie

Wil je dit soort dingen ook mee gaan nemen of niet?
Dat lijkt me wel, hoewel ik de beeldkwaliteit niet standaard in elke review zou willen behandelen. Het gebeurt niet vaak dat er wat dat betreft iets veranderd.
quote:
Framerates
- Minimum
- Average
- Maximum
Opzich interessant, maar helaas niet mogelijk bij veel/de meeste benchmarks.
quote:
- AA modi: niet alleen 4x, maar ook 8x AA.
Ik vind het zelf het beste om slechts 1 modi te testen. Sommige mensen willen de prestaties zonder AA zien, andere 2x en weer andere 4x/8x. Vaak zijn dit soort dingen wel aardig om te weten of daar verschillen inzetten, maar je moet ook een beetje de presentatie van de review in je achterhoofd houden. Als je elke game met 10 verschillende instellingen test dan krijg je een enorme hoeveelheid resultaten, grafieken en cijfertjes waarbij het overzicht totaal verloren gaat. Mede hierom zou ik ook een beperkt aantal resoluties testen en slechts 1 besturingssysteem.

De extra gegevens zullen niet significant veel toevoegen en slechts een kleine groep mensen maak je er blij mee. De overige mensen krijgen een review voor de kiezen met zoveel gegevens dat het overzicht snel helemaal weg is. Oftewel: ik denk dat je de review voor meer mensen minder aantrekkelijk maakt als je zoiets doet, dan dat het voor de andere groep aantrekkelijker wordt.

  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 18-04 22:48
Met CoD4 kan je een timedemo opnemen. En die kan je later gemakkelijk afspelen, en met fraps kan je natuurlijk gem FPS meten. Geen inbuild benchmark, maar wel genoeg functies om het te maken :)

En helaas is het niet altijd mogelijk om WHQL drivers te gebruiken. Zeker als je de review op de launchdag openbaar maakt. Vooral met de high-end speciale kaarten, bijv de 7950GX2. Dan ben je gewoon genootzaakt om een beta driver te gebruiken. Omdat het anders simpel weg niet werkt.

Mijn gamebenchmark lijst zou zijn:

Crysis
Bioshock/UT3
Company of heroes
Oblivion
World in conflict

www.frees-it.com


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
Lijkt mij een aardig begin, maar ik zou er iets meer nemen. Even voor the record, de lijst de AnandTech gebruikt. Zoals je ziet ongeveer de lijst die jij voorstelt gemixt met het lijstje van mij.

- Bioshock
- Call of Duty 4
- Crysis
- Enemy Territory: Quake Wars
- Half Life 2: Episode Two
- Oblivion: Shivering Isles
- Unreal Tournament 3
- The Witcher
- World in Conflict

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Hielko schreef op zaterdag 01 maart 2008 @ 18:20:
Lijkt mij een aardig begin, maar ik zou er iets meer nemen. Even voor the record, de lijst de AnandTech gebruikt. Zoals je ziet ongeveer de lijst die jij voorstelt gemixt met het lijstje van mij.

- Bioshock
- Call of Duty 4
- Crysis
- Enemy Territory: Quake Wars
- Half Life 2: Episode Two
- Oblivion: Shivering Isles
- Unreal Tournament 3
- The Witcher
- World in Conflict
Ik zou toch echt voor het benchen van integrated GPUs nog een aantal dingen met wat lagere eisen toevoegen. Als ik deze waslijst zie, denk ik dat er niet een tussenzit die op een G45 boven de 10FPS uit gaat komen. Civ4 was al genoemd, iets in die regionen zou handig zijn - en ja, bij fatsoenlijke losse GPUs zou het al snel CPU limited zijn, maar goed, het beste wil je een reeks van apps van GPU extensief (goed voor UMA) via middelmatig GPU intensive (games van eerdere generatie, RTSsen van nu) tot echte high-end monsters (Crysis enzo). Dat zijn ook de verschillende profielen van users namelijk.

Soittakaa Paranoid!


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
Voor het benchmarken van integrated gpu's en ultra budget kaarten zou ik niet direct willen kiezen voor compleet andere benchmarks, maar eerder voor andere instellingen. Bijv.

igp: 800x600, 1024x768 en 1280x1024 (allemaal zonder FSAA en AF)
budget: 1024x768, 1280x1024 en 1650x1080 (allemaal met 4x FSAA en 16x AF)
high-end: 1650x1080, 1920x1200 en 2560x1600 (allemaal met 4x FSAA en 16x AF)

Ik denk dat de next-gen generatie igp's wel rond de 30fps kan halen op 1024x768, AMD's 690G-chipset komt nu al bij de wat minder zware benchmarks (hl2:ep2 bijv.) al een heel eind. Daarnaast kan je ook nog kiezen om andere grafische instellingen omlaag te zetten, ipv high wat eigenlijk standaard is bij videobenchmarks zou je voor medium kunnen kiezen. Maar echt belangrijk vind ik dit eerlijk gezegd ook niet, immers: als je wilt gamen koop je toch geen mobo met geintegreerde graphics, daar is het simpelweg te langzaam voor.

Dat gezegd hebbende er is wel iets voor te zeggen om bij de ultra low end benchmarks ook een paar wat oudere games op te nemen, omdat _als_ je iets zal willen spelen dat het toch vaak zal worden (aangezien de nieuwe games toch niet echt soepel zullen werken). Civ 4 is denk ik niet zo'n goede keuze, want volgens mij is dat spel zowieso zwaar cpu gelimiteerd. Misschien iets als Counter-Strike:Source, 3dMark05, C&C:Generals, Warcraft 3 om maar een paar titels te noemen.

Acties:
  • 0Henk 'm!

  • Arjan90
  • Registratie: september 2005
  • Laatst online: 19-04 23:03
C&C Generals heeft daarentegen zo'n brakke engine dat je de GPU niet zwaar kan belasten, met 8 spelers spelen en het spel loopt binnen 10 minuten half vast..

CS:Source lijkt me dan ook een goed alternatief evenals HL2 (wordt ook nog veel gespeeld volgens mij door mensen die het nog niet gespeeld hebben), Civ 4 lijkt inderdaad erg CPU limited. Warcraft 3 draait nog op mijn laptop (met een ATi Radeon 7000Mobile), niet perfect, maar het draait wel: elke huidige IGP draait WC3 dus met gemak zou ik zo zeggen. Een spel als NFS: Most Wanted zou eventueel ook getest kunnen worden bijv. als ouder spel? Volgens mij voor LAN nog steeds populair aangezien Carbon en ProStreet volgens mij geen LAN functie hebben.

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


Acties:
  • 0Henk 'm!

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Sp!tF!re schreef op zondag 02 maart 2008 @ 09:28:
C&C Generals heeft daarentegen zo'n brakke engine dat je de GPU niet zwaar kan belasten, met 8 spelers spelen en het spel loopt binnen 10 minuten half vast..
Hangt af van map in kwestie, maar het is idd in staat om ook te pas en onpas een zeer fatsoenlijk systeem op z'n knieen te krijgen. Volstrekt ongeschikt voor benchmarks - wel leuk om te spelen als je een speelbare map hebt ;)
quote:
CS:Source lijkt me dan ook een goed alternatief evenals HL2 (wordt ook nog veel gespeeld volgens mij door mensen die het nog niet gespeeld hebben), Civ 4 lijkt inderdaad erg CPU limited.
Integendeel. Het draait prima op een AthlonXP met een sloot RAM en een GeForce4Ti, maar op een Core2Duo laptop met GMA950 kun je het vergeten. Lijkt me redelijk GPU-limited dan :z
quote:
Hielko schreef op zaterdag 01 maart 2008 @ 21:20:
Voor het benchmarken van integrated gpu's en ultra budget kaarten zou ik niet direct willen kiezen voor compleet andere benchmarks, maar eerder voor andere instellingen. Bijv.

[...]

Maar echt belangrijk vind ik dit eerlijk gezegd ook niet, immers: als je wilt gamen koop je toch geen mobo met geintegreerde graphics, daar is het simpelweg te langzaam voor.

Dat gezegd hebbende er is wel iets voor te zeggen om bij de ultra low end benchmarks ook een paar wat oudere games op te nemen, omdat _als_ je iets zal willen spelen dat het toch vaak zal worden (aangezien de nieuwe games toch niet echt soepel zullen werken). Civ 4 is denk ik niet zo'n goede keuze, want volgens mij is dat spel zowieso zwaar cpu gelimiteerd. Misschien iets als Counter-Strike:Source, 3dMark05, C&C:Generals, Warcraft 3 om maar een paar titels te noemen.
Als je in VB naar de "Welke ... moet ik kopen?"-topics kijkt (sowieso niet de bedoeling, maar ze worden toch regelmatig gepost) zie je dat de meesten niet gaan over de vraag of iemand een 8800GT(X) of een HD3870 (al dan niet X2) moet nemen waar boekdelen over te vinden is, maar juist over situaties van een budget van EUR 50 voor GPU en de vraag of IGP of losse GPU voor dat budget toereikend is voor Crysis...

Misschien relevant om te gaan bepalen exact wat we willen reviewen/benchmarken. Als we ons alleen maar focussen op de 'enthousiast' market vinden we het wiel opnieuw uit. In het beste geval kunnen we het niveau evenaren van andere sites met jarenlange ervaring. En OK, wij doen het dan in NL, wat dan weer onderscheid geeft, maar goed, kijk naar het profiel van een 'enthousiast' - hij kan prima EN-talige info verzamelen. Dat geldt veel minder voor Jan-met-de-Pet, de soort persoon die met EUR 50 Crysis wil draaien, maar geen benul heeft dat wel eens onmogelijk zou zijn. Op dit moment is er maar een site die consequente benchmarks doet van high- tot low-end GPUs, en dat is THG. Geen toeval dat we hier in de FAQ naar Tom's VGA charts verwijzen... Toch is ook bij THG de dekking qua low-end kaarten nogal patchy en ontbreken integrated GPUs :o

Er ligt daar dus terrein braak, en getuige de topics die we hier in VB voorbij zien komen is dat ook nog eens een gebied waar veel Tweakers (en dan met name de casual bezoekers) vragen hebben.


Bovenstaande wil niet zeggen dat we niet 9600GT en consorten moeten benchen hey, ik moet binnenkort upgraden, en dat ding zit op m'n shortlist, samen met de andere usual suspects :+ - maar daar onderscheiden we ons niet mee. Juist in de low-end kunnen we dat wel doen, en dan inderdaad door volledig vergelijkbare benches te nemen, dus ook IGPs met Crysis testen ( :X ) en omgekeerd constateren dat vanaf de 7600GS Civ4 CPU limited is, maar dat dan vanuit meting en niet vooroordeel.

Soittakaa Paranoid!


  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 18-04 22:48
Geluids metingen zijn idd het beste zonder de kast. Dus gewoon moederbord op een soort eiermatje. En dan geluidsmeet apperatuur op een statief een x aantal centimeters erboven. Passieve voeding en als hardeschijf misschien een SSD? Waar dus het OS opstaat en een willekeurige game, om het geluid te meten. De rest van de games/etc kan op normale hdd.

Misschien nog enkele samples opnemen.

Geluids frequentie meten is imo beetje zinloos. Als het geluid erg storend is dan wordt het wel los vermeld in de review lijkt me.

Low end kaarten benchmarken kan natuurlijk goed. Alleen ik ben er zelf ook niet zo'n fan van om er andere games voor te gaan gebruiken. Instellingen standaard op medium- low en resolutie van 800x600 tot 1280x1024.
Eventueel nog 1a2 specifieke low-end games.

Want mensen die low-end videokaarten/geïntegreerde meuk hebben, zijn over het algemeen niet zo geintresseerd in de prestaties van hun kaart. Natuurlijk kan je daar wel mee terrein winnen, maar de vraag is hoeveel :)

Energie meting is makkelijkst om gewoon een wattmeter tussen stopcontact en voeding te hangen. Dan heb je natuurlijk niet de exacte hoeveelheid, maar je kan wel een duidelijk verschil zien tussen de kaarten. Om echt het verbruik van de videokaart alleen te meten, is vrij lastig.

Nog even over de games,

The witcher heeft dacht ik geen ingame-benchmark zitten. En ik dacht ook niet dat het mogelijk was om timedemo's te maken. Dat is dus vrij lastig om goed te kunnen benchen.

www.frees-it.com


  • Arjan90
  • Registratie: september 2005
  • Laatst online: 19-04 23:03
quote:
dion_b schreef op zondag 02 maart 2008 @ 21:50:
[...]

Hangt af van map in kwestie, maar het is idd in staat om ook te pas en onpas een zeer fatsoenlijk systeem op z'n knieen te krijgen. Volstrekt ongeschikt voor benchmarks - wel leuk om te spelen als je een speelbare map hebt ;)

[...]

Integendeel. Het draait prima op een AthlonXP met een sloot RAM en een GeForce4Ti, maar op een Core2Duo laptop met GMA950 kun je het vergeten. Lijkt me redelijk GPU-limited dan :z

[...]
Ik bedoelde juist dat CS:S niet CPU limited was? :P Generals heeft een degelijke brakke engine dat de GPU niet te testen is ... dus lijkt CS:S me een goed alternatief. Of spreek ik nu brak Nederlands, net zo brak als de engine van Generals is? :9

Offtopic: Generals is inderdaad een zeer leuk spel, maar goed... ;) Wat doe je eraan, zolang het maar met Zero Hour is _/-\o_

"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Bladeslayer schreef op maandag 03 maart 2008 @ 15:27:
[...]

Low end kaarten benchmarken kan natuurlijk goed. Alleen ik ben er zelf ook niet zo'n fan van om er andere games voor te gaan gebruiken. Instellingen standaard op medium- low en resolutie van 800x600 tot 1280x1024.
Eventueel nog 1a2 specifieke low-end games.
Ik wilde vooral aangeven dat ik ook niet voorstander ben van andere games te pakken. IMHO moet je je hele testsuite op alle GPUs draaien, waarbij het onvermijdelijk is dat een aantal high-end games niet (zinnig) draaien op de IGPs en low-end losse kaarten, en dat een low-end ding volledig CPU limited is bij de snellere kaarten.
quote:
Want mensen die low-end videokaarten/geïntegreerde meuk hebben, zijn over het algemeen niet zo geintresseerd in de prestaties van hun kaart. Natuurlijk kan je daar wel mee terrein winnen, maar de vraag is hoeveel :)
Even een steekproef:

Van de laatste 30 in VB gesloten "Welke moet ik kopen?"-topics:

Aantallen per budget-categorie:
  • Ultra-low-end (EUR <75) 5
  • Low-end (EUR 75-125) 6
  • Mainstream (EUR 125-200) 8
  • Enthousiast (EUR >200) 6
  • Geen vermelding 5
Opvallend is verder dat zeker een derde van het totaal over AGP-kaarten ging. Deze verdeling lijkt dus een nadruk op mainstream (zeg maar 8800GS/HD3850) segment te rechtvaardigen, maar als je kijkt naar de verdeling bij andere reviewsites zie je 60% focus op Enthousiast, misschien 25% op Mainstream en dan af en toe wat daaronder hangt, terwijl ruim tweevijfde van de vragen waar een budget uit te halen was daarover gaan - in ieder geval bijna het dubbele van Enthousiast alleen.

Er zijn dus wel degelijk zat mensen die low-end spul overwegen en zich wel om performance bekommeren. Bedenk daarbij vooral dat "performance" in dat segment ook kan gaan om dingen als warmteproductie en HD-decoding, maar dat er genoeg mensen zijn die even een spelletje willen spelen op hun HTPC ;)
quote:
Energie meting is makkelijkst om gewoon een wattmeter tussen stopcontact en voeding te hangen. Dan heb je natuurlijk niet de exacte hoeveelheid, maar je kan wel een duidelijk verschil zien tussen de kaarten. Om echt het verbruik van de videokaart alleen te meten, is vrij lastig.
Tja, doe een baseline meting met een PCI videokaart uit het jaar nul, S3 Trio64 oid. Het verbruik van zo'n ding is bij benadering verwaarloosbaar. Doe vervolgens meting met videokaart erop :z

Soittakaa Paranoid!


  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 18-04 22:48
Hmm ja, ik zat al weer veel te moeilijk na te denken :+ Dat is inderdaad de beste/simpelste methode :)

En ik moet zeggen, je komt inderdaad met vrij overtuigend bewijs aan :P Trouwens nu je het zegt, is het niet leuk om er inderdaad wat HD-decoding testjes toe tevoegen?

www.frees-it.com


  • tikkietrugjaap
  • Registratie: juli 2005
  • Laatst online: 19-04 16:23
Wat misschien ook een goed idee zou kunnen zijn, is om de review in zowel het Nederlands als het Engels te doen. Vooral als jullie geen 13 in een dozijn producten willen reviewen. Er is niet vervelenders dan EINDELIJK een review tegen te komen van het onderdeel dat jij zoekt om er daarna achter te komen dat je eerst een cursus Scandinavisch/Spaans/whatever moet nemen om het te begrijpen.

Misschien zijn "buitenlanders" niet jullie doelgroep maar ik denk dat het een kleine moeite is om het ook in het Engels te doen (desnoods wat later als er sprake is van exclusiviteit dmv eerder een review hebben dan anderen) en het T.net een prominentere plek geeft op de Interwebs.
Misschien wordt T.net straks wel in hetzelfde lijstje genoemd als Anandtech, Xbit, etc, je weet maar nooit :)

Prima.


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
quote:
dion_b schreef op maandag 03 maart 2008 @ 17:30:
Tja, doe een baseline meting met een PCI videokaart uit het jaar nul, S3 Trio64 oid. Het verbruik van zo'n ding is bij benadering verwaarloosbaar. Doe vervolgens meting met videokaart erop :z
Dat werkt nog steeds niet helemaal lekker. Omdat je het verbruik uit het stopcontact meet, meet je ook het verbruik van voeding en is de delta in het verbruik niet volledig toe te schrijven aan de videokaart. Afhankelijk van de efficientie - die overigens bij een voeding niet constant is bij verschillende belastingen - zal ca. 25% verbruikt worden door de voeding.

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

Klopt uiteraard. Maar goed, tenzij je de videokaart voor 100% via een losse lijn kunt voeden zie ik niet 1-2-3 een betere manier. Hoe dan ook testplatform constant houden bij benches van verschillende kaarten.
quote:
tikkietrugjaap schreef op dinsdag 04 maart 2008 @ 10:32:
Wat misschien ook een goed idee zou kunnen zijn, is om de review in zowel het Nederlands als het Engels te doen. Vooral als jullie geen 13 in een dozijn producten willen reviewen. Er is niet vervelenders dan EINDELIJK een review tegen te komen van het onderdeel dat jij zoekt om er daarna achter te komen dat je eerst een cursus Scandinavisch/Spaans/whatever moet nemen om het te begrijpen.

Misschien zijn "buitenlanders" niet jullie doelgroep maar ik denk dat het een kleine moeite is om het ook in het Engels te doen (desnoods wat later als er sprake is van exclusiviteit dmv eerder een review hebben dan anderen) en het T.net een prominentere plek geeft op de Interwebs.
Misschien wordt T.net straks wel in hetzelfde lijstje genoemd als Anandtech, Xbit, etc, je weet maar nooit :)
Tja... als je het echt goed doet in NL is zoiets misschien te overwegen, maar vergeet niet dat je rustig twee keer zoveel werk op de hals haalt dat te doen, en dat je ook andere mensen nodig hebt (iedere ploert in NL kan slecht Engels schrijven, maar fatsoenlijk professioneel Engels is een ander verhaal). Biedt dat dan meerwaarde aan ons T.net doelgroep? Ik weet het niet...

Los daarvan, mijn Pools/Noors/Spaans/wat dan ook is niet denderend, maar lijsten met stats/specs van testopstelling en grafieken met resultaten kan ik op sites in die talen net zo goed lezen als NL/EN/DE/FR.

Soittakaa Paranoid!


  • tikkietrugjaap
  • Registratie: juli 2005
  • Laatst online: 19-04 16:23
quote:
dion_b schreef op dinsdag 04 maart 2008 @ 13:47:
Tja... als je het echt goed doet in NL is zoiets misschien te overwegen, maar vergeet niet dat je rustig twee keer zoveel werk op de hals haalt dat te doen, en dat je ook andere mensen nodig hebt (iedere ploert in NL kan slecht Engels schrijven, maar fatsoenlijk professioneel Engels is een ander verhaal). Biedt dat dan meerwaarde aan ons T.net doelgroep? Ik weet het niet...

Los daarvan, mijn Pools/Noors/Spaans/wat dan ook is niet denderend, maar lijsten met stats/specs van testopstelling en grafieken met resultaten kan ik op sites in die talen net zo goed lezen als NL/EN/DE/FR.
Ach, als het maar grammaticaal correct is, moet het voldoende zijn. In het begin gebruik je de artikelen internationale aandacht krijgen. Indien dit het geval is dan kan je alsnog kijken of er niet iemand aangesteld kan worden om professionele Engelse stukken te schrijven.

Grafieken zijn inderdaad goed te lezen maar een echt goede review is meer dan alleen grafieken. Goede begeleidende tekst is vaak goud waard.

Maar ik opperde dit alleen om voor de lol te proberen, het leek me gewoon lachen als over een paar jaar T.net een internationaal bekende tech-site is.

Prima.


  • GoldenSample
  • Registratie: januari 2005
  • Niet online

GoldenSample

Huub, Huub, Barbatruc!

quote:
LDenninger schreef op donderdag 28 februari 2008 @ 17:11:
Waarop alleen First Person games ?
Misschien goed om eens wat meer across-the-board te testen,
met strategy-games als World in Conflict, Civilization IV etc.,
Race-games als NFS, DiRT etc.

Die renderen anders, dus misschien laten die wel bepaalde sterktes en/of zwaktes zien die in FP-games minder snel opvallen ?
het 'probleem' met spellen als WiC achtige word dat natuurkundige berekeningen en berekeningen van wat de omgeving moet doen een zware belasting worden voor de CPU.
Goed voorbeeld hiervan is Command and Conquer 3 Tiberium Wars dat door z'n brakkige engine slecht begint te lopen met veel units op 't slagveld (die zich buiten beeld zich bevinden). Ook in bijvoorbeeld Supreme commander is dit te merken, echter komt het in SC doordat je zo gigantisch veel units spammen kunt :+

Nog oude Videobanden of cassettes over? Stuur me een DM!


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op maandag 03 maart 2008 @ 17:30:
Ik wilde vooral aangeven dat ik ook niet voorstander ben van andere games te pakken. IMHO moet je je hele testsuite op alle GPUs draaien, waarbij het onvermijdelijk is dat een aantal high-end games niet (zinnig) draaien op de IGPs en low-end losse kaarten, en dat een low-end ding volledig CPU limited is bij de snellere kaarten.
De hele testsuite op alle GPU's is redelijk onzinnig omdat de helft van de resultaten er niet toe doet. Dat is zonde van jullie tijd. Ik zou 3 suites voor de klassen low-end mid-end en high-end maken. De games zouden in principe wel t zelfde moeten zijn, maar de instellingen anders. De instellingen voor de testsuites moeten zo gezocht worden dat games gemiddeld voor de kaarten in deze range wel speelbaar zijn. Zeg maar een bereik van 25-60 fps.
Wat betreft de keuze van de games: ik zou goed geprogrammeerde games kiezen die een goede GPU afhankelijkheid tonen. Maar dat is logisch. :P

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
aca schreef op woensdag 05 maart 2008 @ 17:50:
[...]


De hele testsuite op alle GPU's is redelijk onzinnig omdat de helft van de resultaten er niet toe doet. Dat is zonde van jullie tijd. Ik zou 3 suites voor de klassen low-end mid-end en high-end maken. De games zouden in principe wel t zelfde moeten zijn, maar de instellingen anders. De instellingen voor de testsuites moeten zo gezocht worden dat games gemiddeld voor de kaarten in deze range wel speelbaar zijn. Zeg maar een bereik van 25-60 fps.
Dat is appels met peren vergelijken. Dan hou je de vraag hoe een low-end kaart vergelijkt met een mid-range of een mid-range met een high-end kaart. Dat zijn valide vragen. Je moet een sleutel hebben, een benchmark die je op alles draat en zo alles vergelijkbaar maakt. Maar een enkele sleutel is niet genoeg, omdat er niets is wat perfect van alles van een GMA950 tot een 8800GTX SLI opstelling schaalt. Dus je hebt meerdere sleutels nodig. En als je toch al meerdere sleutels nodig hebt, kun je net zo goed alles op alle GPUs doen.
quote:
Wat betreft de keuze van de games: ik zou goed geprogrammeerde games kiezen die een goede GPU afhankelijkheid tonen. Maar dat is logisch. :P
Duh :z

Maar ook daar, wanneer een game GPU afhankelijk is en wanneer CPU afhankelijk verschilt fors. UT2K4 is bij de huidige low-end prima GPU afhankelijk, maar vanaf midrange bij uitstek CPU afhankelijk.

Het lijkt me trouwens verstandig een vrij korte lijst van games te hanteren, en 3DMark helemaal te laten schieten. Ipv tientallen games zou het interessanter zijn om verschillende driverversies te nemen (bijv. laatste WHQL vs meest recente beta/non-WHQL), of verschillende OSsen (Vista vs XP, maar ook Linux meepakken).

Soittakaa Paranoid!


  • roy-t
  • Registratie: oktober 2004
  • Laatst online: 08-04 17:03
Eerlijk gezegd vind ik het onzin om nog voor XP te testen. In den beginne van Vista was er nog een redelijk verschil in performance in veel hardware als je voor Vista koos. Maar tegenwoordig merk ik het zelf in ieder geval niet meer.

Verder is het voor de vergelijking van kaarten helemaal niet interessant of XP 3% sneller is. Zolang maar niet de ene kaart alleen op XP en de andere kaart alleen op Vista getest wordt.

Software lijkt me dus vrij simpel. Vista, kaal met altijd de nieuwste drivers voor de hardware die getest wordt.

En geen rare optimalizaties gaan doen zoals Aero uitzetten bijvoorbeeld :-) kan wel even voor de grap erbij (niet dat er verschil zou mogen zijn) maar laat in iedergeval het OS zo veel mogelijk zoals het standaard is. :-)

@DionB

Als iets high-end GPU afhankelijk is is het ook LowEnd GPU afhankelijk toch? :-) problem solved!

roy-t wijzigde deze reactie 05-03-2008 21:38 (6%)

~ Mijn prog blog! ~ @RoyTries


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
quote:
Het lijkt me trouwens verstandig een vrij korte lijst van games te hanteren, en 3DMark helemaal te laten schieten. Ipv tientallen games zou het interessanter zijn om verschillende driverversies te nemen (bijv. laatste WHQL vs meest recente beta/non-WHQL), of verschillende OSsen.
Dat begint na 1x ook wel te vervelen als blijkt dat er nauwelijks verschil zit tussen verschillende drivers en verschillende ossen (linux vs windows uitgezonderd, maar op linux heb je zowieso niet echt een werkende directx omgeving). Een vrij korte lijst van games heeft als nadeel dat videokaarten relatief gezien wel compleet anders kunnen presteren bij andere games. Heb je bijvoorbeeld een set van vijf benchmarks en er zitten toevallig twee positieve uitschieters in voor een bepaalde architectuur heeft dat een zware invloed in het gemiddelde beeld dat uit de review naar voren komt. Teveel benchmarks zou ik absoluut ook niet doen, maar iets van 8-10 oid lijkt me erg goed.

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Hielko schreef op woensdag 05 maart 2008 @ 21:55:
[...]

Dat begint na 1x ook wel te vervelen als blijkt dat er nauwelijks verschil zit tussen verschillende drivers en verschillende ossen
*Als* ja, maar als je kijkt naar de zeer verhitte discussies in o.a. de Grote ATi en nVidia topics over exact welke versie driver gebruikt wordt, om nog maar te zwijgen over de zeer forse Vista vs XP verschillen hier en daar is dat een grote *als*.

Ter onderbouwing een artikel over XP SP2 vs XP SP3 vs Vista vanilla vs Vista SP1:
quote:
Conclusion

[...]

XP vs Vista scores showed a large performance gap and XP is faster than Vista on every front. Althought, Company of Heroes and Crysishad higher graphics options enabled in Vista and before the Vista fanboys shout "Apples to Oranges" testing let me defend myself in saying that if you are mainly a gamer and you don't care anything about Vista's features over XP's features then Direct X 10 eye candy is the only reason to consider switching to Vista - that is why I enabled it. And the difference was staggering to say the least. And personally, in Company of Heroes I could barely tell the difference while playing the game.


Company of heroes XP vs Vista showed nearly a 50% difference in Average FPS.
Heyzus Christo!

[...]

So, from a purely gaming perspective.....XP wins hands down. The only game that looks marginally better when running in Vista is Crysis but is nearly but the performance hits hurt it alot. I for one would rather have smooth gameplay at the expensive of some relativly minor graphics enhancements.

[...]

The word on the street is that Vista sucks - and while XP is the leads the OS market in terms of number of users I think that developers are going to make sure their OS works better on XP first and worry about Vista second. At least, thats how i think it's been going this past year - things will probably change when XP is no longer available for purchase starting later this year.
Kortom, er is vooralsnog een groot verschil ten voordele van XP, maar dat verschil gaat er niet eeuwig blijven. Alle reden dus om dat verschil te documenteren in je benchmarks.
quote:
(linux vs windows uitgezonderd, maar op linux heb je zowieso niet echt een werkende directx omgeving)
1) Wine heeft dat wel
2) OpenGL is anders prima native ondersteund.
quote:
Een vrij korte lijst van games heeft als nadeel dat videokaarten relatief gezien wel compleet anders kunnen presteren bij andere games. Heb je bijvoorbeeld een set van vijf benchmarks en er zitten toevallig twee positieve uitschieters in voor een bepaalde architectuur heeft dat een zware invloed in het gemiddelde beeld dat uit de review naar voren komt. Teveel benchmarks zou ik absoluut ook niet doen, maar iets van 8-10 oid lijkt me erg goed.
Lijkt mij erg veel worden, door de brede spreiding mis je de diepgang (bijv mbt drivers en OS, die allerminst verwaarloosbaar zijn). Lijkt me handiger om van tevoren goed stil te staan bij welke benches welke bias hebben en dan zorgen dat de paar die je kiest daar goed rekening mee houden.
quote:
roy-t schreef op woensdag 05 maart 2008 @ 21:37:
Eerlijk gezegd vind ik het onzin om nog voor XP te testen. In den beginne van Vista was er nog een redelijk verschil in performance in veel hardware als je voor Vista koos. Maar tegenwoordig merk ik het zelf in ieder geval niet meer.

Verder is het voor de vergelijking van kaarten helemaal niet interessant of XP 3% sneller is. Zolang maar niet de ene kaart alleen op XP en de andere kaart alleen op Vista getest wordt.
De tests moeten zeker gelijkgehouden worden voor alle kaarten, maar gezien de hele drivermodel voor Vista en XP anders is, de performance sterk uiteen kan lopen tussen Vista en XP, en een zeer groot deel van het gamend publiek om die reden Vista (voorlopig) links laat liggen lijkt me het juist relevant. We zijn geen tak van Microsoft's marketingafdeling. Als alle gamers alleen maar Vista gebruiken kunnen we XP altijd alsnog laten vallen, maar zolang een groot deel van het doelpubliek dat zeer bewust niet doet, lijkt het me een goede zaak dat nog niet te doen.
quote:
Software lijkt me dus vrij simpel. Vista, kaal met altijd de nieuwste drivers voor de hardware die getest wordt.

En geen rare optimalizaties gaan doen zoals Aero uitzetten bijvoorbeeld :-) kan wel even voor de grap erbij (niet dat er verschil zou mogen zijn) maar laat in iedergeval het OS zo veel mogelijk zoals het standaard is. :-)
Kaal maar standaard :?

Lijkt me elkaar redelijk tegen te spreken. Verder zijn we Tweakers. Aero uitzetten is een van de meest voor de hand liggende tweaks om performance te verbeteren. Of zou je ook argumenteren dat een zwik aan spyware laten draaien tijdens de benchmarks goed is omdat de gemiddelde gebruiker meuk op z'n systeem heeft? :z

Hou er sowieso rekening mee dat niet alle Vista gebruikers überhaupt beschikken over Aero, maar iedereen kan Vista-zonder-Aero draaien.
quote:
@DionB

Als iets high-end GPU afhankelijk is is het ook LowEnd GPU afhankelijk toch? :-) problem solved!
Uhuh. En het feit dat je 0.6 FPS haalt met Crysis op de ene low-end ding tegenover 0.7 FPS op de andere zegt exact wat :?

Dat is als afstanden tussen pixels op het scherm met een kilometerteller meten. Het kan, maar je houdt er zo weinig resolutie over dat je alleen "weinig" kunt zeggen, niet meer dan dat. Om zinnig te vergelijken moet je iets hebben waarmee je grote, duidelijke verschillen krijgt (bijv. Civ4/UT2K4/oid is niet speelbaar op GMA950, wel op X3100).

dion_b wijzigde deze reactie 06-03-2008 01:14 (64%)

Soittakaa Paranoid!


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op woensdag 05 maart 2008 @ 19:15:
Dat is appels met peren vergelijken. Dan hou je de vraag hoe een low-end kaart vergelijkt met een mid-range of een mid-range met een high-end kaart. Dat zijn valide vragen. Je moet een sleutel hebben, een benchmark die je op alles draat en zo alles vergelijkbaar maakt. Maar een enkele sleutel is niet genoeg, omdat er niets is wat perfect van alles van een GMA950 tot een 8800GTX SLI opstelling schaalt. Dus je hebt meerdere sleutels nodig. En als je toch al meerdere sleutels nodig hebt, kun je net zo goed alles op alle GPUs doen.
Ik deel deze mening niet, omdat het relevante gebied voor games een fps 20-60 fps is. Vergelijk je een GMA950 met een G80SLi, dan is t altijd afwegen welke informatie je zinnig wil laten zijn. Als voorbeeld: kies je voor de eerste, dan krijg je ultra low instellingen waarbij de G80SLi>>>60 fps geeft, en de GMA misschien 22 fps. Kies je voor de laatste dan krijg je een score van miss 45 fps voor de SLi en 1,2 fps for de GMA. Ergo van de 4 resultaten is 50% niet informatief. Vandaar dat ik het met deze zin "En als je toch al meerdere sleutels nodig hebt, kun je net zo goed alles op alle GPUs doen." niet eens ben.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
aca schreef op donderdag 06 maart 2008 @ 12:27:
[...]


Ik deel deze mening niet, omdat het relevante gebied voor games een fps 20-60 fps is. Vergelijk je een GMA950 met een G80SLi, dan is t altijd afwegen welke informatie je zinnig wil laten zijn. Als voorbeeld: kies je voor de eerste, dan krijg je ultra low instellingen waarbij de G80SLi>>>60 fps geeft, en de GMA misschien 22 fps. Kies je voor de laatste dan krijg je een score van miss 45 fps voor de SLi en 1,2 fps for de GMA. Ergo van de 4 resultaten is 50% niet informatief. Vandaar dat ik het met deze zin "En als je toch al meerdere sleutels nodig hebt, kun je net zo goed alles op alle GPUs doen." niet eens ben.
Hoe wil jij dan exact aangeven hoeveel sneller een 8800GTX is dan een 8200TC?

Of onderbouwen voor een totale leek hoe zinloos het is om Crysis te willen spelen op een G33/X3100?

Soittakaa Paranoid!


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op donderdag 06 maart 2008 @ 17:01:
[...]

Hoe wil jij dan exact aangeven hoeveel sneller een 8800GTX is dan een 8200TC?

Of onderbouwen voor een totale leek hoe zinloos het is om Crysis te willen spelen op een G33/X3100?
Waarom is het interessant om te weten hoeveel exact een 8800GTX sneller is dan een 8200 TC? Dat ie veel sneller is dan namelijk al voldoende om het voor een leek aan te tonen. Het tweede hoef je niet te onderbouwen. Als je weet dat een 150 euro kaart een game niet trekt, dan is t niet al te moeilijk om te beredeneren dat IGP of 20 euro kaartje geen schijn van kans heeft. Anders ben je wel heel naief. Zelfs als leek.

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • The Flying Dutchman
  • Registratie: mei 2000
  • Laatst online: 19-04 12:02
Misschien moet je een vaste set instellingen gebruiken die je voor iedere kaart gaat testen. Daarnaast ga je kijken op welke instellingen een spel speelbaar is. Speelbaar kun je vervolgens bijvoorbeeld definieren als:
- gemiddeld 30 fps of hoger
- geen uitschieters onder 20 fps

Voor iedere kaart ga je kijken wat de maximale instellingen zijn waarbij je dit nog kunt halen. Een screenshot erbij dat je verteld hoe de game er met de betreffende speelbare instellingen eruit ziet. Dat is iets waar je als potentiele koper iets aan hebt. Je kunt dan kijken wat de kwaliteit van de graphics is bij speelbare instellingen en op basis daarvan beslissen wat je wilt kopen.
Daarnaast heb je gewoon een set standaard benchmarks waarbij je de performance kunt vergelijken tussen de kaarten. Daarbij lijkt het mij het meest interessant om benchmarks te kiezen waarbij de highend kaarten niet allemaal 200fps halen. Dat de lowend daarbij misschien slechts 3fps halen, ja dat is dan jammer... maar de 'speelbare instellingen benchmark' geeft dan een indicatie op welke instellingen die kaart nog wel een speelbare game oplevert en dat geeft toch een aardig idee van wat je van zo'n kaart kan verwachten.

Op het highend vlak lijkt het mij veel interessanter om de prestaties goed te kunnen vergelijken, daarom zou ik voor een benchmark set kiezen die de highend kaarten flink laat zweten. Qua OS: tsja, als een combinatie van XP en Vista tot de mogelijkheden behoort, dan zou ik daarvoor kiezen.
Indien dit niet mogelijk is: Vista, daar heb je tenslotte DirectX 10 en dat heeft toch de toekomst. Over een jaar zullen veel van de games die uitkomen DirectX 10 zijn en op een gegeven moment denk ik dat er ook wel verschil in grafische kwaliteit te zien zal zijn tussen DirectX 10 en DirectX 9. Welke zichzelf respecterende gamer zal dan nog voor het verouderde DirectX 9 kiezen als hij mooiere graphics kan krijgen met DirectX 10?
Overigens komt in 2009 (als ik het goed onthouden heb) ook DirectX 11 uit en zal XP nog verder gaan achterlopen op Vista. Kortom, als er een keuze gemaakt moet worden tussen de twee OS'en, kies dan voor Vista, dit heeft tenslotte de toekomst (en daarbij is het natuurlijk zo dat je kaarten vergelijkt, dus iedere game en iedere kaart heeft dezelfde kansen, want dan test je ze allemaal onder Vista).

The Flying Dutchman


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
aca schreef op donderdag 06 maart 2008 @ 18:47:
[...]


Waarom is het interessant om te weten hoeveel exact een 8800GTX sneller is dan een 8200 TC? Dat ie veel sneller is dan namelijk al voldoende om het voor een leek aan te tonen. Het tweede hoef je niet te onderbouwen. Als je weet dat een 150 euro kaart een game niet trekt, dan is t niet al te moeilijk om te beredeneren dat IGP of 20 euro kaartje geen schijn van kans heeft. Anders ben je wel heel naief. Zelfs als leek.
Als redelijke niet-leek die toch vaak op zoek is naar performance cijfers in het low-end gebied kan ik je melden dat er één goede reden is om te weten exact hoe het zit, en dat is simpelweg dat die info *nergens* te vinden is. Waarschijnlijk doordat veel enthousiasten zoals jij heel hard roepen dat de low end niet boeit, of in ieder geval niet direct vergeleken hoeft te worden met andere zaken, en reviewers die vooral met de 'sexy' dingen willen spelen en pronken.

En die leek he, die gaat in het beste geval zoeken op Google of GoT search op iets als "crysis performance 8200". Wat vindt hij dan? Niets zinnigs :o Dus opent hij hier een topic. En als we toch bezig zijn met vragen te beantwoorden (dat is waar benchmarks per slot van rekening voor zijn), doen we er dus verstandig aan om de gestelde vragen te beantwoorden. Dat scheelt hier loze topics en erkent bovendien waar de vragen van Tweakers (in de breedste zin) over gaan, en dat is muv een relatief klein groepje enthousiasten (voor een groot deel de VB regulars) veel lager in de hardwarerange dan je blijkbaar beseft...

Soittakaa Paranoid!


  • rapture
  • Registratie: februari 2004
  • Laatst online: 10-02 23:39

rapture

Zelfs daar netwerken?

Ik zou met realistische game-omstandigheden benchen. Dat kan je indelen in een demo van een gebruikelijke clanwar en een demo van een stampvol public server met over-the-top-actie.
  • bv World in Conflict met 8 versus 8, goede samenwerking, harde actie en massieve nuking/bombardementen. Niet raar dat de ingame-bench van WiC vrij zwaar is om de spelers een realistisch beeld van systeemeisen/performance te geven. Bij WiC zou ik de framerate-grafiek van het spel willen zien, dat toont naast het gemiddelde ook maximum, minimum en je ziet ook waar de framerate meestal hangt.
  • bv RTCW: Enemy Territory in gebruikelijke clanwar en een demo van nexus-64-spelers-server op een uitgestrekte map zoals Fuel Dump, waar er bakken artillerie regent, massale gevechten,...
Veel reviewers zitten met de nieuwste/duurste (en bij voorkeur niet-voor-verkoop-gemaakte-extreme-edition-processors) te benchen, terwijl de gebruikers met een gebruikelijke processor zitten. De gebruikers hebben meer aan, een review dat laat zien hoe grafische kaarten op een nieuwe Wolfdale schaalt, daarnaast zie je een grafiek hoe grafische kaarten op een Core 2 Duo E6600 schaalt en je hebt nog een grafiek voor de oudere bakken (bv Athlon 64 X2 3800+). Zie kunnen de gebruikers in de review lezen of het zinnig is om bv hun 7900 GT up te graden naar GeForce 9600 GT of GeForce 8800 GT. Huidige reviews creëren het beeld, dat de grafische kaart alles voor je games betekent, totdat je een processorvergelijking ernaast zet. Maar processorvergelijkingen bespreken slechts 1 grafische kaart, dat zegt weinig over hoe andere grafische kaarten op processors schalen. Om het haalbaar te houden zou ik op 3 verschillende processors/setups houden.

Infraroodbeelden van de grafische kaarten in actie mogen zeker niet ontbreken en hiermee kunnen we zelfs een primeur halen. De eerste infraroodbeelden van grafische kaarten werd in GoT gepost. Sinds GeForce 7900 GT vallen nVidia-kaarten na 1 à 2 jaar met hopen uit, wegens het feit dat bepaalde onderdeeltjes op de grafische kaart 100°C bereiken of zelfs overstijgen. Detecteer deze hotspots en we kunnen massaal koelvinnetjes erop plakken om de levensduur te verlengen.

rapture wijzigde deze reactie 08-03-2008 15:23 (3%)

EOS 30D, kitlens, EF 50mm/1.8, EF 85mm/1.8


  • Bladeslayer
  • Registratie: mei 2005
  • Laatst online: 18-04 22:48
Een van de redenen waarom met zo'n processor wordt getest, is omdat je niet wil hebben dat de bottleneck bij je CPU ligt. Je bent videokaarten aan het testen en dat wil je graag in een optimale omgeving.

Met een mindere processor heb je kan dat je pas echt prestatie verschil gaat zien op hogere resoluties -> verplaatsing bottleneck.

En het benchen van videokaarten heeft een redelijk hoog "babysit" gehalte. En om het dan op 3 verschillende systemen te laten draaien, lijkt me vrij veel.

Meestal run je een benchmark 3x en neem je daar het gemiddelde van. Stel je neemt 5 verschillende resoluties (vrij weinig nog) En je neemt 5 games. laten we zeggen dat een game benchmark zo'n 3 minuten duurt.

dan kom je op 3*5*5*3 = 225 minuten. Dat is vrij veel, zeker omdat je ook nog bezig bent met resultaten noteren/gemiddeldes nemen. Als je dat nou ook nog eens op 3 verschillende system wil, duurt het een factor 3 langer = 675 minuten = 11,25 uur babysitten.

Maar over het algemeen ben ik ook meer voor de timedemo's op de zwaardere servers (voor de spellen waar dat iig kan)

www.frees-it.com


  • Bitage
  • Registratie: april 2006
  • Laatst online: 10-04 23:44

Bitage

ayy lmao

Nog wat op/aanmerkingen over de bechgames etc.
Je zou The Experiment (aka eXperiece 112) kunnen gebruiken. Het is een zwaar spel, mits goed gebruikt, en dat is niet zo moeilijk ;) Gewoon een hele berg cams opengooien in dat spel en een zien hoe de graka daarop reageert.

Voor de rest misschien nog de Nature test van 3DMark'01, deze wordt zeer vaak gebruikt bij contests (de 2600Pro contest hierzo en atm ook bij de 8800GT contest op HW.info).

Ik denk dat er ook nog een goede standaard moet komen voor de instellingen bij 3DMark'01/'06.

Screenie van de instellingen van 3DMark'01 (destijds gemaakt voor de 2600Pro contest)
http://img292.imageshack.us/img292/9823/3dmarktk4.png

  • the_stickie
  • Registratie: juli 2001
  • Laatst online: 10:59
Imho is een goeie benchmark-db niets als het systeem continue verandert. Hieerom lijkt het mij aangewezen beiden te doen: testen op een gestandardiseerd toestel én op een nieuwe "performance systeem".
Daarenboven geldt: een videokaart kopen = budget + performance +kwaliteit +features in aanmerking nemen.
Allen kwaliteit is zo slecht objectief te meten. Ik vind het jammer dat testen van bijvoorbeeld signaalkwaliteit (zoals C't dat bijvoorbeeld doet) zo goed als onhaalbaar zijn voor reviewsites. Van een kwaliteitsmeting blijft dan niet vele meer over dan een objectieve geluiddrukmeting aangevuld met subjectieve indrukken omtrent bouwkwaliteit en duurzaamheid. Als T.Net hier wat op zou vinden hebben ze een gouden ei gevondne imho :)

  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op zaterdag 08 maart 2008 @ 14:50:
Als redelijke niet-leek die toch vaak op zoek is naar performance cijfers in het low-end gebied kan ik je melden dat er één goede reden is om te weten exact hoe het zit, en dat is simpelweg dat die info *nergens* te vinden is. Waarschijnlijk doordat veel enthousiasten zoals jij heel hard roepen dat de low end niet boeit, of in ieder geval niet direct vergeleken hoeft te worden met andere zaken, en reviewers die vooral met de 'sexy' dingen willen spelen en pronken.
Nou jah... nergens? THG heeft ze wel in hun VGA charts. De aandacht voor integrated graphics is trouwens laatst weer opgelaaid door leuke resultaten van nieuwe AMD chipsets. Voldoende sites raporteren daarover. Reviewers die liever met 'sexy' dingen willen spelen lijkt me puur menselijk. Kijk maar naar de autobusiness. Een programma als top gear met allemaal snelle exoten wordt een stuk beter bekeken dan transportwereld. Oja verder gelieve niet op de man spelen... :>
quote:
En die leek he, die gaat in het beste geval zoeken op Google of GoT search op iets als "crysis performance 8200". Wat vindt hij dan? Niets zinnigs :o Dus opent hij hier een topic. En als we toch bezig zijn met vragen te beantwoorden (dat is waar benchmarks per slot van rekening voor zijn), doen we er dus verstandig aan om de gestelde vragen te beantwoorden. Dat scheelt hier loze topics en erkent bovendien waar de vragen van Tweakers (in de breedste zin) over gaan, en dat is muv een relatief klein groepje enthousiasten (voor een groot deel de VB regulars) veel lager in de hardwarerange dan je blijkbaar beseft...
Ik zou als leek naar de Crysis site gaan en kijken naar de aanbevolen systeemvereisten. Maar dat zou een 'leek' natuurlijk nooit doen.. :?

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
aca schreef op dinsdag 11 maart 2008 @ 11:37:
[...]


Nou jah... nergens? THG heeft ze wel in hun VGA charts.
THG gaat ook niet tot aan de integrated VGA, en is in de mid- tot low-end nogal patchy
quote:
De aandacht voor integrated graphics is trouwens laatst weer opgelaaid door leuke resultaten van nieuwe AMD chipsets.
Niet alleen. De aandacht gaat steeds meer uit naar HTPCs, kleine behuizingen dus, en stroomverbruik is ook steeds meer in focus. Toch willen mensen met kleine behuizingen of prio voor laag verbruik ook gamen, dus willen ze de info waarmee ze zelf een goede afweging kunnen maken om tot een voor hun doeleinden aanvaardbaar compromis te komen.
quote:
Voldoende sites raporteren daarover.
Valt tegen. Ze rapporteren erover in afzondering, of vergelijken alleen een paar integrated dingen onderling. Het blijft appels en peren vergelijken.
quote:
Reviewers die liever met 'sexy' dingen willen spelen lijkt me puur menselijk. Kijk maar naar de autobusiness. Een programma als top gear met allemaal snelle exoten wordt een stuk beter bekeken dan transportwereld.
Da's leuk en wel, maar hoewel mensen zeer veel kijken naar Top Gear, is dat niet hun primaire bron van info voor hun volgende saaie Hyundai of Nissan. Daarvoor gaan ze naar www.autoweek.nl, waar ze specs, reviews en vergelijkingen van alle auto's, ook saaie 2e handsjes van saaie modellen van saaie merken - waar per slot van rekening de meesten van ons auto's halen.

Komt bij dat tenzij je Jeremy Clarkson kunt ritselen je geen schijn van kans maakt met een Top Gear-kloon. Je moet kijken waar er een gat in de markt is, en daarop focussen.
quote:
Ik zou als leek naar de Crysis site gaan en kijken naar de aanbevolen systeemvereisten. Maar dat zou een 'leek' natuurlijk nooit doen.. :?
Ik baseer me simpelweg op wat een sloot leken in VB doen. Hopelijk zijn er veel leken die wel op de Crysis site zien dat het bij voorbaat kansloos is, maar ervaring leert gewoon dat er genoeg zijn die dat niet zien. En als wij met een review het aantal loze topics als deze kunnen beperken is dat alleen maar mooi meegenomen. Maar hoofdzaak is niet een negatieve (geen brakke topics) maar een positieve (nergens elders structureel gegeven info wel bieden, focus meer op wat mensen echt kopen dan wat mensen zouden willen kopen als ze onbeperkt budget hadden).

Soittakaa Paranoid!


  • Yoeri
  • Registratie: maart 2003
  • Niet online
(overleden)
Beetje later door ziekte en zo, maar een update is in de startpost te vinden. Ben nog bezig met het uitwerken van de instellingen en zo :)

Kijkje in de redactiekeuken van Tweakers.net
22 dec: Onze reputatie hooghouden
20 dec: Acht fouten


  • Bitage
  • Registratie: april 2006
  • Laatst online: 10-04 23:44

Bitage

ayy lmao

quote:
Op dit moment gaat de voorkeur uit naar een drietal sets instellingen: eentje voor low-end, eentje voor mainstream, en eentje voor high-end. Op die manier blijven resultaten enigszins 'vergelijkbaar'
Euhm, nee. Als je videokaarten met verschillende instellingen gaat vergelijken, kun je netzogoed appels met peren gaan zitten vergelijken. Doe dan verschillende categorieën, maar doe dan ook diezelfde tests op een standaard niveau (dus met alle kaarten tegelijk). Op die manier kun je niet alleen binnen een segment vergelijken, maar ook globaal.

  • Madrox
  • Registratie: mei 2002
  • Laatst online: 17-04 20:49

Madrox

Oh, Pharaoh!

quote:
Bladeslayer schreef op zaterdag 08 maart 2008 @ 16:51:
Een van de redenen waarom met zo'n processor wordt getest, is omdat je niet wil hebben dat de bottleneck bij je CPU ligt. Je bent videokaarten aan het testen en dat wil je graag in een optimale omgeving.

Met een mindere processor heb je kan dat je pas echt prestatie verschil gaat zien op hogere resoluties -> verplaatsing bottleneck.

En het benchen van videokaarten heeft een redelijk hoog "babysit" gehalte. En om het dan op 3 verschillende systemen te laten draaien, lijkt me vrij veel.

Meestal run je een benchmark 3x en neem je daar het gemiddelde van. Stel je neemt 5 verschillende resoluties (vrij weinig nog) En je neemt 5 games. laten we zeggen dat een game benchmark zo'n 3 minuten duurt.

dan kom je op 3*5*5*3 = 225 minuten. Dat is vrij veel, zeker omdat je ook nog bezig bent met resultaten noteren/gemiddeldes nemen. Als je dat nou ook nog eens op 3 verschillende system wil, duurt het een factor 3 langer = 675 minuten = 11,25 uur babysitten.

Maar over het algemeen ben ik ook meer voor de timedemo's op de zwaardere servers (voor de spellen waar dat iig kan)
De snelst CPU gebruiken voor de benchmarks mag dan optimaal zijn, de relevantie is vrijwel nihil. Juist daarom ben ik ervoor om voor een CPU te kiezen die erg populair is en veel verkocht word.
Dat mag dan een bottleneck geven, maar dan zie je tenminste waar die bottleneck zit en hoe groot die is ipv. ernaar te gissen.

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


  • Femme
  • Registratie: juni 1999
  • Laatst online: 19-04 15:51

Femme

Hardwareconnaisseur

Official Jony Ive fan

Voor wat betreft het uitzoeken van methodes waarop populaire games getest kunnen worden zou ik uitgaan van de kennis en ervaring die hiermee reeds aanwezig is bij onder andere Jeroen (Bladeslayer) en Hielko.
quote:
Als testplatform gebruiken we een relatief vast systeem, dat regelmatig van een upgrade voorzien wordt om weer up-to-date te zijn naar de op dat moment geldende eisen van een flink gamesysteem.
De ontwikkelingen van de games gaat momenteel sneller dan de cpu's, chipsets en het besturingssysteem. Het is denkbaar dat de hardware een upgraderonde kan overleven waarin alleen enkele games worden vervangen. Een deel van de testresultaten kan daardoor langer bruikbaar blijven. Ik denk dat je zeker om de zes tot acht maanden de games moet aanpassen en misschien tussendoor wel nieuwe games moet toevoegen als deze erg veel impact hebben (bijv. Crysis destijds).

Als uitgangspunt voor het testsysteem zou ik in ieder geval de snelste processor en chipset nemen die je op het moment verkrijgbaar is, zodat de hardware zo lang mogelijk mee kan.
quote:
Wordt softwarematig uitgelezen als de kaart idle is en onder volle belasting, en dat terwijl de kaart ingebouwd is in het systeem, voor normaal gebruik. Ter referentie geven we ook overige gemeten temperaturen weer van het systeem (chipset, cpu, ...).
Ik vraag me af of je kunt vertrouwen op een juiste ijking van de temperatuurmeting op de videokaart.

In principe is een meting van het energieverbruik voldoende, aangezien die energie grotendeels in warmte wordt omgezet.

Bij harde schijven heb ik in het verleden temperatuurmetingen gedaan. Mijn ervaring daarmee is dat het erg moeilijk te meten is. Er is veel plaatselijk verschil in temperatuur, verschil in de grootte van de oppervlakte van de harde schijven, invloed van de omgevingstemperatuur, etc. Het energieverbruik is wel zeer betrouwbaarder te meten.
quote:
ResuCigam schreef op donderdag 28 februari 2008 @ 16:47:
Ik denk zelf dat een resolutie van 800*600 niet meer van deze tijd is, misschien beginnen op 1024*768? Verder zal niet iedereen die 4 games hebben liggen.
1280x1024 is feitelijk de laagste resolutie die je kunt krijgen in een nieuwe monitor. Er zullen nog wel ergens wat 15 inch modellen zijn of kleinere monitoren voor bijzondere toepassingen, maar die gaat geen enkele gamer kopen. Een lcd (crt's zijn niet relevant meer) wil je het liefst op zijn native resolutie draaien. Het lijkt mij derhalve logisch om bij 1280x1024 te beginnen. Daarnaast 1680x1050, 1900x1200 en eventueel 2560x1600, waarbij de resoluties die getest worden kan afhangen van de positionering van de videokaart. Het heeft vanzelfsprekend geen zin om 2560x1600 te gaan testen op een low-budget kaart. Waardeloos presterende geïntegreerde cpu's kunnen eventueel in een lagere resolutie getest worden.

Voor het bereken van een prestatie-index van alle videokaarten is het noodzakelijke dat bepaalde tests op alle videokaarten worden gedraaid. Dit is iets om rekening mee te houden bij het selecteren van de resoluties en kwaliteitsettings die op de videokaarten uit een bepaald segment worden gedraaid.

Ik vind het zelf geen probleem als er een keer een trage videokaart tussen zou zitten die in een test minder dan 30fps haalt. Weliswaar is de videokaart bij die settings dan niet meer speelbaar, maar het snelheidsverschil met andere videokaarten is wel zichtbaar in de testresultaten en dat bepaald de price/performance van de videokaart. Die vergelijking van price/performance van verschillende videokaarten is feitelijk waar het testen om gaat. Dat je uit de testresultaten ook kunt zien welke resoluties/kwaliteitssettings speelbaar zijn met een bepaalde videokaart is nuttige informatie maar niet het belangrijkste.
quote:
Annihlator schreef op vrijdag 29 februari 2008 @ 16:15:
Ik ben laatst tegen een benchmark opgelopen die ik wel goed vind:
Lightsmark (http://www.lightsmark.com/) misschien een idee om even naar te kijken?
Op www.kustompcs.co.uk wordt het nu ook gebruikt om onderling prestaties te vergelijken, de cpu speelt er vrijwel geen rol in naar mijn weten.
Synthetische benchmarks vind ik een waste of time en getuigen van een gebrek aan professionaliteit. Het is niet boeiend hoe snel een game in een benchmark is, je wilt weten hoe hij presteert in games. Synthetische benchmarks kunnen nog wel eens nuttig zijn om meer inzicht te krijgen in de wijze waarop de prestaties van een product tot stand komen. Voor videokaarten lijkt me dit echter niet zo relevant.

3DMark kan handig zijn als je bijv. een videokaart gaat overklokken en snel wilt testen wat de prestatieverbetering is. Voor een serieuze vergelijking van de prestaties van verschillende videokaarten zou ik alleen echte games testen. Het voornaamste nug van 3DMark is dat de mensen het thuis makkelijk kunnen draaien en de resultaten kunnen vergelijken.
quote:
CJ schreef op vrijdag 29 februari 2008 @ 23:11:
Toevoegen van RTS games heeft zeker een meerwaarde. RTS games en ook Flight Simulator zijn veel meer CPU limited dan FPS games (FSX gebruikt bv alle 4 cores van een Quadcore en performance verdubbelt daar zo'n beetje wanneer je van Dual Core naar Quad gaat met dezelfde GPU).
Als de framerate in een game cpu-bound is dan is dat een reden om die game niet te gebruiken voor het benchen van een videokaart. Je moet videokaarten alleen testen in games waarin de videokaart de voornaamste bottleneck is voor de prestaties.

[quote[Daarnaast zou ik in de suite ook in ieder geval een game opnemen die gebruik maakt van de Unreal Engine 3 omdat het op dit moment de meest gelicenseerde engine is. [/quote]

Dat is inderdaad een goed argument dat in de selectie van de games meegenomen zal moeten worden. De meest gebruikte rendering engines zouden er in vertegenwoordigd moeten zijn.
quote:
Schaalbaarheid: CPU scaling
Bv. Hoe goed schaalt een videokaart (bv een HD3870X2) mee op de meest gangbare resoluties (bv 1280x1024/1600x1200/en hoger) met een E2160, E4500, E6300, E6750, Q6600, QX9650, Athlon64 X2, Phenom X4 etc. Hier kan je RTS games goed gebruiken omdat deze vrij CPU limited zijn. Uit elk segment een CPU gebruiken maakt van een review dat deze niet alleen geschikt is voor de absolute ubertweaker met veel geld die alleen maar de snelste onderdelen in z'n pc wil hebben.
Het is niet te doen om de videokaarten op verschillende processors te gaan testen. Met een beetje redelijke suite van games en resoluties/kwaliteitssettings ben je al een hele dag zoet om een videokaart te testen. Je wilt niet een week bezig zijn met het testen van één videokaart. Vaak worden ze vlak voor een release aangeleverd en moeten er snel resultaten verzameld kunnen worden.

Ik vind het testen op verschillende cpu's ook niet iets dat in een videokaartreview thuishoort. Dit is iets voor een vergelijking van cpu-performance of een vergelijking van upgradecombinaties.
quote:
Hielko schreef op dinsdag 04 maart 2008 @ 11:24:
[...]

Dat werkt nog steeds niet helemaal lekker. Omdat je het verbruik uit het stopcontact meet, meet je ook het verbruik van voeding en is de delta in het verbruik niet volledig toe te schrijven aan de videokaart. Afhankelijk van de efficientie - die overigens bij een voeding niet constant is bij verschillende belastingen - zal ca. 25% verbruikt worden door de voeding.
Uiteindelijk gaat het om het energieverbruik aan het stopcontact. Een hogere verliezen in de voeding zorgen voor meer warmte die weer afgevoerd moet worden, een hogere energierekening en meer verspilling van energie. Het is dus zeker relevant om ook de verliezen in de voeding in de meting mee te nemen.
quote:
dion_b schreef op donderdag 06 maart 2008 @ 00:58:
De tests moeten zeker gelijkgehouden worden voor alle kaarten, maar gezien de hele drivermodel voor Vista en XP anders is, de performance sterk uiteen kan lopen tussen Vista en XP, en een zeer groot deel van het gamend publiek om die reden Vista (voorlopig) links laat liggen lijkt me het juist relevant. We zijn geen tak van Microsoft's marketingafdeling. Als alle gamers alleen maar Vista gebruiken kunnen we XP altijd alsnog laten vallen, maar zolang een groot deel van het doelpubliek dat zeer bewust niet doet, lijkt het me een goede zaak dat nog niet te doen.
Een prestatievergelijking tussen Vista en XP met enkele videokaarten is leuk om een keer een artikeltje aan te wijden, maar je wilt dit geen vast onderdeel laten zijn van de testmethodiek omdat het gewoon veel te veel tijd kost. Windows XP is een aflopende zaak. Er zullen steeds meer gebruikers overstappen op Vista.
quote:
Madrox schreef op zondag 16 maart 2008 @ 00:53:
[...]

De snelst CPU gebruiken voor de benchmarks mag dan optimaal zijn, de relevantie is vrijwel nihil. Juist daarom ben ik ervoor om voor een CPU te kiezen die erg populair is en veel verkocht word.
Dat mag dan een bottleneck geven, maar dan zie je tenminste waar die bottleneck zit en hoe groot die is ipv. ernaar te gissen.
Natuurlijk is het interessant om te weten hoe verschillende videokaarten presteren op een bepaalde processor. In dat geval ben je echter niet bezig met het benchen van een videokaart maar met een benchen van een combinatie van componenten. In een review van een videokaart wil je objectieve metingen kunnen brengen van de prestaties van de videokaart ten opzichte van andere videokaarten en daarvoor wil je dat de prestaties niet belemmerd worden door andere factoren zoals de processor.

Iemand die een videokaart wil kopen wil gewoon weten welk product het beste presteert binnen zijn budget. Deze persoon kan geen eerlijk advies krijgen als prestaties van de videokaarten wordt beperkt door de processor in het testsysteem.

  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
Algemeen _/-\o_

Even specifiek:
quote:
[...]

Ik vraag me af of je kunt vertrouwen op een juiste ijking van de temperatuurmeting op de videokaart.

In principe is een meting van het energieverbruik voldoende, aangezien die energie grotendeels in warmte wordt omgezet.

Bij harde schijven heb ik in het verleden temperatuurmetingen gedaan. Mijn ervaring daarmee is dat het erg moeilijk te meten is. Er is veel plaatselijk verschil in temperatuur, verschil in de grootte van de oppervlakte van de harde schijven, invloed van de omgevingstemperatuur, etc. Het energieverbruik is wel zeer betrouwbaarder te meten.
Idd. Dat omzeilt ook weer alle gedoe met een "standaardkast" uitzoeken om in te testen wat 1001 nieuwe factoren toevoegt. Vooral het feit dat veel duurdere kaarten tegenwoordig een koeler met eigen exhaust op de slot hebben maakt het erg moeilijk om te kiezen wat je exact meet. Dat gezegd, dit lijkt me wel een interessant iets voor een los artikel, met als insteek waar je bij airflow/cooling in een modern systeem met high-end GPU op moet letten.
quote:
[...]

Een prestatievergelijking tussen Vista en XP met enkele videokaarten is leuk om een keer een artikeltje aan te wijden, maar je wilt dit geen vast onderdeel laten zijn van de testmethodiek omdat het gewoon veel te veel tijd kost. Windows XP is een aflopende zaak. Er zullen steeds meer gebruikers overstappen op Vista.
Grmbl. Ik snap wel dat dit veel tijd kost en dat je daarom keuzes moet maken. Maar als je om die reden echt moet kiezen tussen XP en Vista zou ik zeggen om datgene te nemen wat het beste presteert, en dat is duidelijk XP en niet Vista. Het is krom om enerzijds te zeggen dat CPU-limited benches onwenselijk zijn om overduidelijke redenen bij een GPU benchmark maar vervolgens de boel door OS/driver te gaan limiten.

Op moment dat een meerderheid van gamers over zijn op Vista, Vista beter presteert, of driver support voor XP stopgezet wordt, is het uiteraard tijd om ook in de benchmarks over te stappen. Maar vooralsnog is van bovenstaande criteria geen sprake, sterker nog, DirectX 10 is zelfs voor XP beschikbaar gemaakt (niet door Microsoft overigens), waardoor XP gebruiken voor benchmarks niet meer DX10 features hoeft uit te sluiten.

Soittakaa Paranoid!


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op dinsdag 18 maart 2008 @ 14:56:
Grmbl. Ik snap wel dat dit veel tijd kost en dat je daarom keuzes moet maken. Maar als je om die reden echt moet kiezen tussen XP en Vista zou ik zeggen om datgene te nemen wat het beste presteert, en dat is duidelijk XP en niet Vista. Het is krom om enerzijds te zeggen dat CPU-limited benches onwenselijk zijn om overduidelijke redenen bij een GPU benchmark maar vervolgens de boel door OS/driver te gaan limiten.
Geen idee onder welke steen jij hebt gelegen, maar GPU drivers voor vista zijn een stuk beter geworden afgelopen jaar. Verder kan je een een echt high end setup (quad SLI/CF oid) ook niet echt testen onder XP omdat de performance er niet naar is. Voor de rest slaat het hele limitten van de driver nergens over, aangezien het onderdeel van t product is. Hoe wou jij een GPU testen zonder drivers? Zelf de optimale drivers schrijven? :')

Edit: @Hielko: Ten meer een reden om voor vista te gaan, toch?

aca wijzigde deze reactie 18-03-2008 16:09 (11%)

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
quote:
Verder kan je een een echt high end setup (quad SLI/CF oid) ook niet echt testen onder XP omdat de performance er niet naar is.
Dat is niet eens waar: nVidia en AMD maken niet eens meer drivers voor XP die dit kunnen. Meer dan twee gpu's laten samen werken of dingen als hybrid crossfire zijn Vista-only features.

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 00:59
Niet alles doorgelezen, maar hier mijn gedachten;
quote:
Als testplatform gebruiken we een relatief vast systeem, dat regelmatig van een upgrade voorzien wordt om weer up-to-date te zijn naar de op dat moment geldende eisen van een flink gamesysteem. Zo blijven resultaten van verschillende reviews nog enigszins vergelijkbaar binnen een bepaalde tijdsspanne, terwijl het systeem toch enigszins up-to-date gehouden wordt. Bovendien is de kans klein dat een review van een kaart van vandaag nog echt vergeleken zal worden met een review van drie jaar geleden, zodat het nadeel van de verminderde vergelijkbaarheid door wisselend basissysteem enigszins beperkt blijft.
Stel; je test een paar spellen op videokaart a en cpu a. Vervolgens test je met videokaart b. Geen probleem hier. Echter als je het systeem upgrade (cpu b) dan is de vergelijking al een stukkie verder te zoeken, want hoeveel procent winst is afkomstig van de cpu en hoeveel van de videokaart? Je zou alle videokaarten weer kunnen testen met cpu b maar daar ben je een boel tijd aan kwijt.

Ik zou graag zien dat hier een normalisatie voor wordt gevonden zodat je videokaart a met videokaart b kunt vergelijken ondanks dat ze met verschillende cpu's zijn getest.

Qua drivers zou ik graag zien dat alleen de drivers zelf worden geïnstalleerd en niet de software er omheen (catalyst control center bijv.) Op die manier elimineer je de mogelijkheid dat de driver-software negatieve invloed heeft op de resultaten.

Met betrekking tot het geluid van ventilators; welke eenheden gaan er gebruikt worden? Decibel, sone of nog iets anders?

Voor 3DMark zou ik niet alleen de totaalscore in de reviews gebruiken. Laat ons ook weten hoe de individuele scores zijn, daar kunnen namelijk verrassende resultaten tussen zitten. (Vergelijk bijvoorbeeld maar eens in 3DMark2001se de fillrate van een Voodoo5 5500 met die van een Radeon 8500, dat wint die Voodoo5 terwijl deze wel een gigantisch lagere totaalscore heeft. :+)

Mijn blog; Floating Points


  • Madrox
  • Registratie: mei 2002
  • Laatst online: 17-04 20:49

Madrox

Oh, Pharaoh!

quote:
Femme schreef op zondag 16 maart 2008 @ 22:41:

Natuurlijk is het interessant om te weten hoe verschillende videokaarten presteren op een bepaalde processor. In dat geval ben je echter niet bezig met het benchen van een videokaart maar met een benchen van een combinatie van componenten. In een review van een videokaart wil je objectieve metingen kunnen brengen van de prestaties van de videokaart ten opzichte van andere videokaarten en daarvoor wil je dat de prestaties niet belemmerd worden door andere factoren zoals de processor.

Iemand die een videokaart wil kopen wil gewoon weten welk product het beste presteert binnen zijn budget. Deze persoon kan geen eerlijk advies krijgen als prestaties van de videokaarten wordt beperkt door de processor in het testsysteem.
Die prestaties van de videokaarten kan je ook prima meten met een "niet allersnelste, peperdure cpu". Objectiviteit speelt ook helemaal geen rol; Is een test met een paar honder mhz. tragere cpu minder objectief :? Neem gewoon een CPU met een goede prijs/prestatie, die ook nog eens lekker overklokt; zo zie je meteen hoe die presteert met snellere CPU's. Die CPU is veel relevanter daar het gros van de gebruikers zo'n CPU kopen ipv. een peperduur exemplaar. En met de overklok resultaten zie je gelijk hoe de peperdure cpu er het vanaf zou brengen (relatief gezien).

Over wat voor budget praat je dan, als iemand een videokaart koopt ? Hoe weet hij dan hoe die videokaart presteert als hij er niet, zoals in de review, een supersnelle, dure CPU bij neemt.
Want het budget van velen laat het niet toe om het duurste vlaggeschip CPU te kopen.

Ben het dan ook absoluut niet eens met de stelling dat je de snelste en beste CPU nodig hebt om een goede, objectieve review te schrijven. Het enige wat je bereikt is dat je laat zien wat er maximaal uit de videokaart te halen is. Helaas wel voor velen te hoge prijs.

Denk aan CPU's zoals de E8400/E8500 en/of de Quadcore onder de € 300,-.
Testen met € 800,-(of duurdere) CPU's mag dan de allerbeste scores laten zien van de videokaart, het is echter maar voor een heel klein publiek haalbaar. De veschillen zijn trouwens vaak maar marginaal.

Madrox wijzigde deze reactie 20-03-2008 12:27 (6%)

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


  • Hielko
  • Registratie: januari 2000
  • Laatst online: 10:50
Ik ben het eens met Madrox; een snelle cpu is helemaal niet nodig. Resultaten met een onder de lezers populaire processor zijn veel relevanter en daarnaast boeit een snellere cpu zowieso nauwelijks. Bijna elke recente benchmark is bijna volledig gpu gelimiteerd op de hoogste resoluties.

  • Low-Tech
  • Registratie: december 2001
  • Laatst online: 19-04 14:19
Uitgebreide specs van een videokaart zou ik ook graag willen zien, zoals onder andere:
- Shaderversie (2.0 e.d.)
- Aantal unified shaders
- Welk geheugen (niet alleen snelheid maar ook GDDR3/GDDR4)

Asus P5B, Code 2 Duo E6600, Corsair Twinx 2048MB PC6400, 8800 GT


  • dion_b
  • Registratie: september 2000
  • Laatst online: 03:24

dion_b

Moderator Harde Waren

say Baah

quote:
aca schreef op dinsdag 18 maart 2008 @ 15:21:
[...]

Geen idee onder welke steen jij hebt gelegen, maar GPU drivers voor vista zijn een stuk beter geworden afgelopen jaar.
Even mezelf citeren:
quote:
Ter onderbouwing een artikel over XP SP2 vs XP SP3 vs Vista vanilla vs Vista SP1:
Conclusion

[...]

XP vs Vista scores showed a large performance gap and XP is faster than Vista on every front.
Voor de duidelijkheid, die cijfers zijn minder dan drie weken oud...
quote:
Verder kan je een een echt high end setup (quad SLI/CF oid) ook niet echt testen onder XP omdat de performance er niet naar is. Voor de rest slaat het hele limitten van de driver nergens over, aangezien het onderdeel van t product is. Hoe wou jij een GPU testen zonder drivers? Zelf de optimale drivers schrijven? :')
Echt high-end is leuk en wel, maar durf je met droge ogen te beweren dat er meer mensen zijn die een EUR 1000+ quad SLI-setup zouden overwegen, dan dat er mensen zijn die voor EUR 100 een simpele maar effectieve kaart willen kopen en dat dan zo snel mogelijk willen draaien, wat vooralsnog duidelijk op XP kan :?

Zoals ik vaker aangehaald heb, alleen maar focussen op de ultra-high-end geeft deze reviews op T.net geen enkele meerwaarde tov 1001 reviews elders. Door mee te lopen met de meute onderscheid je jezelf niet :o
quote:
-[NOVA ]- schreef op donderdag 20 maart 2008 @ 19:39:
Uitgebreide specs van een videokaart zou ik ook graag willen zien, zoals onder andere:
- Shaderversie (2.0 e.d.)
- Aantal unified shaders
- Welk geheugen (niet alleen snelheid maar ook GDDR3/GDDR4)
Misschien wel nuttig om te noteren, maar vooral niet iets om teveel aandacht aan te besteden. De meeste mensen hebben niet door dat specs alleen vergelijkbaar zijn tussen kaarten/chips in exact dezelfde familie en weinig/niets zeggen tussen die families, laat staan tussen AMD/nVidia ontwerpen. Of een kaart GDDR3 of 4 heeft boeit niets, zolang het maar x-frames haalt in een benchmark. Een andere kaart met sneller geheugen zou mogelijk minder frames halen wegens smallere geheugenbusbreedte, tragere core of gewoon minder efficient ontwerp. Dus zou de focus volledig op de scores moeten liggen.

Soittakaa Paranoid!

quote:
dion_b schreef op donderdag 20 maart 2008 @ 20:35:
[...]
Misschien wel nuttig om te noteren, maar vooral niet iets om teveel aandacht aan te besteden. De meeste mensen hebben niet door dat specs alleen vergelijkbaar zijn tussen kaarten/chips in exact dezelfde familie en weinig/niets zeggen tussen die families, laat staan tussen AMD/nVidia ontwerpen. Of een kaart GDDR3 of 4 heeft boeit niets, zolang het maar x-frames haalt in een benchmark. Een andere kaart met sneller geheugen zou mogelijk minder frames halen wegens smallere geheugenbusbreedte, tragere core of gewoon minder efficient ontwerp. Dus zou de focus volledig op de scores moeten liggen.
Het is jammer maar inderdaad waar dat mensen de ballen verstand hebben van de verschillen in architecturen. Is Tweakers daarom niet de uitgelezen plaats om hier verandering in te brengen en de koper van videokaarten een beetje te educatie bij te brengen, zodat men een klein beetje begrijpt waarom videokaart A het beter in game X doet en videokaart B het beter in game Z?

Ik bedoel... fps-cijfertjes kan ik op elke willekeurige reviewsite vinden. Maar degelijke uitleg over het hoe en wat ontbreekt vaak nog en dat is dus het gebied waar je je kan onderscheiden van andere reviewsites.... anders wordt het allemaal 1 pot nat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • aca
  • Registratie: maart 2004
  • Laatst online: 26-10-2011

aca

Nullor fetisjist

quote:
dion_b schreef op donderdag 20 maart 2008 @ 20:35:
Voor de duidelijkheid, die cijfers zijn minder dan drie weken oud...
Ik weet niet of t de juiste link is. Maar ik zie een of andere forumpost waarin voor een systeem met redelijk nieuwe nV kaart, de perf. wordt vergeleken voor XP/Vista. Miss dat een ATi kaart het een stuk beter doet, of een wat oudere nV kaart, of .... Ik vind t niet zoveel zeggen. Na wat andere reviews ook gelezen te hebben zie ik een 5% loss. Maar goed dat zal ws niet zo veel uitmaken voor de speelbaarheid. ;)
quote:
Echt high-end is leuk en wel, maar durf je met droge ogen te beweren dat er meer mensen zijn die een EUR 1000+ quad SLI-setup zouden overwegen, dan dat er mensen zijn die voor EUR 100 een simpele maar effectieve kaart willen kopen en dat dan zo snel mogelijk willen draaien, wat vooralsnog duidelijk op XP kan :?
Quad CF/SLi was maar een voorbeeld.... What about alle andere vista only features...
quote:
Zoals ik vaker aangehaald heb, alleen maar focussen op de ultra-high-end geeft deze reviews op T.net geen enkele meerwaarde tov 1001 reviews elders. Door mee te lopen met de meute onderscheid je jezelf niet :o
Naar mijn mening heb je genoeg fps sites. Het enige waar je mee differentieert is met low end fps. Verder deel ik de mening van CJ wel. Wil je ook wat tweakers aanspreken dan hoor je eigenlijk ook wat tech info te geven over graka's. Maar het hangt er maar vanaf watvoor publiek jullie willen aanspreken. Deze aanpak trekt waarschijnlijk meer mensen aan en meer inkomsten dus. So its all about the money?

"The scientists of today think deeply instead of clearly. One must be sane to think clearly, but one can think deeply and be quite insane." - Nikola Tesla


  • M2M
  • Registratie: juli 2006
  • Laatst online: 02:14

M2M

medicijnman

geen flauw idee of dit hier al aangehaald is, maar als je crossfire of SLI (of in drievoudige vorm of viervoudige vorm) wilt testen, worden de eisen aan het moederbord ook stukken groter, en kost het meer tijd om even een setupje te benchmarken. Laat staan de brakke prestaties van de drivers van de drievoudige of viervoudige SLI / CF configuraties. Daarnaast zijn zover ik weet de prestaties van twee videokaarten enigszins af te leiden uit de prestaties van een kaart. (en als laatste argument dat je meerdere videokaarten nodig hebt voor een benchmark. Als je dan het nieuwste wilt bekijken moeten er wel twee of meerdere van beschikbaar zijn).

Vandaar dat het misschien een idee is om die meerdere videokaartensetups er uit te laten, en te focussen op de prestaties van een videokaart. Misschien een soort featured artikel waarbij enkel de SLI / CF prestaties worden neergezet.

daarnaast ben ik het eens met femme (e.a.), dat RTS games niet gebenched zouden moeten worden in een videokaarttest. Die dingen zijn naast de synthetische CPU tests wel geschikt voor CPU tests.

als OS zou ik gaan voor vista. Sowieso neemt de hoeveelheid doelgroep users XP af, en drukt micro$ vista de normale gebruiker door de strot. Veel keus voor OS zul je dus niet hebben (en enkel openGL testen in linux zal ook niet echt een optie zijn, en wijn is lekker maar ook geen keus door grote hoeveelheden updates)

synthetische benchmarks laten voor wat het is lijkt me niet helemaal uit den bose. voor bijvoorbeeld 3dmark (wat overigens een zeer slechte keus is voor de benchmark aangezien er een CPU score in de eindscore verwerkt zit. Met een quadcore op 2.4 ghz haal je meer punten dan dezelfde processor in dual core variant) zou een score interessant zijn. Zo'n benchmark is snel te doen en wordt gewoon veel gebruikt voor vergelijkingsmateriaal. Zet er dan wel ook de deelscores bij ivm bovenstaande rede.
Misschien dat er ergens een synthetische benchmark te vinden is die heel simpel en snel een videokaartafhankelijke score geeft, en bruikbaar is op oudere systemen en nieuwe videokaarten. Ik verwacht dat deze echter onvindbaar is. (of "uberhaupt niet bestaat...)

voor de gamebenchmarks zou ik gaan voor: twee huidige FPS games op verschillende veel gebruikte engines. (neem dan de meest gespeelde shooters van het moment, dan heb je het breedste bereik)
Een of twee (MMO)RPG's, een flightsim en een racegame.

en als laatste de resoluties:
neem simpele veelgebruikte resoluties van 1 2 en 3 megapixels (ongeveer...) Dan is de schaling naar resolutie te vergelijken en houd je het simpel en overzichtelijk voor de doelgroep.

ps. als een betreffende kaart gereviewed wordt, zou ik willen adviseren er een screenshot van de game bij te zetten (van 2 mpixel) met de speelbare kwaliteit aan in-game instellingen. (dus 25 fps gemiddeld bij een twee mpixel resolutie, op de eventueel verlaagde instellingen van de game) om aan de kijker te laten zien hoe zijn (vergelijkbare) game er uit gaat zien als hij of zij deze kaart koopt.

pps. De FPS count zou ik doen met fraps (of iets soortgelijks). Niet helemaal eerlijk natuurlijk omdat die waarde nogal eens wil afwijken (maximaal 1 - 2 fps van wat ik tegen ben gekomen, maar toch), maar niet iedere game heeft een FPS counter en met fraps zijn de resultaten teminste uniform, toekomstbestendig (stel dat de nieuwe game nu geen fps counter heeft...) en te vergelijken.

-_-


  • leuk_he
  • Registratie: augustus 2000
  • Laatst online: 19-04 22:51

leuk_he

1. Controleer de kabel!

quote:
Schaalbaarheid: CPU scaling
Bv. Hoe goed schaalt een videokaart (bv een HD3870X2) mee op de meest gangbare resoluties (bv 1280x1024/1600x1200/en hoger) met een E2160, E4500, E6300, E6750, Q6600, QX9650, Athlon64 X2, Phenom X4 etc. Hier kan je RTS games goed gebruiken omdat deze vrij CPU limited zijn. Uit elk segment een CPU gebruiken maakt van een review dat deze niet alleen geschikt is voor de absolute ubertweaker met veel geld die alleen maar de snelste onderdelen in z'n pc wil hebben. Niet iedereen zal een HD3870X2 op een QX9650 gebruiken. Genoeg mensen die hem op een mainstream dualcore zullen gebruiken.
Er zijn mensen die een apart een gpu kiezen, maar de meeste mensen zullen dit als onderdeel van de aanschaf van een nieuw systeem kiezen. Je kiest waarschijnlijk een CPU die hoort in hetzelfde prijssegment (!= zelfde prijs) als de GPU. Dus Sempron + IGP, en een intel Xtreme octcore :9 + high end quald sli GPU. Om het allemaal te vergelijken kunnen hoef je eigenlijk "alleen" maar te bepalen welke benchmarks cpu limited zijn , en vanaf welke cpu hij gpu limited is.

Er zijn 2 resultaten (conclusies door gebruiker) uit de benchmark mogelijk:
1>Wat is de beste (prijs effectieve) kaart die ik voor mijn NIEUWE systeem wil hebben.
2>Wat is de best gpu upgrade voor mijn huidige systeem .

Voor het eerste systeem wil je weten hoe de GPU performer is op een uptodate processor.
Voor het 2e systeem is het belangrijk te weten hoe het systeem performt op een relatief langzame processor.

Eigenlijk zou je je willen weten hoe een GPU schaalt, maar dat kost wel heel veel tijd. En eingelijk zou je een CPU wullen kiezen uit zelfde prijsklasse als een GPU, maar dat maakt test weer heel erg onvergelijkbaar,.

Voor het energie verbruik zou je juist zo gestandaardiseerde hardware die over langere periode ook nog vergelijkbaar is willen gebruiken. Zeker omdat je stelt het energieverbruik uit het stopcontact te meten.

Conclusie: -Kies 2 CPU's
-Een up to date vrijwel top CPU die aangeeft wat redelijk optimale performance is van de kaarten.
-Houd 1 CPU /moederbord/power aan voor een langere persiode (2-3 jaar?) voor vergelijkbaar energie verbruik .... voor zover mogelijk. Energie verbruik~= noise(ook van de voeding) ~= kosten . Zeker niet oninteressant.

Daarbuiten zou ik willen pleiten ook vooral IGP GPU's proberen te testen. 80% van alle verkochte systeem bevatten geïntegreerde GP maar maar 1% van alle benchmarks gaan over IGP kaarten. (nummers verzonnen, maar het idee van de grootte orden lijkt mij realistisch).

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


  • M2M
  • Registratie: juli 2006
  • Laatst online: 02:14

M2M

medicijnman

quote:
leuk_he schreef op dinsdag 01 april 2008 @ 18:16:
[...]


Er zijn mensen die een apart een gpu kiezen, maar de meeste mensen zullen dit als onderdeel van de aanschaf van een nieuw systeem kiezen. Je kiest waarschijnlijk een CPU die hoort in hetzelfde prijssegment (!= zelfde prijs) als de GPU. Dus Sempron + IGP, en een intel Xtreme octcore :9 + high end quald sli GPU. Om het allemaal te vergelijken kunnen hoef je eigenlijk "alleen" maar te bepalen welke benchmarks cpu limited zijn , en vanaf welke cpu hij gpu limited is.
daar ben ik het niet mee eens, je wilt videokaarten benchmarken. Dan moet je niet twee verschillende processors uitkiezen. Wil je een vergelijking kunnen maken (die resultaten gegrond weer kunnen geven) zul je uit moeten gaan van EEN systeem, en daar verschillende videokaarten in moeten stoppen.

daarnaast IGP benchmarken, erg leuk, maar dan moet je het moederbord van het systeem dus vervangen. Dat gaat niet werken, want dan kun je nog geen grafische kracht vergelijken tussen twee IGPs of IGP-videokaart omdat je met een nieuw moederbord zit. (er van uitgaande dat je de IGP resultaten vergelijkt met eerder behaalde resultaten, je gaat niet de hele serie videokaarten weer af op een nieuw moederbord om een IGP aan het lijstje toe te voegen.)

het laatste deel: dat je CPU's en mobos aan moet houden voor langere tijd is een utopie. Technologie-vooruitgang gaat gewoon te snel in computerland om nog representatief te zijn over langere tijd. Verder wel een leuk streven om zo lang mogelijk met dezelfde hardware videokaarten te benchmarken, en bij aanschaf van het nieuwe systeem (dus niet enkel een cpu'tje vervangen maar dan compleet nieuw gaan met nieuwe processor en nieuw mobo + geheugen) het meest recente lijstje videokaarten opnieuw aan een benchmark onderhevig te stellen. Dan ook tevens nieuwe games uitkiezen e.d. omdat je dan de oude resultaten niet meer kunt vergelijken met de nieuwe. (als we het zo objectief mogelijk willen doen teminste)

en als laatste nog een klein puntje, benchmarken met moederbordgeluid of een fatsoenlijke geluidskaart. Als mensen veel geld uit geven aan een videokaart mag je verwachten dat er ook een fatsoenlijke geluidskaart in zit. integrated spul is leuk, maar kan naar mijn mening niet opboxen tegen een losse kaart. Verder zul je dan wel in problemen komen met plek als er ook tri - quad SLI / CF setups gemaakt gaan worden.

-_-


  • Joep
  • Registratie: december 2005
  • Laatst online: 09:52
Ik en vele anderen hier op GoT (getuige de honderden, zo niet duizenden topics over het overclocken van videokaarten), zouden het op prijs stellen als jullie ook de overclockbaarheid van een videokaart zouden reviewen. Hoewel er vaak slechts 10% extra juice uit te persen is, zonder de koeling te vervangen en/of het voltage te verhogen, en de overclockbaarheid van twee identieke videokaarten kan verschillen, is het toch fijn om de overclockbaarheid te weten, omdat:
  • er in de toekomst videokaarten komen met een aanpasbaar voltage, waardoor het overclocken veel meer resultaat oplevert, makkelijker wordt en binnen het handbereik komt van de grote groep tweakers die het voltage van huidige videokaarten niet willen veranderen, omdat dit meestal hardwarematig gebeurt.
  • low-budget videokaarten verhoudingsgewijs beter overclocken dan high-end videokaarten en om die reden bij sommige tweakers de voorkeur hebben.
  • sommige videokaarten met een andere koeler komen en dus hogere overclockresultaten kunnen bieden en dus aantrekkelijker kunnen zijn.
  • sommige identieke GPU-core's gezelschap hebben van GDDR3/DDR2-geheugen, waardoor de videokaart met GDDR3-geheugen veel beter te overclocken is. Denk hierbij aan de 7300GT, waarbij de DDR2-versie onaantrekkelijk was, omdat die versie slecht te overclocken was. De GDDR3-versie daarentegen, was met wat moeite tot meer dan 100% te OC-en.
  • een echte (OC-)tweaker zijn videokaart tot het maximale pusht >:)
Edit: En dan graag iets uitgebreider dan bijvoorbeeld X-bit labs doet, want maar 8 regels over het overclocken vind ik iets te weinig.

Tips:
Een tabel maken met de frequenties van de kaart voor en na het overclocken:
FrequentieCoreMemoryShader
Stock60015001800
Overclock70018001980

De temperatuur van de core vermelden bij de maximale overclock onder load en idle.

Ik weet niet of jullie in de toekomst ook videokaartkoelers gaan reviewen, maar als jullie dat gaan doen, zou ik de toegenomen overclockbaarheid van een videokaart zeker vermelden. Dit is iets wat geen enkele website ter wereld (zover ik weet) vermeld. Tot nu toe doet alleen AnandTech dit bij processorkoelers. http://images.anandtech.com/graphs/noctuau12p_032008133404/16686.png
Op deze manier dus, maar dit heb ik nog nooit gezien bij videokaarten, waar dan ook ter wereld.

Edit 2: Dit is meer de moeite waard bij videokaarten, omdat de overclockbaarheid bij videokaarten sterker afhangt van de temperatuur dan bij CPU's, tenminste, zo lijkt het (artifacts e.d.).
quote:
dion_b schreef op donderdag 20 maart 2008 @ 20:35:
Echt high-end is leuk en wel, maar durf je met droge ogen te beweren dat er meer mensen zijn die een EUR 1000+ quad SLI-setup zouden overwegen, dan dat er mensen zijn die voor EUR 100 een simpele maar effectieve kaart willen kopen en dat dan zo snel mogelijk willen draaien, wat vooralsnog duidelijk op XP kan :?

Zoals ik vaker aangehaald heb, alleen maar focussen op de ultra-high-end geeft deze reviews op T.net geen enkele meerwaarde tov 1001 reviews elders. Door mee te lopen met de meute onderscheid je jezelf niet :o
Mee eens. Al die reviews van xbitlabs, anandtech, bit-tech en tomshardware lijken teveel op elkaar. Val niet in de valkuil waar elke voorgenoemde site is ingevallen en die iets waarmee reviews op Tweakers.net zich onderscheiden van de rest.

Joep wijzigde deze reactie 07-04-2008 13:06 (42%)


  • Santhem
  • Registratie: december 2007
  • Laatst online: 23-03-2012
Zelf zou ik niet alleen de nieuwste videokaarten revieuwen, maar ook is lijstjes maken van beste bang4buck kaarten etc. Hier hebben de meesten denk ik meer aan dan dat de nieuwste 9900x2 weer net ietsjes sneller is dan de ultra editie.

En ook niet alleen gamekaarten, maar ook is een keer Matrox of Quadro kaarten reviewen, dus bij die standaard firstperson shooter benchmarks zou ik ook iets van Photoshop ofzo bijzetten (zon soort proggramma die je kunt benchen).

En om de geluidsproductie te meten kun je bijvoorbeeld een risercard gebruiken, en om de videokaart zelf allemaal soorten geluidsmatten ofzo, zodat je hem als het ware insluit in geluidsmatten. Met behulp van die risercard heb je daar iets meer ruimte voor dan gewoon.
Eigenlijk maak je dus gewoon een kubus die je op bepaalde temperatuur houd (voor temperatuurgestuurde videokaartkoelers) en zo veel mogelijk geluidsdicht is, en dan geluidssensor erin.

  • rapture
  • Registratie: februari 2004
  • Laatst online: 10-02 23:39

rapture

Zelfs daar netwerken?

quote:
dion_b schreef op donderdag 20 maart 2008 @ 20:35:
Echt high-end is leuk en wel, maar durf je met droge ogen te beweren dat er meer mensen zijn die een EUR 1000+ quad SLI-setup zouden overwegen, dan dat er mensen zijn die voor EUR 100 een simpele maar effectieve kaart willen kopen en dat dan zo snel mogelijk willen draaien, wat vooralsnog duidelijk op XP kan :?

Zoals ik vaker aangehaald heb, alleen maar focussen op de ultra-high-end geeft deze reviews op T.net geen enkele meerwaarde tov 1001 reviews elders. Door mee te lopen met de meute onderscheid je jezelf niet :o
Er zijn idd veel te veel fantasiereviews zodat we op tweakers beter op de relevante reviews richten. Dus tijd voor normale populaire processors icm single grafische kaarten. De kaarten op 2 à 3 populaire processors laten schalen zorgt ervoor dat de E8400-gebruikers, E6600-gebruikers, Athlon 64 X2 3800+ gebruikers weten waarheen ze moeten. Heeft het nog zin in een snellere kaart in zo'n "oud" systeem te steken? Op deze vraag krijgen we nergens een antwoord zodat we moeten speculeren en op andermans ervaringen vertrouwen.

Een primeur kunnen we behalen door infraroodbeelden toe te voegen om te weten of de grafische kaarten na 1 à 2 jaar zullen uitbranden. Tot nu toe is 1 gotter de enige die infraroodplaatjes van een GeForce 7900 serie kaart gepost heeft en van de 8800 GT is er ook maar 1 user op een ander forum die plaatjes gepost heeft. Hiermee kunnen we op tijd oververhitte componenten detecteren en oplappen. De fabrikanten zullen dan ook erop letten dat ze niet onderdelen "vergeten" te koelen. Alleen de temperatuursensor uitlezen zegt weinig over de reële koeling van de grafische kaart. Er moet maar een "stomme" ongekoelde voedings-IC @ 100 °C gaar worden en de kaart brandt op lange termijn door.

EOS 30D, kitlens, EF 50mm/1.8, EF 85mm/1.8


  • leuk_he
  • Registratie: augustus 2000
  • Laatst online: 19-04 22:51

leuk_he

1. Controleer de kabel!

Er is inmiddels 1 review langs gekomen:

reviews: Drie goedkope videokaarten in de ring geplaatst

In wat en hoe er getest is kan ik me aardig vinden. Alleen jammer dat de conclusies niet zo sterk zijn. Want daarin blijkt dat het prijsnivovan de kaarten nogal uiteenloopt, en er dus appels met peren is vergeleken. dan hoeft niet altijd een performnace winnaar uit te komen hoor. maar dat hebben enige anderen in de comments beter beargumenteerd dan mij.

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


Acties:
  • 0Henk 'm!

  • Lip
  • Registratie: december 2000
  • Niet online

Lip

De professionele prutser

De computer-systemen die door leken aangeschaft zijn vaak systemen, met 1 videokaart.
Het eerste waar een consument naar kijkt is de prijs! (we zijn tenslotte zuinige Nederlanders met de hand op de knip!) O-)

Omdat het beschikbare budget vaak erg beroerd is voor een videokaart, zijn de meeste pc's sets (pc,mon,budget-keys,budget-muis
en budget speakertjes) die verkocht worden zijn geen €1000
Dit varieerd tussen €600-€1000 :X

Het lijkt mij zinniger om een het beschikbare budget daar in mee te nemen, en dat in catogorien op te delen. Bijvoorbeeld videokaarten tot de €100, €250, €300, €300-500, en als laatste catogorie waarin geen budget word mee genomen.
De games waar getest mee moet worden, moeten dan aangepast zijn aan de prijscatogorie of spelen met de quality settings met een vast patroon.


Dit leverd uiteindelijk wel een vertekend beeld voor de Enthousiast gamer. Maar daar zou ik zelf niet al te veel om bekoren, die mensen weten de weten uiteindelijk wel de weg te vinden naar de andere review site's.

De massa van de consumenten besteden geen €2000 voor een een stel van 4 videokaarten of uberhaubt aan een hele pc. Wanneer je een configuratie in SLI wilt draaien, zijn de kosten kort de bocht 2x zo hoog, waar mee de prestaties niet een factor 2 meteen beter worden. Daarom lijkt mij nogal onzinnig om SLI, Triple en Quad videokaart configuraties daarin mee tenemen.
Andere site's doen dat al (goed)genoeg!

Test opstelling
Zo'n mega high-end game systeem te nemen lijkt mij niet relevant en erg bedriegelijk! Een kaart als een AMD 3650HD
zal op zo'n systeem 60-70fps kunnen halen in spel A, maar op bijvoorbeeld een veel verkochte E6420 nog geen 30fps. Nou is dit voorbeeld niet op feiten berust en slechts een verzinsel, maar ik hoop dat zo duidelijk wat ik nou bedoel.
Het lijkt mij zinvol echt meer de focus te leggen op mainstream configuraties (E8400, E6600, Athlon 64 X2 4200+, en eventueel een Quadcore voor de spellen die dat ondersteunen!)
En zo vergelijk je weer appels met peren :9

Lip wijzigde deze reactie 09-05-2008 15:24 (0%)
Reden: interpuntie

Beter geluid voor iedereen! Zo doe je dat!!! Vergeet je niet een +3 te geven? Bedankt voor het lezen. Flat frequency response EQUALS real music!!! EQUALS Sonic clarity


  • 614
  • Registratie: september 1999
  • Niet online
quote:
leuk_he schreef op zondag 27 april 2008 @ 14:34:
Er is inmiddels 1 review langs gekomen:

reviews: Drie goedkope videokaarten in de ring geplaatst

In wat en hoe er getest is kan ik me aardig vinden. Alleen jammer dat de conclusies niet zo sterk zijn. Want daarin blijkt dat het prijsnivovan de kaarten nogal uiteenloopt, en er dus appels met peren is vergeleken. dan hoeft niet altijd een performnace winnaar uit te komen hoor. maar dat hebben enige anderen in de comments beter beargumenteerd dan mij.
Die test is een aanfluiting. Als je het zo doet, kan je het beter helemaal niet doen.
Alsof nVidia gevraagd heeft videokaarten te testen en vervolgens gekeken is om een type ATi kaart te kiezen zodat die het slechts uit de review kan komen zonder de boel te verdraaien.

Ik zie een goede videokaart test met inderdaad systemen met mainstream processoren. Bij voorkeur is dan te zien ook hoe een videokaart schaalt. Kan je gelijk aan de test zien, wanneer je al een van de videokaarten hebt, welke proc je nodig hebt voor voldoende performance. Ook hoe een videokaart schaalt waneer deze meer geheugen heeft (256-512-1024). Pak daarbij games die gebruik maken van de meest gebruikte engines. Daarbij wat toelichting waarom videokaart X beter presteert in Game X.

614 wijzigde deze reactie 10-06-2008 13:28 (11%)


  • Pine Mangoes
  • Registratie: september 2005
  • Laatst online: 03-01-2017
Even een opmerking ivm de vorige reviews. Ik heb deze ook als reactie op de 4870 vs GTX 260 test vermeld maar geen respons op gekregen dus post ik hem hier maar opnieuw.

Imo zou het een goeie zaak zijn meer games te testen in de reviews. Slechts vier games, dat is gewoon niet genoeg om representatieve en reproduceerbare resultaten te krijgen. Dat zie je ook terug in de goeie reviewsites.

Wat is trouwens het criterium voor de games die worden meegenomen in de test? Het is imo het meest logisch om gewoon de populairste games van het moment te nemen. Dan kan je eventueel de keuze nog wat aanpassen om een goeie graphics/populariteit balans te krijgen.

  • Kain_niaK
  • Registratie: juli 2006
  • Laatst online: 15-04 04:47

Kain_niaK

Bitcoin is P2P geld.

Ofwel moet tweakers echt heel veel tijd geld en moeite in deze reviews gaan steken of wel ze gewoon niet meer doen. Als ze niet representatief zijn .... dan doen ze de goede naam van Tweakers geen eer aan. Deze laatste review van de Radeon HD 4870 X2 wijkt in alle opzichten af van de andere reviews.
Die hebben getest met:

Systemen die minder bottleneck vormen, dus betere cpu (eventueel overclockt)
Hogere resoluties (waar het verschil tussen de kaarten VEEL groter word)
Veel meer games en benchmarks.

Ik weet dat dit ontzettend veel geld en tijd kost (en juist sponsors) maar het zou heel erg cool zijn als we nu eens echte goede reviews krijgen !
Waarom moet ik altijd Tweakers reviews lezen en dan denken: "Ja, zal wel"
En dan bij bijna alle andere sites veel duidelijker, uitgebreide en meer "to the point" reviews vinden.

Ok, een review van 25 pagina's hoeft voor mij niet waar heel de techniek van de kaart word uitgelegd.
Maar gewoon reviews die representatief zijn en het zelfde beeld geven als de andere websites.
Dat is alles wat ik vraag ....

(Btw .... de testen van database software en alles wat met harde schijven te maken heeft zijn altijd wel erg goed geweest)

Alleen grafische kaarten ..... daar zit iets niet goed de laatste 3 reviews .....

Ik schrijf voor CoinSpice.io


  • -AzErTy-
  • Registratie: oktober 2005
  • Laatst online: 18-04 19:32
Zoals de poster boven mij aangeeft moet ik zeggen dat ik de review van de Radeon HD 4870 X2 eigenlijk beschamend vind voor tweakers.net.

Testen op 1280*1024 is toch gewoon belachelijk! Niemand die zo'n kaart koopt gaat op die resolutie gamen, nog effe voorbijgaand aan het feit dat bij dergelijke resolutie (en zelfs op 1600*1200) nagenoeg alle games CPU bound zijn dus wat hebben jullie nu getest?

-Crysis is cpu gebonden tot 1920*1200 zonder AA op een 4870X2
-Company of Heroes cpu gebonden op zowel GTX280 als 4870X2 tot 1600*1200 met 4AA en 16AF
-Half-Life 2: Episode 2 ook cpu gebonden tot 1920*1200 met 4AA en 16AF op een 4870X2

En dan komen met het zinnetje de 4870X2 is niet overtuigend sneller terwijl er geen enkele fatsoenlijke tetst gedaan wordt om een deftig verschil aan te tonen voor de markt waarvoor deze kaarten bestemd zijn (denk 24 en 30inch schermen op native resolutie) |:(

Ga anders eens héél even kijken op computerbase.de en bekijk hun tests en conclusie eens en vergelijk die dan eens met die van tweakers...

God does not play dice


  • rapture
  • Registratie: februari 2004
  • Laatst online: 10-02 23:39

rapture

Zelfs daar netwerken?

Het is juist goed dat wij eens van de rest afwijken. Eens een keertje reviewen zonder overkill-galore en specs die we toch nooit zullen kopen. Van een populaire E6600 naar een quadcore die ietsje lager dan een E8400 geklokt is.

De grote meerderheid werkt met een 1280*1024 scherm en sommigen gebruiken 1600*1200. Nog hogere resoluties zijn zeldzamer.

Het was te verwachten dat de grafische kaarten overkill waren voor de processor.

Wat ik mis, is een referentie. Je kan zien dat de ene kaart weleens sneller dan de andere is, maar hoe snel is het nu eigenlijk tov bv reviews: Club3D Radeon HD 4870 versus MSI Geforce GTX260 OC

Op het einde kan reviews: HIS Radeon HD 4870 X2 versus Asus Geforce GTX 280 concluderen dat bij normale resoluties en normale processors, de grafische kaarten overkill zijn.

EOS 30D, kitlens, EF 50mm/1.8, EF 85mm/1.8


  • m9nossie
  • Registratie: augustus 2005
  • Laatst online: 19-02-2018
quote:
rapture schreef op donderdag 14 augustus 2008 @ 00:53:
Het is juist goed dat wij eens van de rest afwijken. Eens een keertje reviewen zonder overkill-galore en specs die we toch nooit zullen kopen. Van een populaire E6600 naar een quadcore die ietsje lager dan een E8400 geklokt is.
Mjah, als je dit soort kaarten tot het uiterste wil pushen moet je ze gewoon benchmarken in een systeem wat geen enkele bottleneck kan vormen. Logisch opzich.
je gaat ook geen Ferrari F1 car testen in de bebouwde kom en dan tot conclusie komen dat hij beter over drempels gaat dan de Bmw F1. Daar zijn ze niet voor bedoelt..

m9nossie wijzigde deze reactie 20-08-2008 12:17 (8%)

http://www.image-shared.com Fast and most reliable Image Hosting


  • warp
  • Registratie: januari 2000
  • Niet online
Naar mijn mening ligt de focus wat te testen games betreft veel te veel op shooters. Waarom nemen jullie bijvoorbeeld niet World of Warcraft en Guild Wars mee? Deze worden letterlijk door miljoenen mensen gespeeld. Ook wat simulaties als Flight Simulator en GTR zouden leuk zijn, en mischien wat titels van EA Sports (denk aan Fifa e.d.), plus een titel uit de NFS reeks, want ook deze zijn heel erg populair bij een breed publiek.

Just my 2 euro cents...

  • Pine Mangoes
  • Registratie: september 2005
  • Laatst online: 03-01-2017
quote:
warp schreef op woensdag 27 augustus 2008 @ 13:37:
Naar mijn mening ligt de focus wat te testen games betreft veel te veel op shooters. Waarom nemen jullie bijvoorbeeld niet World of Warcraft en Guild Wars mee? Deze worden letterlijk door miljoenen mensen gespeeld. Ook wat simulaties als Flight Simulator en GTR zouden leuk zijn, en mischien wat titels van EA Sports (denk aan Fifa e.d.), plus een titel uit de NFS reeks, want ook deze zijn heel erg populair bij een breed publiek.

Just my 2 euro cents...
Mja, je hebt wel een punt, maar die games die je opnoemt zijn grafisch niet erg intensief, en draaien op alle kaarten perfect. Wat ook de reden is dat ze zo populair kunnen zijn.

  • leuk_he
  • Registratie: augustus 2000
  • Laatst online: 19-04 22:51

leuk_he

1. Controleer de kabel!

quote:
Pine Mangoes schreef op donderdag 28 augustus 2008 @ 15:25:
[...]


Mja, je hebt wel een punt, maar die games die je opnoemt zijn grafisch niet erg intensief, en draaien op alle kaarten perfect. Wat ook de reden is dat ze zo populair kunnen zijn.
Op alle kaarten? op hoge setttings? Juist voor simplere budget kaarten, laptaops (of zelfs IGD) is het interresant wat de maximale settings zijn waarop deze spelen kunnen worden gespeed. Op >200 euro kaarten hoef je dit soort spelen niet te benchmarken.

Need more data. We want your specs. Ik ben ook maar dom. anders: forum, ff reggen, ff topic maken
En als je een oplossing hebt gevonden laat het ook ujb ff in dit topic horen.


  • TERW_DAN
  • Registratie: juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

quote:
rapture schreef op donderdag 14 augustus 2008 @ 00:53:
Het is juist goed dat wij eens van de rest afwijken. Eens een keertje reviewen zonder overkill-galore en specs die we toch nooit zullen kopen. Van een populaire E6600 naar een quadcore die ietsje lager dan een E8400 geklokt is.

De grote meerderheid werkt met een 1280*1024 scherm en sommigen gebruiken 1600*1200. Nog hogere resoluties zijn zeldzamer.
Maar imho wel interessant om te zien hoe een game schaalt. Ik zou best benches willen zien op 2560*1600 om eerlijk te zijn in vergelijking met 1920*1200, 1680*1050 en 1280*1024.

V&A eindejaarsopruiming - veul meuk voor weinig

Mijn BGG-list

quote:
Pine Mangoes schreef op donderdag 28 augustus 2008 @ 15:25:
[...]


Mja, je hebt wel een punt, maar die games die je opnoemt zijn grafisch niet erg intensief, en draaien op alle kaarten perfect. Wat ook de reden is dat ze zo populair kunnen zijn.
Dat klopt natuurlijk niet helemaal dat die games zo populair zijn omdat ze grafisch niet erg intensief zijn. De gameplay is gewoon enorm goed. En daarnaast weet vooral de GW engine er hele mooie beelden uit te pompen... een staaltje van goed programmeerwerk en efficient gebruik van shaders.

Het leuke dat die games op veel systemen draaien, is dat je de nieuwe videokaarten ook echt tot op de max kan testen.... 12xEdge Detect CFAA of 24x Edge Detect CFAA... En reken maar dat het er dan een stuk beter uit ziet.... Dat is iets wat je met Crysis bv beter niet kan doen, tenzij je naar een slideshow wilt kijken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Pine Mangoes
  • Registratie: september 2005
  • Laatst online: 03-01-2017
quote:
CJ schreef op maandag 01 september 2008 @ 19:17:
[...]
Dat klopt natuurlijk niet helemaal dat die games zo populair zijn omdat ze grafisch niet erg intensief zijn. De gameplay is gewoon enorm goed. En daarnaast weet vooral de GW engine er hele mooie beelden uit te pompen... een staaltje van goed programmeerwerk en efficient gebruik van shaders.
Ik zei: dat ze zo populair kunnen worden. Een game met een beetje veeleisende engine kan gewoon nooit zo'n grote doelgroep als WoW of GW bereiken, dan mag de gameplay nog superieur zijn. Ik geef toe, had 't mss beter kunnen verwoorden :)
quote:
leuk_he schreef op donderdag 28 augustus 2008 @ 15:35:Op alle kaarten? op hoge setttings? Juist voor simplere budget kaarten, laptaops (of zelfs IGD) is het interresant wat de maximale settings zijn waarop deze spelen kunnen worden gespeed. Op >200 euro kaarten hoef je dit soort spelen niet te benchmarken.
Nee, natuurlijk niet op hoge settings :z Ze draaien wel overal op. M'n broer draait hier WoW op zowat de slechtste laptop denkbaar (Celeron, 512MB geheugen en een crappy GMA 945), en krijgt bijna altijd speelbare fps (~20-30).

Pine Mangoes wijzigde deze reactie 05-09-2008 18:07 (31%)


  • masterchi
  • Registratie: juli 2007
  • Laatst online: 14-07-2011
Het is de eerste keer dat ik deze thread lees en heb alleen de eerste en laatste pagina gelezen, dus vergeef me als ik iets noem dat al gezegd is.
Allereerst wil ik zeggen dat ik het helemaal eens ben met CJ's post op de eerste pagina. Ik heb alleen een paar kleine (doch essentiele) toevoegingen op.
  • Het vermelden van de minimale framerate is erg belangrijk. Met name de informatie over de 'dips' in de framerate zijn bepalend voor de speelbaarheid. Daarom zou ik het nog iets uitgebreider willen zien dan alleen de minimale framerate. Want op deze manier weet je niet hoevaak de minimale framerate voorkomt. Het kan best zo zijn dat Windows even een proces moest afhandelen waardoor de fps even een dip neemt. Deze 'spikes' komen slechts zelden voor en zullen dus nooit echt vervelend worden. Twee mogelijke oplossingen hiervoor:
    1. Neem een gemiddelde van de laagste +-2-5% van de framerate metingen. Dit geeft namelijke een veel betere statestiek op het voorkomen van fps dipjes.
    2. Vermeld een distibutie van bv. <10 , 10-25 , 25-40 , 40 -60 , >60. De <10 en 10-25 zijn persoonlijk de belangrijkste. Persoonlijk geeft dit een goede indicatie welk deel niet of slecht te spelen is. Ik heb deze methode eerder gezien, maar weet niet meer welke site dit hanteerde.
  • Verder is CPU schaling erg belangrijk. Maar doe het alsjeblieft op een een reso van 1600x1200 en high instellingen of hoger. Mijn punt is namelijk dat niemand geinteresseerd is in of de game 100 of 200 fps geeft op de laagste instellingen, maar des te meer of het van 30 naar 40 kan gaan op hogere instellingen door een snellere CPU. Het hoeft niet direct >1600x1200 en high instelling, maar doe het op de instellingen waar de doelgroep van de kaart op zal spelen. Al betwijfel ik of deze test nodig is voor de low en mid end kaarten (<100 euro). Verder is in deze test de minimum frames ook erg belangrijk. Dit is een onmisbare statistiek om te bepalen of ervaring ook daadwerkelijk beter is.
Just my 2 cents.

masterchi wijzigde deze reactie 05-10-2008 15:08 (9%)


  • Jasperrr
  • Registratie: augustus 2008
  • Laatst online: 08-03-2018
quote:
[b][message=29983741,noline]
En ook niet alleen gamekaarten, maar ook is een keer Matrox of Quadro kaarten reviewen, dus bij die standaard firstperson shooter benchmarks zou ik ook iets van Photoshop ofzo bijzetten (zon soort proggramma die je kunt benchen).
Ik vind het als Gamer/Designer ook wel handig om niet alleen de game benchmarks, maar ook de (design) applicatie benchmarks te zien.

  • RichardvVoorden
  • Registratie: juli 2007
  • Laatst online: 19-09-2010
De focus op de gebruiker, niet op de techniek:
Als je een protocol wil opstellen moet je eerst bepalen voor wie je het doet. Stel dus eerst een paar doelgroepen op:

Jullie weten dat veel beter dan ik maar bijvoorbeeld:
1 De online gamer
2 De first-person shooter / Third-person shooter
3 De Photoshopper
4 De 3D Designer
5 De Windows fanaat (die 100 windows tegelijk open heeft staan)
6 De Multi media fanaat (video / audio)
7 De Flash ontwikkelaar
8 Video editor.

Je hoeft natuurlijk niet voor iedereen een aparte sectie te verzinnen. Je moet wel proberen het iedereen naar z’n zin te maken.
Dus als een review af is bekijk je het ook een keer door de bril van een flash ontwikkelaar om te zien of er hier en daar nog iets ontbreekt.

Onderscheiden:
Veel review-sites geven heel technische informatie zoals frame rate. Veel tweakers weten wat ze hier mee aan moeten maar er zijn ook veel mensen die hier niets mee kunnen.
Het zou mooi zijn als er op verschillende punten gewoon een simpele rating gegeven zou worden. Bijvoorbeeld:

Spelen van gewone 3D shooters: zeer goed.
Spelen van Zware 3D shooters: redelijk.
Spelen van gewoon race spel: goed.
Spelen van Zwaar race spel: slecht.
Eenvoudig foto bewerken: redelijk.
Professioneel foto bewerken: niet.
Enz enz enz.

Op die manier kan iedereen er mee uit de voeten.

Leuk tipje:
Dan nog een leuk tipje wat ik op een Photo-camera review site heb gezien.
Daar werd na de conclusie een drietal alternatieve camera’s gepresenteerd. Voor elke alternatief werd even kort verteld war de voor en nadelen van die andere camera waren.

Nog een tip voor die energie meting:
Neem een moederbord met geïntegreerde GPU (G45). Meet het energie verbruik zonder extra video kaart. Zet er vervolgens de video kaart in die je wil testen maar laat de geïntegreerde GPU gewoon aan staan.
Trek de twee getallen van elkaar af……. En zie daar, het verbruik van de video kaart……Hoe meet je dan het verbruik van een G45……. Geen idee..

Nog één tipje dan...
De meeste review site bekijken een product alleen met de standaard instellingen. Dat is goed, het zou echter ook leuk zijn om vervolgens te kijken hoe ver zo'n product getweakt kan worden !!! het heet hier niet voor niets tweakers.....

  • Proculus
  • Registratie: januari 2009
  • Laatst online: 26-03-2012
Had ook graag niet enkel de gangbare "review"-games zien opduiken tijdens het testen. Zo was het opduiken van supreme commander in sommige reviews van de gtx295 een welkome verassing aangezien zulke games mij langer kunnen boeien dan bv. crysis. Het is niet al eye candy dat blinkt, het massaal kunnen genereren op vlotte wijze van units heeft minstens evenveel invloed op mijn spelervaring.

  • M2M
  • Registratie: juli 2006
  • Laatst online: 02:14

M2M

medicijnman

quote:
Proculus schreef op donderdag 29 januari 2009 @ 15:41:
Had ook graag niet enkel de gangbare "review"-games zien opduiken tijdens het testen. Zo was het opduiken van supreme commander in sommige reviews van de gtx295 een welkome verassing aangezien zulke games mij langer kunnen boeien dan bv. crysis. Het is niet al eye candy dat blinkt, het massaal kunnen genereren op vlotte wijze van units heeft minstens evenveel invloed op mijn spelervaring.
helaas is dat laatste nogal cpu-gelimiteerd. (en geheugengelimiteerd als je wat meer units op je kaart wil hebben). Games en applicaties die voornamelijk gebruik maken van de GPU zijn bijvoorbeeld de 3dmark serie, FPS games (recente) op hoge resolutie en in het geval van nvidia benchmarks zou je ook kunnen kijken naar de physics demo's. Die zien er ook wel redelijk schaalbaar uit.

-_-


  • Hamish
  • Registratie: januari 2000
  • Laatst online: 13-04 15:34
Qua 'professionele' software zouden de volgende benchmarks een goede indicatie kunnen geven:Ook zou ik een beeldkwaliteit, kleurcalibratie, profielen etc. terug willen zien. Hoewel waarschijnlijk signaalkwaliteit bij gebruik van DVI geen rol meer speelt.

Hamish wijzigde deze reactie 05-05-2010 12:05 (2%)
Reden: minor detail.


  • bombadil
  • Registratie: september 2000
  • Niet online

bombadil

Iarwain Benadar

Ik zou ook graag wat reële reviews willen zien. Daarmee bedoel ik dus op situaties waarbij de thuisgebruiker ook mee wordt geconfronteerd; terwijl er op de achtergrond een virusscanner actief is, wat downloads lopen, MSN, een mp3tje speelt wellicht. Wat zijn dan nog de prestaties van je kaart? Lijkt me veel interessanter dan 3dmark 3019. Een beetje ook type vijf van RichardvVoorden hierboven.

Natuurlijk is dit lastiger te reviewen dan een blote game op een vers geïnstalleerd systeem. Die zijn leuk maar zo speelt volgens mij bijna niemand terwijl dit wel is zoals 99% van de testen worden gedaan. Onrealistisch.

En uiteraard een kaart testen op twee systemen; een maal op de nieuwste high-end duizend euro CPU en een maal op een iets normaler platform; blijft die topscore dan nog overeind of is het overkill voor de gemiddelde gebruiker? (al kan dit je wel je witte voetje bij de kaartenfabrikanten kosten)


Tweaken van de kaarten vind ik minder interessant; de marges en snelheidswinsten zijn veel geringer dan vroeger gehaald konden worden. Geluid en verbruik daarentegen vind ik wel belangrijk.

bombadil wijzigde deze reactie 22-02-2009 21:20 (22%)

"De ouwe Tom Bombadil is een vrolijk kwastje,Zijn laarzen zijn geel en knalblauw is zijn jasje, Want Tom, die de meester is, heeft geen ooit gevangen, Zijn liedjes zijn sterker en zijn benen zijn langer". (LotR)


  • Wilbert de Vries
  • Registratie: augustus 2007
  • Laatst online: 16-04 13:34

Wilbert de Vries

Ex-hoofdredacteur
De redactie is intern opnieuw bezig met alle protocollen en met name het actualiseren dan wel opstellen daarvan. Alle gegeven input is waardevol en zal waar mogelijk zeker worden gebruikt.

  • Cassius
  • Registratie: januari 2002
  • Niet online

Cassius

Moogles!

Onbeschaamde crosspost uit het ATi topique betreffende de nieuwste GTX260/TX275/HD4890 review:
quote:
Ik vind dat een site met redelijk niveau als tweakers.net dit raar heeft afgerond, ze melden dat ze voor ATi drivers oud spul pakken en voor nVidia het nieuwste beta spul - maar vervolgens doen ze daar verder niets aan en publiceren ze gewoon vrolijk?

Ook de spellen portfolio die ze testen is hevig biased en ook DAT melden ze nog achteraf. Als je dat toch weet - doe er iets aan? Kanonnen, het willenswetend weglaten van die informatie maakt de review nog slechter dan als ze het per ongeluk deden. En het "geen tijd" argument lijkt me niet op te gaan, los van het feit dat je publiceert als het af is of anders niet, hadden ze wel nieuwe beta drivers van nVidia. Die testgames hadden ze ook anders aan kunnen pakken, want ik heb games als Grid en Hawx al wel degelijk op tweakers voorbij zien komen.

Zonde :/ . Zoveel discussie over videokaart reviews, maar helaas.
Als de reviewers/schrijvers in kwestie hun fouten weten - zou ik aanraden deze vooraf te verbeteren of niet te publiceren/posten. Dat ziet er imo dubbel fout uit.

Wat is daar het praktisch nut van - System "Deasygn"


  • Marc Rademaker
  • Registratie: juli 2007
  • Laatst online: 17-04 16:09
Storm in een glas water. Ja, 9,4 was beter gweest, en meer spellen ook, maar de uitkomst was niet radicaal anders geweest. De GTX275 is iets sneller dan de HD 4890, en de HD 4890 is weer iets sneller dan de GTX260.

En het was een ongelukkige samenloop van omstandigheden. In de toekomst zal het niet meer voorkomen.

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 05-02 21:11

neliz

GIGABYTE Man

quote:
Marc Rademaker schreef op dinsdag 28 april 2009 @ 17:31:
Storm in een glas water. Ja, 9,4 was beter gweest, en meer spellen ook, maar de uitkomst was niet radicaal anders geweest. De GTX275 is iets sneller dan de HD 4890, en de HD 4890 is weer iets sneller dan de GTX260.

En het was een ongelukkige samenloop van omstandigheden. In de toekomst zal het niet meer voorkomen.
En zo zijn we een paar maanden verder en die tijd bewijst maar weer eens dat de keuze van benchmarks/drivers heel erg van invloed is op de resultaten.

De set gebruikt door [H] toont een duidelijk voordeel van de 4890 over de GTX275
De GTX275 wint alleen nog maar in FarCry2 tov een 4890, Crysis is gelijkwaardig en in de andere benchmarks delft hij nu het onderspit.

Op het moment dat je zegt dat het verschil niet radicaal anders was geweest durf ik te beweren dat dit wel het geval geweest zou zijn. Je praat over 1 of 2 frames verschil waardoor er een kaart als "beter" wordt aangemerkt terwijl dit op het moment van publiceren wellicht niet eens reëel was.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Olaf van der Spek
  • Registratie: september 2000
  • Niet online
Bij de specs zou het handig zijn de geheugenbandbreedte te vermelden. Is een stuk makkelijker vergelijken dan breedte * frequentie...

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 00:59
reviews: Hands-on met de HD 5450: stil, klein en zuinig

Gemiste kans imho.

Had er een Radeon X800 (of X850) bij gegooid en het artikel zou een stuk interessanter geweest zijn. Zijn nog genoeg mensen die met zo'n oude kaart rond moeten komen. Een upgrade naar een goedkoop en energiezuinig kaartje is dan absoluut interessant.

Mijn blog; Floating Points


  • Marc Rademaker
  • Registratie: juli 2007
  • Laatst online: 17-04 16:09
Persoonlijk had ik er ook een HD 3450 of 4350 tegenover willen zetten en bijvoorbeeld een G210 of GT220. Had ik een aantal htpc-tests gedaan. Maar al die videokaarten zijn niet 1-2-3 aanwezig en testen kost tijd, waar niet altijd genoeg van voor handen is. Dat is ook de reden dat het een slechts een hands-on is, en geen complete review.

De hoogste prioriteit ligt nu bij het testen van de htpc-capaciteiten, zodat we die in de toekomst ook kunnen melden. Het uitbreiden van vergelijkingsmateriaal blijft iets wat we doen waar en wanneer dat mogelijk is, maar er zijn helaas grenzen.

Marc Rademaker wijzigde deze reactie 04-02-2010 09:50 (27%)


Acties:
  • 0Henk 'm!

  • KaWaReZ
  • Registratie: oktober 2005
  • Laatst online: 20-03 17:21
Even topic kicken

Interessant voor mij (en wellicht anderen) is bijvoorbeeld de koeling:
kwartiertje furmark op stability test -> waardes posten
koeler demonteren, arctic silver5 oid ertussen frotten , furmark herhalen -> waardes posten

Waardes tegenover elkaar zetten

Meestal zijn de fabrieksaf gemonteerde koelblokken gewoon met een of ander prutspul ertussen afgeleverd, wat best wel bij kan dragen aan geluidsproductie. (Furmark is misschien overkill), maar het idee of het daadwerkelijk uit maakt of je er wat aan doet.

Voor mij zelf is het niet zo heel nuttig (gaat toch meteen een waterblock op), maar voor anderen die twijfelen ivm geluidsproductie tussen twee kaarten, hier meer aan zullen hebben.

Stel (heel simpel fictief)
Kaart A produceert X dB, met ac5 X-5 dB
Kaart B doet X+5 dB, met ac5 X-15dB
op dezelfde load... Dan kan Kaart B juist interessanter zijn :+

just my 2cts..
en meer iets voor "als er echt veel tijd voor is"

  • Damic
  • Registratie: september 2003
  • Nu online

Damic

Afwezig soms

Request om mee in de nieuwe benchmarks te steken is hoe een kaart op GPGPU niveau presteert. Vermits we meer die richting uitgaan en de cpu een beetje links gaan laten liggen in de toekomst (vermoed ik zo) kan het wel interessant zijn om al wat resultaten te zien.

* RC5-72 piek en gemiddelde snelheid voor zowel Stream als CUDA
* Een aantal projecten van Boinc: ik doe zelf niet mee dus weet niet echt wat er interessant is
* Andere GPGPU programma's/projecten

Dit kan niet zo heel veel werk zijn en dan krijgen we ook eens een beetje inzicht hoe CUDA vs Stream staat.

Dank bij voorbaat Damic

Damic wijzigde deze reactie 18-09-2010 02:28 (16%)

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag

Pagina: 1 2 Laatste


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True