Review van de GTS450, mist scherper oordeel

Pagina: 1
Acties:

  • kalizec
  • Registratie: September 2000
  • Laatst online: 20-12-2025
Na het lezen van de review van de GTS450 kon ik me moeilijk aan de indruk onttrekken dat er niet echt getracht is een eerlijke vergelijking uit te voeren.

De vermelde GTS 450 staat voor 161 euro in Pricewatch. De door Nvidia vermelde adviesprijs gaat om een non-OC versie die een 18% lagere kloksnelheid kent. Dit terwijl een stock HD5770 met 1GB slechts 135 euro kost. Kortom, de door jullie getest kaart kost 25 euro meer... best fors voor een kaart die minder dan de helft van de benchmarks weet te winnen.

Als we ons dan ook nog eens realiseren dat 1 GB op een videokaart van deze klasse alleen zinvol is als je ze in SLI of CF zet en dat in vrijwel alle anderen gevallen het het geld niet waard is, dan zou duidelijk geworden zijn dat er een HD5770 met 512MB in deze test had moeten staan. Die overigens nog eens 30 euro goedkoper is... waarmee het gat oploopt tot 55 euro respectievelijk ±10% prestaties (stock GTS450 vs stock HD5770) en 30 euro.

En dan nog durft de reviewer te concluderen dat Nvidia met een beetje geluk een betere prijs/prestatie gehalte zou kunnen hebben... Hier had, naar mijn mening, echt veel harder geconcludeerd mogen worden dat de GTS450 het qua prijs/prestatie gewoon faalt.

Kortom, mijn inziens een nette review, maar de reviewer had echt scherper mogen zijn in zijn oordeel. De prijs/prestatie verhouding van deze kaart is ver te zoeken en dat had mijn inziens de echte conclusie van dit artikel mogen zijn.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


Verwijderd

Helemaal mee eens.

Bij de titel zie je iets ook iets dergelijkgelijks terug... "GTS450: DX11 voor de massa" Dat klinkt alsof het nieuw en bijzonder is. Maar DX11 voor de massa is al een jaar(!) lang aanwezig in de vorm van AMD's 5770 en broertjes!

Hooguit is dit dus "Nvidia's DX11 voor de massa". Klein, maar oh zo significant verschil!

  • kalizec
  • Registratie: September 2000
  • Laatst online: 20-12-2025
Heb het hele artikel nog een keer gelezen... ik verbaas me over nog iets....

De manier waarop de kaart 'maximaal' belast wordt voor energie-verbruik.... waarom wordt hier Furmark gebruikt? Het is bekend dat enkele ATI-kaarten throttlen bij dergelijke burn-in tests. Maar ook bijvoorbeeld een GTX460 heeft al laten zien dat deze throttled... rest natuurlijk de vraag of dit niet ook voor deze GTS450 op gaat.

Het was dan ook verstandiger geweest om stroomverbruik in een of meerdere games te meten.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-02 14:30
De GTS 450 van asus is in de 'normale' benchmarks op 783MHz getest. De standaard kloksnelheid van een GTS 450, zoals die voor 125 euro te koop zijn. De conclusie is dan ook volledig gerechtvaardigd.

Op de overklok-pagina's staan de benchmarks met de gpu overgeklokt naar 925MHz en 965MHz. Dat staat allemaal in de tabel aangegeven. Ook staat er in de inleiding, 2e alinea, hoe er getest gaat worden. Eerst dus op 783MHz, en later pas op 925/965MHz.

De titel, tja, die had inderdaad genuanceerd gekunder. Zoals in de conclusie ook al staat, had ATI dit allemaal al bijna een jaar geleden al.

@ Kalizec,

Je gaat er ten onrechte van uit dat ik niets van mijn werk weet. Ten tweede had je kunnen weten dat de videokaarten niet throttelen, want ze overschrijden het opgegeven tdp..

  • kalizec
  • Registratie: September 2000
  • Laatst online: 20-12-2025
Marc Rademaker schreef op dinsdag 14 september 2010 @ 11:03:
De GTS 450 van asus is in de 'normale' benchmarks op 783MHz getest. De standaard kloksnelheid van een GTS 450, zoals die voor 125 euro te koop zijn. De conclusie is dan ook volledig gerechtvaardigd.

Op de overklok-pagina's staan de benchmarks met de gpu overgeklokt naar 925MHz en 965MHz. Dat staat allemaal in de tabel aangegeven. Ook staat er in de inleiding, 2e alinea, hoe er getest gaat worden. Eerst dus op 783MHz, en later pas op 925/965MHz.
Dat maakt inderdaad best wel een verschil... Mag ik dan wel benoemen dat informatie over hoe getest is bij elkaar hoort te staan. Het had 10x duidelijker geweest als jullie die informatie onder het kopje Testsysteem vermeldt hadden. Ik, en naast mij vele anderen, hebben hier nu veel te gemakkelijk overheen kunnen lezen.
De titel, tja, die had inderdaad genuanceerd gekunder. Zoals in de conclusie ook al staat, had ATI dit allemaal al bijna een jaar geleden al.
Betekent dit nu wel of niet dat hier bij toekomstige artikelen op gelet gaat worden?
Je gaat er ten onrechte van uit dat ik niets van mijn werk weet.
Dat is wat jij nu invult, kortom jouw woorden, niet de mijne. Laat ik benoemen dat dit niet mijn uitgangspunt is geweest toen ik dit schreef.

Overigens ben je niet ingegaan op mijn overige argumenten. Bijvoorbeeld om deze kaart ook met een HD 5770 512MB te vergelijken. Dit had bijvoorbeeld gemakkelijk in plaats van de GTX480 gedaan kunnen worden... die kaart valt toch niet in hetzelfde prijssegment.
Ten tweede had je kunnen weten dat de videokaarten niet throttelen, want ze overschrijden het opgegeven tdp.
Sorry, maar die redenatie is niet sluitend, logisch onvolledig en gebaseerd op informatie die niet in dat artikel staat... Welk deel van het verbruik in dat systeem voor rekening komt van de videokaart valt nergens in het artikel af te leiden.

Verder is TDP een ontwerp gegeven voor de koeling, dat een kaart de opgegeven TDP overschrijdt hoeft niet in te houden dat er verderop geen grens ligt die alsnog door de fabrikant afgedwongen wordt.

Analogie
Een BMW met banden die geverifieerd zijn tot 200 kilometer per uur (TDP) kan nog steeds een limiet hebben op de chip hebben zodat deze niet harder kan rijden dan 250 kilometer per uur.

Voorbeeld
Praktisch voorbeeld... een HD5870 throttled als de VRMs te warm worden... en als die voldoende gekoeld worden kan die kaart toch echt de opgegeven TDP overschrijven...

Verder doet dit alles niets af aan het feit dat stroomverbruik in realworld-gebruik X veelzeggender is dan stresstest-applicatie Y.

Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S


  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 16-02 14:30
Sommige videokaarten zijn reeds getest en die resultaten worden later meegenomen, omdat ze nog nieuw genoeg en relevant zijn. De HD 5750 is bijvoorbeeld niet getest vanwege tijdgebrek en ik ben er van uitgegaan dat de HD 5770 de meest naaste concurrent zou zijn, niet geheel ten onrechte. Maar ja, ik had de 5750 liever ook meegenomen.

Het meten van het energieverbruik met behulp van Furmark doen we nu al 1,5 jaar en eigenlijk zonder klachten. Ik zou de moeite kunnen nemen om ook enkele waarden te noteren tijdens gamebenchmarks, maar die zijn vaak vrij onregelmatig en metingen zijn dan weinig betrouwbaar. Ook verschilt het per spel, als de cpu bijvoorbeeld meer of minder wordt gebruikt. Overigens lukt het sommige spellen om de gpu bijna net zo zwaar te belasten als Furmark, dus zo'n slechte indicator is het niet.

En uiteraard nemen we kritiek mee voor de volgende review. Nu was de titel niet zo zeer nalatigheid, maar als je er inderdaad over nadenkt zou je kunnen concluderen dat we bedoelen dat er nu pas DirectX 11-kaarten beschikbaar zijn voor de 'massa'.

  • ACM
  • Registratie: Januari 2000
  • Niet online

ACM

Software Architect

Werkt hier

Marc Rademaker schreef op dinsdag 14 september 2010 @ 13:46:
Ik zou de moeite kunnen nemen om ook enkele waarden te noteren tijdens gamebenchmarks, maar die zijn vaak vrij onregelmatig en metingen zijn dan weinig betrouwbaar. Ook verschilt het per spel, als de cpu bijvoorbeeld meer of minder wordt gebruikt.
Je zou kunnen proberen het totale verbruik (kWh) tijdens de benchmark te noteren, ipv hoeveel Watt op een specifiek moment wordt opgenomen. Nadeel daarvan is natuurlijk weer dat je benchmarks wellicht niet even lang duren en/of de resolutie van je huidige meetapparatuur niet hoog genoeg is.
Pagina: 1