In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Flames, ernstige beledigingen, trollen, bedreigingen, en al dat soort ongerief horen in dit topic niet thuis en zijn uitermate Not Done. Weet je niet zeker hoe je je dient te gedragen in een topic als deze, raadpleeg dan de GoT-FAQ, een aanrader voor de beginnende GoTter
Dit topic is vooral niét bedoeld om te posten dat:
jouw favoriete kaart niet leverbaar is bij een shop.
jij je kaart nu éindelijk hebt en dat je daar zo verschrikkelijk blij mee bent.
je van plan bent om hem te gaan OC'en, maar je vraagt je toch af waarmee je dat moet doen.
je nu toch wel je persoonlijke record met 3DMarkX verbroken hebt.
je score in 3DMark tegenvalt en je afvraagt wat je hieraan kan doen.(zie de 3DMark-FAQ)
je je afvraagt welke kaart nu beter bij jou past, zie Google voor dozens of reviews.
Prijzen, hiervoor hebben we pricewatch. Alles wat je post kun je op http://www.tweakers.net/pricewatch vinden, mocht het er niet tussen staan, post het DAAR dan, dan hebben anderen er ook wat aan.
Ellenlange discussies die al 100 keer zijn gehouden en die totaal geen nieuwswaarde bevatten!
Veel lees- en discussieerplezier toegewenst!
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op:
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27
Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• Het Geforce 7800 GT en GTX Topic
Deel 1, 2, 3, 4, 5, 6, 7
• [Discussie] Het GeForce 7 Topic
Deel 8, 9, 10, 11, 12, 13, 14
Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he
Andere Interessante Topics:
• [OC] nVidia GeForce 7 Series - Deel 1, 2
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS
Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics:
• [Discussie] nVidia 8xxx series
Deel 1,2, 3, 4, 5, 6, 7, 8, 9
Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic
• [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34
Vanaf Deel 46 van dit topic is besloten om de G92 Kaarten niet langer meer op te nemen in het topic (ze hebben tenslotte een redelijke leeftijd bereikt). Sowieso komen er geen nieuwe kaarten meer uit gebaseerd op deze core.
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken.
Ook nu is er geen DX 10.1 ondersteuning.
G 210 en GT 220 (eindelijk directX10.1)
GeForce 210/310
GPU: GT218 (40nm)
Release Date: 12/10/2009
Interface: PCI-E 2.0 x16
Transistors: 260 million
Unified shaders: 16
Shader clock: 1450 MHz
ROP's: 8
Core Clock: 675 MHz
Memory Clock: 400 MHz (DDR2)
Memory Bandwidth: 8.0 GB/sec (DDR2)
Memory Interface: 64 bit
Memory: 512 MB
OpenGL: 3.2
Consumption: 30 watt (max)
Power Connectors: geen
DirectX: 10.1
GeForce GT 220
GPU: GT216 (40nm)
Release Date: 12/10/2009
Interface: PCI-E 2.0 x16
Transistors: 486 million
Unified shaders: 16
Shader clock: 1360 MHz
ROP's: 8
Core Clock: 625 MHz
Memory Clock: 900 MHz (GDDR3)
Memory Bandwidth: 25.0 GB/sec (DDR2)
Memory Interface: 128 bit
Memory: 1024 MB (max)
OpenGL: 3.2
Consumption: 58 watt (max)
Power Connectors: geen
DirectX: 10.1
GTS 240 en GT 240 (Eindelijk GDDR5 )
GeForce GT 240
GPU: GT215 (40nm)
Release Date: 17/12/2009
Interface: PCI-E 2.0 x16
Transistors: 727 million
Unified shaders: 96
Shader clock: 1340 MHz
ROP's: 8
Core Clock: 550 MHz
Memory Clock: 900/1000 MHz (GDDR3) of 1700 Mhz GDDR5
Externe nieuwsberichten: Drie van de top 4 supercomputers in de wereld halen een groot deel van hun rekenkracht van grafische processors.
• China's Tianhe-1A crowned supercomputer king
De krachtigste ter wereld bevind zich nu in china en bevat 7,168 nVidia GPU's (naast 14,336 Intel CPUs, details )
• China claims supercomputer crown
GTX 580
De gerucht doen de ronde dat nVidia "binnenkort"(pas volgend jaar) de nieuwe serie zal lanceren beginnende met de high-end kaart de GTX 580.
Echter zijn er 2 mogelijkheden:
• Een B1 versie van de huidige GTX480 fermi kaart waarbij het leakage probleem eindelijk onder controle gebracht is waardoor de clocks naar de oorspronkelijk beoogde snelheden gebracht kunnen worden.
Dit in samenwerking met het activeren van alle shaders (of CUDA cores genoemd).
• Een minder aanneembare optie, namelijk een nieuw "monsterchip" met het dubbel aantal Tmu's een 512bit brede databus (hoewel het vooral de memorycontroller was dat fermi1 parten speelde niet de bus zelf ..).
Ook deze zou hogere clocksnelheden moeten kunnen bereiken + over 512 shaders beschikken.
In beide gevallen zou de snelheidswinst een 20% zijn tegenover de huidige GTX 480 wat niet min is rekening houdende dat men blijft gebruik maken van dezelfde productieprocédé.
*update*: Het is de eerste optie geworden
GTX570
De volgende high-end kaart die nVidia zal lanceren in de in de GTX500 reeks zal de GTX570 worden, vermoedelijk met evenveel cuda cores dan de huidige GTX480 (welke EOL is verklaard) én hoger geklokt.
Dit zou moeten bereikt worden door dezelfde optimalisaties die eerder zijn toegepast om de GTX580 te produceren (Mogelijk dezelfde chip maar met een cluster aan CUDA cores disabled?)
nVidia BETA drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION
Momenteel(30 juli 2010) zijn er geen nieuwere beta drivers uit die recenter zijn dan de WHQL's.
Er is wel een nieuwe beta driver uit voor OpenGL 4.1 te supporten
Let op:
7) What NVIDIA hardware will support OpenGL 4?
The new features in OpenGL 4 require a Fermi GPU. Thus OpenGL 4 is not supported on NV3x, NV4x, G7x, G8x nor GT2xx hardware. This means you need one of the following NVIDIA graphics accelerators to use OpenGL 4:
Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia)
• Alternatieve OS: Momenteel zijn deze drivers dezelfde als voor de desktop applicaties
nVidia BETA drivers voor Mobile GPU's
Net zoals bij de desktop drivers zijn er momenteel (30 juli 2010) geen recentere beta drivers dan de WHQL Verde drivers.
*TODO*
->Hybrid Sli Hulp topic in orde maken als algemene verzamel en hulp topic Hybrid SLi (hun nieuwe technologie voor notebooks is nog niet door mij bijgevuld..)
-> PureVideo: (hpc)
PV engine 4 bijvoegen
CoreAVC 2.x bijvoegen + bijhorende support screenshot + uitleg
-> CUDA & PhysX... zijn hiervoor wel aparte topics gewenst? PhysX kan in lange termijn aangemaakt worden binnen Videakaarten & Beeldschermen, CUDA is wss meer iets voor devschuur...
[Voor 4% gewijzigd door lightdestroyer op 12-01-2011 16:59. Reden: Spellings fout + toevoegen van de vorige 2 topics+ toevoegen reviews, updaten GTX560 en GTX570 specs]
Anyway dit nieuws is al reeds een week oud maar ik het het bericht toch niet zien passeren in het topic zodoende bij deze:
(Het is sowieso een bevestiging van iets dat iedereen al wist/zag aankomen)
Zoals je in het artikel en het AMD cpu topic kan lezen verwacht men dus dat men nog een tijdje chipsets zal produceren en verkopen voor het apple platform maar dat het daarna er toch mee gedaan is (AMD fusion wordt een goed alternatief indien Apple blijft vragen voor krachtige IGP chipsets).
Alhoewel men gisteren op oa de frontpage kon lezen dat Intel eindelijk OpenCL opdrachten zal kunnen laten uitvoeren door Sandy Bridge cpu's .. mogelijk is dat ook voldoende voor Apple.
In ieder geval krijgt nVidia hierdoor een zware klap te verwerken, daar het tot voor kort een grote omzet had aan gpu's die het aan Apple verkocht dit lijkt nu verleden tijd te gaan worden in de volgende refreshes.
In het zelfde artikel kunnen we trouwens een paar financiële cijfers terugvinden namelijk
Nvidia reported revenue of $843.9 million for the third quarter of fiscal 2011 ended October 31, 2010, up 4% from the prior quarter and down 6.6% from $903.2 million from the same period a year earlier. Sales of consumer GPUs - which includes sales of discrete GeForce chips and chipsets with integrated GeForce graphics cores - accounted for 68.9% ($581.9) of the company's sales.
On a GAAP basis, the company recorded net income of $84.9 million, or $0.15 per diluted share, compared with a GAAP net loss of $141.0 million, or $0.25 per share, in the previous quarter and GAAP net income of $107.6 million, or $0.19 per diluted share, in the same period a year earlier. GAAP gross margin was 46.5% compared with 16.6% in the previous quarter and 43.4% in the same period a year earlier.
Dus weer winst voor nVidia maar deze is betrekkelijk klein (kleiner dan het verlies van het vorige kwartaal), maar ook kleiner dan vorig jaar .. Anyway het ziet er naar uit dat het nog lang zal duren voor nVidia geldproblemen zal krijgen.
Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...
EDIT; Wel typerend dat er weer even wordt verwezen naar de geschiedenis van AMD(ATI) met grote chips (R600) en dat dit toen niet geweldig uitpakte en het nu maar afwachten is of het wel goed gaat komen met Cayman. Ze gaan wat dat betreft eigenlijk off-topic in hun eigen nieuwsbericht...
[Voor 18% gewijzigd door Anoniem: 245699 op 19-11-2010 13:39]
Wat zou anders het nut zijn van twee of drie zulke kaarten?
Counterstrike spelen met 666fps ??
Het grote nut aan zo'n reviews vind ik persoonlijk vooral dat je hierdoor de schalingsmogelijkheden kan bekijken.
Indien een cpu bottleneck ook of bv je cpu overklokken lineaire gevolgen heeft voor je fps ofwel dat het bv amper iets uitmaakt =P.
Indien een snellere CPU daadwerkelijk je fps serieus kan opkrikken hebben alle gamers weer een excuus erbij om volgend jaar over te stappen naar de Sandy Bridge architectuur van intel. (of een snelle(re) AMD cpu .. )
In ieder geval hebben we weer iets om naar uit te kijken dit weekend
Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...
Ofwel, men neme GF110 gpu's die niet voldeden voor als GTX580 verkocht te worden (te hoog voltage nodig, kapotte CUDA core(s) ..) Je disabled 1 of meerdere clusters, laat de kloksnelheden zakken waardoor je ook direct de benodigde voltage kan verlagen enzoverder. Herhaal de voorgaande trukjes zolang totdat je gpu's uitkomt die "maar 140 watt" verstoken en je kaart is "af". Zo gek veel verlies maakt nVidia niet eens aan zo'n oplossing omdat je in principe werkt met gpu's die ze anders als goedkopere GTX 570 moesten verkopen oftewel zelfs gewoon weg moeten gooien. (De yields voor de Gf110 chip schijnen niet al te hoog te liggen).
De vraag is natuurlijk of je als consument blij zal zijn met zo'n oplossing.
[Voor 48% gewijzigd door lightdestroyer op 19-11-2010 13:41]
Denk dat de kans groot is dat ze de gf114 nemen, qua performance gaat deze zowieso de gtx470 voorbij en hij verbruikt stukken minder. Qua performance zal hij zich zeker kunnen gaan meten met Antilles, denk dat nvidia nog even wacht om niet enorm de mist in te gaan door het risico dat Antilles sneller gaat zijn, die kans is aardig groot. Beide partijen lijken wat achter te houden en laten beiden maar mondjesmaat nieuwe kaarten los, amd de hd6850 en 6870, nvidia de gtx580 en waarschijnlijk binnenkort de gtx570 (8 december gf110).
lightdestroyer schreef op vrijdag 19 november 2010 @ 13:35:
[...]
Het grote nut aan zo'n reviews vind ik persoonlijk vooral dat je hierdoor de schalingsmogelijkheden kan bekijken.
Indien een cpu bottleneck ook of bv je cpu overklokken lineaire gevolgen heeft voor je fps ofwel dat het bv amper iets uitmaakt =P.
Indien een snellere CPU daadwerkelijk je fps serieus kan opkrikken hebben alle gamers weer een excuus erbij om volgend jaar over te stappen naar de Sandy Bridge architectuur van intel. (of een snelle(re) AMD cpu .. )
Wat dat betreft zou het ook wel interessant zijn als ze bijv. een i7 920/950 eerst stock zouden draaien en vervolgens naar ~3.6Ghz en als laatste naar ~4.2Ghz clocken en kijken of er echt merkbaar FPS verschillen zijn bij dergelijk SLI/triple SLI opstellingen.
Zo zou je dan beter kunnen bepalen in hoeverre overclocken nut heeft.
[Voor 47% gewijzigd door Anoniem: 245699 op 19-11-2010 13:46]
Wat zou anders het nut zijn van twee of drie zulke kaarten?
100miljoenmiljard Frames Per Seconde op een 60Hz scherm
edit: de meeste reviews gaan namelijk "maar" tot een resolutie van 2560*1600. maar het lijkt me dan juist leuk om eens iets te lezen over die surround visionfinity dinges van nvidia. vooral als je twee of zelfs 3(!) keer een 580 hebt en je zelfs dan nog erg goede FPS moet kunnen halen.
[Voor 37% gewijzigd door superwashandje op 19-11-2010 14:02]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Het lijkt mij sterk dat ze een dual GF110 uitbrengen welke een stuk langzamer gaat zijn dan de HD6990 en ongeveer evensnel of sneller en binnen de 300 Watt is gewoon _niet_ mogelijk.
De kans is imo echt niet groot, prestaties zullen misschien net iets sneller zijn dan een GTX470, maar het verbruik zal ook op zo'n 175 Watt liggen. En twee GF114's zijn natuurlijk lang niet snel genoeg om een HD6990 te verslaan. Zelf een HD5970 verslaan zal niet gemakkelijk gaan.
Nvidia zou deze kaart al praktisch klaar hebben? Ben benieuwd hoe betrouwbaar die bron is, want dat zou wel erg snel zijn. Verder vraag ik me af hoe ze de GF110 chip voor de dual-kaart willen gebruiken, want die moet dan wel enorm kreupel gemaakt worden. Ik had eerder het idee dat ze hiervoor de toekomstige GF114 voor zouden gebruiken zodat je een soort dual GTX560 zou krijgen met wat aanpassingen.
Of Nvidia gaat er voor kiezen om echt over de 300watt grens te gaan, dat zou ik niet tof vinden...
EDIT; Wel typerend dat er weer even wordt verwezen naar de geschiedenis van AMD(ATI) met grote chips (R600) en dat dit toen niet geweldig uitpakte en het nu maar afwachten is of het wel goed gaat komen met Cayman. Ze gaan wat dat betreft eigenlijk off-topic in hun eigen nieuwsbericht...
Ze zijn al sinds de release van de HD5970 bezig met hun eigen dual GPU oplossing. De HD5970 is er al een jaar dus veel succes hebben ze niet geboekt om het zo maar even te zeggen want dan was die kaart er namelijk allang geweest. Dat ze nu dus wel een dual GPU kaart zouden hebben kan best maar waarom brengen ze hem niet uit ? Met de GTX580 hebben ze toch ook niet gewacht. M.a.w. BS bericht.
Nouja, als er potentie in zit om evt. de HD6990 af te troeven is het hen veel waard om zo de absolute prestatie kroon terug te pakken. Dus dat ze eerst willen weten hoe de Antilles gaat presteren kan ik nog wel inkomen. Daarbij komt het Nvdia prijstechnisch ook wel beter uit. De gemiddelde GTX580 op voorraad kost nu nog gewoon 500,-. Zouden ze nu een dual GPU kaart uitbrengen zullen ze die niet voor 600,- willen uitbrengen omdat ie dan te dicht op de GTX580 zit en dat de verkoop van die kaart enigsinds in de weg zit. Uitbrengen voor 700,- kan dan wel, maar denk dat ze dat gewoon in deze tijd te hoog vinden. Andere keuze is om de GTX580 nu al te verlagen naar ~400,-, maar hiermee willen ze natuurlijk zo lang mogelijk wachten om nu nog zo veel mogelijk te verdienen aan die kaart. Maandje uitstel van de Cayman zullen ze bij Nivida ook niet betreuren denk ik zo...
Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.
Maar ze hebben wel een primeur
[Voor 46% gewijzigd door madmaxnl op 19-11-2010 19:46]
Het doel van de review is toch ook niet om hem te vergelijken met Ati AMD alternatieven?
Ze hebben gewoon getest wat de schaling is met meerdere videokaarten, en de conclusie lijkt me vrij duidelijk en ongekleurd: 2-way SLI is leuk voor de performance freaks, 3/4-way is nutteloos tenzij je de hoogste benchmark score perse wil hebben.
primusz schreef op vrijdag 19 november 2010 @ 20:24:
Het doel van de review is toch ook niet om hem te vergelijken met Ati AMD alternatieven?
Ze hebben gewoon getest wat de schaling is met meerdere videokaarten, en de conclusie lijkt me vrij duidelijk en ongekleurd: 2-way SLI is leuk voor de performance freaks, 3/4-way is nutteloos tenzij je de hoogste benchmark score perse wil hebben.
Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen
Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen
Ik denk zelf dat het wel degelijk zin zou hebben gehad om alternatieve op een GTX580(SLI) mee te nemen in de test.
Omdat dat lang niet altijd zo geweldig schaalt?
Ik heb QCF gehad (met 2 HD5970's), en heb mijn ervaringen als eens eerder gedeeld. Het is trouwens wel een heel stuk beter geworden inmiddels!
Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.
Maar ze hebben wel een primeur
Pfffff...
Je wilt 8 exotische videokaart opstellingen benchmarken in acht games met in elke game ook weer op 3 verschillende presets... Stel dat elke benchmark run gemiddeld 3 minuten duurt dan ben je bezig:
8 x 8 x 3 x 3 = 576 minuten = 9,6 uur en met de extra tijd voor het rebooten en drivers installeren en dergelijke mag je dus wel een week uittrekken voor een dergelijke test en dan moet je ook nog maar eens even een paar duizend euro aan videokaarten hebben liggen, waarvan een aantal exemplaren limited edition zijn..
Waarom zouden de performance freaks niet voor een CF opstelling van twee HD5970 2GB gaan ?
Kost evenveel als een GTX580 SLI opstelling namelijk. NEE, zelfs minder want je hoeft geen SLI licentie mobo te kopen
Ik denk zelf dat het wel degelijk zin zou hebben gehad om alternatieve op een GTX580(SLI) mee te nemen in de test.
Dan zoek je toch lekker uit wat een 5970 CF tegenover een GTX580 presteerd in een andere review?
Als ik wil vergelijken hoe een single CPUx presteerd t.o.v. een dual/triple/quad CPUx presteerd hoef ik toch niet te weten wat CPUy doet?
Dat ze niet elke mogelijke videokaart/resolutie/game hebben getest betekend nog niet dat het een slechte review is..
Je wilt 8 exotische videokaart opstellingen benchmarken in acht games met in elke game ook weer op 3 verschillende presets... Stel dat elke benchmark run gemiddeld 3 minuten duurt dan ben je bezig:
8 x 8 x 3 x 3 = 576 minuten = 9,6 uur en met de extra tijd voor het rebooten en drivers installeren en dergelijke mag je dus wel een week uittrekken voor een dergelijke test en dan moet je ook nog maar eens even een paar duizend euro aan videokaarten hebben liggen, waarvan een aantal exemplaren limited edition zijn..
Go figure
Nou ik kaarten eigenlijk gewoon setups aan waarvan ze er toch wel twee makkelijk hadden kunnen testen:
HD5970 2GB CF en HD5870 1GB in CF t/m QCF. Dergelijke tests hoeven ook niet lang te duren als je bijvoorbeeld meerderen setups hebt en of meerderen pre-installed OS SSD's hebt liggen. In dit geval zou je dus gewoon de huidige setup nodig hebben met twee SSDs waarop één met de drivers voor nVidia + OS etc en één met daarop de drivers voor ATI + OS etc. HWI test regelmatig(understatement!!) dingen dus dan mag ik toch wel aannemen dat ze ook wel goed, efficiënt en de juiste middelen hebben om te testen of niet soms ? Ik snap ook niet waarom HWI zijn reviews niet twee talig op de site zet->meer bezoeker->meer reclame->meer geld voor reviews etc.
Als je dit nou had gezegd als het een redelijk uitgebreide review was dan was dat nog tot daaraan toe. Maar ze hebben nu enkel gekeken naar hoe een GTX580 schaalt. Maar we weten niet hoe de concurrentie schaalt en dat is jammer en maakt de review in mijn ogen al een heel stuk minder waardevol.
Ja je kunt andere reviews erbij pakken om alsnog af te leiden hoe de genoemde setups zich zouden verhouden. Maar dan zit je met het probleem dat er heel andere benches zijn gedraaid. Wat ook nog eens op andere setups met andere (-niet de- nieuwste) drivers wat cruciaal is in het geval van dual GPU reviews.
[Voor 22% gewijzigd door madmaxnl op 19-11-2010 22:42]
Het lijkt mij sterk dat ze een dual GF110 uitbrengen welke een stuk langzamer gaat zijn dan de HD6990 en ongeveer evensnel of sneller en binnen de 300 Watt is gewoon _niet_ mogelijk.
[...]
De kans is imo echt niet groot, prestaties zullen misschien net iets sneller zijn dan een GTX470, maar het verbruik zal ook op zo'n 175 Watt liggen. En twee GF114's zijn natuurlijk lang niet snel genoeg om een HD6990 te verslaan. Zelf een HD5970 verslaan zal niet gemakkelijk gaan.
Bij nader inzien is een dual-gpu gtx590 op basis van gf114 inderdaad geen enkele partij voor een hd6990, een gtx460 presteert nog niet eens op hd5870 niveau
Een enigzins teruggeclockte gf110, zeg eens de 480 shader variant, zou wel partij kunnen bieden. Aan het plaatje wat Apoca gepost heeft lijkt dat het meest aannemelijk. Of ze hem echt gaan uitbrengen is maar de vraag, een TDP van 350watt lijkt me wel te halen maar onder furmark vliegt hij daar natuurlijk dik overheen.
Dit kan wel eens het begin van een nieuw 'era' worden, 300W> voor grafische kaarten, of natuurlijk the last clash of the monstrosity gpu (ik stem voor de laatste)
De GF104 is nog niet in zijn volledige geünlockte staat gezien. Dus dat een GTX460 niet sneller is als een HD5850 is niet gek. Er werd gedacht dat deze volledige GF104 als GTX475 zou komen omdat deze sneller zou zijn als een GTX470 en ook nog eens zuiniger. Dus een GF114(GF104) die volledig geünlockt is en op hogere of gelijken clock frequentie werkt als een GTX460 1GB wel eens een geduchten concurrent vormen. Alhoewel de kans dat dit zal gebeuren zeer klein is.
[Voor 8% gewijzigd door madmaxnl op 20-11-2010 01:00]
Nou ik kaarten eigenlijk gewoon setups aan waarvan ze er toch wel twee makkelijk hadden kunnen testen:
HD5970 2GB CF en HD5870 1GB in CF t/m QCF. Dergelijke tests hoeven ook niet lang te duren als je bijvoorbeeld meerderen setups hebt en of meerderen pre-installed OS SSD's hebt liggen. In dit geval zou je dus gewoon de huidige setup nodig hebben met twee SSDs waarop één met de drivers voor nVidia + OS etc en één met daarop de drivers voor ATI + OS etc. HWI test regelmatig(understatement!!) dingen dus dan mag ik toch wel aannemen dat ze ook wel goed, efficiënt en de juiste middelen hebben om te testen of niet soms ? Ik snap ook niet waarom HWI zijn reviews niet twee talig op de site zet->meer bezoeker->meer reclame->meer geld voor reviews etc.
Op kantoor bij HWI staat inderdaad een batterij aan testsystemen voor grote vergelijkingstests, echter heb je voor een 4-way SLI test een veel duurdere Core i7 980X processor, een speciaal 4-way SLI moederbord nodig en een 1000W+ voeding nodig. Die liggen daar echt niet op een stapeltje
Wel leuk dat je het hebt over HWI en tweetalige opzet. We hebben dat een tijdje gedaan, maar volgens mij leverde het niet veel meer views op. Daarnaast zal internationaal publiek vooral naar de grafiekjes kijken en die behoeven geen uitleg.
Van die view counter bij HWI klopt sowieso niks. Elke keer als ik op F5 druk is er weer een view bij, rara hoe kan dat. Is natuurlijk ook een manier om de view counter omhoog te krijgen. Hier op Tweakers wordt je IP geregistreerd en kun je op F5 blijven drukken tot je een ons weegt.
Maar het is dan ook niet de bedoeling elke review ook in het Engels uit te brengen. Alleen speciale reviews zoals de GTX480 en GTX580 SLI reviews.
Maar we gaan te ver offtopic dus ik laat het hierbij
[Voor 6% gewijzigd door madmaxnl op 20-11-2010 16:56]
[b]madmaxnl schreef op vrijdag 19 november 2010 @ 19:39Beetje een nutteloze review want hij is niet tegenover de HD5970 2GB CF, HD5970 4GB, HD5870 1GB CF, HD5870 2GB CF, HD5870 1GB Triple-CF, HD5870 2GB Triple-CF, HD5870 1GB Quad-CF en of een HD5870 2GB Quad-CF.
Maar ze hebben wel een primeur
Waarom zouden ze zoveel moeite steken in het testen van kaarten die binnen afzienbare tijd EOL zijn of zelfs nu al zijn. De HD5870 testen in triple/quad CF is in mijn ogen nu echt niet relevant meer en hebben ze bij intro toen ook wel getest met nu welliswaar sterk verouderde drivers, maar dat ze dat met de HD69xx serie voor de deur niet nog eens gaan doen lijkt me vrij logisch... Straks zal men vast en zeker wel de Cayman gaan testen met meerdere kaarten en dan zal er wel een vergelijk gemaakt worden.
Eventueel hadden ze de HD5970 in CF bij kunnen halen om te kijken hoe die nu schaalt met de laatste drivers, maar zoals al aangegeven is, is de review meer gericht om de schaling in kaart te brengen, en dat hebben ze kuerig gedaan door alle percentages te geven.
Bij nader inzien is een dual-gpu gtx590 op basis van gf114 inderdaad geen enkele partij voor een hd6990, een gtx460 presteert nog niet eens op hd5870 niveau
Een volledig geunlockte dual GF104 + hogere kloksnelheden (GF114) zou zeker een geduchte concurrent voor een HD5970 zijn. Zal alleen niet echt zuinig zijn..
Ik had het dan ook over de hd6990, en een dual-gf114 zou in vergelijking met amd's aanbod best meevallen kwa verbruik (maar niet concurrerend genoeg), de dual gf110 die iets naar boven gepost is, die gaat pas vermogen trekken .
Waarom zouden ze zoveel moeite steken in het testen van kaarten die binnen afzienbare tijd EOL zijn of zelfs nu al zijn. De HD5870 testen in triple/quad CF is in mijn ogen nu echt niet relevant meer en hebben ze bij intro toen ook wel getest met nu welliswaar sterk verouderde drivers, maar dat ze dat met de HD69xx serie voor de deur niet nog eens gaan doen lijkt me vrij logisch... Straks zal men vast en zeker wel de Cayman gaan testen met meerdere kaarten en dan zal er wel een vergelijk gemaakt worden.
Eventueel hadden ze de HD5970 in CF bij kunnen halen om te kijken hoe die nu schaalt met de laatste drivers, maar zoals al aangegeven is, is de review meer gericht om de schaling in kaart te brengen, en dat hebben ze kuerig gedaan door alle percentages te geven.
Ja precies. Maar er zijn genoeg mensen die niet begrijpen dat nieuwere drivers(zeker bij CF) veel prestatie kan schelen. Maar oke, de HD5xxx kaarten zijn min of meer al EOL. Maar het zou ook mooi zijn voor straks bij de Cayman zodat we goed kunnen zien wat een HD5870 CF opstelling doet.
Tevens zullen ze Cayman ook meerderen keren moeten gaan testen over een bepaalde tijd, nieuwe architectuur betekent dat er weel veel ruimten is voor performance verbeteringen d.m.v. van nieuwere drivers. Voor CF geld dat er sowieso altijd meer performance is met nieuwere drivers(generalisatie).
M.a.w. voor CF setups altijd nieuwe drivers. Voor nieuwe kaarten met "nieuwe architectuur" nieuwe drivers.
Voor nieuwe kaarten met oude architectuur zijn nieuwe drivers niet noodzakelijk.
Zowel bij sli als bij cf is er nog genoeg winst te halen, de software is er alleen nog niet klaar voor om die techniek volledig te benutten, maar zoals te zien is zit er steeds meer vooruitgang in.
Mmh, bij de test van Tweakers zelf is er ook geen HD5870CF/HD5970 CF (2gb)/etc. getest...
@Madmaxnl; Is deze review nu ook gelijk nutteloos? En zelfs niet eens een primeur...
Ik zelf til daar niet zo zwaar aan, maar wat ik juist wel jammer vind is dat ze een systeem erbij hebben met een 980X om eventuele bottleneck's eerder toonbaar te maken, maar zoals ik het begrijp is die dus niet overclockt! Dus dan heb je een standaard 980X @3.33Ghz en een 920 @ 3.8Ghz.... Enige voordeel van de 980X is dus meerdere cores maar die dus wel langzamer lopen.
Persoonlijk had ik het beter gevonden als ze gewoon eerst zouden testen met een 920 @ stock en vervolgens op ~4Ghz. En pak dan nog een 980X @~4Ghz erbij om te kijken of twee extra cores wat toevoegen. Maargoed, dit zal weer erg veel tijd kosten, maar de 980X bij voorbaat overclocken was wel beter geweest. Had iig wel meer inzicht gegeven in eventuele bottlenecks.
[Voor 3% gewijzigd door Anoniem: 245699 op 22-11-2010 18:50]
Anoniem: 245699 schreef op zondag 21 november 2010 @ 20:32:
Mmh, bij de test van Tweakers zelf is er ook geen HD5870CF/HD5970 CF (2gb)/etc. getest...
@Madmaxnl; Is deze review nu ook gelijk nutteloos? En zelfs niet eens een primeur...
Ik zelf til daar niet zo zwaar aan, maar wat ik juist wel jammer vind is dat ze een systeem erbij hebben met een 980X om eventuele bottleneck's eerder toonbaar te maken, maar zoals ik het begrijp is die dus niet overclockt! Dus dan heb je een standaard 980X @3.33Ghz en een 920 @ 3.8Ghz.... Enige voordeel van de 980X is dus meerdere cores maar die dus wel langzamer lopen.
Persoonlijk had ik het beter gevonden als ze gewoon eerst zouden testen met een 920 @ stock en vervolgens op ~4Ghz. En pak dan nog een 980X @~4Ghz erbij om te kijken of twee extra cores wat toevoegen. Maargoed, dit zal weer erg veel tijd kosten, maar de 980X bij voorbaat overclocken was wel beter geweest. Had iig wel meer inzicht gegeven in eventuele bottelnecks.
Inderdaad, goede opmerking.
Benches zijn daardoor voor mij persoonlijk ook niet bevredigend. Wel een indicatie maar onvolledig.
Vanaf driverversie 260.x worden OpenGL, VDPAU, CUDA en OpenCL niet meer met de driver meegeleverd, maar zullen apart opgehaald moeten worden.
Persoonlijk vind ik dit niet echt een slimme zet daar de mensen die de nieuwste drivers downloaden meestel met alle technologie up to date willen zijn (en zeker onder linux VDPAU als je je distro als media player gebruikt ..) maar bon men klaagde in het verleden waarschijnlijk een beetje te veel dat de drivers te groot waren en veel gebruikers wilden soms oudere versies van een technologie gebruiken (ivm bugs die opdoken bij de recenste VDPAU bv..) in samenwerking met de recentste drivers.
Opvallend is dus de bundeling met android ipv bv windows7. Nu men kan nu al zien dat zowel intel als AMD concurrenten zijn geworden voor het Tegra platform en nVidia zijn voorsprong grotendeels verloren heeft..
Opvallend is dus de bundeling met android ipv bv windows7. Nu men kan nu al zien dat zowel intel als AMD concurrenten zijn geworden voor het Tegra platform en nVidia zijn voorsprong grotendeels verloren heeft..
Ik denk niet dat dit bepaald opvallend is. Windows 7 kan niet op ARM-based platformen draaien als ik mij niet extreem vergis. Als je Windows Phone 7 had gezegd, had ik je wellicht gelijk kunnen geven, maar ik heb het idee dat Windows Phone 7 meer beperkingen heeft voor het werken op een pad dan Android. Helemaal wanneer Android 2.3 (of hoger) gebruikt zal worden.
Ik denk niet dat dit bepaald opvallend is. Windows 7 kan niet op ARM-based platformen draaien als ik mij niet extreem vergis. Als je Windows Phone 7 had gezegd, had ik je wellicht gelijk kunnen geven, maar ik heb het idee dat Windows Phone 7 meer beperkingen heeft voor het werken op een pad dan Android. Helemaal wanneer Android 2.3 (of hoger) gebruikt zal worden.
Ah so true,hierin kan ik je enkel helemaal gelijk geven.
Ik dacht dat ze windows 7 eindelijk ARM support gingen geven daar ze ondersteuning voor tablets in het OS hadden gestoken maar ik vond het volgende in google cache:
quote: xbitlabs
Datum: 6/03/2009
While ARM, a developer of microprocessors with its own micro-architecture, wants to gain market share on the market of netbooks, Microsoft Corp., whose Windows operating system is installed onto the vast majority of PCs, said that the next-generation Windows 7 OS will not support ARM chips since Microsoft believes that they would not provide adequate performance.
“For people who want a PC, albeit a different chipset, we don't think those will work very well. We sort of learnt in the last year that if it looks like a PC and acts like a PC, people want the features and benefits of a PC,” said Steve Guggenheimer, Microsoft's corporate vice-president for original equipment manufacturers, reports Reuters news-agency.
ARM microprocessors are still supported by Windows Mobile operating system, but ARM expressed hopes a number of times that with its new microprocessors it would be able to compete for netbooks and even servers, the stronghold of Intel and Advanced Micro Devices. But without support from Windows 7 ARM will have to rely on operating systems like Google Android or Linux.
Microsoft also does not believe that manufacturers will be able to sell a lot of Google Android-based netbooks due to the lack of significant ecosystem.
“I’m somewhat sceptical that consumers will begin running to Android right now. You'll still want your printer to work, you'll still want your software to work. There's a lack of a complete ecosystem around Android,” Mr. Guggenheimer claimed.
The lack of ARM support by Windows 7 means that manufacturers will continue to use x86 microprocessors from AMD and Intel to make their low-cost mobile systems.
Ik denk dat MS Android toch wat onderschat heeft 1,5 jaar geleden.
Na wat opzoeken blijkt het wel mogelijk te zijn android te draaien op x86 hardwaren maar is dit niet gesupport door de officiele releases. Dus het kiezen voor het Tegra (en dus ARM) platform zal eerder een keuze zijn van de fabrikant om compatibel te blijven met de officiele android releases and updates dan een bewuste keuze voor Tegra of ARM.
In ieder geval mijn pointe was dat er blijkbaar een hoop Tegra tablets in de planning staan, of ze daadwerkelijk geproduceerd en verkocht gaan worden is weer wat anders natuurlijk..
En blijkbaar als je kiest als consument voor een tegra tablet zal je daarbij dus geen windows7 erbij kunnen kiezen. Of omgekeerd als je een windows7 tablet verkiest zal je hierdoor geen Tegra hardware kunnen kiezen. Dit is misschien spijtig maar zo is het momenteel..
GeForce GTX 570
GF110 met 480 Cudacores
3000M transistors
48 ROPS
Core: 73xMHz *
Shaders: 146xMHz *
Mem: 19XX MHz *
320bit, 1280MB GDDR5
Prijs: in de 300 dollar
Prestaties zo rond die van de GTX480
Launch zou in week 49 moeten zijn
Samengevat, een GTX480 met iets kleinere bus en dus minder geheugen, maar iets hoger geklokt.
* Precieze frequentie houden we nog even in het midden, maar die 4MHz max verschil (core/shader) zal het hem ook niet echt doen denk ik.
[Voor 3% gewijzigd door -The_Mask- op 26-11-2010 11:57]
LOL die 4Mhz zal het hem idd niet doen. Die prijszetting daarentegen wel. De goedkoopste (meerverbruikende) GTX480 is nog altijd 370 euro. En laten we zeggen dat die GTX570 wss in europa 300 euro zal zijn. 70 euro minder voor ongeveer zelfde prestaties en minder verbruik.
Ongeveer zelfde prestaties omdat de nieuwe GPU een klein beetje efficienter was voor zover ik het weet. Hopelijk weegt dit dus op tegen de kleinere memory bus.
Ik had zo'n actie allang verwacht, wie niet eigenlijk. Was toch wel duidelijk op het moment dat er een hoop gedoe was rond de HAWX 2 Benchmark. Achja het is nVidia met hun über stabiele drivers. Weten we ook weer hoe dat komt... Hoe minder toeters en bellen hoe minder er kapot kan gaan he
Ik speel dat spel helemaal niet, maakt me ook geen donder uit eigenlijk. Zolang mijn nvidia kaart niet crasht vind ik het prima, laat de rest maar huilen
Ik moet zeggen dat ik het verschil in kwaliteit wel erg klein vind en als er niet zo ver ingezoomd zou zijn zou ik het verschil dan ook niet zien. De uitleg vind ik verder ook vrij logisch, of het waar is zullen we denk ik nooit echt weten.
Tyranium schreef op zondag 28 november 2010 @ 17:37:
Ik moet zeggen dat ik het verschil in kwaliteit wel erg klein vind en als er niet zo ver ingezoomd zou zijn zou ik het verschil dan ook niet zien. De uitleg vind ik verder ook vrij logisch, of het waar is zullen we denk ik nooit echt weten.
Het is natuurlijk wel zo dat nVidia claimt altijd het beste beeld te leveren, iets waar ze onlangs juist AMD om beschuldigden een mindere beeldkwaliteit te leveren met standaardinstellingen. Het is dan echter zo dat bij AMD je de keuze hebt om optimalisaties uit te schakelen, voor het beste beeld, waar bij nVidia het voor de normale mens onmogelijk is de optimalisaties uit te schakelen, aangezien het hernoemen van bestanden niet iets is wat bij de meeste mensen op komt, als het om verbeteringen gaat.
Het is ook niets nieuws, en het boeit me ook echt niet. ATI en Matrox hadden zo'n concurrentie al begin jaren 90 (voordat NVIDIA überhaupt bestond), er was ook een hoop gedoe 3DFX met hun Glide wrapper en uiteindelijk zie je er maar vrijwel niets van. Dit soort dingen zijn gewoon pogingen van de echte fanboys van een van de kampen om de ander slecht te laten lijken, ik let er niet eens meer op
Wat wel vervelend is, zijn dingen zoals bij Batman: AA. Dat is gewoon rechtuit benadelen van een partij zonder dat daar een goede technische reden voor is
Ik vind het ook niet erg om meer FPS te krijgen als ik het verschil in IQ niet eens zie, eigenlijk. Het enige vervelende is nog dat AMD/NVidia elkaar van dit soort dingen beschuldigen en het zelf ook doen, beetje kinderachtig allemaal.
NVIDIA's policy is never to introduce performance optimizations that alter the application's image quality. This is also the policy of FutureMark and various other benchmarks regarding legitimate driver optimizations.
Beschuldigingen tussen NVidia en AMD zijn dus niet echt serieus te nemen (voor wie dat nog niet wist).
[Voor 70% gewijzigd door bwerg op 28-11-2010 21:05]
Heeft geen speciale krachten en is daar erg boos over.
Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.
Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.
Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.
Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.
Als je het persoonlijk op gaat vatten moet je misschien even een tijdje bij de computer vandaan blijven . Zo is het niet bedoeld immers.
Pixilated NetphreaX Dronkenschap is Meesterschap DragonFly
Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen. Ik voel me als nvidia kaart bezitter wel enigzins aangesproken, maarja nvidia is wel vaker de pispaal, als ze 32x AA toepassen is het ook niet goed.
Ik kan bijvoorbeeld erover beginnen dat jouw geen correcte spelling is in de context van jouw zin, maar dat het jou moet zijn, vind jij ook niet leuk. Het gevoel is hetzelfde als bij die flames.
Je voelt je persoonlijk aangevallen als de fabrikant van je grafische kaart kritiek krijgt? Vind je dat zelf ook niet een beetje overdreven? Ik ben dan misschien niet Nvidia's grootste fan, maar m.i. is er hier, en moet er hier, ruimte zijn voor kritiek. Flames zijn ongewenst, maar we hoeven ook niet de kritiekloze fanboy uit te hangen.* Positief als ze het goed doen, negatief als ze het minder goed doen. Lijkt mij prima.
Ja inderdaad, dat betekent dat het sinds een jaar of wat meer kritiek dan lof regent hier, Nvidia zit in de hoek waar de klappen vallen, dus in een Nvidia topic zul je dat terugzien. Daar is wat mij betreft niks mis mee. Dat is in CJ's Radeon topic overigens niet anders, denk aan de kritiek over de naamgeving van de 6800 serie of de rebrands van de low-end series.
* Daar wil ik trouwens niet mee suggereren dat jij dat doet, ik bedoel het hier in algemene zin.
[Voor 4% gewijzigd door Anoniem: 59888 op 28-11-2010 21:41]
Nee zeker niet, maar altijd weer die stoten onder de riem, bij ieder ditje of datje krijg je weer hele groepen mensen die gal beginnen te spuwen.
Nou als je de quote van een NVidia-woordvoerder van een tijdje terug leest die ik net postte, is dat harstikke logisch natuurlijk. Als PR-afdelingen stoten onder de riem geven, dan kan je niet verwachten dat daar geen kritiek op komt van 'het publiek' natuurlijk. In dit topic gaat het er dikwijls gefundeerder aan toe dan bij PR-afdelingen.
Als ze dat nou lieten, en gewoon leuk die 10% performancewinst implementeerden voor die 0,1% IQ-verlies en de andere GPU-fabrikanten dat ook laten doen dan had niemand iets te klagen.
[Voor 19% gewijzigd door bwerg op 28-11-2010 21:47]
Heeft geen speciale krachten en is daar erg boos over.
bwerg schreef op zondag 28 november 2010 @ 21:41:
[...]
Als ze dat nou lieten, en gewoon leuk die 10% performancewinst implementeerden voor die 0,1% IQ-verlies en de andere GPU-fabrikanten dat ook laten doen dan had niemand iets te klagen.
10% performance winst is meetbaar. Die 0,1% IQ-verlies niet. Want de IQ zou van geen beeld tot het mooiste beeld op een schaal van 0 tot 100 moeten liggen net als performance. Het rotte aan de IQ is dat iedereen er een anderen waarden aanhecht(aan performance trouwens ook ).
Zo zou je een game kunnen hebben met 50 FPS waarbij de IQ score 70 is.
Zet je de game op 8bits modus dan wordt de FPS 1337 en de IQ score 10.
Verhoudingsgewijs zit je op 8bits modus dus beter
Maar je hebt niks aan de 1337 FPS want je kunt niet meer dan 42 FPS waarnemen.
Dus tja daar zit je al met het probleem want hoeveel IQ kun je waarnemen. Dit is dus iets dat je voor je zelf zult moeten afwegen. Ik zelf zet bijvoorbeeld in elke game schaduwen uit want dat valt me toch nooit op alleen aan mijn performance merk ik het.
[Voor 17% gewijzigd door madmaxnl op 28-11-2010 22:55]
Het menselijke oog kent geen maximale framerate. Hangt af van het beeld dat je te zien krijgt - veel mensen zeggen dat je niet meer dan 24, 30 of hoeveel FPS dan ook kunt zien, maar dat klopt echt niet. En zelfs dan nog verschilt het per game wat vloeiend oogt en wat niet. Crysis speelt met zo'n 40 FPS al lekker vloeiend, maar CS speelde echt niet lekker met minder dan 100.
Ik ben het wel met je eens dat veel van zulke kleine stukjes IQ verlies niet zichtbaar zijn terwijl je aan het spelen bent - pas als je screenshots gaat vergelijken zie je het.
Je voelt je persoonlijk aangevallen als de fabrikant van je grafische kaart kritiek krijgt? Vind je dat zelf ook niet een beetje overdreven?
Zo erg neem ik het helemaal niet op, maar als er meteen gesuggereerd wordt dat door het eerdergenoemde akkefietje bij nvidia de drivers dan wel goed moeten zijn omdat er weinig spectaculairs op het beeld getoverd wordt, dat vind ik overdreven.
Zo erg neem ik het helemaal niet op, maar als er meteen gesuggereerd wordt dat door het eerdergenoemde akkefietje bij nvidia de drivers dan wel goed moeten zijn omdat er weinig spectaculairs op het beeld getoverd wordt, dat vind ik overdreven.
Het was cynisch bedoelt...
Met de generalisatie dat ATI drivers zuigen i.t.t. die van nVidia...
[Voor 12% gewijzigd door madmaxnl op 28-11-2010 23:53]
Met de generalisatie dat ATI drivers zuigen i.t.t. die van nVidia...
Ja dat snap ik, mijn reactie daarop was ook niet slecht bedoeld, dat er dan zo'n hele discussie volgt is dan ook veelal mijn schuld.
Vind het grappig dat men zo zwaar tilt aan zo'n klein probleem, het stelt niet zo veel voor imo, geval mug -> olifant. Slaat trouwens op dat bericht niet de discussie hier
As for the US, the best price we've managed to find is for EVGA's most basic model which is listed at $367.43, which seems fairly reasonable all things considered. It's about $50-100 more than your average GTX 470 card these days, as it seems like the GTX 470 is currently in a price free fall with some cards retailing for $250 or less, not taking mail-in rebates into account. As for the GTX 480's, well, they're still retailing for well over $400, although we're fairly sure they won't be for long, as the GTX 570 should perform close enough to make the GTX 480 a poor purchase.
Ik vond hier wel een topic over voor de GTX 470 / 480 maar nog niet voor de 580.
Is er iets bekend over de beschikbaarheid van deze kaarten? Ik was van plan om 2 kaarten te kopen, ik dacht eerst aan 2 MSI kaarten omdat die "maar" voor 450 euro ps gingen. Toen ik echt wou gaan bestellen bleek dat zo ongeveer elke winkel niks op voorraad heeft.
De afgelopen dagen was er helemaal niks bekend over levertijd, nu kom ik bij sommige winkels al levertijden van ~10 dagen tegen. De enige winkel die ik tot nu toe ben tegen gekomen die claimed 580 kaarten op voorraad te hebben (ik heb niet gekeken bij de winkels die 50-100+ euro meer vragen) is MaxICT. Maar na een kijkje in de shopreview denk ik toch dat het verstandig is om hier niet mijn bestelling te plaatsen.
Ik heb bij Salland gevraagd of zij binnenkort nieuwe kaarten verwachten, maar volgens de reactie was er geen termijn bekend. Toch lijkt het alsof de beschikbaarheid wat toeneemt. Ik vraag me daarom af of ik zou moeten wachten, tot bijvoorbeeld een winkel kaarten op voorraad heeft voor 450 euro ps. of dat ik zodra ik iets zie het beste de kaarten zo snel mogelijk koop. Ik weet niet of deze schaarste nog een maand of langer aan blijft houden of dat er vanaf eind volgende week echt kaarten op voorraad liggen bij winkels.
Winkels die claimen 580 kaarten "snel" op voorraad te hebben zijn onder andere:
- 4-launch shop 6-10 werkdagen
- Dutch Computer Centre vanaf 10 december
- Azerty 10+ dagen
Ik heb al een tijd geleden besloten om voor een Nvidia te gaan en niet voor een AMD. Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro) die ik nodig ga hebben, samen met een aantal andere redenen, hebben bij mij de doorslag gegeven om voor Nvidia te gaan.
Maxily schreef op zaterdag 04 december 2010 @ 12:31:
Ik heb al een tijd geleden besloten om voor een Nvidia te gaan en niet voor een AMD. Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro) die ik nodig ga hebben, samen met een aantal andere redenen, hebben bij mij de doorslag gegeven om voor Nvidia te gaan.
Waarom ga je die kabels nodig hebben dan?
Er zitten volgens mij gewoon DVI aansluitingen op Cayman kaarten.
Vooral de extra kosten voor de actieve miniDP -> DVI kabels (wat bij mij neerkomt op minimaal 100 euro)
Waarvoor heb je een miniDP naar DVI verloopje nodig dan? Huidige kaarten hebben gewoon een normale DP aansluiting en een actief verloopje van DP naar DVI kost maar zo'n 20 euro.
Waarvoor heb je een miniDP naar DVI verloopje nodig dan? Huidige kaarten hebben gewoon een normale DP aansluiting en een actief verloopje van DP naar DVI kost maar zo'n 20 euro.
Ik heb 5 schermen, allemaal DVI. Van wat ik gelezen heb hebben de AMD kaarten miniDP poorten (dus per monitor ook miniDP -> DP) en is de goedkoopste actieve DP->DVI dacht ik toch wel iets duurder dan 20 euro.
Ik begrijp ook even niet hoe dat NVIDIA een voordeel geeft, want in beide gevallen zitten er toch twee DVI aansluitingen op? En aangezien NVIDIA toch niet meer dan twee monitors per kaart aan kan sturen win je dan niks ten opzichte van AMD. Als het dan om een multi-GPU opstelling gaat voor Surround/Eyefinity wordt dat argument nog minder waard. Gevalletje aandacht?
Anyway, ik ben heel erg benieuwd naar de 570 t.o.v. 480, want ik verwacht eerlijk gezegd dat ze uitgewisseld worden in de lineup.
Edit @ Maxily vlak voor me: de AMD kaarten hebben *onder andere* DP ja, maar ook gewoon 2 DVI aansluitingen per kaart, zelfde als NVIDIA dus.
[Voor 12% gewijzigd door Werelds op 04-12-2010 13:13]
Mijn idee was:
2 580's in SLI met 3 schermen erop
1 passief gekoelde 8400gs (heb ik al) voor de overige 2 schermen.
Bij AMD kun je 6 schermen aansluiten op 1 kaart, maar dan moet je 2 schermen op 1 DP poort kunnen zetten, wat geloof ik neerkomt op 2-300 euro. (en je kan in Crossfire dacht ik niet alle aansluitingen op beide kaarten gebruiken)
Ik had me ook al redelijk verdiept in actieve adapters voor DP -> DVI. Regel 1 die ik altijd tegenkom is dat een actieve adapter stroom nodig heeft, wat wordt meestal via een USB poort geleverd. De enige adapters die ik kan vinden voor 20ish euro missen die USB kabel. Er is wel deze Sapphire adapter maar daar staat dan een plaatje bij van een passieve adapter. Andere actieve adapters kosten meteen 100+ euro.
Mijn redenering:
- Ik kan 2 AMD's kopen + adapters en hopen dat het goed gaat
- Ik kan 2 Nvidia's kopen en zeker weten dat het goed gaat
Bij dit soort bedragen ga ik voor de 100% zekerheid.
Bij dit soort bedragen ga ik voor de 100% zekerheid.
Je kunt per AMD-kaart sowieso 2 schermen aansturen zonder DP te gebruiken (dus DVI, HDMI of VGA). Je kunt in Windows XP en Windows 7 rustig AMD en nVidia kaarten combineren, dus kun je er rustig een 8600 naast plaatsen. Crossfire hoeft niet aan te staan om 2 AMD kaarten te kunnen gebruiken, ze zullen alleen verschillende dingen doen.
Zou je een HD6k kaart kopen, dan zou je zelfs af kunnen met 1 kaart en het juiste kastje aan een DP 1.2 gekoppeld, waardoor je meer DVI-poorten beschikbaar krijgt. Dat kastje zal misschien niet goedkoop zijn, maar wanneer je naar GTX570/580's kijkt, of HD69xx's kijkt, dan zal het nog altijd voordeliger zijn.
Bij nVidia heb je de optie om 2 monitoren per kaart aan te sluiten wanneer je geen SLI gebruikt, of 3 in totaal bij SLI. Bij AMD kun je technisch al je 5 monitoren op 1 kaart aansluiten, met als bijkomend voordeel dat je er ook 1 grote desktop van kunt maken.
HD6k (DP 1.2) + DP MST-hub = max 6 SL DVI aansluitingen
Maar goed, deze hele discussie heeft eigenlijk weinig te maken met nVidia-nieuws.
Ja een discussie tussen wat de beste optie is / welke mogelijkheden er zijn kan beter in een ander topic. Ik kwam hier in de eerste plaats omdat ik me afvroeg of er al wat bekend is over de beschikbaarheid van de GTX 580 kaarten.
Vragen kan ik het niet echt noemen want wat wij ook zeggen hij weet het blijkbaar toch al.
Dus laat Maxily maar met rust. Hij gaat zijn GTX580'jes halen en leeft nog lang en gelukkig...
@dahakon
Rationeel gezien heb jij wellicht gelijk maar ach laat Maxily het op zijn gevoel doen en hiermee de discussie sluiten
Je mag de eerste prijsvermelding van een nieuwe kaart wel melden, het is alleen niet de bedoeling om de prijzen van oude kaarten te noemen aangezien die gewoon in de pricewatch van T.net staan.
Dat is behoorlijk goed moet ik zeggen, een tikkeltje sneller dan de GTX480, maar wel de stilste koeler van allemaal. Jammer alleen dat het verbruik en de temperatuur niet gemeten zijn.
Op basis van de specificaties viel het natuurlijk wel al een beetje te verwachten: de GeForce GTX 570 is gemiddeld een fractie sneller dan de GeForce GTX 480. De prijs is bijzonder scherp: GTX 570 krijgt een adviesprijs van € 349 en we hebben ze al gespot voor € 325. Dat is aanzienlijk minder dan de GeForce GTX 480, die stiekem al lang en breed end-of-life is. Het zorgt er ook voor dat de prijs/prestatieverhouding van de GTX 570 een stuk beter is dan die van de GTX 580.
Verder een stroomverbruik dat heel iets lager is dan de GTX 580 en de geluidsproductie die iets hoger ligt dan van de GTX 580. Tegenover de Radeon HD 5870 van AMD verbruikt deze nieuwe GTX 570 videokaart toch bijna 100 watt meer tijdens het gamen....
Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.
Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.
Functioneel en analytisch
Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie.
Meer details
janee
Relevantere advertenties
Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht.
Meer details
Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.
Ingesloten content van derden
Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden.
Meer details