Opbouw, hoeveelheden, aanpak hoe je alles indeelt op een chip. Dat is namelijk niet 100% hetzelfde
Nou je hebt lekstromen etc.. Architectuur heeft er juist ook veel mee te maken. daarom is een wafer juist NIET het zelfde. Anders zou een GPU wel net zo kunnen klokken als een CPU al zou dat wel een ander erts proces zijn vermoed ik.Anoniem: 357365 schreef op zaterdag 12 juni 2010 @ 17:47:
Hoe kan het dat een HD5870 beter klokt dan een GTX480, terwijl ze op dezelfde wafers worden gebouwd van TSMC? Dat klopt toch niet? Een transistor is gewoon een transistor, daar heeft architectuur niet zoveel mee te maken.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Klopt, maar het is toch belachelijk dat ik met mijn HD5970 à 500,- 25% sneller ben dan een GTX 480 à 560,-! Zelfs met Tesselation ben ik snellerAnoniem: 346499 schreef op zaterdag 12 juni 2010 @ 09:55:
Sommigen prefereren liever prijs/performance of 'bang for the buck' maar niet iedereen is zo héDit klinkt onlogisch in die zin alsof ik geld zou uitgeven aan iets wat minderwaardig maar zo bedoel ik het uiteraard niet. Heb zelf nog geen 4xx gekocht en enkele maten zitten zelfs nog met de oudere 8-reeks dus wij wachten nog wat af vooraleer een grote upgrade door te voeren. Hopelijk komt de 485 alsnog snel op de markt want de 480 hoewel zeer snel kan me niet volledig overtuigen vanwege de vele uiteenlopende reviews en bovendien zouden het DX11 Tesselation monsters zijn maar er zijn natuurlijk ook nog niet veel DX11 games uit die er dermate gebruik van maken dus wij wachten sowieso nog wat af hoe dit gaat evolueren
En dan willen ze ook nog een GTX485 erbij gooien... Als ze hem ook direct goedkoper maken heb ik wellicht zin in SLI, maar eerder niet

[ Voor 6% gewijzigd door TheMOD op 12-06-2010 21:23 ]
500 en 560? dan heb je een goede koop gedaan want de prijzen liggen toch net wat anders nu..
pricewatch: Sapphire HD5970 2GB GDDR5 PCI-E
pricewatch: Palit GeForce GTX 480 1536MB GDDR5
pricewatch: Sapphire HD5970 2GB GDDR5 PCI-E
pricewatch: Palit GeForce GTX 480 1536MB GDDR5
[ Voor 17% gewijzigd door pino85 op 12-06-2010 22:25 ]
Liefhebber van Tweakers
Anoniem: 357365
Dan is het nog steeds retarded om voor de GTX480. Alleen al kijkend naar performance, dan betaal je voor de GTX 480 150 euro meer dan een HD5870. Dit geeft je ~10% meer performance. Voor de HD5970 betaal je 100 euro meer dan een GTX480 en dit geeft je ~25% meer performance..
Anoniem: 303530
Anoniem: 357365 schreef op zaterdag 12 juni 2010 @ 22:07:
Voor de HD5970 betaal je 100 euro meer dan een HD5970 en dit geeft je ~25% meer performance..

HD5970 Toxic is andere koek want die is ruim 40% sneller dan de GTX480.
De HD5970 Toxic kost maar 25% meer
en dan heb je echt het snelste 
Niet goed gekeken achja, lekker belangrijk ook als er mensen zijn die liever voor een GTX480 gaan dan HD5870 of HD5970. Ze doen zich er in mijn ogen alleen zelf te kort mee
De HD5970 Toxic kost maar 25% meer
Niet goed gekeken achja, lekker belangrijk ook als er mensen zijn die liever voor een GTX480 gaan dan HD5870 of HD5970. Ze doen zich er in mijn ogen alleen zelf te kort mee

[ Voor 20% gewijzigd door madmaxnl op 13-06-2010 02:15 ]
Beter kijken
pricewatch faalt een beetje in de link die je geeft...
De goedkoopste Toxic kost 979€ dat is eerder 70%+ duurder
De goedkoopste Toxic kost 979€ dat is eerder 70%+ duurder

[ Voor 35% gewijzigd door -AzErTy- op 12-06-2010 23:39 ]
God does not play dice
Anoniem: 245699
Tja, de GTX480 blijft vergeleken met de 5870 of 5970 niet de slimste keuze, maar ik vind dat men het qua prijs/prestatie verhouding vaak wel wat uit verband trekt...Anoniem: 357365 schreef op zaterdag 12 juni 2010 @ 22:07:
Dan is het nog steeds retarded om voor de GTX480. Alleen al kijkend naar performance, dan betaal je voor de GTX 480 150 euro meer dan een HD5870. Dit geeft je ~10% meer performance. Voor de HD5970 betaal je 100 euro meer dan een GTX480 en dit geeft je ~25% meer performance..
De GTX480 is te krijgen vanaf zo'n €460,- en de 5970 komt nog steeds op zo'n €550,-. Dat is zo'n 20% duurder waarbij de prestaties ongeveer gemiddeld 25% beter zijn. Zo'n heel groot verschil is p/p verhouding is dat niet...
Met de 5870 is het verschil wel groter; de GTX480 is bijna 30% duurder en maar 10-15% sneller...
Anoniem: 357365
Mja, het punt is ook dat als je de highendkaarten bekijkt dat je dan ook steeds meer gaat betalen voor de extra performance die je krijgt. Dit werkt niet alleen bij videokaarten zo, maar ook bij processoren en alle andere hardware. Dus dat je voor 10% meer performance 20% meer moet betalen, daar is niets geks aan. Maar wat absurd is, is dat je een HD5970 meer dan evenredige performance krijgt voor de meerprijs t.o.v. GTX480..
Een HD 5970 is meer dan 'ongeveer 25 procent' sneller dan een GTX 480, eerder 35-40 procent.Anoniem: 245699 schreef op zondag 13 juni 2010 @ 13:30:
[...]
Tja, de GTX480 blijft vergeleken met de 5870 of 5970 niet de slimste keuze, maar ik vind dat men het qua prijs/prestatie verhouding vaak wel wat uit verband trekt...
De GTX480 is te krijgen vanaf zo'n €460,- en de 5970 komt nog steeds op zo'n €550,-. Dat is zo'n 20% duurder waarbij de prestaties ongeveer gemiddeld 25% beter zijn. Zo'n heel groot verschil is p/p verhouding is dat niet...
Met de 5870 is het verschil wel groter; de GTX480 is bijna 30% duurder en maar 10-15% sneller...
En toch is het exact 25% (in DX11 bij 2560*1600)
en met 2560*1600 en 8*AA en16AF maar 10%
http://www.computerbase.d...formancerating_directx_11
Edit: Uiteindelijk hangt het af van de game in sommige draait de 5970 idd rondjes rond de 480 desondanks heb ik de indruk dat in vele iets nieuwere games bij zeer hoge instellingen het verschil vaak zeer beperkt is hoewel dit aan drivers zou kunnen liggen.
en met 2560*1600 en 8*AA en16AF maar 10%
http://www.computerbase.d...formancerating_directx_11
Edit: Uiteindelijk hangt het af van de game in sommige draait de 5970 idd rondjes rond de 480 desondanks heb ik de indruk dat in vele iets nieuwere games bij zeer hoge instellingen het verschil vaak zeer beperkt is hoewel dit aan drivers zou kunnen liggen.
[ Voor 67% gewijzigd door -AzErTy- op 13-06-2010 14:16 ]
God does not play dice
Ligt maar net aan de instellingen op hoge instellingen (en daar gebruik je zulke kaarten toch voor) is het wel de 35/40% die Marc noemt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ja, als je heel specifiek gaat kijken vind je vast een keer een verschil van 25 procent. Als je wat eerlijker kijkt, naar meerdere spellen, DX-versies en resoluties, is het toch echt meer 35-40 procent.-AzErTy- schreef op zondag 13 juni 2010 @ 13:58:
En toch is het exact 25% (in DX11 bij 2560*1600)![]()
en met 2560*1600 en 8*AA en16AF maar 10%
http://www.computerbase.d...formancerating_directx_11
Edit: Uiteindelijk hangt het af van de game in sommige draait de 5970 idd rondjes rond de 480 desondanks heb ik de indruk dat in vele iets nieuwere games bij zeer hoge instellingen het verschil vaak zeer beperkt is hoewel dit aan drivers zou kunnen liggen.
Overigens hoop ik binnenkort 2x GTX 480 te kunnen draaien op mijn 5760x1080 monitor-opstelling en het te vergelijken met de HD 5970 die ik nu gebruik.
ATi heeft daar geheugen tekort, maar als je kijkt blaast een HD4890 een GTX285 ook weg dus tja.-AzErTy- schreef op zondag 13 juni 2010 @ 13:58:
En toch is het exact 25% (in DX11 bij 2560*1600)![]()
en met 2560*1600 en 8*AA en16AF maar 10%
http://www.computerbase.d...formancerating_directx_11
Edit: Uiteindelijk hangt het af van de game in sommige draait de 5970 idd rondjes rond de 480 desondanks heb ik de indruk dat in vele iets nieuwere games bij zeer hoge instellingen het verschil vaak zeer beperkt is hoewel dit aan drivers zou kunnen liggen.
Anoniem: 263922
Zul je toch iets duidelijker moeten zijn, ik zie in die link de gtx295 toch prominent boven de hd4890 eindigen, heb ook geen tijd om te gaan bladeren wegens tentamens, daar is mijn 5min.-break te kort voor
Anoniem: 245699
Ja, idd op een reso van 2560x1600 heb je gelijk. Het is alleen wel zo dat veruit de meesten op 1920x1080 spelen en op 1920x1200 is de 5970 28% sneller volgens diezelfde site (techpowerup). Natuurlijk kan je zeggen dat je zo'n kaart moet kopen voor 2560x1600, maar in de realiteit doet denk ik nog geen 5% van de mensen dat.Marc Rademaker schreef op zondag 13 juni 2010 @ 13:51:
[...]
Een HD 5970 is meer dan 'ongeveer 25 procent' sneller dan een GTX 480, eerder 35-40 procent.
En zoals Azerty zegt is de 5970 op de site van computerbase eigenlijk constant hooguit 25% sneller, ook op 2560x1600. En juist als je kijkt naar reso's is het eenmalig 38% en das bij 2560.1600 zonder AA/AF, wordt AA/AF ingeschakeld is het hooguit 25%, bij lagere reso's is het natuurlijk vaak lager.
35-40% vind ik zeker geen gemiddelde, eerder de uitzondering...
Weer een beetje hetzelfde zoals altijd, de prestatieverschillen worden weer eens aangedikt....
EDIT: Oja, en nu moet niet iedereen denken dat ik een Nvidia kaart op dit moment zou aanraden, integendeel! Kaarten als de 5850/5870/5970 blijven op bijna alle fronten een slimmere keuze. Vind alleen dat de verschillen te vaak te veel worden aangedikt om ATI nog beter te laten lijken, wat ik niet reëel vind.
[ Voor 42% gewijzigd door Anoniem: 245699 op 13-06-2010 21:36 ]
Ze hebben bij de release lager gelegen en de prijzen van de GTX480 hoger.pino22 schreef op zaterdag 12 juni 2010 @ 21:30:
500 en 560? dan heb je een goede koop gedaan want de prijzen liggen toch net wat anders nu..
pricewatch: Sapphire HD5970 2GB GDDR5 PCI-E
pricewatch: Palit GeForce GTX 480 1536MB GDDR5
Ik had mijn 4870x2 bij de release ook voor 400 euro gekocht, 2 maanden later was hij tegen de 500.
De prijzen schommelen nogal.
@Dome:
heb je jou kaart bij de release gekocht?
Bij 1920x1080 heb je veel meer last van een CPU bottleneck waardoor de verschillen veel kleiner worden. Ga je de instellingen omhoog zetten (meer AA/AF enzo) en als je de kaarten een tijdje wilt gebruiken (dus paar jaar met weer zwaardere spellen) is het verschil wel weer veel groter.Anoniem: 245699 schreef op zondag 13 juni 2010 @ 20:13:
[...]
Ja, idd op een reso van 2560x1600 heb je gelijk. Het is alleen wel zo dat veruit de meesten op 1920x1080 spelen en op 1920x1200 is de 5970 28% sneller volgens diezelfde site (techpowerup). Natuurlijk kan je zeggen dat je zo'n kaart moet kopen voor 2560x1600, maar in de realiteit doet denk ik nog geen 5% van de mensen dat.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Oke, mee eens. AMD's SP's zijn misschien efficienter per SP. De vraag is nog wel of ze per mm2 ook efficienter zijn, ik weet niet hoeveel ruimte beiden nodig hebben. Daarnaast zie ik ook niet hoe alleen de pure "SP" performance de keuze voor een totale GPU architectuur van een console zou beinvloeden, aangezien de SP's maar een klein onderdeel zijn van de totale chip en er genoeg andere bottlenecks zijn die net zo belangrijk zijn, maar ik ben het met je eens dat er goed voor te optimaliseren valt.Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 12:35:
Zeker, maar daar kan je als maker van je game dus flink rekening mee houden.
[...]
Lastig betekend niet onmogelijk. Ik schrijf gpGPU code en andere multicore code, gemakkelijk is dat zeker niet, maar dat betekend nog steeds niet dat het niet te doen is. Zeker omdat ze geen rekening hoeven houden met andere architecturen, osen etc etc. Ik zeg ook nergens dat je niet kan optimaliseren voor NVIDIA architectuur. Ik zeg alleen dat als je optimaliseert voor 1 ATI SPU, dan is hij sneller dan een enkele Nvidia SPU op een dubbele snelheid. (Stel je zou zwaar optimaliseren voor een gemiddelde van utilisatie van 3/4 bewerking per kloktik, dan ben je een stuk sneller).
Tja, GF100 uiteraard, maar dan wel op minstens 28nm, wat er toch heel anders uit kan gaan zien qua prijs/perf/verbruik dan Fermi nuAnoniem: 134818 schreef op vrijdag 11 juni 2010 @ 12:35:
Dat klopt, maar als ze dat nu vragen, wat voor afgeleide word dat dan?
Haha, dat is waar, R600 had gewoon de pech dat NVIDIA met de fantastische G80 kwam, net zoals NVIDIA nu de pech heeft met AMD's fantastische line-up.Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 12:35:
Nou, net zoals de G200 en de GF100, was de R600 ook niet geheel waardeloos. Hij kon alleen zo slecht overweg met AA. Maar dat doet nog steeds niet af aan de vergelijking die ik maak. Het klinkt een beetje als smoesjes hoor.
Volgens mij kunnen wij het wel eens worden.Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 12:35:
Garanties zijn er nooit. Daarbij gelden voor consoles qua kracht toch andere regels gezien de optimalisaties(ongeacht merk).
==============
Wat een onzin. Waarom denk je dat NVIDIA tot twee jaar geleden altijd de grote favoriet was van tweakers? De Geforce 8 serie was fantastisch qua prijs/performance en zelfs de 9800 serie werd door de meeste reviewers aangeraden tegenover de Radeon 3000 serie. Ja, AMD concurreerde flink op prijs, maar het feit dat ze goedkoper zijn en NVIDIA duurder wil niet zeggen dat ze beter waren qua prijs/performance.ArgantosNL schreef op vrijdag 11 juni 2010 @ 13:38:
ik heb het over prijs/preformance NV is altijd duurder geweest in verhouding.
Ik heb ook geen berichten gezien van Fermi kaarten die sterven van de hitte, maar toch schreeuwt iedereen moord en brand over de kaart.ArgantosNL schreef op vrijdag 11 juni 2010 @ 13:38:
Ik heb zelf een HD4870x2 met stock, werd inderdaad warm 90 load en 60 idle maar om het problematisch te noemen vind ik zwaar overdreven. Ik heb geen nieuwsberichten gezien dat hd4870 sterven door hitte.
Op dit moment hebben ze last van problemen in het 40nm procedee van TSMC. Fermi's probleem zit voor het grootste deel in die hoek, de architectuur is namelijk niets mis mee. Dat in tegenstelling tot R600, waar wel de nodige opmerkingen over konden worden gemaakt. Weinig AA, lastiger VLIW-architectuur, belabberde sampler performance, weinig ROPs, pas na vele aanpassingen in RV670 (waar ook nog eens de hele ring-bus uitgesloopt is omdat deze teveel problemen gaf en niet nodig bleek) was er een competitieve architectuur bij AMD.ArgantosNL schreef op vrijdag 11 juni 2010 @ 13:38:
je ziet ook dat fermi probemen heeft met hitte/verbruik/prijs je hebt het over een omslag in 3 jaar. op dit moment zijn ze met fermi de verkeerde weg in geslagen om op hitte/verbruik/prijs te kunnen winnen. nieuwe consoles verwacht ik uiterlijk 2012 tegen die tijd dat het helemaal omgeslagen is is klein gezien de voorsprong van ATI
Waarom zou NVIDIA niet in een console willen komen? Of denk je dat ze geen mooie prijs willen bieden? Ik zou niet weten waarom de waarschijnlijkheid klein is.ArgantosNL schreef op vrijdag 11 juni 2010 @ 13:38:
met de huidige situatie is de waarschijnlijkheid hiervan klein.
Je denkt toch niet serieus dat NVIDIA twee jaar niets heeft gedaan tijdens het "rebranden"? Dacht je dat ze dat voor de lol deden ofzo? De reden van alle rebrands was dat NVIDIA problemen had met een goeie opvolger van G80. G80 was een prima kaart en G92 deed het ook uitstekend, maar sinds die tijd heeft NVIDIA alleen maar problemen gehad met nieuwe chips. G92 was een noodoplossing, G200 was te laat en had problemen, G20X is gecancelled, G21X was veel te laat, Fermi was te laat en heeft problemen. Als NVIDIA had gekund zouden ze echt wel beter hebben geconcurreerd met AMD in plaats van alleen maar kaarten te hernoemen.ArgantosNL schreef op vrijdag 11 juni 2010 @ 13:38:
Ik heb niet gezegt dat NVIDIA niks goed kan doen het is alleen niet erg waarschijnlijk dat ze in 2 jaar ATI in halen. ATI zit niet stil zoals NV heeft gedaan met het rebranden. De nieuwe consoles kun je verwachten 2012 gezien de leeftijd van de huidige consoles. Dus de tijd om te zorgen voor een omslag is heel beperkt.
Het lijkt er op dat NVIDIA de laatste twee jaar alleen maar problemen heeft gehad met nieuwe procedee's. De reden daarvoor weet ik niet. Het zou een langdurig probleem kunnen zijn, maar het kan ook zijn dat ze gewoon pech hebben gehad. Hoe dan ook is het heel goed mogelijk dat ze vanaf de volgende chip (GF104) of het volgende procedee (28nm) het weer prima doen. De tijd voor een omslag is inderdaad kort, maar het kan best zijn dat NVIDIA het binnenkort weer prima doet.
Aan de andere kant heeft AMD nog een wat oudere architectuur die nodig aan wat updates toe is. NVIDIA heeft voor een deel zoveel pech gehad omdat ze steeds nodig vonden om de architectuur flink om te gooien, terwijl AMD lekker heeft voortgeborduurd op RV670 met meer cores. Misschien heeft AMD straks wel problemen met de volgende generatie, je weet nooit.
======================
Ik weet niet of MS en anderen wel zitten te wachten op GF. Bovendien denk ik dat TSMC en andere chipbakkers het helemaal niet leuk vinden als MS naar GF gaat en ik denk dat ze ook wel een leuk prijsje willen bieden. GF en AMD zijn tegenwoordig losse bedrijven en beiden willen winst maken, dus ik zie niet in hoe AMD/GF een betere prijs kunnen bieden welke andere combinatie van ontwerper en chipbakker dan ook.madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
1. Op het moment en ook als we verder kijken dan dit moment ziet dat er niet naar uit, ATI zal tegen die tijd zijn chips bij GF laten bakken en ga der maar van uit dat dit een vriendenprijsje zal zijn. Want GF zal tegen die tijd ook erg veel productie capaciteit hebben en waarschijnlijk deze niet helemaal kunnen benutten omdat ze niet genoeg orders krijgen. Dus ATI/AMD ouder van GF zal bijvoorbeeld tegen MS en of Nintendo zeggen dat ze de chips bij GF moeten gaan produceren en dat zei hierdoor dan een mooie totaal prijs kunnen realiseren. Dit kan nVidia niet want die hebben deze mogelijkheid niet![]()
Ook speelt architectuur en die grote e.d heel erg mee en op dat vlak staat ATI er nu beter voor.
Sorry, maar dit is gewoon onzin. De vorige generatie GPU's lijkt gewoon totaal niet op de huidige generatie, dus instructies zijn ook totaal anders. Ja, de Wii heeft GC backward compatibility, maar dat is omdat de Wii gewoon precies dezelfde hardware gebruikt maar dan op hogere clocksnelheden. Als je het ontwerp van Xenos en RV870 naast elkaar legt zul je maar weinig gelijkenissen zien, en dat is nog voordat AMD straks hun nieuwe architectuur brengt die waarschijnlijk nog weer totaal anders zal zijn.madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
2. Op de Wii kun je zonder ook maar een hele instructie lijst door te lopen Gamecube games erop spelen omdat ze beiden een ATI GPU hebben. Bij de Xbox360 met Xbox games is dit net even ietsje anders en dat heeft er denk ik vooral met de andere GPU fabrikant te maken. Met de PS3 kun je gewoon PS2 games spelen voor zo ver ik weet want zowel in de PS2 als in de PS3 zit een nVidia GPU. De games zijn namelijk specifiek gemaakt om maar op één bepaalde hardware configuratie te werken en als een andere hardware configuratie dan een game moet gaan renderen dan moet hij zijn inefficiëntie hardware configuratie t.o.v de specifiek gemaakten hardware configuratie compenseren door simpel weg veel sneller te zijn. Als je bij een zelfde GPU fabrikant blijft met twee generaties consoles dan blijven een aantal dingen gelijk in de manier van de game rendering. Daardoor is het dus vaak wel makkelijker mogelijk. Dit alles is helaas lastig volledig te bewijzen.
De DX11 chips moeten nog komen, maar ja, de sub $100 DX11 chips van AMD waren er ook pas een half jaar na de HD5870. Dan heeft NVIDIA nog tot oktober de tijd.madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
3. Tja zeker kunnen ze dat maar waar zijn die sub 100$ DX11 GPU's van nVidia dan ? Features zijn namelijk ook erg belangrijk voor consoles want hier heb je niet het probleem van adoptation. Zie tessellation op de Xbox360. De tesselator die in de Xbox360 zit zit nu nog altijd in de Cypress chips van ATI en ook in de R600 een van de reden waarom deze flopte maar daar kom ik nog op terug.
De tesselator en R600 heeft trouwens weinig te maken met de tesselator voor DX11.
Ik zeg niet dat je ongelijk hebt met die argumenten. Sterker nog, ik denk dat er een goeie kans is dat Nintendo weer met AMD in zee gaat. MS en AMD weet ik nog niet zo zeker, aangezien de Xenos toch de grote veroorzaker van de RROD is, maar ook dat is zeker mogelijk. Ik denk ook niet dat NVIDIA de winnaar gaat worden in de consolerace, ik zie alleen niet in waarom ze op dit moment al afgeschreven zouden moeten worden. Het is haast alsof iedereen hier het maar graag zo hard mogelijk schreeuwt omdat ze hopen dat het dan waar is. Het duurt nog een paar jaar voor de volgende generatie consoles er is, er kan nog van alles gebeuren.madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
4. Hier heb ik toch al mijn argumenten voor aangedragen, i.p.v mijn argumenten af te doen met als niet waar o.i.d probeer ze onderuit te halen met eigen argumenten.
Alsof DX10.1 er voor zou hebben gezorgd dat R600 goed performde. R600 was een "flop" door slechte texturing performance, door een lastige nieuwe architectuur, door lage clocks en hoog verbruik. DX10.1 ondersteuning had er niets mee te maken. Nogal een zwak excuus om DX10.1 de schuld te geven van de slechte performance van R600.madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
De R600 had ook veel problemen hier zaten namelijk heel erg veel functies in die niet tot hun recht kwamen door dat MS zijn DX 10 specificaties onder de druk van nVidia had gewijzigd. Vandaar ook dat er een DX10.1 kwam en alleen ATI hier in het begin aan kon voldoen omdat zij deze immers al klaar hadden ten tijden van DX10 en nVidia heeft dus min of meer voor DX stagnatie gezorgd want de oorspronkelijke DX10 standaard kon nVidia niet aan voldoen en ATI wel. Later is de oorspronkelijke DX10 standaard DX10.1 geworden. De rede dat nVidia dit ook heeft kunnen flikken is omdat Vista klaar was met zijn DX10 maar er nog geen GPU's waren. Zowel ATI als nVidia hadden niks. nVidia had wel GPU's maar die waren eigenlijk niet gereed voor de oorspronkelijk geplande DX10 en ATI had productie problemen e.d. Vandaar dat MS gewoon zijn DX10 specificaties heeft aangepast zodat er wel kaarten klaar waren voor Vista en wel die van nVidia. Plotseling had de R600 van ATI veel overbodige functies waardoor deze kaart niet goed uit de verf kwam. Hier na kwam de RV670 hiermee heeft ATI veel uit zijn R600 gesloopt en deze ook nog op 55nm gebakken, de RV670 dus. Hierdoor was ATI weer competitief maar werden ze nog overschaduwt door de slechte R600.
Volgens mij is het zo wel een beetje gegaanNet voor de R600 heeft AMD ATI overgenomen
Helaas pinda kaas want dit was net het verkeerde moment
Bovendien, als R600 al DX10.1 aankon, waarom is er dan geen DX10.1 driver voor R600?
=======================
Ja, maar alleen als je alleen E nodig hebt. Als je alle 5 de waardes nodig hebt krijg je in jouw berekening hele andere resultatenAnoniem: 303530 schreef op vrijdag 11 juni 2010 @ 18:43:
aan jou dus te taak om dit te voorkomen:
A = A1+A2
B = C1 + B1
C = E1 + D1
D = A + B
E = C + D
scheelt je, als de pipelining zijn werk goed doet, 2 cycles
En nou allemaal niet weer zo uitgebreid reageren op mij! Ik blijf aan het schrijven zo
Anoniem: 134818
Nee klopt, maar tegenwoordig zijn de texture units en rops toch een stuk ondergeschikte geworden aan pure kracht van de SPU's.Snoitkever schreef op maandag 14 juni 2010 @ 14:31:
[...]
Oke, mee eens. AMD's SP's zijn misschien efficienter per SP. De vraag is nog wel of ze per mm2 ook efficienter zijn, ik weet niet hoeveel ruimte beiden nodig hebben. Daarnaast zie ik ook niet hoe alleen de pure "SP" performance de keuze voor een totale GPU architectuur van een console zou beinvloeden, aangezien de SP's maar een klein onderdeel zijn van de totale chip en er genoeg andere bottlenecks zijn die net zo belangrijk zijn, maar ik ben het met je eens dat er goed voor te optimaliseren valt.
We kunnen het gewoon extrapoleren. Ik weet dat het dan niet klopt gezien de texture unites en rops, maar het gaat om het idee.
Cypress:
334mm2 320 SPU's(SPU per mm2=~0,95)
GF100
576mm2 480/512 SPU's(SPU per mm2=~0,89)
Gelijke grote:
334mm2 betekend voor Nvidia betekend 297 SPU's(Omhoog afgerond)
576mm2 betekend voor ATI 552 SPU's(Omhoog afgerond)
Dus per mm2 kan ATI iets meer kwijt qua SPU's. Neem je dan theoretische kracht per mm2 mee(omdat we het over optimaliseren hebben, komen we dichter in de buurt van de theoretische max) betekend dat voor ATI alleen nog maar meer voordeel.
Cypress 2720=8.14 Flop per mm2 en 8.5 per SPU.
GF100 1344.96= 2.33 Flop per mm2 en (met 480 shaders) 2.8 per SPU.
En voor de leuk: Op gelijke grote
Hyper Cypress(552 SPU's) 4692 Flop
Mini Fermi (296) 831.6 Flop
Dus qua pure SPU kracht en vulling doet ATI het iets beter, maar idd niet alle performance hangt daar van af. ROPs, Texture unites en laten we de tesselator ook niet vergeten, tellen ook nog mee. Dan natuurlijk geheugen bandbreedte en efficientie(ander kan je de SPU's niet vullen) en de als laatste natuurlijk de utilisatie graat van de SPU's (als in, shader code die het nodig heeft) tellen allemaal mee. Al kan je dus met een console game daar veel meer richting de maxen optimaliseren. Ik vraag me, na dit allemaal getypt te hebben of de console bouwers überhaupt wel geïnteresseerd zijn in de meest krachtige grafische processor. Ik denk dat ze liever goedkoop hebben(en in het verlengede daarvan: koel=minder koper/alu om te koelen). Denk dat daar door de performance per mm2, SPU per mm2 en huidige situatie het er beter uit ziet voor ATI.
Oh kom op dit is echt een wassen neus. Er bestaat geen 28nm fermi, dus daar kan een console bouwer NU niet eens voor kiezen(het ging om nu heTja, GF100 uiteraard, maar dan wel op minstens 28nm, wat er toch heel anders uit kan gaan zien qua prijs/perf/verbruik dan Fermi nuBovendien zou ik als consolebouwer misschien eerder voor een moderne architectuur van Fermi gaan dan de oude "opgeschaalde" RV670 architectuur die AMD nog steeds gebruikt
Klopt, ik heb zelf ook een G80 gehad, klokten lekker, goeie stock koeler, werden niet super heet. Alleen het dood gaan vind ik minder. Je moet ook bedenken dat ATI een heel andere aanpak heeft gekozen. Die, nu we zo ver zijn, beter blijkt te werken. Vergelijk het met Intel. Het was altijd, langere pipes, hogere klok. P4 zou 5Ghz moeten halen. Die kwamen er toen achter dat ze wel -erg- heet werden. Nvidia merkt nu ook dat zon gigantische chip niet lekker is om te hebben. Daardoor staan ze nu tegen een concurrent met een veel kleiner product. We weten allebei ook dat productie kosten niet alles zijn, dat je vooral betaald voor je RnD, maar het betekend wel dat je minder uit je wafers kan halen en als de yields al slecht zijn(geld voor ATI ook) dan krijg je het wel moeilijk met je marges.[...]
Haha, dat is waar, R600 had gewoon de pech dat NVIDIA met de fantastische G80 kwam, net zoals NVIDIA nu de pech heeft met AMD's fantastische line-up.
Nah, we zijn het ook wel eens, alleen is de vraag waar we de nuance graag op zienVolgens mij kunnen wij het wel eens worden.
Dit is tenminste beter dan de welles nietes spelletjes waar ik soms in beland.En nou allemaal niet weer zo uitgebreid reageren op mij! Ik blijf aan het schrijven zo

De HD5670 (sub $100 kaart) kwam 'slechts' iets meer dan 3 maanden later op de markt dan de HD5870, dus aardig minder dan dat half jaar. Waar GF104 blijft, is helaas nog behoorlijk onduidelijk, laat staan de GF106/8 die echt onder de $100,- zouden moeten komen. Ik als consument zou daar toch echt graag wat meer concurentie willen zien, ipv een 'oud' DX10.1 kaartje of DX10 kaartje tegenover nieuwe DX11 kaarten.Snoitkever schreef op maandag 14 juni 2010 @ 14:31:
De DX11 chips moeten nog komen, maar ja, de sub $100 DX11 chips van AMD waren er ook pas een half jaar na de HD5870. Dan heeft NVIDIA nog tot oktober de tijd.
De tesselator en R600 heeft trouwens weinig te maken met de tesselator voor DX11.
De tesselator zoals die in R600 zit, komt ook gemodificeerd terug in Evergreen, zij het als 1 van 2 verschillende tesselator-mogelijkheden, dus naast de DX11 compliant versie. Ik denk dat nVidia ook nooit en te nimmer akkoord zou zijn gegaan met tesselation als de R600 compliant zou zijn met DX11.
Een groot probleem met de R600 was het opeens wegslopen van meer dan features uit DX10 hoe het eerder was gestandaardiseerd. WDDM was ook erg belangrijk in deze. Maar goed, DX10.1 zal sowieso niet zijn zoals het orginele DX10 was ontwikkelt.Alsof DX10.1 er voor zou hebben gezorgd dat R600 goed performde. R600 was een "flop" door slechte texturing performance, door een lastige nieuwe architectuur, door lage clocks en hoog verbruik. DX10.1 ondersteuning had er niets mee te maken. Nogal een zwak excuus om DX10.1 de schuld te geven van de slechte performance van R600.
Bovendien, als R600 al DX10.1 aankon, waarom is er dan geen DX10.1 driver voor R600?
1. De RROD's van de Xbox360 zijn niet te wijten aan de Xenos chip van ATI. Het is immers MS die de koeling van de chip bepaald en niet ATI, ATI geeft slecht de TDP aan MS op. Dat M$ vervolgens geen fatsoenlijke koeling inbouwt is niet ATI zijn schuld tevens zie je dat Xbox360 nog wel wat nalatiger was op gebied van kwaliteit zoals de DVD-drive die krassen maakten.Snoitkever schreef op maandag 14 juni 2010 @ 14:31:
[...]
1. Ik zeg niet dat je ongelijk hebt met die argumenten. Sterker nog, ik denk dat er een goeie kans is dat Nintendo weer met AMD in zee gaat. MS en AMD weet ik nog niet zo zeker, aangezien de Xenos toch de grote veroorzaker van de RROD is, maar ook dat is zeker mogelijk. Ik denk ook niet dat NVIDIA de winnaar gaat worden in de consolerace, ik zie alleen niet in waarom ze op dit moment al afgeschreven zouden moeten worden. Het is haast alsof iedereen hier het maar graag zo hard mogelijk schreeuwt omdat ze hopen dat het dan waar is. Het duurt nog een paar jaar voor de volgende generatie consoles er is, er kan nog van alles gebeuren.
2. Alsof DX10.1 er voor zou hebben gezorgd dat R600 goed performde. R600 was een "flop" door slechte texturing performance, door een lastige nieuwe architectuur, door lage clocks en hoog verbruik. DX10.1 ondersteuning had er niets mee te maken. Nogal een zwak excuus om DX10.1 de schuld te geven van de slechte performance van R600.
Bovendien, als R600 al DX10.1 aankon, waarom is er dan geen DX10.1 driver voor R600?
En nou allemaal niet weer zo uitgebreid reageren op mij! Ik blijf aan het schrijven zo
2. Nee maar als het zo ging als ATI initieel had gedacht dan was de HD2900XT veel beter uit de verf gekomen.
Heb je trouwens een bron dat de Gamecube en Wii zelfde hardware hebben en ze alleen verschillen in clocksnelheid ? Want ik lees namelijk dat het min of meer een door ontwikkeling is van de voorgang.
Ik heb trouwens nog een voordeel gevonden dat ATI heeft om een console "wins" te krijgen namelijk de ervaring die ze hebben met MCM aangezien dit principe zowel in de Wii als Xbox360 wordt gebruikt kunnen we er denk ik wel vanuit gaan dat dit voordeel heeft. nVidia heeft dit in de PS3 niet en dit komt waarschijnlijk zoals jij zei omdat ze met een "last minute" oplossing moesten komen.
Anoniem: 357365
Ik wil even reageren op hoe alles goed kan komen met Fermi op 28nm. Ik denk dit niet. Ja, het is waar dat op 28nm een 512SP Fermi mogelijk zal zijn, en wellicht ook met een redelijk verbruik en kloksnelheden. Maar, ze zijn dan niet enig sneller geworden. De architectuur is nog steeds inefficient. Een efficientere architectuur zal op 28nm nog steeds efficienter zijn dan Fermi. Dus tsja, misschien wordt de GTX485 op 28nm een degelijke chip, de concurrentie zal op 28nm een nog veel betere chip kunnen bouwen.
Nope, gewoon lucky deal op V&A. Maar ik zie dat ik mijn prijzen wel een beetje overdreven had, dat zal wel mijn Ati kant zijn geweest.ArgantosNL schreef op maandag 14 juni 2010 @ 10:42:
[...]
Ze hebben bij de release lager gelegen en de prijzen van de GTX480 hoger.
Ik had mijn 4870x2 bij de release ook voor 400 euro gekocht, 2 maanden later was hij tegen de 500.
De prijzen schommelen nogal.
@Dome:
heb je jou kaart bij de release gekocht?
Alsof 28nm überhaupt een optie is... Niet voor H2 2011 ofzo.
Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
Anoniem: 245699
Volgens mij is H1 2011 toch echt de doelstelling bij zowel Nvidia als ATI, maar gezien het recente verloop zal ATI wel iets sneller zijn...
@OneOverPrime; Fermi 2 kan zeker wel wat beter zijn. Los van het uitschakelen van 32sp's kunnen de clocks ook omhoog en zal men het niet nalaten om redelijk wat aanpassingen aan te brengen zodat de chiparchitectuur ansich wel wat efficienter wordt. Het zal dan geen 50% beter worden, maar 20-30% moet dan misschien wel mogelijk zijn. Helaas zal het nog lang duren voordat we daar antwoord op krijgen.
@OneOverPrime; Fermi 2 kan zeker wel wat beter zijn. Los van het uitschakelen van 32sp's kunnen de clocks ook omhoog en zal men het niet nalaten om redelijk wat aanpassingen aan te brengen zodat de chiparchitectuur ansich wel wat efficienter wordt. Het zal dan geen 50% beter worden, maar 20-30% moet dan misschien wel mogelijk zijn. Helaas zal het nog lang duren voordat we daar antwoord op krijgen.
[ Voor 13% gewijzigd door Anoniem: 245699 op 14-06-2010 20:19 ]
Daar zullen zowel nVidia alswel AMD gewoon geheel afhankelijk zijn van de beschikbaarheid van High Performance bulk 28nm van TSMC danwel GF, afhankelijk van de gok die ze wagen. Het lijkt in ieder geval logisch dat nVidia nog wel even bij TSMC zit en die heeft de laatste tijden nog wel wat steekjes laten vallen hier en daar. Als de eerste risk-producten pas ergens H1 2011 worden geaccepteerd, of helemaal aan het einde van dit jaar, wanneer het om HP gaat, dan is de kans best nog wel groot dat echte producten pas ergens H2 2011 beschikbaar komen, aangezien de tijd van Tape Out naar eindproduct bij de etailer al gauw minimaal een half jaar verstrijkt, als alles echt goed gaat.Anoniem: 245699 schreef op maandag 14 juni 2010 @ 20:18:
Volgens mij is H1 2011 toch echt de doelstelling bij zowel Nvidia als ATI, maar gezien het recente verloop zal ATI wel iets sneller zijn...
Anoniem: 357365
Ik zeg gewoon dat nVidia failliet gaat. Ze kunnen niet meer meedoen met discrete GPUs en ze kunnen geen CPUs bouwen dus ze kunnen hier ook niet hun GPUs bij indouwen. En die CPU+GPU combo die nemen de lagere helft van de markt in. Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
Fabrikanten als nVidia kunnen eigenlijk niet failliet gaan kijk maar naar AMD.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 357365
Wat heb je tegen AMD? AMD bouwt toevallig ook CPUs en de GPUs van AMD schoppen aars op het moment. Dat lijkt me toch een heel andere situatie dan waarin nVidia nu zit..
Niks? Waarom vraag je dat?Anoniem: 357365 schreef op maandag 14 juni 2010 @ 23:09:
Wat heb je tegen AMD?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat zijn nog eens ferme uitspraken. Natuurlijk slagen in de lucht zonder verdere argumentatie. Maar ik kan je één ding vertellen: De aandeelhouders zijn het niet met je eens. Die zien nog wel zeker waarde in het eigen vermogen van nVidia. Zouden álle de verstrekkers van het Eigen Vermogen er naast zitten, of jij?Anoniem: 357365 schreef op maandag 14 juni 2010 @ 23:00:
Ik zeg gewoon dat nVidia failliet gaat. (...)Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic
En je weet hoe lang AMD (incl ATi) al balanceerde op het randje van de afgrond met heul veul rode cijfers? Dit is pas het eerste kwartaal in járen dat ze weer winst hebben geboekt (m.n. dankzij de GPU-divisie).
Anoniem: 303530
mede dankzij een bepaalde streek van intel..Jejking schreef op maandag 14 juni 2010 @ 23:30:
En je weet hoe lang AMD (incl ATi) al balanceerde op het randje van de afgrond met heul veul rode cijfers? Dit is pas het eerste kwartaal in járen dat ze weer winst hebben geboekt (m.n. dankzij de GPU-divisie).
maar daar gaat dit topic niet over, ik denk niet dat nvidia voor 2020 failliet gaat. De naamsbekendheid van deze bakker houd het nog wel even vol, vooral als je nieuwsberichten overal "fastest single gpu on the world*" ziet schreeuwen....
*2000W psu required
maar nvidia moet inderdaad wat anders gaan zoeken, ik verwacht dat intergrated grafische oplossingen de komende jaren in een stroomversnelling komen: 70-80% van de markt is daarmee bediend door big blue & ati. Zo gok ik.
Serieus OneOverPrime, AMD schopt aars, nVidia kan geen CPU's maken en het gaat even wat slechter met de GPU's en gaan hierdoor failliet of hoe moeten we jou post opvatten ?
Je trekt wel vaak scheven vergelijkingen die kant noch wal raken. nVidia is een taaie die het minstens zolang als AMD kunnen uithouden. AMD heeft in de tussentijd wel veel verkocht en kapitaal injecties gehad zonder dit waren ze failliet gegaan maar dat is het hem nu juist dit zal nVidia ook krijgen als ze echt in moeilijke tijde komen. Namelijk dat ze bedrijfstakken gaan verkopen en kapitaal injecties krijgen en door dat ze bedrijfstakken verkopen kunnen ze zich weer toespitsen op zogenaamde "core business". Zie AMD die bijvoorbeeld zijn fabrieken onderbracht in een Jointventure en nog wel wat bedrijfstakken verkocht.
Je trekt wel vaak scheven vergelijkingen die kant noch wal raken. nVidia is een taaie die het minstens zolang als AMD kunnen uithouden. AMD heeft in de tussentijd wel veel verkocht en kapitaal injecties gehad zonder dit waren ze failliet gegaan maar dat is het hem nu juist dit zal nVidia ook krijgen als ze echt in moeilijke tijde komen. Namelijk dat ze bedrijfstakken gaan verkopen en kapitaal injecties krijgen en door dat ze bedrijfstakken verkopen kunnen ze zich weer toespitsen op zogenaamde "core business". Zie AMD die bijvoorbeeld zijn fabrieken onderbracht in een Jointventure en nog wel wat bedrijfstakken verkocht.
[ Voor 18% gewijzigd door madmaxnl op 14-06-2010 23:47 ]
Anoniem: 245699
Ze kunnen niet meer meedoen met discrete GPU's? Dat concludeer jij nadat het nu ff 1-2 jaar wat minder goed gaat? En je vergeet gemakshalve ff Quadro/Tesla/Tegra/ION/etc.Anoniem: 357365 schreef op maandag 14 juni 2010 @ 23:00:
Ik zeg gewoon dat nVidia failliet gaat. Ze kunnen niet meer meedoen met discrete GPUs en ze kunnen geen CPUs bouwen dus ze kunnen hier ook niet hun GPUs bij indouwen. En die CPU+GPU combo die nemen de lagere helft van de markt in. Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
En vergeet niet dat ze nog steeds winst maken hè... En zelfs al zouden ze drie jaar achter elkaar geen winst maken is een dergelijk groot bedrijf nog niet in de problemen.
Nvidia zal niet gauw failliet gaan. In goede tijden hebben ze voldoende reserves opgebouwd. Tevens voor een groot deel van het geld verdient met OEM afspraken. De High-end kaarten hebben vooral een markting functie. De high end gpu's worden in kleine aantallen verkocht vergeleken met de low end gpu's die je terug vind in de HP's, Dell's en Acer's. Zolang zij deze afspraken hebben, zal Nvidia blijven bestaan. Ondanks nvidia geen high end videokaarten had, hebben ze in 2010 q1 een winst behaald van ruim 130 miljoen.
Maar op lange termijn kan Nvidia in moeilijkheden denk ik. Doordat de GPU zal worden geintegreerd in de cpu zowel bij AMD als Intel is er minder behoefte voor low end kaarten van Nvidia. En met alleen high end producten red je het niet. Daarom zet Nvidia zo sterk in in het GPGPU gebeuren. Als dit niks wortd met Nvidia, zie ik ze overgenomen worden door Intel.
Maar op lange termijn kan Nvidia in moeilijkheden denk ik. Doordat de GPU zal worden geintegreerd in de cpu zowel bij AMD als Intel is er minder behoefte voor low end kaarten van Nvidia. En met alleen high end producten red je het niet. Daarom zet Nvidia zo sterk in in het GPGPU gebeuren. Als dit niks wortd met Nvidia, zie ik ze overgenomen worden door Intel.
[ Voor 25% gewijzigd door karakedi op 15-06-2010 00:05 ]
Hij heeft natuurlijk op één punt wel een argument: de normaalgesproken zo winstgevende low-end, waar je al je derivaten (de kneusjes uit je productieproces) in kunt dumpen om alsnog omzet te draaien lijkt langzamerhand uit NV's handen getrokken te worden. Nu Intel en AMD zich richten op de integratie van gpu's in de cpu valt daar een marksegment weg. NV lijkt dit te willen compenseren door de gpu in te zetten als een soort co-processor. Een interessante strategie, die nu nog niet echt van de grond komt.
Anoniem: 357365
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
Low-end winstgevend?Edmin schreef op dinsdag 15 juni 2010 @ 00:07:
de normaalgesproken zo winstgevende low-end
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 172410
De winst per item is minimaal, maar door de gigantische volumes wordt het toch alweer heel snel interessant.-The_Mask- schreef op dinsdag 15 juni 2010 @ 00:38:
Low-end winstgevend?Er wordt daar dan wel aardig wat verkocht, maar dat maakt het nog geen winstgevend iets, mainstream en high-end spul is winstgevend.
Anoniem: 245699
Kom op zeg, alleen omdat een moderator wat dat betreft nog één argument noemt (en jij nul...) waarop Nvidia het moeilijk kan krijgen ga je nu claimen dat je gelijk hebt?Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
En vergeten we dan gemakshalve de Quadro/Tesla producten waarop ze een zeer grote marge hebben en zeker ook een groot deel van hun inkomsten vandaan halen.
Je roept gelijk dat ze geen geld meer kunnen verdienen (wat ze dus nog steeds doen) en mensen moeten ontslaan en ook het management? Ja, zo zal het in de realiteit gaan....

Volgens mij vergeet je ook ff dat AMD incl. CPU's jaren lang verlies heeft (gemaakt). En volgens mij bestaan zij ook nog steeds.
Ik vraag me af of je de slechte situatie van AMD in de voorbije jaren kan vergelijken met wat een slechte situatie zou kunnen zijn voor nVidia, mede omdat nVidia intel niet als direct concurrent heeft en dus geen last heeft van marktmanipulatie door Intel. Of heeft nVidia ergens last van, buiten het feit dat ze het de laatste tijd zelf niet zo geweldig doen en hun line-up niet optimaal is? Hebben ze nog steeds last van het feit dat ze geen chipsets mogen produceren?
Volgens mij heeft nog niemand gezegd dat ze het met je eens zijn.. Ik ben het dan ook niet met je eens. nVidia kan gewoon niet failliet. zodra deze failliet gaan heeft ATI een monopolie en oh dat wil ATI echt niet. En dat het nu slecht gaat is geen garantie voor de toekomst. nVidia zal heus nog wel een keer met een kick aars kaart komenAnoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 134818
Er zal nog lang een vraag zijn naar discrete GPU's en ook al het gaat wat minder met nvidia, maar vergeet niet dat ze een paar jaar lang de meester zijn geweest(80,G92 en de G200 deed het ook niet slecht), dus ze hebben wel een reserve opgebouwd. Het is ook niet zo dat ze nu helemaal niets meer verkopen. De meeste mensen kopen een nvidia omdat ze dat kennen. Zo snel vallen ze niet om.
[ Voor 17% gewijzigd door Anoniem: 134818 op 15-06-2010 08:33 ]
Volgens mij wordt jij wel serieus genomen, maar je uitspraken niet altijd. En dat laatste lijkt mij een gevolg van grote ferme woorden zonder enige onderbouwing. Ja, dan zijn dat slagen in de lucht en snijdt het geen hout.Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen.
Kunnen ze geen geld meer verdienen? Waar baseer je dat op? Zie ook reactie hieronder:Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan.
Je enige argument dat nVidia failliet gaat is: elk bedrijf gaat ooit failliet.Anoniem: 245699 schreef op maandag 14 juni 2010 @ 23:55:
[...]
Ze kunnen niet meer meedoen met discrete GPU's? Dat concludeer jij nadat het nu ff 1-2 jaar wat minder goed gaat? En je vergeet gemakshalve ff Quadro/Tesla/Tegra/ION/etc.
En vergeet niet dat ze nog steeds winst maken hè... (...)
Gaat elk bedrijf failliet? Ik ken maar heel weinig grote bedrijven die de deuren sluiten. Vaak worden enkele bedrijfsonderdelen gescheiden en gaat het bedrijf in een kleiner en ander jasje verder. Zie fortis, Saab, 2L International. Met name als er zeer specifieke kennis en ervaring binnen een bedrijf zit, zal het altijd interessant zijn voor externe bedrijven om bedrijfsonderdelen over te nemen. Dus ik vind het onzin en pessimistisch dat je zegt dat élk bedrijf falliet gaat.Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
Ik acht de kans, dat een (tot nu toe) winstgevend nVidia over de kop gaat, niet zo groot. Zeker gezien de nog rendabele bedrijfsonderdelen. En áls nVidia falliet gaat, dan zullen externe bedrijven die kennis en productieprocessen écht niet verloren gaan en zal het bedrijf onder een ander bedrijf worden gezet.
Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Nog een andere link die je via hardinfo.nl kon vinden:
Blijkbaar had CJ? het weer eens bij het rechte einde qua specs voor de GTX 460 (wie zegt nog dat hij niet genoeg lekt
)
De andere specs die in het artikel staan kunnen kloppen maar de naamgeving is anders dan eerst gesuggereerd (kan veranderd zijn op die paar maanden..) Ik zie dat voor de kaart onder de GTX 460 er 240 shaders worden gesuggereerd ipv de 256 in de TS.
Dat zou weeral dezelfde reden kunnen hebben als bij de GX 480/460, namelijk datr nVidia niet kan of wil de GPU lanceren met alle beschikbare shaders geactiveerd.
In mijn ogen wil dat zeggen dat de GF104 er niet voor gezorgd heeft dat nVidia (of TMSC, of beiden) het 40nm proces nog steeds niet goed genoeg beheersen.
Allé het topic leek me de laatste twee pagina's een beetje volwassener dus ga ik op goede hoop nog eens beginnen aan een nieuwe TS (Hoewel ik in de knoei zit met die nieuwe geruchten.. ze zijn recenter maar de geruchten waarop ik het vorige TS had gebaseerd lijken mij persoonlijk betrouwbaarder ..). En zoals steeds als iemand de TS wil overnemen, PM mij gerust daar de TS de laatste paar topics totaal niet denderend was zo blijkt ..
VR Zone[Rumour] Nvidia preparing Geforce GTX 455, GTX 460 and GTX 490
Blijkbaar had CJ? het weer eens bij het rechte einde qua specs voor de GTX 460 (wie zegt nog dat hij niet genoeg lekt
De andere specs die in het artikel staan kunnen kloppen maar de naamgeving is anders dan eerst gesuggereerd (kan veranderd zijn op die paar maanden..) Ik zie dat voor de kaart onder de GTX 460 er 240 shaders worden gesuggereerd ipv de 256 in de TS.
Dat zou weeral dezelfde reden kunnen hebben als bij de GX 480/460, namelijk datr nVidia niet kan of wil de GPU lanceren met alle beschikbare shaders geactiveerd.
In mijn ogen wil dat zeggen dat de GF104 er niet voor gezorgd heeft dat nVidia (of TMSC, of beiden) het 40nm proces nog steeds niet goed genoeg beheersen.
Allé het topic leek me de laatste twee pagina's een beetje volwassener dus ga ik op goede hoop nog eens beginnen aan een nieuwe TS (Hoewel ik in de knoei zit met die nieuwe geruchten.. ze zijn recenter maar de geruchten waarop ik het vorige TS had gebaseerd lijken mij persoonlijk betrouwbaarder ..). En zoals steeds als iemand de TS wil overnemen, PM mij gerust daar de TS de laatste paar topics totaal niet denderend was zo blijkt ..
edit:
On topic again:
Het ziet er naar uit dat nVidia een nieuw (gratis) software pakket ter beschikking stelt voor iedereen (maar vooral voor GeForce eigenaren
) Waarmee je beelden (en dus ook video) kan verwerken. Deze software werkt samen met de laatste 265 beta release zodoende dat er veel bewerkingen op je GPU kunnen uitgevoerd worden ipv je CPU.
Waarschijnlijk is dit een nieuwe PR software zoals badaboom om aan te tonen dat je GPU dingen vlotter kan dan je CPU in sommige gevallen
Anyway ik ga het vanavond misschien nog uitproberen en jullie de resultaten laten weten:
(promo) linkje naar de software
(Beta driver links komen binnenkort in de TS =P) <-- Ook eens een beetje promotie maken zie
On topic again:
Het ziet er naar uit dat nVidia een nieuw (gratis) software pakket ter beschikking stelt voor iedereen (maar vooral voor GeForce eigenaren
Waarschijnlijk is dit een nieuwe PR software zoals badaboom om aan te tonen dat je GPU dingen vlotter kan dan je CPU in sommige gevallen
Anyway ik ga het vanavond misschien nog uitproberen en jullie de resultaten laten weten:
(promo) linkje naar de software
(Beta driver links komen binnenkort in de TS =P) <-- Ook eens een beetje promotie maken zie
[ Voor 21% gewijzigd door lightdestroyer op 15-06-2010 10:48 ]
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
Niet alle 256 cores gaan gebruikt worden. en 256 is wel deelbaar door 32 das namelijk 8. zie ook: http://www.brightsideofne...i-for-back-to-school.aspxArgantosNL schreef op dinsdag 15 juni 2010 @ 10:54:
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Zoals je verder in die artikels kan lezen zijn deze kaarten gebaseerd op de GF104(of 2) GPU.ArgantosNL schreef op dinsdag 15 juni 2010 @ 10:54:
Fermi had toch clusters van 32? dan zouden 240 en 336 wat in dat artiekel staat niet kunnen. (niet deelbaar door 32)
In deze hebben ze (hopelijk veel) overbodige elementen eruit gehaald en de clusters anders gegroepeerd. Dit houdt oa inderdaad in dat er geen clusters meer van 32 zijn . (maar 16 in de plaats)
Maw een GF 102 4 op volle kracht zal hierdoor 16 clusters van 16 shaders ter beschikking hebben.
Momenteel heeft nVidia voor de GTX 460GF104 beslist om 15 van de 16 clusters te gebruiken.
En voor de GTX 460 21 van de 24 beschikbare clusters.
Ik vermoed persoonlijk dat de GTS 455 waarvan sprake is een zwakkere 460 zal wezen waarbij 1 of 2 clusters extra disabled zulen zijn (naargelang hoe goed of hoe slecht de GF102 kan gebakken worden..)
De overstap naar 16 shaders van 32 komende is logisch daar als er een defect is nVidia niet direct de volle 32 shaders hoeft te disablen, maar "slechts" 16. Hoe kleiner hoe beter in dit geval zeker doordat er sprake is dat het cache geheugen eruit zou gehaald zijn? Als dat laatste waar blijkt te zijn dan heeft het minder nut om de shaders in grotere getallen te bundelen.
(met de cache bij de GTX 480/470/465 hebben de 32 shaders van 1 en dezelfde cluster hun eigen cache geheugen gemeenschappelijk dat enkel voor hun beschikbaar is)
edit:
Sorry ik had effen GF104 en GF 102 (GTX 460) door elkaar gewisselt
Sorry ik had effen GF104 en GF 102 (GTX 460) door elkaar gewisselt
Ik moet leren sneller typen..Xenomorphh schreef op dinsdag 15 juni 2010 @ 11:03:
[...]
Niet alle 256 cores gaan gebruikt worden. en 256 is wel deelbaar door 32 das namelijk 8. zie ook: http://www.brightsideofne...i-for-back-to-school.aspx
Anyway 256 is inderdaad mooi deelbaar door 32 maar de resulterende 240 shaders waarvan nu sprake is echter totaal niet. En je kan moeilijk een helft van een cluster uitschakelen en de andere helft blijven gebruiken (indien dit mogelijk was had nVidia dit al lang gedaan denk ik
Hierdoor is er een groot vermoeden dat er overgeschakeld is naar een clustergrootte van 16 shaders.
[ Voor 23% gewijzigd door lightdestroyer op 15-06-2010 11:12 ]
waar staat die overstap naar clusters van 16 eigenlijk, ik heb er niks van gelezen. Of het ik gewoon niet goed gelezen
. Het zijn nog om geruchten dus het kan zijn dat gf104 clusters van 16 heeft maar kan net zo goed 32 zijn. Het wordt wachten of er meer lekt over de low en mainstream aanbod van NV.
24 is ook nog goed mogelijk. Net zoals met GT200 dat had. En dan is een GF104 met dezelfde specs als GT212 goed mogelijk (16 clusters van 24 met maximaal 384 SP, waarvan er 2 uitgeschakeld zijn voor de eerste incarnatie GTX460 (336 SP), en een 256-bit memory interface met 1 uitgeschakelde unit om op 192-bit uit te komen)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 134818
Ik denk dat clusters van 16 ook wel logisch is. Dan kunnen ze kleinere parts maken. Als je bedenkt dat de Geforce 9400 IGP er nu 16 heeft en dan de kleinste 128 zou worden(4 clusters werd 1 graphic cluster, zoals ik het begreep) dan betekend dat nu 48 voor 16x4= een graphic cluster als kleinste.
Ah inderdaad ik had niet meteen aan 24 gedacht als mogelijke kanidaat. 240 is dan ook mooi 10 clusters (Enkel zouden de geruchten dat er maximaal 256 shaders aanwezig zijn op de core fout zijn .. maar das meer dan goed mogelijk natuurlijk, het zijn geruchten dat de ronde doen, niet de waarheid.)
De enige reden dat ik op 16 uitkwam is wss gedeeltelijk beroepsmisvorming (altijd denken in machten van 2
) en dat ze door 16 te kiezen enkel de huidige cluster grootte door 2 moesten delen. Ik dacht dat dit misschien eenvoudiger was dan direct alles te herdesignen, maarja daar heb ik toch totaal geen beeld op.
In de gelinkte artikels staat er niet expliciet 16 genoemd hoor, enkel de hint dat de clustergrootte mogelijkerwijze veranderd is in het artikel van hardware.info:
Waarom je clusters nog groter maken als je al zoveel problemen hebt met defecte gpu's en deze kaarten zich niet gaan verkopen als CUDA fabriekjes (daarvoor heeft nVidia de Tesla lijn uitgevonden tenslotte) ..
Hence de 16 shaders per cluster waar ik toe kwam ...
Wat me nu opvalt is dat men allemaal spreekt over een "krachtiger" GF104 en een 240 shader variant terwijl ik nog (oa in de TS) een GF102 voor ogen had die volledig overeen komt met de krachtiger GF104 terwijl "mijn" GF104 overeen komt met de zwakkere GF 104 variant.
Zou ik hieruit mogen afleiden dat de GF102 niet meer bestaat?
Maar die twee gf104 varianten zijn toch echt andere GPU's zou ik dan denken (totaal ander maximaal aantal shaders bv..)
Ik ga er wel vanuit dat de GF102/104/106 en 108 architecturaal niet veel zullen verschillen. Waar de 102 en de 104 echt goed op elkaar gaan lijken (high en low mid-end kaarten) en de 106 en 108 echt op de low end en de budget kaartjes gaan richten(en vermoedelijk misschien nog meer zaken disabled hebben(een 128 bit memorybus?).
Een mogelijkheid is ook dat iedereen de GF102 ook GF104 noemt omdat ze niet van elkaar verschillen buiten het maximaal aantal clusters ..
Subtiele info vraag om mijn TS in orde te krijgen
De enige reden dat ik op 16 uitkwam is wss gedeeltelijk beroepsmisvorming (altijd denken in machten van 2
In de gelinkte artikels staat er niet expliciet 16 genoemd hoor, enkel de hint dat de clustergrootte mogelijkerwijze veranderd is in het artikel van hardware.info:
echter in vr-zone had men enkel 16 en 48 als mogelijkheden gegeven (vanwege de 240/256)quote: http://hardware.infoEerdere geruchten gingen nog uit van 240 shaderunits, een aantal dat meer logisch lijkt gezien de opbouw van de GF100 GPU met clusters van 32 shaderunits elk. Als het aantal van 336 cores klopt heeft nVidia dus een aanpassing doorgevoerd in de opbouw van de clusters.
48 Zag ikzelf niet als een échte mogelijkheid.While previous rumours suggested GF104 will be 240/256 SP and GF106 will be 128-160 SP, the current rumours suggest GF104 will be a far more powerful chip. The reason for the odd SP count of 336 is that the 460 could be that it is based on GF104, which realters the nature of each SM. The GF104 SM, then, contains either 16 or 48 SP - and perhaps, with some disabled for the 460 part.
Waarom je clusters nog groter maken als je al zoveel problemen hebt met defecte gpu's en deze kaarten zich niet gaan verkopen als CUDA fabriekjes (daarvoor heeft nVidia de Tesla lijn uitgevonden tenslotte) ..
Hence de 16 shaders per cluster waar ik toe kwam ...
Wat me nu opvalt is dat men allemaal spreekt over een "krachtiger" GF104 en een 240 shader variant terwijl ik nog (oa in de TS) een GF102 voor ogen had die volledig overeen komt met de krachtiger GF104 terwijl "mijn" GF104 overeen komt met de zwakkere GF 104 variant.
Zou ik hieruit mogen afleiden dat de GF102 niet meer bestaat?
Maar die twee gf104 varianten zijn toch echt andere GPU's zou ik dan denken (totaal ander maximaal aantal shaders bv..)
Ik ga er wel vanuit dat de GF102/104/106 en 108 architecturaal niet veel zullen verschillen. Waar de 102 en de 104 echt goed op elkaar gaan lijken (high en low mid-end kaarten) en de 106 en 108 echt op de low end en de budget kaartjes gaan richten(en vermoedelijk misschien nog meer zaken disabled hebben(een 128 bit memorybus?).
Een mogelijkheid is ook dat iedereen de GF102 ook GF104 noemt omdat ze niet van elkaar verschillen buiten het maximaal aantal clusters ..
Subtiele info vraag om mijn TS in orde te krijgen
Een GTX485 op komst? - Hardware.info
Dat lijkt me nog eens een mooie toevoeging aan de reeks!Anoniem: 134818
Was te verwachten maar: Introductie in het najaar? Dan is SI er ook al. Ben bang dat het dan weer to little to late is voor nvidia. Ben benieuwd wat het stroom verbruik gaat worden, toch de achilleshiel van de serie.windwarrior schreef op dinsdag 15 juni 2010 @ 14:58:Een GTX485 op komst? - Hardware.info
Dat lijkt me nog eens een mooie toevoeging aan de reeks!
[ Voor 8% gewijzigd door Anoniem: 134818 op 15-06-2010 15:53 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Een modje zegt dat het geen jij zei wellicht plausibel is en onderbouwt dit. Dat deed jij niet dit wil trouwens niet zeggen dat elke onderbouwing ook een goede onderbouwing is. Hoe kom je er eigenlijk bij dat elk bedrijf ooit failliet gaat ? Trouwens aandelen van nVidia zijn op dit moment helemaal geen slechte aankoop de enige reden waarom ik er nu geen van zou kopen is de slechte eurokoers.Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 00:34:
Inderdaad. Dat was dus precies wat ik probeerde te zeggen. Pas als een moderator het me eens is, wordt ik een beetje serieus genomen. Ze kunnen geen geld meer verdienen, daardoor moeten ze in de kosten snijden en dus kleiner worden. Dit kan maar enkel zo lang doorgaan totdat ze zelfs het management moeten ontslaan. Dus is het nu zo gek dat ik voorspel dat nVidia failliet gaat? Elk bedrijf gaat ooit falliet dus je weet gewoon: op een gegeven moment houd het op. Dit zal zeker niet anders zijn voor nVidia. En als een bedrijf falliet gaat, dan gaat de aandoelkeers ook naar beneden. Dus ik raad zeker geen nVidia aandelen aan op het moment..
Denk zo dat er weinig little aan de videokaart zal zijn.Anoniem: 134818 schreef op dinsdag 15 juni 2010 @ 15:52:
Ben bang dat het dan weer to little to late is voor nvidia.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 303530
Hoe zit het eigenlijk met de mobiele varianten van de 4xx lijn? daar heb ik tot nu toe nog niets over gehoord.
en fermi lijkt me nu ook niet echt geschrikt voor entry-level GPU's
gezien de matige performance per watt.
en fermi lijkt me nu ook niet echt geschrikt voor entry-level GPU's

onnodigAnoniem: 357365 schreef op maandag 14 juni 2010 @ 23:00:
Ik zeg gewoon dat nVidia failliet gaat. Ze kunnen niet meer meedoen met discrete GPUs en ze kunnen geen CPUs bouwen dus ze kunnen hier ook niet hun GPUs bij indouwen. En die CPU+GPU combo die nemen de lagere helft van de markt in. Dus nVidia heeft geen toekomst tenzij ze in een keer iets totaal anders gaan doen zoals auto's bouwen.
[ Voor 6% gewijzigd door Edmin op 15-06-2010 22:36 ]
Anoniem: 303530
ik doelde op de mainstream modellen, ik heb liever geen 150w PSU in mijn rugzak zitten...
Eerst maar eens mainstream modellen voor de desktop denk ik.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 357365
Volgens mij hadden ze beter de 9800GTX architectuur kunnen pakken en hier 5 van aan elkaar vast kunnen plakken. Die lijkt altijd nog beter te schalen dan deze Fermi chips.. GPGPU is leuk voor bisnismen, maar wij willen gamen! En daar is ie niet zo goed in. Dan kun je beter GTS250 in SLI zetten. Kost je minder en geeft meer performance en staat ook nog eens vet lauw in je kast.. Soms snap ik nVidia niet, naja ik zal wel weer de enigste zijn zoals gebruikelijk

Anoniem: 263922
GTS250 sli is nauwelijks sneller dan een gtx280/285, laat staan een gtx295 of gtx480, en als je 5 van die g92 die's in een die zou onderbrengen, krijg je ook ruim 4x zo hoog TDP, zelfs op 40nm zou deze de gtx480 ruim te boven gaan in verbruik, en dan heb je nog geeneens tesselation ondersteuning en DX11 er in zitten.
GTS250 SLI is ongeveer 80% sneller dan een enkelen GTS250 en de GTX480 is weer meer dan 200% sneller dan de GTS250. Dus dan zou een GTS250 in Tri-SLI moeten hebben die perfect schalen om aan de performance van de GTX480 te kunnen tippen. Een GTS250 is 231mm2 groot en een GTS480 529mm2 dus de drie GTS250 hebben zelfs een lagere performance zelfs als ze perfect schalen. Toch zijn ze groter qua die size namelijk 693mm2. Let wel de GTS250 zijn op 55nm gebakken maar dat doet niks af van het feit dat de aanname dat je beter een GTS250 in SLI of Tri-SLI of wat dan ook kunt zetten slecht is. De architectuur die de GTS250 gebruikt gaat ook al sinds de G80 mee weliswaar hier en daar aangepast maar dit is echt marginaal.
Waarschijnlijk ben je dus zoals gebruikelijk de enigste
Shiz Frietjemet was me voor
Waarschijnlijk ben je dus zoals gebruikelijk de enigste
Shiz Frietjemet was me voor

[ Voor 4% gewijzigd door madmaxnl op 15-06-2010 22:54 . Reden: iemand was me al voor ]
Je argument is interessant en ik denk dat je op zich een goed punt maakt, maar er is meer belangrijk dan pure perf/mm2. Het belangrijkste is zelfs geheugenbandbreedte denk ik. Alle huidige consoles hebben een 128 bit bus naar het geheugen. Dit gaat waarschijnlijk niet veranderen (in ieder geval niet grotere wordenAnoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nee klopt, maar tegenwoordig zijn de texture units en rops toch een stuk ondergeschikte geworden aan pure kracht van de SPU's.
We kunnen het gewoon extrapoleren. Ik weet dat het dan niet klopt gezien de texture unites en rops, maar het gaat om het idee.
Cypress:
334mm2 320 SPU's(SPU per mm2=~0,95)
GF100
576mm2 480/512 SPU's(SPU per mm2=~0,89)
Gelijke grote:
334mm2 betekend voor Nvidia betekend 297 SPU's(Omhoog afgerond)
576mm2 betekend voor ATI 552 SPU's(Omhoog afgerond)
Dus per mm2 kan ATI iets meer kwijt qua SPU's. Neem je dan theoretische kracht per mm2 mee(omdat we het over optimaliseren hebben, komen we dichter in de buurt van de theoretische max) betekend dat voor ATI alleen nog maar meer voordeel.
Cypress 2720=8.14 Flop per mm2 en 8.5 per SPU.
GF100 1344.96= 2.33 Flop per mm2 en (met 480 shaders) 2.8 per SPU.
En voor de leuk: Op gelijke grote
Hyper Cypress(552 SPU's) 4692 Flop
Mini Fermi (296) 831.6 Flop
Dus qua pure SPU kracht en vulling doet ATI het iets beter, maar idd niet alle performance hangt daar van af. ROPs, Texture unites en laten we de tesselator ook niet vergeten, tellen ook nog mee. Dan natuurlijk geheugen bandbreedte en efficientie(ander kan je de SPU's niet vullen) en de als laatste natuurlijk de utilisatie graat van de SPU's (als in, shader code die het nodig heeft) tellen allemaal mee. Al kan je dus met een console game daar veel meer richting de maxen optimaliseren. Ik vraag me, na dit allemaal getypt te hebben of de console bouwers überhaupt wel geïnteresseerd zijn in de meest krachtige grafische processor. Ik denk dat ze liever goedkoop hebben(en in het verlengede daarvan: koel=minder koper/alu om te koelen). Denk dat daar door de performance per mm2, SPU per mm2 en huidige situatie het er beter uit ziet voor ATI.
Daarnaast zou het me ook niet verbazen als de verhouding tussen "SP"'s en TMUs heel anders zal liggen dan in huidige GPU's. Je maakt zelf een berekening hoeveel SP's de verschillende architecturen per mm2 zouden hebben, maar die klopt niet meer als je naar puur de grootte van SMs/cores gaat kijken. Wat je ziet op de die-shots van de moderne GPU's is namelijk dat de cores maar een beperkt deel van de totale chip innemen. Bij G200 was dit maar 25-30% geloof ik, van Fermi en RV870 weet ik het zo niet. Volgens mij is het dus voor NVIDIA heel goedkoop om meer SP's toe te voegen aan de chip. Het probleem is balans. Waarschijnlijk heeft het weinig nut om meer cores toe te voegen aan het huidige ontwerp omdat de bottleneck dan ergens anders ligt. De vraag is dus in waar die bottlenecks zouden liggen in de toekomstige console. Ook interessant is de vraag hoe de verhouding tussen cores en TMU's zal liggen. Misschien dat MS/Sony het wel een goed idee vindt om de developer veel meer cores te geven. Ontwikkelaars zullen toch hun engines en shaders aan gaan passen aan de mogelijkheden van de GPU, waar PC ontwikkelaars nu zich ook gewoon moeten aanpassen aan andere hardware die nu op de markt is. Als een console ontwikkelaar rekenkracht over heeft gaat hij misschien complexere (maar niet bandbreedte intensieve) opdrachten hiermee uitvoeren.
Kortom, het lijkt me een beetje voorbarig om te zeggen hoeveel SP's per mm2 een bepaalde architectuur heeft als we niet weten hoe de console architectuur er uit gaat zien. Laten we dan eens kijken of we kunnen kijken hoe groot een core bij AMD en NVIDIA is, dat geeft pas echt voer voor leuke speculatie
Nou, volgens mij ging het om 2012, en in 2012 wil een consolebakker op z'n minst een 28nm chip. Er bestaat inderdaad nog geen 28nm Fermi, maar er bestaat nog net zo min een 28nm RV870. Een RV870 afgeleide is wellicht ietsjes minder risicovol, maar daar staat tegenover dat Fermi een "modernere" architectuur is die beter uit de voeten kan met GPGPU, wat volgens mij op de volgende generatie consoles een zeer belangrijke feature gaat worden, als het makkelijk binnen de rest van de game gebruikt en gecombineerd kan worden.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Oh kom op dit is echt een wassen neus. Er bestaat geen 28nm fermi, dus daar kan een console bouwer NU niet eens voor kiezen(het ging om nu he). Dan moet je ook nog maar af wachten hoe die gaat uit vallen.
Nee als je een slimme consolebouwer bent en je wil nu met minimale (Ik kan me voorstellen dat als je specifiekere eisen hebt, zeker richting gpGPU, je liever naar Nvidia toe gaat) inspanningen een GPU hebben, dan ga je naar AMD.
Mja, dat ben ik dan weer niet met je eens.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Want je fermi, is ook maar een 'op geschaalde G80 architectuur'. Dat Nvidia claimt dat het de beste en nieuwste architectuur is sinds gesneden brood, zou ik gewoon laten gaan.
RV870 is nog steeds een RV670 met meer clusters en wat kleine verbeteringen. Er is aan de basis van de architectuur heel weinig veranderd. De laatste grote verandering was R600->RV670, waar texturing en de ring-bus flink onderhanden genomen zijn. AMD heeft de laatste 2 generaties maar aan 1 ding besteed en dat is optimalisatie. RV670 maakte een competitieve GPU uit de R600 architectuur, RV770 maakte er een zwaar geoptimaliseerde chip van en RV870 is gewoon een monster (in positieve zin). Uiteindelijk allemaal hele slimme keuzes van AMD, want RV870 is ondanks de relatieve leeftijd van het onderliggende ontwerp nog steeds een fantastische chip.
Kijken we echter naar de aanpassingen die NVIDIA heeft gemaakt tussen G80/G92 (die niet heel veel verschilden) en G200 en GF100 dan zie je daar enorme aanpassingen. Alle onderdelen zijn in de tussentijd onder handen genomen, van de SIMD ALU's (volledige IEEE FP support, FMA), via de cores zelf (elke core bestaat nu uit 2 "pipelines", SFU en load/store zijn nu aparte onderdelen van de core), cache (volledig coherent, unified address space voor alle geheugen, ECC voor alle geheugen), scheduling (uitvoering van verschillende kernels tegelijk), en uiteraard de hele verbouwing van tesselation, rasterization, setup, etcetera. Het enige waar weinig aan is veranderd is texture filtering (die overigens wel aangepakt is tussen G80 en G92).
Daarnaast zijn er ook tal van kleinschaliger verbeteringen: vele malen snellere context switching, grotere cache, meer threads in flight, etcetera.
Sorry, maar je kan dan veel zeggen van Fermi, maar het is geen opgeschaalde G80. Ja, de achterliggende filosofie en de basisideeen zijn het zelfde, maar daarblijft het dan ook zo'n beetje bij.
Weet je, ik denk dat ik tegenwoordig zowaar ook "om" ben. Ik denk inderdaad dat een kleinere chip beter werkt dan een monsterchip. Uiteraard is het goed mogelijk dat NVIDIA pech heeft gehad de laatste generaties, maar dan nog laat de huidige situatie zien dat als je pech hebt met een dergelijk grote chip je ook meteen heel veel pech hebt. Ik ben echter niet per se tegenstander van een grote chip en ik denk dan ook niet dat het probleem in de yields zit, ik geloof dergelijke verhalen nog steeds niet echt. Ik denk dat het probleem van de grote chip niet in de grootte zit maar in de complexiteit. NVIDIA moet een chip van 3 miljard transistoren ontwerpen en optimaliseren. Het kost ze gewoon veel meer tijd en energie dan bij de 2.1 miljard transistoren die AMD heeft. Dat is wat ze opbreekt op het moment dat het dan fout gaat, zoals bij G200 en GF100 het geval was. Die verhalen van 20% yield en chips verkopen onder kostprijs klinken mij in de oren als grote bullshit.Anoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Klopt, ik heb zelf ook een G80 gehad, klokten lekker, goeie stock koeler, werden niet super heet. Alleen het dood gaan vind ik minder. Je moet ook bedenken dat ATI een heel andere aanpak heeft gekozen. Die, nu we zo ver zijn, beter blijkt te werken. Vergelijk het met Intel. Het was altijd, langere pipes, hogere klok. P4 zou 5Ghz moeten halen. Die kwamen er toen achter dat ze wel -erg- heet werden. Nvidia merkt nu ook dat zon gigantische chip niet lekker is om te hebben. Daardoor staan ze nu tegen een concurrent met een veel kleiner product. We weten allebei ook dat productie kosten niet alles zijn, dat je vooral betaald voor je RnD, maar het betekend wel dat je minder uit je wafers kan halen en als de yields al slecht zijn(geld voor ATI ook) dan krijg je het wel moeilijk met je marges.
Haha, dat is waar, alleen jammer dat deze meer intelligente discussies zoveel meer tijd kosten dan welles nietesAnoniem: 134818 schreef op maandag 14 juni 2010 @ 15:15:
Nah, we zijn het ook wel eens, alleen is de vraag waar we de nuance graag op zien.
[...]
Dit is tenminste beter dan de welles nietes spelletjes waar ik soms in beland.
=================
Nou, uiteraard is hier niets te bewijzen, welke kant dan ook op, maar de GPU in de 360 lijkt wel de grote boosdoener te zijn voor de RROD. Het kan inderdaad zijn dat MS niet genoeg koeling heeft gehad voor het aangegeven TDP. Het kan ook zijn dat ATI niet binnen het opgegeven TDP heeft kunnen blijven. Het kan ook in het midden liggen, en het kan zelfs nog geen van deze redenen zijn. Feit is wel dat MS waarschijnlijk niet helemaal gelukkig is geweest met de situatie, dus ik weet nog niet zomaar of AMD wel zomaar een nieuw contract krijgt. Misschien wel hoor, maar de situatie die jij eerder schetste was dat MS reuze blij zou zijn geweest met de GPU die ze van ATI kregen, waardoor ze zeker weten weer in zee zouden gaan met AMD. Dat weet ik nog niet zo zeker.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
1. De RROD's van de Xbox360 zijn niet te wijten aan de Xenos chip van ATI. Het is immers MS die de koeling van de chip bepaald en niet ATI, ATI geeft slecht de TDP aan MS op. Dat M$ vervolgens geen fatsoenlijke koeling inbouwt is niet ATI zijn schuld tevens zie je dat Xbox360 nog wel wat nalatiger was op gebied van kwaliteit zoals de DVD-drive die krassen maakten.
Geen directe bron, maar Wikipedia zegt: "The Hollywood GPU is reportedly based on the Nintendo GameCube's "Flipper" GPU and is clocked 50% higher at 243 MHz[2], though none of the clock rates have been confirmed by Nintendo, IBM, or ATI." Dat komt ook overeen met de specificaties en met de berichten over de Broadway CPU, waar ongeveer het zelfde voor geldt.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Heb je trouwens een bron dat de Gamecube en Wii zelfde hardware hebben en ze alleen verschillen in clocksnelheid ? Want ik lees namelijk dat het min of meer een door ontwikkeling is van de voorgang.
Nintendo heeft heel bewust gekozen om niet veel te laten veranderen aan de GPU, zodat BC makkelijk te realiseren is. Gewoon een kwestie van de clocks omlaag gooien en de Wii is opeens een GameCube.
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.madmaxnl schreef op maandag 14 juni 2010 @ 16:33:
Ik heb trouwens nog een voordeel gevonden dat ATI heeft om een console "wins" te krijgen namelijk de ervaring die ze hebben met MCM aangezien dit principe zowel in de Wii als Xbox360 wordt gebruikt kunnen we er denk ik wel vanuit gaan dat dit voordeel heeft. nVidia heeft dit in de PS3 niet en dit komt waarschijnlijk zoals jij zei omdat ze met een "last minute" oplossing moesten komen.
De '9800GTX architectuur' is niets meer dan de g92 architectuur, al gebruikt in de 8800GT. Verder gewoon een volslagen zinloze optie en niet haalbaar, spreek, rendabel op basis van huidige SLi architectuur.Anoniem: 357365 schreef op dinsdag 15 juni 2010 @ 22:19:
Volgens mij hadden ze beter de 9800GTX architectuur kunnen pakken en hier 5 van aan elkaar vast kunnen plakken Die lijkt altijd nog beter te schalen dan deze Fermi chips..
'Wij' willen niet gamen, 'wij' willen de kwaliteit van nVidiaproducten en -nieuws beoordelen en bediscussiëren, betrokken op alle mogelijke features. Verder is de GX480 een prima kaart om te gamen, de prijs of hitteontwikkeling doen voor het 'gamen' op zich niet terzake.GPGPU is leuk voor bisnismen, maar wij willen gamen! En daar is ie niet zo goed in.
Dat kan je niet beter om o.a. de redenen dat het simpelweg niet 'sneller' is en een redelijk aantal features zijn geïmplementeerd in de GF100 wat ervoor zorgt dat de g92 architectuur simpelweg niet meer afdoende is, alleen al als je doel specifiek gamen is.Dan kun je beter GTS250 in SLI zetten. Kost je minder en geeft meer performance en staat ook nog eens vet lauw in je kast.. Soms snap ik nVidia niet, naja ik zal wel weer de enigste zijn zoals gebruikelijk
Het is al eerder gezegd, je roept erg veel dingen in de Nieuwsdiscussietopics zonder een onderbouwing van hetgeen je beweert. Het is niet mijn bedoeling je persoonlijk aan te vallen, maar op Tweakers.net is het wel handig als iedereen een beetje geïnformeerd deelneemt aan de discussie en niet zonder onderbouwing die mensen hier tegenspreekt die al iets langer in de 'bisnis' is. Op deze manier blijven de Nieuwsdiscussietopics een beetje op niveau en de moeite waard om te lezen.
[ Voor 3% gewijzigd door Allubz op 16-06-2010 13:06 ]
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Anoniem: 102124
Wat die grafische chips voor volgende generatie consoles betreft, als we zo verder gaan, dat veel in 3d gaat worden, dan zullen die grafische chips nog een stuk beter moeten zijn dan de GTX 480 / ATI 5870.
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.
Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.
Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.Anoniem: 102124 schreef op woensdag 16 juni 2010 @ 10:13:
Wat die grafische chips voor volgende generatie consoles betreft, als we zo verder gaan, dat veel in 3d gaat worden, dan zullen die grafische chips nog een stuk beter moeten zijn dan de GTX 480 / ATI 5870.
Want bij 3D games verlies je bijna de helft van je frames (120hz) als ik het zo lees in diverse reviews over 3d gaming.
M.a.w. bij een game als L4D 2, wat normaal met alle eyecandy aan op 1920x1080 draait aan 100-120fps, haal je amper nog 60fps in 3D.
Da's wel nog goed te doen, maar L4D is nog een vrij 'lichte' game qua hardware.
Vraag me trouwens af hoe soepel games nu gaan draaien op een ps3... De meeste games halen geen 60fps, als je dan nog eens een hoop frames verliest door 3D gaming zal het helemaal leuk gaan worden.
Dus vlot gamen in 3D lijkt me nog een tijdje weg, laat staan met mainstream grafische kaarten...
Anoniem: 102124
denk dat her en der wat eyecandy uitschakelen inderdaad vrij veel zal worden gedaan
Waarschijnlijk nog minder AA/AF en VSYNC uit (hello screentearing)
Waarschijnlijk nog minder AA/AF en VSYNC uit (hello screentearing)
3D is nog lang niet ver genoeg als je het afzet tegen wat we gewend zijn in 2D.
Alleen ligt er nu wel veel focus bij de industrie om dit te pushen.
Alleen ligt er nu wel veel focus bij de industrie om dit te pushen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 298195
Ik meende dat de ps3 wel game's @ 60 fps had draaien.Marc Rademaker schreef op woensdag 16 juni 2010 @ 10:39:
[...]
Je vergeet dat consoles fps-caps hebben van 30fps. Verder heeft niet iedereen een 3d-tv staan. Misschien kiezen de developers er wel voor om her en der wat eyecandy uit te schakelen, als iemand in 3d wilt spelen.
namellijk Wipeout HD, Warhawk, resistance , ridge racer 7, ninja gaiden sigma en misschien nog een paar meer .
Voor de 360 weet ik het niet
Of er voor MCM weinig of veel expertise nodig is weet ik niet. Maar Intel heeft met de Q6xxx wel een MCM oplossingen gehad en hierbij hadden ze twee chips met een TDP van 65 watt weten te combineren tot een TDP van 105 watt. Alhoewel TDP niet voor stroomverbruik staat heeft het blijkbaar wel zo zijn positieve effect. De vraag is dan waarom AMD ten tijden van de Q6xxx ook niet met een soortgelijke oplossing kwam om een quadcore te maken uit twee dualcores. AMD kwam namelijk veel te laat zijn quadcore die ook nog eens slecht presteerde maar dat ter zeiden. Hier uit kun je stellen dat een MCM oplossing niet zo gemakkelijk gemaakt is alhoewel ik me dan zelf tegenspreek. Want de Q6xxx kwam vlak na de E6xxx en de Q6xxx is een MCM van twee E6xxx chips dit zou kunnen betekenen dat MCM zo gepiept, we hebben het hier dan wel over Intel. Tevens vind ik het dan raar dat CJ zegt dat ATI met MCM ontwerpen ervaring mee heeft terwijl jij zegt dat met MCM ontwerpen weinig expertise gemoeid is. Dan heeft het namelijk helemaal geen nut om te vermelden dat ATI er ervaring mee heeft want dit is dan triviaal en zou betekenen dat nVidia deze kennis ook heeft.Snoitkever schreef op woensdag 16 juni 2010 @ 00:22:
[...]
MCM heeft weinig expertise nodig. Het zijn gewoon twee chips die binnen de package zelf verbonden zijn omdat dit kosten bespaart en snelheid oplevert ten opzichte van losse chips verbinden. Het is niet alsof een MCM een ander chipontwerp inhoudt, het is alleen de verbinding tussen de 2 chips die iets anders werkt.
http://www.fudzilla.com/content/view/19199/1/
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Tja als de clocks hoger zijn kan hij best sneller zijn. En wellicht zit er ergens anders een bottelnek en niet bij het aantal shaders?
Maar ik zie het ook nog wel gebeuren dat de GTX470 in sommige gevallen sneller is. Denk ook aan de 8800 GTX vs 9800 GTX.
Maar ik zie het ook nog wel gebeuren dat de GTX470 in sommige gevallen sneller is. Denk ook aan de 8800 GTX vs 9800 GTX.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hehe. Ik had het hier laatst toevallig nog met Bobo (Slobodan) van Fudzilla over. Leuke discussie over gehad. Blijkbaar heeft hij meer bevestiging gekregen en durft hij het ook te posten.Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb de volgende systeem:
Processor: Intel Core 2 Duo, E6600, Socket 775, Boxed
Moederbord: GigaByte GA-965P-DS3, Retail
Videokaart: ECS Geforce 8800 GTS, 320 MB, DDR3, PCI Express x16
Geheugen: Kingston KVR667D2N5K2/2G, 2048 MB, DDR2, PC5300, 667 MHz, 2 x
Behuizing: Antec Sonata II, Zwart
Omdat ik mijn systeem wat wil verbeteren voor spellen (lees Starcraft 2 en Battlefield) is het voor mij een voorruit gang als ik een betere nVidia videokaart koop? Zo, ja welke nVidia raden jullie mij aan? Of is mijn processor de bottleneck.
Processor: Intel Core 2 Duo, E6600, Socket 775, Boxed
Moederbord: GigaByte GA-965P-DS3, Retail
Videokaart: ECS Geforce 8800 GTS, 320 MB, DDR3, PCI Express x16
Geheugen: Kingston KVR667D2N5K2/2G, 2048 MB, DDR2, PC5300, 667 MHz, 2 x
Behuizing: Antec Sonata II, Zwart
Omdat ik mijn systeem wat wil verbeteren voor spellen (lees Starcraft 2 en Battlefield) is het voor mij een voorruit gang als ik een betere nVidia videokaart koop? Zo, ja welke nVidia raden jullie mij aan? Of is mijn processor de bottleneck.
[ Voor 8% gewijzigd door TheKillingBean op 17-06-2010 10:15 ]
PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean
12juli worden 2 GTX460's gelaunched. 1 Kaart met 1GB geheugen en 256 bit geheugen bus en 1 met 192bit geheugen bus en 768MB geheugen.
http://www.fudzilla.com/content/view/19206/1/
http://www.fudzilla.com/content/view/19206/1/
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.Anoniem: 298195 schreef op donderdag 17 juni 2010 @ 10:22:
Dit is een nvidia nieuws discussie topic...
PSN: http://psnprofiles.com/TheKillingBean | Xbox Live: https://www.xboxgamertag.com/search/TheKillingBean
Misschien omdat nVidia meer maakt dan enkel videokaarten?TheKillingBean schreef op donderdag 17 juni 2010 @ 11:28:
[...]
Ok waarom staat er dan [Algemeen] ervoor. Ik wil ook wel een nieuwe topic starten, al lijkt me dat wat vervuiling.
Nieuw topic heeft geen zin, gaat dicht. Reviews lezen gaat je meer helpen.
Wellicht dat de GTX475 wel ondanks dat die minder shaders heeft echt sneller is of andere voordelen bied die de naam rechtvaardigen. Voor het zelfde geld gaan ze lekker leuk doen met de namen en mensen voor de gek houden: GTX485 die sneller is dan de GTX480, GTX475 en de GTX465 die langzamer zijn dan de GTX470 en de GTX460 zijn heus wel mensen die er in kunnen trappen. Ik weet eigenlijk wel zeker dat ze dit niet zullen dan want het slaat nergens op.Xenomorphh schreef op donderdag 17 juni 2010 @ 07:58:
http://www.fudzilla.com/content/view/19199/1/
Als dat waar is over de gtx 475 snap ik nVidia echt niet meer.. Dan heeft hij 64 shaders minder als de GTX470 maar hij wordt wel hoger geplaatst. Dan zou die GF104 chip erg veranderd moeten zijn tegen over de GF100. Zouden de geruchten dan toch waar kunnen zijn dat het de nieuwe 8800GT wordt?
Als ik dit artikel lees:
http://www.fudzilla.com/content/view/19194/1/
Zou het kunnen komen omdat ze het l2 cache eruit hebben gesloopt. Hier door kunnen ze hoge clocks halen. Misschien wel HD5870 achtige clocks? 800Mhz core?
http://www.fudzilla.com/content/view/19194/1/
Zou het kunnen komen omdat ze het l2 cache eruit hebben gesloopt. Hier door kunnen ze hoge clocks halen. Misschien wel HD5870 achtige clocks? 800Mhz core?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Haalt nVidia met zijn GF104 lekker yields ? Want het ziet er dus naar uit dat de GF104 dan een goed gebakken chip wordt met weinig fouten e.d waardoor hij dus goed zou overclocken en dus in de GTX475 variant zelfs zo hoog geclockt zou zijn dat hij boven de GTX470 uitkomt. De L2 cache en andere specifiek GPGPU gerichten dingen eruit gooien doet volgens mij wel weinig aan het stroomverbruik zo zal de L2 cache maar marginaal het stroomverbruik verhogen. Mits het stroomverbruik van L2 cache in een GPU relatief even veel verbruikt als de L2 cache in een CPU.
We zullen het zie.
We zullen het zie.
Volgens de mensen met bronnen was de tapeout van de GF104 nog voordat A3 van GF100 terug kwam en dus voordat er het besef was dat er grondigere veranderingen nodig zijn voor goede yields. Dan moet je denken aan de zaken als dubbele Via's en inconsistente transistor-lengtes, dingen die AMD heeft ontdekt met de RV740.
Als nVidia de GF104 op dezelfde manier heeft ontworpen als de GF100, wat waarschijnlijk is, dan zullen die dubbele Via's e.d. dus niet aanwezig zijn, wat niet ten goede zal komen aan de yields. Dit is natuurlijk deels op te vangen door lagere clocks te hanteren, clusters uit te schakelen en voltages op te pompen. De vraag zal alleen zijn hoeveel bruikbare chips ze daarmee dan kunnen krijgen.
Als nVidia de GF104 op dezelfde manier heeft ontworpen als de GF100, wat waarschijnlijk is, dan zullen die dubbele Via's e.d. dus niet aanwezig zijn, wat niet ten goede zal komen aan de yields. Dit is natuurlijk deels op te vangen door lagere clocks te hanteren, clusters uit te schakelen en voltages op te pompen. De vraag zal alleen zijn hoeveel bruikbare chips ze daarmee dan kunnen krijgen.
Anoniem: 357365
Als het al in de tijd van de RV740 duidelijk was dat dubbele via's nodig waren, waarom heeft nVidia deze er dan niet meteen ingedouwd?
Omdat nVidia-chips misschien anders werken en ATi / AMD die informatie niet zomaar op straat gooien?
Als het aan OneOverPrime moet DAAMIT gewoon open kaartspelen . Ik geef hem groot gelijk want die stomme marketingafdeling had nVidia op de hoogten van de problemen met het 40nm productie procedé van TSMC moeten stellen. Dat is namelijk veel beter voor de consumenten
Het zal ongetwijfeld sarcasme zijn. Maar goed dat is natuurlijk niet zo goed voor ATImadmaxnl schreef op donderdag 17 juni 2010 @ 21:18:
Als het aan OneOverPrime moet DAAMIT gewoon open kaartspelen . Ik geef hem groot gelijk want die stomme marketingafdeling had nVidia op de hoogten van de problemen met het 40nm productie procedé van TSMC moeten attenderen. Dat is namelijk veel beter voor de consumenten
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 303530
de eerste review van de 480M is binnen......
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van
318w! 
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:

ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van


bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:

ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
[ Voor 14% gewijzigd door Anoniem: 303530 op 17-06-2010 22:29 ]
http://hothardware.com/Ar...Fastest-Notebook-GPU-Yet/Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van318w!
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
Hier nog 1. Ze zijn er wel over te spreken als je gebruik niet meetelt..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Wat bedoel je met scoort gelijk per watt? De GTX 480M heeft een tdp van 100W, de HD 5870 Mobility heeft een tdp van 50W. 1/3e aantal transistors, 30% lagere prestaties, helft van het verbruik?Anoniem: 303530 schreef op donderdag 17 juni 2010 @ 22:16:
de eerste review van de 480M is binnen......
http://www.notebookcheck....-Clevo-D901F.32251.0.html
schrik niet, deze notebook heeft een maximum verbruik van318w!
bijna het dubbele van ATI's mobiele krachtpaster (i7 740m, HD5870), al moet daarbij worden vermeld dat de nvidia tegenhanger een desktop CPU bezit (+70w?)
ik gok op een accuduur van minder de gemiddelde reclame
edit: vooral interessant vind ik het volgende plaatje:
[afbeelding]
ondanks het veel lagere aantal transistoren scoort de 5870 ongeveer gelijk per watt
Anoniem: 303530
volgens het artikel bevat de TDP van de ATI enkel de chip, niet het RAM en de andere zooi eromheen
...maar dat kan ook onzin zijn natuurlijk, feit blijft dat je TDP niet zomaar 1 op 1 kan vergelijken.
...maar dat kan ook onzin zijn natuurlijk, feit blijft dat je TDP niet zomaar 1 op 1 kan vergelijken.
Dit topic is gesloten.