Ik denk dat er bij de R600 wat meer dingen speelde. Ten eerste de koeling. Het is tegenwoordig normaal om dual-slot koeling te hebben, maar dat was toen nog wat nieuws. Ik denk dat als ze die op 850Mhz hadden laten draaien, hij, zoals hier boven al gezegd, gewoon zo warm werd dat koeling echt een probleem ging worden. Een beetje zoals nu met de GTX480 :D:D
Er waren toen ook al genoeg dual-slot koelers in gebruik dus dat is een beetje een non-argument.Anoniem: 348878 schreef op dinsdag 09 maart 2010 @ 16:38:
Ik denk dat er bij de R600 wat meer dingen speelde. Ten eerste de koeling. Het is tegenwoordig normaal om dual-slot koeling te hebben, maar dat was toen nog wat nieuws. Ik denk dat als ze die op 850Mhz hadden laten draaien, hij, zoals hier boven al gezegd, gewoon zo warm werd dat koeling echt een probleem ging worden. Een beetje zoals nu met de GTX480 :D:D
Zelfs mijn oude X850XT PE had een dual slot koeler.
Computer says no
Ik begrijp niet echt die drukte om die dikke cooling.
Dat werd ten tijde van de 7900GTX ook al gebruikt:


Niks mis mee toch?
Dat werd ten tijde van de 7900GTX ook al gebruikt:


Niks mis mee toch?
[ Voor 23% gewijzigd door Format-C op 09-03-2010 17:44 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat was een van de beste standaardkoelers die ik op een videokaart heb gezien. Ik heb ooit een 7900GTO van MSI ingebouwd en die had precies dezelfde koeling. Fluisterstil en onder volle belasting niet meer dan 50 graden C op de core.
Goud is geen geld
Dat waren nog eens tijden....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Als ik goed kijk en een beetje de blinde plekken invul met mijn fantasie zie ik daar 0.92A op de fan staan. Het ging er vooral om dat de GTX470 1.8A op zijn fan heb staan.
* Of heb ik het nu verkeerd begrepen? *
* Of heb ik het nu verkeerd begrepen? *
Mja stel het is die cooler of een aangepaste versie. Dan hoeft i nog niet stil te zijn. Aangezien de 79xx XXX kaarten waarschijnlijk nog niet de helft verbruiken van de GTX480.Format-C schreef op dinsdag 09 maart 2010 @ 17:42:
Ik begrijp niet echt die drukte om die dikke cooling.
Dat werd ten tijde van de 7900GTX ook al gebruikt:
[afbeelding]
[afbeelding]
Niks mis mee toch?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 334134
een 7900GT had genoeg aan 1 6pins connector(:, Fermi 2* 8 pins?Astennu schreef op dinsdag 09 maart 2010 @ 19:41:
[...]
Mja stel het is die cooler of een aangepaste versie. Dan hoeft i nog niet stil te zijn. Aangezien de 79xx XXX kaarten waarschijnlijk nog niet de helft verbruiken van de GTX480.
NV start met leveren van Fermi aan het eind van Maart dus 1 - 2 weken later zou de kaart beschikbaar moeten zijn. Er zijn 4 partners geselecteerd die de kaart initeel gaan hebben (3 grote jongens en 1 kleintje). In april / mei wordt het Fermi in mega grote aantallen uitgeleverd en dan bedoel ik zo'n 6 - 7x zoveel als wat met de 4870 / 5870 beschikbaar was. Fermi zal niet het snelheids monster zijn dat iedereen verwacht, dit zal wellicht komen met een volgende stepping. Volgens mijn bronnen zijn XFX geen stock krijgen... ik denk allemaal dat wij weten waarom
Maar dit kan altijd nog veranderen.
kijk, dat zijn dingen waar je wat aan hebt!
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Jaja eerst zien dan geloven. Ik weet dat je het in het verleden altijd bij het rechte eind hebt gehad. Maar wat betreft fermi blijf ik twijfels houden. 6-7x zo veel als de 5870 en 4870 dat is me nog al wat voor een chip die slechte yields zou hebben. Of ze hebben gigantisch lopen snijden is het aantal shaders wat ingeschakelt is en de clockspeeds.The Source schreef op woensdag 10 maart 2010 @ 00:19:
NV start met leveren van Fermi aan het eind van Maart dus 1 - 2 weken later zou de kaart beschikbaar moeten zijn. Er zijn 4 partners geselecteerd die de kaart initeel gaan hebben (3 grote jongens en 1 kleintje). In april / mei wordt het Fermi in mega grote aantallen uitgeleverd en dan bedoel ik zo'n 6 - 7x zoveel als wat met de 4870 / 5870 beschikbaar was. Fermi zal niet het snelheids monster zijn dat iedereen verwacht, dit zal wellicht komen met een volgende stepping. Volgens mijn bronnen zijn XFX geen stock krijgen... ik denk allemaal dat wij weten waaromMaar dit kan altijd nog veranderen.
Daarnaast ze ik nVidia die problemen niet even met een simpele stepping oplossen. Maar eerder met een refresh. Maar we zullen het wel zien......
En als je het mij vraagt is XFX slim geweest om ook AMD te gaan verkopen. nVidia geeft ze nu het bewijs waarom. nVidia is achterbaks en als je niet doet wat o hail mighty nvidia zegt wordt je gestraft. Dus je kunt of doen wat ze zeggen of je bedrijf gaat kapot. En nu hebben ze daar geen last meer van omdat ze nu ook terug kunnen vallen op AMD kaarten. En afgelopen half jaar hebben ze heel wat kunnen verkopen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 317606
Nou, daar zeg je het zelf6-7x zo veel als de 5870 en 4870 dat is me nog al wat voor een chip die slechte yields zou hebben.
Geen snelheidsmonster hoeft niet te betekenen dat er problemen zijnDaarnaast ze ik nVidia die problemen niet even met een simpele stepping oplossen. Maar eerder met een refresh. Maar we zullen het wel zien......
Vandaag nog te horen gekregen dat het verbruik van de GTX480 "ruim" onder de 300W ligt.
Goed om dat te horen, maar hoeveel HD4870's/H5870's waren er dan bij de launch? 20.000 ofzo dacht ik volgens mij in de 1e week.Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 09:05:
[...]
Nou, daar zeg je het zelfHet hele verhaal van Charlie - dat Fermi niet geproduceerd kan worden - kan helemaal verkeerd zijn. Het A3 sample zou best wel eens een goede yield rate kunnen hebben. En het zou aansluiten op dit verhaal. Het duurt namelijk drie maand alvorens een nieuwe revisie vlot geleverd kan worden. nVidia paper launched ze echter al na twee maand (eind maart) met een massa productie eind april / mei.
[...]
Geen snelheidsmonster hoeft niet te betekenen dat er problemen zijn
Vandaag nog te horen gekregen dat het verbruik van de GTX480 "ruim" onder de 300W ligt.
En ruim onder de 300 Watt kan dus180 Watt zijn, of 250 Watt, of 225 Watt, het is maar net hoe ruim je "ruim" neemt
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
We hebben het hier over een chip die vele malen groter is dan de RV870. Als niet de grootste ooit gemaakt. En dan ga je mij vertellen dat er daar even 6x-7x zo veel van klaar liggen als de kleinere RV870 ?Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 09:05:
[...]
Nou, daar zeg je het zelfHet hele verhaal van Charlie - dat Fermi niet geproduceerd kan worden - kan helemaal verkeerd zijn. Het A3 sample zou best wel eens een goede yield rate kunnen hebben. En het zou aansluiten op dit verhaal. Het duurt namelijk drie maand alvorens een nieuwe revisie vlot geleverd kan worden. nVidia paper launched ze echter al na twee maand (eind maart) met een massa productie eind april / mei.
[...]
Geen snelheidsmonster hoeft niet te betekenen dat er problemen zijn
Vandaag nog te horen gekregen dat het verbruik van de GTX480 "ruim" onder de 300W ligt.
AMD heeft moeite gehad met de RV870 die veel minder complex is. En als er niets aan de hand zou zijn waarom hebben ze dan in godsnaam een A3 ref nodig gehad en is die kaart zo laat ?
Nee het gaat er bij mij niet in dat dat ding hoger yields heeft. Zeker niet met alle 512 shaders actief.
En over het snelheids monster gedeelte het zijn nVidia's woorden dat hij 60% sneller zou zijn dan Cypress en dat wordt steeds verder afgezwakt. Wat ook zou duiden op problemen.
Dik onder de 300 watt mag ik hopen voor een single chip oplossing. Vond het al niet echt goed klinken.
280 watt is ook best ruim in mijn ogen. 295 niet het is inderdaad maar wat je ruim vind.Darkasantion schreef op woensdag 10 maart 2010 @ 10:01:
[...]
Goed om dat te horen, maar hoeveel HD4870's/H5870's waren er dan bij de launch? 20.000 ofzo dacht ik volgens mij in de 1e week.
En ruim onder de 300 Watt kan dus180 Watt zijn, of 250 Watt, of 225 Watt, het is maar net hoe ruim je "ruim" neemt
[ Voor 13% gewijzigd door Astennu op 10-03-2010 10:02 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://techpowerup.com/11...Runs_GeForce_GTX_470.html
GTX 470 krijgt 448 cuda cores dat is nu wel zeker..
GTX 470 krijgt 448 cuda cores dat is nu wel zeker..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 317606
TSMC verhoogt haar 40nm capaciteit in Q2 flink. Er is een goede kans dat nVidia een groot deel daarvan gereserveerd heeft. Dat en een goede yield rate voor de A3 revisie kan dat best mogelijk maken. Ik moet het ook pas zien zodra dit werkelijkheid is, maar het is niet onmogelijk.Astennu schreef op woensdag 10 maart 2010 @ 10:01:
[...]
We hebben het hier over een chip die vele malen groter is dan de RV870. Als niet de grootste ooit gemaakt. En dan ga je mij vertellen dat er daar even 6x-7x zo veel van klaar liggen als de kleinere RV870 ?
Eh, misschien heeft de A3 revisie opgelost wat opgelost moest worden? Een flinke performance boost is alleen nog mogelijk met een Bx revisie, maar dat laat minstens een half jaar op zich wachten.AMD heeft moeite gehad met de RV870 die veel minder complex is. En als er niets aan de hand zou zijn waarom hebben ze dan in godsnaam een A3 ref nodig gehad en is die kaart zo laat ?
Je weet dat die 60% marketing geblaat is. Met 30% meer transistors haal je geen 60% boost, dat had iedereen wel kunnen bedenken.En over het snelheids monster gedeelte het zijn nVidia's woorden dat hij 60% sneller zou zijn dan Cypress en dat wordt steeds verder afgezwakt. Wat ook zou duiden op problemen.
Bijna alles is mogelijk in VGA land, dus het zou kunnen, ik heb me twijfels erover, maar het zou kunnenAnoniem: 317606 schreef op woensdag 10 maart 2010 @ 10:14:
[...]
TSMC verhoogt haar 40nm capaciteit in Q2 flink. Er is een goede kans dat nVidia een groot deel daarvan gereserveerd heeft. Dat en een goede yield rate voor de A3 revisie kan dat best mogelijk maken. Ik moet het ook pas zien zodra dit werkelijkheid is, maar het is niet onmogelijk.
Mogelijk, vraag is echter wat de problemen waren, van wat ik weet waren er problemen met via's en de lengte van de kanalen tussen transistors, en de via's konden eigenlijk alleen opgelost worden door een metal respin, oftewel een B1. Kanalen weet ik ff niet meer, het zou mogelijk kunnen zijn dat A3 dat gedeeltelijk oplost, maar zeker weet ik dat niet. Als dat zo is, ou dat de hogere yields verklaren.[...]
Eh, misschien heeft de A3 revisie opgelost wat opgelost moest worden? Een flinke performance boost is alleen nog mogelijk met een Bx revisie, maar dat laat minstens een half jaar op zich wachten.
OF, TMSC heeft dan nu eindelijk zijn problemen met 40nm opgelost, waardoor de "schade" aan de via's en kanalen meevalt, met als gevolg hogere yields voor Nvidia, en AMD.
Waarom niet? AMD heeft toen met de K8 bewezen wat de kracht is van efficency, en Nvidia is een bedrijf dat hun "winst" haalt uit superieure architectuur, terwijl AMD iets meer neigt naar het gebruik van nieuwere technologieen om zo vooruitgang te boeken.[...]
Je weet dat die 60% marketing geblaat is. Met 30% meer transistors haal je geen 60% boost, dat had iedereen wel kunnen bedenken.
Dan nog, 60% meer met 30% meer shaders is heel veel, en zal in dit geval niet gehaald worden omdat de snelheid van de shaders lager ligt, maar op dezelfde clocks zou het goed kunnen dat 30% meer shaders 60% meer prestatie leveren, omdat de shaders efficenter te werk gaan.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Het kan het is niet onmogelijk. Ze zullen wel een combinatie van lagere clockspeeds en kleine design tweakers gebruikt hebben om de yields te verhogen. Het is afwachten hoe goed ze leverbaar zullen zijn. Maar als ze er nu 6x-7x zo veel zouden hebben half april vraag ik me af waarom ze niet gewoon meteen kaarten @ launch hebben of zelfs nu al launchen en kaarten uitgeven.Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 10:14:
TSMC verhoogt haar 40nm capaciteit in Q2 flink. Er is een goede kans dat nVidia een groot deel daarvan gereserveerd heeft. Dat en een goede yield rate voor de A3 revisie kan dat best mogelijk maken. Ik moet het ook pas zien zodra dit werkelijkheid is, maar het is niet onmogelijk.
Dat lijkt mij ook al zijn de final clockspeeds nog niet bekend. Misschien hebben ze zitten bluffen en heeft hij toch 750 MHz clocks. Maar dat verwacht ik nietEh, misschien heeft de A3 revisie opgelost wat opgelost moest worden? Een flinke performance boost is alleen nog mogelijk met een Bx revisie, maar dat laat minstens een half jaar op zich wachten.
Ik weet dat wel ja. Maar ik ben ook niet de gene die dat van de daken loopt te schreuwen. Zolang nVidia dat blijft beweren wordt het nog steeds een zure appel als hij straks maar 15% sneller is.Je weet dat die 60% marketing geblaat is. Met 30% meer transistors haal je geen 60% boost, dat had iedereen wel kunnen bedenken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wat betekenen die Cuda cores? Wat doen ze en zal het mijn game ervaring beter maken?
Cuda cores = streamprocessorsOmnyakom1 schreef op woensdag 10 maart 2010 @ 11:13:
Wat betekenen die Cuda cores? Wat doen ze en zal het mijn game ervaring beter maken?
Gewoon een andere benaming voor iets wat we al kennen sinds de G80/Xenos.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ook FUAD heeft weet wat geschreven:
Als je het mij vraagt gaat die award nog steeds naar de 9700 Pro (R300 chip). Hij is nu wel niet meer de snelste maar was toen in alle opzichten revolutionair.
Wel mooi hoe nVidia er omheen lult. The Best gaming GPU ever built.... uhmm gezien de die size denk ik dat de RV870 de beste gaming GPU zal zijn maar goed tis maar hoe je het wilt zien..... En als je het zo gaat zeggen heb je elk half jaar een nieuwe Best GPU Ever build....Nvidia on Fermi delay
We tried to find a cause of Fermi delay and we already wrote about it here, but now we got some additional details that might shed some light on the subject.
Nvidia has sent us the following statement.
“We redesigned GF100 from the ground up to deliver the best performance on DX11. This meant adding dedicated h/w engines in our GPU to accelerate key features like tessellation.
We also made changes on the compute side that specifically benefit gamers like interactive ray-tracing and faster physics performance through things like support for concurrent kernels.
Unfortunately all of these changes took longer than we originally anticipated and that’s why we are delayed.
Do we wish we had GF100 today? Yes. However based on all the changes we made will GF100 be the best gaming GPU ever built. Absolutely.”
You can see that they have worked very hard to send us some nice tailored response and again if you read between the lines you will again see that some part of the chip developed by one of the groups was not perfect and they decided to postpone the project.
We can only add that despite the fact if Fermi will be the best gaming GPU ever build, it will be the most hyped GPU in the history of hardware accelerated graphics.
Als je het mij vraagt gaat die award nog steeds naar de 9700 Pro (R300 chip). Hij is nu wel niet meer de snelste maar was toen in alle opzichten revolutionair.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Typisch NVIDIA idd, niets nieuws in ieder geval..
En of het de beste chip word tja.. je hebt gelijk het is net hoe je het wil bekijken, ik vind de G80 dan alsnog een grotere stap vooruit dan deze chip waarschijnlijk gaat zijn op revolutionair vlak
Afijn zoals al gezegd 1 ding is zeker, dit word toch wel de meest gehypte kaarten serie ooit, die award mogen ze van mij dan wel hebben, laat ze nu maar eerst bewijzen dat ze op alle andere vlakken ook zeer goed mee kunnen met de concurrentie
En of het de beste chip word tja.. je hebt gelijk het is net hoe je het wil bekijken, ik vind de G80 dan alsnog een grotere stap vooruit dan deze chip waarschijnlijk gaat zijn op revolutionair vlak
Afijn zoals al gezegd 1 ding is zeker, dit word toch wel de meest gehypte kaarten serie ooit, die award mogen ze van mij dan wel hebben, laat ze nu maar eerst bewijzen dat ze op alle andere vlakken ook zeer goed mee kunnen met de concurrentie
[ Voor 36% gewijzigd door pino85 op 10-03-2010 11:46 ]
Liefhebber van Tweakers
Heb je een hint of het boven de 220w ligt?Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 09:05:
Vandaag nog te horen gekregen dat het verbruik van de GTX480 "ruim" onder de 300W ligt.
Maar uit eerdere artikelen is gebleken dat het ontwerp van nVidia niet zo goed meeschaalde naar 40nm? In principe waren er minder problemen dankzij TSMC, het leeuwendeel van de problemen kwamen van Fermi zelf af. Dus er kan eigenlijk maar een antwoord zijn: nVidia heeft zelf de chip gefixt met brute force en hot lots, al duurde het even.Darkasantion schreef op woensdag 10 maart 2010 @ 10:25:
[...]
Bijna alles is mogelijk in VGA land, dus het zou kunnen, ik heb me twijfels erover, maar het zou kunnen
[...]
Mogelijk, vraag is echter wat de problemen waren, van wat ik weet waren er problemen met via's en de lengte van de kanalen tussen transistors, en de via's konden eigenlijk alleen opgelost worden door een metal respin, oftewel een B1. Kanalen weet ik ff niet meer, het zou mogelijk kunnen zijn dat A3 dat gedeeltelijk oplost, maar zeker weet ik dat niet. Als dat zo is, ou dat de hogere yields verklaren.
OF, TMSC heeft dan nu eindelijk zijn problemen met 40nm opgelost, waardoor de "schade" aan de via's en kanalen meevalt, met als gevolg hogere yields voor Nvidia, en AMD.
Ma goed... gewoon kijken en afwachten... Ik vind 6 tot 7x zoveel levering als de HD5xxx bij de start een pietsje ongeloofwaardig dus we zien het wel verschijnen.
Overigens...



Post #8888 is bij deze een feit!








Anoniem: 263922
Dat is jouw mening, de persoonlijke voorkeur moet je buiten spel laten, het is mooi dat de rv870 een kleinere die size heeft, maar mij als consument interesseert dat weinig, zolang ik maar mijn game kan spelen, mijn 4870 had ook een kleinere chip dan mijn gtx260, en toch gaat mijn voorkeur uit naar de tweede, deze is namelijk koeler, stiller, en crasht (veel)minder.Astennu schreef op woensdag 10 maart 2010 @ 11:21:
Ook FUAD heeft weet wat geschreven:
[...]
Wel mooi hoe nVidia er omheen lult. The Best gaming GPU ever built.... uhmm gezien de die size denk ik dat de RV870 de beste gaming GPU zal zijn maar goed tis maar hoe je het wilt zien..... En als je het zo gaat zeggen heb je elk half jaar een nieuwe Best GPU Ever build....
Als je het mij vraagt gaat die award nog steeds naar de 9700 Pro (R300 chip). Hij is nu wel niet meer de snelste maar was toen in alle opzichten revolutionair.
Maar dat is dan weer mijn mening,
Ik wel, kijk naar een stroom aansluitingen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Jups, daar is namelijk 0,0 bewijs voor.Anoniem: 263922 schreef op woensdag 10 maart 2010 @ 12:07:
Dat is jouw mening, de persoonlijke voorkeur moet je buiten spel laten, het is mooi dat de rv870 een kleinere die size heeft, maar mij als consument interesseert dat weinig, zolang ik maar mijn game kan spelen, mijn 4870 had ook een kleinere chip dan mijn gtx260, en toch gaat mijn voorkeur uit naar de tweede, deze is namelijk koeler, stiller, en crasht (veel)minder.
Maar dat is dan weer mijn mening,
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 317606
Unified shaders is an sich de correcte benaming, stream processor is de term die AMD gebruikt.CJ schreef op woensdag 10 maart 2010 @ 11:15:
[...]
Cuda cores = streamprocessors
Gewoon een andere benaming voor iets wat we al kennen sinds de G80/Xenos.
Dat zegt elk bedrijf toch over zijn nieuwe producten?Astennu schreef op woensdag 10 maart 2010 @ 11:21:
Ook FUAD heeft weet wat geschreven:
[...]
Wel mooi hoe nVidia er omheen lult. The Best gaming GPU ever built.... uhmm gezien de die size denk ik dat de RV870 de beste gaming GPU zal zijn maar goed tis maar hoe je het wilt zien..... En als je het zo gaat zeggen heb je elk half jaar een nieuwe Best GPU Ever build....
Als je het mij vraagt gaat die award nog steeds naar de 9700 Pro (R300 chip). Hij is nu wel niet meer de snelste maar was toen in alle opzichten revolutionair.
Als jij 80% van de 40nm productie koopt dan ...Maar uit eerdere artikelen is gebleken dat het ontwerp van nVidia niet zo goed meeschaalde naar 40nm? In principe waren er minder problemen dankzij TSMC, het leeuwendeel van de problemen kwamen van Fermi zelf af. Dus er kan eigenlijk maar een antwoord zijn: nVidia heeft zelf de chip gefixt met brute force en hot lots, al duurde het even.
HogerHeb je een hint of het boven de 220w ligt?
nVidia beloofde pers samples ruim op voorhand (alsin twee weken), ik verwacht de GTX480 volgende week ergens (behalve wanneer ze die belofte niet nakomen, en dat ding twee dagen voor launch laten toekomen).
De HD58xx kaarten zijn heel stil dat was bij de HD48xx niet het geval. Nu kunnen we er nog moeilijk iets over zeggen maar ik verwacht het volgende:Anoniem: 263922 schreef op woensdag 10 maart 2010 @ 12:07:
[...]
Dat is jouw mening, de persoonlijke voorkeur moet je buiten spel laten, het is mooi dat de rv870 een kleinere die size heeft, maar mij als consument interesseert dat weinig, zolang ik maar mijn game kan spelen, mijn 4870 had ook een kleinere chip dan mijn gtx260, en toch gaat mijn voorkeur uit naar de tweede, deze is namelijk koeler, stiller, en crasht (veel)minder.
Maar dat is dan weer mijn mening,
RV870 VS GT300:
-RV870 stiller
-RV870 zuiniger (eventueel ook betere gaming performance per watt)
-RV870 betere performance per mm2 die size
-RV870 goedkoper > Betere Bang for $$$
-RV870 Beste multi monitor Implementatie
-GT300 Snelste chip op de markt
-GT300 Meeste Support voor Game Physics
-GT300 Beste GPGPU Performance
-GT300 Tot nu toe beste 3D Stereo gaming mogelijkheden (cat 10.3 zou ook betere support brengen voor AMD maar daar is weinig over bekend. Ik verwacht niet dat het wat nVidia nu heeft gaat overtreffen maar wel dat het een stap in de goede richting zal zijn)
Maar goed tijd zal ons leren....
[ Voor 4% gewijzigd door Astennu op 10-03-2010 12:54 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
En de prijs is nog hetzelfde gebleven voor de GTX470 en 480?Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 12:11:
nVidia beloofde pers samples ruim op voorhand (alsin twee weken), ik verwacht de GTX480 volgende week ergens (behalve wanneer ze die belofte niet nakomen, en dat ding twee dagen voor launch laten toekomen).
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Eigenlijk moet je ze vrijdag dan al binnen hebbennVidia beloofde pers samples ruim op voorhand (alsin twee weken), ik verwacht de GTX480 volgende week ergens (behalve wanneer ze die belofte niet nakomen, en dat ding twee dagen voor launch laten toekomen).
[ Voor 58% gewijzigd door Marc Rademaker op 10-03-2010 13:15 ]
Ik wil niet miereneuken, maar NV is degene die begonnen is met de term "streamprocessors", terwijl het inderdaad gewoon een unified shader is.Anoniem: 317606 schreef op woensdag 10 maart 2010 @ 12:11:
[...]
Unified shaders is an sich de correcte benaming, stream processor is de term die AMD gebruikt.

AMD heeft dit later gewoon overgenomen.
Op pure cijfers misschien wel. Maar wat is het waard? De Fermi komt 6 maanden later op de markt, biedt niet die performance boost je mag verwachten voor een product die zo veel later uit komt. De impact zal een stuk minder zijn dan wanneer men het beestje gewoon op tijd (dus vorig jaar) had gelanceerd. Zal me benieuwen of deze het tegen de overgeklokte 5870s kan opnemen die vaak met gemak al 1000Mhz halen (en waar ik bv bij onze Lightning weet dat deze met gemak de 1150Mhz zou moeten kunnen halen op air).
Op CeBIT lieten we 3D All In Ones zien met ATI Radeon HD5730 aan boord en de ontvangst was erg positief. Ik zou 3D Stereo Gaming dus niet meer zo zeer als + punt bij NV durven scharen.-GT300 Tot nu toe beste 3D Stereo gaming mogelijkheden (cat 10.3 zou ook betere support brengen voor AMD maar daar is weinig over bekend. Ik verwacht niet dat het wat nVidia nu heeft gaat overtreffen maar wel dat het een stap in de goede richting zal zijn)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Daar heb ik het ook niet over. Maar op het moment dat hij uit is zal het de snelste Single chip GPU zijn. Mijn is dat persoonlijk niet veel waard zeker niet als hij heel duur is....CJ schreef op woensdag 10 maart 2010 @ 13:16:
Op pure cijfers misschien wel. Maar wat is het waard? De Fermi komt 6 maanden later op de markt, biedt niet die performance boost je mag verwachten voor een product die zo veel later uit komt. De impact zal een stuk minder zijn dan wanneer men het beestje gewoon op tijd (dus vorig jaar) had gelanceerd. Zal me benieuwen of deze het tegen de overgeklokte 5870s kan opnemen die vaak met gemak al 1000Mhz halen (en waar ik bv bij onze Lightning weet dat deze met gemak de 1150Mhz zou moeten kunnen halen op air).
De vergelijking zal straks gemaakt worden als je de 5870 OC vs een GTX480 OC reviews krijgt. Ik verwacht geen hoge overclocks bij de nVidia kaarten. Maar dan nog wat is de prijs ? wat krijg je er voor ? hoe is de performance per watt ? doe je wat met Physics of GPGPU ?
Persoonlijk gebruik ik die laatste twee niet. En ik vind Dual GPU kaarten ook prima. Dus als we het over de snelste kaart hebben zal de 5970 of anders de 5970 OC de snelste blijven.
(Ben trouwens benieuwd of ik mijn MSI R5870 Lightning in de week van 27-03 ga krijgen........)
Nee daarom had ik bij dat punt ook al een vraagteken staan. Echter heb ik zelf de mogelijkheden van ATi nog niet in actie gezien dus kan er niet over oordelen. Maar ik heb goede hoopOp CeBIT lieten we 3D All In Ones zien met ATI Radeon HD5730 aan boord en de ontvangst was erg positief. Ik zou 3D Stereo Gaming dus niet meer zo zeer als + punt bij NV durven scharen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
ah .. ruim onder 300W = 280Watt trouwens..
[ Voor 26% gewijzigd door neliz op 10-03-2010 17:05 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Das minder dan 10% onder 300W, vind ik nou niet echt ruim.....neliz schreef op woensdag 10 maart 2010 @ 17:03:
ah .. ruim onder 300W = 280Watt trouwens..
Of is de 294W van de HD5970 dan ineens "netjes" onder de 300W grens?
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
nouDarkasantion schreef op woensdag 10 maart 2010 @ 17:28:
[...]
Das minder dan 10% onder 300W, vind ik nou niet echt ruim.....
Of is de 294W van de HD5970 dan ineens "netjes" onder de 300W grens?
dan is het verbruik van de 480 dus 14W minder. oftwel een 70% groter verschil tussen de 480 en 5970 tot de 300W grens.
70% BETER!
weet je hoeveel groene vinkjes dat is?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Volgens mij zijn dat wel 3.5 groene vinkjesneliz schreef op woensdag 10 maart 2010 @ 17:33:
[...]
nou
dan is het verbruik van de 480 dus 14W minder. oftwel een 70% groter verschil tussen de 480 en 5970 tot de 300W grens.
70% BETER!
weet je hoeveel groene vinkjes dat is?
En als we allemaal onze HD5970 voor een GTX480 vervangen, en zo stroom besparen, scheelt dat wel 2.45 bomen per jaar joh
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 263922
Ik heb het toch persoonlijk ervaren, maar mij maakt het eigenlijk vrij weinig uit wat jij daarvan vindt, verandert er niks aan , ga maar op youtube mensen uit hun tent lokken krijg je ook nog je tijd beter mee om
Maargoed, weer ontopic: het blijft giswerk tot de officiële release, ik heb er zelf wel vertrouwen in dat hij snel is (toch sneller als 5850), geluid en warmte zal na wat nieuwe koelpasta ook wel binnen de perken blijven.
Verder vind ik het niet erg als de beloftes niet helemaal ingelost kunnen worden, mijn vertrouwen in ati is diep gekelderd sinds dat gestuntel met mijn 4870, ik wil gewoon een kaart die zonder morren zijn werk doet.
Features zoals eyefinity, CCC, onchip sound enz. zijn voor mij overbodig, stabiele drivers, stilte en temperatuur heb ik tot nu toe alleen bij nvidia mogen ervaren, voor mijn 4870 heb ik toendertijd nog een gpu wc blok gekocht, het geheel was nog steeds goedkoper als een gtx260, jammergenoeg is dat overbekende argument price performance voor mij dus van geen waarde meer.
Als de gtx4xx in mijn ogen te duur wordt laat ik mijn oude kaart nog even zitten, dan maar geen dx11, maar ook zeker geen problemen met een ati kaart
[ Voor 56% gewijzigd door Anoniem: 263922 op 10-03-2010 17:55 ]
Jij hebt je persoonlijke ervaring, wij hebben legio professionele reviewers.Anoniem: 263922 schreef op woensdag 10 maart 2010 @ 17:43:
Ik heb het toch persoonlijk ervaren, maar mij maakt het eigenlijk vrij weinig uit wat jij daarvan vindt, verandert er niks aan , ga maar op youtube mensen uit hun tent lokken krijg je ook nog je tijd beter mee om
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Daar moet ik toch even op in gaan.. Het is toch erkend dat een HD4xxx gewoon veel lawaai maakt.. En warm word? Dat is toch geen persoonlijke mening.. Anders kun je dat ook wel zeggen bij een gtx480 ja hij word 100 graden maar dat vind ik niet warm..neliz schreef op woensdag 10 maart 2010 @ 17:44:
[...]
Jij hebt je persoonlijke ervaring, wij hebben legio professionele reviewers.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Anoniem: 263922
Tja, in een review heb ik gelezen dat de 4870 stil was, maar dat was niet zo, dus zit je weer wat te blaten, zoals ik al eerder zei heb ik er verder geen boodschap aan en ik reageer er vanaf nu ook niet meer opneliz schreef op woensdag 10 maart 2010 @ 17:44:
[...]
Jij hebt je persoonlijke ervaring, wij hebben legio professionele reviewers.
een stock 4870 wordt minder warm dan een stock 260-216, zowel idle als FurMark. Zodra je er niet-stock van maakt zie je dat custom fans minder stroom verbruiken en de twee kaarten evenveel lawaai maken en de zelfde temperaturen halen..Xenomorphh schreef op woensdag 10 maart 2010 @ 17:52:
Daar moet ik toch even op in gaan.. Het is toch erkend dat een HD4xxx gewoon veel lawaai maakt.. En warm word? Dat is toch geen persoonlijke mening.. Anders kun je dat ook wel zeggen bij een gtx480 ja hij word 100 graden maar dat vind ik niet warm..
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 59888
Persoonlijk heb ik er weinig moeite mee maar het kan inderdaad nog wat stiller. Of je dat lawaai wil noemen is denk ik een kwestie van smaak. Het is zeker geen stofzuiger.Xenomorphh schreef op woensdag 10 maart 2010 @ 17:52:
[...]
Daar moet ik toch even op in gaan.. Het is toch erkend dat een HD4xxx gewoon veel lawaai maakt..
De GPU wordt inderdaad warm maar hij is er op ontworpen en kan dat hebben. Ja hij wordt warm, maar nee, dat is geen enkel probleem.Xenomorphh schreef op woensdag 10 maart 2010 @ 17:52:
En warm word? Dat is toch geen persoonlijke mening.. Anders kun je dat ook wel zeggen bij een gtx480 ja hij word 100 graden maar dat vind ik niet warm..
Kortom: wat jij zegt klopt wel zo'n beetje.
Wat mij betreft kunnen we de fanboy onzin wel buiten dit topic houden. De discussie ATi vs Nvidia gaat eeuwig door en daar gaan we nooit uit komen. Beide merken hebben zo hun voors en tegens en daar is niets mis mee. Op dit moment zit Nvidia in de hoek waar de klappen vallen (alleen al omdat ze een half jaar te laat zijn) en voor hun fans doet dat misschien pijn, maar laten we ons niet verlagen tot het niveau van merkbashen.
[ Voor 16% gewijzigd door Anoniem: 59888 op 10-03-2010 18:23 ]
Heb je een link van zo'n professionele review? Ben voor de aardigheid even gaan zoeken en lees eigenlijk overal dat de HD4870 net wat meer lawaai maakt en zeker warmer wordt dan de GTX260 C216.neliz schreef op woensdag 10 maart 2010 @ 17:59:
[...]
een stock 4870 wordt minder warm dan een stock 260-216, zowel idle als FurMark.
anathema
google is jouwe vriend:anathema schreef op woensdag 10 maart 2010 @ 18:25:
[...]
Heb je een link van zo'n professionele review? Ben voor de aardigheid even gaan zoeken en lees eigenlijk overal dat de HD4870 net wat meer lawaai maakt en zeker warmer wordt dan de GTX260 C216.
http://enthusiast.hardocp...nm_4870_dark_knight_1gb/9
(let op, Maar 2009 is geen LAUNCH review)
[H]

Tom's

Er is vrij veel veranderd aan de ati drivers na de launch.
[ Voor 11% gewijzigd door neliz op 10-03-2010 18:35 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
offtopic:
wat een leuk nieuws toch weer
wat een leuk nieuws toch weer

Heeft geen speciale krachten en is daar erg boos over.
Ik had de MSI 280gtx super OC, eerst 1tje daarna in SLIAnoniem: 263922 schreef op woensdag 10 maart 2010 @ 17:43:
[...]
Ik heb het toch persoonlijk ervaren, maar mij maakt het eigenlijk vrij weinig uit wat jij daarvan vindt, verandert er niks aan , ga maar op youtube mensen uit hun tent lokken krijg je ook nog je tijd beter mee om
Maargoed, weer ontopic: het blijft giswerk tot de officiële release, ik heb er zelf wel vertrouwen in dat hij snel is (toch sneller als 5850), geluid en warmte zal na wat nieuwe koelpasta ook wel binnen de perken blijven.
Verder vind ik het niet erg als de beloftes niet helemaal ingelost kunnen worden, mijn vertrouwen in ati is diep gekelderd sinds dat gestuntel met mijn 4870, ik wil gewoon een kaart die zonder morren zijn werk doet.
Features zoals eyefinity, CCC, onchip sound enz. zijn voor mij overbodig, stabiele drivers, stilte en temperatuur heb ik tot nu toe alleen bij nvidia mogen ervaren, voor mijn 4870 heb ik toendertijd nog een gpu wc blok gekocht, het geheel was nog steeds goedkoper als een gtx260, jammergenoeg is dat overbekende argument price performance voor mij dus van geen waarde meer.
Als de gtx4xx in mijn ogen te duur wordt laat ik mijn oude kaart nog even zitten, dan maar geen dx11, maar ook zeker geen problemen met een ati kaart
Prima kaarten maar die waren in beide situaties: a) niet stil en b) niet koel en c) niet zuinig.... Dus ik snap die bewering niet dat dit soort dingen "tot nu toe" alleen bij nv werden aangetroffen...
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Klopt, maar ze zetten hem niet op 100% fanspeed zoals ze wel doen bij alle kaarten in deze reviewneliz schreef op woensdag 10 maart 2010 @ 18:33:
[...]
Er is vrij veel veranderd aan de ati drivers na de launch.
anathema
worden resultaten anders als je beide fans op 50% zet?anathema schreef op woensdag 10 maart 2010 @ 18:47:
[...]
Klopt, maar ze zetten hem niet op 100% fanspeed zoals ze wel doen bij alle kaarten in deze review
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik denk dat hij bedoelt als je het automatisch laat regelen dat bijv de GTX260 op 50% blijft hangen terwijl een HD4870 bijv 60% fan gebruik heeft op full load. En dan is een GTX260 waarschijnlijk wel stiller onder dezelfde load..neliz schreef op woensdag 10 maart 2010 @ 18:51:
[...]
worden resultaten anders als je beide fans op 50% zet?
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
was de hd48xx ook niet ontworpen om vooral een zo stabiel mogelijk temperatuur te hebben?
idd, daar gaat het toch om. Hoe langzaam laat de fabrikant fans draaien onder load om het geluid te beperken maar wel acceptabele temps te hebben. Daar beoordeel je load geluidsproductie en bijbehorende warmteontwikkeling op bij reviews, niet met fanspeeds die niemand in het hoofd zou halen te gebruiken lijkt me.Xenomorphh schreef op woensdag 10 maart 2010 @ 18:59:
[...]
Ik denk dat hij bedoelt als je het automatisch laat regelen dat bijv de GTX260 op 50% blijft hangen terwijl een HD4870 bijv 60% fan gebruik heeft op full load. En dan is een GTX260 waarschijnlijk wel stiller onder dezelfde load..
@Tomcatha, klopt inderdaad. Idle was hij nog steeds erg warm in verhouding met stock fanspeed settings, maar wel stil dus dat was prima. Maar goed zal es ophouden over HD4870's in het nvidia topic...
anathema
Nog even terugkomende op de aantallen van kaarten die beschikbaar zouden moeten komen. Er is vaak een getal van 2% voorbij gekomen het laatste jaar, voor de yield van de 512-shader chip. Uitgaande van de 9000 riskwafers die Charlie vaak heeft genoemd, elk met ~100 chips, geeft een totaal aantal van 18.000 512-shader Fermi/GF100 chips.
Laten we vervolgens stellen dat de 448-shader gecastreerde chip een yield heeft van zeg 30%. Dat geeft 30 chips keer 9000 wafers zo'n 270.000 mogenlijke GTX470's.
Als je die twee getallen bij elkaar optelt en in gedachten neemt dat A3 natuurlijk nooit geheel in 1 keer klaar kan zijn (dus voor een 'massale' launch in maart), dan is een mededeling dat Fermi 6 tot 7 keer meer kaarten zal brengen dan HD58xx tijdens launch dus niet zo heel erg gek.
Dit zijn overigens aannames, gokjes en uitgangspunten van artikelen eerder verschenen.
Laten we vervolgens stellen dat de 448-shader gecastreerde chip een yield heeft van zeg 30%. Dat geeft 30 chips keer 9000 wafers zo'n 270.000 mogenlijke GTX470's.
Als je die twee getallen bij elkaar optelt en in gedachten neemt dat A3 natuurlijk nooit geheel in 1 keer klaar kan zijn (dus voor een 'massale' launch in maart), dan is een mededeling dat Fermi 6 tot 7 keer meer kaarten zal brengen dan HD58xx tijdens launch dus niet zo heel erg gek.
Dit zijn overigens aannames, gokjes en uitgangspunten van artikelen eerder verschenen.
Anoniem: 263922
Hopelijk valt de prijs dan ook een beetje mee, 360 euro voor een gtx470 zou natuurlijk gekkenwerk zijn, aangezien er toch aardig wat mensen al lang wachten op deze kaarten en de performance zoals het er nu uitziet, niet echt legendarisch goed gaat worden, wel goed, daar niet van 
De overstap naar ati is gauw gemaakt, dus ik hoop dat ze een beetje realistisch blijven
De overstap naar ati is gauw gemaakt, dus ik hoop dat ze een beetje realistisch blijven
Ik denk niet dat ze realistisch willen worden, maar ze zullen wel moeten anders verliezen ze (nog) meer markt aandeel..
op het moment van de launch zullen maar enkele honderden kaarten beschikbaar zijn in de eame areadahakon schreef op woensdag 10 maart 2010 @ 19:49:
Nog even terugkomende op de aantallen van kaarten die beschikbaar zouden moeten komen. Er is vaak een getal van 2% voorbij gekomen het laatste jaar, voor de yield van de 512-shader chip. Uitgaande van de 9000 riskwafers die Charlie vaak heeft genoemd, elk met ~100 chips, geeft een totaal aantal van 18.000 512-shader Fermi/GF100 chips.
Laten we vervolgens stellen dat de 448-shader gecastreerde chip een yield heeft van zeg 30%. Dat geeft 30 chips keer 9000 wafers zo'n 270.000 mogenlijke GTX470's.
Als je die twee getallen bij elkaar optelt en in gedachten neemt dat A3 natuurlijk nooit geheel in 1 keer klaar kan zijn (dus voor een 'massale' launch in maart), dan is een mededeling dat Fermi 6 tot 7 keer meer kaarten zal brengen dan HD58xx tijdens launch dus niet zo heel erg gek.
Dit zijn overigens aannames, gokjes en uitgangspunten van artikelen eerder verschenen.
volgens mijn distri is het na de launch 2 maanden geen kaarten meer te krijgen zijn eerdat de volgende lading binnenkomt
keiharde glitters!

http://translate.google.c...rg.mozilla:en-US:official

Kom op mijnheer van MSI! doe ook eens een duit in het zakje
edit:
NVIDIA fixed Furby's AA performance.. oops...

http://translate.google.c...rg.mozilla:en-US:official

Kom op mijnheer van MSI! doe ook eens een duit in het zakje
edit:
NVIDIA fixed Furby's AA performance.. oops...

[ Voor 27% gewijzigd door neliz op 11-03-2010 00:13 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 263922
Tziet er nog erg fake uit allemaal, al helemaal die Catalytic 
En zelfs als dit de gtx480 zou zijn is het nog niet verkeerd, liever wat minder hoge max dan een veel lagere min fps, maar dan nog, de prijs gaat veeeeel uitmaken,..
En zelfs als dit de gtx480 zou zijn is het nog niet verkeerd, liever wat minder hoge max dan een veel lagere min fps, maar dan nog, de prijs gaat veeeeel uitmaken,..
Tja dan heb je echt iets verkeerd gedaan.Anoniem: 263922 schreef op woensdag 10 maart 2010 @ 17:43:
[...]
Ik heb het toch persoonlijk ervaren, maar mij maakt het eigenlijk vrij weinig uit wat jij daarvan vindt, verandert er niks aan , ga maar op youtube mensen uit hun tent lokken krijg je ook nog je tijd beter mee om
Maargoed, weer ontopic: het blijft giswerk tot de officiële release, ik heb er zelf wel vertrouwen in dat hij snel is (toch sneller als 5850), geluid en warmte zal na wat nieuwe koelpasta ook wel binnen de perken blijven.
Verder vind ik het niet erg als de beloftes niet helemaal ingelost kunnen worden, mijn vertrouwen in ati is diep gekelderd sinds dat gestuntel met mijn 4870, ik wil gewoon een kaart die zonder morren zijn werk doet.
Features zoals eyefinity, CCC, onchip sound enz. zijn voor mij overbodig, stabiele drivers, stilte en temperatuur heb ik tot nu toe alleen bij nvidia mogen ervaren, voor mijn 4870 heb ik toendertijd nog een gpu wc blok gekocht, het geheel was nog steeds goedkoper als een gtx260, jammergenoeg is dat overbekende argument price performance voor mij dus van geen waarde meer.
Als de gtx4xx in mijn ogen te duur wordt laat ik mijn oude kaart nog even zitten, dan maar geen dx11, maar ook zeker geen problemen met een ati kaart
Ik heb zo veel ATi kaarten gehad. Sinds de Radeon 8500 heb ik bijna elke high en mid range kaart gehad ook de refreshes alles. Dus ook alles vanaf de HD2xxx tm HD5xxx.
De Cooler van de HD48xx serie geef ik je gelijk in. Maar dat hij niet stabiel zou zijn is grote onzin. Dan heb je misschien een kapotte kaart gehad of zo. Drivers waren ook prima in orde.
Ik heb tussendoor ook even een 8800 GT gehad (in de tijd va de 3870) dat werkte net zo stabiel als de 3870 kaarten. Alleen ik vond de driver menu's niet prettig en het was een herrie ding dus toen ben ik overgestapt naar een 3870 X2.
Het maakt tegenwoordig niet veel uit of je een ATi of nVidia kaart hebt beide zijn stabiel. En het is afhankelijk van welke games je speelt welke beter voor je geschikt is.
En ik mag voor nVidia hopen dat de GTX480 sneller is als een 5850 anders is het een regelrechte ramp.
Als ik die max en AVG fps zie lijkt de performance dip van de 5870 eenmalig. Of in ieder geval overall niet zo laag. Anders was het verschil tussen max en AVG in verhouding groter geweest en dat is nu +- gelijk aan die van de GTX4x0. Dus dit lijkt een propaganda slide. + Ik vraag me af of dit een GTX470 is of toch een GTX480.neliz schreef op donderdag 11 maart 2010 @ 00:06:
keiharde glitters!
[afbeeldingafbeelding]
Kom op mijnheer van MSI! doe ook eens een duit in het zakje
edit:
NVIDIA fixed Furby's AA performance.. oops...
[afbeelding]
Ik gok zelf namelijk een beetje op die laatste. (Er even van uitgaand dat dit echt is al zou dit makkelijk een hoax kunnen zijn).
Edit:
Nog wat negatieve publiciteit van FUD:
Ik ben het hier wel mee eens. Waarom laten ze dat verdomde ding niet zien? schamen ze zich er voor of zo? ze hoeven echt niet bang te zijn dat AMD even snel een kaartje uitrolt met wat hogere clockspeeds doordat ze nu de fermi specs weten. Als ze dat van plan waren hadden ze dat toch wel gedaan want we weten allemaal wat de RV870 kan.Cebit 2010: Here's the card, don't show it around
One has to seriously wonder what exactly was Nvidia trying to pull off with its strict anti-marketing strategies on this year’s Cebit.
The company has given samples of cards to partners and then ordered them not to show them around or allow photos, and we hear that the outfit has even managed to get one employee sacked for his “disobedience” throughout the course of the show.
We just don’t get it – giving someone the latest thing everyone wants to know about only to order him/them not to show it is just plain silly. Besides, it’s just a piece of hardware which should launch in a couple of weeks, so where’s the crime in taking a photo?
We’d very much like to see Nvidia getting down to business and launch the card ASAP, as actual work on hardware might discourage them from painting a dictator-like face on the company. You know what they say, an idle mind is the devil’s playground. And on that note, here’s a pictorial advice we’ve scribbled while waiting on the airport. Yes, we know it isn't much of a dragon, but neither is Fermi.
[ Voor 21% gewijzigd door Astennu op 11-03-2010 08:19 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nog wat meer plaatjes/info van de GTX470
http://www.pcgameshardwar...n-GF100/Grafikkarte/News/
http://en.expreview.com/2...tx470/6856.html#more-6856



http://www.pcgameshardwar...n-GF100/Grafikkarte/News/
http://en.expreview.com/2...tx470/6856.html#more-6856




[ Voor 64% gewijzigd door luckyjan op 11-03-2010 08:41 ]
Wat toevallig dat die benchmarks nu allemaal in 2500x1600 worden gedaan
Niet op voorraad.
Ik weet wel waaromedward2 schreef op donderdag 11 maart 2010 @ 09:46:
Wat toevallig dat die benchmarks nu allemaal in 2500x1600 worden gedaan
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hmm ik kan me een benchmark herinneren waar de gtx295 crashde op die resolutie..

fake or real?
[ Voor 14% gewijzigd door Xenomorphh op 11-03-2010 10:50 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ja, het zou leuk zijn als straks de 2/4 GB HD 5780 en 5970's ook meegenomen worden in de reviews, eens kijken wat er van het verschil over blijft.
Niet op voorraad.
Tja dit is zo simpel te fotoshoppen. Iedereen weet deze cijfers uit geruchten op net net. Het zou wel mooi zijn als i 512 shaders gaat krijgen. Maar het zou me niets verbazen als het er +-480 zijn.Xenomorphh schreef op donderdag 11 maart 2010 @ 10:37:
[...]
Hmm ik kan me een benchmark herinneren waar de gtx295 crashde op die resolutie..
[afbeelding]
fake or real?
Ja inderdaad.edward2 schreef op donderdag 11 maart 2010 @ 10:51:
[...]
Ja, het zou leuk zijn als straks de 2/4 GB HD 5780 en 5970's ook meegenomen worden in de reviews, eens kijken wat er van het verschil over blijft.
Want 1GB kan daar gewoon wat nadelen hebben tov 2GB. nVidia weet dit. En hun kaarten hebben 1.2 en 1.5gb dus ze zijn dan in het voordeel. En met 8x AA hetzelfde gebruikt allemaal memory.
Dus je kunt past echt goed vergelijken als de 2GB kaarten er ook zijn. Maar die komen er aan. Asus heeft er een op de planning. En er komen ook wat 5970's met 4GB (dus 2gb effectief).
Kunnen weer weer leuk reviews gaan lezen
[ Voor 26% gewijzigd door Astennu op 11-03-2010 10:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Wie zegt dat dat een datum is?
Als het al een datum is, dan meot je je afvragen wat er van 26/03 tot 14/04 is.
Als het al een datum is, dan meot je je afvragen wat er van 26/03 tot 14/04 is.
Een echt aangepast screenshot van een GTX275, de maker liet namelijk zien hoe makkelijk het is om een nep screenshot te maken. Maar de Device ID is van een GTX275 en GPU-z herkend Fermi helemaal nog niet 100%.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Device ID 10DE-05E6: GTX 275Xenomorphh schreef op donderdag 11 maart 2010 @ 10:37:
[...]
Hmm ik kan me een benchmark herinneren waar de gtx295 crashde op die resolutie..
[afbeelding]
fake or real?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Simpel: dat is de volledige periode waarin GTX470/480 kaarten beschikbaar zullen zijn, daarna zijn zijn ze gewoon opJejking schreef op donderdag 11 maart 2010 @ 10:59:
Wie zegt dat dat een datum is?
Als het al een datum is, dan meot je je afvragen wat er van 26/03 tot 14/04 is.
Anoniem: 263922
a) mijn 260 is wel stil, heb wel de koelpasta vervangen, maar dat kan natuurlijk niet iedereen, dus akkoord.Help!!!! schreef op woensdag 10 maart 2010 @ 18:41:
[...]
Ik had de MSI 280gtx super OC, eerst 1tje daarna in SLI
Prima kaarten maar die waren in beide situaties: a) niet stil en b) niet koel en c) niet zuinig.... Dus ik snap die bewering niet dat dit soort dingen "tot nu toe" alleen bij nv werden aangetroffen...
b) fan hoeft dan ook niet zo hard te draaien, maximale temperatuur is net geen 70 graden, idle is 40 graden, deze temperaturen leiden ook tot een betere stabiliteit.
c) zuinig is hij idd niet
Maar 26/03 komt wel uit met wat lltech4 en Marc Rademaker zeggen.Otherside1982 schreef op donderdag 11 maart 2010 @ 15:04:
[...]
Simpel: dat is de volledige periode waarin GTX470/480 kaarten beschikbaar zullen zijn, daarna zijn zijn ze gewoon op
lltech4 zegt 2 weken van te voren worden de GTX480 kaarten naar reviewers gestuurd, Marc zegt dat ie dan al vrijdag binnen moet zijn. Morgen is het 12/04, en 2 weken is gelijk aan 14 dagen, en 12+14=26....
Wat de andere datum is? Geen idee. Release datum Mass-launch GTX480? Of GTX470?? No idea, maar 26/03 is volgens mij wel duidelijk.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ik hoorde net dat nieuwe liedje van Lady GaGa.... pa pa pa paper launch...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CJ schreef op donderdag 11 maart 2010 @ 15:22:
Ik hoorde net dat nieuwe liedje van Lady GaGa.... pa pa pa paper launch...



Gamertag for Xbox: R0SSI
CJ schreef op donderdag 11 maart 2010 @ 15:22:
Ik hoorde net dat nieuwe liedje van Lady GaGa.... pa pa pa paper launch...



Zolang het maar niet pau pau pau pauper launch wordt......

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Goed bezig CJCJ schreef op donderdag 11 maart 2010 @ 15:22:
Ik hoorde net dat nieuwe liedje van Lady GaGa.... pa pa pa paper launch...
Ik had eigenlijk niet anders verwacht.... Ik vraag me nog steeds af hoe The Source er aan komt dat er half april dan ineens 6-7x zo veel kaarten beschikbaar zijn als bij de 4870 launch. Dat zijn er dan dus giga veel. En dan vraag ik me af waar zijn die kaarten nu dan ? waarom brengen ze ze nu niet uit ? Je kunt niet in 2 weken ineens zo veel kaarten maken. Dus ze moeten nu al kaarten hebben willen ze met 6-7x zo veel kaarten komen.
The Source heeft het in het verleden vaak goed gehad. Maar ik begin haast te denken dat die 6-7x niet klopt. (sterker nog dat denk ik al)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik had ook blind vertrouwen in het 6x 7x verhaal..maar een nachtje slapen en wat antwoordende amerikanen maakt een hele hoop duidelijk.Astennu schreef op donderdag 11 maart 2010 @ 15:54:
[...]
Goed bezig CJ
Ik had eigenlijk niet anders verwacht.... Ik vraag me nog steeds af hoe The Source er aan komt dat er half april dan ineens 6-7x zo veel kaarten beschikbaar zijn als bij de 4870 launch. Dat zijn er dan dus giga veel. En dan vraag ik me af waar zijn die kaarten nu dan ? waarom brengen ze ze nu niet uit ? Je kunt niet in 2 weken ineens zo veel kaarten maken. Dus ze moeten nu al kaarten hebben willen ze met 6-7x zo veel kaarten komen.
The Source heeft het in het verleden vaak goed gehad. Maar ik begin haast te denken dat die 6-7x niet klopt. (sterker nog dat denk ik al)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Over paperlaunch gesproken, wanneer komt de lightning er nu?CJ schreef op donderdag 11 maart 2010 @ 15:22:
Ik hoorde net dat nieuwe liedje van Lady GaGa.... pa pa pa paper launch...
Give a man a fire and he'll be warm for the night, set a man on fire and he'll be warm for the rest of his life.
Ja dus ze hebben 7x zoveel kaarten als ATI bij de launch van de HD4870 en HD5870.
Nu moeten ze het wel nog kunnen verkopen
juist ja droom maar lekker verder want waarschijnlijk wil niemand ze hebben voor de prijs waar mee ze gaan komen.
Nu moeten ze het wel nog kunnen verkopen

[ Voor 30% gewijzigd door madmaxnl op 11-03-2010 16:42 ]
Hoe kom je daar bij? Waarom zou Nvidia zich uit markt prijzen? De GT200 prijzen werden ook keurig aangepast hoor na de HD4870 launch, dus verwacht dat dat wel meevalt.madmaxnl schreef op donderdag 11 maart 2010 @ 16:42:
Nu moeten ze het wel nog kunnen verkopenjuist ja droom maar lekker verder want waarschijnlijk wil niemand ze hebben voor de prijs waar mee ze gaan komen.
anathema
Als de GTX470 minstens 300 euro gaat kosten kan Nvidia het schudden. Pak liever een 5870 voor dat geld.
[ Voor 22% gewijzigd door Omnyakom1 op 11-03-2010 17:00 ]
Ja? want jij hebt al reviews gezien hoe deze presteerd?Omnyakom1 schreef op donderdag 11 maart 2010 @ 17:00:
Als de GTX470 minstens 300 euro gaat kosten kan Nvidia het schudden. Pak liever een 5870 voor dat geld.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Op de GTX480 Lightning zal je nog heel eventjes moeten wachten.Majesco schreef op donderdag 11 maart 2010 @ 16:37:
[...]
Over paperlaunch gesproken, wanneer komt de lightning er nu?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wel een verdom klein fannetje weer...neliz schreef op donderdag 11 maart 2010 @ 00:06:
keiharde glitters!
[afbeelding]
http://translate.google.c...rg.mozilla:en-US:official
[afbeelding]
Kom op mijnheer van MSI! doe ook eens een duit in het zakje
edit:
NVIDIA fixed Furby's AA performance.. oops...
[afbeelding]
Herinnert iemand zich de 8800GT nog met de te kleine fan toen?

Darkasantion schreef op donderdag 11 maart 2010 @ 15:18:
[...]
Maar 26/03 komt wel uit met wat lltech4 en Marc Rademaker zeggen.
lltech4 zegt 2 weken van te voren worden de GTX480 kaarten naar reviewers gestuurd, Marc zegt dat ie dan al vrijdag binnen moet zijn. Morgen is het 12/04, en 2 weken is gelijk aan 14 dagen, en 12+14=26....![]()
Wat de andere datum is? Geen idee. Release datum Mass-launch GTX480? Of GTX470?? No idea, maar 26/03 is volgens mij wel duidelijk.
Van 26-3 tot 14-4 is gewoon het Event wat gehouden wordt voor Fermi in 12 steden.A series of technical features from the above description can be felt, NVIDIA will be a next-generation flagship Fermi feelings brought us a new video card, there must be many of my friends are eager to experience this new flagship of the next. To this end, the United Nations GALAXY 12 professional IT media, will be in Beijing, Shanghai, Guangzhou, Harbin, Shenyang, Zhengzhou, Xi'an, Wuhan, Changsha, Hangzhou, Nanjing, Chengdu, organized by the country's 12 largest cities "as the FERMI fever -- 2010 GALAXY high-end player "burn meter" will "activities
Time from the Fermi published in the first days, that began March 26 and they are being launched in major cities. As long as participation in the activity can be the first time, on-site experience Fermi The new card. In addition, GALAXY you participate in activities for players ready HDMI cable, Fermi theme T shirt and other gifts, and can participate in GT240 will be collected free of charge, as well as priority in purchasing Fermi opportunities.
If you are interested in participating in this national large-scale events, you can click on the appropriate region to participate in this "as the FERMI fever - 2010 GALAXY high-end player" burn meter "will."
Fermi GALAXY experience "burn meter"
http://translate.google.c...rg.mozilla:en-US:official
|2600k|Asus 290|
Even wat gerekend. 1GB aan GDDR5 geheugen verbruikt blijkbaar 40Watt op 1.2Ghz. Kijk maar maar naar de toename in verbruikt bij de HD5870 Six versie. RV870 verbruikt dus maximaal ~148Watt.
Een GTX480 heeft 1.5 GB aan geheugen ,en ik denk dat het op zijn minst op 1Ghz werkt. Dat is dus 20% langzamer dan het geheugen op de HD5870, dus zo'n 20% minder verbruik. Dat is dus ongeveer 45Watt aan verbruik voor het geheugen. Uitgaand van een verbruik van 225Watt voor de gehele kaart, verbruikt Fermi dus ~180Watt met 448 CUDA cores..... 38Watt meer dan RV870....
Een GTX480 heeft 1.5 GB aan geheugen ,en ik denk dat het op zijn minst op 1Ghz werkt. Dat is dus 20% langzamer dan het geheugen op de HD5870, dus zo'n 20% minder verbruik. Dat is dus ongeveer 45Watt aan verbruik voor het geheugen. Uitgaand van een verbruik van 225Watt voor de gehele kaart, verbruikt Fermi dus ~180Watt met 448 CUDA cores..... 38Watt meer dan RV870....
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ik praat over mass productie, dus retail availability is ongeveer maand later. Eerste levering vanaf NV pas eind maart. Daarbij heeft nVidia me dat verteld dus het kan zijn dat ze liegen maar lijkt me niet als zij de allocaties met je bespreken. Of ze het waarmaken is weer een 2de. Laten we afwachten.Astennu schreef op donderdag 11 maart 2010 @ 15:54:
[...]
Goed bezig CJ
Ik had eigenlijk niet anders verwacht.... Ik vraag me nog steeds af hoe The Source er aan komt dat er half april dan ineens 6-7x zo veel kaarten beschikbaar zijn als bij de 4870 launch. Dat zijn er dan dus giga veel. En dan vraag ik me af waar zijn die kaarten nu dan ? waarom brengen ze ze nu niet uit ? Je kunt niet in 2 weken ineens zo veel kaarten maken. Dus ze moeten nu al kaarten hebben willen ze met 6-7x zo veel kaarten komen.
The Source heeft het in het verleden vaak goed gehad. Maar ik begin haast te denken dat die 6-7x niet klopt. (sterker nog dat denk ik al)
Anoniem: 263922
Als de performance een stukje hoger ligt is dat nog aardig te verkroppen, al krijgt fermi schijnbaar wel een grotere hit bij AA dan de ati's, daar heeft nvidia zijn koppositie iig al laten schieten als dat klopt.
Daar tegenover zouden de minimum framerates een stukje hoger liggen dan rv870, dat lijkt me persoonlijk van groter belang om lekker te kunnen gamen, al kan dat ook aan de geheugenbuffer liggen.
De 2gb Hd5870 scoort ook zichtbaar hoger, net zoals de 1gb 4870 vs. de 512mb versie.
Daar tegenover zouden de minimum framerates een stukje hoger liggen dan rv870, dat lijkt me persoonlijk van groter belang om lekker te kunnen gamen, al kan dat ook aan de geheugenbuffer liggen.
De 2gb Hd5870 scoort ook zichtbaar hoger, net zoals de 1gb 4870 vs. de 512mb versie.
Ja inderdaad. Nu snap ik waar het vandaan komt. het kan dus best zijn dat nVidia de parkners een beetje te vriend wil houden. Aangezien ze nu al maanden niets laten zien. En de de parkners ook graag nieuwe producten willen introduceren. Maar over een weekje of 8 weten we wat er van waar was. Misschien klopt het wel. Maar er hangt gewoon een negatieve sfeer rond om fermi. Dit klinkt zeg maar te mooi om waar te zijn.The Source schreef op donderdag 11 maart 2010 @ 23:27:
[...]
Ik praat over mass productie, dus retail availability is ongeveer maand later. Eerste levering vanaf NV pas eind maart. Daarbij heeft nVidia me dat verteld dus het kan zijn dat ze liegen maar lijkt me niet als zij de allocaties met je bespreken. Of ze het waarmaken is weer een 2de. Laten we afwachten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
We weten nog niets:Anoniem: 263922 schreef op donderdag 11 maart 2010 @ 23:27:
Als de performance een stukje hoger ligt is dat nog aardig te verkroppen, al krijgt fermi schijnbaar wel een grotere hit bij AA dan de ati's, daar heeft nvidia zijn koppositie iig al laten schieten als dat klopt.
Daar tegenover zouden de minimum framerates een stukje hoger liggen dan rv870, dat lijkt me persoonlijk van groter belang om lekker te kunnen gamen, al kan dat ook aan de geheugenbuffer liggen.
De 2gb Hd5870 scoort ook zichtbaar hoger, net zoals de 1gb 4870 vs. de 512mb versie.
1: We weten niet of die gegevens echt en betrouwbaar zijn
2: We weten niet welke kaart het is
3: Gezien de avg en max fps lijkt het op een hele korte dip bij de 5870. Anders waren de avg max fps verschillen veel groter. Dus impact op de gameplay zal er amper zijn.
4: We weten niet hoe vaak de 5870 zo'n dip heeft misschien is het eenmalig
5: HD5870 1GB heeft zeker 20% minder geheugen als de slechtste GTX4x0 kaart. Misschien heeft een 2GB versie nergens last van. En die kan qua prijs wel eens gelijk zijn. Er van uitgaand dat we het over een GTX470 hebben. Anders is de performance teleurstellend als het een GTX480 is.
Kortom nog veel te veel speculatie om een goede conclusie te trekken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Gaming mousemat inside 
Ben echt benieuwd wat de gtx 480 gaat kosten.
Ben echt benieuwd wat de gtx 480 gaat kosten.
Die doos doet me denken aan dell XPS...

There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Staat geeneens DX11 op die doos.....luckyjan schreef op vrijdag 12 maart 2010 @ 08:41:
Ze zitten al in de doos
[afbeelding]
[afbeelding]
[afbeelding]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Epic was natuurlijk al een tijdje op de hand van NV, maar ze zijn nu ook gezwicht voor 3d Vision.
Nvidia, Epic Announce 3D Added to Unreal Engine
Epic levert 3d vision gratis aan de licencees van de Unreal3 engine. Dat kan alleen maar betekenen dat NV daar aardig voor betaalt.Unreal Engine 3 gets more 3d-ness added to its already existing 3D-osity.
Epic Games today announced at GDC that it has added 3D support to Unreal Engine 3. Yes, it's true that the Unreal Engine is already one that fully account for the third dimension, but the addition that we're talking about today is 3D display with Nvidia's 3D Vision technology.
Today’s announcement means that licensees of Unreal Engine 3 will be able to take full advantage of integrated 3D Vision technology support. Users of the Unreal Development Kit (UDK), a free version of Unreal Engine 3, will also benefit from the addition of 3D Vision support.
Mark Rein, vice president at Epic Games, appeared to be the most excited about this at the time of announcement. "The combination of Unreal Engine 3 and 3D Vision makes already amazing games even more jaw dropping," he said. "If you haven’t seen Unreal Engine 3 in 3D, you won’t believe how realistic it is! We’re excited to offer this technology for free to our licensees and can’t wait to see what people create with it."
En wie zegt dat het niet gewoon lege dozen zijn?luckyjan schreef op vrijdag 12 maart 2010 @ 08:41:
Ze zitten al in de doos
[afbeelding]
[afbeelding]
[afbeelding]
Ik was dus niet de enige met die gedachte, maar met een foto ernaast ben ik geneigd om te zeggen dat het gewoon direct van een xps is afgekeken....Xenomorphh schreef op vrijdag 12 maart 2010 @ 09:08:
Die doos doet me denken aan dell XPS...
[afbeelding]
Nvidia zet de aanval in !
http://www.nvidia.com/object/nv_ftc.html
- De GTX dozen zitten verkeerd in de bruine doos, die kaart die erop ligt past er niet meer bi
- De GTX dozen moeten dwars zitten lijkt mij omdat de GTX doos anders te kort is voor de lengte van de bruine doos
- Op de bruine doos zitten geen etiketten met barcodes, etc.
http://www.nvidia.com/object/nv_ftc.html
Zijn ook lege dozen.FastFred schreef op vrijdag 12 maart 2010 @ 18:50:
[...]
En wie zegt dat het niet gewoon lege dozen zijn?
- De GTX dozen zitten verkeerd in de bruine doos, die kaart die erop ligt past er niet meer bi
- De GTX dozen moeten dwars zitten lijkt mij omdat de GTX doos anders te kort is voor de lengte van de bruine doos
- Op de bruine doos zitten geen etiketten met barcodes, etc.
"Other Government Enforcement Actions Against Intel
Q. What actions were taken against Intel by antitrust agencies in Japan and Korea?
A. In 2005, the Japanese Fair Trade Commission found that Intel abused its monopoly power and imposed a number of restrictions on Intel’s ability to condition the payment of rebates and other financial inducements on the exclusion of rivals.
Likewise, in 2008 the South Korean Fair Trade Commission condemned Intel’s rebating practices and fined Intel approximately $25 million for abusing its monopoly power."
Ze noemen eigenlijk alleen de dingen die AMD hebben geraakt maar doet nVidia dit dan ook niet bij AMD ?
Want nVidia gooit ook gewoon met geld om AMD naast het potje te laten pissen, TWIMTBP is denk ik nog wel de leukste
Dit wint Intel waarschijnlijk toch wel, money is power, power is opportunity and money has lots of opportunities.
AMD had een sterkere zaak als nVidia nu heeft en toch hebben ze de zaak laten vallen en een deal gesloten met Intel. AMD zat wel in geld nood maar ik denk dat dat niet de enige reden was.
Q. What actions were taken against Intel by antitrust agencies in Japan and Korea?
A. In 2005, the Japanese Fair Trade Commission found that Intel abused its monopoly power and imposed a number of restrictions on Intel’s ability to condition the payment of rebates and other financial inducements on the exclusion of rivals.
Likewise, in 2008 the South Korean Fair Trade Commission condemned Intel’s rebating practices and fined Intel approximately $25 million for abusing its monopoly power."
Ze noemen eigenlijk alleen de dingen die AMD hebben geraakt maar doet nVidia dit dan ook niet bij AMD ?
Want nVidia gooit ook gewoon met geld om AMD naast het potje te laten pissen, TWIMTBP is denk ik nog wel de leukste

Dit wint Intel waarschijnlijk toch wel, money is power, power is opportunity and money has lots of opportunities.
AMD had een sterkere zaak als nVidia nu heeft en toch hebben ze de zaak laten vallen en een deal gesloten met Intel. AMD zat wel in geld nood maar ik denk dat dat niet de enige reden was.
[ Voor 10% gewijzigd door madmaxnl op 13-03-2010 00:00 ]
Dit topic is gesloten.