Daarom zweer ik ook bij jouw reactie, een soort van Hyper Treading (Intel CPU) voor de Shader Engines. Lijkt me volkomen logisch eigenlijk.NitroX infinity schreef op woensdag 06 mei 2009 @ 00:31:
Zeg ben ik nou onwetend op dit gebied of zitten er een paar mensen zeer fout te denken?
Een shader engine is toch slechts een onderdeel van een gpu?
nofi maar
frietjemet: GPU's zijn al multicore/manycore whatever
NitroX: ik versta niet wat je bedoelt...
Dual shader engine kan zeer veel betekenissen hebben:
1) 2 dikke alus per pijplijn (ipv 4 kleine + 1 dikke bij de R6xx & R7xx), dit zou de effectief behaalde flops kunnen verhogen maar het is onwaarschijnlijk aangezien AMD meermaals heeft aangetoond dat hun 5D vliw meestal goed benut kan worden.
2) DX11 introduceerd multi-threaded rendering, dat wil zeggen dat er meerdere shader-programma's tegelijkertijd kunnen werken (nu draait er steeds slechts 1 shader). Misschien zal de hardware nu 2 shader-programma's tegelijk kunnen uitvoeren.
3) 2 apparte "shader engines" elk met eigen scheduler, effectief soort van multicore bv 2x 800sp (ik zie het nut hier niet van in tenzij er transmissie problemen zijn op de chip)
4) ipv GPU's gaat men nu over shader engines spreken (de sp's zijn toch 70+% van de chip). Een shader engine kan gecombineerd worden met CPU cores of andere shader engines... => de MCM oplossingen (fusion)
5) ?
frietjemet: GPU's zijn al multicore/manycore whatever
NitroX: ik versta niet wat je bedoelt...
Dual shader engine kan zeer veel betekenissen hebben:
1) 2 dikke alus per pijplijn (ipv 4 kleine + 1 dikke bij de R6xx & R7xx), dit zou de effectief behaalde flops kunnen verhogen maar het is onwaarschijnlijk aangezien AMD meermaals heeft aangetoond dat hun 5D vliw meestal goed benut kan worden.
2) DX11 introduceerd multi-threaded rendering, dat wil zeggen dat er meerdere shader-programma's tegelijkertijd kunnen werken (nu draait er steeds slechts 1 shader). Misschien zal de hardware nu 2 shader-programma's tegelijk kunnen uitvoeren.
3) 2 apparte "shader engines" elk met eigen scheduler, effectief soort van multicore bv 2x 800sp (ik zie het nut hier niet van in tenzij er transmissie problemen zijn op de chip)
4) ipv GPU's gaat men nu over shader engines spreken (de sp's zijn toch 70+% van de chip). Een shader engine kan gecombineerd worden met CPU cores of andere shader engines... => de MCM oplossingen (fusion)
5) ?
@oeLangOetan; puntje 2 komt in de buurt van wat ik bedoelde
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dit gebeurt al om geheugenlatentie te verbergen, de schaal is alleen verschillend met die van CPU's.KiLLaHeRTz schreef op woensdag 06 mei 2009 @ 00:35:
[...]
Daarom zweer ik ook bij jouw reactie, een soort van Hyper Treading (Intel CPU) voor de Shader Engines. Lijkt me volkomen logisch eigenlijk.
Op een core i7, zal op 1 core 2 hardwarethreads draaien. Op een GPU worden op 800 'cores' een paar 1000 'threads' (of wavefronts) gedraaid.
In de RV770 heeft elke SIMD unit al de beschikking over z'n eigen logic control inclusief eigen scheduler. Dus zo vernieuwend zou dit niet zijn. Ook bij nVidia heeft elk streamprocessor blok een eigen scheduler.oeLangOetan schreef op woensdag 06 mei 2009 @ 00:57:
3) 2 apparte "shader engines" elk met eigen scheduler, effectief soort van multicore bv 2x 800sp (ik zie het nut hier niet van in tenzij er transmissie problemen zijn op de chip)
Het zou wel kunnen zijn dat AMD nu een manier heeft gevonden om een tegengewicht te bieden aan de double pumped streamprocessors van nVidia die op meer dan dubbele snelheid van de core (en dus ook die van de scheduler die op core snelheid loopt) draaien. In dit geval zou bv elke shaderunit bij AMD twee keer zo efficient worden bij hetzelfde aantal en dit door de marketingdepartment als "Dual Shader Engine" kunnen worden gepromoot.
Overigens was MCM ook het eerste wat er in mijn hoofd vloog toen ik het hoorde. Het past in ieder geval in de lijn bij de belofte van AMD dat R800 ook weer iets vernieuwends op het gebied van multi-GPU rendering zou brengen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik hoop ook dat hij vernieuwend wordt. Want tot nu toe zijn twee kaarten in CF even snel als een X2 of het verschil is klein.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het snelheidsverschil tussen twee kaarten in CF en een X2 vind ik minder interessant dan een mogelijke afname van verbruik en warmteproductie. Het peak verbruik van 2 4890's in CF loopt behoorlijk op.
Goed nieuws voor AMD/ATi: nVidia schijnt nogal moeite te hebben met het 40nm proces.
Als AMD/ATi het daadwerkelijk lukt om de RV870/R800 vroeg in Q3 op de markt kan brengen, dan kan ATi de performance crown lang in handen (Q3 en Q4 2009) houden.
Bron: http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010It looks like Nvidia engineering is getting right back into its old fighting form once again. The GT300 chip is delayed until 2010, and the GT21x parts seem to be MIA.
The big news is of course the GT300 delay. A few weeks ago it was promising insiders parts in October, a goal that was laughably unrealistic given that the tapeout was set for June. It seems that realism might be poking it's head through the Santa Clara FUD, er... fog, and NV has told those who need to know that it will be Q1 2010 now. Given its timeliness of late, we think it should append a bold "Maybe...." to that though.
...
That brings us to the GT215/216/218. They were set for about now earlier this year, then nothing. The silence is deafening. In fact, the silence is so deafening that Nvidia is jumping up and down talking about mobile 40nm parts now instead. We hear it is having massive 40nm yield problems, something you simply can't have for your intended high volume parts.
Als AMD/ATi het daadwerkelijk lukt om de RV870/R800 vroeg in Q3 op de markt kan brengen, dan kan ATi de performance crown lang in handen (Q3 en Q4 2009) houden.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Dat zou wel nice zijn ja. Maar volgens mij zijn ATi's yields voor de RV740 ook niet super goed. Die hebben ook wel wat problemen gehad met 40nm maar nu wel een goed werkende chip op de markt. Dus de kans is dan groter dat het met de RV870 ook gaat lukken. Echter is dit nooit een garantie er kan nog steeds van alles mis gaan.Indy91 schreef op woensdag 06 mei 2009 @ 10:20:
Goed nieuws voor AMD/ATi: nVidia schijnt nogal moeite te hebben met het 40nm proces.
[...]
Bron: http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010
Als AMD/ATi het daadwerkelijk lukt om de RV870/R800 vroeg in Q3 op de markt kan brengen, dan kan ATi de performance crown lang in handen (Q3 en Q4 2009) houden.
Ik vind het ook vaag dat we niets meer van die GT212 hebben gehoord. De GT200b met 300+ shaders. Misschien geschrapt ? of was die ook op 40nm bedoelt en nu dus ook niet haalbaar ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Vergeet niet de grootte van de chip in rekening te brengen:Astennu schreef op woensdag 06 mei 2009 @ 10:29:
[...]
Dat zou wel nice zijn ja. Maar volgens mij zijn ATi's yields voor de RV740 ook niet super goed. Die hebben ook wel wat problemen gehad met 40nm maar nu wel een goed werkende chip op de markt. Dus de kans is dan groter dat het met de RV870 ook gaat lukken. Echter is dit nooit een garantie er kan nog steeds van alles mis gaan.
Ik vind het ook vaag dat we niets meer van die GT212 hebben gehoord. De GT200b met 300+ shaders. Misschien geschrapt ? of was die ook op 40nm bedoelt en nu dus ook niet haalbaar ?
RV770 is op 55nm 256mm²
GT200b is op 55nm 480mm²
RV740 is op 40nm 134mm²
Yields hebben toch een direct verband met de die size?
AMD heeft waarschijnlijk met een reden begonnen met een kleine die om het proces wat te leren en zo voor de RV870 betere yields te kunnen halen. Denk dat GT200 op 40nm bijna dubbel zo groot is als RV740. Logisch toch dat de yield hiervoor veel slechter zullen zijn. Komt nog eens bij dat de GT300 dubbel zo groot zal zijn dan GT200 dus waarschijnlijk ook dubbel zo groot als RV870. Ik zie niet in hoe Nvidia hier veel zal mee verdienen.
Pfff, Nvidia met al hun shaders...Astennu schreef op woensdag 06 mei 2009 @ 10:29:
[...]
Dat zou wel nice zijn ja. Maar volgens mij zijn ATi's yields voor de RV740 ook niet super goed. Die hebben ook wel wat problemen gehad met 40nm maar nu wel een goed werkende chip op de markt. Dus de kans is dan groter dat het met de RV870 ook gaat lukken. Echter is dit nooit een garantie er kan nog steeds van alles mis gaan.
Ik vind het ook vaag dat we niets meer van die GT212 hebben gehoord. De GT200b met 300+ shaders. Misschien geschrapt ? of was die ook op 40nm bedoelt en nu dus ook niet haalbaar ?
Als je ziet hoe klein het verschil is tussen al hun GT200 kaarten, ze zijn beter dat ze de clockspeeds wat naar boven gooien ipv altijd maar shaders toe te voegen.
Het verschil tussen bvb een GTX260 192, GTX260 216 en GTX260 240(aka 275) vind ik maar klein, een OC'ed GTX260 192 doet maar zeer weinig onder voor een 275...
Ati heeft het deze keer beter voor mekaar. 4870 1GB met een flinke OC en olé, ze hebben een kaart die sneller is als de 275 in veel gevallen, en nog is OC'ed als een gek...
Als ze enkel de RV770 op 40nm bakken, kunnen ze nog hogere snelheden halen met een minder verbruik, en dan hebben ze zelfs nog niks gedaan aan hun architectuur.
RV870, bring it on!
iPhone 12 | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD
Is de RV740 niet (naast een gewild stukje silicon) een belangrijke proeftuin voor het 40nm proces? Met deze techniek stoeien kan de RV870 ten goede komen. NV heeft (als het tape-out verhaal waar is) hier schijnbaar meer moeite mee.
Lijkt mij wel. De RV740 is qua oppervlak niet groot, dus als de yields niet zo best zijn is het probleem niet zo groot, er blijven er toch genoeg over. In geval van de RV870 blijven er weinig goede over.Edmin schreef op woensdag 06 mei 2009 @ 11:13:
Is de RV740 niet (naast een gewild stukje silicon) een belangrijke proeftuin voor het 40nm proces? Met deze techniek stoeien kan de RV870 ten goede komen. NV heeft (als het tape-out verhaal waar is) hier schijnbaar meer moeite mee.
Tesla Model 3 SR+ | 4425wp (Dak) - 1920wp (platdak) - 840wp (gevel 90gr) | Panasonic 5kW warmtepomp | Hewalex WPB 200L boiler
Jep dit is ook zo. Maar dit is de stratagie van AMD. Als je naar het verleden kijkt zou je zeggen dat ze een HD4350 achtige chip zouden maken om dit te testen. Echter hebben ze dit keer een relatief grote chip gepakt.penetreerbeer schreef op woensdag 06 mei 2009 @ 10:55:
[...]
Vergeet niet de grootte van de chip in rekening te brengen:
RV770 is op 55nm 256mm²
GT200b is op 55nm 480mm²
RV740 is op 40nm 134mm²
Yields hebben toch een direct verband met de die size?
AMD heeft waarschijnlijk met een reden begonnen met een kleine die om het proces wat te leren en zo voor de RV870 betere yields te kunnen halen. Denk dat GT200 op 40nm bijna dubbel zo groot is als RV740. Logisch toch dat de yield hiervoor veel slechter zullen zijn. Komt nog eens bij dat de GT300 dubbel zo groot zal zijn dan GT200 dus waarschijnlijk ook dubbel zo groot als RV870. Ik zie niet in hoe Nvidia hier veel zal mee verdienen.
En inderdaad hoe groter de chip hoe groter de kans dat er stukken niet goed werken of dat de hele chip weg moet. Daarom zitten er meestal meer shaders in voor redundancy.
Ja dat is het ookEdmin schreef op woensdag 06 mei 2009 @ 11:13:
Is de RV740 niet (naast een gewild stukje silicon) een belangrijke proeftuin voor het 40nm proces? Met deze techniek stoeien kan de RV870 ten goede komen. NV heeft (als het tape-out verhaal waar is) hier schijnbaar meer moeite mee.
Ik denk dat ze bij AMD heel blij zijn dat de RV740 al zo goed werkt. Echter weten we natuurlijk niet hoeveel % van die chips die op een waver zitten goed werken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Misschien zal AMD dit aangrijpen om eens lekker marge te gaan maken op die RV870. Als deze echt weer een grote sprong voorwaarts is zou het me niets verbazen als de prijs weer richting de 500 of 550 euro gaat. Als er lange tijd geen weerstand geboden wordt door nVidia in het high-end segment kun je de prijs langdurig hoog houden (zie ook de 8800GTX van nVidia).Astennu schreef op woensdag 06 mei 2009 @ 10:29:
[...]
Dat zou wel nice zijn ja. Maar volgens mij zijn ATi's yields voor de RV740 ook niet super goed. Die hebben ook wel wat problemen gehad met 40nm maar nu wel een goed werkende chip op de markt. Dus de kans is dan groter dat het met de RV870 ook gaat lukken. Echter is dit nooit een garantie er kan nog steeds van alles mis gaan.
Ik vind het ook vaag dat we niets meer van die GT212 hebben gehoord. De GT200b met 300+ shaders. Misschien geschrapt ? of was die ook op 40nm bedoelt en nu dus ook niet haalbaar ?
Goud is geen geld
Ik denk het niet. Want dan heb je wel altijd performance TOV de HD4890/ HD4870 X2 en de GTX285 en de GTX295. Ik verwacht performance rond de HD4870 X2 en zelfs iets hoger. (15-25% meer eigenlijk meer een HD4890 in CF). Dus ik gok dat hij dan 400-450 zou gaan kosten. Tot dat nVidia met een concurerende kaart komt. En dat hij langzaam naar de 300 zakt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik zie ook niet in waarom ATI zijn prijs laag zou houden (onder de €500) als nVidia een lange tijd niks heeft om er tegenover te plaatsen. Je moet blijven beseffen dat ATI in staat voor z'n eigen winsten, niet voor de consument, alhoewel dat wel zo leek met hun HD4000-offensief van de laatste 11 maanden.
Zoveel mogelijk klanten van nV afpakken...DevilsProphet schreef op woensdag 06 mei 2009 @ 13:16:
Ik zie ook niet in waarom ATI zijn prijs laag zou houden (onder de €500) als nVidia een lange tijd niks heeft om er tegenover te plaatsen.
Als die GT300 pas in 2010 komt en de HD5x00 serie komt over 2 tot 4 maanden, dan heeft nV een heel, héél groot probleem... Dat gaat ze echt héél veel klanten kosten. Vooral in de decembermaand... Zelfs nV die-hards zullen dan voor een HD5x00 gaan... Ik iig wel.
Na mij laatste ervaring met de HD4870X2 heb ik wel vertrouwen in ATiMD.
[ Voor 15% gewijzigd door Format-C op 06-05-2009 13:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Tuurlijk maar als de kaart een performance heeft die stel 30% hoger is als die van een HD4870 X2 ga je er geen 500 euro voor vragen. Aangezien je voor 350 euro een kaart hebt die maar 30% trager is. DX11 is niet genoeg om die prijs te verantwoorden. Daarom gok ik eerder op 400-450. + wat rappie ook zegt. Als ATi de kaart goedkoop verkoopt en hij echt snel is. Lopen veel nVidia GTX285 en GTX295 klanten misschien wel over. En die zijn misschien niet gek genoeg om straks weer een GT300 te kopen.DevilsProphet schreef op woensdag 06 mei 2009 @ 13:16:
Ik zie ook niet in waarom ATI zijn prijs laag zou houden (onder de €500) als nVidia een lange tijd niks heeft om er tegenover te plaatsen. Je moet blijven beseffen dat ATI in staat voor z'n eigen winsten, niet voor de consument, alhoewel dat wel zo leek met hun HD4000-offensief van de laatste 11 maanden.
[ Voor 13% gewijzigd door Astennu op 06-05-2009 13:33 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het heeft imho ook te maken met de marktpositie van beide partijen. NV heeft (en had zeker ten tijde van de G80) een veel groter marktaandeel dan ATi. Dan kun je inderdaad een hoge prijs voor je kaart vragen. Daar werd NV bij de G80 goed bij geholpen door de dure R600, die ATi niet goed in prijs kon verlagen.
Andersom heeft ATi heel wat marktaandeel te winnen als het prestatieverschil in dezelfde prijsklasse oploopt. NV maakt snelle kaarten, maar ze zijn duur om te maken. Dat maakt het voor ATi des te aantrekkelijker om scherp te blijven prijzen. Veel gamers moeten toch een beetje over de streep getrokken worden om van NV af te stappen (al lijkt het soms meer op trekken aan een dood paard, zo koppig als sommigen zijn).
Andersom heeft ATi heel wat marktaandeel te winnen als het prestatieverschil in dezelfde prijsklasse oploopt. NV maakt snelle kaarten, maar ze zijn duur om te maken. Dat maakt het voor ATi des te aantrekkelijker om scherp te blijven prijzen. Veel gamers moeten toch een beetje over de streep getrokken worden om van NV af te stappen (al lijkt het soms meer op trekken aan een dood paard, zo koppig als sommigen zijn).
De MSI HD4890 Cyclone:


Met solid state caps en chokes. Mogelijk nog een kaart die stock al 1 GHz loopt. En mogelijk nog aardig wat verder kan clocken door de high end componenten op het PCB. Je ziet duidelijk verschil met de stock HD4890 onderdelen.
Met stock al een mooie Accelero Xtreme cooler er op en high end parts voor een dikke oc. 2x HD5870 op 1000 MHz of zo


Met solid state caps en chokes. Mogelijk nog een kaart die stock al 1 GHz loopt. En mogelijk nog aardig wat verder kan clocken door de high end componenten op het PCB. Je ziet duidelijk verschil met de stock HD4890 onderdelen.
Het lijkt mij wel een leuke OC kaart. Ik hoop dat er ook dit soort Extreme editions van de HD5870 X2 komenThe R4890 Cyclone
MSI is working on a special HD 4890 card that should feature, Hi-C cpas, Solid State Chokes NCC PSF solid caps and of course non-reference cooler. The card should be called MSI R4890 Cyclone and we expect it to be quite an overclocker.
The new MSI HD 4890 will use Hi-C caps around the GPU which should enable it to have clean and stable power for the GPU, and it should imply that this one might be a very good overclocker. The rest of the known features include Solid State Chokes, also known as the anti buzz chokes, and NCC PSF solid caps.
The card will be cooled by MSI's well known SuperPipe cooler which uses 8mm heatpipes, and according to the picture which we managed to get, it will have four of these.
The card should be ready in time for Computex show, and this might be another card with a GPU clock set at 1GHz, but it is still early to talk about clocks as the card is still under development.
Here are some pictures of the MSI R4890 Cyclone, which will show its face at Computex show in Taiwan.
[ Voor 58% gewijzigd door Astennu op 06-05-2009 14:20 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 286793
Azerty heeft nu ook op hun site xfx hd 4890 black edition staan die op 1 ghz loopt.
Ik zat eerst te denken om meteen een hd5870 als hij uitkomt maar als hij 400 euro gaat kosten vind ik het toch echt te duur worden. Als ik kijk naar hou verschrikkelijk goedkoop de hd4770 is en hoe goed deze presteert verwacht ik veel van de hd5870.
Als je gewoon puur kijkt naar de die size van de rv740 is die bijna 2x zo klein als de rv 770. En nog steeds 640 shaders. Als we de die size verdubbelen dan komen we ongeveer op de grootte van een rv770. Maar dan wel met 1280 shaders. Natuurlijk zit je met het probleem van de yields die zijn namelijk 2x zo klein (op dit moment nog). Maar als ik kijk naar de prijs van de hd4770 zijn de yields helemaal niet zo verschrikkelijk laag.
Amd kan nu natuurlijk wel die hd5870 flink hoog gaan prijzen maar dat heeft niet zo heel veel zin. Vooral in deze tijd is dat geen strategische zet. Die paar enthusiasts die dat ding kopen bedekken dan maar een procent van de markt. Als amd dit product scherp prijst trek je veel meer mensen. En het is mogelijk. Ze kunnen een gpu maken die ongelooflijk goed presteert voor niet al te veel geld. Ze kunnen gaan kiezen tussen de beste prijs/prestatie of beste prestatie. Ik denk dat de hd 5870 niet al te duur wordt en dat ze de hd5870x2 gebruiken als flagship om de nV diehards te lokken.
En ja de gt300 gaat natuurlijk sneller worden dan de rv 870. Maar tegen die tijd kan amd vlug een nieuwe gpu klaar maken voor launch zoals een hd5890(x2) met hoog oc-potentieel.
Ik zat eerst te denken om meteen een hd5870 als hij uitkomt maar als hij 400 euro gaat kosten vind ik het toch echt te duur worden. Als ik kijk naar hou verschrikkelijk goedkoop de hd4770 is en hoe goed deze presteert verwacht ik veel van de hd5870.
Als je gewoon puur kijkt naar de die size van de rv740 is die bijna 2x zo klein als de rv 770. En nog steeds 640 shaders. Als we de die size verdubbelen dan komen we ongeveer op de grootte van een rv770. Maar dan wel met 1280 shaders. Natuurlijk zit je met het probleem van de yields die zijn namelijk 2x zo klein (op dit moment nog). Maar als ik kijk naar de prijs van de hd4770 zijn de yields helemaal niet zo verschrikkelijk laag.
Amd kan nu natuurlijk wel die hd5870 flink hoog gaan prijzen maar dat heeft niet zo heel veel zin. Vooral in deze tijd is dat geen strategische zet. Die paar enthusiasts die dat ding kopen bedekken dan maar een procent van de markt. Als amd dit product scherp prijst trek je veel meer mensen. En het is mogelijk. Ze kunnen een gpu maken die ongelooflijk goed presteert voor niet al te veel geld. Ze kunnen gaan kiezen tussen de beste prijs/prestatie of beste prestatie. Ik denk dat de hd 5870 niet al te duur wordt en dat ze de hd5870x2 gebruiken als flagship om de nV diehards te lokken.
En ja de gt300 gaat natuurlijk sneller worden dan de rv 870. Maar tegen die tijd kan amd vlug een nieuwe gpu klaar maken voor launch zoals een hd5890(x2) met hoog oc-potentieel.
Nee, dat verband is maar deels aanwezig. "Vroeger" was yield inderdaad een productieprobleem. Er zitten nu eenmaal onvolkomenheden in elke wafer met chips die je bakt, en dat betekent dat je sowieso een aantal chips zult moeten weggooien. Dit was echter in de tijd dat de hoeveelheid transistoren nog in de honderdduizenden liep en procedee's nog in um ipv nm werden gemeten. Nu transistoren steeds kleiner worden en chips steeds complexer is yield steeds meer een designprobleem geworden.penetreerbeer schreef op woensdag 06 mei 2009 @ 10:55:
[...]
Vergeet niet de grootte van de chip in rekening te brengen:
RV770 is op 55nm 256mm²
GT200b is op 55nm 480mm²
RV740 is op 40nm 134mm²
Yields hebben toch een direct verband met de die size?
AMD heeft waarschijnlijk met een reden begonnen met een kleine die om het proces wat te leren en zo voor de RV870 betere yields te kunnen halen. Denk dat GT200 op 40nm bijna dubbel zo groot is als RV740. Logisch toch dat de yield hiervoor veel slechter zullen zijn. Komt nog eens bij dat de GT300 dubbel zo groot zal zijn dan GT200 dus waarschijnlijk ook dubbel zo groot als RV870. Ik zie niet in hoe Nvidia hier veel zal mee verdienen.
Het gevolg is dat het prima mogelijk is dat een 134mm2 RV740 slechtere yield heeft dan een 231mm2 G92b, dat op een volwassener procedee wordt gebakken en ondertussen ook vast is gereviseerd om yield te verhogen. Het hoeft absoluut niet, maar zolang we als gewone consument geen informatie over dit soort zaken krijgen is er maar weinig te zeggen over yield van verschillende chips, ongeacht hun grootte.
Zoals CJ al heeft aangegeven bestaat elke RV770 al uit meerdere cores die onafhankelijk van elkaar aan verschillende threads kunnen werken. Dit betekent dat deze door jou omschreven shader engines al lang zo bestaan. Daarnaast heb je absoluut ongelijk met je opmerking dat er maar 1 shader tegelijk draait. Er kunnen honderden of zelf duizenden verschillende threads tegelijk draaien op een moderne GPU, en die kunnen allemaal gebruik maken van verschillende shadercode.oeLangOetan schreef op woensdag 06 mei 2009 @ 00:57:
2) DX11 introduceerd multi-threaded rendering, dat wil zeggen dat er meerdere shader-programma's tegelijkertijd kunnen werken (nu draait er steeds slechts 1 shader). Misschien zal de hardware nu 2 shader-programma's tegelijk kunnen uitvoeren.
3) 2 apparte "shader engines" elk met eigen scheduler, effectief soort van multicore bv 2x 800sp (ik zie het nut hier niet van in tenzij er transmissie problemen zijn op de chip)
Niemand weet wat die kaart gaat kosten. Het kan best dat AMD em voor 350 gaat verkopen. Maar vergeet AUB niet dat de HD5870 High end is. HD5850 zal goedkoper zijn en de HD5650/HD5670 nog goedkoper. Echter is het de vraag wanneer die gaan uitkomen. Als eerste zal de high end kaart uitkomen. En dan vind ik het best normaal dat je daar 400 euro voor neer moet leggen. Voorheen was dit 600 dus dan is 400 al erg netjes. De HD4870 was @ start ook 300 euro. Nu inmiddels niet meer. Door hevige concurrentie. Maar zo gaat dat altijd die kaarten worden in de loop van de tijd goedkoper.Anoniem: 286793 schreef op woensdag 06 mei 2009 @ 14:47:
Azerty heeft nu ook op hun site xfx hd 4890 black edition staan die op 1 ghz loopt.
Ik zat eerst te denken om meteen een hd5870 als hij uitkomt maar als hij 400 euro gaat kosten vind ik het toch echt te duur worden. Als ik kijk naar hou verschrikkelijk goedkoop de hd4770 is en hoe goed deze presteert verwacht ik veel van de hd5870.
Als je gewoon puur kijkt naar de die size van de rv740 is die bijna 2x zo klein als de rv 770. En nog steeds 640 shaders. Als we de die size verdubbelen dan komen we ongeveer op de grootte van een rv770. Maar dan wel met 1280 shaders. Natuurlijk zit je met het probleem van de yields die zijn namelijk 2x zo klein (op dit moment nog). Maar als ik kijk naar de prijs van de hd4770 zijn de yields helemaal niet zo verschrikkelijk laag.
Amd kan nu natuurlijk wel die hd5870 flink hoog gaan prijzen maar dat heeft niet zo heel veel zin. Vooral in deze tijd is dat geen strategische zet. Die paar enthusiasts die dat ding kopen bedekken dan maar een procent van de markt. Als amd dit product scherp prijst trek je veel meer mensen. En het is mogelijk. Ze kunnen een gpu maken die ongelooflijk goed presteert voor niet al te veel geld. Ze kunnen gaan kiezen tussen de beste prijs/prestatie of beste prestatie. Ik denk dat de hd 5870 niet al te duur wordt en dat ze de hd5870x2 gebruiken als flagship om de nV diehards te lokken.
En ja de gt300 gaat natuurlijk sneller worden dan de rv 870. Maar tegen die tijd kan amd vlug een nieuwe gpu klaar maken voor launch zoals een hd5890(x2) met hoog oc-potentieel.
En het is ook helemaal niet zeker dat de GT300 sneller is. Het kan zo maar dat ATi iets gevonden heeft waardoor hun performance meer stijgt en ze de GT300 gewoon netjes bijhouden. nVidia heeft wel een voordeel dat ze later zijn want op die manier zorgen ze er gewoon voor dat hun GT300 net even wat hoger geclockt wordt en dus wint. Maar in dat geval kan ATi inderdaad een xx90 versie maken met hogere clocks. 40nm is dan ook wat verder. Misschien hebben ze al een nieuwe revisie van de RV870 chip gemaakt waardoor ze een xx90 uit kunnen brengen die een leuke boost geeft.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik ga er vanuit dat de HD5870 gewoon weer zo'n 250 tot 299 gaat kosten. Net zoals de HD4870 dat was. Als ze dat niet doen denk ik dat consumenten toch achter hun oren krabben en denken van; toedeledokie.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Er werken vele instanties van hetzelde shader programma tegelijkertijd, verschillende shader-programma's werken niet naast elkaar.Snoitkever schreef op woensdag 06 mei 2009 @ 15:10:
[...]
Zoals CJ al heeft aangegeven bestaat elke RV770 al uit meerdere cores die onafhankelijk van elkaar aan verschillende threads kunnen werken. Dit betekent dat deze door jou omschreven shader engines al lang zo bestaan. Daarnaast heb je absoluut ongelijk met je opmerking dat er maar 1 shader tegelijk draait. Er kunnen honderden of zelf duizenden verschillende threads tegelijk draaien op een moderne GPU, en die kunnen allemaal gebruik maken van verschillende shadercode.
/edit uit de cuda documentatie:
Although threads can be run in parallel, kernels are synchronous with one another. This means that multiple kernels cannot execute simultaneously nor can they call other kernels.
[ Voor 13% gewijzigd door oeLangOetan op 06-05-2009 17:26 ]
Tuurlijk niet. Als kaarten nu 200 euro kosten en die kaart is meer dan 2x zo snel mag hij toch best 400 kosten als hij net uit is ? Het hangt allemaal af van de performance die je er voor terug krijgt. High end kaarten hebben nu eenmaal niet de beste prijs prestatie verhouding. Dat krijg je als je het beste van het beste wilt hebbenRappieRappie schreef op woensdag 06 mei 2009 @ 15:31:
Ik ga er vanuit dat de HD5870 gewoon weer zo'n 250 tot 299 gaat kosten. Net zoals de HD4870 dat was. Als ze dat niet doen denk ik dat consumenten toch achter hun oren krabben en denken van; toedeledokie.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar een 4870 kost allang geen 200 euro meer... Ik weet niet meer wat een 4870 bij de introductie koste, ik meen iets van 230 euro? Ik weet nog wel dat een 3870 200 euro koste bij de introductie. Als je hier naar kijk is de uitspraak van RappieRappie niet zo vreemd, ik denk zelfs dat hij wel gelijk heeftAstennu schreef op woensdag 06 mei 2009 @ 16:43:
[...]
Tuurlijk niet. Als kaarten nu 200 euro kosten en die kaart is meer dan 2x zo snel mag hij toch best 400 kosten als hij net uit is ? Het hangt allemaal af van de performance die je er voor terug krijgt. High end kaarten hebben nu eenmaal niet de beste prijs prestatie verhouding. Dat krijg je als je het beste van het beste wilt hebben
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Je geeft zelf aan dat grootte ook de yield beinvloed. En groter hangt automatisch samen met meer transistors. Om welke reden dan ook zal een grotere die zorgen voor lagere yields (als we kijken naar gelijke procedees). (zelfs niet kijkend naar de onvolmaaktheden kan je gewoon minder dies uit een wafer halen met een grotere die)Snoitkever schreef op woensdag 06 mei 2009 @ 14:52:
[...]
Nee, dat verband is maar deels aanwezig. "Vroeger" was yield inderdaad een productieprobleem. Er zitten nu eenmaal onvolkomenheden in elke wafer met chips die je bakt, en dat betekent dat je sowieso een aantal chips zult moeten weggooien. Dit was echter in de tijd dat de hoeveelheid transistoren nog in de honderdduizenden liep en procedee's nog in um ipv nm werden gemeten. Nu transistoren steeds kleiner worden en chips steeds complexer is yield steeds meer een designprobleem geworden.
Het gevolg is dat het prima mogelijk is dat een 134mm2 RV740 slechtere yield heeft dan een 231mm2 G92b, dat op een volwassener procedee wordt gebakken en ondertussen ook vast is gereviseerd om yield te verhogen. Het hoeft absoluut niet, maar zolang we als gewone consument geen informatie over dit soort zaken krijgen is er maar weinig te zeggen over yield van verschillende chips, ongeacht hun grootte.
Wat je bedoeld met designprobleem snap ik niet zo goed. Alle chips van eenzelfde ontwerp (bijv RV870) zijn designsgewijs toch gewoon hetzelfde (niet naar een revisie kijkend). Dus is de enige bepalende factor het productieproces.
Volgens mij was de HD4870 bij introductie tegen de 300 aan. Adviesprijs was ook 299 dollar. Dus 280 euro. En de HD4890 kost nu wel 210 euro. En dat is nu het top model niet de HD4870.StefanvanGelder schreef op woensdag 06 mei 2009 @ 16:51:
[...]
Maar een 4870 kost allang geen 200 euro meer... Ik weet niet meer wat een 4870 bij de introductie koste, ik meen iets van 230 euro? Ik weet nog wel dat een 3870 200 euro koste bij de introductie. Als je hier naar kijk is de uitspraak van RappieRappie niet zo vreemd, ik denk zelfs dat hij wel gelijk heeft
Ik ben nu ook een HD4770 aan het testen. Die gaat de HD3870 in de PC van mijn pa vervangen of als hij het heel goed doet mijn HD4850. Maar dan moet hij wel 1000 core en iets van 1000 mem gaan halen wil i dat doen en dat verwacht ik eerlijk gezegd niet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met de huidige strategie van ATI dat highend een dual-card versie is en mainstream-performance een single kaart lijkt het me dat een HD5870 weer zo'n 250 gaat kosten en HD5870-X2 450 euro.
Helaas komt nvidia wellicht pas veel later met zijn nieuwe generatie las ik, dus dat zal de prijs wel niet ten goede komen..
Helaas komt nvidia wellicht pas veel later met zijn nieuwe generatie las ik, dus dat zal de prijs wel niet ten goede komen..
anathema
Ik ben erg benieuwd hoe het nV verhaal met de tap-out gaat uitpakken, het zou wel een goed moment voor ATi zijn als dit echt zo is. Dan kunnen ze van de HD5xxx range de prijs in het begin iets hoger leggen ( mits de prestaties erna zijn natuurlijk.. ). En als nV op de markt komt, op de release dag van hun gewoon de prijs omlaag duwen
Op deze manier kunnen ze lekker wat geld maken wat ze zeker nodig hebben.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Anoniem: 286793
Het is onwaarschijnlijk dat de hd5870 meteen 400 euro gaat kosten. Ook al is nV laat met de gt 300. Zou dankzij dat ineens meer mensen high-end kaarten gaan kopen? Omdat nV laat is koopt iedereen maar een 400 euro gpu? Dat slaat totaal nergens op. Ja, enthusiasts. Maar die beslaan echt een heel klein gedeelte van de markt. De meeste gamers willen gewoon goede prijs/kwaliteit. Daarom is amd nu marktaandeel aan het winnen. Zij spelen daar handig op in. Core I7 is voor veel mensen te duur. Ook nV is op dit moment hard aan het zuigen op low-end. Waarom zou ati nu ineens kiezen voor een andere strategie die voor geen meter werkt? Waarom zouden ze eerst kijken naar hoeveel succes ze hebben gehad met de rv770 en vervolgens daaruit afleiden dat ze duurdere gpu's moeten gaan maken want ja, dat wil iedereen toch? Niet dus. Ati heeft dat al heel lang door.
Ati wil gewoon een grote nettowinst en meestal gaat dat gepaard met lage prijzen en een hoge omzet. En ja die fps-diehards zitten al heel lang bij nVidia omdat ze denken dat nVidia nog steeds de snelste gpu's heeft. Kijk maar naar de de verkopen van de gtx 295. Maar wat voor antwoord heeft amd daar nu ook alweer op? Eindigt het soms op ''x2''?
@astennu 1ghz ga je op die core niet halen. Misschien met waterkoeling. Maar dan zelfs: heel misschien. 900 mhz haal je met geluk en 850 haal je sowieso. 1ghz op de memory is zeker weten wel te doen.
Ati wil gewoon een grote nettowinst en meestal gaat dat gepaard met lage prijzen en een hoge omzet. En ja die fps-diehards zitten al heel lang bij nVidia omdat ze denken dat nVidia nog steeds de snelste gpu's heeft. Kijk maar naar de de verkopen van de gtx 295. Maar wat voor antwoord heeft amd daar nu ook alweer op? Eindigt het soms op ''x2''?
@astennu 1ghz ga je op die core niet halen. Misschien met waterkoeling. Maar dan zelfs: heel misschien. 900 mhz haal je met geluk en 850 haal je sowieso. 1ghz op de memory is zeker weten wel te doen.
[ Voor 7% gewijzigd door Anoniem: 286793 op 06-05-2009 18:53 ]
In CUDA kan dat niet, maar in GLSL kan je wel verschillende types shaders tegelijk draaien (bijvoorbeeld ARB_fragment_shader met ARB_vertex_program). Je kan ook gewoon meerdere shaders in een program object stoppen, met het enige verschil dat er maar een main() mag zijn (in GLSL tenminste).oeLangOetan schreef op woensdag 06 mei 2009 @ 16:31:
[...]
Er werken vele instanties van hetzelde shader programma tegelijkertijd, verschillende shader-programma's werken niet naast elkaar.
/edit uit de cuda documentatie:
[...]
edit:
Dit is natuurlijk alleen vanuit de software-kant bekeken voor een relatieve fixed-function shader oplossing zoals ook in DirectX voor versie 10 was, maar de unified shaders op bijvoorbeeld de G80 kunnen meerdere shaderprogramma's tegelijk draaien. Zo doet de implementatie van DirectX 9 het ook op de G80, waar pixel shaders, vertex shaders en dergelijke tegelijk draaien en de hoeveelheid SP's die ze gebruiken kan variëren al naar gelang de workload.
Dit is natuurlijk alleen vanuit de software-kant bekeken voor een relatieve fixed-function shader oplossing zoals ook in DirectX voor versie 10 was, maar de unified shaders op bijvoorbeeld de G80 kunnen meerdere shaderprogramma's tegelijk draaien. Zo doet de implementatie van DirectX 9 het ook op de G80, waar pixel shaders, vertex shaders en dergelijke tegelijk draaien en de hoeveelheid SP's die ze gebruiken kan variëren al naar gelang de workload.
[ Voor 28% gewijzigd door TGEN op 06-05-2009 18:56 ]
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Niet super goed, die zijn mega slecht. Het was net geen paper launch van ATI, maar ze hebben een leuke PR stunt gedaan. Volumes komen pas in July / August op de markt en de echt ramp-up komt pas in laat Q3. Dit is voor het eerst dat het VGA productie proces voorloopt op het CPU productie proces. Intel gaat in Q4 pas over nar 32nm. Erg interessante stap van AMD !Astennu schreef op woensdag 06 mei 2009 @ 10:29:
[...]
Dat zou wel nice zijn ja. Maar volgens mij zijn ATi's yields voor de RV740 ook niet super goed.
Om het daaruit nog verder te trekken: Heeft de CPU-divisie iets aan de kennis die nu met 40nm GPU's wordt opgedaan?
De hardware kan niet synchroniseren tussen verschillende shader programma's dus wordt alles sequentieel afgehandeld, de synchronisatie gebeurd door de cpu of globale scheduler, de abstracties in de api's zijn goed genoeg om dit efficiënt te verbergen & optimaliseren.TGEN schreef op woensdag 06 mei 2009 @ 18:52:
[...]
In CUDA kan dat niet, maar in GLSL kan je wel verschillende types shaders tegelijk draaien (bijvoorbeeld ARB_fragment_shader met ARB_vertex_program). Je kan ook gewoon meerdere shaders in een program object stoppen, met het enige verschil dat er maar een main() mag zijn (in GLSL tenminste).
edit:
Dit is natuurlijk alleen vanuit de software-kant bekeken voor een relatieve fixed-function shader oplossing zoals ook in DirectX voor versie 10 was, maar de unified shaders op bijvoorbeeld de G80 kunnen meerdere shaderprogramma's tegelijk draaien. Zo doet de implementatie van DirectX 9 het ook op de G80, waar pixel shaders, vertex shaders en dergelijke tegelijk draaien en de hoeveelheid SP's die ze gebruiken kan variëren al naar gelang de workload.
Denk er eens goed over na, 2 shader programmas naast elkaar draaien heeft enkel nadelen voor de caches, voorspelbaarheid van geheugenopdrachten. GPU's zouden een echte instructiecache moeten hebben, dat is nu nog niet beschikbaar, een goede instructiecache heeft ook goede prefetch HW etc.
Maar er zijn wel nieuwe mogelijkheden mochten meerdere shaderprogramma's naast elkaar kunnen draaien. Producer-consumers op gpu, die efficiënt met elkaar kunnen communiceren & synchroniseren maar dan komen ook de typische problemen van multi-threaded programma's naar boven (race condities, deadlocks etc).
Ja dat is denk ik ook de rede dat die chips vaak niet al te hard willen sommige doen het erg goed en halen 900+ zonder problemen.The Source schreef op woensdag 06 mei 2009 @ 19:11:
[...]
Niet super goed, die zijn mega slecht. Het was net geen paper launch van ATI, maar ze hebben een leuke PR stunt gedaan. Volumes komen pas in July / August op de markt en de echt ramp-up komt pas in laat Q3. Dit is voor het eerst dat het VGA productie proces voorloopt op het CPU productie proces. Intel gaat in Q4 pas over nar 32nm. Erg interessante stap van AMD !
Zelf zit ik met stock volts max op 860-1115 zonder hogere fan speed of iets. Niet heel slecht maar ook niet heel goed. Met hogere voltages wil 900 core wel werken (1.15v ipv 1.05). Hogere voltages gaan juist meer problemen geven bij de kaart die ik hier heb. Aangzien RBE nog geen goede support heeft voor deze kaart houd ik het voorlopig bij 860-1115.
Ik heb met furmark getest en ik ging van bijna stock (mem was 50 MHz hoger met de TOP bios van Asus kan ik niet meer lager dan 850
Furmark 1680x1050 750-850:
Score: 3236
FPS Min: 45
FPS Max: 80
FPS Avg: 54
Time: 60000 ms
Naar
To: Furmark 1680x1050 860-1115:
Score: 4185
FPS Min: 60
FPS Max: 100
FPS Avg: 70
Time: 60000 ms
Echt Stock was dus nog iets lager geweest ik gok ergens rond de 3050-3100. Dus een leuke boost voor een kaartje van 89 euro. Met core 800 en mem op 1150 haalde ik 4004 marks. Mem schaalde hier dus erg leuk mee. Nu maar eens gamen en zien wat hij daar doet
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 277804
Das zéker een leuk kaartje! Heb na je post gelezen te hebben ook maar eens zo'n bench gedraaid. Zelfde settings als jij:Naar
To: Furmark 1680x1050 860-1115:
Score: 4185
FPS Min: 60
FPS Max: 100
FPS Avg: 70
Time: 60000 ms
Furmark 1680x1050 700-1100:
Score: 4363
FPS Min: 61
FPS Max: 103
FPS Avg: 73
Time: 60000 ms
Met een HD4850 dan dus. Kaartje van 159 euro toendertijd
In het geval van vertex vs. pixel shaders geldt dat ze elk een eigen datastream hebben, en die komt uit het geheugen. Daarom is dat ook een van de beperkingen van GLSL. Ook in DirectX geldt dat ze verschillende datastreams hebben.oeLangOetan schreef op woensdag 06 mei 2009 @ 19:25:
[...]
De hardware kan niet synchroniseren tussen verschillende shader programma's dus wordt alles sequentieel afgehandeld, de synchronisatie gebeurd door de cpu of globale scheduler, de abstracties in de api's zijn goed genoeg om dit efficiënt te verbergen & optimaliseren.
Denk er eens goed over na, 2 shader programmas naast elkaar draaien heeft enkel nadelen voor de caches, voorspelbaarheid van geheugenopdrachten. GPU's zouden een echte instructiecache moeten hebben, dat is nu nog niet beschikbaar, een goede instructiecache heeft ook goede prefetch HW etc.
Maar er zijn wel nieuwe mogelijkheden mochten meerdere shaderprogramma's naast elkaar kunnen draaien. Producer-consumers op gpu, die efficiënt met elkaar kunnen communiceren & synchroniseren maar dan komen ook de typische problemen van multi-threaded programma's naar boven (race condities, deadlocks etc).
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Ah ja scheelt echt niet veel nee. Mja de vraag is hoe gaat het met games ? de HD3870 haalde op stock speeds ook wat de HD4770 stock haalt in furmark maar in games is de HD3870 een 50% trager.Anoniem: 277804 schreef op woensdag 06 mei 2009 @ 20:54:
[...]
Das zéker een leuk kaartje! Heb na je post gelezen te hebben ook maar eens zo'n bench gedraaid. Zelfde settings als jij:
Furmark 1680x1050 700-1100:
Score: 4363
FPS Min: 61
FPS Max: 103
FPS Avg: 73
Time: 60000 ms
Met een HD4850 dan dus. Kaartje van 159 euro toendertijdScheelt echt geen donder, als je naar FPS kijkt...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 277804
Mooizo, voelde me al een beetje voor lul staan met m'n HD4850Ah ja scheelt echt niet veel nee. Mja de vraag is hoe gaat het met games ? de HD3870 haalde op stock speeds ook wat de HD4770 stock haalt in furmark maar in games is de HD3870 een 50% trager.
Nee, want het is een totaal ander productie proces bij een ander bedrijf. Daar hangen zoveel NDA's aan, zelfs intern bij AMD weten de afdelingen niet waar de andere mee bezig zijn, dit om conflict belangen uit te sluiten. Mooi voorbeeld hiervan is de ontwikkeling van de PS3 CELL processor. De engineers hebben hier zoveel van geleerd dat ze ook de CPU voor de XBOX 360 konden ontwerpen met veel geleende kennis.Edmin schreef op woensdag 06 mei 2009 @ 19:23:
Om het daaruit nog verder te trekken: Heeft de CPU-divisie iets aan de kennis die nu met 40nm GPU's wordt opgedaan?
Ghehe dat kan nog steeds hoorAnoniem: 277804 schreef op woensdag 06 mei 2009 @ 22:56:
[...]
Mooizo, voelde me al een beetje voor lul staan met m'n HD4850
Maar ik houd me HD4850 er ook in hoor
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Er zijn WHQL certified drivers voor Windows 7 te downloaden.... 
Van CatalystMaker:
Today Microsoft started accepting WHQL certification for drivers for Win7, and today we got Catalyst certified! First yet again.
Van CatalystMaker:
Today Microsoft started accepting WHQL certification for drivers for Win7, and today we got Catalyst certified! First yet again.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Toch is een GLSL shader programma met een vertex shader en een fragment shader (en om mijn part nog een geometry shader) erin slechts één programma. Ja, je kunt inderdaad meerdere vertex/fragment/geometry shaders aan één programma toevoegen, maar zoals je zelf al zei mag er slechts één main functie zijn. Je kunt dan met dynamic branching er wel voor zorgen dat je vanuit je main vertex programma verschillende paden kiest voor verschillende vertices. Maar het blijft één programma.TGEN schreef op woensdag 06 mei 2009 @ 18:52:
[...]
In CUDA kan dat niet, maar in GLSL kan je wel verschillende types shaders tegelijk draaien (bijvoorbeeld ARB_fragment_shader met ARB_vertex_program). Je kan ook gewoon meerdere shaders in een program object stoppen, met het enige verschil dat er maar een main() mag zijn (in GLSL tenminste).
edit:
Dit is natuurlijk alleen vanuit de software-kant bekeken voor een relatieve fixed-function shader oplossing zoals ook in DirectX voor versie 10 was, maar de unified shaders op bijvoorbeeld de G80 kunnen meerdere shaderprogramma's tegelijk draaien. Zo doet de implementatie van DirectX 9 het ook op de G80, waar pixel shaders, vertex shaders en dergelijke tegelijk draaien en de hoeveelheid SP's die ze gebruiken kan variëren al naar gelang de workload.
Daarnaast heb je, om efficient van dynamic branching gebruik te maken, een minimale hoeveel pixels (in het geval van een fragment shader) naast elkaar nodig, anders zakt de performance heel hard in. Ik denk (maar ik weet dat niet helemaal zeker), dat op een moderne grafische kaart je een patch van 32x32 pixels nodig hebt die allemaal hetzelfde pad kiezen in code met dynamic branching om het efficient uit te laten voeren.
Kortom: er draait slechts één shader programma tegelijk op een gpu. Je kunt wel wat dingen doen met dynamic branching, maar voor alle data geldt dat ze op hetzelfde start punt beginnen (main van vertex/geometry/fragment shader).
The Flying Dutchman
Anoniem: 134818
Het zal vast niet betekenen dat een Shader Processor 2 bewerkingen per klok tik kan. Dat zou wat zijn zeg
.
Ja, grotere chips betekent altijd lagere yields, maar dit is van te voren vrij nauwkeurig te berekenen. Dit zorgt voor een simpele berekening van grootte en performance versus kosten. Ontwerpers kunnen op die manier al vroeg in een project een "budget" krijgen voor de die-size die ze mogen gebruiken en de performance die ze daar uit moeten halen.penetreerbeer schreef op woensdag 06 mei 2009 @ 17:05:
[...]
Je geeft zelf aan dat grootte ook de yield beinvloed. En groter hangt automatisch samen met meer transistors. Om welke reden dan ook zal een grotere die zorgen voor lagere yields (als we kijken naar gelijke procedees). (zelfs niet kijkend naar de onvolmaaktheden kan je gewoon minder dies uit een wafer halen met een grotere die)
Wat je bedoeld met designprobleem snap ik niet zo goed. Alle chips van eenzelfde ontwerp (bijv RV870) zijn designsgewijs toch gewoon hetzelfde (niet naar een revisie kijkend). Dus is de enige bepalende factor het productieproces.
Designproblemen zijn vervelender. Dit is namelijk veel moeilijker in te schatten. Het gaat hier om onnauwkeurigheden die tijdens productie optreden. Ik ben geen expert op dit gebied, maar volgens mij is dit bijvoorbeeld als een lijn niet dik genoeg is zodat er geen stroom door kan. Hoe kleiner de transistoren op een chip worden, hoe sneller dit soort problemen optreden. In die zin is dus niet elke RV870 gelijk, maar kan de ene chip wel prima werken terwijl een andere foutjes bevat waardoor de chip niet goed functioneert.
Om mijn voorbeeld uit de vorige post er bij te pakken, als AMD een slecht ontwerp aflevert kan yield vreselijk zijn, ook al hebben ze dan een kleine chip. Als 40nm dan ook nog eens slechter presteert dan een volwassener procedee als 55nm, en NVIDIA heeft G92b meerdere keren gereviseerd om de grootste ontwerpproblemen er uit te halen zou het dus kunnen zijn dat NVIDIA meer goede chips uit een wafer haalt dan AMD. Het hoeft absoluut niet, en ik denk dat RV740 echt wel een stuk goedkoper is dan G92b, maar alleen de topmensen van ATI en NVIDIA kunnen hier daadwerkelijk antwoord op geven.
Ik ben echt mijn hoofd aan het breken over die dual shader engine... Er zijn twee dingen die enigzins voor de hand lijken te liggen:
1. We krijgen een X2 op een enkele chip, direct aan elkaar vast geknoopt met geshared geheugen. Lijkt me prachtig en een flinke stap voor multi chip oplossingen.
2. Het wordt mogelijk om twee verschillende shader programma's tegelijk te draaien. Dit zou voordelen kunnen hebben voor GPGPU applicaties. Stel je bijvoorbeeld voor dat je een berekening wilt loslaten op een een vector van 100 waarden. Dit zou betekenen dat een aantal shaders ongebruikt blijft (er zijn meer dan 100 shaders op de GPU). Als je ondertussen een andere berekening zou kunnen uitvoeren op een andere serie waarden, dan kan dit veel winst opleveren voor GPGPU (waarschijnlijk minder voor graphics, omdat je daar berekeningen vaak op duizenden pixels tegelijk los laat, waardoor dit probleem minder snel op zal treden).
1. We krijgen een X2 op een enkele chip, direct aan elkaar vast geknoopt met geshared geheugen. Lijkt me prachtig en een flinke stap voor multi chip oplossingen.
2. Het wordt mogelijk om twee verschillende shader programma's tegelijk te draaien. Dit zou voordelen kunnen hebben voor GPGPU applicaties. Stel je bijvoorbeeld voor dat je een berekening wilt loslaten op een een vector van 100 waarden. Dit zou betekenen dat een aantal shaders ongebruikt blijft (er zijn meer dan 100 shaders op de GPU). Als je ondertussen een andere berekening zou kunnen uitvoeren op een andere serie waarden, dan kan dit veel winst opleveren voor GPGPU (waarschijnlijk minder voor graphics, omdat je daar berekeningen vaak op duizenden pixels tegelijk los laat, waardoor dit probleem minder snel op zal treden).
The Flying Dutchman
Probleem van nVidia met het 40nm process heeft echter weinig te doen met de omvang van de chip lijkt me, aangezien het om de budget en midrange chips gaat. Minder shaders, kleinere geheugen bus, kleinere die dus meer gelijkend op de RV740. Dit betekent dus ook dat als ze de veel grotere GT300 gelijk 40nm willen maken, ze een groot probleem hebben.
Aangezien AMD al wel een werkende chip op 40nm de markt op heeft weten te brengen (slechte yields of niet), hebben ze in ieder geval al wel een goede practische ervaring waarmee ze beter in kunnen schatten wat ze met hun RV870 kunnen/moeten doen. Als dat inhoudt dat AMD de HD5k serie inderdaad rond augustus uit kan gaan brengen en nVidia moet wachten tot ergens volgend jaar, dat AMD een vrij grote marge heeft om het marktaandeel te vergroten.
Aangezien AMD al wel een werkende chip op 40nm de markt op heeft weten te brengen (slechte yields of niet), hebben ze in ieder geval al wel een goede practische ervaring waarmee ze beter in kunnen schatten wat ze met hun RV870 kunnen/moeten doen. Als dat inhoudt dat AMD de HD5k serie inderdaad rond augustus uit kan gaan brengen en nVidia moet wachten tot ergens volgend jaar, dat AMD een vrij grote marge heeft om het marktaandeel te vergroten.
Hier zat ik zelf ook aan te denken, het herrangschikken van instructies voor meer effectiviteit enzo!The Flying Dutchman schreef op donderdag 07 mei 2009 @ 12:46:
Ik ben echt mijn hoofd aan het breken over die dual shader engine... Er zijn twee dingen die enigzins voor de hand lijken te liggen:
2. Het wordt mogelijk om twee verschillende shader programma's tegelijk te draaien. Dit zou voordelen kunnen hebben voor GPGPU applicaties. Stel je bijvoorbeeld voor dat je een berekening wilt loslaten op een een vector van 100 waarden. Dit zou betekenen dat een aantal shaders ongebruikt blijft (er zijn meer dan 100 shaders op de GPU). Als je ondertussen een andere berekening zou kunnen uitvoeren op een andere serie waarden, dan kan dit veel winst opleveren voor GPGPU (waarschijnlijk minder voor graphics, omdat je daar berekeningen vaak op duizenden pixels tegelijk los laat, waardoor dit probleem minder snel op zal treden).
Wat noem je een "shader-programma"? Het is inderdaad maar mogelijk om 1 programma tegelijk te draaien dat gebruik maakt van je GPU. Context switches daarbij zijn redelijk duur omdat alle huidige operaties afgemaakt moeten worden en alle gegeven van de cache naar het geheugen moeten, waarna het volgende programma pas aan het werk kan.oeLangOetan schreef op woensdag 06 mei 2009 @ 16:31:
[...]
Er werken vele instanties van hetzelde shader programma tegelijkertijd, verschillende shader-programma's werken niet naast elkaar.
/edit uit de cuda documentatie:
[...]
Bij de term "shader programma" denk ik echter eerder aan een stukje shadercode, en daar zitten echt geen limitaties op hoor. Moderne GPUs hebben duizenden threads tegelijk actief, en elke thread kan theoretisch gezien een eigen stuk shadercode hebben dat uitgevoerd moet worden. Elke van de 30 cores van G200 kan zo met een compleet andere shader bezig zijn (ongeacht of dit een pixel, vertex of geometry shader is). Als een van deze threads een operatie op het geheugen uitvoert wordt deze thread gewoon even opzij geschoven en gaat een andere thread door tot de geheugenoperatie uitgevoerd is, waarna de eerste thread weer verder kan werken.
Sequentieel, op een GPU? Je onderschat een moderne GPU nogal. Elk van de 30 G200 cores heeft een eigen instructiecache, registers voor de huidige operaties en een stuk cache om snel te kunnen wisselen tussen verschillende threads. Elke core kan 1024 threads managen.oeLangOetan schreef op woensdag 06 mei 2009 @ 19:25:
[...]
De hardware kan niet synchroniseren tussen verschillende shader programma's dus wordt alles sequentieel afgehandeld, de synchronisatie gebeurd door de cpu of globale scheduler, de abstracties in de api's zijn goed genoeg om dit efficiënt te verbergen & optimaliseren.
Denk er eens goed over na, 2 shader programmas naast elkaar draaien heeft enkel nadelen voor de caches, voorspelbaarheid van geheugenopdrachten. GPU's zouden een echte instructiecache moeten hebben, dat is nu nog niet beschikbaar, een goede instructiecache heeft ook goede prefetch HW etc.
Maar er zijn wel nieuwe mogelijkheden mochten meerdere shaderprogramma's naast elkaar kunnen draaien. Producer-consumers op gpu, die efficiënt met elkaar kunnen communiceren & synchroniseren maar dan komen ook de typische problemen van multi-threaded programma's naar boven (race condities, deadlocks etc).
Natuurlijk komen multi-threaded problemen niet zomaar voor op een GPU en wel om de simpele reden dat de huidige 3D pipeline gewoon "embarrasingly parallel" is. Er zitten gewoon geen dependencies tussen verschillende threads. Dat neemt niet weg dat in GPGPU inter-thread communicatie en synchronisatie nog steeds gewenst is, en dat kan dan ook allemaal netjes via de gedeelde cache op de core.
Als je denkt dat een GPU net als vroeger een simpele accelerator is voor 3D operaties heb je nodig een "crash course" GPU architectuur nodig. Een moderne GPU is een complexe multicore processor, toegespitst op extreme parallele berekening, die duizenden threads tegelijk "in-flight" heeft en hier tussen (puur hardwarematig) efficient en snel kan wisselen om latency te verbergen.
EDIT: Ditzelfde geldt dus ook voor de dingen die The Flying Dutchman en SpankmasterC claimen. Jullie moeten echt even een lesje GPU design nemen
(graag wel appels met appels vergelijken, dus 40nm ATI vs 40nm Nvidia)Snoitkever schreef op donderdag 07 mei 2009 @ 12:31:
[...]
...
Om mijn voorbeeld uit de vorige post er bij te pakken, als AMD een slecht ontwerp aflevert kan yield vreselijk zijn, ook al hebben ze dan een kleine chip. Als 40nm dan ook nog eens slechter presteert dan een volwassener procedee als 55nm, en NVIDIA heeft G92b meerdere keren gereviseerd om de grootste ontwerpproblemen er uit te halen zou het dus kunnen zijn dat NVIDIA meer goede chips uit een wafer haalt dan AMD. Het hoeft absoluut niet, en ik denk dat RV740 echt wel een stuk goedkoper is dan G92b, maar alleen de topmensen van ATI en NVIDIA kunnen hier daadwerkelijk antwoord op geven.
Misschien is er iemand die wat meer info heeft over hoe chips gebakken worden en waar de problemen dan liggen?
Het is ook perfect mogelijk dat AMD een perfect ontwerp aflevert, maar dat TSMC er gewoon geen weg mee kan en hierdoor slechte yields heeft. Denk maar aan kunststoffenverwerken, hier is het ook mogelijk om het productieproces te verbeteren door de hoeveelheid kunststof te regelen, temperaturen te regelen en samenstelling van grondstof iets te wijzigen (ik spreek hier uit ervaring in de kunststoffen, hier moeten ook alle nieuwe productieprocessen en producten geregeld worden).
Misschien heeft TSMC deze problemen zo goed als opgelost en draait de productie nu op volle toeren (denk dat er hierover al een berichtje is geweest).
Misschien heeft Nvidia een niet zo goed ontwerp afgeleverd waardoor het nog niet mogelijk is om een werkende chip te produceren. En aangezien het ontwerp van ATI beter is concentreren ze zich hierop om het proces te finetunen.
(het is allemaal speculatie hoor, zonder echt verstand van zaken is het moeilijk hierover iets te zeggen)
[ Voor 20% gewijzigd door penetreerbeer op 07-05-2009 14:33 ]
AMD merges processor and graphics biz
AMD and ATI are officially tying the knot after living together in corporate sin for nearly three years.
The company's formerly disparate processor and graphics businesses will merge into one amidst a major reorganization for AMD that will spawn four new operating units. AMD says the goal is to streamline dreaming up chip architectures across the company as well as creating clearer lines of leadership from the firm.
Popular Whitepapers
* The ROI of data governance
Seven ways your data governance program can help you save money
* Corporate Social Responsibility
Six technology tactics to promote CSR in your organisation
* The critical role of data loss prevention
Governance, risk and compliance
* Observing data quality service level agreements
Inspection, monitoring, and tracking
* Bringing Web 2.0 to the Enterprise
Leveraging Social Computing Technologies for ERP Applications
* McLaren Electronics fuels analysis of Formula One racing data with SQL Server
A McLaren case study
(Also, maybe the company's website won't have that silly drop-down menu next to the search bar where you have to select either AMD or ATI. So annoying).
As part of the re-org, Randy Allen - who was in charge of AMD's business of making chips for servers and workstation PCs, an employee since 2001, and a fellow who's always been out there pitching the company's merch to the press - announced he's leaving the company.
AMD said it's still going to drive its tech forward by discrete GPUs and CPUs, but will now be "attacking the market as "one AMD."
Until AMD boss Dirk Meyer contradicts the very claim with his prepared statement:
"The next generation of innovation in the computing industry will be grounded in the fusion of microprocessor and graphics technologies," Meyer stated. "With these changes, we are putting the right organization in place to help enable the future of computing."
AMD's new, dare we say, quad-core operations are as follows:
1. Rick Bergman — formerly charged with the company's GPU product group — is helming a new unified products group. He'll be in charge of fusing the GPU and CPU businesses together. This is clearly the biggest change of the restructure and arguably a long time coming. Among the teams under Bergman will be the Processor Solutions Engineering folks, headed by Jeff VerHeul.
2. There's also an Advanced Technology Group led by Chekib Akrout, which will focus on coming up with future tech.
3. Next is AMD's marketing group, led by Nigel Dessau, in charge of synergizing the go-to market and other forms of sales division whalesong.
4. Finally, there's a customer group led by Emilo Ghilardi who'll deal with putting on a pleasant face for the unwashed masses.
The company didn't provide a reason for Allen's departure, but called him an important engineering leader who's "played a key role in many of AMD's most significant achievements in recent years."
AMD has recently been struggling to find financial footing as it faces a gigantic rival in Intel and a crap economy. Hopefully, some corporate streamlining will make for stronger, faster competition against Chipzilla. ®
Bron: http://www.theregister.co.uk/2009/05/07/amd_merges_with_ati/
AMD and ATI are officially tying the knot after living together in corporate sin for nearly three years.
The company's formerly disparate processor and graphics businesses will merge into one amidst a major reorganization for AMD that will spawn four new operating units. AMD says the goal is to streamline dreaming up chip architectures across the company as well as creating clearer lines of leadership from the firm.
Popular Whitepapers
* The ROI of data governance
Seven ways your data governance program can help you save money
* Corporate Social Responsibility
Six technology tactics to promote CSR in your organisation
* The critical role of data loss prevention
Governance, risk and compliance
* Observing data quality service level agreements
Inspection, monitoring, and tracking
* Bringing Web 2.0 to the Enterprise
Leveraging Social Computing Technologies for ERP Applications
* McLaren Electronics fuels analysis of Formula One racing data with SQL Server
A McLaren case study
(Also, maybe the company's website won't have that silly drop-down menu next to the search bar where you have to select either AMD or ATI. So annoying).
As part of the re-org, Randy Allen - who was in charge of AMD's business of making chips for servers and workstation PCs, an employee since 2001, and a fellow who's always been out there pitching the company's merch to the press - announced he's leaving the company.
AMD said it's still going to drive its tech forward by discrete GPUs and CPUs, but will now be "attacking the market as "one AMD."
Until AMD boss Dirk Meyer contradicts the very claim with his prepared statement:
"The next generation of innovation in the computing industry will be grounded in the fusion of microprocessor and graphics technologies," Meyer stated. "With these changes, we are putting the right organization in place to help enable the future of computing."
AMD's new, dare we say, quad-core operations are as follows:
1. Rick Bergman — formerly charged with the company's GPU product group — is helming a new unified products group. He'll be in charge of fusing the GPU and CPU businesses together. This is clearly the biggest change of the restructure and arguably a long time coming. Among the teams under Bergman will be the Processor Solutions Engineering folks, headed by Jeff VerHeul.
2. There's also an Advanced Technology Group led by Chekib Akrout, which will focus on coming up with future tech.
3. Next is AMD's marketing group, led by Nigel Dessau, in charge of synergizing the go-to market and other forms of sales division whalesong.
4. Finally, there's a customer group led by Emilo Ghilardi who'll deal with putting on a pleasant face for the unwashed masses.
The company didn't provide a reason for Allen's departure, but called him an important engineering leader who's "played a key role in many of AMD's most significant achievements in recent years."
AMD has recently been struggling to find financial footing as it faces a gigantic rival in Intel and a crap economy. Hopefully, some corporate streamlining will make for stronger, faster competition against Chipzilla. ®
Bron: http://www.theregister.co.uk/2009/05/07/amd_merges_with_ati/
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik zweer toch dat ik dit eerder gepost heb, maar een zoektocht naar mijn laatste post in dit forum leert dat die blijkbaar nooit plaats heeft gevonden 
In ieder geval; De 4770 is nu enorm populair, maar ik vraag me af hoe het zit met de 4750? Daar lijkt zo weinig nieuws over te zijn. Dit lijkt mij juist een enorm leuke kaart, vooral als ie nog 2 tientjes goedkoper zou zijn dan zn grotere broer.
Heb al veel gezocht op internet maar nergens lijkt een duidelijke release date te zijn. Op veel plaatsen wordt voor zowel de 4750 als 4770 gesproken over mei. Maar dan zou je toch verwachten dat de 4750 tegelijkertijd uit zou moeten komen als de 4770?
In ieder geval; De 4770 is nu enorm populair, maar ik vraag me af hoe het zit met de 4750? Daar lijkt zo weinig nieuws over te zijn. Dit lijkt mij juist een enorm leuke kaart, vooral als ie nog 2 tientjes goedkoper zou zijn dan zn grotere broer.
Heb al veel gezocht op internet maar nergens lijkt een duidelijke release date te zijn. Op veel plaatsen wordt voor zowel de 4750 als 4770 gesproken over mei. Maar dan zou je toch verwachten dat de 4750 tegelijkertijd uit zou moeten komen als de 4770?
Ik had het ook nog niet eerder gezien dus dacht plaats het maar.spokje schreef op donderdag 07 mei 2009 @ 17:46:
Ik zweer toch dat ik dit eerder gepost heb, maar een zoektocht naar mijn laatste post in dit forum leert dat die blijkbaar nooit plaats heeft gevonden
En nu ook in het NL
[ Voor 19% gewijzigd door -The_Mask- op 07-05-2009 18:54 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
PhysX poll @ anandtech 
http://www.anandtech.com/video/showdoc.aspx?i=3558
Heb ingevuld:
Marginal
Marginal
own physx hw: yes
http://www.anandtech.com/video/showdoc.aspx?i=3558
Heb ingevuld:
Marginal
Marginal
own physx hw: yes
[ Voor 68% gewijzigd door Help!!!! op 07-05-2009 18:51 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Er werd altijd gekeken naar de fusie tussen AMD en ATI als AMD die ATI opkocht... maar nu is de situatie dus ontstaan dat een voormalig ATI-medewerker aan het hoofd komt te staan van de gecombineerde CPU/GPU afdeling. Dus is het nu niet ATI die AMD opgeslokt heeft?-The_Mask- schreef op donderdag 07 mei 2009 @ 17:56:
[...]
Ik had het ook nog niet eerder gezien dus dacht plaats het maar.
En nu ook in het NLnieuws: AMD brengt cpu- en gpu-divisies bijeen
Rick Bergman zette trouwens z'n baan op de tocht door groen licht te geven voor het RV770 project in 2005 en zich er volledig achter te scharen, terwijl er toch veel negatieve geluiden binnen het bedrijf te horen waren die tegen de nieuwe sweet-spot/small die strategy waren. Het is een man die risico durft te nemen en voor wie de GPU business erg veel betekent.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 291245
Zullen we het onzin gedeelte maar overslaan? Als het mis was gegaan wezen de vingers naar Rick..CJ schreef op donderdag 07 mei 2009 @ 20:40:
[...]
Er werd altijd gekeken naar de fusie tussen AMD en ATI als AMD die ATI opkocht... maar nu is de situatie dus ontstaan dat een voormalig ATI-medewerker aan het hoofd komt te staan van de gecombineerde CPU/GPU afdeling. Dus is het nu niet ATI die AMD opgeslokt heeft?
Rick Bergman zette trouwens z'n baan op de tocht door groen licht te geven voor het RV770 project in 2005 en zich er volledig achter te scharen, terwijl er toch veel negatieve geluiden binnen het bedrijf te horen waren die tegen de nieuwe sweet-spot/small die strategy waren. Het is een man die risico durft te nemen en voor wie de GPU business erg veel betekent.
Ben trouwens erg benieuwd wanneer die HD5XXX serie komt. De 4850 is het hier toch net niet..
Waar hebben jullie die 4770's vandaan joh, heb met het ongans gezocht in allerlei winkels... 
Iig, dat wordt m'n volgende kaart... Nu binnen een maand van een Geforce 4 8460, via een x1950 pro naar een 4770... Besmettelijk, dat upgraden...
Iig, dat wordt m'n volgende kaart... Nu binnen een maand van een Geforce 4 8460, via een x1950 pro naar een 4770... Besmettelijk, dat upgraden...
natuurlijk is het nu een succes verhaal dat net zo goed fataal voor hyem had kunnen zijn. dit gebeurt vaker bij mensen die geloven in hun goede ideeen en regelmatig gaat het natuurlijk ook mis.
dit maakt het echter nog geen onzin en dus klopt het in dit geval 100%: de man heeft zijn zin doorgezet en en een enorme goede keus gemaakt blijkt achteraf. en dus ja: de man durft risico's te nemen.
snap je commentaar dan ook niet helemaal. mede hierdoor staat hij nu dus aan het hoofd van de gpu/cpu divisie..... (het blijft echter wel amd, ''het ati neemt achteraf blijkbaar amd over'' gedeelte was een grapje....)
dit maakt het echter nog geen onzin en dus klopt het in dit geval 100%: de man heeft zijn zin doorgezet en en een enorme goede keus gemaakt blijkt achteraf. en dus ja: de man durft risico's te nemen.
snap je commentaar dan ook niet helemaal. mede hierdoor staat hij nu dus aan het hoofd van de gpu/cpu divisie..... (het blijft echter wel amd, ''het ati neemt achteraf blijkbaar amd over'' gedeelte was een grapje....)
http://tweakers.net/price...28=&d727=&d731=&x=10&y=14MikeyMan schreef op donderdag 07 mei 2009 @ 21:21:
Waar hebben jullie die 4770's vandaan joh, heb met het ongans gezocht in allerlei winkels...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik snap die opmerking over onzin verhaal ook niet helemaal.
Rick wist maar al te goed dat alle vingers naar hem zouden wijzen op het moment dat het niet goed zou gaan. Dat blijkt ook zelfs uit het artikel over de RV770 bij Anandtech:
RV770 is een product van erg veel mensen en het was aan Rick om te beslissen of de GPG van AMD zich zou richten op een nieuwe grote monolithic GPU of dat de nieuwe small-die strategie zou worden voortgezet. Hij koos voor de RV770 en nam een risico... niet alleen door voor klein-maar-fijn te gaan. Het had namelijk ook verkeerd kunnen aflopen wanneer GDDR5 nog niet op tijd klaar was. Dus onzin? Misschien in jou ogen... maar ik ken er genoeg voor wie dit absoluut geen onzin was... en nog vele mensen genieten nu nog van het eindproduct.
Rick wist maar al te goed dat alle vingers naar hem zouden wijzen op het moment dat het niet goed zou gaan. Dat blijkt ook zelfs uit het artikel over de RV770 bij Anandtech:
Bron: http://www.anandtech.com/video/showdoc.aspx?i=3469&p=6There were many individuals at ATI that were responsible for the RV770 we know today getting green lighted. ATI’s Rick Bergman was willing to put himself and his career on the line, because if this didn’t work, he’d be one to blame. Carrell recalled a story where Rick Bergman and others were at a table discussing RV770; Rick turned to Matt Skynner and asked him if he thought they could really do it, if they could make RV770 a smaller-than-NVIDIA GPU and still be successful, if it was possible to create a halo in the Performance segment. Matt apparently pondered the question, turned to Rick and said “I think we can”.
Carrell felt that ATI might not have gone down that path if it weren’t for Matt Skynner’s support and Rick Bergman making sure that the project was executed as well as it ended up being.
RV770 is een product van erg veel mensen en het was aan Rick om te beslissen of de GPG van AMD zich zou richten op een nieuwe grote monolithic GPU of dat de nieuwe small-die strategie zou worden voortgezet. Hij koos voor de RV770 en nam een risico... niet alleen door voor klein-maar-fijn te gaan. Het had namelijk ook verkeerd kunnen aflopen wanneer GDDR5 nog niet op tijd klaar was. Dus onzin? Misschien in jou ogen... maar ik ken er genoeg voor wie dit absoluut geen onzin was... en nog vele mensen genieten nu nog van het eindproduct.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zover was ik, maar dan moet je vervolgens eens proberen zo'n ding bij één van die winkels vandaan te halen... Wat in de randstad aan te rijden was, had niks op voorraad...
Waarom niet verzenden kost bij bijna elke winkel minder dan een tientje.MikeyMan schreef op donderdag 07 mei 2009 @ 21:47:
[...]
Zover was ik, maar dan moet je vervolgens eens proberen zo'n ding bij één van die winkels vandaan te halen... Wat in de randstad aan te rijden was, had niks op voorraad...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Sinds wanneer is Ambient Occlusion een exclusieve nVidia feature?
Realtime denk ik he..warp schreef op donderdag 07 mei 2009 @ 22:31:
Sinds wanneer is Ambient Occlusion een exclusieve nVidia feature?
Volgens mij was het tot nu toe ingebakken in games (textures).
Bij sommige games is Ambient Occlusion in de engine ingebouwd, maar voor andere kunnen de nieuwe drivers een significant verschil maken. Voorbeelden hiervan zijn Company of Heroes, World in Conflict, Half-Life 2, World of Warcraft en Mirror's Edge.
[ Voor 3% gewijzigd door Scipionyx op 07-05-2009 22:44 ]
Top 4 Anti-Stress regels:
1) Doe zo weinig mogelijk of laat het anderen doen.
2) Als je plots zin hebt om te werken, ga dan zitten en wacht tot het over gaat.
3) Als je iemand ziet rusten...help hem!!
4) Doe vandaag niet wat morgen kan.
Heeft niets met al dan niet realtime zijn te maken. Ambient Occlusion is gewoon een onderdeel van de DirectX 10.1 specificatie, iets dat alle recente ATi kaarten ondersteunen. Het lijkt mij eerder marketing FUD van nVidia.Scipionyx schreef op donderdag 07 mei 2009 @ 22:42:
Realtime denk ik he..
Volgens mij was het tot nu toe ingebakken in games (textures).
[...]
[ Voor 5% gewijzigd door warp op 07-05-2009 23:00 ]
Ambient Occlusion wordt gerealiseerd met een shader, er zijn implementaties voor dx9, dx10 & dx10.1, er zijn veel varianten van het algoritme.warp schreef op donderdag 07 mei 2009 @ 22:59:
[...]
Heeft niets met al dan niet realtime zijn te maken. Ambient Occlusion is gewoon een onderdeel van de DirectX 10.1 specificatie, iets dat alle recente ATi kaarten ondersteunen. Het lijkt mij eerder marketing FUD van nVidia.
btw ik denk dat halo3 & gears of war 2 AO heeft, voor xbox360 dus dx9
[ Voor 6% gewijzigd door oeLangOetan op 07-05-2009 23:25 ]
Fudzilla komt nu af dat de RV870 waarschijnk niet in Q3 zal uitkomen.
The card that we call RV870, and that should replace RV790 and RV780, won't be launching in Q3. Many have expected that this card will launch either in late Q2 or early Q3, but we are hearing that this card might be pushed to later this year, but that it will instantly come with DirectX 11 support.
This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.
ATI has launched two new cards based on RV740 and RV790, and we don’t expect anything new before back to school, which promises a quite boring Q2 and Q3. Lets hope Q4 will have some serious surprises.
Dat zou stom zijn als de RV870 een DX10.1 kaart was. Dit geloof ik dus niet. Kan zo maar zijn dat nVidia dit gerucht de wereld in geholpen heeft. Ik zou zeggen even lekker afwachten. Het zou natuurlijk kunnen aangezien we toch geen DX11 OS hebben. Maar dat was met de Radeon 9700 Pro ook zo.Hacku schreef op vrijdag 08 mei 2009 @ 08:40:
Fudzilla komt nu af dat de RV870 waarschijnk niet in Q3 zal uitkomen.
[...]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Of ATI Zelf om Nvidia gerust te stellen dat hun hardware ook vertraging heeft.Astennu schreef op vrijdag 08 mei 2009 @ 09:05:
[...]
Dat zou stom zijn als de RV870 een DX10.1 kaart was. Dit geloof ik dus niet. Kan zo maar zijn dat nVidia dit gerucht de wereld in geholpen heeft. Ik zou zeggen even lekker afwachten. Het zou natuurlijk kunnen aangezien we toch geen DX11 OS hebben. Maar dat was met de Radeon 9700 Pro ook zo.
En dan natuurlijk alsnog vroeg releasen.

Dit is wel het domste wat ik tot nu toe van Fudzilla gehoord heb over RV870.Hacku schreef op vrijdag 08 mei 2009 @ 08:40:
Many have expected that this card will launch either in late Q2 or early Q3, but we are hearing that this card might be pushed to later this year, but that it will instantly come with DirectX 11 support.
This might mean that the original RV870 got canceled, and that the new DirectX 11 card will take over, simply as Nvidia is probably going directly to DirectX 11 in Q4, with its GT300.
[...]

Original RV870? DX10.1 kaart? Right. Dat zegt wel weer genoeg, zeker als je weet dat AMD tijdens de laatste conference call heeft gezegd dat ze in de tweede helft van dit jaar met een volledige DX11 line-up gaan komen. Dan slaat een DX10.1 versie van een RV870 helemaal nergens op.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 263719
Expreview neemt het klakkeloos over :
http://en.expreview.com/2...-to-q4-2009-or-later.html
http://en.expreview.com/2...-to-q4-2009-or-later.html
Nu HWI nog...Rumor ever had it that RV870, AMD’s next-generation flagship GPU, was set to release in Q3. However, Fudzilla says that RV870 won’t be launched until Q4 or Q1 next year.
This might have something to do with the 40nm yield issue, though we haven’t confirmed about this. If RV870 and NVIDIA’s GT300 really don’t come before back to school, we’ll have a quite boring Q2 and Q3.

En tweakers niet te vergeten. Sinds kort neemt tweakers ook alles wat op fudzilla staat over.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat zal niet gebeurenAnoniem: 263719 schreef op vrijdag 08 mei 2009 @ 11:52:
Expreview neemt het klakkeloos over :
Nu HWI nog...
Je, Fudzilla lult er weer op los. Ze willen uiteraard x aantal berichten per dag, en als het even kalm is krijg je dit soort onzin.CJ schreef op vrijdag 08 mei 2009 @ 11:16:
[...]
Dit is wel het domste wat ik tot nu toe van Fudzilla gehoord heb over RV870.![]()
Original RV870? DX10.1 kaart? Right. Dat zegt wel weer genoeg, zeker als je weet dat AMD tijdens de laatste conference call heeft gezegd dat ze in de tweede helft van dit jaar met een volledige DX11 line-up gaan komen. Dan slaat een DX10.1 versie van een RV870 helemaal nergens op.
[ Voor 60% gewijzigd door XWB op 08-05-2009 12:10 ]
Er zal de komende 3 tot 6 maanden wel een hoop onzin uitgekraamd gaan worden... Want het is in die periode aardig kalm denk ik.Hacku schreef op vrijdag 08 mei 2009 @ 12:01:
Je, Fudzilla lult er weer op los. Ze willen uiteraard x aantal berichten per dag, en als het even kalm is krijg je dit soort onzin.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
HWI heeft het ook overgenomen bij het externe nieuws: LinkAnoniem: 263719 schreef op vrijdag 08 mei 2009 @ 11:52:
Expreview neemt het klakkeloos over :
http://en.expreview.com/2...-to-q4-2009-or-later.html
[...]
Nu HWI nog...
Launch staat toch nog altijd geplanned voor Augustus? Wil dat dan niet zeggen dat RV870 bijna (of al) in productie is?
Nee, nog niet helemaal, maar het zal niet lang meer duren. TSMC had problemen met 40nm. Eerst de productie van de andere kleinere 40nm producten opvoeren, voordat men begint met iets groots. 't Zal me verbazen als ze echt augustus halen.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Extern nieuws gaat volledig automatisch.penetreerbeer schreef op vrijdag 08 mei 2009 @ 12:30:
[...]
HWI heeft het ook overgenomen bij het externe nieuws: Link
Oh, mijn voorbeeld was niet bedoeld als vergelijking met de huidige situatie of iets dergelijks. Ik nam het alleen als voorbeeld omdat mensen vaak alleen kijken naar chipgrootte, en dus denken dat RV740 per se goedkoper moet zijn dan G92b, terwijl hier een heleboel andere factoren mee kunnen spelen. Idem met de hele situatie rond 65nm G200 en 55nm RV770.penetreerbeer schreef op donderdag 07 mei 2009 @ 14:30:
[...]
(graag wel appels met appels vergelijken, dus 40nm ATI vs 40nm Nvidia)
Misschien is er iemand die wat meer info heeft over hoe chips gebakken worden en waar de problemen dan liggen?
Het is ook perfect mogelijk dat AMD een perfect ontwerp aflevert, maar dat TSMC er gewoon geen weg mee kan en hierdoor slechte yields heeft. Denk maar aan kunststoffenverwerken, hier is het ook mogelijk om het productieproces te verbeteren door de hoeveelheid kunststof te regelen, temperaturen te regelen en samenstelling van grondstof iets te wijzigen (ik spreek hier uit ervaring in de kunststoffen, hier moeten ook alle nieuwe productieprocessen en producten geregeld worden).
Misschien heeft TSMC deze problemen zo goed als opgelost en draait de productie nu op volle toeren (denk dat er hierover al een berichtje is geweest).
Misschien heeft Nvidia een niet zo goed ontwerp afgeleverd waardoor het nog niet mogelijk is om een werkende chip te produceren. En aangezien het ontwerp van ATI beter is concentreren ze zich hierop om het proces te finetunen.
(het is allemaal speculatie hoor, zonder echt verstand van zaken is het moeilijk hierover iets te zeggen)
Ik heb geen idee waar de "slechte yields" van RV740 vandaan komen, als het probleem al bestaat. Ik heb zelf het hele verhaal rond de slechte G200 yields ook altijd met een flink pak zout genomen, gezien de tendens in de techpers om zonder feiten elkaar na te praten. Maar het lijkt er inderdaad op dat 40nm bij TSMC niet zo lekker loopt als het zou moeten lopen. Dit heeft de topman van TSMC ook al toegegeven (dat probleem ligt dus puur bij TSMC) en hier werken ze op dit moment aan. Hoe groot dat probleem is is echter maar de vraag. Ik denk dat als RV740 yield echt zo'n ramp was geweest AMD de chip gewoon niet had gelanceerd, en zeker niet op die prijs, dus wat dat betreft zal het vast meevallen.
weet iemand al of die speciale asus 4890 editie met modded cooler uit is?
Wanneer precies komen de nieuwe kaarten uit? Want ik benm aan het twijfelen voor Crossfire 4770 opstelling of een enkelmatige 4890
aan bovenstaande 2 replies:
'Are we there yet? Are we there yet? Are we there yet? Are we there yet?'
Komt misschien een beetje hard over, maar die vraag komt met regelmaat terug terwijl je die vraag beter in een mailtje aan Asus of welke andere AIB die met een non-reference HD4890 gaat komen stellen, aangezien die bedrijven beter in staat zijn te zien wanneer hun producten de markt op gaan.
'Are we there yet? Are we there yet? Are we there yet? Are we there yet?'
Komt misschien een beetje hard over, maar die vraag komt met regelmaat terug terwijl je die vraag beter in een mailtje aan Asus of welke andere AIB die met een non-reference HD4890 gaat komen stellen, aangezien die bedrijven beter in staat zijn te zien wanneer hun producten de markt op gaan.
Anoniem: 286793
Als je zit te twijfelen tussen 2x een hd4770 of een hd4890. De hd4890 is beter met aa en hele hoge resolutie. Games die minder zwaar zijn draaien beter op 2 x een hd4770. Maarja die games draaien ook gewoon goed op een hd4890.
Anoniem: 134818
Dit is een nieuws discussie topic en geen 'wat moet ik kopen topic'. Verder zijn er genoeg nieuws berichten langs gekomen met non reference koelers. Gewoon het topic door bladeren.
[ Voor 45% gewijzigd door Anoniem: 134818 op 09-05-2009 16:52 ]
Tja. ik heb zelf al een helehoop onderzoekend werk gedaan maar dan weet je het afentoe nog nietAnoniem: 134818 schreef op zaterdag 09 mei 2009 @ 16:51:
Dit is een nieuws discussie topic en geen 'wat moet ik kopen topic'. Verder zijn er genoeg nieuws berichten langs gekomen met non reference koelers. Gewoon het topic door bladeren.
Anoniem: 286793
Wat ik nou nooit begrepen heb is waarom we niet gewoon een ''wat moet ik kopen topic'' hebben of ''het algemene ati gpu vragen topic''. Als dat er zou zijn zouden dit soort vragen in dit topic minderen. Als iemand een klein vraagje heeft moet hij meteen een nieuw topic openen.
**LET OP** Welke videokaart moet ik kopen?Anoniem: 286793 schreef op zaterdag 09 mei 2009 @ 17:07:
Wat ik nou nooit begrepen heb is waarom we niet gewoon een ''wat moet ik kopen topic'' hebben of ''het algemene ati gpu vragen topic''. Als dat er zou zijn zouden dit soort vragen in dit topic minderen. Als iemand een klein vraagje heeft moet hij meteen een nieuw topic openen.
VB Beleid
VB FAQ
Dat mensen de moeite niet nemen om dit door te nemen kan weinig aan gedaan worden behalve wanneer mensen de vraag stellen ze als nog naar zo'n topic wijzen.
Anoniem: 286793
Ik snap dat er wel genoeg argumenten op tegen zijn. Maar als mensen zich er echt aan ergeren dat hier mensen vragen gaan stellen kunnen ze misschien beter zo'n topic openen. Dat is toch echt een betere oplossing. Je kunt inderdaad beter dat soort dingen.het ervaringen topic posten.
Maar als ze de bestaande topics al niet lezen waarom zou een nieuwe topic wel gelezen worden?
Na 4 jaar wil ik misschien een nieuw systeem kopen met een Sapphire Atomic HD 4890 Vapor-X. Ik vind het belangrijk dat de energiekosten niet de pan uitrijzen maar ik zie bij mn broer met 2x4870 dat hij loaded of 360 watt of meer uit kan komen. Ik vind dit veel, daarnaast gebruikt hij in Vista 2d nog 300 Watt.
Een game kost misschien energie maar als ik in Vista aan het internetten ben, wil ik gewoon die de kaart zich zuinig gedraagd. Zijn hier programmatje voor die makkelijk in te stellen zijn en vanzelf actief worden de situaties die zich voordoen? Een kaart hoeft in Vista toch niet veel energie te gebruiken?
Een game kost misschien energie maar als ik in Vista aan het internetten ben, wil ik gewoon die de kaart zich zuinig gedraagd. Zijn hier programmatje voor die makkelijk in te stellen zijn en vanzelf actief worden de situaties die zich voordoen? Een kaart hoeft in Vista toch niet veel energie te gebruiken?
m.teloosen heeft zojuist mijn punt bewezen aangezien die de 4 posts boven zijn eigen niet eens heeft gelezen...
Ahum, we zouden het toch netjes houden in dit honderste deel?
Straks kan ik gaan splitten/trashen
Vragen over wat voor videokaart je moet kopen zijn peanuts vragen. De kaart die geschikt voor je is.
Daarbij houd je rekening ten eerste met budget en prestaties, wat daar uit komt ga je filteren op je voorkeur voor koeling, merk, garantie, accessoires, <insert voorkeur>. Of een enkele HD4890 of je 2x HD4770 moet nemen: Er zijn toch wel CrossFire reviews met de HD4770 te vinden neem ik aan?
Hoe dan ook, het blijft hier een nieuwsdiscussietopic, niet vraag-me-ditje-omdat-het-toevallig-met-ATi-te-maken-heeft topic.
Leest u in en kijk ook zeker in het HD48xx ervaringentopic.
Straks kan ik gaan splitten/trashen
Vragen over wat voor videokaart je moet kopen zijn peanuts vragen. De kaart die geschikt voor je is.
Daarbij houd je rekening ten eerste met budget en prestaties, wat daar uit komt ga je filteren op je voorkeur voor koeling, merk, garantie, accessoires, <insert voorkeur>. Of een enkele HD4890 of je 2x HD4770 moet nemen: Er zijn toch wel CrossFire reviews met de HD4770 te vinden neem ik aan?
Hoe dan ook, het blijft hier een nieuwsdiscussietopic, niet vraag-me-ditje-omdat-het-toevallig-met-ATi-te-maken-heeft topic.
Leest u in en kijk ook zeker in het HD48xx ervaringentopic.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Anoniem: 301757
hier nog iets over RV870 en R800
http://www.hexus.net/content/item.php?item=18240
Klinkt erg leuk iig
The numbers are anything but confirmed, but we could be looking at 4,560 GFLOPS from the Radeon HD 5870 X2 - almost double that of the Radeon HD 4870 X2.
aangezien dat de R700 2400 GFLOPS doet , dat zou betekenen dat de R800 zo'n 80% sneller zou moeten zijn , dat zou best kunnen kloppen, meestal zo met een nieuwe VPU die goed uit de bus komt
http://www.hexus.net/content/item.php?item=18240
Klinkt erg leuk iig
The numbers are anything but confirmed, but we could be looking at 4,560 GFLOPS from the Radeon HD 5870 X2 - almost double that of the Radeon HD 4870 X2.
aangezien dat de R700 2400 GFLOPS doet , dat zou betekenen dat de R800 zo'n 80% sneller zou moeten zijn , dat zou best kunnen kloppen, meestal zo met een nieuwe VPU die goed uit de bus komt
[ Voor 25% gewijzigd door Anoniem: 301757 op 10-05-2009 02:14 ]
Helaas pakt ook Hexus de speculaties van Hardware-Infos/ATI-Forum er bij... en zoals ik al een paar keer eerder heb gezegd in dit topic, zijn dat de speculaties waarvoor de mensen van Hardware Infos contact met mij hebben opgezocht om bevestiging te vragen omdat ze absoluut niet zeker zijn van de specs. Ik heb hen hier geen antwoord op gegeven, maar het laat in ieder geval zien hoe de betrouwbaarheid is van die sites wat betreft nieuwswaarde en gokwerk.Anoniem: 301757 schreef op zondag 10 mei 2009 @ 02:12:
hier nog iets over RV870 en R800![]()
http://www.hexus.net/content/item.php?item=18240
Klinkt erg leuk iig
The numbers are anything but confirmed, but we could be looking at 4,560 GFLOPS from the Radeon HD 5870 X2 - almost double that of the Radeon HD 4870 X2.
aangezien dat de R700 2400 GFLOPS doet , dat zou betekenen dat de R800 zo'n 80% sneller zou moeten zijn , dat zou best kunnen kloppen, meestal zo met een nieuwe VPU die goed uit de bus komt
[ Voor 10% gewijzigd door CJ op 10-05-2009 10:34 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Let op:
Hulde voor CJ met deel 100! :D
Denken we er aan om het netjes te houden? Dan komen we tot een topic waarin de topicwaarschuwing gebruikt kan gaan worden voor leuke dingen?
Hulde voor CJ met deel 100! :D
Denken we er aan om het netjes te houden? Dan komen we tot een topic waarin de topicwaarschuwing gebruikt kan gaan worden voor leuke dingen?