Verwijderd
In theorie zou het heel misschien mogelijk kunnen zijn dat de G92 goedkoper gemaakt zou kunnen worden dan de RV670... In de praktijk helaas niet.k995 schreef op donderdag 20 december 2007 @ 10:11:
En je hebt geen idee hoeveel het kost om de chip te ontwikkelen of om te maken, ja het KAN goedkoper zijn dan de RV670 maar dat weet je niet.
EN hoe weet je dat? Een groot deel lijkt me ontwikkelkosten, en ik denk dat niemand hier weet op dit forum hoeveel dat was, laat staan dan ook nog eens de interne kosten van NV, reclame, transport, productie, opslag,... Ik denk eigenlijk dat er niemand al deze kosten kent van ATI EN NV en dus een vergelijking kan maken.Verwijderd schreef op donderdag 20 december 2007 @ 10:43:
[...]
In theorie zou het heel misschien mogelijk kunnen zijn dat de G92 goedkoper gemaakt zou kunnen worden dan de RV670... In de praktijk helaas niet.
Je kan wel een globale inschatting maken als je kijkt naar het verleden (NV heeft bv aangegeven hoeveel de ontwikkeling van de G80 gekost heeft) en een aantal standaardonderdelen zoals die-size en transistorbudget. En als je de juiste contacten hebt binnen de industrie dan hoor je ook wel het een en ander waaruit je kan opmaken dat RV670 goedkoper is om te maken dan G92 (even de ontwikkelkosten niet mee gerekend omdat ze afgeleiden zijn van resp R600 en G80 en dus minder in R&D hebben hoeven stoppen).k995 schreef op donderdag 20 december 2007 @ 12:19:
[...]
EN hoe weet je dat? Een groot deel lijkt me ontwikkelkosten, en ik denk dat niemand hier weet op dit forum hoeveel dat was, laat staan dan ook nog eens de interne kosten van NV, reclame, transport, productie, opslag,... Ik denk eigenlijk dat er niemand al deze kosten kent van ATI EN NV en dus een vergelijking kan maken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat dus onzin is sorry hoor, je laat zelf al ontwikkelkosten weg het enige wat je dus wel weet hoeveel ze betalen om 1 GPU te maken in een fabriek, wat dus weinig tot niks zegt. Je denkt dat een audi goedkoper te maken is als een mercedes omdat de CPU in de mercedes meer kost, nee hoor er zijn wel nog veel kosten die allemaal de prijs omhoog drijven.CJ schreef op donderdag 20 december 2007 @ 13:04:
[...]
Je kan wel een globale inschatting maken als je kijkt naar het verleden (NV heeft bv aangegeven hoeveel de ontwikkeling van de G80 gekost heeft) en een aantal standaardonderdelen zoals die-size en transistorbudget. En als je de juiste contacten hebt binnen de industrie dan hoor je ook wel het een en ander waaruit je kan opmaken dat RV670 goedkoper is om te maken dan G92 (even de ontwikkelkosten niet mee gerekend omdat ze afgeleiden zijn van resp R600 en G80 en dus minder in R&D hebben hoeven stoppen).
Verwijderd
Verwijderd
Zou je mij misschien kunnen uitleggen wat GPU's te maken hebben met Auto's en CPU's?k995 schreef op donderdag 20 december 2007 @ 13:28:
[...]
Wat dus onzin is sorry hoor, je laat zelf al ontwikkelkosten weg het enige wat je dus wel weet hoeveel ze betalen om 1 GPU te maken in een fabriek, wat dus weinig tot niks zegt. Je denkt dat een audi goedkoper te maken is als een mercedes omdat de CPU in de mercedes meer kost, nee hoor er zijn wel nog veel kosten die allemaal de prijs omhoog drijven.
Ik vind het prima als men hier uitspraken onderbouwd met feiten en argumenten, maar met dit soort halve vergelijkingen kan ik niet zoveel.
Bovendien kan de toon zo af toe ook wel iets vriendelijker, het is toch geen oorlog?
Edit: Dankjewel
Verwijderd
Een vergelijking kan best helpen maar dan moet het wel enigzins kloppen
Je moet de hele kost van iets vergelijken, niet van 1 onderdeeltje, vandaar de vergelijking tussen de CPU (of motor) van een auto.Verwijderd schreef op donderdag 20 december 2007 @ 13:49:
[...]
Zou je mij misschien kunnen uitleggen wat GPU's te maken hebben met Auto's en CPU's?
Ik vind het prima als men hier uitspraken onderbouwd met feiten en argumenten, maar met dit soort halve vergelijkingen kan ik niet zoveel.
Bovendien kan de toon zo af toe ook wel iets vriendelijker, het is toch geen oorlog?
De auto kan goedkoper zijn maar een duurdere motor hebben, of omgekeerd. 1 onderdeel zegt niks, zelfs de hele productiekost zegt niet alles. Sommige merken voeren hevige reclame, andere niet, sommige hebben hoge overhead kosten andere niet ,...
Pas als je alles optelt en dat deelt door wat je gemaakt heb kan je de werkelijke kostprijs berekenen, en bij vele bedrijven is dat zefls niet mogelijk simpelweg omdat er veel gedeeld is. Dat er dus iemand dat zou weten van 2 top bedrijven is wel redelijk uitzonderlijk, denk niet dat die hier zit :-)
Ik heb geen idee hoe de marketing ed van AMD/ATI en NV in elkaar zit, jij ook niet denk ik . Chip alleen is een leuke kost ja, alhoewel PCB en al de rest ook niet te onderschatten is denk ik .Verwijderd schreef op donderdag 20 december 2007 @ 13:58:
Ik snap het hele probleem ook niet, het lijkt mij dat de marketing, verpakkings en vervoerskosten voor elke kaart redelijk dicht bij elkaar liggen. In de kale productiekosten van de kaart zelf is de chip toch een belangrijk kostenplaatje. Ook de 256-bits bus en de koeler zijn niet extra prijzig op de RV670, CJ heeft dus een goed punt denk ik zo.
Een vergelijking kan best helpen maar dan moet het wel enigzins kloppen
Ik zeg niet dat CJ niet gelijk kan hebben ik zeg echter dat we geen idee hebben en je dus enkel heel wilde gokken kan wagen.
[ Voor 27% gewijzigd door k995 op 20-12-2007 14:19 ]
Verwijderd
Verwijderd
Tja ik heb t over productiekosten. En dan nog: beide kampen zijn klaar met de ontwikkelkosten van deze producten en het is, ongeacht van hoeveel je aan ontwikkelkosten besteedt hebt, nu zaak om er zoveel mogelijk geld eraan over te houden. En als je per kaartje meer verdient, is dat alleen maar beter, niet waar?k995 schreef op donderdag 20 december 2007 @ 12:19:
[...]
EN hoe weet je dat? Een groot deel lijkt me ontwikkelkosten, en ik denk dat niemand hier weet op dit forum hoeveel dat was, laat staan dan ook nog eens de interne kosten van NV, reclame, transport, productie, opslag,... Ik denk eigenlijk dat er niemand al deze kosten kent van ATI EN NV en dus een vergelijking kan maken.
3870 CF:
3DMark Score 13769 3DMarks
SM 2.0 Score 6101 Marks
SM 3.0 Score 7606 Marks
CPU Score 2606 Marks
ps: 3dmark leest niet de juiste specs, zo staat er een DQ6 mobo en heb de DS5.
linkje
3870 single:
3DMark Score 10618 3DMarks
SM 2.0 Score 4470 Marks
SM 3.0 Score 5037 Marks
CPU Score 2648 Marks
linkje: http://service.futuremark...pe=14&XLID=0&UID=12822545
Leuke resultaten, maar probeer de test ook eens op 1680x1050 of 1920x1200 of iets dergelijks. De twee kaarten worden enorm beperkt door de CPU. Ik heb er zelf ook last van met mijn HD2900XT's. Ik haal in de SM3.0 tests bijna dezelfde FPS op 1920x1080 als op 1280x1024. En dat terwijl de GPU load met 60% toeneemt. Het is dat mijn scherm Full-HD is, anders had ik die tweede videokaart niet eens nodig gehadpeakaboo schreef op donderdag 20 december 2007 @ 17:01:
Voor de liefhebbers wat 3dmark06 resultaten
3870 CF:
3DMark Score 13769 3DMarks
SM 2.0 Score 6101 Marks
SM 3.0 Score 7606 Marks
CPU Score 2606 Marks
ps: 3dmark leest niet de juiste specs, zo staat er een DQ6 mobo en heb de DS5.
linkje
3870 single:
3DMark Score 10618 3DMarks
SM 2.0 Score 4470 Marks
SM 3.0 Score 5037 Marks
CPU Score 2648 Marks
linkje: http://service.futuremark...pe=14&XLID=0&UID=12822545
[ Voor 5% gewijzigd door frankknopers op 20-12-2007 17:33 ]
Goud is geen geld
Je hoeft helemaal niet in een bedrijf verstrengelt te zijn om te weten wat de transistor count en en die size is toch ? De vierkante milimeters van de die size en het geheugen dat gebruikt word zijn imo de grootste kosten voor de kaarten bakkers. 40 euro voor 500 Mb geheugen en ongeveer het zelfde bedrag voor de processor kost het hun wel. zegt toch vrij veel lijkt mek995 schreef op donderdag 20 december 2007 @ 15:39:
Tja zoals ik al zei productiekosten zijn maar 1 vd kosten, en de kaarten 8800GT en 3870 trekken redelijk op elkaar; welke van de 2 de duurste om te maken is is koffiedik kijken, of je moet 1 van de weinig mensen op aarde zijn die zo in beide bedrijven verstrengeld zit.

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Ga het nu ff testen frankfrankknopers schreef op donderdag 20 december 2007 @ 17:31:
[...]
Leuke resultaten, maar probeer de test ook eens op 1680x1050 of 1920x1200 of iets dergelijks. De twee kaarten worden enorm beperkt door de CPU. Ik heb er zelf ook last van met mijn HD2900XT's. Ik haal in de SM3.0 tests bijna dezelfde FPS op 1920x1080 als op 1280x1024. En dat terwijl de GPU load met 60% toeneemt. Het is dat mijn scherm Full-HD is, anders had ik die tweede videokaart niet eens nodig gehad
1920x1200 en 4xAA run, resultaat:
11.032 3DMarks
SM 3.0 score 4657
Overigens werkt atitool 0.27B4 niet optimaal met CF geloof ik, als ik fanspeed op 100% zet + apply, gebeurt er niks... Kaart is idle echter 45-47 graden, in een antec 900 case. Fans op hoogste stand gezet.
Ps. Heeft iemand een key voor 3dmark06? Ik kan anders niet die reso wijzigen?
Edit: Lama heb al, thnx frank
[ Voor 5% gewijzigd door peakaboo op 20-12-2007 18:58 ]
Ik vroeg me af of het nou mogelijk was om een HD3850 te kopen en later een HD3870 en die in hybride CF te plaatsen. Ik begrijp inmiddels dat dit moet kunnen, maar dat de laagste preformance als top wordt aangehouden. Deze voorbeeld config zou dit gelijk moeten zijn aan een HD3850 in CF opstelling. Klopt dit nou of niet?
Software Developer, checkout my bitcoin software at my website www.haasonline.com (Trade Bots and more...)
Dat denk ik wel. Of je moet een alternatieve BIOS in je HD3850 flashen die op HD3870 speeds staat ingesteld. Maar ik vraag me af waarom je dat uberhaupt zou willen. De HD3870 is maar ietsje duurder en heeft een veel betere stock-koeler. Met twee dezelfde kaarten heb je denk ik een stuk minder gedoe dan met twee verschillende.Stephan224 schreef op donderdag 20 december 2007 @ 22:58:
Even misschien een domme vraag, maar alles wat ik over hybride CF lees biedt me geen duidelijkheid.
Ik vroeg me af of het nou mogelijk was om een HD3850 te kopen en later een HD3870 en die in hybride CF te plaatsen. Ik begrijp inmiddels dat dit moet kunnen, maar dat de laagste preformance als top wordt aangehouden. Deze voorbeeld config zou dit gelijk moeten zijn aan een HD3850 in CF opstelling. Klopt dit nou of niet?
Goud is geen geld
Edit// De drivers op zichzelf zijn er al, maar dan zonder CCC: https://a248.e.akamai.net...te/7-12_xp32_dd_55811.exe
[ Voor 29% gewijzigd door Boxman op 20-12-2007 23:46 ]
Ryzen 7950X3D | X670E Steel Legend | 64GB (2x32 M-die) DDR5-6000C30 | RTX 3090 | Seasonic Prime 1300W | Custom Loop CPU+GPU+RAID Watercooling 2x360mm
Dit is de 2e driver waarin UT3 niet goed werkt met CF. Dat het zo lang duurt voordat zo'n titel goed draait is onbegrijpelijk....
Niet op voorraad.
Ryzen 7950X3D | X670E Steel Legend | 64GB (2x32 M-die) DDR5-6000C30 | RTX 3090 | Seasonic Prime 1300W | Custom Loop CPU+GPU+RAID Watercooling 2x360mm
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
http://game.amd.com/us-en...lyst.aspx?p=xp/radeonx-xp
EN wat zegt dat over ontwikkelkosten? Juist bijna niks, en GDDR3 tegen GDDR4 lijkt me toch verschillend, en de mm² de grootste kosten? Ik denk dat het ontwikkelen van zoiets de grootste kost is hoor en die weet je niet, laat staan al de andere kosten die erbij komen.Hekking schreef op donderdag 20 december 2007 @ 17:33:
[...]
Je hoeft helemaal niet in een bedrijf verstrengelt te zijn om te weten wat de transistor count en en die size is toch ? De vierkante milimeters van de die size en het geheugen dat gebruikt word zijn imo de grootste kosten voor de kaarten bakkers. 40 euro voor 500 Mb geheugen en ongeveer het zelfde bedrag voor de processor kost het hun wel. zegt toch vrij veel lijkt me.
Ontwikkelkosten van een R600 verschilt nogal wat ten opzichte van de ontwikkelkosten van een RV670 of RV635 of RV620. Datzelfde geldt bij NV voor de ontwikkelkosten bij de G80 in vergelijking tot bv de G92, G94, G96 etc.k995 schreef op vrijdag 21 december 2007 @ 08:50:
[...]
EN wat zegt dat over ontwikkelkosten? Juist bijna niks, en GDDR3 tegen GDDR4 lijkt me toch verschillend, en de mm² de grootste kosten? Ik denk dat het ontwikkelen van zoiets de grootste kost is hoor en die weet je niet, laat staan al de andere kosten die erbij komen.
R600 kost het meest. RV670 is een refresh waar de R&D kosten gigantisch omlaag zijn gebracht omdat het voort borduurt op dezelfde architectuur. Zo zijn de R&D kosten van de G92 ook een stuk lager dan de G80.
Omdat de R&D kosten daar lager liggen, worden andere zaken opeens belangrijker. De GPU hoeft niet helemaal van de bodem meer te worden opgebouwd. Belangrijker worden dan opeens zaken als "hoeveel transistoren kan ik op een zo klein mogelijke ruimte zetten en tegelijkertijd de kloksnelheden zo hoog opvoeren om een goede performance te hebben, terwijl de GPU niet te warm wordt en met 'redelijk goedkoop' te produceren coolingen uit te rusten is en daarnaast ook nog eens zo goedkoop mogelijk PCB gebruiken in combinatie met goedkoop geheugen".
^^ Dat zijn allemaal factoren die vrij gemakkelijk in te achterhalen zijn en waaruit je kan opmaken dat de RV670 goedkoper te produceren is als de G92.
AMD haalt per waver 2x zo veel RV670 chips als NV er G92 chips van af haalt. Prijsverschil tussen 55nm en 65nm bij TSMC is niet hoog (en daarnaast was er sprake van korting bij AMD omdat ze als eerste massaal voor 'nieuwe' processen gaan. Dit pakt soms goed uit (55nm) en soms verkeerd (110nm). Het feit dat in het ontwikkeltraject de R600 misschien wel meer heeft gekost dan het ontwikkeltraject van de G80, is voor de G92 en RV670 dan niet echt van belang. De ontwikkeling van de architecturen was al lang en breed afgerond.
Om nog maar even een voorbeeld te noemen. R420 was vrij goedkoop om te ontwikkelen in vergelijking tot R300. De refreshes van de R300, namelijk de R350 en R360, kosten ook amper iets als je het vergelijkt met het 'origineel'. De cores waren bijna ongewijzigd. De refresh-stap van NV30 naar NV35 kostte nV echter een stuk meer. De architectuur werd redelijk opgepimpt (128-bit naar 256-bit interface en snellere pixelshaders).
Bij G71 vs R580 had NV een duidelijk voordeel. De G71 GPU gebruikt zo'n 25M transistoren minder dan de G70 en was bijna 80% kleiner dan de R580, terwijl het toch bijna net zo snel was. Hier bestond ook geen twijfel over dat de G71 de cash-cow van NV was. Ze haalden twee keer zo veel GPUs van de band als ATI toendertijd en daarnaast was de R580 architectuur bij ATI een stuk complexer geworden in vergelijking tot de R520. Bij ATI kwamen dus meer R&D kosten bij kwamen kijken omdat de ingrepen groter waren. Ook hier hoef je geen raketgeleerde te zijn om in te zien dat de G71 minder kostte dan de R580 om te produceren. Of denk je echt dat het omgekeerd kan zijn in dit geval?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Oke na lang wachten is 7.12 dus uit.warp schreef op vrijdag 21 december 2007 @ 00:42:
De drivers zijn nu compleet geupload; hierbij de link naar de XP x86 versie:
http://game.amd.com/us-en...lyst.aspx?p=xp/radeonx-xp
Maar de echte releasenotes, zijn ten opzichte van, de eerdere releasenotes niets veranderd. Dan heb ik toch weer gelijk had.
Weer geen echte performance updates.
[ Voor 14% gewijzigd door Splinter Cell op 21-12-2007 10:56 ]
Geloof wat je wil, het is en blijft een wilde gok simpelweg omdat je niet de kosten van beide kent. Zelfs al zou je weten hoeveel het precies kost (dus niet zoals nu gokken) dan nog weet je de werkingskosten van NV of ATI/AMD niet of de ontwikkelkosten en dan nog als je al dit zou weten weet je nog niet voor hoeveel men zo'n core verkoopt(of welke afspraken en kortingen er allemaal spelen). Je baseerd je dus op een gok over een gok over een beredendeerde gok(de core zelf) en voor mij is dat een wilde gok ja zoiets.CJ schreef op vrijdag 21 december 2007 @ 09:49:
[...]
Ontwikkelkosten van een R600 verschilt nogal wat ten opzichte van de ontwikkelkosten van een RV670 of RV635 of RV620. ....
Dit is nog altijd een nieuwdiscussie-topic. Die prijzen komen tot stand om bepaalde redenen... Niet iedereen zal het interessant vinden, maar genoeg mensen ook wel. Dus voor ieder wat wils... interesseert het je niet, dan sla je de posts er over gaan gewoon over en kijk je direct in de pricewatch of het ervaringentopics. Want daar staan de dingen die je dan wilt weten... de laagste prijs en de performance/ervaringen.RappieRappie schreef op vrijdag 21 december 2007 @ 09:56:
Wat boeit een eindgebruiker het nou wat het kost om een chip te maken, en dat een G92 duurder is om te maken dan een RV670? Het gaat om de eindprijs. Als die goed is, zal het mij verder een worst wezen wat nVidia of ATi er uiteindelijk aan verdienen eerlijk gezegd.
En jij bepaalt wat ik allemaal weet? Ik durf wel met 100% zekerheid te zeggen dat ik meer feiten hierover ken dan jij en minder aan speculatie en gokwerk doe dan jij.k995 schreef op vrijdag 21 december 2007 @ 10:58:
[...]
Geloof wat je wil, het is en blijft een wilde gok simpelweg omdat je niet de kosten van beide kent. Zelfs al zou je weten hoeveel het precies kost (dus niet zoals nu gokken) dan nog weet je de werkingskosten van NV of ATI/AMD niet of de ontwikkelkosten en dan nog als je al dit zou weten weet je nog niet voor hoeveel men zo'n core verkoopt(of welke afspraken en kortingen er allemaal spelen). Je baseerd je dus op een gok over een gok over een beredendeerde gok(de core zelf) en voor mij is dat een wilde gok ja zoiets.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heb je toevallig nog leuke nieuwtjes over de R700 ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Haha lol. Man je hebt echt geen flauw idee, he...k995 schreef op vrijdag 21 december 2007 @ 10:58:
[...]
Geloof wat je wil, het is en blijft een wilde gok simpelweg omdat je niet de kosten van beide kent. Zelfs al zou je weten hoeveel het precies kost (dus niet zoals nu gokken) dan nog weet je de werkingskosten van NV of ATI/AMD niet of de ontwikkelkosten en dan nog als je al dit zou weten weet je nog niet voor hoeveel men zo'n core verkoopt(of welke afspraken en kortingen er allemaal spelen). Je baseerd je dus op een gok over een gok over een beredendeerde gok(de core zelf) en voor mij is dat een wilde gok ja zoiets.
En in plaats van de kennis die je gepresenteerd wordt in dit topic tot je te nemen en er wat wijzer van te worden, probeer je er tegenin te gaan met 0 kennis.

Zeg ik dan ergens dat je verkeerd bent? Nee hoor ja jij weet een heleboel meer hierover, maar zoals ik al zei zelfs met dat is het nog maar een wilde gok simpelweg om te weten hoeveel dat 1 product van ATI of NV kost je zowat alles over dat bedrijf moet weten, en die mensen zijn in de wereld dungezaaid, voor de 2 ATI/AMD en NV te vergelijken betwijfel ik of er iemand is die dat weet en dus kan.CJ schreef op vrijdag 21 december 2007 @ 11:00:
En jij bepaalt wat ik allemaal weet? Ik durf wel met 100% zekerheid te zeggen dat ik meer feiten hierover ken dan jij en minder aan speculatie en gokwerk doe dan jij.
Ik waag me zelfs niet aan een wilde gok .
Ik weet wel goed hoe bedrijven werken en bij ATI of NV gaat dat echt niet verschillend zijn hoor.Verwijderd schreef op vrijdag 21 december 2007 @ 11:12:
[...]
Haha lol. Man je hebt echt geen flauw idee, he...
En in plaats van de kennis die je gepresenteerd wordt in dit topic tot je te nemen en er wat wijzer van te worden, probeer je er tegenin te gaan met 0 kennis.Zucht..
Waar ik werk verkopen we ook producten (loonberekening vnml eigenlijk) en we weten simpelweg niet hoeveel het kost om het loon van 1 persoon te bereken, het beste is een gok. Waarom? Omdat het bedrijf nog meer dingen doet dan loonberekening en dat dus alles verstrengeld in elkaar zit en het onmogelijk is te bepeln precies hoeveel die 1 tak nu kost.
EN jij wil dat eventjes doen in 2 multinationals? zonder dan nog concrete data te hebben?
[ Voor 38% gewijzigd door k995 op 21-12-2007 11:27 ]
Nieuwtjes niet... Geruchten wel. Tape-out is al bereikt... werkende samples worden binnenkort in de labs verwacht.Astennu schreef op vrijdag 21 december 2007 @ 11:03:
CJ doe maar geen moeite het is duidelijk dat hij vind dat hij gelijk heeft ongeacht de argumenten die jij inbrengt.
Heb je toevallig nog leuke nieuwtjes over de R700 ?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CJ?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Mmmm en hoe lang duurt de periode tussen tapeout & launch normaal gesproken...CJ schreef op vrijdag 21 december 2007 @ 12:00:
[...]
Nieuwtjes niet... Geruchten wel. Tape-out is al bereikt... werkende samples worden binnenkort in de labs verwacht.
Als het goed gaat een maand of 9-12 toch?
PS: af en toe wat posts over diesize, kosten & achtergronden, al zijn het best effort guesses, vind ik best interessant.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Vaak wel dan dat geloof ik... Toen R600 gereleased werd, konden er nog wat dingen aan RV670 verandert worden zodat de boel efficienter zou lopen. Daar was de tijd iets van 4 maanden denk ik.Help!!!! schreef op vrijdag 21 december 2007 @ 12:32:
[...]
Mmmm en hoe lang duurt de periode tussen tapeout & launch normaal gesproken...![]()
Als het goed gaat een maand of 9-12 toch?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
en over de R600TM?CJ schreef op vrijdag 21 december 2007 @ 12:00:
[...]
Nieuwtjes niet... Geruchten wel. Tape-out is al bereikt... werkende samples worden binnenkort in de labs verwacht.
ik had een vermoeden dat er een naamsverandering is geweest: R600TM = R700, R700 = R800 (dx11)
een grote architecturale verandering zie ik niet gebeuren in het volgende jaar
[ Voor 10% gewijzigd door oeLangOetan op 21-12-2007 13:18 ]
alleen zijn de r&d kosten van de g80 al lang en breed terugverdient met de g80 zelf....dat is met de r600 wel anders denk ikCJ schreef op vrijdag 21 december 2007 @ 09:49:
[...]
R600 kost het meest. RV670 is een refresh waar de R&D kosten gigantisch omlaag zijn gebracht omdat het voort borduurt op dezelfde architectuur. Zo zijn de R&D kosten van de G92 ook een stuk lager dan de G80.
Hij was dus al eerder uit
Is Tweakers.net trouwens in de kerstsfeer, of doen de Catalyst drivers raar?

[ Voor 57% gewijzigd door MensionXL op 21-12-2007 17:37 ]
Je bent alleen even die andere GPU vergeten die aan de basis staat van de R600. Xenos (aka R500). Xenos was al bijna DX10 compliant. Het zou dus nog wel kunnen meevallen met de kosten van R600.Mr. Detonator schreef op vrijdag 21 december 2007 @ 14:26:
[...]
alleen zijn de r&d kosten van de g80 al lang en breed terugverdient met de g80 zelf....dat is met de r600 wel anders denk ik
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
spelconsole's worden toch met verlies verkocht..of hoe zat dat ook alweer ? (althans als ze pas uit zijn)CJ schreef op vrijdag 21 december 2007 @ 18:22:
[...]
Je bent alleen even die andere GPU vergeten die aan de basis staat van de R600. Xenos (aka R500). Xenos was al bijna DX10 compliant. Het zou dus nog wel kunnen meevallen met de kosten van R600.
Nadat ik de Catalyst 7.12 drivers geïnstalleerd had was dit probleem verholpen.
Niet in dit geval, ATi heeft een licentie voor de chip verkocht aan Microsoft, ze vangen dus wel geld voor elke chip, hoeven hem niet zelf te laten bakken etcetera, daar zorgt Microsoft voor.Mr. Detonator schreef op vrijdag 21 december 2007 @ 18:25:
[...]
spelconsole's worden toch met verlies verkocht..of hoe zat dat ook alweer ? (althans als ze pas uit zijn)
Dus pure R&D die zich terugverdient.
NV heeft verlies gemaakt met de originele Xbox. Microsoft dwong ze om hun producten (ik geloof een nForce achtig mobo en Geforce3-achtige GPU) onder kostprijs te verkopen, net zoals ze dat ook bij andere fabrikanten deden.
ATI heeft het altijd slim aangepakt met de consoles. Ze ontwerpen de GPU, maar de productie ligt helemaal in handen van de afnemer. Dat is dus Microsoft bij de Xbox360 en Nintendo bij de GameCube en Wii.
En was het ook niet zo dat de R&D van de Xenos niet gedeeltelijk door MS gefinancierd is?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
afaik, MS heeft een aantal van de ingenieurs geleverd om aan de xenos mee te werken en dus een stuk van de ontwikkelkosten op zich genomen.CJ schreef op vrijdag 21 december 2007 @ 19:02:
SpankmasterC heeft het helemaal bij het rechte eind.
NV heeft verlies gemaakt met de originele Xbox. Microsoft dwong ze om hun producten (ik geloof een nForce achtig mobo en Geforce3-achtige GPU) onder kostprijs te verkopen, net zoals ze dat ook bij andere fabrikanten deden.
ATI heeft het altijd slim aangepakt met de consoles. Ze ontwerpen de GPU, maar de productie ligt helemaal in handen van de afnemer. Dat is dus Microsoft bij de Xbox360 en Nintendo bij de GameCube en Wii.
En was het ook niet zo dat de R&D van de Xenos niet gedeeltelijk door MS gefinancierd is?
Als je zelf de chips maakt valt er meer geld te verdienen indien je erin slaagt die chips goedkoop te produceren, dus voor en nadelen. MS zou in ieder geval nooit meer de productie uit handen geven, nvidia had bij de xbox de prijs hoog gehouden per chip wat resulteerde 6 maand lang juridisch getrouwtrek (uiteindelijk is er geen proces van gekomen maar het heeft niet veel gescheeld).
Dit geloof ik echt niet. Hoe wilde Microsoft nvidia dwingen om onder de kostprijs te leveren dan? Want aangezien nvidia het fysieke product leverde hadden ze het helemaal voor het zeggen wat de prijs zou zijn en met hoeveel die kon zakken. Juist daarom wil Microsoft zelf gaan producuren om van hoge kosten van 3e partijen af te komen. Dit heb je zelf ook al eens gezegd in het verleden toen uitkwam dat Microsoft een deam met Ati maakte voor de 360. Toen was het omdat ze in zee meer wilde gaan juist vanwege die machtpositie van nvidia.CJ schreef op vrijdag 21 december 2007 @ 19:02:
NV heeft verlies gemaakt met de originele Xbox. Microsoft dwong ze om hun producten (ik geloof een nForce achtig mobo en Geforce3-achtige GPU) onder kostprijs te verkopen, net zoals ze dat ook bij andere fabrikanten deden.
De deals met Microsoft, Sony of Nintendo zijn killing OEM business. Goed voor de turnover, weinig invloed op de winst in %, goed voor winst in $. Verlies maken op OEM business is heel goed mogelijk en slim als je zo je vast kosten kunt financieren omdat anders je fabrieken niets staan te doen. Ik geloof niet dat NV verlies heeft gemaakt op de Xbox 1 GPU. Ik geloof ook dat voor NV en ATI het winst % op dit soort deals enorm laag ligt, zowel bij het leveren van een IP als bij het leveren van een fysiek product. Als ik het goed heb heeft NV indertijd ook de xbox360 chip kunnen maken maar omdat ze er niet genoeg winst op konden maken en ze te weinig mensen hadden, hebben ze de keuze gemaakt om de mensen op winstgevende projecten in te zetten en daarom heeft uiteindelijk ATI de deal met de xbox360 GPU gekregen.sjekneck schreef op vrijdag 21 december 2007 @ 22:13:
[...]
Dit geloof ik echt niet. Hoe wilde Microsoft nvidia dwingen om onder de kostprijs te leveren dan? Want aangezien nvidia het fysieke product leverde hadden ze het helemaal voor het zeggen wat de prijs zou zijn en met hoeveel die kon zakken. Juist daarom wil Microsoft zelf gaan producuren om van hoge kosten van 3e partijen af te komen. Dit heb je zelf ook al eens gezegd in het verleden toen uitkwam dat Microsoft een deam met Ati maakte voor de 360. Toen was het omdat ze in zee meer wilde gaan juist vanwege die machtpositie van nvidia.
Om een idee te geven, NV heeft gedurende 2 jaar meer dan 200 miljoen verlies gemaakt op de GeforceFX, totaal meer dan 500M. Dit is gelijk aan enkel de ontwikkelingskosten van de G80. Het verslies was wel nodig, dit omdat ze naar een programmeerbare chip toemoesten. Qua performance heeft het ze toen wel marktaandeel gekost, om hier stand tegen te bieden werd de dure FX chip onder kost verkocht, daarom de 500M verlies.
100% mee eens. WTH boeit het consumenten hun wat de kostprijs van een product is. Als het waar is dat de kostprijs van ATI lager is en ze meer winst maken dan zou ik me bekocht moeten voelen, het kan goedkoper, en zodra de tijd rijp is zal het goedkoper worden. De enige die interesse zou moeten tonen in de kostprijs en in de marge zijn beleggers. Nou als je in ATI wilt beleggen omdat ze zoveel winst maken moet je ook in AMD beleggen. En daar gaat het niet zo goed mee op de beurs. NV is 4x zoveel waard als AMD (incl ATI). En zoals NV's Jen-Hsun Huang ooit zei "Let us worry about the cost".RappieRappie schreef op vrijdag 21 december 2007 @ 09:56:
Wat boeit een eindgebruiker het nou wat het kost om een chip te maken, en dat een G92 duurder is om te maken dan een RV670? Het gaat om de eindprijs. Als die goed is, zal het mij verder een worst wezen wat nVidia of ATi er uiteindelijk aan verdienen eerlijk gezegd.
[ Voor 42% gewijzigd door The Source op 21-12-2007 23:07 ]
Ik heb ook even opgezocht hoe het ook maar weer precies zat.
In April 2002 vroeg Microsoft aan nVidia om de prijs van de GPU en MCP (audio & networking) te laten zakken, omdat Microsoft op elke verkochte Xbox een verlies leed van $100. nVidia wilde dit niet want zij maakten nog winst op elke verkochte chip en waren niet van plan om ook verlies te gaan leiden. Dus kwam er een arbitragezaak.
Microsoft wilde lagere prijzen voor de GPU en MCP, en daarnaast wilde ze onbeperkt kunnen bestellen, terwijl nV juist het tegenovergestelde wilde.
In Februari 2003 konden ze het eindelijk eens worden. De statements van NV en MS:
En een paar maanden later dook MS in zee met ATI, omdat het ATI ontwikkelmodel (zoals ze dat gedaan hadden met Nintendo) veel aantrekkelijker voor ze was en daardoor juridisch getouwtrek kon worden voorkomen. MS had het toen even gehad met NV blijkbaar. Details over de 'settlement' zijn helaas niet beschikbaar, maar ik heb zo'n idee dat het MS gelukt is om een lagere prijs af te dwingen bij NV, want er kwamen daarna ook verklaringen van NV en MS dat ze samen zouden gaan werken aan kostenreductie."This is a win for both companies, and we couldn't be more delighted with the results," said Jen-Hsun Huang, president and CEO at Nvidia. "Nvidia and Microsoft can now take our partnership to the next level and focus our substantial resources to maximize the full potential of Xbox game console."
"With the arbitration resolved, we look forward to continuing the partnership between Microsoft and Nvidia and turning our focus to building on the great success of the Xbox platform," stated Robbie Bach, senior vice president of Microsoft and Chief Xbox Officer.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
bronATI, graphics product group of Advanced Micro Devices, said on Thursday that it remained committed to its open eco-system strategy with multi-GPU technology. In fact, every company, including Intel Corp., might get the ability to use the “ATI CrossFire” logotype to push their platforms, provided that they had passed a validation process.
“We remain committed to an open ATI CrossFire eco-system,” said Chris Hook, a spokesperson for AMD.
ATI CrossFire and ATI CrossFireX are multi-GPU technologies that allow several graphics processing units to work in team to double or even triple the speed of a single high-end graphics accelerator.
Intel Corp. is the arch-rival of AMD in the market of x86 central processing units (CPUs). Besides microprocessors, Intel competes against AMD with its chipsets featuring built-in graphics cores. Still, all current Intel chipsets that have two PCI Express controllers as well as future chipsets, such as Intel X48 and P45, that have reportedly passed the validation tests of AMD and can support ATI CrossFire or ATI CrossFireX multi graphics chip technology.
“We are constantly working with the third-party companies, including Intel,” said Godfrey Cheng, who is in charge of ATI CrossFire multi-GPU technology at AMD.
There's no license fee for ATI CrossFire technology, the company said.
ATI CrossFireX is an improved version ATI CrossFire multi-GPU technology that has features like 3-way, 4-way GPU rendering on a single monitor.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Ik denk dat ze bij de 8 versie en de release van de R680 wel weer wat tweaks zullen vrij geven.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Like... wat voor gamesXadeon schreef op zaterdag 22 december 2007 @ 00:45:
Ik ben zeer tevreden met deze drivers versie, ondanks dat catalyst voor mij weer niet normaal te gebruiken is. Ik haal in vrijwel al m'n games meer fps. Bij de een wat meer dan bij de ander.
Ik denk dat k995 gewoon gelijk heeft.CJ schreef op vrijdag 21 december 2007 @ 11:00:
<AMD RV670 / nV G92 kostprijsdiscussie>
En jij bepaalt wat ik allemaal weet? Ik durf wel met 100% zekerheid te zeggen dat ik meer feiten hierover ken dan jij en minder aan speculatie en gokwerk doe dan jij.
Niemand hier in dit topic kent de exacte kostprijsberekeningen van AMD en nV voor respectievelijk hun RV670 en G92 producten. De coregrootte maakt uiteindelijk slechts een deel uit van de kostprijs, en zelfs of dat een redelijk deel van de kosten zou bepalen valt serieus ter discussie te stellen. Zaken als loonkosten, PCB kosten, geheugenkosten (de 3870 heeft een kleinere core maar wel duurder geheugen bijv), yields, onderzoekskosten, kosten van bedrijfsvoering etc. etc. zijn allemaal bij de kostprijs inbegrepen, en daar hebben wij hier geen inzicht in.
Speculatie over wie hogere of lagere kosten (lees: kostprijzen) heeft op basis van de coregrootte is dus weinig anders dan dat: speculatie, en uitspraken hierover zijn zodoende zoals k995 het uitdrukt: een wilde gok.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Dit is inderdaad het klassieke schoolvoorbeeld van een kostprijsberekening, maar er zijn allerlei verschillende varianten van, zo ver ik weet. Probleem is met het schoolvoorbeeld wat je net genoemd hebt, is dat je een hele goede kennis moet hebben over wat er in de toekomst gaat gebeuren. En dat is toch wel lastigCheetah schreef op zaterdag 22 december 2007 @ 13:30:
[...]
Niemand hier in dit topic kent de exacte kostprijsberekeningen van AMD en nV voor respectievelijk hun RV670 en G92 producten. De coregrootte maakt uiteindelijk slechts een deel uit van de kostprijs, en zelfs of dat een redelijk deel van de kosten zou bepalen valt serieus ter discussie te stellen. Zaken als loonkosten, PCB kosten, geheugenkosten (de 3870 heeft een kleinere core maar wel duurder geheugen bijv), yields, onderzoekskosten, kosten van bedrijfsvoering etc. etc. zijn allemaal bij de kostprijs inbegrepen, en daar hebben wij hier geen inzicht in.
Speculatie over wie hogere of lagere kosten (lees: kostprijzen) heeft op basis van de coregrootte is dus weinig anders dan dat: speculatie, en uitspraken hierover zijn zodoende zoals k995 het uitdrukt: een wilde gok.
Verwijderd
een maat van me komt morgen met zijn HD 2900 XT en HD 3870 met zijn PC naar mijn toe, wij gaan de heledag testen om CF aan de gang te krijgen met Vista als zowel XP Pro + SP2
onder Vista ging het installeren van de twee ATi's zonder probs, hij belde me net een uurtje geleden er over hij kan alleen op een of andere manier kan hij CF niet inschakelen hij heeft ook het via ATi Traytool gebeerd alleen die start niet eens op heh zal wel aan Vista leggen denk ik dan, onder XP hebben wij iig een goed gevoel dat het gaat werken
men ziet wel netjes in Vista dat de VGA kaarten goed geinstalleerd zijn met als:
HD 2900 XT Primary
HD 2900 XT Secondary
HD 3870 Primary
HD 3870 Secondary
Dus installeren met Cat 7.12 ging wel
Dus morgen weet ik meer beste mensen ik hou jullie op de hoogte hiermee!
Als jullie nog suggesties hebben hoor ik het graag.
psst ik bedoel wel met 2 pci-e slots he
[ Voor 62% gewijzigd door LittleKiller op 22-12-2007 17:47 ]
Verwijderd
Weet niet meer waar ik het gevonden heb maar dit is al eens gelukt , en heb de becnhmarks gezien .Verwijderd schreef op zaterdag 22 december 2007 @ 17:33:
hmm ik heb wat nieuws over het HD 2900 XT + HD 3870 experiment
een maat van me komt morgen met zijn HD 2900 XT en HD 3870 met zijn PC naar mijn toe, wij gaan de heledag testen om CF aan de gang te krijgen met Vista als zowel XP Pro + SP2
onder Vista ging het installeren van de twee ATi's zonder probs, hij belde me net een uurtje geleden er over hij kan alleen op een of andere manier kan hij CF niet inschakelen hij heeft ook het via ATi Traytool gebeerd alleen die start niet eens op heh zal wel aan Vista leggen denk ik dan, onder XP hebben wij iig een goed gevoel dat het gaat werken
men ziet wel netjes in Vista dat de VGA kaarten goed geinstalleerd zijn met als:
HD 2900 XT Primary
HD 2900 XT Secondary
HD 3870 Primary
HD 3870 Secondary
Dus installeren met Cat 7.12 ging welhet is al iig iets in de goede richting, maar de CF tab blijft grijs in de CCC.
Dus morgen weet ik meer beste mensen ik hou jullie op de hoogte hiermee!
Als jullie nog suggesties hebben hoor ik het graag.
Probeer het terug te vinden .
EDIT : sorry kan het niet vinden , maar ben er 100% zeker van dat ik het al eens gezien heb.
Succes zou ik zo zeggen
[ Voor 5% gewijzigd door Verwijderd op 22-12-2007 19:06 ]


Bron: http://forum.donanimhaber.com/m_19811407/tm.htm
Leuk detail is dat nu de SuperAA mogelijkheden van CrossFire "standaard" AA modi worden op deze dual-GPU videokaart. En wanneer SuperAA gebruikt wordt, kan er ook gebruik worden gemaakt van 32xAF:
http://ati.amd.com/techno...ossFireWhitePaperweb2.pdfAn added benefit of these modes is that they work together with SmoothVision HD Anisotropic Filtering (AF). This is a high quality filtering technique designed to produce sharper, clearer textures by blending multiple texture samples (2, 4, 8, or 16) for each pixel. Since Super AA can render each pixel from two slightly different viewpoints and combine them, the texture samples from each viewpoint get combined as well. This means the number of texture samples per pixel is effectively doubled, so up to 32x Anisotropic Filtering can be supported..
http://www.rage3d.com/previews/video/crossfire/An added benefit of these modes is that it effectively doubles the Anisotropic Filtering mode as well. With "Super AA", as ATI calls the blended mode, renders each pixel it does it from two slightly different viewpoints and combines them. When it does this the texture samples from each viewpoint get combined as well. This means that 2x AF becomes 4x AF, 4x AF becomes 8x, and so on to 32x Anisotropic Filtering.
[ Voor 76% gewijzigd door CJ op 22-12-2007 19:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Omdat de kaarten vrijwel hetzelfde zijn, beweerde een aantal bronnen dat je met de 7.11 drivers, het systeem voor de gek kan houden. Waarna een HD3870 i.c.m een 2900XT gewoon werkt.
We zullen nu zien of dat ook klopt.
Succes !
Pentaxiaan
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Alle CrossFire certified mobo's kunnen dit draaien. Of het nou van Intel is of AMD. Maakt niet uit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Mwa ik denk dat het gewoon past in m'n Antec 900. Als die kaarten een stuk langer zijn komen ze dichter bij die frontbays waar m'n 120mm fans zitten, dus ook dichter bij (extra) koelingXadeon schreef op zaterdag 22 december 2007 @ 22:53:
Omg, je zou maar is 2 van deze monsters hebben.Velen zullen naast een nieuwe voeding ook een nieuwe kast moeten aanschaffen, of zijn/haar huidige kast modificeren.
Ik zou best 2 van deze in CF willen (en kunnen). 3870 CF gaat goed, crysis draait al aardig op 1920x1200, met very high tweaked config DX10. Zo'n 30-35 fps gemiddeld, maar soms ook goed stukken in de 40 of zelfs hoger tijdelijk.
Temps in CCC: Bovenste (primary) zit rond de 45-46 graden idle, en de onderste zo'n 37 graden.
Overklokken is me nog niet gelukt, maar daar zal denk ik een bios flash voor aan te pas moeten komen. Ook al zouden die fan speeds niet optimaal zijn, ik heb niet echt last van extreem hoge temps, laat staan in idle mode. Ben trouwens erg tevreden over de geluidsproductie.
Echter vraag me ik af of de CPU in geval van R680 in CF geen bottleneck gaat worden, met zo'n rood geweld in je systeem. Wat voor soort voeding is aan te raden bij zoiets? Minimaal 800watt ofzo met 60+ amps?
ohja had nog voor de lol op aanvraag van frankknopers een 3dmark03tje gedraaid, haalde net geen 60.000 punten

[ Voor 4% gewijzigd door peakaboo op 22-12-2007 23:55 ]
Dank u wel voor dit antwoord!CJ schreef op zaterdag 22 december 2007 @ 23:43:
[...]
Alle CrossFire certified mobo's kunnen dit draaien. Of het nou van Intel is of AMD. Maakt niet uit.
De Maximus Extreme en ik zitten al te wachten op 2 R680's!
Is het nog steeds late Januari als release date?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
28.N0taFAma schreef op zaterdag 22 december 2007 @ 23:58:
[...]
Dank u wel voor dit antwoord!
De Maximus Extreme en ik zitten al te wachten op 2 R680's!
Is het nog steeds late Januari als release date?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
3DMark06 record: 16348 Beide 3870 overklokt (niet gedacht dat ik zo ver zou komen ZONDER bios flash) en CPU naar 3,6Ghz op bijna stock vcore.
GPU 860MHz - Memory 1201Mhz
CF werkt goed tot nu toe, krijg alleen NFS PS niet aan de gang maar betwijfel of dat aan de crack ligt (ja ik heb geen zin om steeds die CD erin te duwen).
R6 Vegas: 60 fps lock op 1920x1200 alles aan + maxed oud, geen drops.
Crysis: 1920x1200 geen AA, alles very high (tweaked config) meestal 30fps gem, regelmatig 35-40.
Company of Heroes OF: 1920x1200, 4x AA + 16x AF (in CCC) alles very high en DX10, bench gaf 35,3 fps gem en max 60,2 fps.
[ Voor 17% gewijzigd door peakaboo op 23-12-2007 06:40 ]
Verwijderd
Van NFS is een patch beschikbaar. Miss dat t helptpeakaboo schreef op zondag 23 december 2007 @ 06:38:
Update:
3DMark06 record: 16348 Beide 3870 overklokt (niet gedacht dat ik zo ver zou komen ZONDER bios flash) en CPU naar 3,6Ghz op bijna stock vcore.
GPU 860MHz - Memory 1201Mhz
CF werkt goed tot nu toe, krijg alleen NFS PS niet aan de gang maar betwijfel of dat aan de crack ligt (ja ik heb geen zin om steeds die CD erin te duwen).
R6 Vegas: 60 fps lock op 1920x1200 alles aan + maxed oud, geen drops.
Crysis: 1920x1200 geen AA, alles very high (tweaked config) meestal 30fps gem, regelmatig 35-40.
Company of Heroes OF: 1920x1200, 4x AA + 16x AF (in CCC) alles very high en DX10, bench gaf 35,3 fps gem en max 60,2 fps.
Ik heb dit ook na het installeren van 7.12, en op bijv. Youtube (eerste de beste voorbeeld) zijn alle links in het "Gerelateerde video's" gedeelte bij mij roodMensionXL schreef op vrijdag 21 december 2007 @ 16:42:
En hij is er voor de liefhebbers. ATi Catalyst 7.12
Hij was dus al eerder uit
Is Tweakers.net trouwens in de kerstsfeer, of doen de Catalyst drivers raar?(Ik doel op de blauwe letters, ik zag ze niet bij een screenshot en wél op m'n scherm...)
[afbeelding]

't Ziet er niet uit eerlijk gezegd..
Edit: als je die blauwe tekst bovenaan van Tweakers selecteert, wordt het weer normaal rood..
Maar als het dáárna weer buiten beeld valt en je dan terugscrollt, is het weer blauw.. Toch niet zo'n goede catalyst voor 2D mode.. In 3D loopt het merkbaar soepeler maar dit is niks in 2D...
[ Voor 18% gewijzigd door Evano op 23-12-2007 15:45 ]
Verwijderd
CF werkt iig niet we hebben zelfs met de HD 3870 geprobeerd als primary VGA om met die 2900 XT if CF te zetten in de CCC was er helemaal geen CF optie aanwezig het zelfde als met de 2900 XT als primary VGA.
met ATi Tray Tool hadden we we een CF Tab, dus wij daarin gegaan, maar die zei dat CF niet mogelijk was met onze setups ook met beide Primary . secondary setups.
hier wat pics van onze situatie.



There you have it mensen, dus voor de mensen die een 2900 XT hebben het spijt ons dat het nog niet gelukt is.
Er is nog iets wat we niet voor elkaar krijgen, dat is om die unkown PCI devices te installeren.
Onze testbak draait WinXP Pro + SP2 we hebben de laatste ATi Catalyst driver gepakt.
Is daar iets voor we denken dat het die Audio chip is op een of ander manier die in de R600 als RV670 zit ingewerkt.
Ik had hierover nog een apparte topic gemaakt maar die is blijkbaar verwijderd vandaar dat ik het hier post.
[ Voor 22% gewijzigd door Verwijderd op 23-12-2007 17:50 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


http://forum.donanimhaber.com/m_19839038/tm.htm
[ Voor 63% gewijzigd door Apoca op 23-12-2007 18:07 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Dat is de HDA tunnel, voor HDMI geluid naar je onboard HD-Audio chipset te sturen. Staat op het CD'tje van je Videokaart.Verwijderd schreef op zondag 23 december 2007 @ 15:59:
Er is nog iets wat we niet voor elkaar krijgen, dat is om die unkown PCI devices te installeren.
Euhhh....Verwijderd schreef op zondag 23 december 2007 @ 15:59:
Onze testbak draait WinXP Pro + SP2 we hebben de laatste ATi Catalyst driver gepakt.
De truuk was juist door een verouderde Driver (7.10 of lager dacht ik) te gebruiken, niet gek dat het niet wil werken

Pentaxiaan
Interessant... het aantal streamprocessors. 120. De RV610 aka HD2400 had er 40. 120 is hetzelfde aantal als de HD2600. Je zou toch echt 40 verwachten hier.Apoca schreef op zondag 23 december 2007 @ 17:47:
ATi HD 3400 Series (R620)
[afbeelding]
[afbeelding]
http://forum.donanimhaber.com/m_19839038/tm.htm
[ Voor 3% gewijzigd door CJ op 23-12-2007 18:39 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Core: RV620
Fab: 55nm
Core Clock: 525Mhz
Mem Clock: 400Mhz (800Mhz DDR)
Memory: 256MB DDR2
Mem Interface: 64bits
Output: Display Port (HD3450), VGA
Interface: PCIe 2.0
Radeon HD 3470
Core: RV620
Fab: 55nm
Core Clock: >600Mhz
Mem Clock: 500Mhz (1000Mhz DDR)
Memory: 256 -512MB G DDR3
Mem Interface: 64bits
Output: TV-Out, VGA, DVI-i.
Interface: PCIe 2.0
http://www.expreview.com/...2-20/1198136510d7341.html
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
HD2400 -> 40 streamprocessors -> 65nm -> 180M transistoren
HD3400 -> 40 streamprocessors -> 55nm -> 181M transistoren
Dat bevestigt meteen het gerucht dat de HD2400 ook al zo goed als DX10.1 compliant is.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Kwam dit stukje tegen, is best intressant voor eens rustig door te lezen. Veel is reeds door CJ eens verteld
http://www.beyond3d.com/content/reviews/47/1
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Hoe kun je dat zo met zekerheid zeggen? Het kan toch ook dat de HD3400 geen DX10.1 ondersteunt? Of dat het gewoon een aangepaste architectuur is met DX10.1, terwijl de HD2400 gewoon DX10.0 ondersteunt maar dat het transistor aantal bij toeval ongeveer gelijk is?CJ schreef op zondag 23 december 2007 @ 18:50:
Even ter bevestiging. Het is een foutje op die slide. De HD3400 Serie heeft maar 40 streamprocessors.
HD2400 -> 40 streamprocessors -> 65nm -> 180M transistoren
HD3400 -> 40 streamprocessors -> 55nm -> 181M transistoren
Dat bevestigt meteen het gerucht dat de HD2400 ook al zo goed als DX10.1 compliant is.In 1M transistoren stop je echt geen DX10.1 functionaliteit. Daar heb je niet voldoende aan. We kunnen nu dus ook met zekerheid stellen dat de HD2600 Serie ook DX10.1 compliant is. Maar waarschijnlijk zal deze functionaliteit niet bij de HD2400 en HD2600 geactiveerd worden.
Overigens vind ik het een beetje een vreemd verhaal, de HD3400 is dus vrijwel exact hetzelfde als de HD2400, maar dan op 55nm ipv 65nm?
Dat de hd2400 & 2600 dx10.1 reeds ondersteunen is al een eindje bekend, het is alleen nog wachten op iemand die creatief met de drivers gaat doen eens de dx10.1 drivers uit zijn om dit voorgoed te bevestigen. Ze ondersteunen trouwens ook DP.leonpwner1 schreef op zondag 23 december 2007 @ 19:07:
[...]
Hoe kun je dat zo met zekerheid zeggen? Het kan toch ook dat de HD3400 geen DX10.1 ondersteunt? Of dat het gewoon een aangepaste architectuur is met DX10.1, terwijl de HD2400 gewoon DX10.0 ondersteunt maar dat het transistor aantal bij toeval ongeveer gelijk is?
uit de b3d hd38xx review
RV670 gets some crucial extras that R600 didn't have, too, to factor into those calculations about where the missing transistors have gone that we know you'll have on the forums. Chip layout changes, the production process and the usual rejigging just won't do for the savvy technologist to bat around these parts.
So why not think about UVD, AMD's fabled video decoder block that can decode hilariously complex video streams so big and so bitty that you wonder how it's only 4.7mm² on 65nm and not half the transistor count of the GPU on its own. RV670 sports it. Why not think about its DX10.1 support, too. That's got to cost you some transistors, right? Well, no, since technically already-released RV6xx parts could get certified as supports DX10.1 and SM4.1, we reckon, but it might be _some_ cost in your book versus R600.
[ Voor 41% gewijzigd door oeLangOetan op 23-12-2007 19:21 ]
En ik neem aan dat we die die 32x AF ook met CF krijgen ? En niet alleen met de X2 kaarten ?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het transistor aantal is niet "bij toeval" gelijk. Het is niet mogelijk om met exact dezelfde specs, ook nog eens DX10.1 functionaliteit toe te voegen en dan maar 1 Miljoen extra transistors te gebruiken.leonpwner1 schreef op zondag 23 december 2007 @ 19:07:
[...]
Hoe kun je dat zo met zekerheid zeggen? Het kan toch ook dat de HD3400 geen DX10.1 ondersteunt? Of dat het gewoon een aangepaste architectuur is met DX10.1, terwijl de HD2400 gewoon DX10.0 ondersteunt maar dat het transistor aantal bij toeval ongeveer gelijk is?
Dat de HD3400 gewoon DX10.1 ondersteunt is zoals gezegd al lange tijd bekend. Net zoals de HD3600. Het bekend maken van het aantal transistors is gewoon een bevestiging van iets dat al vermoed werd (zie de quote van B3D) dat de HD2400 en HD2600 ook al DX10.1 compliant waren. Dus het grote verschil zit hem in productieprocessen. Daarnaast ging er over de HD2400 en HD2600 ook al het verhaal dat deze ook al Powerplay zouden hebben geinbakken, maar dat dit gedeactiveerd was vanwege fouten. Dit is blijkbaar nu gefixed.
Zie ook deze slide met specs van de HD3400:
Klopt.Overigens vind ik het een beetje een vreemd verhaal, de HD3400 is dus vrijwel exact hetzelfde als de HD2400, maar dan op 55nm ipv 65nm?
Je krijgt het niet bij CF... Je hebt het al... al vanaf het begin dat CrossFire gelanceerd werd.Astennu schreef op zondag 23 december 2007 @ 19:22:
En ik neem aan dat we die die 32x AF ook met CF krijgen ? En niet alleen met de X2 kaarten ?
32x AF krijg je alleen bij SuperAA omdat er twee keer zo veel texture samples genomen worden. 2x AF wordt 4xAF, 4xAF wordt 8xAF, 8x AF wordt 16xAF en 16xAF wordt 32xAF. Lees aub het PDF document over CrossFire door of lees de reviews door die ik gelinkt had in mn vorige post over 32xAF. Daar wordt het namelijk netjes uitgelegd en voorkomt zulke basisvragen.
[ Voor 17% gewijzigd door CJ op 23-12-2007 20:17 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ATi Cat 7.12, nu mét de CLASSIC Control Centre
Dit probleem dus:

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
positief:
- Portal en TF2 (Source engine stuttering sound crash = gone)
- Kaart wordt minder warm en de fanspeeds blijven niet meer op 90% steken
- Avivo verneukt geen mediacenter files (dvr-ms) meer in andere spelers dan mediaplayer
- Secondary scherm (van 2x20" wide) wordt meteen herkend
- Hardware acceleratie van h.264 loopt naar behoren. Kan nu ook bitrate van 6k+ aan op men a64 3000+
negatief:
- Nog steeds geen video overlay op secondary scherm (sinds 7.8 niet meer gewerkt en rollbacks helpen niet. enkel players met een eigen overlay werken. Powerdvd doet het dus niet.
- Nieuwe bug: "No ATI graphics driver is installed, or the ATI driver is not functioning properly. Please install the ATI driver appropriate for your ATI hardware." boodschap wanneer je op je pc connect via rcdm (remote desktop)
Mochtern er mensen een workaround weten hiervoor, u weze welgekomen.
Het loopt in games heerlijk soepel, maar die kleur corruptie (rood=blauw geworden en andersom) is ontzettend irritant.. Je kan het uitschakelen via Systeem-->Geavanceerd-->Prestaties-->Visuele effecten de onderste optie (zachte randen rond schermlettertypen) uit te schakelen, maar dat ziet er ook niet uit.

Kan ik beter Catalyst 7.11 nemen of de laatste Omega Catalyst?
Aangezien der toch een deel GPU in zit, dacht ik dat ik hem hier wel kon plaatsen

http://www.tcmagazine.com...hp?shownews=17267&catid=2
[ Voor 19% gewijzigd door Apoca op 24-12-2007 17:12 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Verwijderd
Performance is dus beter?
Over die transistors. Het kan ook zijn zoals iemand al zei, dat ze de features verberterd hebben waardoor ze minder transistoren gebruiken. Ze kunnen sommige dingen weggelaten hebben danwel verbeterd met iets wat minder transistoren nodig het. En essentieel is er toch niet veel evrschil tussen DX10 en Dx10.1?
Toch klinkt het verhaal dat de HD2400 en HD2600 al zp goed als DX10.1 compliant zijn net zo redelijk. Volgens geruchten, maar ook als je aan neemt dat de RV630 en RV610 later zijn ontworpen dan de R600.
Is het trouwens zo dat de ringbus architectuur eiegenlijk is ontworpen met het oog op de R700 en meerdere cores structuur? Lijkt me een zeer efficiente methode, dus niet CF gekoppeld. Mss daarom ook de 512 bit keuze voor de R600. Wie weet 1024 bit voor de top R700 variant.
Edit:
Hierboven, zit er dus ook een volledige NB in geintegreerd?
[ Voor 4% gewijzigd door Verwijderd op 24-12-2007 17:20 ]
1024-bit ..... euh.... de 512-bit bus van de 2900XT maakte dat ding onnodig complex en veel te duur.Verwijderd schreef op maandag 24 december 2007 @ 17:15:
Is het trouwens zo dat de ringbus architectuur eiegenlijk is ontworpen met het oog op de R700 en meerdere cores structuur? Lijkt me een zeer efficiente methode, dus niet CF gekoppeld. Mss daarom ook de 512 bit keuze voor de R600. Wie weet 1024 bit voor de top R700 variant.
Er zouden nog eens 400 miljoen transistoren (256-bit -> 512-bit kost 200 miljoen schakelaartjes) extra erbij moeten komen om de bandbreedte nog eens te verhogen, die nog niet eens voor 100% word benut.
1024-bit is onhandig, duur, complex en laat staan hoe groot het PCB zal worden met 32 geheugen blokjes (ervan uitgaande dat standaard 32-bit GDDR word gebruikt).
Niet realistisch dus.
De ringbus architectuur van de R600 was een zeer strak plan met multi-core GPU's in het achterhoofd, aangezien de Core niet direct data bij het kan geheugen opvragen, maar bij "een tussenstation". Dit zullen we ongetwijfeld terugzien bij de R700.
Pentaxiaan
De memory interface (pijltjes richting de memory modules) is 512-bits (8 x 64-bits kanalen)
De ringbus (rode lijnen in het plaatje) is 1024-bits (4x 256-bit ringen)

Bij de RV670 is het als volgt.
De memory interface is 256-bits (8 x 32-bits kanalen)
De ringbus is 512-bits (2x 256-bit ringen)
Hoe kan dit dan worden toegepast op de een multicore GPU? Speculaties zeggen dat je de "Ring Stop" in het plaatje kan vervangen door een enkele R700 core. In totaal kunnen er dus 4 cores in een ring aan elkaar gekoppeld worden. De memory interface hoeft daardoor niet omhoog te gaan en de complexiteit van de GPU blijft daardoor ook binnen de perken.
Edit: Waarschijnlijk kunnen er meer dan 4 cores in de ringbus worden geplaatst afhankelijk van hoe sterk een R700 core is. Als een enkele R700 core zeer krachtig is dan zou het volgende kunnen:.
1 Core: 2x 64-bits = 128-bit memory interface (waarschijnlijk geen ring)
2 Core: 4x 64-bits = 256-bit memory interface
3 Core: 6x 64-bits = 384-bit memory interface
4 Core: 8x 64-bits = 512-bit memory interface
Bij zwakkere mini-cores zou het zo kunnen zijn:
1 Core: 2x 32-bits = 64-bit memory interface (lowend)
2 Core: 4x 32-bits = 128-bit memroy interface
3 Core: 6x 32-bits = 192-bit memory interface
4 Core: 8x 32-bits = 256-bit memory interface (midrange)
5 Core: 10x 32-bits = 320-bit memory interface
6 Core: 12x 32-bits = 384-bit memory interface (performance)
7 Core: 14x 32-bits = 448-bit memory interface
8 Core: 16x 32-bits = 512-bit memory interface (enthusiast)
Leuk al dat gespeculeer.
[ Voor 41% gewijzigd door CJ op 25-12-2007 11:49 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat probleem is wel op te lossen. Dat had ik ook op mn laptop. Even op Google zoeken naar die foutmelding. Je hoeft het maar één keer te doen, daarna werkt het met alle versies weer.Xadeon schreef op maandag 24 december 2007 @ 07:57:
Ah thx Jejking.Dit komt voor mij echt als geroepen, aangezien ik weer hetzelfde probleem had met CCC.
Dit probleem dus:
[afbeelding]
'You like a gay cowboy and you look like a gay terrorist.' - James May
edit: Ik neem aan dat je deze oplossing bedoelt >> http://support.ati.com/ic...nowledge&questionID=21278
[ Voor 29% gewijzigd door Xadeon op 25-12-2007 13:27 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Verwijderd
Wat bedoel je? De R700 hernoemd naar R800 en richting 2009 geduwd? En een getweakte R600 (R600TM?) ergens in 2008? Ik hoop op meer shaders voor de R600. Des te meer, des te beter.CJ schreef op dinsdag 25 december 2007 @ 04:30:
[..]
Leuk al dat gespeculeer.Maar ik heb zo'n vermoeden dat de R7x0 GPU die we straks gaan zien, niet de R700 is die we hadden verwacht. Een flink getweakte R600 zou me niet verbazen.
Trouwens een getweakte R600 is er immers al, de RV670
[ Voor 6% gewijzigd door Verwijderd op 25-12-2007 15:58 ]

Voor de rest niet echt veel winst, maar deze is zeker de moeite om te vermelden.
http://en.expreview.com/?p=144
[ Voor 23% gewijzigd door Apoca op 25-12-2007 16:00 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Als een R600 iets niet nodig heeft (buiten bandbreedte) zijn het wel shaders.Verwijderd schreef op dinsdag 25 december 2007 @ 15:49:
Ik hoop op meer shaders voor de R600. Des te meer, des te beter.
Texture Mapping units zal je bedoelen.
....die geen reet sneller isVerwijderd schreef op dinsdag 25 december 2007 @ 15:49:
Trouwens een getweakte R600 is er immers al, de RV670.

[ Voor 85% gewijzigd door SirNobax op 25-12-2007 16:13 ]
Pentaxiaan
Omdat het een getweakte en tegelijktijd gestripte versie is. Ik denk dat de IPC en dergelijken toch een stukje hoger ligt.
Dat weet je allemaal niet.
[/quote]
Inderdaad, dat weten we allemaal niet .....totdat we kijken wat er boven de balk van "Catalyst 7.11" staat.
nvm, verkeerd je post gelezen, je bedoelt natuurlijk hoe ATI aan die 5% kom.
[edit] ...Trouwens, allen een fijne kerst mede-ATI'ers
[ Voor 25% gewijzigd door SirNobax op 25-12-2007 17:39 ]
Pentaxiaan
Opgepimpt dan.Verwijderd schreef op dinsdag 25 december 2007 @ 15:49:
[...]
Wat bedoel je? De R700 hernoemd naar R800 en richting 2009 geduwd? En een getweakte R600 (R600TM?) ergens in 2008? Ik hoop op meer shaders voor de R600. Des te meer, des te beter.
Trouwens een getweakte R600 is er immers al, de RV670![]()
Met bijvoorbeeld:
- 24 ROPs
- 32 Texture Units
- Hardware AA toepassen wanneer dit handig is
- Fast14 techniek toepassen op streamprocessorsnelheid aangezien ATI daar een licentie op had
- 320 streamprocessors die niet alleen als 64x5 werken, maar zich ook kunnen hergroeperen als bv 80x4 of 160x2 of 320x1, zodat deze in het ergste geval niet als 64x1 werkt, maar als 320x1 of 160x2.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Dit is GoT en geen kleuterschool... dus:
- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten