Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Het mag wel duidelijk zijn dat de Cat 6.12-set de driver-to-be is
Bron
Verwijderd
Blijkbaar speel het ATI driver team (te?) veel Company of Heroes.Jejking schreef op zaterdag 23 december 2006 @ 14:06:
Oh ja Company of Heroes @ ATi (AMD?)-players opgelet!
[afbeelding]
[afbeelding]
Het mag wel duidelijk zijn dat de Cat 6.12-set de driver-to-be is
Bron
In andere spellen is er weinig performance geboekt.
Wat zou dan beter zijn? Dat of de Accelero X2?Verwijderd schreef op vrijdag 22 december 2006 @ 00:14:
Dit X18/1900 koelertje al voorbij gekomen hier?
http://www.thermaltakeusa...0076/cl-g0076.asp#feature
[afbeelding][afbeelding]
Lijkt me hard to beat die X2, een Sapphire X1900XT512 Idle @ 39 en Load @ 47 30 minuten stressen met Battlefield 2142!
Oh performance zat hoor, je zal performancewinst bedoelenVerwijderd schreef op zaterdag 23 december 2006 @ 14:14:
[...]
Blijkbaar speel het ATI driver team (te?) veel Company of Heroes.![]()
In andere spellen is er weinig performance geboekt.
Maar inderdaad, weinig vooruitgang, ik denk dat ze al druk bezig zijn met R600-drivers schrijven daar
[ Voor 23% gewijzigd door Jejking op 23-12-2006 14:25 ]
Ik vind het wel netjes.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
De core zelf is wel iets veranderd. De R580+ core heeft een andere revisienummer ten opzichte van de R580 core die in de X1900XT(X) gebruikt wordt. De R580 is revisie A22, terwijl de R580+ revisie A31 is. Het verschil is dat de R580+ core een aantal verbeteringen heeft doorgevoerd gekregen in de memorycontroller en in de core zelf om nog beter met GDDR4 om te kunnen gaan. Daarnaast bestaat het vermoeden dat ATI ook veranderingen in de pipeline-layout heeft doorgevoerd waardoor de core minder warm wordt en/of de hitte beter verdeeld wordt.Krizzie schreef op zaterdag 23 december 2006 @ 11:27:
[...]
De core zelf is toch niks veranderd? Die + was toch alleen omdat hij met GDDR4 werkt ipv GDDR3?
Daarom heeft ATI ook de cooler iets beter kunnen tweaken op de X1950XT waardoor deze minder geluid maakt dan de X1900XT(X).
Overigens heeft Firingsquad een recensie online gegooid van de X1950Pro AGP. Deze komt hier zeer goed uit de bus als snelste AGP kaart ooit.
http://www.firingsquad.co...eon_x1950_pro_agp_review/
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 99% gewijzigd door Nano2009 op 26-12-2006 12:48 ]
Niet alleen GeCube en Sapphire werken aan Gemini opstellingen van de RV560 en RV570... Ook Asus is bezig met dual opstellingen. Asus heeft 2x een X1950Pro bij elkaar gestopt en er de EAX1950Pro DUAL van gemaakt. Aan het PCB te zien is een Quad CrossFire opstelling echter niet mogelijk.



http://www.oc.com.tw/article/0612/readolarticle.asp?id=5658
[ Voor 15% gewijzigd door CJ op 26-12-2006 13:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Verwijderd
die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.
@ CJ
Mischien wel software matig is Quad CrossFire wel mogelijk en dat er michien een CF versie er van komt of je kan net als met de X1960GT CrossFire doen zonder een CrossFire Edition kaart wie weet
Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zit

[ Voor 77% gewijzigd door Verwijderd op 26-12-2006 14:04 ]
Verwijderd
Zoiets vermoedde ik al en dat heb ik dus gedaan. Maar... het staat er npg steeds! Dus ik dacht dat het toch wat anders moest zijn. Of moet ik dan soms eerst de computer herstarten...Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
@ J van E
die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.
Mooi? Verschrikkelijk!Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zitniet iedereen heeft een TFT of CRT met ee DVI aansluiting
[afbeelding]
We hebben niet voor niets DVI naar VGA adapters, het is wel lullig als die VGA poort de primaire aansluiting is voor Crossfire mode, leuk voor als je een 1920x1200 TFT scherm hebt.

Goud is geen geld
Dan krijg je er altijd minstens 1 converter bij.Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
@ J van E
die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.
@ CJ
Mischien wel software matig is Quad CrossFire wel mogelijk en dat er michien een CF versie er van komt of je kan net als met de X1960GT CrossFire doen zonder een CrossFire Edition kaart wie weet
Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zitniet iedereen heeft een TFT of CRT met ee DVI aansluiting
[afbeelding]
LOLVerwijderd schreef op dinsdag 26 december 2006 @ 13:51:
Ik heb eindelijk maar dan toch de ATI Control Centre verwijderd en gebruik nu het 'lichtere' Ati Tray Tools. Werkt prima, alleen... er staat nu in alle games een steeds veranderend en nogal opvallend getal in de rechter bovenhoek... Wat is dat en hoe krijg ik dat weg...?
Dat is volgens mij je FPS
Computer nr 486 denk ik..
Volgens mij kom je er alleen vanaf door ATi Tray Tools te verwijderen, maar dat is ook niet de bedoeling lijkt me. Is het echt zó storend dan?
frankknopers schreef op dinsdag 26 december 2006 @ 14:28:
[...]
Mooi? Verschrikkelijk!
We hebben niet voor niets DVI naar VGA adapters, het is wel lullig als die VGA poort de primaire aansluiting is voor Crossfire mode, leuk voor als je een 1920x1200 TFT scherm hebt.
Alleen jammer dat menig converter de kwaliteit van het beeld omlaag haalt. Ik heb nog nooit een goede DVI - D-SUB converter gezien bij videokaarten. Bij een XFX GeForce FX 5600 was de kwaliteit slechter met de converator. Ook bij een Sapphire Radeon X800 en een Sapphire Radeon X1950Pro (waar twee converters bijzitten) gaat de 2D kwaliteit er op achteruit bij het gebruik van de converters.Krizzie schreef op dinsdag 26 december 2006 @ 14:29:
[...]
Dan krijg je er altijd minstens 1 converter bij.
Dit geldt ook voor andere converters die ik in handen gehad heb.
Wat mij betreft is een D-SUB op dergelijke kaarten best welkom. Een converter zonder kwaliteitsverlies zou ook goed zijn.
Al met al het hangt er maar net af wat voor monitoren men gaat gebruiken. Indien ik twee TFT's had met DVI connectors dan zou ik de D-SUB ook liever kwijt dan rijk zijn
Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.
Verwijderd
ben wel met je eens hoor
maar die D-Sub kan toch vele mensen blij maken ik denk naturrlijk op overal gebied en geen kleine percentage aka de ultra high end gamers groepje.
en dat ASUS daar aan denkt is alleen maar goed en idd er is best een achteruitgang qua image quallity als je een converter gebruikt zonder meer
[ Voor 28% gewijzigd door Verwijderd op 26-12-2006 18:29 ]
Hopefully we will see some improvements in performance for Vegas on NVIDIA's hardware soon, because as it stands, the game clearly favors ATI parts, with the obvious exception of the 8800. That is a trend we've seen more of over time, however: G70 series hardware does very well at DX8 graphics, but when more DX9 effects are enabled the pixel shaders on many NVIDIA chips don't seem to do as well as ATI's hardware.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
leuk verhaal...maar is toch allang bekend dat de g70/71 iets minder presteerd in dx9 dan de r580...Help!!!! schreef op dinsdag 26 december 2006 @ 18:53:
ATI liefhebbers, ik wil jullie een mooie quote niet onthouden
daar is de g80 voor
Oh. Ik dacht dat die DX10 deed..Mr. Detonator schreef op dinsdag 26 december 2006 @ 18:57:
[...]
leuk verhaal...maar is toch allang bekend dat de g70/71 iets minder presteerd in dx9 dan de r580...
daar is de g80 voor
Doet ie ook, maar dat wil niet zeggen dat je er alleen DX10 apps mee kan, hij is ook DX9 backwards compatible
Leuk om te zien dat een X1650XT de GF7900GS weet bij te benen en dat de X1950Pro, die eigenlijk de tegenstander is van de 7900GS, er flink over heen gaat.
Ben benieuwd hoe de R600 zal presteren tegenover de GF8800GTX.
[ Voor 7% gewijzigd door CJ op 26-12-2006 20:43 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 83% gewijzigd door R-O-Y op 26-12-2006 22:11 ]
Ik weet niet hoe je de convertor getest hebt, maar in principe moet dvi met convertor precies hetzelfde beeld geven als d-sub op hetzelfde scherm. Op een tft die dvi en d-sub input heeft is dvi mooier dan d-sub, of de bron aan de d-sub nou van d-sub komt of via een convertor van dvi.Thandor schreef op dinsdag 26 december 2006 @ 18:04:
Alleen jammer dat menig converter de kwaliteit van het beeld omlaag haalt.
Dvi heeft op een tft beter beeld omdat zowel het scherm als de videokaart van nature digitaal werken. Uit de berekeningen van de videokaart komt voor elke pixel op het scherm een kleurwaarde en een tft stuurt naar elke pixel op het scherm een bepaalde kleurwaarde. D-sub werkt analoog, het beeld opgebouwd uit afzonderlijke pixels wordt door een ramdac op de videokaart omgezet in een analoog signaal. Omdat een crt scherm analoog werkt hoeft er verder niets omgezet te worden. Als je je tft met d-sub (of dvi met convertor) aansluit aan je pc wordt het signaal door de pc eerst van digitaal naar analoog omgezet en vervolgens door het scherm weer in digitaal omgezet. Hierdoor weet het scherm geen exacte waarde voor elke pixel en hebben niet alle pixel precies de goede kleur.Dit is waarom in 2D (en in 3D, maar dat valt minder op) het beeld waziger is met d-sub dan met dvi. Afgezien van dat heb je op een analoog signaal ook last van ruis die in de kabel opgevangen wordt.
Op een dvi aansluiting staat zowel het beeld analoog als digitaal. Het heeft dus geen zin om een dvi met convertor te vervangen met een d-sub aansluiting, omdat beide dezelfde kwaliteit geven.
Ik ben geen expert op dit gebied, maar dit is hoe ik het begrijp. Het geheel is natuurlijk nogal versimpeld en misschien kloppen niet alle details, maar het geheel zit dicht bij de werkelijkheid.
Ik heb hier een CRT staan met een D-SUB connector. Toen ik het scherm kocht had ik een XFX GeForce FX 5600 in de PC steken. Hierop zat zowel een D-SUB als een DVI connector. Ik heb destijds het scherm aan beide poorten gehad. Een keer aan de 'native' D-SUB en een keer aan de DVI connector met behulp van de bijgeleverde DVI - D-SUB converter. Tijdens het switchen werd meteen al zichtbaar dat de 2D beeldkwaliteit met de 'native' D-SUB simpelweg hoger was.m277755 schreef op dinsdag 26 december 2006 @ 22:55:
[...]
Ik weet niet hoe je de convertor getest hebt
Later kocht ik een Sapphire Radeon X800. Deze had net zoals de vorige kaart zowel een D-SUB als DVI aansluiting. Hier hetzelfde verhaal: Met de D-SUB was het beeld mooier.
Heden heb ik een Sapphire Radeon X1950 Pro met een tweetal DVI connectors. Ik ben nu dus geforceerd om de DVI convertor te gebruiken. Wat zie ik op het scherm? Dezelfde 2D kwaliteit als bij de vorige twee kaarten met een converter op de DVI poort.
In de tussentijd heb ik ook andere DVI converters aan de kaarten gehad. Deze gaven ook een lagere 2D beeldkwaliteit.
Mits de convertor de kwaliteit niet omlaag brengt., maar in principe moet dvi met convertor precies hetzelfde beeld geven als d-sub op hetzelfde scherm.
Dat klopt. Enkel heb ik geen TFTOp een tft die dvi en d-sub input heeft is dvi mooier dan d-sub
Logisch, de DVI poort met daaraan een converter zal geen pure DVI kwaliteit zijn maar moet in principe van dezelfde kwaliteit zijn als de D-SUB. Again, mits de converter het signaal niet verstoord.,of de bron aan de d-sub nou van d-sub komt of via een convertor van dvi.
Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.
Als dit werkelijk de oorzaak is (de converter), dan zou ik, als ik jou was, naar de winkel lopen en daar een DVI->D-SUB kabel kopen van een 1,8M van hoge kwaliteit (wordt aangegeven in reso =1024, =1280, =1600, =1900 of >1900). Nja, iemand(verkoper) die genoeg verstand heeft van de kabels of een goed boekje heeft waar het in staat kan het je vertellen. Waarschijnlijk is zo'n kabel een stuk beter dan een converter, deze is namelijk niet ontstoord en het enige wat het doet is een paar pinnetjes verleggen naar een andere connector...Thandor schreef op dinsdag 26 december 2006 @ 23:12:
Logisch, de DVI poort met daaraan een converter zal geen pure DVI kwaliteit zijn maar moet in principe van dezelfde kwaliteit zijn als de D-SUB. Again, mits de converter het signaal niet verstoord.
Just my 2 cents
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
-ATi Partners hebben R600 kaarten gekregen
-1 GHz Core 1 GHz Ram
-Long PCB ( Not final version )
-R600 Misschien ook scaler Shaders IPV Vec
Dit zijn de laatste roddels. Wat er van waar is is weer de vraag. Er waren al eerder geruchten dat de A12 Core al 1 GHz kon halen. Inmiddels zou de A13 er ook al moeten zijn. sommige sluiten clock domains ook nog steeds niet uit. Aangezien Fast14 ook zo iets gebruikt. De chip kan dan nog wel op de zelfde snelheid draaien maar de clocks kunnen met die techniek los geregeld worden ( Dit heb ik gelezen op B3D )
Dus het blijft spannend.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomenAstennu schreef op woensdag 27 december 2006 @ 11:39:
Laatste R600 Roddels:
-ATi Partners hebben R600 kaarten gekregen
-1 GHz Core 1 GHz Ram
-Long PCB ( Not final version )
-R600 Misschien ook scaler Shaders IPV Vec
Dit zijn de laatste roddels. Wat er van waar is is weer de vraag. Er waren al eerder geruchten dat de A12 Core al 1 GHz kon halen. Inmiddels zou de A13 er ook al moeten zijn. sommige sluiten clock domains ook nog steeds niet uit. Aangezien Fast14 ook zo iets gebruikt. De chip kan dan nog wel op de zelfde snelheid draaien maar de clocks kunnen met die techniek los geregeld worden ( Dit heb ik gelezen op B3D )
Dus het blijft spannend.

[ Voor 0% gewijzigd door Arrigi op 27-12-2006 11:44 . Reden: typo ]
De PCB is niet final. Final PCB zou korter worden dan dat van de 8800 GTX. En die overstap van Vector naar Scalar moet idd al veel eerder gemaakt zijn. 2 jaar geleden. Maar sommige denken ook niet dat de R600 scalar zou hebben. Het zou wel kunnen. Maar beide bedrijven hebben geniale mensen maar dat betekend niet dat ze het zelfde bedenken.Arrigi schreef op woensdag 27 december 2006 @ 11:44:
[...]
Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomen. Die overstap van vector naar scalar (4D -> 1D? ) shaders is op dit moment toch niet meer mogelijk?
Dus ik denk nog steeds aan 96 Vec4+1D alu's met 800-1000 MHz core speed ( Er van uitgaand dat ze ook strained silicon en misschien ook fast14 gebruiken. ) Met een 512 Bit mem bus en 1200 MHz GDDR 4. ( Mijn grote gok ).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Zijn er nog geruchten over een RV570 Mobility?
Over de eventuele overstap van vector naar scalar, kan je het volgende ook in je achterhoofd houden... Al maanden voordat bekend was dat G80 een scalar-architecture zou worden, was er al een (hardnekkig) gerucht dat R600 volledig scalar zou worden. Dus het zou kunnen dat R600 al vanaf het begin volledig scalar is. Maar het zou ook kunnen dat dit mis-informatie was of dat de informatie over de G80 geprojecteerd werd op de R600.Arrigi schreef op woensdag 27 december 2006 @ 11:44:
[...]
Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomen. Die overstap van vector naar scalar (4D -> 1D? ) shaders is op dit moment toch niet meer mogelijk?
Als ATI echt een 512-bit memory interface heeft, dan betekent dat dus dat deze een sloot aan bandbreedte heeft die ook gebruikt dient te worden. Als je 64 of zelfs 96 vector (4D) shaders hebt, dan wordt die bandbreedte wel goed benut als de core op 1 Ghz draait. Hebben ze maar 64 of 96 scalar shaders dan blijft waarschijnlijk een groot gedeelte van de bandbreedte onbenut, tenzij ze op dubbele snelheid (dmv Fast14?) draaien ten op zichte van de rest van de core (clock domains?). De waarheid zal ongetwijfeld ergens in het midden liggen.
G80 heeft trouwens gigantisch veel (texture)fillrate, maar het verleden heeft uitgewezen dat ATI met minder fillrate net zo veel (of zelfs meer) kon doen dan nVidia. Zie ook bijvoorbeeld G71 vs R580.
Dan nog wat ander nieuws. Het was al bekend dat de X1950GT gecancelled was. Deze stond oorspronkelijk gepland voor een lancering op 17 januari. (500Mhz core, 600Mhz mem, 36 pixelshader engines). Maar wat er dus nu gebeurt is dat de X1950Pro in prijs omlaag gaat en ook de X1950XT zakt. De nieuwe prijs van de X1950Pro is waarschijnlijk de oude prijs van de X1950GT, namelijk $169 en de nieuwe prijs van de X1950XT is dan de oude prijs van de X1950Pro ($199 van $249). Of de X1650XL nog steeds op de planning staat voor $99 is mij niet bekend, maar ik heb verder niet gehoord dat deze gecancelled wordt.
[ Voor 5% gewijzigd door CJ op 27-12-2006 13:39 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Volgens mijn zal de G80 vs. R600 hetzelfde worden als de G71 vs R580.CJ schreef op woensdag 27 december 2006 @ 13:38:
[...]
Over de eventuele overstap van vector naar scalar, kan je het volgende ook in je achterhoofd houden... Al maanden voordat bekend was dat G80 een scalar-architecture zou worden, was er al een (hardnekkig) gerucht dat R600 volledig scalar zou worden. Dus het zou kunnen dat R600 al vanaf het begin volledig scalar is. Maar het zou ook kunnen dat dit mis-informatie was of dat de informatie over de G80 geprojecteerd werd op de R600.![]()
Als ATI echt een 512-bit memory interface heeft, dan betekent dat dus dat deze een sloot aan bandbreedte heeft die ook gebruikt dient te worden. Als je 64 of zelfs 96 vector (4D) shaders hebt, dan wordt die bandbreedte wel goed benut als de core op 1 Ghz draait. Hebben ze maar 64 of 96 scalar shaders dan blijft waarschijnlijk een groot gedeelte van de bandbreedte onbenut, tenzij ze op dubbele snelheid (dmv Fast14?) draaien ten op zichte van de rest van de core (clock domains?). De waarheid zal ongetwijfeld ergens in het midden liggen.
G80 heeft trouwens gigantisch veel (texture)fillrate, maar het verleden heeft uitgewezen dat ATI met minder fillrate net zo veel (of zelfs meer) kon doen dan nVidia. Zie ook bijvoorbeeld G71 vs R580.
Dan nog wat ander nieuws. Het was al bekend dat de X1950GT gecancelled was. Deze stond oorspronkelijk gepland voor een lancering op 17 januari. (500Mhz core, 600Mhz mem, 36 pixelshader engines). Maar wat er dus nu gebeurt is dat de X1950Pro in prijs omlaag gaat en ook de X1950XT zakt. De nieuwe prijs van de X1950Pro is waarschijnlijk de oude prijs van de X1950GT, namelijk $169 en de nieuwe prijs van de X1950XT is dan de oude prijs van de X1950Pro ($199 van $249). Of de X1650XL nog steeds op de planning staat voor $99 is mij niet bekend, maar ik heb verder niet gehoord dat deze gecancelled wordt.
Beiden ijzersterke kaarten. De ene kaart voordeel in het ene spel dan andere kaart in het andere spel.
Verwijderd
Die 512 Bit bus kan ook prima met GDDR 3 werken. Maar ik gok dat de Shaders units dusdanig zwaar zijn dat de 512 Bit bus ook echt nodig is. Dus hij zal wel sneller dan de G80 moeten zijn. Anders is het zonde van de dure 512 Bit bus. Of de R600 heeft toch geen 512 Bit bus.... Maar ik ga toch voor de 512 Bit bus met GDDR 4 @ 1200 MHz en daarbij dus 96 shaders op een clockspeed hoger dan 800 MHz.Verwijderd schreef op woensdag 27 december 2006 @ 16:05:
tenzei dat de R600 512Bits breed is, zou dit ook een mogelijkheid kunnen zijn, want dat zou beter clicken met 512Bit GDDR4 of mis ik iets?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
ook nog iets
AMD stopt 52 PCI lanes in de RD790 chipset, 3 PCI-E x16 slots en 1 PCI-E x4 slot
nieuws: AMD stopt 52 pci-e-lanes in RD790-chipset
"Door gebruik te maken van deze combinatie kunnen er bijvoorbeeld drie videokaarten in een systeem worden gestoken zonder dat een daarvan aan bandbreedte moet inleveren, iets waar moederborden met minder dan 48 pci-e-lanes wel mee te maken hebben"
"Verder zal de RD790-chipset HTX gaan ondersteunen, waardoor er gebruik kan worden gemaakt van uitbreidingskaarten die via een HyperTransport 3.0-bus een directe verbinding hebben met de processor en het geheugen. Het voordeel hiervan is dat er niet eerst informatie door de chipset heen hoeft te worden gestuurd, wat de snelheid ten goede zal komen. Waarschijnlijk zal de nieuwe chipset van AMD voor zowel socket AM2+ als socket F gaan dienen, wat dus ook ondersteuning voor quadcoreprocessors met zich mee zal brengen"
maar ja Q3 2K7 komt ie pas
[ Voor 98% gewijzigd door Verwijderd op 27-12-2006 18:28 ]
Dat is vrij oud nieuws. Die roadmap die The Inq gebruikt is al in Oktober in dit topic besproken.Verwijderd schreef op woensdag 27 december 2006 @ 18:18:
ja oke maar ik bedoelde de R600 zelf of die nou 256 Bit of 512Bit wordt net als de Parhelia 512 die was ook zelf 512Bit
ook nog iets
AMD stopt 52 PCI lanes in de RD790 chipset, 3 PCI-E x16 slots en 1 PCI-E x4 slot
nieuws: AMD stopt 52 pci-e-lanes in RD790-chipset
O.a. werd er vermeldt dat AMD ook iets leuks op die roadmap heeft staan... namelijk de mogelijkheid om 4 videokaarten in je moederbord te prikken en dus niet slechts 3 zoals op de FP staat. RD790 zouden dan gebruik maken van vier maal 8xPCIe... dat is dus echte Quad CrossFire.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Klopt, maar omdat de convertor geen actieve conversie doet moet het wel in de videokaart gebeuren. De enige reden dat dvi met convertor er slechter uit kan zien dan d-sub is als de ramdac op de 2e aansluiting (dvi) slechter is dan die op de 1e aansluiting (d-sub).Thandor schreef op dinsdag 26 december 2006 @ 23:12:
Mits de convertor de kwaliteit niet omlaag brengt.
Als dat zo is maakt het voor mensen met een crt niet uit of de eerste aansluiting een d-sub aansluiting of dvi met convertor is.
maar ik zal nu ophouden met offtopic gaan
Als de r600 die specs idd heeft, en hij maakt er goed gebruik van (en dus ook de software), lijkt het me voorlopig voor Nvidia een gedane zaak
[ Voor 8% gewijzigd door Visgek82 op 27-12-2006 19:42 ]
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Verwijderd
52 PCI-E Lanes
Ik wil er wel een hebben voor me K8L
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik trek geen conclusies, ik kijk puur naar speculatie. als de nieuwste geruchten waar zijn heeft de R600 een behoorlijke voorsprong op technisch gebied, zoals met veel ATI kaarten gebeurd is in het verleden.Verwijderd schreef op woensdag 27 december 2006 @ 19:45:
Voorlopig is er helemaal nog geen R600 en ligt de G80 al anderhalve maand in de winkels, dus een conclusie trekken op dit moment lijkt mij vrij voorbarig
Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME
Verwijderd
waarom niet gelijk 4x PCI-E x16 voor echte quad CrossFire ? of is dat niet mogelijk? je zou zeggen van wel want de ATi RD580 CrossFire Xpress 3200 heeft ook 2x PCI-E x16 Voor CF setup dus ik dacht van 4x PCI-E x16 zou ook moeten lukken
Maare idd 52 PCI lanes is wel erg lief om mee te beginnen, can't wait for benchmarks met dit ruige spul haha 2K7 wordt een leuk jaar voor de ATi gebruiker
Zo'n prototype lijkt me ook wel wat maar om er aan te komen is ook zo iets van heh je moet de mensen maar kennen heh

[ Voor 14% gewijzigd door Verwijderd op 27-12-2006 21:11 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Dan mag je wel een 2Kw voeding hebben met 4x R580 of 4xR600; en niet te vergeten een aparte stroomgroep in de meterkast. En wat wil je ermee bereiken? 500FPS ipv 250? 1 R600 lijkt me al meer dan genoeg. Als hij net zo goed presteerd als de 8800 serie, of een tikkeltje beter, zijn 2 of 3, laat staan 4 van deze kaarten totaal overbodig.
--> Misschien heeft het met Physics te maken
[ Voor 45% gewijzigd door Format-C op 27-12-2006 22:27 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik denk niet dat AMD/ATi echt voor Quad Crossfire gaat wel voor Physics. Vandaar ook de full 3x16 Support. Quad crossfire is mogelijk in de vorm van Gemini kaarten zoals de X1650 XT Gemini.RappieRappie schreef op woensdag 27 december 2006 @ 22:03:
Quad Crossfire is zowieso al om te lachen. Wat een overkill.![]()
Dan mag je wel een 2Kw voeding hebben met 4x R580 of 4xR600; en niet te vergeten een aparte stroomgroep in de meterkast. En wat wil je ermee bereiken? 500FPS ipv 250? 1 R600 lijkt me al meer dan genoeg. Als hij net zo goed presteerd als de 8800 serie, of een tikkeltje beter, zijn 2 of 3, laat staan 4 van deze kaarten totaal overbodig.
--> Misschien heeft het met Physics te makenIk kan me namelijk niet voorstellen dat iemand het in zijn/haar hoofd haalt om voor 2500 euro aan videokaarten in een PC te stampen die ook nog eens totaal niet tot hun recht komen met de huidige processors.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
dus 4 R580's zou je met een 1,1KW PSU wel goed zitten en mischien wel een goede 800 watter, dus het valt eigenlijk wel allemaal mee voor een quad setup althans.
Maare idd voor een Quad GPU setup gaat AMD.ATi voor 2 GPU's voor de Graphics en de andere 2 voor de Physics dat denk ik iig.
[ Voor 14% gewijzigd door Verwijderd op 28-12-2006 00:30 ]
De R600 zou 225 Watt per kaart gaan gebruikenVerwijderd schreef op donderdag 28 december 2006 @ 00:28:
heh een 2KW PSU is wel erg overdreven hoor , ik gebruik een Antec True Power 550P EPS12V voor me Dual R580/R580+ setup [X1900XTX /X1950XTX CFE] en echt heb nog een Voodoo 5 5500 PCI Macintosh als VGA 2 en echt alles loopt prima
dus 4 R580's zou je met een 1,1KW PSU wel goed zitten en mischien wel een goede 800 watter, dus het valt eigenlijk wel allemaal mee voor een quad setup althans.
Maare idd voor een Quad GPU setup gaat AMD.ATi voor 2 GPU's voor de Graphics en de andere 2 voor de Physics dat denk ik iig.
Laatste R600 Geruchten:
Hier hebben ze het dus weer over die scalar units. Wel toevallig dat het er ook 128 zijn :\ATI newest hearsay R600 operating frequency double 1GHz achieves Comes family's of from the actuation news
Today originates us from the anonymous news to learn ATi new generation of DX10 graph chip R600, already achieved the double G goal. The so-called double G goal is the core operating frequency achieves 1GHz, reveals saves the operating frequency to achieve 1GHz (equivalent DDR2GHz). At present the double G operating frequency type embraces in PCB the very long R600 achieved, at present also not clear ordinary PCB length R600 type card operating frequency. The R600 type card at present already delivered partial AIB to reveal the card merchant. Moreover, according to the newest hearsay, R600 uses outside 512-bit the annular main line (to support 512MB/1024MB/2048MB frame buffer), 1024-bit internal ring-like main line. 2.2GHz GDDR4 reveals saves, the peak value reveals saves band width 140.8GB/s. In constructs 128 scalar ALU, operating frequency 2GHz, each second 512 billion colouring operation. R600 integrates 16 ROP, operating frequency 1GHz, TMU unit 32, operating frequency 1GHz. Certainly, the R600 final actual parameter must take AMD the ATi announcement official parameter as.
Edit: Sommige hebben het over 64 Shaders met een dubbele ALu vandaar die 128 Shaders. Volgens mij moeten het dan 128 Shader Opterations zijn. De vraag is nu in hoeverre je die 128 Shader Operations van ATi kunt vergelijken met de performance van de nVidia Scalar units.
[ Voor 5% gewijzigd door Astennu op 28-12-2006 09:52 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.
Ik denk dat Quad crossfire net als Nvidia er zal komen in de Vorm van de Gemini kaarten. Bij nVidia was dit de GX2. Gigabyte heeft wel een Quad SLi moederbord gemaakt waar echt 4 kaarten in kunnen maar volgens mij is dat ook het enige bedrijf dat dat heeft gedaan. Ik denk dat het bij ATi ongeveer hetzelfde zal zijn.The Source schreef op donderdag 28 december 2006 @ 10:44:
Waarom zou er geen quad Crossfire op de markt komen? Als je daarmee de snelste bent dan hoef je echt niet te geven om de powerplant dat zo'n ding nodig heeft. En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.
Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.
Ik ben het wel met je eens dat volgend jaar de performance per watt strijd in de GPU markt zal beginnen. Bij de chipsets is dit ook erg belangrijk. Want krijg maar eens naar het verschil tussen de RD600 en de nForce 680i. Daar zit gewoon 70 Watt verschil in in full load. In Idle iets van 40.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Deze vraag is niet zo relevant aangezien quad-SLI mislukt is. Als AMD een efficiënt werkend platform kan produceren kan het zeker rekenen op positieve feedback en wellicht meer verkopen.The Source schreef op donderdag 28 december 2006 @ 10:44:
En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.
Het blijft natuurlijk wel een kleine markt. Maar toch blijken een hoop fanboys en mensen met ultra grote schermen die het geld ervoor over hebben.
Er zijn d'r meer die dit zeggen, maar is er ook een bron?Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.
[ Voor 10% gewijzigd door Verwijderd op 28-12-2006 12:18 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Quad SLI was nVidia's wanhopige poging om de X1900 crossfire setup te verslaan. Dit kan je niet zomaar 1 op 1 zetten met wat ATi zou doen als het in een gelijksoortige situatie zou komen. De bedrijfsfilosofie van ATi verschilt wel met die van nVidia.The Source schreef op donderdag 28 december 2006 @ 10:44:
Waarom zou er geen quad Crossfire op de markt komen? Als je daarmee de snelste bent dan hoef je echt niet te geven om de powerplant dat zo'n ding nodig heeft. En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.
[..]
ja...en crossfire is poging om sli te verslaan ?Verwijderd schreef op donderdag 28 december 2006 @ 15:30:
[...]
Quad SLI was nVidia's wanhopige poging om de X1900 crossfire setup te verslaan. .

Verwijderd

Ik hoorde eerste kwartaal en ik hoorde midden/eind januari
Hoe dan ook, het duurt te langAndamanen schreef op donderdag 28 december 2006 @ 23:28:
Februari was volgens mij de consensus de laatste keer dat het onderwerp hier langs kwam.
Verwijderd
Verwijderd
Neem maar 2-3maandenVerwijderd schreef op vrijdag 29 december 2006 @ 00:56:
maandje is toch niet zo heel erg lang? niet dat er opeens 37423974 goeie DX 10 games uitgaan komen voordat de R600 er is...
Kwaliteit.. maar duurt lang.. zie X1800XT..
Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.
Maar ik denk dat mensen liever veel meer aan de stroom rekening uitgeven dan aan een 2e kaartje om het 2d werk te doen. ( kortom geen markt voor ). Nu maar hopen dat de R600 idle niet veel gebruikt. Me X1900 XTX gebruikt dan 30-40 watt.
[ Voor 48% gewijzigd door Astennu op 29-12-2006 09:05 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
De vraag is natuurlijk of je IGPtje Windows Vista kan draaien met al zijn grafische pracht. Anders staat je R600 BV (Astennu schreef op vrijdag 29 december 2006 @ 09:01:
[..]
Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.
[..]
nVidia heeft inderdaad veel marktaandeel weggesnoept, maar dit ligt imho niet aan het ontbreken van de R600. G80 is leuk en aardig, maar deze generatie gaat pas veel markt van ATI wegsnoepen zodra ATI in Maart / April te laat is met haar DX10 midrange assortiment. Kunnen wij als nerd wel zeggen DX10 is niet nodig, maar de 99.99% rest van de mensen en de marketing mensen van de OEM's die pakken DX10 omdat het hoger is, dus beter. Wat gaat de ATI strategy zijn (ik mis op dit moment totaal een strategy, maar dat terzijde) zodra het midrange segment van nVidia DX10 support, en dit tegen nagenoeg dezelfde prijs als dat van de DX9 ATI vga kaarten? Lijkt mij een duidelijke keuze. Wat mag voor de gewone huis en tuin gebruiker het prijs premium zijn van een DX10 kaart tov een DX9 kaart? En hoeveel onwetende mensen en domme verkopers in winkels zullen geen DX10 pushen omdat ze gehoord hebben dat het in Vista zit en dat het nodg is?Astennu schreef op vrijdag 29 december 2006 @ 09:01:
Je hebt de R600 nu nog niet nodig dus al hij feb uitkomt is het goed. Alleen in die tijd heeft nVidia wel veel marktaandeel weg gesnoept. Ik kan er zelf ook niet op wachten maar eigenlijk speel ik geen games die het echt nodig hebben. Straks met UT 2007 zal dat wel anders gaan worden alleen voordat die game te krijgen is zijn we wel even verder.
Dus ja, nVidia heeft marktaandeel gewonnen op ATI, maar het afgelopen jaar lag dit meer aan de agressiviteit van nVidia en haar goede productmix. Ik durf ook te beweren dat mits nVidia een fuckup maakt, ATI wel HEEL ERG goed haar best moet doen om nVidia te verslaan. En na het debacle van de stofzuiger van nVidia weten ze wel dat ze geen productcycle meer kunnen missen en altijd voor het maximale moeten gaan. Je ziet de laatste tijd ook meer ATI only merken nVidia erlangs gaan doen... misschien niet van belang, maar dit heeft een grote inpact, want veel van die merken verkopen hun eigen merk, en niet de chip die erop zit. Dus klanten die eerder ATI kochten zullen nu ook overtuigd worden om eens nVidia te proberen. Nu zijn dit allemaal geen grote spelers, want die doen zowel ATI als nVidia maar het heeft zeker een impact. Sorry dat ik niet al te optimistisch klink maar helaas zie ik dit in de markt gebeuren. Daarbij gaat het ook niet erg goed met de grootste klant van ATI, Sapphire. Ze hebben enorm veel leverings problemen, don't know why.
Ik hoop echt dat AMD haar ATI bedrijfstak weer een peper in de kont kan duwen en er echt maximaal voor gaan. Maar de meeste hier weten mijn mening, vanuit het oogpunt van AMD bekeken zijn CPU's en Chipsets (ook die met VGA onboard) haar corebusiness, discreet graphics zou ik daar niet onder rekenen. Overigens heeft nVidia in Q4 2007 haar integrated chipset met DX10 graphics op de markt, ff zoeken naar specs, zal ik later posten. Deze moet het dus opgaan nemen tegen de 790G (RS790) van AMD die geplanned staat voor Q3, maar wellicht uitgesteld zal worden omdat de R600 nog niet op de markt is.
MCP73 > 7300 / Direct X 9.0c / Shader Model 3.0 / HDMI and HDCP / 720p H.264 decoding / GB Lan / HDA / 4 SATA / 1 PATA -> Q2 2007 Intel platform
MCP79 > ??? / Direct X 10 / HDMI and HDCP / 1080p H.264 decoding / GB Lan / HDA / 4 SATA / 1 PATA -> Q4 2007 Intel platform
Dit klinkt heel leuk,maar het gebeurd ook niet in laptops. Je hebt of een chipset met (trage) integrated graphics, of je hebt een discreet vga kaart met snelle graphics en dedicted geheugen in een notebook zitten. Maar dat het een goed idee is voor de batterylife van notebooks klopt wel en daarom komt dit concept in de volgende generatie van AMD notebooks.Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.
[ Voor 31% gewijzigd door The Source op 29-12-2006 12:21 ]

Kan geen review vinden en ben erg nieuwsgierig hoe de koeling presteert.
[ Voor 205% gewijzigd door Mesh op 29-12-2006 12:45 ]
Signature?
Club3D is naar mijn mening een B-merk, dus ik zou ff naar Powercolor kijken:
* Powercolor X1950 Pro Extreme 256Mb:
http://www.powercolor.com...product_detail.asp?id=134
* Powercolor X1950 Pro Extreme 512Mb:
http://www.powercolor.com...product_detail.asp?id=133
Ik hoop dat je er iets mee kunt..
EDIT: Van die Club3D heb ik helemáál geen reviews kunnen vinden, van de Powercolor echter redelijk veel. Ik zal ze hieronder zetten:
- http://www.driverheaven.net/reviews/PowerColor%20X1950Pro%20Extreme/index.php
- http://www.xbitlabs.com/a.../powercolor-x1950pro.html
- http://www.guru3d.com/article/Videocards/386/
- http://www.bjorn3d.com/read.php?cID=990http://www.elitebastards....ask=view&id=192&Itemid=27
- http://www.mvktech.net/content/view/3488/38/
[ Voor 46% gewijzigd door Evano op 29-12-2006 13:53 ]
Kijk daar hebben we wat aan, tnx man!blacktarantulaX schreef op vrijdag 29 december 2006 @ 13:47:
Een hele hoop links
Cooler blijkt dus een broertje van de Artic cooler Accelero. Review hiervan is hier terug te vinden:
http://www.guru3d.com/article/cooling/323/5/
Cooler lijkt z'n werk goed te doen, maar de afmetingen zijn toch wat minder...

[ Voor 5% gewijzigd door Mesh op 29-12-2006 14:34 ]
Signature?
Verwijderd
ziet er erg netjes uit hoor en hey! Vista is ook no probMesh schreef op vrijdag 29 december 2006 @ 14:30:
[...]
Kijk daar hebben we wat aan, tnx man!
Cooler blijkt dus een broertje van de Artic cooler Accelero. Review hiervan is hier terug te vinden:
http://www.guru3d.com/article/cooling/323/5/
[afbeelding]
Cooler lijkt z'n werk goed te doen, maar de afmetingen zijn toch wat minder...
En draait FEAR Extraction Point nu ook lekker op de AGP bus?
[ Voor 9% gewijzigd door Verwijderd op 29-12-2006 17:57 ]
Ik las ergens op rage3d dat er ook wel wat problemen zijn voor nVidia met de 8800 serie, ik weet niet wat hier allemaal waar van is, mischien is het een en ander met drivers op te lossen. Maar toch het is geen goede reclame. Voor dat geld verwacht je immers wel een top product dat naar behoren functioneerd.The Source schreef op vrijdag 29 december 2006 @ 12:02:
[...]
.... Ik durf ook te beweren dat mits nVidia een fuckup maakt, ATI wel HEEL ERG goed haar best moet doen om nVidia te verslaan. En na het debacle van de stofzuiger van nVidia weten ze wel dat ze geen productcycle meer kunnen missen en altijd voor het maximale moeten gaan...
Misschien te vroeg uitgebracht?
For those that think its all fun and games in the Nvidia camp I suggest you read the Nzone Forums:
1.) Source Based Games : Source engine bug with distance, objects and textures appear grey or disapear all together.
2.) Poor OpenGL Performance : Alot of users are experiencing very poor OpenGL performance, some have compared it to being worse then a 9800 Pro.
3.) Vista Support : Even though Nvidia and partners love to put those little Vista Ready stickers on the boxes there is no support as of yet for the 8800 series under Vista. Not to say some have not got it to work after many hours of trying, it just performs like utter garbage.
4.) 64Bit Support : It took Nvidia 2 months to release a 64bit driver and even after its release performance is nowhere near that of a 7950...
5.) All Around Poor Performance : Seems alot of people can not get the performance out of their cards, some have seen issues regaurding the transistor issue that Nvidia said was fixed before shipping. Seems alot of people can not get enough power to the card, even thouse running recommended PSU's from Nvidia. Some have compared purchasing an 8800GTX and gettings slower performance then the 7950 GX2. Even some posting 3D Mark 2006 scores well below that of a single X1900XTX.
My thoughts on the matter, Nvidia wanted to be the first to the market with a Directx 10 product, they cut corners ( Transistor issue ) and pushed the card out way too fast, driver support was utter shit when the card was released and has not gotten much better over the months its been out.
ATI on the other hand is delaying its launch, maybe not such a good idea and with last weeks sudden delay of the new ATI chipset I do not see them making the R600 release anymore and delaying it further. Could be for the best though, I'd rather have a product thats properly tested and released with excellent support rather then the gong show the 8800GTX has given us.
Not a fanATIc, just have been comparing both forums. I can't make a final conclusion until we actually see the R600 in action, but from what it looks like, AMD is putting more time and effort into the R600 more so then what Nvidia put into the 8800GTX.
The 8800GTX and GTS are excellent card, but the ammount of issues that popped up after the release definatley shows no quality control.
Oke niet iedereen heeft deze problemen maar het is lullig als je zo'n kaart koopt dat het niet goed werkt.
en dan ook nog
'Nvidia GeForce 8800 voldoet niet aan pci-e-specificatie'Nadat eerder al bekend werd dat nVidia een fors aantal GeForce 8800-kaarten had moeten terughalen wegens een ernstige productiefout, ziet het er nu naar uit dat het bedrijf weer in de problemen zal komen met deze videokaarten.
Naast de driverproblemen die veel Vista-gebruikers zorgen baren - nVidia heeft namelijk nog steeds geen DirectX 10-drivers - zou het namelijk zo zijn dat de G80 niet geheel volgens de pci express-specificaties gebouwd is. Het resultaat daarvan is dat verschillende 8800-kaarten dienst weigeren in pci express x8-slots van meerdere moederborden. De berichten zijn nog niet geverifieerd, maar verschillende gebruikers melden problemen en de GeForce 8800 komt niet voor op de PCIe SIG Compatibility List. Bronnen die bij de tests betrokken zijn, benadrukten tegenover The Inquirer dat nVidia heel wat kansen gehad heeft om zijn producten te laten testen, maar dat ze dit blijkbaar niet geprobeerd hebben of dat ze niet door de tests raakten.
bron: nieuws: 'Nvidia GeForce 8800 voldoet niet aan pci-e-specificatie'
Haastige spoed is ...
@ The Source
Begrijp me goed ik zeg niet dat wat je zegt niet klopt, maar alleen dat het bij nVidia ook niet allemaal rozegeur en manenschijn is
vista is ook nog niet uit voor de eindgebruiker...er is een rtm versie uit, zodat ontwikkelaars nog de tijd hebben om goede drivers te maken....tegen de tijd dat vista in de winkels ligt, zal er een driver beschikbaar zijnroertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]
Naast de driverproblemen die veel Vista-gebruikers zorgen baren -
zelfde met directx 10...dat is ook nog niet uit (behalve voor developers dan, maar die zullen ook wel een werkende vista driver hebben)nVidia heeft namelijk nog steeds geen DirectX 10-drivers
dat is ook allang bekend dat valve samen met nvidia naar een oplossing aan 't zoeken is..roertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]
1.) Source Based Games : Source engine bug with distance, objects and textures appear grey or disapear all together.
logisch...staat ook duidelijk op de doos dat je een 16x mobo nodig hebt (bij xfx tenminste wel)roertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]
Het resultaat daarvan is dat verschillende 8800-kaarten dienst weigeren in pci express x8-slots van meerdere moederborden.
en ze hebben ook nooit gezegd dat ze wél aan die ''standaard'' voldoen
klopt...daarom wachten ze met een vista/dx10 driver tot het allebei uit is ! ...of bedoel je dat niet ?
mja...het komt allemaal van the inquirer
offtopic
iedereen vergeet ook maar voor het gemak dat nvidia alweer bijna 2 maanden aan de opvolger van de g80 bezig is, en als de r600 over 2 maanden uitkomt, dus al 4 maanden....en in 4 maanden kan er veel gebeuren
[ Voor 64% gewijzigd door Mr. Detonator op 29-12-2006 18:41 ]
Is dit bij ATI zoveel anders?? Die vista drivers zijn ook nog om te huilen, en van echt gaming in Vista kan nog niet gesproken worden, teminste niet op mijn pc
Dat nVidia nu nog geen goed werkende drivers Vista beschikbaar heeft maakt niet uit. 2D werkt nagenoeg perfect, en enkel B2B versies van Vista zijn uit die nagenoeg niet voor gaming gebruikt worden. Maar 30 januari zodra Vista voor de consument / gamer gelanceerd wordt dan wordt er van nVidia (en ook ATI) verwacht dat ze wel goed werkende drivers hebben. Nu als ATI dan haar R600 lanceert, dan moeten zij in principe bij de launch een goed werkende driver voor Vista beschikbaar hebben. En zoals Mr. Detonator al zegt, DX10 drivers zijn nog niet nuttig.. er is nog geen software. Altijd wel kat en muis spel, maar eerst goede DX9 drivers voor Vista, daar ligt immers de grootste druk, dus het driver team zal het wel in een logische volgorde afwerken
Overigens dat de G80 niet werkt in een PCI-E 4 / 8 slot is imho een non-issue. Als een gamer zo erg into zijn materiaal is dat hij een G80 aanschaft mag je er ook vanuit gaan dat hij genoeg kennis heeft om deze in een mainboard te frotten met PCI-E x16 electrical slot.
[ Voor 6% gewijzigd door The Source op 29-12-2006 18:46 ]
Verwijderd
Dat hoor ik iedere Nvidia gebruiker zeggen als tegenargument. Ik dacht dat Nvidia altijd geprezen werd om het veelvuldig uitbrengen van beta drivers, is dat plotseling niet belangrijk meer?Mr. Detonator schreef op vrijdag 29 december 2006 @ 18:20:
[...]
vista is ook nog niet uit voor de eindgebruiker...
[ Voor 7% gewijzigd door Ultraman op 29-12-2006 19:25 ]
Verwijderd
Dus er moeten niet alleen nogal wat driverproblemen worden opgelost, maar ook nog een probleem mbt de aansluiting etc. Kortom, voordat nVidia een volledig volgens specs. presteren product heeft, wat dus ook SLI en Vista inhoudt, zal er nog wel wat moeten gebeuren.
Verwijderd
Is het niet zo dat je bij SLI snel in de problemen kan komen aangezien er nog veel mobo's in omloop zijn met 20 lanes? Als dat het geval is lijkt me dit niet bepaald een "non-issue"Overigens dat de G80 niet werkt in een PCI-E 4 / 8 slot is imho een non-issue. Als een gamer zo erg into zijn materiaal is dat hij een G80 aanschaft mag je er ook vanuit gaan dat hij genoeg kennis heeft om deze in een mainboard te frotten met PCI-E x16 electrical slot.
Wat ik me afvraag is hoe ATI en nVidia van te voren kunnen weten of DX10 werkt als er nog geen drivers zijn. Deze chips worden al jaren van te voren ontwikkeld met DX10. Hebben ze soms al wat test-code waarmee bebaalde DX10 routines kunnen checken?
Ik bedoelde meer dat als ze er even meer aandacht aan hadden besteed en hem bijvoorbeeld een maand of 2 later hadden uitgebracht, er mischien minder problemen zouden zijn.Mr. Detonator schreef op vrijdag 29 december 2006 @ 18:20:
[...]
klopt...daarom wachten ze met een vista/dx10 driver tot het allebei uit is ! ...of bedoel je dat niet ?
Dan waren ze evengoed eerder als ATi, maar dan was het allemaal wel meer voor elkaar.
Aan de andere kant snap ik ook dat ze graag met de kerst die dingen in de winkel willen hebben liggen.
Wat is er in die 2 maanden dan allemaal veranderd ?...want dat is over paar weken alroertnl schreef op vrijdag 29 december 2006 @ 19:46:
[...]
Ik bedoelde meer dat als ze er even meer aandacht aan hadden besteed en hem bijvoorbeeld een maand of 2 later hadden uitgebracht, er mischien minder problemen zouden zijn.
Dan waren ze evengoed eerder als ATi, maar dan was het allemaal wel meer voor elkaar.
welke problemen bedoel je dan allemaal die ondertussen/over 2 weken ''ineens'' opgelost zijn ?
er zal voorlopig nog niks veranderen tót vista uitkomt...dán pas zullen er ook drivers uitkomen
directx10 staat hier weer los van
Het is dan in ieder geval niet zo dat mensen eerst eens een paar maanden moeten wachten tot diverse problemen in orde zijn, omdat dan nog niemand zo'n ding heb.Mr. Detonator schreef op vrijdag 29 december 2006 @ 20:10:
[...]
Wat is er in die 2 maanden dan allemaal veranderd ?...want dat is over paar weken al
welke problemen bedoel je dan allemaal die ondertussen/over 2 weken ''ineens'' opgelost zijn ?
er zal voorlopig nog niks veranderen tót vista uitkomt...dán pas zullen er ook drivers uitkomen
directx10 staat hier weer los van
Wel interessant, maar er zijn een paar design beslissingen die minder zijnCJ schreef op dinsdag 26 december 2006 @ 13:36:
Newsflash: Asus EAX1950Pro DUAL
Niet alleen GeCube en Sapphire werken aan Gemini opstellingen van de RV560 en RV570... Ook Asus is bezig met dual opstellingen. Asus heeft 2x een X1950Pro bij elkaar gestopt en er de EAX1950Pro DUAL van gemaakt. Aan het PCB te zien is een Quad CrossFire opstelling echter niet mogelijk.
[afbeelding]
[afbeelding]
[afbeelding]
http://www.oc.com.tw/article/0612/readolarticle.asp?id=5658
- Quad crossfire is niet mogelijk, duidt er ook op dat ATI het niet in de drivers heeft zitten en voor het consumenten gedeelte het komende half jaar of jaar nog niet gaat introduceren, anders was het al lang RTM.
- Het zijn 2 PCB's tegen elkaar, waarvan er eentje in het PCI-E x16 slot mag. Natuurlijk kun je niet / moeilijk maken dat beide connectors hebben omdat erg geen vast afstand op mb's is tussen de 2 PCI-E x16 connectors. Dit heeft wel tot gevolg dat beide 1950Pro kaarten elk op PCI-E x8 draaien, scheelt toch weer paar % in snelheid.
- Mijn chinese cursus schiet niet op en ik snap er dus nog geen drop van, maar ik vraag me af hoe die vga connectors (2x DVI + DSUB) gebruikt kunnen worden, dus in welke combinatie. Werkt het aansturen van 3 displays ook in Crossfire mode???
- Het is niet kostenbesparend, dus het nut om deze kaart te kopen tov 2x een single solution ontgaat mij. Waarom niet kosten besparend, er zijn gewoon 2 PCB's, ipv 1 PCB, met elk daar op componenten (chipset, mem, etc), en er zit een extra PEX8532 chip (PCI-E switch) die in volume ook 4 tot 5$ kost en verbruikt ook nog eens extra 7W.
- Leuk om te zien is dat de PEX8532 gebriukt maakt van een PCI-E x16 connector die de communicatie tussen de 2 kaarten verzorgt, dus naast de PCI-E x8 signaal richting de andere kaart ook nog eens voor de 2x PCI-E x2 Crossfire connector verzorgt.

Ik vrees dat afgezien van een stoerheidsfactor het weinig van een commercieel succes gaat vormen, mits het prijstechnische voor de consument erg voordelig is, of quad crossfire tot de mogelijkheid behoort. Mee eens?
[ Voor 9% gewijzigd door The Source op 29-12-2006 23:41 ]
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
[ Voor 29% gewijzigd door Saturnus op 30-12-2006 15:55 ]
Verwijderd
January is dus GDDR3 @ 900Mhz = 115GB/S.roertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review![]()
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen![]()
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Maart is GDD4 @ 1.100Mhz = 140GB/S
Verder als dit het uiteindelijke resultaat zou zijn , vind ik het eigenlijk wel een tegenvaller.
Edit : Al vind ik 1600*1200 4AA 16AF , ~11k. met een 8800GTX toch wel erg weinig
Ik haal met 1600*1200 8xAA 16xAF nog ~11k.
[ Voor 12% gewijzigd door Verwijderd op 30-12-2006 16:07 ]
Verwijderd
Het eerste waar ik naar zocht was de kloksnelheid aangezien in dat artikel steeds over sample gesproken word. Maar niet gevondenroertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review![]()
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen![]()
http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Overigens klopt het wel dat de 8800GTX wat minder in openGL is door de drivers. De getallen lijken niet volledig uit de lucht te zijn gegrepen.
Verder toch wel wat rare verschillen bij Oblivion, De 8800GTX scoort hier toch niet zo slecht?
De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......Verder als dit het uiteindelijke resultaat zou zijn , vind ik het eigenlijk wel een tegenvaller.
[ Voor 15% gewijzigd door Verwijderd op 30-12-2006 16:12 ]
Verwijderd
Ik heb een 8800GTX , en ben voor beide Nvidia en ATI , als iets goed is valt het niet af te breken.Verwijderd schreef op zaterdag 30 december 2006 @ 16:10:
[...]
Het eerste waar ik naar zocht was de kloksnelheid aangezien in dat artikel steeds over sample gesproken word. Maar niet gevonden![]()
Overigens klopt het wel dat de 8800GTX wat minder in openGL is door de drivers. De getallen lijken niet volledig uit de lucht te zijn gegrepen.
Verder toch wel wat rare verschillen bij Oblivion, De 8800GTX scoort hier toch niet zo slecht?
Zoals als sommige 'nvidiot dat dus wel soms doen'. Verder die test van Oblivion en Anno 1770
zie je wel een groot verschil. Anno 1770 draait op een 8800GTX nie geweldig idd , maar drivers will fix that. Maar Oblivion daarintegen heb ik toch nog niet onder de 30fps gezeten , zelf niet met 8xAA 16xAF.
The R600 Specs are:
* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant
Ik denk dat het op de clockspeeds van de 'uitkomende R600' zal zijn.(Januari)De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......
Zoals er ook bij staat komt een vernieuwde versie in Maart met GDDR waarschijnlijk em tegen de vernieuwde G80 te concureren. Ten minste.. als dit 'true' is. Het zou inderdaad wel een slimmere stap zijn van ATI om zo 2x geld te verdienen door kleinere vernieuwingen net zoals Nvidia.
En in tussentijd hebben ze een concurent voor de G80.
Een 7800GTX <-> X1800XT geval dus
En idd.. lijkt een vrij realistische review.
[ Voor 16% gewijzigd door Verwijderd op 30-12-2006 16:19 ]
Geen plaatjes etc en ze noemen de G80 wel bij zijn marketing naam a.k.a. 8800GTX maar ze blijven R600 zeggen... het komt bij mij over alsof ze de FPS waarden uit hun duim hebben gezogen, vooral in Oblivion..
Verwijderd
Zoals ik al zei.. de fps in die review zijn realistisch..blacktarantulaX schreef op zaterdag 30 december 2006 @ 16:47:
Ik geloof niets van die review.
Geen plaatjes etc en ze noemen de G80 wel bij zijn marketing naam a.k.a. 8800GTX maar ze blijven R600 zeggen... het komt bij mij over alsof ze de FPS waarden uit hun duim hebben gezogen, vooral in Oblivion..
En de fps in Oblivion zijn de Minimum fps. Je moet eerst ff doorlezen wanneer je commentaar geeft.
Plaatsjes , foto's , etc.. mogen mss nog niet getoond worden van AMD ATI.
Het zou mijn dan ook nie verwonderen dat in een paar dagen deze review offline is.
[ Voor 13% gewijzigd door Verwijderd op 30-12-2006 16:52 ]
dat is idd de vraag...het is niet te hopen dat die tests al op volledige snelheid zijn, met gddr4Verwijderd schreef op zaterdag 30 december 2006 @ 16:10:
[...]
De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......
Maar dat zou me vooralsnog ook weer niks verbazen...dit zijn de scores waar ik zelf ook al ongeveer aan dacht voor de final r600
Ook die doorvoersnelheid van 115gb/sec, zie ik niet echt terug in de benches, dus gddr4 zal daar niet zo héél veel verandering in brengen
IQ wordt ook weinig/niks over vermeld, behalve:"
This time, the antialiasing quality of the GeForce 8800GTX seemed slightly better than the R600’s. The use of AF does not have any significant performance impact on neither the GeForce 8800GTX nor the R600.
het volgende klinkt ook een beetje vreemd: 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
dat zouden er dan toch 256 moeten zijn ipv 128 ?
[ Voor 52% gewijzigd door Mr. Detonator op 30-12-2006 21:13 ]
Verwijderd
GDDR4 versie is voor maart.Mr. Detonator schreef op zaterdag 30 december 2006 @ 16:52:
[...]
dat is idd de vraag...het is niet te hopen dat die tests al op volledige snelheid zijn, met gddr4
GDDR3 versie is voor januari blijft uit deze "review".
Deze review is getest met de R600 GDDR3 de versie voor januari dus.
[ Voor 9% gewijzigd door Verwijderd op 30-12-2006 16:54 ]
Verwijderd
Nu zie je dat de R600 geen zwakke punten heeft. Het blijkt dus dat ATI de drivers goed voor elkaar heeft.
De resultaten in Oblivion zullen bij de 8800GTX nog wel wat beter worden, maar gezien de schadergebruik bij dit spel is dit toch wel belangrijke indicatie voor de toekomst die de R600 zonder problemen doorloopt.
Verwijderd
Oblvion is one strange benchmarkVerwijderd schreef op zaterdag 30 december 2006 @ 17:08:
Ik moet toch wel zeggen dat ik redelijk onder de indruk ben van de R600. In sommige games is de voorsprong idd. beperkt. Maar als je bedenkt dat bij vorige ATI-launches altijd wel een zwak punt had zoals OpenGL of HDR bij X1800. (toen nog mindere drivers)
Nu zie je dat de R600 geen zwakke punten heeft. Het blijkt dus dat ATI de drivers goed voor elkaar heeft terwijl de kaart nog niet uit is.
De resultaten in Oblivion zullen bij de 8800GTX nog wel wat beter worden, maar gezien de schadergebruik bij dit spel is dit toch wel belangrijke indicatie voor de toekomst die de R600 zonder problemen doorloopt.
Verwijderd
roertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review![]()
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen![]()
http://level505.com/2006/12/30/the-full-ati-r600-test/1/
630USD is goed te doen met zo'n zwakke dollar. 22 januari wordt apocalypse day voor de G80If you just bought a GeForce 8800, especially the GTX version, you might want to return your card on January 22nd when ATI R600 cards become available throughout the US at 630 USD (MSRP Price) which roughly equals the current price for a GeForce 8800GTX.
jep..alleen je moet jezelf niet rijk rekenen, want door allerlei toeslagen zal de kaart hier wel ongeveer 630euro kosten bij launch (mss paar tientjes minder)Verwijderd schreef op zaterdag 30 december 2006 @ 17:24:
[...]
[...]
630USD is goed te doen met zo'n zwakke dollar.
Verwijderd
Don't be to excited about thatVerwijderd schreef op zaterdag 30 december 2006 @ 17:24:
[...]
[...]
630USD is goed te doen met zo'n zwakke dollar. 22 januari wordt apocalypse day voor de G80
Er komt nog een mooie performance boost met de komende Nvidia drivers zoals men al zei bij de launch , in 2007 dus.
Ik neem aan dat de prijzen bijna gelijk zullen zijn aan die van de concurrentie. Al zijn de prijzen van de 8800 serie sinds de introductie wel al aardig gedaalt.Mr. Detonator schreef op zaterdag 30 december 2006 @ 17:28:
[...]
jep..alleen je moet jezelf niet rijk rekenen, want door allerlei toeslagen zal de kaart hier wel ongeveer 630euro kosten bij launch (mss paar tientjes minder)
Lastig lastig.

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |
Maar, mocht het toch een lager geklokte R600 zijn, dan is het wel respect, hij wint bijna altijd met redelijke marge van de G80.
Ik hoop dat deze (G81) dan DX10.1 ondersteunt. Ik hoorde dat de R600 het referentie model voor DX10.1 zou zijn. Overigens komt het overeen met het gerucht dat na een maand (of twee) een snellere R600 uit zou komen.The Source schreef op zaterdag 30 december 2006 @ 16:29:
Als dit het is dan zal nVidia toch winnen, want ik verwacht nog een snellere G80 versie.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
volgens mij komt die ''review'' gewoon van iemand die nda heeft ondertekend, enSpankmasterC schreef op zaterdag 30 december 2006 @ 21:24:
Ik geloof niks van die review.... Hij komt redelijk betrouwbaar over, de cijfers lijken gegrond te zijn op de waarheid in ieder geval... Maar het is gewoon te opvallend dat het enige wat op die site staat die review is, en wat mij betreft is er ook wel een overschot aan advertenties...
daarom z'n identiteit niet wil onthullen ?
van b3d:
but the guy/entitiy has gone through a lot of hoops to stay unknown.
domainbyproxy..
al his e-mail is forwarded to a gmail address though..
in mei dus ongeveer ?...dus brengen ze ineens 3 highend kaarten uit in 5 maanden tijd ?CJ schreef op zaterdag 30 december 2006 @ 21:44:
[...]
Overigens komt het overeen met het gerucht dat na een maand (of twee) een snellere R600 uit zou komen.
zijn deze twee dus waarschijnlijk
[ Voor 34% gewijzigd door Mr. Detonator op 30-12-2006 23:58 ]
Dit topic is gesloten.