[Algemeen] ATi Nieuwsdiscussie Topic - Deel 47 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 5.763 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Die kaarten zijn idle toch ook warmer?

Tenminste dat meende ik te hebben gelezen ergens.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Oh ja Company of Heroes @ ATi (AMD?)-players opgelet!

Afbeeldingslocatie: http://images.tweaktown.com/imagebank/cat612g_05g.gif

Afbeeldingslocatie: http://images.tweaktown.com/imagebank/cat612g_06g.gif

Het mag wel duidelijk zijn dat de Cat 6.12-set de driver-to-be is ;)

Bron

Acties:
  • 0 Henk 'm!

Verwijderd

Jejking schreef op zaterdag 23 december 2006 @ 14:06:
Oh ja Company of Heroes @ ATi (AMD?)-players opgelet!

[afbeelding]

[afbeelding]

Het mag wel duidelijk zijn dat de Cat 6.12-set de driver-to-be is ;)

Bron
Blijkbaar speel het ATI driver team (te?) veel Company of Heroes. :P
In andere spellen is er weinig performance geboekt.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wat zou dan beter zijn? Dat of de Accelero X2?

Lijkt me hard to beat die X2, een Sapphire X1900XT512 Idle @ 39 en Load @ 47 30 minuten stressen met Battlefield 2142! >:)
Verwijderd schreef op zaterdag 23 december 2006 @ 14:14:
[...]


Blijkbaar speel het ATI driver team (te?) veel Company of Heroes. :P
In andere spellen is er weinig performance geboekt.
Oh performance zat hoor, je zal performancewinst bedoelen ;)

Maar inderdaad, weinig vooruitgang, ik denk dat ze al druk bezig zijn met R600-drivers schrijven daar :)

[ Voor 23% gewijzigd door Jejking op 23-12-2006 14:25 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Het blijft een feit dat bij ELKE driverrelease de kaarten beter draaien in een hoop games. Dat is erg netjes van ATi, en laat toch ook wel een beetje zien dat de R580 architectuur een goeie is waar je veel mee kan op driver/programmeergebied.

Ik vind het wel netjes. _/-\o_

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Krizzie schreef op zaterdag 23 december 2006 @ 11:27:
[...]


De core zelf is toch niks veranderd? Die + was toch alleen omdat hij met GDDR4 werkt ipv GDDR3? :?
De core zelf is wel iets veranderd. De R580+ core heeft een andere revisienummer ten opzichte van de R580 core die in de X1900XT(X) gebruikt wordt. De R580 is revisie A22, terwijl de R580+ revisie A31 is. Het verschil is dat de R580+ core een aantal verbeteringen heeft doorgevoerd gekregen in de memorycontroller en in de core zelf om nog beter met GDDR4 om te kunnen gaan. Daarnaast bestaat het vermoeden dat ATI ook veranderingen in de pipeline-layout heeft doorgevoerd waardoor de core minder warm wordt en/of de hitte beter verdeeld wordt.

Daarom heeft ATI ook de cooler iets beter kunnen tweaken op de X1950XT waardoor deze minder geluid maakt dan de X1900XT(X).

Overigens heeft Firingsquad een recensie online gegooid van de X1950Pro AGP. Deze komt hier zeer goed uit de bus als snelste AGP kaart ooit.

http://www.firingsquad.co...eon_x1950_pro_agp_review/

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Het valt me nog wel mee met het verschil tussen AGP en PCI-E. Dus als je een dual core AGP mobo hebt hoef je nog niet over te schakelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Nano2009
  • Registratie: Maart 2006
  • Laatst online: 12:22
te laat :P

[ Voor 99% gewijzigd door Nano2009 op 26-12-2006 12:48 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Newsflash: Asus EAX1950Pro DUAL

Niet alleen GeCube en Sapphire werken aan Gemini opstellingen van de RV560 en RV570... Ook Asus is bezig met dual opstellingen. Asus heeft 2x een X1950Pro bij elkaar gestopt en er de EAX1950Pro DUAL van gemaakt. Aan het PCB te zien is een Quad CrossFire opstelling echter niet mogelijk.

Afbeeldingslocatie: http://www.oc.com.tw/article/0612/imgs/asus_eax1950pro_dual_061222_001.jpg

Afbeeldingslocatie: http://www.oc.com.tw/article/0612/imgs/asus_eax1950pro_dual_061222_002.jpg

Afbeeldingslocatie: http://www.oc.com.tw/article/0612/imgs/asus_eax1950pro_dual_061222_025.jpg

http://www.oc.com.tw/article/0612/readolarticle.asp?id=5658

[ Voor 15% gewijzigd door CJ op 26-12-2006 13:45 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Ik heb eindelijk maar dan toch de ATI Control Centre verwijderd en gebruik nu het 'lichtere' Ati Tray Tools. Werkt prima, alleen... er staat nu in alle games een steeds veranderend en nogal opvallend getal in de rechter bovenhoek... Wat is dat en hoe krijg ik dat weg...?

Acties:
  • 0 Henk 'm!

Verwijderd

@ J van E

die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.

@ CJ

Mischien wel software matig is Quad CrossFire wel mogelijk en dat er michien een CF versie er van komt of je kan net als met de X1960GT CrossFire doen zonder een CrossFire Edition kaart wie weet :)

Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zit :) niet iedereen heeft een TFT of CRT met ee DVI aansluiting :)
Afbeeldingslocatie: http://www.oc.com.tw/article/0612/imgs/asus_eax1950pro_dual_061222_003.jpg

[ Voor 77% gewijzigd door Verwijderd op 26-12-2006 14:04 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
@ J van E

die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.
Zoiets vermoedde ik al en dat heb ik dus gedaan. Maar... het staat er npg steeds! Dus ik dacht dat het toch wat anders moest zijn. Of moet ik dan soms eerst de computer herstarten...

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zit :) niet iedereen heeft een TFT of CRT met ee DVI aansluiting :)
[afbeelding]
Mooi? Verschrikkelijk!

We hebben niet voor niets DVI naar VGA adapters, het is wel lullig als die VGA poort de primaire aansluiting is voor Crossfire mode, leuk voor als je een 1920x1200 TFT scherm hebt. :/

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Verwijderd schreef op dinsdag 26 december 2006 @ 14:00:
@ J van E

die kan je uit zetten door midden van OSD uit te schakelen of te wel On Screen Display.

@ CJ

Mischien wel software matig is Quad CrossFire wel mogelijk en dat er michien een CF versie er van komt of je kan net als met de X1960GT CrossFire doen zonder een CrossFire Edition kaart wie weet :)

Maare wel mooi dat er ook een oude D-Sub er op aan gesloten zit :) niet iedereen heeft een TFT of CRT met ee DVI aansluiting :)
[afbeelding]
Dan krijg je er altijd minstens 1 converter bij. ;)

Geluidswolk


Acties:
  • 0 Henk 'm!

  • BlaBla1973
  • Registratie: Februari 2001
  • Laatst online: 13-09 17:20
Verwijderd schreef op dinsdag 26 december 2006 @ 13:51:
Ik heb eindelijk maar dan toch de ATI Control Centre verwijderd en gebruik nu het 'lichtere' Ati Tray Tools. Werkt prima, alleen... er staat nu in alle games een steeds veranderend en nogal opvallend getal in de rechter bovenhoek... Wat is dat en hoe krijg ik dat weg...?
LOL

Dat is volgens mij je FPS ;)

Computer nr 486 denk ik..


Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 09:59
Inderdaad ;)

Volgens mij kom je er alleen vanaf door ATi Tray Tools te verwijderen, maar dat is ook niet de bedoeling lijkt me. Is het echt zó storend dan?

Acties:
  • 0 Henk 'm!

  • Thandor
  • Registratie: Juni 2002
  • Laatst online: 17:34

Thandor

SilverStreak

frankknopers schreef op dinsdag 26 december 2006 @ 14:28:
[...]

Mooi? Verschrikkelijk!

We hebben niet voor niets DVI naar VGA adapters, het is wel lullig als die VGA poort de primaire aansluiting is voor Crossfire mode, leuk voor als je een 1920x1200 TFT scherm hebt. :/
Krizzie schreef op dinsdag 26 december 2006 @ 14:29:
[...]


Dan krijg je er altijd minstens 1 converter bij. ;)
Alleen jammer dat menig converter de kwaliteit van het beeld omlaag haalt. Ik heb nog nooit een goede DVI - D-SUB converter gezien bij videokaarten. Bij een XFX GeForce FX 5600 was de kwaliteit slechter met de converator. Ook bij een Sapphire Radeon X800 en een Sapphire Radeon X1950Pro (waar twee converters bijzitten) gaat de 2D kwaliteit er op achteruit bij het gebruik van de converters.
Dit geldt ook voor andere converters die ik in handen gehad heb.

Wat mij betreft is een D-SUB op dergelijke kaarten best welkom. Een converter zonder kwaliteitsverlies zou ook goed zijn.

Al met al het hangt er maar net af wat voor monitoren men gaat gebruiken. Indien ik twee TFT's had met DVI connectors dan zou ik de D-SUB ook liever kwijt dan rijk zijn :Y).

Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.


Acties:
  • 0 Henk 'm!

Verwijderd

@ Thandor

ben wel met je eens hoor :)
maar die D-Sub kan toch vele mensen blij maken ik denk naturrlijk op overal gebied en geen kleine percentage aka de ultra high end gamers groepje.

en dat ASUS daar aan denkt is alleen maar goed en idd er is best een achteruitgang qua image quallity als je een converter gebruikt zonder meer ;)

[ Voor 28% gewijzigd door Verwijderd op 26-12-2006 18:29 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ATI liefhebbers, ik wil jullie een mooie quote uit Anand's "Rainbow Six Vegas: A Performance Analysis" conclusie niet onthouden:
Hopefully we will see some improvements in performance for Vegas on NVIDIA's hardware soon, because as it stands, the game clearly favors ATI parts, with the obvious exception of the 8800. That is a trend we've seen more of over time, however: G70 series hardware does very well at DX8 graphics, but when more DX9 effects are enabled the pixel shaders on many NVIDIA chips don't seem to do as well as ATI's hardware.
;)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Help!!!! schreef op dinsdag 26 december 2006 @ 18:53:
ATI liefhebbers, ik wil jullie een mooie quote niet onthouden
leuk verhaal...maar is toch allang bekend dat de g70/71 iets minder presteerd in dx9 dan de r580...

daar is de g80 voor :|

Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 13-09 00:42
Mr. Detonator schreef op dinsdag 26 december 2006 @ 18:57:
[...]


leuk verhaal...maar is toch allang bekend dat de g70/71 iets minder presteerd in dx9 dan de r580...

daar is de g80 voor :|
Oh. Ik dacht dat die DX10 deed..

Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 09:59
Arrigi schreef op dinsdag 26 december 2006 @ 19:43:
[...]


Oh. Ik dacht dat die DX10 deed..
Doet ie ook, maar dat wil niet zeggen dat je er alleen DX10 apps mee kan, hij is ook DX9 backwards compatible ;)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Leuk voor al die mensen die een G7x kaart hebben, en dat zijn er nog altijd meer dan mensen met een G80 kaart. Mensen met een Radeon X1K komen er dus minder bekaaid van af dan mensen met een GF7, die als tegenstander van de X1K bedoeld is.

Leuk om te zien dat een X1650XT de GF7900GS weet bij te benen en dat de X1950Pro, die eigenlijk de tegenstander is van de 7900GS, er flink over heen gaat.

Ben benieuwd hoe de R600 zal presteren tegenover de GF8800GTX. ;)

[ Voor 7% gewijzigd door CJ op 26-12-2006 20:43 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

reinoud schreef op dinsdag 26 december 2006 @ 16:00:
[...]
LOL

Dat is volgens mij je FPS ;)
Wat is FPS? :) ;)

frames per second

Acties:
  • 0 Henk 'm!

  • R-O-Y
  • Registratie: Juni 2006
  • Laatst online: 03-06 21:16

R-O-Y

Ik maak mijn zinnen nooit

lama

[ Voor 83% gewijzigd door R-O-Y op 26-12-2006 22:11 ]

Youtube Download ubersnel.nl


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Thandor schreef op dinsdag 26 december 2006 @ 18:04:
Alleen jammer dat menig converter de kwaliteit van het beeld omlaag haalt.
Ik weet niet hoe je de convertor getest hebt, maar in principe moet dvi met convertor precies hetzelfde beeld geven als d-sub op hetzelfde scherm. Op een tft die dvi en d-sub input heeft is dvi mooier dan d-sub, of de bron aan de d-sub nou van d-sub komt of via een convertor van dvi.

Dvi heeft op een tft beter beeld omdat zowel het scherm als de videokaart van nature digitaal werken. Uit de berekeningen van de videokaart komt voor elke pixel op het scherm een kleurwaarde en een tft stuurt naar elke pixel op het scherm een bepaalde kleurwaarde. D-sub werkt analoog, het beeld opgebouwd uit afzonderlijke pixels wordt door een ramdac op de videokaart omgezet in een analoog signaal. Omdat een crt scherm analoog werkt hoeft er verder niets omgezet te worden. Als je je tft met d-sub (of dvi met convertor) aansluit aan je pc wordt het signaal door de pc eerst van digitaal naar analoog omgezet en vervolgens door het scherm weer in digitaal omgezet. Hierdoor weet het scherm geen exacte waarde voor elke pixel en hebben niet alle pixel precies de goede kleur.Dit is waarom in 2D (en in 3D, maar dat valt minder op) het beeld waziger is met d-sub dan met dvi. Afgezien van dat heb je op een analoog signaal ook last van ruis die in de kabel opgevangen wordt.

Op een dvi aansluiting staat zowel het beeld analoog als digitaal. Het heeft dus geen zin om een dvi met convertor te vervangen met een d-sub aansluiting, omdat beide dezelfde kwaliteit geven.

Ik ben geen expert op dit gebied, maar dit is hoe ik het begrijp. Het geheel is natuurlijk nogal versimpeld en misschien kloppen niet alle details, maar het geheel zit dicht bij de werkelijkheid.

Acties:
  • 0 Henk 'm!

  • Thandor
  • Registratie: Juni 2002
  • Laatst online: 17:34

Thandor

SilverStreak

m277755 schreef op dinsdag 26 december 2006 @ 22:55:
[...]
Ik weet niet hoe je de convertor getest hebt
Ik heb hier een CRT staan met een D-SUB connector. Toen ik het scherm kocht had ik een XFX GeForce FX 5600 in de PC steken. Hierop zat zowel een D-SUB als een DVI connector. Ik heb destijds het scherm aan beide poorten gehad. Een keer aan de 'native' D-SUB en een keer aan de DVI connector met behulp van de bijgeleverde DVI - D-SUB converter. Tijdens het switchen werd meteen al zichtbaar dat de 2D beeldkwaliteit met de 'native' D-SUB simpelweg hoger was.

Later kocht ik een Sapphire Radeon X800. Deze had net zoals de vorige kaart zowel een D-SUB als DVI aansluiting. Hier hetzelfde verhaal: Met de D-SUB was het beeld mooier.

Heden heb ik een Sapphire Radeon X1950 Pro met een tweetal DVI connectors. Ik ben nu dus geforceerd om de DVI convertor te gebruiken. Wat zie ik op het scherm? Dezelfde 2D kwaliteit als bij de vorige twee kaarten met een converter op de DVI poort.

In de tussentijd heb ik ook andere DVI converters aan de kaarten gehad. Deze gaven ook een lagere 2D beeldkwaliteit.
, maar in principe moet dvi met convertor precies hetzelfde beeld geven als d-sub op hetzelfde scherm.
Mits de convertor de kwaliteit niet omlaag brengt.
Op een tft die dvi en d-sub input heeft is dvi mooier dan d-sub
Dat klopt. Enkel heb ik geen TFT :P.
,of de bron aan de d-sub nou van d-sub komt of via een convertor van dvi.
Logisch, de DVI poort met daaraan een converter zal geen pure DVI kwaliteit zijn maar moet in principe van dezelfde kwaliteit zijn als de D-SUB. Again, mits de converter het signaal niet verstoord.

Profiel | https://thandor.net - hardware
And the rest of us would be carousing the aisles, stuffing baloney.


Acties:
  • 0 Henk 'm!

  • Oet
  • Registratie: Mei 2000
  • Laatst online: 12-09 15:42

Oet

[DPC]TG & MoMurdaSquad AYBABTU

Thandor schreef op dinsdag 26 december 2006 @ 23:12:
Logisch, de DVI poort met daaraan een converter zal geen pure DVI kwaliteit zijn maar moet in principe van dezelfde kwaliteit zijn als de D-SUB. Again, mits de converter het signaal niet verstoord.
Als dit werkelijk de oorzaak is (de converter), dan zou ik, als ik jou was, naar de winkel lopen en daar een DVI->D-SUB kabel kopen van een 1,8M van hoge kwaliteit (wordt aangegeven in reso =1024, =1280, =1600, =1900 of >1900). Nja, iemand(verkoper) die genoeg verstand heeft van de kabels of een goed boekje heeft waar het in staat kan het je vertellen. Waarschijnlijk is zo'n kabel een stuk beter dan een converter, deze is namelijk niet ontstoord en het enige wat het doet is een paar pinnetjes verleggen naar een andere connector...

Just my 2 cents ;)

There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Laatste R600 Roddels:

-ATi Partners hebben R600 kaarten gekregen
-1 GHz Core 1 GHz Ram
-Long PCB ( Not final version )
-R600 Misschien ook scaler Shaders IPV Vec

Dit zijn de laatste roddels. Wat er van waar is is weer de vraag. Er waren al eerder geruchten dat de A12 Core al 1 GHz kon halen. Inmiddels zou de A13 er ook al moeten zijn. sommige sluiten clock domains ook nog steeds niet uit. Aangezien Fast14 ook zo iets gebruikt. De chip kan dan nog wel op de zelfde snelheid draaien maar de clocks kunnen met die techniek los geregeld worden ( Dit heb ik gelezen op B3D )

Dus het blijft spannend.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 13-09 00:42
Astennu schreef op woensdag 27 december 2006 @ 11:39:
Laatste R600 Roddels:

-ATi Partners hebben R600 kaarten gekregen
-1 GHz Core 1 GHz Ram
-Long PCB ( Not final version )
-R600 Misschien ook scaler Shaders IPV Vec

Dit zijn de laatste roddels. Wat er van waar is is weer de vraag. Er waren al eerder geruchten dat de A12 Core al 1 GHz kon halen. Inmiddels zou de A13 er ook al moeten zijn. sommige sluiten clock domains ook nog steeds niet uit. Aangezien Fast14 ook zo iets gebruikt. De chip kan dan nog wel op de zelfde snelheid draaien maar de clocks kunnen met die techniek los geregeld worden ( Dit heb ik gelezen op B3D )

Dus het blijft spannend.
Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomen :X. Die overstap van vector naar scalar (4D -> 1D? ) shaders is op dit moment toch niet meer mogelijk?

[ Voor 0% gewijzigd door Arrigi op 27-12-2006 11:44 . Reden: typo ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Arrigi schreef op woensdag 27 december 2006 @ 11:44:
[...]


Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomen :X. Die overstap van vector naar scalar (4D -> 1D? ) shaders is op dit moment toch niet meer mogelijk?
De PCB is niet final. Final PCB zou korter worden dan dat van de 8800 GTX. En die overstap van Vector naar Scalar moet idd al veel eerder gemaakt zijn. 2 jaar geleden. Maar sommige denken ook niet dat de R600 scalar zou hebben. Het zou wel kunnen. Maar beide bedrijven hebben geniale mensen maar dat betekend niet dat ze het zelfde bedenken.

Dus ik denk nog steeds aan 96 Vec4+1D alu's met 800-1000 MHz core speed ( Er van uitgaand dat ze ook strained silicon en misschien ook fast14 gebruiken. ) Met een 512 Bit mem bus en 1200 MHz GDDR 4. ( Mijn grote gok ).

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Strained silicon in R600 zou wel moeten kunnen. Het maakt t geheeld wel duurder, maar geeft een voordeel in zowel snelheid als energieverbruik. In een of andere slide stond dat t ook gebruikt wordt in de X1700 Mobility.

Zijn er nog geruchten over een RV570 Mobility? :*)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Arrigi schreef op woensdag 27 december 2006 @ 11:44:
[...]


Hoe nog niet final? Wanneer denken ze het ding af te hebben (met voorraad!) als het in februari moet uitkomen :X. Die overstap van vector naar scalar (4D -> 1D? ) shaders is op dit moment toch niet meer mogelijk?
Over de eventuele overstap van vector naar scalar, kan je het volgende ook in je achterhoofd houden... Al maanden voordat bekend was dat G80 een scalar-architecture zou worden, was er al een (hardnekkig) gerucht dat R600 volledig scalar zou worden. Dus het zou kunnen dat R600 al vanaf het begin volledig scalar is. Maar het zou ook kunnen dat dit mis-informatie was of dat de informatie over de G80 geprojecteerd werd op de R600. :+

Als ATI echt een 512-bit memory interface heeft, dan betekent dat dus dat deze een sloot aan bandbreedte heeft die ook gebruikt dient te worden. Als je 64 of zelfs 96 vector (4D) shaders hebt, dan wordt die bandbreedte wel goed benut als de core op 1 Ghz draait. Hebben ze maar 64 of 96 scalar shaders dan blijft waarschijnlijk een groot gedeelte van de bandbreedte onbenut, tenzij ze op dubbele snelheid (dmv Fast14?) draaien ten op zichte van de rest van de core (clock domains?). De waarheid zal ongetwijfeld ergens in het midden liggen. ;)

G80 heeft trouwens gigantisch veel (texture)fillrate, maar het verleden heeft uitgewezen dat ATI met minder fillrate net zo veel (of zelfs meer) kon doen dan nVidia. Zie ook bijvoorbeeld G71 vs R580.

Dan nog wat ander nieuws. Het was al bekend dat de X1950GT gecancelled was. Deze stond oorspronkelijk gepland voor een lancering op 17 januari. (500Mhz core, 600Mhz mem, 36 pixelshader engines). Maar wat er dus nu gebeurt is dat de X1950Pro in prijs omlaag gaat en ook de X1950XT zakt. De nieuwe prijs van de X1950Pro is waarschijnlijk de oude prijs van de X1950GT, namelijk $169 en de nieuwe prijs van de X1950XT is dan de oude prijs van de X1950Pro ($199 van $249). Of de X1650XL nog steeds op de planning staat voor $99 is mij niet bekend, maar ik heb verder niet gehoord dat deze gecancelled wordt.

[ Voor 5% gewijzigd door CJ op 27-12-2006 13:39 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op woensdag 27 december 2006 @ 13:38:
[...]


Over de eventuele overstap van vector naar scalar, kan je het volgende ook in je achterhoofd houden... Al maanden voordat bekend was dat G80 een scalar-architecture zou worden, was er al een (hardnekkig) gerucht dat R600 volledig scalar zou worden. Dus het zou kunnen dat R600 al vanaf het begin volledig scalar is. Maar het zou ook kunnen dat dit mis-informatie was of dat de informatie over de G80 geprojecteerd werd op de R600. :+

Als ATI echt een 512-bit memory interface heeft, dan betekent dat dus dat deze een sloot aan bandbreedte heeft die ook gebruikt dient te worden. Als je 64 of zelfs 96 vector (4D) shaders hebt, dan wordt die bandbreedte wel goed benut als de core op 1 Ghz draait. Hebben ze maar 64 of 96 scalar shaders dan blijft waarschijnlijk een groot gedeelte van de bandbreedte onbenut, tenzij ze op dubbele snelheid (dmv Fast14?) draaien ten op zichte van de rest van de core (clock domains?). De waarheid zal ongetwijfeld ergens in het midden liggen. ;)

G80 heeft trouwens gigantisch veel (texture)fillrate, maar het verleden heeft uitgewezen dat ATI met minder fillrate net zo veel (of zelfs meer) kon doen dan nVidia. Zie ook bijvoorbeeld G71 vs R580.

Dan nog wat ander nieuws. Het was al bekend dat de X1950GT gecancelled was. Deze stond oorspronkelijk gepland voor een lancering op 17 januari. (500Mhz core, 600Mhz mem, 36 pixelshader engines). Maar wat er dus nu gebeurt is dat de X1950Pro in prijs omlaag gaat en ook de X1950XT zakt. De nieuwe prijs van de X1950Pro is waarschijnlijk de oude prijs van de X1950GT, namelijk $169 en de nieuwe prijs van de X1950XT is dan de oude prijs van de X1950Pro ($199 van $249). Of de X1650XL nog steeds op de planning staat voor $99 is mij niet bekend, maar ik heb verder niet gehoord dat deze gecancelled wordt.
Volgens mijn zal de G80 vs. R600 hetzelfde worden als de G71 vs R580.
Beiden ijzersterke kaarten. De ene kaart voordeel in het ene spel dan andere kaart in het andere spel.

Acties:
  • 0 Henk 'm!

Verwijderd

tenzei dat de R600 512Bits breed is, zou dit ook een mogelijkheid kunnen zijn, want dat zou beter clicken met 512Bit GDDR4 of mis ik iets?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 27 december 2006 @ 16:05:
tenzei dat de R600 512Bits breed is, zou dit ook een mogelijkheid kunnen zijn, want dat zou beter clicken met 512Bit GDDR4 of mis ik iets?
Die 512 Bit bus kan ook prima met GDDR 3 werken. Maar ik gok dat de Shaders units dusdanig zwaar zijn dat de 512 Bit bus ook echt nodig is. Dus hij zal wel sneller dan de G80 moeten zijn. Anders is het zonde van de dure 512 Bit bus. Of de R600 heeft toch geen 512 Bit bus.... Maar ik ga toch voor de 512 Bit bus met GDDR 4 @ 1200 MHz en daarbij dus 96 shaders op een clockspeed hoger dan 800 MHz.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

ja oke maar ik bedoelde de R600 zelf of die nou 256 Bit of 512Bit wordt net als de Parhelia 512 die was ook zelf 512Bit ;)

ook nog iets :D

AMD stopt 52 PCI lanes in de RD790 chipset, 3 PCI-E x16 slots en 1 PCI-E x4 slot :9
nieuws: AMD stopt 52 pci-e-lanes in RD790-chipset

"Door gebruik te maken van deze combinatie kunnen er bijvoorbeeld drie videokaarten in een systeem worden gestoken zonder dat een daarvan aan bandbreedte moet inleveren, iets waar moederborden met minder dan 48 pci-e-lanes wel mee te maken hebben"

"Verder zal de RD790-chipset HTX gaan ondersteunen, waardoor er gebruik kan worden gemaakt van uitbreidingskaarten die via een HyperTransport 3.0-bus een directe verbinding hebben met de processor en het geheugen. Het voordeel hiervan is dat er niet eerst informatie door de chipset heen hoeft te worden gestuurd, wat de snelheid ten goede zal komen. Waarschijnlijk zal de nieuwe chipset van AMD voor zowel socket AM2+ als socket F gaan dienen, wat dus ook ondersteuning voor quadcoreprocessors met zich mee zal brengen"

maar ja Q3 2K7 komt ie pas :) leuk met een 3 tal R650/R680 GPU's er in 8)

[ Voor 98% gewijzigd door Verwijderd op 27-12-2006 18:28 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op woensdag 27 december 2006 @ 18:18:
ja oke maar ik bedoelde de R600 zelf of die nou 256 Bit of 512Bit wordt net als de Parhelia 512 die was ook zelf 512Bit ;)

ook nog iets :D

AMD stopt 52 PCI lanes in de RD790 chipset, 3 PCI-E x16 slots en 1 PCI-E x4 slot :9
nieuws: AMD stopt 52 pci-e-lanes in RD790-chipset
Dat is vrij oud nieuws. Die roadmap die The Inq gebruikt is al in Oktober in dit topic besproken. ;)

O.a. werd er vermeldt dat AMD ook iets leuks op die roadmap heeft staan... namelijk de mogelijkheid om 4 videokaarten in je moederbord te prikken en dus niet slechts 3 zoals op de FP staat. RD790 zouden dan gebruik maken van vier maal 8xPCIe... dat is dus echte Quad CrossFire.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Thandor schreef op dinsdag 26 december 2006 @ 23:12:

Mits de convertor de kwaliteit niet omlaag brengt.
Klopt, maar omdat de convertor geen actieve conversie doet moet het wel in de videokaart gebeuren. De enige reden dat dvi met convertor er slechter uit kan zien dan d-sub is als de ramdac op de 2e aansluiting (dvi) slechter is dan die op de 1e aansluiting (d-sub).

Als dat zo is maakt het voor mensen met een crt niet uit of de eerste aansluiting een d-sub aansluiting of dvi met convertor is.

maar ik zal nu ophouden met offtopic gaan

Acties:
  • 0 Henk 'm!

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 17:27
Hmm, als ik al die verhalen zo eens lees over de R600 dan gaat het zeker weten een Geforce 8800 killer worden. en de eerstvolgende modellen, want wat Nvidia aan budget-spul kan maken van een 8800 kan ATI natuurlijk ook met de R600.

Als de r600 die specs idd heeft, en hij maakt er goed gebruik van (en dus ook de software), lijkt het me voorlopig voor Nvidia een gedane zaak :)

[ Voor 8% gewijzigd door Visgek82 op 27-12-2006 19:42 ]

Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME


Acties:
  • 0 Henk 'm!

Verwijderd

Voorlopig is er helemaal nog geen R600 en ligt de G80 al anderhalve maand in de winkels, dus een conclusie trekken op dit moment lijkt mij vrij voorbarig :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
OMG Die Specs van die chipset :9~

52 PCI-E Lanes :P En cache geheugen :D dit moet een killer gaan worden :P Ben erg benieuwd :D Hopelijk komt er ook een Killer SB bij met super goede SATA controllers :).

Ik wil er wel een hebben voor me K8L :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Visgek82
  • Registratie: December 2002
  • Laatst online: 17:27
Verwijderd schreef op woensdag 27 december 2006 @ 19:45:
Voorlopig is er helemaal nog geen R600 en ligt de G80 al anderhalve maand in de winkels, dus een conclusie trekken op dit moment lijkt mij vrij voorbarig :)
Ik trek geen conclusies, ik kijk puur naar speculatie. als de nieuwste geruchten waar zijn heeft de R600 een behoorlijke voorsprong op technisch gebied, zoals met veel ATI kaarten gebeurd is in het verleden.

Ryzen 7 7700X , 32 GB RAM, ProArt 4080 Super, MSI B650 Tomahawk, 2x2tb NVME


Acties:
  • 0 Henk 'm!

Verwijderd

@ CJ

waarom niet gelijk 4x PCI-E x16 voor echte quad CrossFire ? of is dat niet mogelijk? je zou zeggen van wel want de ATi RD580 CrossFire Xpress 3200 heeft ook 2x PCI-E x16 Voor CF setup dus ik dacht van 4x PCI-E x16 zou ook moeten lukken :)

Maare idd 52 PCI lanes is wel erg lief om mee te beginnen, can't wait for benchmarks met dit ruige spul haha 2K7 wordt een leuk jaar voor de ATi gebruiker :)

Zo'n prototype lijkt me ook wel wat maar om er aan te komen is ook zo iets van heh je moet de mensen maar kennen heh :X

[ Voor 14% gewijzigd door Verwijderd op 27-12-2006 21:11 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
4x16 = 64. Volgens mij tovert ATI al met moeite 52 lanes uit hun chipset. Waar je die overige twaalf vandaan wilt halen zonder de southbridge toe te spreken zoals nVidia dat doet, is mij een raadsel. 3x16 en 1x4 zou kunnen, maar een QuadFire opstelling zou dan niet echt gebalanceerd zijn. En dankzij technieken als XpressRoute die de PCIe bus standaard al 25% overklokt wanneer er CrossFire gebruikt wordt, is het verschil tussen 16xPCIe en 8xPCIe al een stukje kleiner.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 13-09 17:07

Krizzie

Progressive Music \o/

Kunnen ze geen 12 lanes leggen dan? Fysiek een 16x slot maar met bijvoorbeeld 12 lanes. Ik weet dat PCI-E 12x niet bestaat maar waarom dan niet? Niet mogelijk?

Geluidswolk


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Quad Crossfire is zowieso al om te lachen. Wat een overkill. :O

Dan mag je wel een 2Kw voeding hebben met 4x R580 of 4xR600; en niet te vergeten een aparte stroomgroep in de meterkast. En wat wil je ermee bereiken? 500FPS ipv 250? 1 R600 lijkt me al meer dan genoeg. Als hij net zo goed presteerd als de 8800 serie, of een tikkeltje beter, zijn 2 of 3, laat staan 4 van deze kaarten totaal overbodig.

--> Misschien heeft het met Physics te maken :? Ik kan me namelijk niet voorstellen dat iemand het in zijn/haar hoofd haalt om voor 2500 euro aan videokaarten in een PC te stampen die ook nog eens totaal niet tot hun recht komen met de huidige processors.

[ Voor 45% gewijzigd door Format-C op 27-12-2006 22:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
RappieRappie schreef op woensdag 27 december 2006 @ 22:03:
Quad Crossfire is zowieso al om te lachen. Wat een overkill. :O

Dan mag je wel een 2Kw voeding hebben met 4x R580 of 4xR600; en niet te vergeten een aparte stroomgroep in de meterkast. En wat wil je ermee bereiken? 500FPS ipv 250? 1 R600 lijkt me al meer dan genoeg. Als hij net zo goed presteerd als de 8800 serie, of een tikkeltje beter, zijn 2 of 3, laat staan 4 van deze kaarten totaal overbodig.

--> Misschien heeft het met Physics te maken :? Ik kan me namelijk niet voorstellen dat iemand het in zijn/haar hoofd haalt om voor 2500 euro aan videokaarten in een PC te stampen die ook nog eens totaal niet tot hun recht komen met de huidige processors.
Ik denk niet dat AMD/ATi echt voor Quad Crossfire gaat wel voor Physics. Vandaar ook de full 3x16 Support. Quad crossfire is mogelijk in de vorm van Gemini kaarten zoals de X1650 XT Gemini.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

heh een 2KW PSU is wel erg overdreven hoor , ik gebruik een Antec True Power 550P EPS12V voor me Dual R580/R580+ setup [X1900XTX /X1950XTX CFE] en echt heb nog een Voodoo 5 5500 PCI Macintosh als VGA 2 en echt alles loopt prima

dus 4 R580's zou je met een 1,1KW PSU wel goed zitten en mischien wel een goede 800 watter, dus het valt eigenlijk wel allemaal mee voor een quad setup althans.

Maare idd voor een Quad GPU setup gaat AMD.ATi voor 2 GPU's voor de Graphics en de andere 2 voor de Physics dat denk ik iig.

[ Voor 14% gewijzigd door Verwijderd op 28-12-2006 00:30 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 28 december 2006 @ 00:28:
heh een 2KW PSU is wel erg overdreven hoor , ik gebruik een Antec True Power 550P EPS12V voor me Dual R580/R580+ setup [X1900XTX /X1950XTX CFE] en echt heb nog een Voodoo 5 5500 PCI Macintosh als VGA 2 en echt alles loopt prima

dus 4 R580's zou je met een 1,1KW PSU wel goed zitten en mischien wel een goede 800 watter, dus het valt eigenlijk wel allemaal mee voor een quad setup althans.

Maare idd voor een Quad GPU setup gaat AMD.ATi voor 2 GPU's voor de Graphics en de andere 2 voor de Physics dat denk ik iig.
De R600 zou 225 Watt per kaart gaan gebruiken :) dat 4x + bij een Dikke Quad core. Of een 4x4 setup zit je al dik over de 1000 Watt heen :) Maar wil wil er nu zo'n systeem ?


Laatste R600 Geruchten:
ATI newest hearsay R600 operating frequency double 1GHz achieves Comes family's of from the actuation news

Today originates us from the anonymous news to learn ATi new generation of DX10 graph chip R600, already achieved the double G goal. The so-called double G goal is the core operating frequency achieves 1GHz, reveals saves the operating frequency to achieve 1GHz (equivalent DDR2GHz). At present the double G operating frequency type embraces in PCB the very long R600 achieved, at present also not clear ordinary PCB length R600 type card operating frequency. The R600 type card at present already delivered partial AIB to reveal the card merchant. Moreover, according to the newest hearsay, R600 uses outside 512-bit the annular main line (to support 512MB/1024MB/2048MB frame buffer), 1024-bit internal ring-like main line. 2.2GHz GDDR4 reveals saves, the peak value reveals saves band width 140.8GB/s. In constructs 128 scalar ALU, operating frequency 2GHz, each second 512 billion colouring operation. R600 integrates 16 ROP, operating frequency 1GHz, TMU unit 32, operating frequency 1GHz. Certainly, the R600 final actual parameter must take AMD the ATi announcement official parameter as.
Hier hebben ze het dus weer over die scalar units. Wel toevallig dat het er ook 128 zijn :\

Edit: Sommige hebben het over 64 Shaders met een dubbele ALu vandaar die 128 Shaders. Volgens mij moeten het dan 128 Shader Opterations zijn. De vraag is nu in hoeverre je die 128 Shader Operations van ATi kunt vergelijken met de performance van de nVidia Scalar units.

[ Voor 5% gewijzigd door Astennu op 28-12-2006 09:52 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Waarom zou er geen quad Crossfire op de markt komen? Als je daarmee de snelste bent dan hoef je echt niet te geven om de powerplant dat zo'n ding nodig heeft. En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.

Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
The Source schreef op donderdag 28 december 2006 @ 10:44:
Waarom zou er geen quad Crossfire op de markt komen? Als je daarmee de snelste bent dan hoef je echt niet te geven om de powerplant dat zo'n ding nodig heeft. En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.

Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.
Ik denk dat Quad crossfire net als Nvidia er zal komen in de Vorm van de Gemini kaarten. Bij nVidia was dit de GX2. Gigabyte heeft wel een Quad SLi moederbord gemaakt waar echt 4 kaarten in kunnen maar volgens mij is dat ook het enige bedrijf dat dat heeft gedaan. Ik denk dat het bij ATi ongeveer hetzelfde zal zijn.

Ik ben het wel met je eens dat volgend jaar de performance per watt strijd in de GPU markt zal beginnen. Bij de chipsets is dit ook erg belangrijk. Want krijg maar eens naar het verschil tussen de RD600 en de nForce 680i. Daar zit gewoon 70 Watt verschil in in full load. In Idle iets van 40.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

The Source schreef op donderdag 28 december 2006 @ 10:44:

En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.
Deze vraag is niet zo relevant aangezien quad-SLI mislukt is. Als AMD een efficiënt werkend platform kan produceren kan het zeker rekenen op positieve feedback en wellicht meer verkopen.

Het blijft natuurlijk wel een kleine markt. Maar toch blijken een hoop fanboys en mensen met ultra grote schermen die het geld ervoor over hebben.
Daarnaast zullen de G80 en de R600 de laatste generatie kaarten zijn die zo veel stroom trekken, vanaf hier wordt het allemaal zuiniger of meer performance voor dezelfde power.
Er zijn d'r meer die dit zeggen, maar is er ook een bron?

[ Voor 10% gewijzigd door Verwijderd op 28-12-2006 12:18 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Hij is de bron snappen jullie dat nu nog steeds niet ;)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

The Source schreef op donderdag 28 december 2006 @ 10:44:
Waarom zou er geen quad Crossfire op de markt komen? Als je daarmee de snelste bent dan hoef je echt niet te geven om de powerplant dat zo'n ding nodig heeft. En hoeveel mensen met quad SLI ken je? Nou ik niet veel, ze zullen er echt wel zijn maar dat soort dingen worden voor imago gemaakt.

[..]
Quad SLI was nVidia's wanhopige poging om de X1900 crossfire setup te verslaan. Dit kan je niet zomaar 1 op 1 zetten met wat ATi zou doen als het in een gelijksoortige situatie zou komen. De bedrijfsfilosofie van ATi verschilt wel met die van nVidia.

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op donderdag 28 december 2006 @ 15:30:
[...]


Quad SLI was nVidia's wanhopige poging om de X1900 crossfire setup te verslaan. .
ja...en crossfire is poging om sli te verslaan ? :X

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Eerder om er als een pletwals over te gaan. Schaalbaarheid van de ATI GPU's enzo he.

Verwijderd

*stomme vraag modus* wanneer komt de R600 uit want mijn spaarvarkentje is vol 8)7

Ik hoorde eerste kwartaal en ik hoorde midden/eind januari

  • Andamanen
  • Registratie: Februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Februari was volgens mij de consensus de laatste keer dat het onderwerp hier langs kwam.

  • niels88
  • Registratie: April 2003
  • Niet online
Andamanen schreef op donderdag 28 december 2006 @ 23:28:
Februari was volgens mij de consensus de laatste keer dat het onderwerp hier langs kwam.
Hoe dan ook, het duurt te lang ;)

Acties:
  • 0 Henk 'm!

Verwijderd

maandje is toch niet zo heel erg lang? niet dat er opeens 37423974 goeie DX 10 games uitgaan komen voordat de R600 er is...

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 29 december 2006 @ 00:56:
maandje is toch niet zo heel erg lang? niet dat er opeens 37423974 goeie DX 10 games uitgaan komen voordat de R600 er is...
Neem maar 2-3maanden :) Je kent ATI.
Kwaliteit.. maar duurt lang.. zie X1800XT..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Je hebt de R600 nu nog niet nodig dus al hij feb uitkomt is het goed. Alleen in die tijd heeft nVidia wel veel marktaandeel weg gesnoept. Ik kan er zelf ook niet op wachten maar eigenlijk speel ik geen games die het echt nodig hebben. Straks met UT 2007 zal dat wel anders gaan worden alleen voordat die game te krijgen is zijn we wel even verder.

Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.

Maar ik denk dat mensen liever veel meer aan de stroom rekening uitgeven dan aan een 2e kaartje om het 2d werk te doen. ( kortom geen markt voor ). Nu maar hopen dat de R600 idle niet veel gebruikt. Me X1900 XTX gebruikt dan 30-40 watt.

[ Voor 48% gewijzigd door Astennu op 29-12-2006 09:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 29 december 2006 @ 09:01:
[..]

Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.

[..]
De vraag is natuurlijk of je IGPtje Windows Vista kan draaien met al zijn grafische pracht. Anders staat je R600 BV ( ;) ) alsnog de hele tijd aan.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Astennu schreef op vrijdag 29 december 2006 @ 09:01:
Je hebt de R600 nu nog niet nodig dus al hij feb uitkomt is het goed. Alleen in die tijd heeft nVidia wel veel marktaandeel weg gesnoept. Ik kan er zelf ook niet op wachten maar eigenlijk speel ik geen games die het echt nodig hebben. Straks met UT 2007 zal dat wel anders gaan worden alleen voordat die game te krijgen is zijn we wel even verder.
nVidia heeft inderdaad veel marktaandeel weggesnoept, maar dit ligt imho niet aan het ontbreken van de R600. G80 is leuk en aardig, maar deze generatie gaat pas veel markt van ATI wegsnoepen zodra ATI in Maart / April te laat is met haar DX10 midrange assortiment. Kunnen wij als nerd wel zeggen DX10 is niet nodig, maar de 99.99% rest van de mensen en de marketing mensen van de OEM's die pakken DX10 omdat het hoger is, dus beter. Wat gaat de ATI strategy zijn (ik mis op dit moment totaal een strategy, maar dat terzijde) zodra het midrange segment van nVidia DX10 support, en dit tegen nagenoeg dezelfde prijs als dat van de DX9 ATI vga kaarten? Lijkt mij een duidelijke keuze. Wat mag voor de gewone huis en tuin gebruiker het prijs premium zijn van een DX10 kaart tov een DX9 kaart? En hoeveel onwetende mensen en domme verkopers in winkels zullen geen DX10 pushen omdat ze gehoord hebben dat het in Vista zit en dat het nodg is?

Dus ja, nVidia heeft marktaandeel gewonnen op ATI, maar het afgelopen jaar lag dit meer aan de agressiviteit van nVidia en haar goede productmix. Ik durf ook te beweren dat mits nVidia een fuckup maakt, ATI wel HEEL ERG goed haar best moet doen om nVidia te verslaan. En na het debacle van de stofzuiger van nVidia weten ze wel dat ze geen productcycle meer kunnen missen en altijd voor het maximale moeten gaan. Je ziet de laatste tijd ook meer ATI only merken nVidia erlangs gaan doen... misschien niet van belang, maar dit heeft een grote inpact, want veel van die merken verkopen hun eigen merk, en niet de chip die erop zit. Dus klanten die eerder ATI kochten zullen nu ook overtuigd worden om eens nVidia te proberen. Nu zijn dit allemaal geen grote spelers, want die doen zowel ATI als nVidia maar het heeft zeker een impact. Sorry dat ik niet al te optimistisch klink maar helaas zie ik dit in de markt gebeuren. Daarbij gaat het ook niet erg goed met de grootste klant van ATI, Sapphire. Ze hebben enorm veel leverings problemen, don't know why.

Ik hoop echt dat AMD haar ATI bedrijfstak weer een peper in de kont kan duwen en er echt maximaal voor gaan. Maar de meeste hier weten mijn mening, vanuit het oogpunt van AMD bekeken zijn CPU's en Chipsets (ook die met VGA onboard) haar corebusiness, discreet graphics zou ik daar niet onder rekenen. Overigens heeft nVidia in Q4 2007 haar integrated chipset met DX10 graphics op de markt, ff zoeken naar specs, zal ik later posten. Deze moet het dus opgaan nemen tegen de 790G (RS790) van AMD die geplanned staat voor Q3, maar wellicht uitgesteld zal worden omdat de R600 nog niet op de markt is.

MCP73 > 7300 / Direct X 9.0c / Shader Model 3.0 / HDMI and HDCP / 720p H.264 decoding / GB Lan / HDA / 4 SATA / 1 PATA -> Q2 2007 Intel platform

MCP79 > ??? / Direct X 10 / HDMI and HDCP / 1080p H.264 decoding / GB Lan / HDA / 4 SATA / 1 PATA -> Q4 2007 Intel platform
Ik zat me trouwens het volgende af te vragen: Waarom doen ze niet het zelfde met 3d kaarten in de desktops als wat ze in de laptops doen. Als je ene IGP hebt neemt in windows de IGP het over en zet je de R600 BV uit. Zodra je games start pakt die het over. Je zit dan alleen wel even met de aansluiting van je beeldscherm. Maar daar kunnen ze vast wel wat op vinden lijkt mij.
Dit klinkt heel leuk,maar het gebeurd ook niet in laptops. Je hebt of een chipset met (trage) integrated graphics, of je hebt een discreet vga kaart met snelle graphics en dedicted geheugen in een notebook zitten. Maar dat het een goed idee is voor de batterylife van notebooks klopt wel en daarom komt dit concept in de volgende generatie van AMD notebooks.

Afbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide63.JPGAfbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide64.JPGAfbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide65.JPGAfbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide66.JPGAfbeeldingslocatie: http://www.iian.ibeam.com/events/thom001/20943/browser/slides/20061213215430590699/default_large/Slide67.JPG

[ Voor 31% gewijzigd door The Source op 29-12-2006 12:21 ]


Acties:
  • 0 Henk 'm!

  • Mesh
  • Registratie: Januari 2001
  • Laatst online: 21-08-2024

Mesh

Use the FAQing SEARCH!

Hebben er hier mensen ervaring met de Club3D x1950 Pro?

Afbeeldingslocatie: http://www.club3d.nl/distri/images/product/lowtransb/CGAX-P1956.gif

Kan geen review vinden en ben erg nieuwsgierig hoe de koeling presteert.

[ Voor 205% gewijzigd door Mesh op 29-12-2006 12:45 ]

Signature?


Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 09:59
Hmm die cooler zit ook op dezelfde kaart van Powercolor.

Club3D is naar mijn mening een B-merk, dus ik zou ff naar Powercolor kijken:

* Powercolor X1950 Pro Extreme 256Mb:
http://www.powercolor.com...product_detail.asp?id=134

* Powercolor X1950 Pro Extreme 512Mb:
http://www.powercolor.com...product_detail.asp?id=133

Ik hoop dat je er iets mee kunt..

EDIT: Van die Club3D heb ik helemáál geen reviews kunnen vinden, van de Powercolor echter redelijk veel. Ik zal ze hieronder zetten:Lijkt me wel genoeg zo, he? :)

[ Voor 46% gewijzigd door Evano op 29-12-2006 13:53 ]


Acties:
  • 0 Henk 'm!

  • Mesh
  • Registratie: Januari 2001
  • Laatst online: 21-08-2024

Mesh

Use the FAQing SEARCH!

Kijk daar hebben we wat aan, tnx man! :D

Cooler blijkt dus een broertje van de Artic cooler Accelero. Review hiervan is hier terug te vinden:

http://www.guru3d.com/article/cooling/323/5/

Afbeeldingslocatie: http://www.guru3d.com/admin/imageview.php?image=8548

Cooler lijkt z'n werk goed te doen, maar de afmetingen zijn toch wat minder... :X

[ Voor 5% gewijzigd door Mesh op 29-12-2006 14:34 ]

Signature?


Acties:
  • 0 Henk 'm!

Verwijderd

Mesh schreef op vrijdag 29 december 2006 @ 14:30:
[...]


Kijk daar hebben we wat aan, tnx man! :D

Cooler blijkt dus een broertje van de Artic cooler Accelero. Review hiervan is hier terug te vinden:

http://www.guru3d.com/article/cooling/323/5/

[afbeelding]

Cooler lijkt z'n werk goed te doen, maar de afmetingen zijn toch wat minder... :X
ziet er erg netjes uit hoor en hey! Vista is ook no prob ;) leuke fluoriserende effecten er in :) soort verf ?

En draait FEAR Extraction Point nu ook lekker op de AGP bus?

[ Voor 9% gewijzigd door Verwijderd op 29-12-2006 17:57 ]


Acties:
  • 0 Henk 'm!

  • roertnl
  • Registratie: Oktober 2005
  • Laatst online: 14-06-2012
The Source schreef op vrijdag 29 december 2006 @ 12:02:
[...]

.... Ik durf ook te beweren dat mits nVidia een fuckup maakt, ATI wel HEEL ERG goed haar best moet doen om nVidia te verslaan. En na het debacle van de stofzuiger van nVidia weten ze wel dat ze geen productcycle meer kunnen missen en altijd voor het maximale moeten gaan...
Ik las ergens op rage3d dat er ook wel wat problemen zijn voor nVidia met de 8800 serie, ik weet niet wat hier allemaal waar van is, mischien is het een en ander met drivers op te lossen. Maar toch het is geen goede reclame. Voor dat geld verwacht je immers wel een top product dat naar behoren functioneerd.
Misschien te vroeg uitgebracht?


For those that think its all fun and games in the Nvidia camp I suggest you read the Nzone Forums:

1.) Source Based Games : Source engine bug with distance, objects and textures appear grey or disapear all together.
2.) Poor OpenGL Performance : Alot of users are experiencing very poor OpenGL performance, some have compared it to being worse then a 9800 Pro.
3.) Vista Support : Even though Nvidia and partners love to put those little Vista Ready stickers on the boxes there is no support as of yet for the 8800 series under Vista. Not to say some have not got it to work after many hours of trying, it just performs like utter garbage.
4.) 64Bit Support : It took Nvidia 2 months to release a 64bit driver and even after its release performance is nowhere near that of a 7950...
5.) All Around Poor Performance : Seems alot of people can not get the performance out of their cards, some have seen issues regaurding the transistor issue that Nvidia said was fixed before shipping. Seems alot of people can not get enough power to the card, even thouse running recommended PSU's from Nvidia. Some have compared purchasing an 8800GTX and gettings slower performance then the 7950 GX2. Even some posting 3D Mark 2006 scores well below that of a single X1900XTX.

My thoughts on the matter, Nvidia wanted to be the first to the market with a Directx 10 product, they cut corners ( Transistor issue ) and pushed the card out way too fast, driver support was utter shit when the card was released and has not gotten much better over the months its been out.

ATI on the other hand is delaying its launch, maybe not such a good idea and with last weeks sudden delay of the new ATI chipset I do not see them making the R600 release anymore and delaying it further. Could be for the best though, I'd rather have a product thats properly tested and released with excellent support rather then the gong show the 8800GTX has given us.

Not a fanATIc, just have been comparing both forums. I can't make a final conclusion until we actually see the R600 in action, but from what it looks like, AMD is putting more time and effort into the R600 more so then what Nvidia put into the 8800GTX.

The 8800GTX and GTS are excellent card, but the ammount of issues that popped up after the release definatley shows no quality control.


Oke niet iedereen heeft deze problemen maar het is lullig als je zo'n kaart koopt dat het niet goed werkt.

en dan ook nog
'Nvidia GeForce 8800 voldoet niet aan pci-e-specificatie'Nadat eerder al bekend werd dat nVidia een fors aantal GeForce 8800-kaarten had moeten terughalen wegens een ernstige productiefout, ziet het er nu naar uit dat het bedrijf weer in de problemen zal komen met deze videokaarten.
Naast de driverproblemen die veel Vista-gebruikers zorgen baren - nVidia heeft namelijk nog steeds geen DirectX 10-drivers - zou het namelijk zo zijn dat de G80 niet geheel volgens de pci express-specificaties gebouwd is. Het resultaat daarvan is dat verschillende 8800-kaarten dienst weigeren in pci express x8-slots van meerdere moederborden. De berichten zijn nog niet geverifieerd, maar verschillende gebruikers melden problemen en de GeForce 8800 komt niet voor op de PCIe SIG Compatibility List. Bronnen die bij de tests betrokken zijn, benadrukten tegenover The Inquirer dat nVidia heel wat kansen gehad heeft om zijn producten te laten testen, maar dat ze dit blijkbaar niet geprobeerd hebben of dat ze niet door de tests raakten.

bron: nieuws: 'Nvidia GeForce 8800 voldoet niet aan pci-e-specificatie'

Haastige spoed is ...

@ The Source
Begrijp me goed ik zeg niet dat wat je zegt niet klopt, maar alleen dat het bij nVidia ook niet allemaal rozegeur en manenschijn is

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
roertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]


Naast de driverproblemen die veel Vista-gebruikers zorgen baren -
vista is ook nog niet uit voor de eindgebruiker...er is een rtm versie uit, zodat ontwikkelaars nog de tijd hebben om goede drivers te maken....tegen de tijd dat vista in de winkels ligt, zal er een driver beschikbaar zijn
nVidia heeft namelijk nog steeds geen DirectX 10-drivers
zelfde met directx 10...dat is ook nog niet uit (behalve voor developers dan, maar die zullen ook wel een werkende vista driver hebben)
roertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]


1.) Source Based Games : Source engine bug with distance, objects and textures appear grey or disapear all together.
dat is ook allang bekend dat valve samen met nvidia naar een oplossing aan 't zoeken is..
roertnl schreef op vrijdag 29 december 2006 @ 17:57:
[...]

Het resultaat daarvan is dat verschillende 8800-kaarten dienst weigeren in pci express x8-slots van meerdere moederborden.
logisch...staat ook duidelijk op de doos dat je een 16x mobo nodig hebt (bij xfx tenminste wel)

en ze hebben ook nooit gezegd dat ze wél aan die ''standaard'' voldoen :)
klopt...daarom wachten ze met een vista/dx10 driver tot het allebei uit is ! ...of bedoel je dat niet ? :)


mja...het komt allemaal van the inquirer


offtopic
iedereen vergeet ook maar voor het gemak dat nvidia alweer bijna 2 maanden aan de opvolger van de g80 bezig is, en als de r600 over 2 maanden uitkomt, dus al 4 maanden....en in 4 maanden kan er veel gebeuren

[ Voor 64% gewijzigd door Mr. Detonator op 29-12-2006 18:41 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Tja, de G80 is van nVidia natuurlijk een erg goede 'marketing' zet geweest. Maar ik ben het helemaal met je eens dat het product niet af is echter zijn deze issues allemaal terug te voeren naar de drivers. En daarbij kan ik best begrijpen dat het nVidia driver team het erg druk heeft, met de upcoming Vista launch, zowel 32b als 64b en dat zijn de drivers ook niet meer unified omdat de G80 een complete andere architectuur heeft. Dus tijd te weinig om goede G80 drivers voor XP te maken... snap ik.

Is dit bij ATI zoveel anders?? Die vista drivers zijn ook nog om te huilen, en van echt gaming in Vista kan nog niet gesproken worden, teminste niet op mijn pc :( Daarbij is het altijd een afweging, ATI heeft het driver technisch bij een product launch wel altijd 'redelijk' goed voor elkaar, maar die producten komen ook altijd pas 2 maanden na de launch op de markt. Daarbij worden er bij ATI ook wel eens features 'enabled' in een nieuwe driver release waarvan al wel sprake was bij de launch. Ik vrees dat dit komt door de immense druk die er op de time to market ligt.

Dat nVidia nu nog geen goed werkende drivers Vista beschikbaar heeft maakt niet uit. 2D werkt nagenoeg perfect, en enkel B2B versies van Vista zijn uit die nagenoeg niet voor gaming gebruikt worden. Maar 30 januari zodra Vista voor de consument / gamer gelanceerd wordt dan wordt er van nVidia (en ook ATI) verwacht dat ze wel goed werkende drivers hebben. Nu als ATI dan haar R600 lanceert, dan moeten zij in principe bij de launch een goed werkende driver voor Vista beschikbaar hebben. En zoals Mr. Detonator al zegt, DX10 drivers zijn nog niet nuttig.. er is nog geen software. Altijd wel kat en muis spel, maar eerst goede DX9 drivers voor Vista, daar ligt immers de grootste druk, dus het driver team zal het wel in een logische volgorde afwerken :)

Overigens dat de G80 niet werkt in een PCI-E 4 / 8 slot is imho een non-issue. Als een gamer zo erg into zijn materiaal is dat hij een G80 aanschaft mag je er ook vanuit gaan dat hij genoeg kennis heeft om deze in een mainboard te frotten met PCI-E x16 electrical slot.

[ Voor 6% gewijzigd door The Source op 29-12-2006 18:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mr. Detonator schreef op vrijdag 29 december 2006 @ 18:20:
[...]
vista is ook nog niet uit voor de eindgebruiker...
Dat hoor ik iedere Nvidia gebruiker zeggen als tegenargument. Ik dacht dat Nvidia altijd geprezen werd om het veelvuldig uitbrengen van beta drivers, is dat plotseling niet belangrijk meer?
Modbreak:Flamen is niet lief

[ Voor 7% gewijzigd door Ultraman op 29-12-2006 19:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Om eventjes een beetje tegenwicht in de schaal te leggen: Vlgs mij is het wèl een probleem dat ie niet werkt in 8x sloten. Veel SLI moederborden werken tenslotte met 2x8 lanes als SLI wordt ingeschakeld. En ja, er zijn er die dit apparaat nog eens in SLI wilden gaan zetten en zo'n moederbord hebben (niet eens zo ongewoon, want het is niet niet een "oudere generatie" te noemen).

Dus er moeten niet alleen nogal wat driverproblemen worden opgelost, maar ook nog een probleem mbt de aansluiting etc. Kortom, voordat nVidia een volledig volgens specs. presteren product heeft, wat dus ook SLI en Vista inhoudt, zal er nog wel wat moeten gebeuren.

Acties:
  • 0 Henk 'm!

Verwijderd

Overigens dat de G80 niet werkt in een PCI-E 4 / 8 slot is imho een non-issue. Als een gamer zo erg into zijn materiaal is dat hij een G80 aanschaft mag je er ook vanuit gaan dat hij genoeg kennis heeft om deze in een mainboard te frotten met PCI-E x16 electrical slot.
Is het niet zo dat je bij SLI snel in de problemen kan komen aangezien er nog veel mobo's in omloop zijn met 20 lanes? Als dat het geval is lijkt me dit niet bepaald een "non-issue"

Wat ik me afvraag is hoe ATI en nVidia van te voren kunnen weten of DX10 werkt als er nog geen drivers zijn. Deze chips worden al jaren van te voren ontwikkeld met DX10. Hebben ze soms al wat test-code waarmee bebaalde DX10 routines kunnen checken?

Acties:
  • 0 Henk 'm!

  • roertnl
  • Registratie: Oktober 2005
  • Laatst online: 14-06-2012
Mr. Detonator schreef op vrijdag 29 december 2006 @ 18:20:
[...]
klopt...daarom wachten ze met een vista/dx10 driver tot het allebei uit is ! ...of bedoel je dat niet ? :)
Ik bedoelde meer dat als ze er even meer aandacht aan hadden besteed en hem bijvoorbeeld een maand of 2 later hadden uitgebracht, er mischien minder problemen zouden zijn.
Dan waren ze evengoed eerder als ATi, maar dan was het allemaal wel meer voor elkaar.
Aan de andere kant snap ik ook dat ze graag met de kerst die dingen in de winkel willen hebben liggen.

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
roertnl schreef op vrijdag 29 december 2006 @ 19:46:
[...]


Ik bedoelde meer dat als ze er even meer aandacht aan hadden besteed en hem bijvoorbeeld een maand of 2 later hadden uitgebracht, er mischien minder problemen zouden zijn.
Dan waren ze evengoed eerder als ATi, maar dan was het allemaal wel meer voor elkaar.
Wat is er in die 2 maanden dan allemaal veranderd ?...want dat is over paar weken al

welke problemen bedoel je dan allemaal die ondertussen/over 2 weken ''ineens'' opgelost zijn ?

er zal voorlopig nog niks veranderen tót vista uitkomt...dán pas zullen er ook drivers uitkomen
directx10 staat hier weer los van

Acties:
  • 0 Henk 'm!

  • roertnl
  • Registratie: Oktober 2005
  • Laatst online: 14-06-2012
Mr. Detonator schreef op vrijdag 29 december 2006 @ 20:10:
[...]


Wat is er in die 2 maanden dan allemaal veranderd ?...want dat is over paar weken al

welke problemen bedoel je dan allemaal die ondertussen/over 2 weken ''ineens'' opgelost zijn ?

er zal voorlopig nog niks veranderen tót vista uitkomt...dán pas zullen er ook drivers uitkomen
directx10 staat hier weer los van
Het is dan in ieder geval niet zo dat mensen eerst eens een paar maanden moeten wachten tot diverse problemen in orde zijn, omdat dan nog niemand zo'n ding heb.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
CJ schreef op dinsdag 26 december 2006 @ 13:36:
Newsflash: Asus EAX1950Pro DUAL

Niet alleen GeCube en Sapphire werken aan Gemini opstellingen van de RV560 en RV570... Ook Asus is bezig met dual opstellingen. Asus heeft 2x een X1950Pro bij elkaar gestopt en er de EAX1950Pro DUAL van gemaakt. Aan het PCB te zien is een Quad CrossFire opstelling echter niet mogelijk.

[afbeelding]

[afbeelding]

[afbeelding]

http://www.oc.com.tw/article/0612/readolarticle.asp?id=5658
Wel interessant, maar er zijn een paar design beslissingen die minder zijn

- Quad crossfire is niet mogelijk, duidt er ook op dat ATI het niet in de drivers heeft zitten en voor het consumenten gedeelte het komende half jaar of jaar nog niet gaat introduceren, anders was het al lang RTM.
- Het zijn 2 PCB's tegen elkaar, waarvan er eentje in het PCI-E x16 slot mag. Natuurlijk kun je niet / moeilijk maken dat beide connectors hebben omdat erg geen vast afstand op mb's is tussen de 2 PCI-E x16 connectors. Dit heeft wel tot gevolg dat beide 1950Pro kaarten elk op PCI-E x8 draaien, scheelt toch weer paar % in snelheid.
- Mijn chinese cursus schiet niet op en ik snap er dus nog geen drop van, maar ik vraag me af hoe die vga connectors (2x DVI + DSUB) gebruikt kunnen worden, dus in welke combinatie. Werkt het aansturen van 3 displays ook in Crossfire mode???
- Het is niet kostenbesparend, dus het nut om deze kaart te kopen tov 2x een single solution ontgaat mij. Waarom niet kosten besparend, er zijn gewoon 2 PCB's, ipv 1 PCB, met elk daar op componenten (chipset, mem, etc), en er zit een extra PEX8532 chip (PCI-E switch) die in volume ook 4 tot 5$ kost en verbruikt ook nog eens extra 7W.
- Leuk om te zien is dat de PEX8532 gebriukt maakt van een PCI-E x16 connector die de communicatie tussen de 2 kaarten verzorgt, dus naast de PCI-E x8 signaal richting de andere kaart ook nog eens voor de 2x PCI-E x2 Crossfire connector verzorgt.
Afbeeldingslocatie: http://www.oc.com.tw/article/0612/imgs/asus_eax1950pro_dual_061222_008.jpg

Ik vrees dat afgezien van een stoerheidsfactor het weinig van een commercieel succes gaat vormen, mits het prijstechnische voor de consument erg voordelig is, of quad crossfire tot de mogelijkheid behoort. Mee eens?

[ Voor 9% gewijzigd door The Source op 29-12-2006 23:41 ]


Acties:
  • 0 Henk 'm!

  • roertnl
  • Registratie: Oktober 2005
  • Laatst online: 14-06-2012
Hmm R600 review :?
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen :)

http://level505.com/2006/12/30/the-full-ati-r600-test/1/

Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
Lijkt er wel op...maar wat een vage site... :S En waarom geen pics...toch twijfel...

[ Voor 29% gewijzigd door Saturnus op 30-12-2006 15:55 ]


Acties:
  • 0 Henk 'm!

  • Arrigi
  • Registratie: November 2004
  • Laatst online: 13-09 00:42
Dat is het _enige_ dat op die site staat. Lijkt me dat ze gewoon ff veel aandacht willen om te starten ofzo..

Acties:
  • 0 Henk 'm!

Verwijderd

roertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review :?
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen :)

http://level505.com/2006/12/30/the-full-ati-r600-test/1/
January is dus GDDR3 @ 900Mhz = 115GB/S.
Maart is GDD4 @ 1.100Mhz = 140GB/S

Verder als dit het uiteindelijke resultaat zou zijn , vind ik het eigenlijk wel een tegenvaller.

Edit : Al vind ik 1600*1200 4AA 16AF , ~11k. met een 8800GTX toch wel erg weinig
Ik haal met 1600*1200 8xAA 16xAF nog ~11k.

[ Voor 12% gewijzigd door Verwijderd op 30-12-2006 16:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

roertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review :?
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen :)

http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Het eerste waar ik naar zocht was de kloksnelheid aangezien in dat artikel steeds over sample gesproken word. Maar niet gevonden 8)7
Overigens klopt het wel dat de 8800GTX wat minder in openGL is door de drivers. De getallen lijken niet volledig uit de lucht te zijn gegrepen.
Verder toch wel wat rare verschillen bij Oblivion, De 8800GTX scoort hier toch niet zo slecht? :?
Verder als dit het uiteindelijke resultaat zou zijn , vind ik het eigenlijk wel een tegenvaller.
De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......

[ Voor 15% gewijzigd door Verwijderd op 30-12-2006 16:12 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 30 december 2006 @ 16:10:
[...]


Het eerste waar ik naar zocht was de kloksnelheid aangezien in dat artikel steeds over sample gesproken word. Maar niet gevonden 8)7
Overigens klopt het wel dat de 8800GTX wat minder in openGL is door de drivers. De getallen lijken niet volledig uit de lucht te zijn gegrepen.
Verder toch wel wat rare verschillen bij Oblivion, De 8800GTX scoort hier toch niet zo slecht? :?
Ik heb een 8800GTX , en ben voor beide Nvidia en ATI , als iets goed is valt het niet af te breken.
Zoals als sommige 'nvidiot dat dus wel soms doen'. Verder die test van Oblivion en Anno 1770
zie je wel een groot verschil. Anno 1770 draait op een 8800GTX nie geweldig idd , maar drivers will fix that. Maar Oblivion daarintegen heb ik toch nog niet onder de 30fps gezeten , zelf niet met 8xAA 16xAF.
The R600 Specs are:

* 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
* 32 TMUs, 16 ROPs
* 512 bit Memory Controller, full 32 bit per chip connection
* GDDR3 at 900 MHz clock speed (January)
* GDDR4 at 1.1 GHz clock speed (March, revised edition)
* Total bandwidth 115 GB/s on GDDR3
* Total bandwidth 140 GB/s on GDDR4
* Consumer memory support 1024 MB
* DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
* 32FP internal processing
* Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
* Hardware DVI-HDCP support (High Definition Copy Protocol)
* Hardware Quad-DVI output support (Limited to workstation editions)
* 230W TDP PCI-SIG compliant
De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......
Ik denk dat het op de clockspeeds van de 'uitkomende R600' zal zijn.(Januari)
Zoals er ook bij staat komt een vernieuwde versie in Maart met GDDR waarschijnlijk em tegen de vernieuwde G80 te concureren. Ten minste.. als dit 'true' is. Het zou inderdaad wel een slimmere stap zijn van ATI om zo 2x geld te verdienen door kleinere vernieuwingen net zoals Nvidia.
En in tussentijd hebben ze een concurent voor de G80.

Een 7800GTX <-> X1800XT geval dus :+

En idd.. lijkt een vrij realistische review.

[ Voor 16% gewijzigd door Verwijderd op 30-12-2006 16:19 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Als dit het is dan zal nVidia toch winnen, want ik verwacht nog een snellere G80 versie.

Acties:
  • 0 Henk 'm!

  • Evano
  • Registratie: April 2006
  • Laatst online: 09:59
Ik geloof niets van die review.

Geen plaatjes etc en ze noemen de G80 wel bij zijn marketing naam a.k.a. 8800GTX maar ze blijven R600 zeggen... het komt bij mij over alsof ze de FPS waarden uit hun duim hebben gezogen, vooral in Oblivion..

Acties:
  • 0 Henk 'm!

Verwijderd

blacktarantulaX schreef op zaterdag 30 december 2006 @ 16:47:
Ik geloof niets van die review.

Geen plaatjes etc en ze noemen de G80 wel bij zijn marketing naam a.k.a. 8800GTX maar ze blijven R600 zeggen... het komt bij mij over alsof ze de FPS waarden uit hun duim hebben gezogen, vooral in Oblivion..
Zoals ik al zei.. de fps in die review zijn realistisch..
En de fps in Oblivion zijn de Minimum fps. Je moet eerst ff doorlezen wanneer je commentaar geeft.
Plaatsjes , foto's , etc.. mogen mss nog niet getoond worden van AMD ATI.

Het zou mijn dan ook nie verwonderen dat in een paar dagen deze review offline is.

[ Voor 13% gewijzigd door Verwijderd op 30-12-2006 16:52 ]


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op zaterdag 30 december 2006 @ 16:10:
[...]


De vraag is dus of de sample frequenties dezelfde zijn als de echte frequenties. Als deze resultaten op basis van 500Mhz zijn.......
dat is idd de vraag...het is niet te hopen dat die tests al op volledige snelheid zijn, met gddr4 :|

Maar dat zou me vooralsnog ook weer niks verbazen...dit zijn de scores waar ik zelf ook al ongeveer aan dacht voor de final r600

Ook die doorvoersnelheid van 115gb/sec, zie ik niet echt terug in de benches, dus gddr4 zal daar niet zo héél veel verandering in brengen

IQ wordt ook weinig/niks over vermeld, behalve:"

This time, the antialiasing quality of the GeForce 8800GTX seemed slightly better than the R600’s. The use of AF does not have any significant performance impact on neither the GeForce 8800GTX nor the R600.

het volgende klinkt ook een beetje vreemd: 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle

dat zouden er dan toch 256 moeten zijn ipv 128 ?

[ Voor 52% gewijzigd door Mr. Detonator op 30-12-2006 21:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mr. Detonator schreef op zaterdag 30 december 2006 @ 16:52:
[...]


dat is idd de vraag...het is niet te hopen dat die tests al op volledige snelheid zijn, met gddr4 :|
GDDR4 versie is voor maart.
GDDR3 versie is voor januari blijft uit deze "review".
Deze review is getest met de R600 GDDR3 de versie voor januari dus.

[ Voor 9% gewijzigd door Verwijderd op 30-12-2006 16:54 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik moet toch wel zeggen dat ik redelijk onder de indruk ben van de R600. In sommige games is de voorsprong idd. beperkt. Maar als je bedenkt dat bij vorige ATI-launches altijd wel een zwak punt had zoals OpenGL of HDR bij X1800. (toen nog mindere drivers)
Nu zie je dat de R600 geen zwakke punten heeft. Het blijkt dus dat ATI de drivers goed voor elkaar heeft.
De resultaten in Oblivion zullen bij de 8800GTX nog wel wat beter worden, maar gezien de schadergebruik bij dit spel is dit toch wel belangrijke indicatie voor de toekomst die de R600 zonder problemen doorloopt.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 30 december 2006 @ 17:08:
Ik moet toch wel zeggen dat ik redelijk onder de indruk ben van de R600. In sommige games is de voorsprong idd. beperkt. Maar als je bedenkt dat bij vorige ATI-launches altijd wel een zwak punt had zoals OpenGL of HDR bij X1800. (toen nog mindere drivers)
Nu zie je dat de R600 geen zwakke punten heeft. Het blijkt dus dat ATI de drivers goed voor elkaar heeft terwijl de kaart nog niet uit is.
De resultaten in Oblivion zullen bij de 8800GTX nog wel wat beter worden, maar gezien de schadergebruik bij dit spel is dit toch wel belangrijke indicatie voor de toekomst die de R600 zonder problemen doorloopt.
Oblvion is one strange benchmark :) zoals ik al zei 8xAA 16xAF drop ik niet onder 30fps in gelijk welke omgeving. 630/2000 natuurlijk :o

Acties:
  • 0 Henk 'm!

Verwijderd

roertnl schreef op zaterdag 30 december 2006 @ 15:50:
Hmm R600 review :?
Of het allemaal klopt weet ik niet, maar dan heeft men in ieder geval weer iets te lezen :)

http://level505.com/2006/12/30/the-full-ati-r600-test/1/
If you just bought a GeForce 8800, especially the GTX version, you might want to return your card on January 22nd when ATI R600 cards become available throughout the US at 630 USD (MSRP Price) which roughly equals the current price for a GeForce 8800GTX.
630USD is goed te doen met zo'n zwakke dollar. 22 januari wordt apocalypse day voor de G80 >:)

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
Verwijderd schreef op zaterdag 30 december 2006 @ 17:24:
[...]


[...]


630USD is goed te doen met zo'n zwakke dollar.
jep..alleen je moet jezelf niet rijk rekenen, want door allerlei toeslagen zal de kaart hier wel ongeveer 630euro kosten bij launch (mss paar tientjes minder)

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 30 december 2006 @ 17:24:
[...]


[...]


630USD is goed te doen met zo'n zwakke dollar. 22 januari wordt apocalypse day voor de G80 >:)
Don't be to excited about that :)
Er komt nog een mooie performance boost met de komende Nvidia drivers zoals men al zei bij de launch , in 2007 dus.

Acties:
  • 0 Henk 'm!

  • Andamanen
  • Registratie: Februari 2001
  • Niet online

Andamanen

Trotse eilandengroep

Mr. Detonator schreef op zaterdag 30 december 2006 @ 17:28:
[...]

jep..alleen je moet jezelf niet rijk rekenen, want door allerlei toeslagen zal de kaart hier wel ongeveer 630euro kosten bij launch (mss paar tientjes minder)
Ik neem aan dat de prijzen bijna gelijk zullen zijn aan die van de concurrentie. Al zijn de prijzen van de 8800 serie sinds de introductie wel al aardig gedaalt.

Acties:
  • 0 Henk 'm!

  • MelvinB
  • Registratie: Oktober 2002
  • Laatst online: 29-09-2023
Hmm, denk je dat je in januari dan eindelijk een systeem kan bouwen met de R600, blijkt dit in 1e instantie de GDDR3-versie te wezen en komt pas in maart een GDDR4-versie. Tenminste, als de info in die link klopt. Nou weet ik niet of deze verschillen merkbaar zijn in games, maar ergens in me hoofd wordt ik gewoon gedwongen om tot maart te wachten en de GDDR4-versie te nemen.

Lastig lastig. 7(8)7

| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Ik geloof niks van die review.... Hij komt redelijk betrouwbaar over, de cijfers lijken gegrond te zijn op de waarheid in ieder geval... Maar het is gewoon te opvallend dat het enige wat op die site staat die review is, en wat mij betreft is er ook wel een overschot aan advertenties...

Maar, mocht het toch een lager geklokte R600 zijn, dan is het wel respect, hij wint bijna altijd met redelijke marge van de G80.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
The Source schreef op zaterdag 30 december 2006 @ 16:29:
Als dit het is dan zal nVidia toch winnen, want ik verwacht nog een snellere G80 versie.
Ik hoop dat deze (G81) dan DX10.1 ondersteunt. Ik hoorde dat de R600 het referentie model voor DX10.1 zou zijn. Overigens komt het overeen met het gerucht dat na een maand (of twee) een snellere R600 uit zou komen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 15-08 19:35
SpankmasterC schreef op zaterdag 30 december 2006 @ 21:24:
Ik geloof niks van die review.... Hij komt redelijk betrouwbaar over, de cijfers lijken gegrond te zijn op de waarheid in ieder geval... Maar het is gewoon te opvallend dat het enige wat op die site staat die review is, en wat mij betreft is er ook wel een overschot aan advertenties...
volgens mij komt die ''review'' gewoon van iemand die nda heeft ondertekend, en
daarom z'n identiteit niet wil onthullen ?

van b3d:
but the guy/entitiy has gone through a lot of hoops to stay unknown.
domainbyproxy..

al his e-mail is forwarded to a gmail address though..
CJ schreef op zaterdag 30 december 2006 @ 21:44:
[...]


Overigens komt het overeen met het gerucht dat na een maand (of twee) een snellere R600 uit zou komen.
in mei dus ongeveer ?...dus brengen ze ineens 3 highend kaarten uit in 5 maanden tijd ?

zijn deze twee dus waarschijnlijk

[ Voor 34% gewijzigd door Mr. Detonator op 30-12-2006 23:58 ]

Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.