Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
[ Voor 12% gewijzigd door Mitt3nz op 09-02-2007 16:45 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Maar dit ding is MASSIVE, I like IT
Anoniem: 31421
(En hopelijk houdt de vergelijking met de V5 6000 hiermee op
[ Voor 33% gewijzigd door Anoniem: 31421 op 09-02-2007 18:07 ]
Volgens mij krijg je de non-OEM versie als je dat zwarte bracket ding + fan weg denkt.Hacku schreef op vrijdag 09 februari 2007 @ 17:42:
Mooi zo, nu de prestaties nog (en pics van de non-OEM versie). Nog 4-5 weken geduld
Anoniem: 23009






dat mag ook wel met 12volt/2 ampere...niels88 schreef op vrijdag 09 februari 2007 @ 17:54:
Volgensmij ook de eerste kaart met 2 fan aanslutingen
dat is 24 watt.
[ Voor 4% gewijzigd door Mr. Detonator op 09-02-2007 18:38 ]
Doe mij de non-oem maar.
| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |
waar zit die tweede fan dan verstopt ?

Als je stil blijft staan, komt de hoek wel naar jou toe.
Anoniem: 31421
Crossfire? Anders kan de kaart te dik zijn om te gebruiken in een CF setup...?Roamor schreef op vrijdag 09 februari 2007 @ 18:41:
Waarom hangen ze die fan dan ook helemaal naast de kaart? Dan is het ook niet raar dat dat ding zo enorm groot zal worden.
anders heeft ie 2 of misschien wel 3 slots nodig ...blijkbaar schijnt zo'n grote fan dus ook nodig te zijn, anders hadden ze hem wel een stukje kleiner gemaakt..Roamor schreef op vrijdag 09 februari 2007 @ 18:41:
Waarom hangen ze die fan dan ook helemaal naast de kaart?
want ik denk niet dat ze er zo'n fan hebben opgezet om de overklokkers een plezier te doen...
[ Voor 12% gewijzigd door Mr. Detonator op 09-02-2007 18:53 ]
Staat op tweakers maar wil het hier wel even uitleggen voor je. Dit is de OEM versie en voor systeembouwers is dit gewoon handig omdat dat achterkant van de koeler kan vastgemaakt worden aan de case zelf waardoor de kaart niet gaat doorgangen. Waarom ze deze koeler kiezen voor de OEM versies? Lijkt me logisch, deze kaart zal serieus wat hitte produceren en een pc die je bij bv DELL koopt is meestal niet zo gekoeld als de gemiddelde pc van een tweaker die zijn kaart zelf monteert. (zie ook de dell xps 600 waar men serieuze hitte problemen kende)Roamor schreef op vrijdag 09 februari 2007 @ 18:41:
Waarom hangen ze die fan dan ook helemaal naast de kaart? Dan is het ook niet raar dat dat ding zo enorm groot zal worden.
Dit is dus niet de redenMr. Detonator schreef op vrijdag 09 februari 2007 @ 18:52:
[...]
anders heeft ie 2 of misschien wel 3 slots nodig ...blijkbaar schijnt zo'n grote fan dus ook nodig te zijn, anders hadden ze hem wel een stukje kleiner gemaakt..
want ik denk niet dat ze er zo'n fan hebben opgezet om de overklokkers een plezier te doen...
[ Voor 20% gewijzigd door Renegade! op 09-02-2007 18:56 ]
The best argument against democracy is a five-minute conversation with the average voter.
The Stranger: Do you have to use so many cuss words?
The Dude: What the fuck you talking about?
Anoniem: 23009
cybersteef schreef op vrijdag 09 februari 2007 @ 18:48:
3dfx was haar tijd iig ver vooruit...
hahaha uiteraard, oke ik kan het niet laten mijn vrienden, maare geen grote laad tijden dit maal, de pics zijn resized naar 800 x 600Saturnus schreef op vrijdag 09 februari 2007 @ 18:32:
Schrok me alweer dood...image's die aan het laden waren in jouw bericht...ik verwachten weer eens mega pics van een Voodoo 5...maar gelukkig.
ATi Radeon X2800 XTX OEM kaart:


3dfx Voodoo 5 6000 AGP 128MB Rev.A 3700+ Voodoo Volts.


heh als die X2800 XTX OEM zo lang is als me Voodoo 5 6000 dan kan je dit beeld cre'eren om te vergelijken met de lengte van een X1900 XTX en X2800 XTX OEM , gewoon die V6K als die X2800 XTX bedenken gewoon het formaat dan
Heh die nieuwe ATi mist iets goddelijks, een Radeon Volts :~9, maare voor de rest, een beest van een kaart zonder meer
Maardan nog als je het goed bekijkt is de PCB even lang als die van de X1900 XTX, de Voodoo 5 6000 heeft alsnog een langere PCB
Ook nog iets, die kaart lijkt me wel wat voor me groeiende ATi collectie, ja dat doe ik ook behalve alleen 3dfx kaarten verzamelen, hier me ATi collectie tot nu toe
ATi Rage Pro Turbo AGP 8MB Rev.A 9839 based on R3D
Gateway System ATi Rage 128 LX AGP 8MB Rev.A 9938 R128 LX based on R128 LX
ATi Rage Fury MAXX AGP 64MB Rev.A 9952 based on R128 Pro
ATi Radeon 256 AGP 64MB DDR Rev.A 0114 based on R100
ASUS ATi Radeon X800 XT Platinum Edition AGP 256MB GDDR3 Rev.A 0441 based on R420
Dell ATi M18 Mobillity Radeon 9800 AGP 256MB GDDR2 Rev.B 0510 based on R420M

Sapphire ATi Radeon X1900 XTX PCI-E 512MB GDDR3 Rev.B 0552 based on R580
Sapphire ATi Radeon X1950 XTX CrossFire Edition PCI-E 512MB GDDR4 Rev.B 0629 based on R580+
Die ASUS X800 XT PE heeft weer de originele cooler, omdat die zalman 2 PCI slot's ineemt, heh die moest er af omdat ik anders me netwerk kaart niet kwijt kon

Dat was mijn ATi nieuws van de week
[ Voor 83% gewijzigd door Anoniem: 23009 op 09-02-2007 19:29 ]
Anoniem: 107573
Netjes hoor.
Ondanks dat je af en toe wat doorslaat, vindt ik dit wel héél erg leuk om te zien. Petje af
Ik moet telkens mijn vorige high end kaartje verkopen om bij te kunnen blijven helaas
Anders had ik ook wel een aardige collectie gehad
[ Voor 77% gewijzigd door Anoniem: 107573 op 09-02-2007 20:07 ]
Anoniem: 78739
Anoniem: 162692
Lijkt me reël. Alleen denk ik dat het niet zo een groot verschil zal zijn.Anoniem: 78739 schreef op vrijdag 09 februari 2007 @ 20:11:
Er hangt zelfs een handvat aan om te kunnen dragen.Nu nog de prestaties van een GF8 x 1.25 of zo.
Aangezien Nvidia ook de 8900GTX uitbrengt als tegenverweer tegen de R600.
En die zou identiek aan de 8800GTX moeten zijn maar dan op 630-2000 ipv 575-1800.
Ze brengen tesamen ook een drivertweak erbij uit die de 'echte' performance van de 8800GTX en 8900GTX zullen onthullen aangezien ze gebruik zullen maken van dezelfde drivers.
Dus ik denk dat de R600 ~10-20% beter zal zijn.
Aangezien een 8900GTX met die clocksnelheden ook 10-15% beter is dan de 8800GTX zonder een drivertweak in de meeste gevallen. Dus met de drivertweak zullen dus beide kaarten "wat" sneller worden. Waarmee ze volgens mij de 8900GTX ~ = R600XTX en 8800GTX > R600XT.
Dit zijn speculaties vanuit het Nvidia topic & mijn gedacht erin vermengd.
Wie zegt dat al die pics nu getrokken zijn?Anoniem: 107573 schreef op vrijdag 09 februari 2007 @ 20:04:
Dat is one hell of a collection friend![]()
Netjes hoor.
Ondanks dat je af en toe wat doorslaat, vindt ik dit wel héél erg leuk om te zien. Petje af
Ik moet telkens mijn vorige high end kaartje verkopen om bij te kunnen blijven helaas![]()
Anders had ik ook wel een aardige collectie gehad![]()
The best argument against democracy is a five-minute conversation with the average voter.
Anoniem: 23009
heh bedanktAnoniem: 107573 schreef op vrijdag 09 februari 2007 @ 20:04:
Dat is one hell of a collection friend![]()
Netjes hoor.
Ondanks dat je af en toe wat doorslaat, vindt ik dit wel héél erg leuk om te zien. Petje af
Ik moet telkens mijn vorige high end kaartje verkopen om bij te kunnen blijven helaas![]()
Anders had ik ook wel een aardige collectie gehad![]()
Dat is geen handvat, maar een Extension Bracket for Full size cards, daarmee kan de kaart ook klem gezet worden via achterkantAnoniem: 78739 schreef op vrijdag 09 februari 2007 @ 20:11:
Er hangt zelfs een handvat aan om te kunnen dragen.

@ Renegade!
heh ik heb ze zelf allemaal geschoten hier me hele album van me 3dfx & ATi collectie en wat andere dingen van de jaren 80, niet echt met graka's te maken, nog van me hele oude jeugd
http://www.3dfx.ch/galler.../collectors_obiwankenobi/
Die X2800 XTX wordt echt een monster om mee temaken vooral in een CF setup, kan echt niet wachten tot dat we daarvan benchmarks gaan bezien en meemaken, man I can't wait!
[ Voor 42% gewijzigd door Anoniem: 23009 op 09-02-2007 21:45 ]
Wat ik mij afvraag is waar die benchmarks nu blijven. Dat zou toch het eerste zijn wat ik ging doen moest ik zo'n kaart in men handen krijgen
The best argument against democracy is a five-minute conversation with the average voter.
"Everybody is a genius. But if you judge a fish by its ability to climb a tree, it will live its whole life believing that it is stupid."
Anoniem: 38733
De eerste foto's van de 8800, die zonder een fabrikant-sticker op de cooler, vond ik ook lelijk. Wacht maar tot er een sticker op gaat.MelvinB schreef op vrijdag 09 februari 2007 @ 18:38:
Ik vind em erg lelijk, maar het gaat om de prestaties natuurlijk.
Doe mij de non-oem maar.
Het kan bijna niet anders of de oem-versie moet veel koeler zijn dan de normale retail.
[ Voor 11% gewijzigd door Anoniem: 38733 op 09-02-2007 23:05 ]

En die 8 pins kabel zou misschien (even heeel kort door de bocht) 75 / 6 * 8 = 100Watt leveren. Dus dat is 100 + 2 x 75 = 250Watt ... hmm misschien zou het dan net kunnen

Toch jammer voor al die mensen met een voeding die ouder is dan 4 maanden, die hebben niet eens die 8 pins PCI-E connector. Dan wordt het videokaart + dikke voeding als early adopter
Prestaties durf ik niets over te zeggen
De meeste mensen deugen!

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 23009
[ Voor 41% gewijzigd door Anoniem: 23009 op 09-02-2007 23:56 ]
mischien de retail versie van de r600, maybe heeft die wel een hele andere board layout, of mischien is het geen XTX maar een XT ofzo, we zullen het binnenkort weten
Dan maar even een chipsetupdate. Ik heb even een tabel gemaakt met daarin de shares qua chipsets. Nu heb ik een beetje lomp gedaan, want ik heb wel de kloppende market shares per Q van de chipset vendors, ik heb niet de verdeling AMD / Intel qua chipsets. Maar dat heb ik dus lomp naar eigen inzicht en kennis gedaan, zou redelijk moeten kloppen. Daarbij AMD/Intel verhouding is gebaseerd op desktop, chipset is complete markt, dus ook NB.[b][message=27467543,noline]CJ schreef op donderdag 08 februari 2007 @ 18:47[/message
Het is wel een beetje vreemd dat nVidia met een AMD chipset komt die AMDs eigen multi-GPU opstelling niet van huis uit ondersteunt. Natuurlijk willen ze dat mensen massaal aan de SLI gaan en daardoor veel nV videokaarten kopen, maar je kan het natuurlijk ook van de andere kant bekijken. Als ze CrossFire zouden ondersteunen, dan heb je grote kans dat er een stuk meer nForce moederborden verkocht worden.

Kortom, Intel heeft marktaandeel gewonnen, doordat C2D populair is verkopen ze hier meer chipsets door. Nvidia heeft ook veel marktaandeel gewonnen, dit voornamelijk door met C51 en C61 het low-end AMD gedeelte aan te vallen, dus ten koste van VIA en SiS. ATI was klein en is nog kleiner geworden.
Nu komt het leuke gedeelte, nvidia is op dit moment dus ERG afhankelijk van AMD chipset segment, maar AMD ligt in bed met ATI. Andersom geld dat ook, AMD is erg (te) afhankelijk van nvidia en wil haar eigen chipsets op de markt gaan zetten, en ze kunnen zich geen mislukking veroorloven, want hun eigen CPU voortbestaan hangt ervanaf.
Dus je ziet nu dat nvidia wakker is geworden en enorm veel resources steekt in het Intel segment, waar nog enorm veel plaats is om te groeien. In het value segment waar het volume zit komen in Q3 van dit jaar met een IGP chipset voor Intel, en dan kunnen ze pas marktaandeel van Intel afpakken. Intel heeft hier 865G, 945GZ, 945G, etc niet echt de snellere vga chipjes zeg maar en nvidia heeft voor einde van het jaar zelfs een DX10 versie van de IGP Intel chipsets klaar staan. Vandaar dat Intel ook hard aan de Larrabee project is gaan werken want zij weten dat als iemand marktaandeel weg kan pikken, dan is het Nvidia met haar goede integerated chipsets. Intel zal rond July de MCP73PV / S / V lanceren (1333/1066FSB, HDMI / HDCP, etc allemaal Vista Premium!)
Vista zal een grote impact hebben op de markt, Vista Basic zal erg klein blijven, meeste zal Premium zijn. Intel 945G, en hoger zijn Premium. Sis laat ik even buiten beschouwing, maar Via komt met PM960 (Vista Premium) PAS tegen het einde van 2007, zeg maar 2008. Dus nvidia heeft hier een erg goede kans met een beter / sneller IGP vista premium chipset in Q3 (july).
In het high-end Intel segment verkoopt Nvidia nu wel wat chipsets (ik realiseer me nu dat 1% voor nvidia Intel misschien wel te veel is.. ) maar daar zit niet het volume. SLI is het enige wapen eigenlijk dat Nvidia heeft om in het high-end intel gedeelte markt te pakken. Nu hebben zij een product refresch gedaan om hier huis te houden, eerder was dit segment leuk maar niet interessant, voor C2D was AMD het gamersplatform. En ja, er staat 0% bij Intel AMD chipsets. Want RD600 of hoe dat DFI ding ook heet, die zal met enkel DFI niet boven de 0.1% uitkomen, zelfs niet 1/10de daarvan. Dan hebben ze echt een Asus / MSI / GBT nodig en ik betwijfel of die er iets mee gaan doen. Daarbij, zelfs met hun support geloof ik never nooit niet dat het populairder wordt dan nVidia 680i / 650, en die hebben net 1% op Intel. Dus AMD chipsets voor Intel... 0%
Dan het AMD segment om terug te komen op bovenstaande post van CJ. Met een marktaandeel van 1.4% in Q4 voor ATI chipsets zal daar ongeveer 1.3% zijn voor de RS482/5 chipsets. Dat is de volume markt en daar hebben ze OEM deals (packard bell) en veel notebook chipsets mee uitgerust. Dus ik durf wel te stellen dat maar 0.1% (of minder) van de totale chipset markt aan ATI chipsets (RD480 / RD580) geschikt is voor Crossfire. Ja het klopt, P965/975X supporten ook Crossfire, maar ik zie het niet storm lopen, die Master CF card salesout in europa. Ik denk (gok) dat de verhouzing SLI / Crossfire wereldwijd gezien moet worden als 96% SLI, 4% Crossfire (mede dankzij 1950Pro, anders was het net 1% geweest gok ik). Dus waarom zou Nvidia Crossfire gaan supporten als dit het enige argument is voor AMD kopers om voor een Nvidia chipset te gaan??? Dus ik betwijfel het ten zeerste als Nvidia haar chipsets ook Crossfire ready gaat gebruiken voor danwel Intel danwel AMD. Zelfde zal nvidia ook geen SLI licentie aan Intel geven, want dat is de enige reden dat mensen in het Intel segment voor nvidia moeten kiezen.
Om even terug te komen op de AMD chipset markt... AMD kan zich met 690G / V geen mislukking veroorloven, deze komen eind Feb op de markt en zullen C61 (6100) en C51 (6150) van nVida gaan aanvallen. Naast Vista Premium ready, zal op de G versie ook HDMI support worden en de VGA snelheid ligt ver boven de Nvidia chipsets. Overigen zal AMD nog met de RS740 + SB600 komen in 2H voor de AM2+ refresh met HT3. Ik weet overigens niet of hier ook aan de VGA gesleuteld is, maar zoals met RS480 / 482 / 485 gok ik dat ze de clocksnelheid wel iets omhoog gooien, of misschien meer renderpipelines? In dit value segment zit de concurrentie niet stil en Nvidia zal hier de MCP68 (PV / S / PVNT) lanceren. Deze gaat de GeFore 7050SE / 7050 / 7025 heten. Zeg maar DX9, Vista Premium, HDMI. Deze komt in maart, en ik heb nog geen benchmarks gezien maar als ze hun werk goed doen, gaat deze over de 690G van AMD heen. Oh ja... Via wil ook nog een Vista Premium chipset op de markt zetten, en die denken in E/2007
Mbt DX10 wordt het ook leuk. Nvidia zal dit als IGP lanceren in July als zijnde MCP78 met de komst van AM2+ en HT3. ATI / AMD komt pas in Q1 2008 met de RS780 + SB700 met DX10 graphics. Deze heeft UVD support en de roadmap zegt "300Mhz MIPS processor inside", zal wel op de UVD slaan?.
Omdat het ATI topic zal ik kort nog even de AMD discreet chipsets bespreken, want ze hebben grootste plannen. RD790 + SB600 (opvolger RD580) zal high-end worden met Dual PCI-E x16 of Quad x8 (voor AMD 4x4 platform) maar deze heeft PCI-E gen 2.0 en AM2+ HT3 support dus verwacht deze niet voor Q3! Dan ook voor Q3 met AM2+ HT3 support de R780 + SB600 (opvolger RD480) met 2x PCI-E gen2 x8, zeg maar voor het segment sub 100$. Dan staat er nog een RX780 + SB600 voor het mainstream segment zonder crossfire support in de planning, ook HT3 AM2+ maar geen Crossfire suppport. Deze 3 chipsets (RD790 / RD780 / RX780) zullen in H2 2008 nog een refresch krijgen dmv SB700.
Dus Sis zie ik heel erg weinig plannen van, die zullen het eerste van de chipset markt verdwijnen. Ze zullen nog wat omzet draaien doordat ze een deal met Intel voor Intel branded mainboards hebben. Maar zodra Intel geen shortage meer heeft, doei doei. Via zal het erg moeilijk krijgen. Ze hebben veel marktaandeel verloren en ze hebben een Vista Premium chipset pas in E/2007 (dus zeg ik Q1 2008) geplanned, kortom kansloos en gegarandeerd marktaandeel verliezen. En ik voorspel een erg interessante en harde strijd tussen AMD en Nvidia.
Ow... had iemand dit MEGA interessante artikel over Larrabee al gelezen?
http://uk.theinquirer.net/?article=37548
Meet Larrabee, Intel's answer to a GPU
En dan nog wat VGA nieuws
XTX 1GB DDR4
XT 512MB DDR4
XL 512MB DDR3
Volgende R630 + R610 varianten stonden voor April geplannend maar zijn verschoven naar Mei en ik hoorde vandaag dat het wellicht nog later kan worden...
RV630 - (1650XT / PRO segment replacement)
RV610Pro- (X1550 (RV516/RV505PRO) nog niet op markt) segment replacement)
RV610LE - (X1550CE (RV505CE) nog niet op markt) segment replacement)
En dan als laatste komt in Q3 de RV670 als vervaning van het 1950Pro segment (RV570XT).
[ Voor 8% gewijzigd door The Source op 10-02-2007 02:09 ]
Heh, intel weet niet goed waaraan ze beginnen, x86 instructies voor hun grafische chip... ze zijn knettergek, er is een reden waarom een middelmatige gpu van nvidia het gehaalt heeft van een 2de cell cpu voor het 3D renderen in de ps3.The Source schreef op zaterdag 10 februari 2007 @ 01:29:
Ow... had iemand dit MEGA interessante artikel over Larrabee al gelezen?
http://uk.theinquirer.net/?article=37548
Meet Larrabee, Intel's answer to a GPU
[ Voor 3% gewijzigd door oeLangOetan op 10-02-2007 12:52 . Reden: typo ]
Hij kwam nog ergens een overzicht tegen van een chipset die je noemt (AMD Wahoo reference design -> RD790/SB600):

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dank je wel voor de lange informatieve post.The Source schreef op zaterdag 10 februari 2007 @ 01:29:
[...]
Dan het AMD segment om terug te komen op bovenstaande post van CJ. Met een marktaandeel van 1.4% in Q4 voor ATI chipsets zal daar ongeveer 1.3% zijn voor de RS482/5 chipsets. Dat is de volume markt en daar hebben ze OEM deals (packard bell) en veel notebook chipsets mee uitgerust. Dus ik durf wel te stellen dat maar 0.1% (of minder) van de totale chipset markt aan ATI chipsets (RD480 / RD580) geschikt is voor Crossfire. Ja het klopt, P965/975X supporten ook Crossfire, maar ik zie het niet storm lopen, die Master CF card salesout in europa. Ik denk (gok) dat de verhouzing SLI / Crossfire wereldwijd gezien moet worden als 96% SLI, 4% Crossfire (mede dankzij 1950Pro, anders was het net 1% geweest gok ik). Dus waarom zou Nvidia Crossfire gaan supporten als dit het enige argument is voor AMD kopers om voor een Nvidia chipset te gaan??? Dus ik betwijfel het ten zeerste als Nvidia haar chipsets ook Crossfire ready gaat gebruiken voor danwel Intel danwel AMD. Zelfde zal nvidia ook geen SLI licentie aan Intel geven, want dat is de enige reden dat mensen in het Intel segment voor nvidia moeten kiezen.
Ik wilde nog even reageren op dit gedeelte. De P965 en 975X ondersteunen CrossFire, maar zijn dus niet meer afhankelijk van CF Mastercards. Alle Radeons, zelfs de highend kaarten, zijn vanaf de vorige Catalyst drivers instaat om zonder Mastercard in CrossFire te draaien. Dus ik denk niet dat dit onderschat moet worden en je te veel naar de Mastercard verkopen moet kijken om het succes van CrossFire in te schatten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 23009
Dus 2 X1900 XTX of 2 X1950 XTX kaartjes zou gewoon moeten werken zonder een Master CFE kaart, als ik het goed begrijp?
En nog iets, die SB600 heeft wel een nadeel, aangezien dat ie ook op de MSI K9A Platinum zit, in noem maar een voorbeeld, daar kan die chip geen RAID 5 en JBOD, iets wat wel op de oudere ULI/ALI M1575 wel kan, dat is toch wel een groot nadeel imho.
Ik heb altijd al een kaart willen hebben die je achterin vastprikt in je kast
Hoe kom ik straks aan een OEM R600 ?!?!?!
Echt hebben hebben en nog eens hebben
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Anoniem: 23009
Maare idd die OEM versie krijgt echter wel een plekje in me ATi collectie w00t! dat is echter een ding zekers
[ Voor 35% gewijzigd door Anoniem: 23009 op 10-02-2007 14:13 ]
Anoniem: 23009 schreef op zaterdag 10 februari 2007 @ 14:12:
hmm dat za niet zo moeilijk zijn, je kan altijd via ebay online shops proberen, die kunnen vaak aan onderdelen komen voor OEM computers of het nu nieuw of oud is
Maare idd die OEM versie krijgt echter wel een plekje in me ATi collectie w00t! dat is echter een ding zekersDat is de Voodoo 5 6000 van deze tijd, Huge and damn fast!
Maar sinds ik niet echt een eBay liefhebber ben : Stel je voor ik bel een willekeurige winkel waar ik al eerder iets heb gekocht tegen de tijd dat de R600 uit is en vraag of zij een OEM kunnen leveren => Maak ik kans op succes of niet ??
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Anoniem: 23009
ik ga het zeker uit zoeken als het zo ver is
Maar die Prototype lijkt me het geilste
[ Voor 31% gewijzigd door Anoniem: 23009 op 10-02-2007 16:11 ]
Topkaarten als deze worden uitsluitend in "ruime kadoverpakking" verkocht en haast nooit in OEM-PC's.
Maar hopen mag wel, en hopelijk gaauw
Hoezo fast, voor zover ik nog kan herinneren danste nVidia gewoon over die kaart heenAnoniem: 23009 schreef op zaterdag 10 februari 2007 @ 14:12:Dat is de Voodoo 5 6000 van deze tijd, Huge and damn fast!
Anoniem: 23009
nee hoor, de 6000 was in vele games waarvoor die kaart gemaakt was de snelsteHacku schreef op zaterdag 10 februari 2007 @ 18:48:
[...]
Hoezo fast, voor zover ik nog kan herinneren danste nVidia gewoon over die kaart heen
[offtopic]Anoniem: 23009 schreef op zaterdag 10 februari 2007 @ 19:20:
[...]
nee hoor, de 6000 was in vele games waarvoor die kaart gemaakt was de snelste
en welke games zijn dat dan.... want als ik naar benchmarks zoek de archieven induik is de gf2 in álle gevallen sneller ?
dus de r600 wordt de voodoo5 van deze tijd ? ...dat is niet te hopen voor ati

[ Voor 15% gewijzigd door Mr. Detonator op 10-02-2007 19:47 ]
Anoniem: 23009
Maargoed laten we het Ontopic houden want dit is niet echt de bedoeling hier, daar is deze topic voor
[Discussie] 3dfx Forever - Deel 10
ga naar deze site als je meer wilt weten van hoe snel een 6000 echt is
http://www.thedodgegarage.com/3dfx/index.htm
maargoed die test die jij aan gaf was met een 6K met oudere en minder geoptimaliserende drivers
en nog iets het ligt er ook wat je er mee gaat draaien
[ Voor 5% gewijzigd door Anoniem: 23009 op 10-02-2007 20:26 ]
Anoniem: 162692
offtopicAnoniem: 23009 schreef op zaterdag 10 februari 2007 @ 20:25:
heh das een oude benchmarknu met de neiuwere drivers is de 6000 veel meer geoptimaliseerd en houdt in de meeste gevalleen een GF3 Ti 200 bij
Maargoed laten we het Ontopic houden want dit is niet echt de bedoeling hier, daar is deze topic voor
[Discussie] 3dfx Forever - Deel 10
ga naar deze site als je meer wilt weten van hoe snel een 6000 echt is
http://www.thedodgegarage.com/3dfx/index.htm
maargoed die test die jij aan gaf was met een 6K met oudere en minder geoptimaliserende drivers
en nog iets het ligt er ook wat je er mee gaat draaien
Op deze manier heb je altijd wel een uitvlucht
En een GF2 ultra was trouwens niet veel trager dan een GF3
Misschien waren de drivers na een jaar van de GF3 ook veel beter en hield die een ATI 8500 bij
[ Voor 5% gewijzigd door Anoniem: 162692 op 10-02-2007 20:38 ]
http://www.vr-zone.com/?i=4630VR-Zone has gotten some concrete information on the process technology and memory interface of RV610 and RV630. Both will be based on 65nm process technology from TSMC. RV610, the low end version will only have 64-bit memory interface and we have told you earlier that there will be 2 variants at launch; RV610LE which is DDR2 based and RV610PRO which is DDR3 based. The RV610LE card has 4 layers and consumes 25W of power while RV610PRO has 6 layers and consumes 35W of power. RV630, the mainstream version will have 128-bit memory interface and comes in 3 variants; DDR4, DDR3 and DDR2. The power consumption stood at 128W, 93W and 75W respectively. There will be samples in March and expected launch in April.
Eerder andersom mate. De GF3 walste in den beginne over de ATi Radeon 8500 heen, nu zitten de discontinued drivers van de 8500 op het niveau van de GF4. Netjes.Anoniem: 162692 schreef op zaterdag 10 februari 2007 @ 20:32:
Misschien waren de drivers na een jaar van de GF3 ook veel beter en hield die een ATI 8500 bij _/-\o_[/sup]
Ik ben overigens wel benieuwd naar de RV670, hopelijk wordt het ook zo'n bang/$-monster!
@ Hardwarezone over voltages van de X1950GT:
Hmm...Hi Jejking,
Unfortunately, we've returned the card recently and didn't have too much time to get those voltage figures. The thing is, it's not always the case that pushing more voltage can help elevate the bar. From our experience, the GPU's memory controller and the latency timings set in the graphics BIOS too are other areas that limit the ability to overclock the memory. Thus, to really overcome this, there's quite a bit to fiddle around to maximize the overclocking. Of course if the memory controller of the GPU is really not capable of operating at such speeds (due to the die quality of the particular model or SKU), then you've probably hit a wall.
Regarding the cooler, it's a customized version of the reference X1950 PRO cooler.
[ Voor 43% gewijzigd door Jejking op 10-02-2007 22:25 ]
Anoniem: 23009
Nee hoor, is gewoon een feit, zit niet voorniets in een driver team van de world V6K users teamAnoniem: 162692 schreef op zaterdag 10 februari 2007 @ 20:32:
[...]
offtopic
Op deze manier heb je altijd wel een uitvlucht![]()
En een GF2 ultra was trouwens niet veel trager dan een GF3![]()
Misschien waren de drivers na een jaar van de GF3 ook veel beter en hield die een ATI 8500 bij
De GF2 was snel omdat ie zeer slechte IQ had
Met FSAA was de 6K op het meeste gebied sneller in games als Descent3, UT GOTYE 1999 en Serious Sam The Second Encounter had de 6K ook een betere IQ als performance
3dfx als ATi komen voor mijn ervaring erg overheen, allebij over het algemeen zeer strakkke 2D als 3D.
Maargoed ik ben nu eerder benieuwd hoe de X2600XT het gaat doen, ben benieuwd hoe zijn performance is vergeleken met de X1650 XT
Is er nog nieuws opgedoken over de Mobile R6.xx chips?
[ Voor 38% gewijzigd door Anoniem: 23009 op 10-02-2007 23:41 ]
Anoniem: 162692
Misschien walst de 8800GTX dan ook over de R600 heen als de 'eindelijk' 'goede' drivers zullen komen. Ik word het wachten dus ook beuJejking schreef op zaterdag 10 februari 2007 @ 22:19:
[...]
Eerder andersom mate. De GF3 walste in den beginne over de ATi Radeon 8500 heen, nu zitten de discontinued drivers van de 8500 op het niveau van de GF4. Netjes.
Ik ben overigens wel benieuwd naar de RV670, hopelijk wordt het ook zo'n bang/$-monster!![]()
@ Hardwarezone over voltages van de X1950GT:
[...]
Hmm...

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
Ik kan er niet aan doen maar de hele markt van videokaarten is de mist aan het ingaan.Astennu schreef op zaterdag 10 februari 2007 @ 23:41:
Nou lekker dan dat de mid en low range kaarten ook al te laat gaan komen. Goed bezig AMDHopelijk maken ze er geen gewoonte van want dan is het snel afgelopen.
Tegenwoordig is het allemaal rush->rush-> videokaart uit -> nee rush! er is een betere van het andere kamp -> rush -> rush -> weer nieuwe kaart. Ze maken gewoon de gehele industrie kapot.
Zeker op het vlak van high-end dan. Slechte support. Slechte drivers voor Vista voor zowel Nvidia als ATI als je de G70 vs. R580 vergelijk in Vista drivers zijn ze beiden even slecht ! Terwijl iedereen zegt dat die van ATI beter zouden zijn. Heb net review gelezen en igg.. resultaten waren even slecht.
De markt was vroeger veel beter , tragere launches niet opjagen , betere support. Meer waar voor je geld. Videokaarten gingen veel langer mee om een spel te kunnen draaien.
Zoals ik het nu denk word het goodbye High-End , je koopt atm een videokaart zoals een X1950XTX die dankzij drivers en slechte games belange hun potentieel nog niet tonen. En eigenlijk alle games nog op max zouden moeten kunnen draaien.
Vista drivers zijn ook niet denderend van zowel DX9 kaarten Nvidia als ATI. Beiden drivers presteren ongeveer gelijk , zie firingsquad.
Drivers van de 8800GTX zijn slecht , maar e hebt geen vergelijkingsmateriaal dus kan je niet zeggen dat iets slecht is , misschien is het bij de R600 ook zo? Ik hoop allesinds van niet.
één grote puinhoop is het ja. Dat denk ik toch.
[ Voor 12% gewijzigd door Anoniem: 162692 op 10-02-2007 23:55 ]
Valt op zich wel mee toch?Anoniem: 162692 schreef op zaterdag 10 februari 2007 @ 23:49:
[...]
Vista drivers zijn ook niet denderend van zowel DX9 kaarten Nvidia als ATI. Beiden drivers presteren ongeveer gelijk , zie firingsquad.
Als ik de recenties lees op Firingsquad, dan zie ik een hele andere conclusie:
AMD's drivers zijn op DX9 gebied beter dan nVidia. nVidia scoort beter op OpenGL gebied. De gamesmarkt bestaat voor 95% uit DX games en maar zo'n 5% is OpenGL, dus heeft AMD het beter voor elkaar dan nVidia. Ik zie zelfs DX games die onder Vista een stukje sneller lopen dan onder XP bij AMD.
Based on all this, it certainly looks to us at least that NVIDIA’s Vista drivers are definitely behind that of AMD, at least on the Direct3D front (we still give the nod to NVIDIA in OpenGL). Not that AMD’s Vista drivers are perfect, we noted performance drops there as well, and ran into significant problems when running OpenGL, but their D3D driver is more polished overall than NVIDIA’s right now. At least that’s how it looks on the outside looking in.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 23009
Oke dat is wel meer voorbij gekomen dat ATi beter in D3D apps presteerd en dat NV kaartjes het beter doen in OGL, alleen heeft NV als enige voordeel voor de D3D kant, dat hun DX10 kaart allang op de markt is en dat gat is het groene kamp nu netjes aan het vuullen, terwijl ATi het nog met hun DX9.0c kaartjes moet doen, als het nog langer gaat duren voor de midrabge segment, dan gaat het bijna in de richting van 3dfx.
Op ten duur hebben ze geen geld meer om neiuwe dingen te ontwikkelen als produceren, omdat ze als maar delays , delays en delays hebben, is dat een hele gevaarlijke situatie voor een Graphics Company.
een voorbeeld:
3dfx is falliet gegaan wegens dat ze geen geld meer hadden om kaarten verder te ontwikkelen, hoe dit is gebeurd, is omdat er telkens een opvulling kaart werd gemaakt om de Ramapge maar langer uit te stellen, na de Voodoo2 aka mid 1998 was de streef datum voor Rampage, wat 3dfx heeft gedaan is ipv van verder te gaan met de ontwikkeling van de Rampage, hebben ze de Banshee, Voodoo3, Voodoo5 en dan nog Voodoo4 gemaakt als opvulling, daardoor is 3dfx verloren gegaan, gewoon vanwegens geld gebrek om verder te kgaan waarmee ze eigenlijk stopte.
Toch lijkt het er op dat ATi nu dit ook aan het doen is
De X1950 GT, de X1950 Pro 512MB ook eentje en de X1650XT 512MB ook zo'n geval van een opvulling om extra tijd te geven voor de release van de R600, maar het erge er van is dat die kaarten ook geld kosten om te ontwikkelen en te produceren, dus daarmee kan een bedrijf verlies maken, net zo'n soort geval als die van 3dfx
Tot mijn laatste woorden, hoop ik dat ATi ook niet deze kant in duikt, want soms lijkt het er erg op, de delays, de kaarten die uitkomen gebruiken nog de oude technieken maar heten iets anders, maar het komt een beetje op het zelfde neer.
Als ze het goed willen doen kunnen ze beter al hun geld en tijd in de R600 familie steken, daarmee om die zo snel mogelijk op de markt te zetten met daarbij ook de middenklassers.
[ Voor 6% gewijzigd door Anoniem: 23009 op 11-02-2007 03:34 ]
Anoniem: 38733
Tis niet alleen een videokaart. Dankzij die 24watt fanAnoniem: 78739 schreef op vrijdag 09 februari 2007 @ 20:11:
Er hangt zelfs een handvat aan om te kunnen dragen.
kun je er ook makkelijk de tuin mee schoonhouden.

[ Voor 39% gewijzigd door Anoniem: 38733 op 11-02-2007 04:08 ]
Ghehe de nVidia fans zullen idd wel lol hebbenAnoniem: 38733 schreef op zondag 11 februari 2007 @ 04:01:
[...]
Tis niet alleen een videokaart. Dankzij die 24watt fan
kun je er ook makkelijk de tuin mee schoonhouden.![]()
[afbeelding]
Hopelijk kunnen ze de midrage en low end tegelijk met Nvidia uitbrengen anders zie ik het heel somber in. Die mensen kijken niet echt naar welke sneller is. Ze willen een goede DX 10 kaart voor zo min mogelijk geld en luisteren naar wat de verkoper zegt. Als er alleen maar nVidia kaarten zijn worden die massaal verkocht. Krijgt nVidia veel naamsbekendheid met die kaart en gaat het net als met de GF 7 serie zo GF 7 heeft iedereen dus = goed. Ze moeten gewoon zorgen dat de consument meteen kan kiezen tussen ATi en nVidia dan maken ze nog een kans. Want dit begint op een 2e X1600 te lijken. Nu hoop ik wel dat die nieuwe mid range kaart op zijn minst een goede performance neer zet.
[ Voor 5% gewijzigd door Astennu op 11-02-2007 10:24 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 151544
Nu weet ik waarom NVIDIA "groen" genoemd wordt.
Anoniem: 149755
Tenzij de nieuwe midrange wel competatief presteert. De eerste tekenen zijn niet best aangezien the inq het over een 128 bit bus heeft voor de RV630. ATI moet zorgen dat de "RV670" zo snel mogelijk komt.Want dit begint op een 2e X1600 te lijken
Het is de laatste jaren altijd hetzelfde met ATI, de nieuwste procestechnieken, altijd vertraging. En ze hebben de nieuwste technieken gewoon nodig i.v.m. de overkill-architechturen. Anders wordt de energiegebruik helemaal niet meer te overzien.
Nvidia heeft natuurlijk wel de volledige controle over de driversAnoniem: 151544 schreef op zondag 11 februari 2007 @ 11:10:
als je het erg afstandelijk bekijkt begint ati wel wat controle te verliezen zoals 3dfx indertijd.

[ Voor 7% gewijzigd door Anoniem: 149755 op 11-02-2007 11:54 ]
Anoniem: 151544
Jetway 965GDAG:worldwide first board uses Intel G965 chipset that supports Crossfire
nutteloos maar ja.. weer eens iets anders.
Anoniem: 107573
Yep ben ik het helemaal mee eens. nVidia heeft gewoon hele grote problemen atm. Als op het moment van uitkomen van de R600 de nVidia drivers niet een hele grote sprong voorwaarts gemaakt hebben, wordt het voor mij ook een AMD. Maar het zal wel goed komen, de Vista drivers hebben de grootste prioriteit. Zegt menCJ schreef op zondag 11 februari 2007 @ 00:53:
[...]
Valt op zich wel mee toch?
Als ik de recenties lees op Firingsquad, dan zie ik een hele andere conclusie:
AMD's drivers zijn op DX9 gebied beter dan nVidia. nVidia scoort beter op OpenGL gebied. De gamesmarkt bestaat voor 95% uit DX games en maar zo'n 5% is OpenGL, dus heeft AMD het beter voor elkaar dan nVidia. Ik zie zelfs DX games die onder Vista een stukje sneller lopen dan onder XP bij AMD.
[...]

Maar ja, ik zie de laaste tijd steeds minder nut meer om high end te kopen. Waarom lopen games als Rainbow Six: Vegas ( 1e level ) en Supreme Commander etc etc zo vreselijk slecht op een high end 8800GTX. Ik vindt dat ik meer mag verwachten dan 40fps op 1600x1200. Ik denk dat we meer te raden moeten gaan bij de ontwikkelaars dan bij AMD/nVidia. Ik mag van harte hopen dat Crysis en UT3 voor de verandering wél eens lekker zullen gaan draaien. Op het niveau dat je van een high end kaart van 600 euro mag verwachten.
[ Voor 23% gewijzigd door Anoniem: 107573 op 11-02-2007 14:15 ]
Anoniem: 162692
Nvidia zit niet veel achter. Ze zitten gewoon bijna op het zelfde niveau als in XP terwijl ATI op een hoger niveau dan nvidia ligt in Vista. Maar hetgeen ATI met hun drivers kan kan Nvidia ook.Anoniem: 107573 schreef op zondag 11 februari 2007 @ 14:09:
[...]
Yep ben ik het helemaal mee eens. nVidia heeft gewoon hele grote problemen atm. Als op het moment van uitkomen van de R600 de nVidia drivers niet een hele grote sprong voorwaarts gemaakt hebben, wordt het voor mij ook een AMD. Maar het zal wel goed komen, de Vista drivers hebben de grootste prioriteit. Zegt men
Maar ja, ik zie de laaste tijd steeds minder nut meer om high end te kopen. Waarom lopen games als Rainbow Six: Vegas ( 1e level ) en Supreme Commander etc etc zo vreselijk slecht op een high end 8800GTX. Ik vindt dat ik meer mag verwachten dan 40fps op 1600x1200. Ik denk dat we meer te raden moeten gaan bij de ontwikkelaars dan bij AMD/nVidia. Ik mag van harte hopen dat Crysis en UT3 voor de verandering wél eens lekker zullen gaan draaien. Op het niveau dat je van een high end kaart van 600 euro mag verwachten.
Enkel de vraag wanneer ? Dat houd ons bezig. De R600 zal in het begin denk ik kwa drivers ook niet veel onder doen voor die van de G80. Al denk ik dat maar. Maar je kan niet van iets zeggen dat het slecht is kwa drivers (8800GTX) als je nog geen reference of vergelijkingsmateriaal hebt (R600).
Edit : Feit is wel dat ik het upgraden even uitstel. Ik hou mijn 8800GTX toch zeker tot 2009 tot dat alles goed geintegreed is en dan koop ik gewoon de nieuwste beste kaart die uit is.Van Nvidia of AMD maakt me niks uit. Gewoon de best
[ Voor 7% gewijzigd door Anoniem: 162692 op 11-02-2007 14:26 ]
Anoniem: 107573
Mij interesseert het niet echt of AMD beter zal gaan presteren met z'n R600 onder Vista ja of nee. Ik kijk naar wat ik nu in mijn bak heb hangen, en dat is een videokaart van ruim 600 euro, en dan vindt ik dat ik recht heb op een performance die je mag verwachten van zo'n kaart. En dat vindt ik op dit moment bij sommige games niet het geval. Ongeacht of dit nu met Vista of met brakke drivers te maken heeft.Anoniem: 162692 schreef op zondag 11 februari 2007 @ 14:25:
[...]
Maar je kan niet van iets zeggen dat het slecht is kwa drivers (8800GTX) als je nog geen reference of vergelijkingsmateriaal hebt (R600).
Het is gewoon de pc gamesbizz in het algemeen. Dat ligt een beetje op z'n gat op het moment
[ Voor 6% gewijzigd door Anoniem: 107573 op 11-02-2007 14:38 ]
Het zal je verbazen hoe weinig de ontwikkeling van een X1950GT, X1950Pro 512 en X1650XT 512 kost. De meeste ontwikkelkosten zijn gemaakt tijdens het ontwikkelen van de R580 en RV570. En de X1950GT kostte niets in ontwikkeling, behalve dan waarschijnlijk een aangepaste bios/memory controller settings aangezien dit gewoon een X1950Pro is op lagere snelheden. Zelfde geldt eigenlijk voo alle 512MB versies die andere geheugentimings hebben. En de X1650XT serie is gewoon een gecastreerde RV570.Anoniem: 23009 schreef op zondag 11 februari 2007 @ 03:29:
De X1950 GT, de X1950 Pro 512MB ook eentje en de X1650XT 512MB ook zo'n geval van een opvulling om extra tijd te geven voor de release van de R600, maar het erge er van is dat die kaarten ook geld kosten om te ontwikkelen en te produceren, dus daarmee kan een bedrijf verlies maken, net zo'n soort geval als die van 3dfx
Als ik het goed heb wordt er weinig meer ontwikkeld aan R600 en zitten de meeste mensen al op R700 en R800.
Als ik het goed heb dan hebben ook de G84 en G86 een 128-bit memory interface. Tenminste dat is ook de algemene insteek van de B3D moderators.Anoniem: 149755 schreef op zondag 11 februari 2007 @ 11:49:
[...]
Tenzij de nieuwe midrange wel competatief presteert. De eerste tekenen zijn niet best aangezien the inq het over een 128 bit bus heeft voor de RV630. ATI moet zorgen dat de "RV670" zo snel mogelijk komt.
Ik hoorde ergens dat ATI korting kreeg bij TSMC als ze gebruik gingen maken van de allernieuwste productieprocessen. Zo kon TSMC de kinks uit de kabel halen en kon ATI goedkoper hun GPUs produceren. Dit kan dan natuurlijk in het voordeel uit werken voor ATI of in het nadeel (en daardoor dus in het voordeel van nVidia, omdat die dan met een uitontwikkeld productieproces te maken krijgen bij TSMC).Het is de laatste jaren altijd hetzelfde met ATI, de nieuwste procestechnieken, altijd vertraging. En ze hebben de nieuwste technieken gewoon nodig i.v.m. de overkill-architechturen. Anders wordt de energiegebruik helemaal niet meer te overzien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
De reden dat 3DFX op zijn bek is gegaan doordat deze totaal afhankelijk is van de high-end retail gamers enthausiast marktje. Doordat dat bakbeest met externe voeding erg verlaat was.Anoniem: 23009 schreef op zondag 11 februari 2007 @ 03:29:toon volledige bericht
@ CJ
Oke dat is wel meer voorbij gekomen dat ATi beter in D3D apps presteerd en dat NV kaartjes het beter doen in OGL, alleen heeft NV als enige voordeel voor de D3D kant, dat hun DX10 kaart allang op de markt is en dat gat is het groene kamp nu netjes aan het vuullen, terwijl ATi het nog met hun DX9.0c kaartjes moet doen, als het nog langer gaat duren voor de midrabge segment, dan gaat het bijna in de richting van 3dfx.
Op ten duur hebben ze geen geld meer om neiuwe dingen te ontwikkelen als produceren, omdat ze als maar delays , delays en delays hebben, is dat een hele gevaarlijke situatie voor een Graphics Company.
een voorbeeld:
3dfx is falliet gegaan wegens dat ze geen geld meer hadden om kaarten verder te ontwikkelen, hoe dit is gebeurd, is omdat er telkens een opvulling kaart werd gemaakt om de Ramapge maar langer uit te stellen, na de Voodoo2 aka mid 1998 was de streef datum voor Rampage, wat 3dfx heeft gedaan is ipv van verder te gaan met de ontwikkeling van de Rampage, hebben ze de Banshee, Voodoo3, Voodoo5 en dan nog Voodoo4 gemaakt als opvulling, daardoor is 3dfx verloren gegaan, gewoon vanwegens geld gebrek om verder te kgaan waarmee ze eigenlijk stopte.
Toch lijkt het er op dat ATi nu dit ook aan het doen is
De X1950 GT, de X1950 Pro 512MB ook eentje en de X1650XT 512MB ook zo'n geval van een opvulling om extra tijd te geven voor de release van de R600, maar het erge er van is dat die kaarten ook geld kosten om te ontwikkelen en te produceren, dus daarmee kan een bedrijf verlies maken, net zo'n soort geval als die van 3dfx
Tot mijn laatste woorden, hoop ik dat ATi ook niet deze kant in duikt, want soms lijkt het er erg op, de delays, de kaarten die uitkomen gebruiken nog de oude technieken maar heten iets anders, maar het komt een beetje op het zelfde neer.
Als ze het goed willen doen kunnen ze beter al hun geld en tijd in de R600 familie steken, daarmee om die zo snel mogelijk op de markt te zetten met daarbij ook de middenklassers.
'n Situaties dat ATI maar nV veel beter kan hebben nV30 en X1800
nV ATI iNtel Matrox zijn al lang niet zo afhankelijk geweest van dat kleine marktje.
Kijk naar iNTel markt leider in volume sales High-end markt is het topje van de ijsberg.
ATI aandeel is zelfs marginaal vergroot. Kan zijn dat het op de Volume markt en OEM deals beter loopt of gewoon zijn gangetje loopt. Deze bedrijven zijn een heel stuk dynamischer dan 3DFX
ATI heeft lange tijd voor de 8500 ook op de achtergrond meegelopen.
De snelste kaart helpt eerder marketing. Er zijn een paar zielen die kopen 'n mindere keuze midrange dan er te krijgen is om dat dat merk op dat moment voor loopt en zich daarop blind staart.
iNtel is king in die markt puur door onboard stuff.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Super man, leuk gedaan. Ik moet er ook hartelijk om lachenAnoniem: 38733 schreef op zondag 11 februari 2007 @ 04:01:
Tis niet alleen een videokaart. Dankzij die 24watt fan
kun je er ook makkelijk de tuin mee schoonhouden.![]()
[afbeelding]
Maar ja, the Inquirer is The Inq en die rommelen constant met hun berichten. Eerst 300 watt voor de R600 en drie dagen later was het alweer in elkaar gezakt tot minder dan 200 watt, zoiets. Ik wacht wel af voordat ik conclusies ga trekken
Dat is niet waar, volgens mij was het allang bevestigd dat G84 en G86 een full 256-bits memoryinterface meekregen, dat is nog besproken laatst in het nVidia topic. Ik kan me herinneren dat ik daar nog héél erg blij mee was, want de 128-bits channels zitten gewoon te snel vol (helaas).CJ schreef op zondag 11 februari 2007 @ 14:46:
Als ik het goed heb dan hebben ook de G84 en G86 een 128-bit memory interface. Tenminste dat is ook de algemene insteek van de B3D moderators.
Meestal maken ze van mainstream kaarten 128/256bits versies en van de low-end een 32/64/128b versie. Dit heeft te maken met de PCB layers en de costdown van een bepaalde kaart. Dus 256bit voor low-end / value is gewoonweg niet logisch. Zelfde werkt het met 7100 / 7300GS, die zijn volgens mij ook max 128b.
Anoniem: 23009
nope, 3dfx had te veel schulden dus hierdoor ook geen geld meer, je kan het ook hier na vragen
http://www.falconfly-central.de/cgi-bin/yabb/YaBB.pl
en echt het zelfde antwoord krijg je vast wel
@ Jejking,
Zo iets hebben ze toch ook met een B747-200F gedaan? met 4 NV30's heh die met 4 R600's dan stijgt ie nog harder op
Nu maar hopen dat die cooler niet te veel lawaai gaat produceren

ik denk dat het nog best mee valt qua stroomverbruik enzovoorts.
[ Voor 88% gewijzigd door Anoniem: 23009 op 11-02-2007 15:43 ]
Wat The Source zegt, heb ik ook gehoord. Alleen een 8600U zou eventueel een 256-bit memory interface kunnen hebben, want deze zou het op moeten nemen tegen de RV670 die ook een 256-bit memory interface heeft. De low-end heeft ofwel een 32, 64-bit of 128-bit memory interface. En als ik alle posts bekijk van B3D mods, dan hebben ze zowiezo een 256-bit memory interface al voor 95% uitgesloten op de midrange. Zie bv de post van Uttar hier:Jejking schreef op zondag 11 februari 2007 @ 14:52:
[...]
Dat is niet waar, volgens mij was het allang bevestigd dat G84 en G86 een full 256-bits memoryinterface meekregen, dat is nog besproken laatst in het nVidia topic. Ik kan me herinneren dat ik daar nog héél erg blij mee was, want de 128-bits channels zitten gewoon te snel vol (helaas).
http://www.beyond3d.com/f...p?p=922493&postcount=1107Neither G84 nor G86 are on a 256-bit bus, afaik.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Een X1950 XTX gebruikt geen 200 watt. Eerder 120-130. Me hele systeem haalde met een X1900 CF 500 watt uit de muur. En dan moet je er dus ook van uit gaan dat je voeding een rendement van 80% heeft ( Dan heb je al een hele goede voeding ) dus daadwerkelijke verbruik van de hardware was 400 watt.Anoniem: 23009 schreef op zondag 11 februari 2007 @ 15:37:toon volledige bericht
@ SG
nope, 3dfx had te veel schulden dus hierdoor ook geen geld meer, je kan het ook hier na vragen
http://www.falconfly-central.de/cgi-bin/yabb/YaBB.pl
en echt het zelfde antwoord krijg je vast wel
@ Jejking,
Zo iets hebben ze toch ook met een B747-200F gedaan? met 4 NV30's heh die met 4 R600's dan stijgt ie nog harder op
Nu maar hopen dat die cooler niet te veel lawaai gaat producerenen ja 240 watt per kaart is wel mee te leven hoor, aangezien 2 R580+ kaartjes iets van 420Watt doen totaal dan ben je met een 650 watt PSU ook wel in de veiligezone, aangezien ik met mijn R580/R580+ CF setje met een goede 550Watter van Antec er mee verder gaat.
ik denk dat het nog best mee valt qua stroomverbruik enzovoorts.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
tenzei je een redundant setup wil gebruiken, dat is ook nog een optie.
Dat weet je nog niet, het is niet omdat een 500 watt het kan trekken dat een 450 watt het niet meer kan en dat de hardware 400 watt verbruiktAstennu schreef op zondag 11 februari 2007 @ 16:50:
[...]
Een X1950 XTX gebruikt geen 200 watt. Eerder 120-130. Me hele systeem haalde met een X1900 CF 500 watt uit de muur. En dan moet je er dus ook van uit gaan dat je voeding een rendement van 80% heeft ( Dan heb je al een hele goede voeding ) dus daadwerkelijke verbruik van de hardware was 400 watt.
The best argument against democracy is a five-minute conversation with the average voter.
ligt natuurlijk aan wat er verder allemaal inzit...Renegade! schreef op zondag 11 februari 2007 @ 19:18:
[...]
Dat weet je nog niet, het is niet omdat een 500 watt het kan trekken dat een 450 watt het niet meer kan en dat de hardware 400 watt verbruiktVolgens mij ligt het nog een stukje lager.
een beetje overgeklokte kaart, en een overgeklokte processor + de nodige hdd's/branders/casefans...enz..enz....dat verbruikt bij elkaar al gauw 350-400watt
Hij zegt dat het 500 watt trok, niet dat zijn 500 watt voeding het trok.Renegade! schreef op zondag 11 februari 2007 @ 19:18:
[...]
Dat weet je nog niet, het is niet omdat een 500 watt het kan trekken dat een 450 watt het niet meer kan en dat de hardware 400 watt verbruiktVolgens mij ligt het nog een stukje lager.
Idd voeding zat rond de 430 op de meter van me Realpower. Maar de meter achter de voeding tussen stopcontact en voeding zij 500.primusz schreef op zondag 11 februari 2007 @ 19:41:
[...]
Hij zegt dat het 500 watt trok, niet dat zijn 500 watt voeding het trok.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107626
ATI Catalyst 7.2 Vista (beta)
Misschien weer wat performance winst en extra info over de R6xx serie. Spannend
Ik ben benieuwd naar de performance. De 7.1 was in sommige gevallen al sneller dan XP ben benieuwd of het dat nu is meer gevallen zo is en of OpenGL nu beter wil werken.Anoniem: 107626 schreef op maandag 12 februari 2007 @ 10:47:
Onze vrienden bij Guru3d hebben weer een mooie beta driver:
ATI Catalyst 7.2 Vista (beta)
Misschien weer wat performance winst en extra info over de R6xx serie. Spannend
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Snap dat gezeur over de grootte van de OEM versie eigenlijk niet en vind het wat flauw allemaal. Mensen die een DELL kopen maken die kast toch niet open dus wie heeft er verder last vanSpankmasterC schreef op maandag 12 februari 2007 @ 13:34:
The inq heeft een plaatje gevonden van de OEM R600 XTX. Koeler ziet er hetzelfde uit als de normale OEM versie, maar dan rood. Snap niet waarom ze zo opgewonden doen over die 4 heatpipes...
[afbeelding]
Voor de retail komt er een kortere kaart van ongeveer 8800gtx grootte dus wat is nu het issue

Het enige wat imo echt een downside is, is het gerucht over het enorme stroomverbruik maar ook dat moeten we nog maar afwachten hoe erg het echt is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 78739
Inderdaad, zelfs het gezeur over het stroomverbruik vind ik overdreven, op de Frontpage is men bezig over de Kyoto-norm, het smelten van de poolkappen, een extra stroomgenerator aanschaffen en meer onzin.Help!!!! schreef op maandag 12 februari 2007 @ 13:48:
[...]
Snap dat gezeur over de grootte van de OEM versie eigenlijk niet en vind het wat flauw allemaal. Mensen die een DELL kopen maken die kast toch niet open dus wie heeft er verder last vanDe koeler zit achter de kaart zodat hij stevig aan twee kanten in de kast verankerd zit wat bij zo'n zware kaart een voordeel kan zijn bij het vervoer. Wie weet heeft de OEM8800gtx ook wel zo'n soort constructie ....
Voor de retail komt er een kortere kaart van ongeveer 8800gtx grootte dus wat is nu het issue![]()
![]()
Het enige wat imo echt een downside is, is het gerucht over het enorme stroomverbruik maar ook dat moeten we nog maar afwachten hoe erg het echt is.
Deze kaart verbruikt 5 tot 10 keer minder dan een microgolfoven of een stofzuiger, wij hebben een hallogeenlamp van 300 Watt (continu vermogen) en die brandt vaak een halve dag.
Over de vebruikskosten moeten ze evenmin zeuren: Als je een R600 koopt kost je PC al gauw 2000 € en gamen is pure luxe, waarom zou je dan wakker liggen als je PC 30% meer vebruikt (totale vebruik tov een high-end systeem met een zuinige kaart), de games zien er ook stukken beter uit en je hebt een betere performance. Als ze vinden dat ze te veel verbruikt kunnen ze ook gewoon een low-range of mid-range kopen en de settings van hun games verlagen.
Nog een punt: Die 240 Watt is een piekvermogen dat in de praktijk amper gehaald zal worden, en er is een zuinige 2D-modus. En er zijn ook positieve evoluties wat betreft stroomverbruik van PC's: TFT's verbruiken veel minder dan CRT's, DDR2 verbruikt minder dan DDR en de Core 2 Duo verbruikt minder dan de Pentium 4 om maar wat te noemen.
Anoniem: 102844
ach die nvidia fanboys moet toch iets hebben om ati de grond in te borenAnoniem: 78739 schreef op maandag 12 februari 2007 @ 14:08:toon volledige bericht
[...]
Inderdaad, zelfs het gezeur over het stroomverbruik vind ik overdreven, op de Frontpage is men bezig over de Kyoto-norm, het smelten van de poolkappen, een extra stroomgenerator aanschaffen en meer onzin.
Deze kaart verbruikt 5 tot 10 keer minder dan een microgolfoven of een stofzuiger, wij hebben een hallogeenlamp van 300 Watt (continu vermogen) en die brandt vaak een halve dag.
Over de vebruikskosten moeten ze evenmin zeuren: Als je een R600 koopt kost je PC al gauw 2000 € en gamen is pure luxe, waarom zou je dan wakker liggen als je PC 30% meer vebruikt (totale vebruik tov een high-end systeem met een zuinige kaart), de games zien er ook stukken beter uit en je hebt een betere performance. Als ze vinden dat ze te veel verbruikt kunnen ze ook gewoon een low-range of mid-range kopen en de settings van hun games verlagen.
Nog een punt: Die 240 Watt is een piekvermogen dat in de praktijk amper gehaald zal worden, en er is een zuinige 2D-modus. En er zijn ook positieve evoluties wat betreft stroomverbruik van PC's: TFT's verbruiken veel minder dan CRT's, DDR2 verbruikt minder dan DDR en de Core 2 Duo verbruikt minder dan de Pentium 4 om maar wat te noemen.
die 240watt boeit me nix, ben niet zon "environmentalist"
tis alleen ff de benches afwachten of ik het ook waard vind t.o.z van mn huidige x1900xt
[ Voor 3% gewijzigd door Anoniem: 102844 op 12-02-2007 14:38 ]
Anoniem: 202399
Die kaart moet gewoon uitkomen, ik denk dat AMD er ook iets te maken mee heeft.
Denk dat ze tegen ATI zeggen: "zorg dat er niets fout kan gaan." Ja dan gaat het wel een beetje langzamer.
Ik heb het geld al klaar liggen maar dan moet de kaart wel presteren, ik wil niet 2% sneller zijn om vervolgens over een maand weer average te zijn...
Anoniem: 38733
Die mensen moet je naar het forum van Ferrari.nl sturen zodat ze daar kunnen gaan zeiken over het verbruik van de nieuwste Ferrari Fxx.[message=27487036,noline]Cyberblizzard schreef op maandag 12 februari 2007 @ 14:08 op de Frontpage is men bezig over de Kyoto-norm, het smelten van de poolkappen, een extra stroomgenerator aanschaffen en meer onzin.
Ik weet bijna zeker dat 99 v/d 100 zeikers uberhaupt nooit geen hi-end kaart aanschaffen, maar puur azijnpissers zijn, en eigenlijk helemaal niets in een R600 nieuwsitem te zoeken hebben.
Als de mid- en low-end kaarten nou zo veel gebruiken geef ik ze gelijk, maar nu moeten ze opzouten.
The four flavours of DAAMITs R600 detailedtoon volledige bericht
UFOs exist
By Fuad Abazovic: maandag 12 februari 2007, 13:07
LAST WEEK, WE GOT the R600 driver code that we dissected and inside we found four cards based on DAAMIT chip. We wrote about it here and here.
Now we may have figured out what all four cards are but now it looks now there will be even more than four. If ATI makes the Uber edition water-cooled card we are looking at five cards. Let's first talk about the four we can confirm.
Dragonshead is R600XTX and is a full-length 12.4-inch card with 1024MB memory for OEMs. We wrote more about it here.
The second card is Dragonshead 2 with the same clock as the R600XTX 12.4 inch card. The only difference is that this card ends up being 9.5 inches long and needs 240W power. It still has 1024MB memory and 512Mbit memory controller. It comes with two 2x3 pins power connectors that we already saw at Geforce 8800 GTX.
The third card is codenamed Catseye and comes with R600XT chip clocked 10 to 15 percent slower than the R600XTX. It comes with 512B of GDDR3 memory and is 9.5 inches long and occupies two motherboard slots. In metric world it is about 24 cm long. It eats up 240W and has two power connectors, 2x3 pin ones. It should see the face of the market in April. The first three cards have dual DVI and VIVO option.
The fourth R600 based card that we can confirm is codenamed UFO. We wrote about it here. The clock speed will be smaller than R600XL version and the card comes with 512 MB of GDDR3 memory. It has dual DVI and TV out but no Vivo. It is nine inches long and has dual slot cooler. It consumes 180W and has a single 2x3 power connector. It is scheduled for production in April. µ
[ Voor 6% gewijzigd door Help!!!! op 12-02-2007 14:57 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Het draait dus duidelijk om piekvermogen, geen continue vermogen in 3D modus.
Als je met die PC veel gamed, ga je het echt voelen aan het einde van het jaar in je energie rekening. Nu ik mijn 8800GTX heb download ik al niet meer via Bittorrent puur voor het stroomverbruik en omdat uploaden zo lang duurt. Klinkt misschien lullig, maar ik let er wél op.
Mensen die nog bij hun ouders wonen zullen wel zoiets hebben van; "ach, wat boeit mij het" maar 240W is mij ECHT teveel. Ik kan bijna niet geloven dat het echt zo is eigenlijk. Het is een KEER zoveel als de 8800GTX, en dat lijkt me toch wel een beetje sterk.
Het ding moet ook wel gloeiend heet worden als hij zoveel energie slurpt... Als hij nog heter wordt dan de X1900 serie, en de warmte ook de kamer in blaast, kan je in je blote kont achter de PC gaan gamen, anders zweet je je de pleuris achter de PC.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
Dit topic is gesloten.