Met de volgende generatie alweer over naar 45nm? Dat moet een ongelooflijke bak geld kosten. Het 55nm proces wordt toch pas 1 generatie gebruikt?
@ Obi: Je weet niet wat voor technieken er in de tussentijd ontwikkeld zijn om er voor te zorgen dat meerdere kleine cores met elkaar kunnen samenwerken. De ATI Graphics Division zit echt niet stil hoor.... Ze hebben een paar honderd hardware engineers en die zitten vast niet allemaal uit hun neus te vreten. 
Beetje simpel gezegd:
R300: 4 minicores (4x RV350)
R420: 4 minicores (4x RV360 of 2x R300)
R520: 4 minicores (4x RV515 alhoewel de RV515 technisch gezien geavanceerder is)
R580: 4 minicores (4x RV530)
Ze zeggen ook wel eens dat binnen elke core er gebruik wordt gemaakt van een soort van supertiling. Elke quad rendert bepaalde gedeeltes van het beeld en dit wordt razendsnel weer samengevoegd tot 1 geheel. Het is efficienter dan een multi GPU setup als CrossFire omdat latencies heel goed verborgen kunnen worden en is niet afhankelijk van profielen.
Met de R6x0 generatie is dit concept zelfs nog flexibeler geworden:
RV610: 8 mini-cores (verdeeld over 2 SIMD Arrays van 20 SPs)
RV620: 24 mini-cores (verdeeld over 3 SIMD Array van 40 SPs)
R600: 64 mini-cores (4 SIMD Arrays van 80 SPs)
Zie je hoe schaalbaar dit is? De verhoudingen zijn flexibeler geworden. En die flexibiliteit is iets wat steeds belangrijker gaat worden.
Daarnaast, als de invloed van AMD voelbaar gaat worden, dan kan het best zijn dat een multi-core GPU straks net zo flexibel is als een dual/quad core CPU. Die werken ook probleemloos en schalen ook vrij netjes mee zonder dat je met aparte profielen hoeft te werken... Dus als het op CPUs werkt, waarom zou het dan straks niet op GPUs werken? Het lijkt me een logische volgende stap, zeker met Swift (Fusion) op komst. Dan moet deze drempel van schaalbaarheid die er op dit moment soms nog is vanwege de afhankelijkheid van profielen toch echt verdwenen zijn.
NV doet het zelfde. Alleen dan met 128 minicores (en schaalbaar naar beneden richting: 112, 96, 80, 64, 48, 32... en schaalbaar omhoog...
)
@ Ed_L: 65nm is toch ook maar slechts op 1 generatie gebruikt? Namelijk de RV610 en RV630.
Dat werkt ook goed binnen in die. Dus wie zegt dat AMD niet iets gevonden heeft om problemen met bv latency en scalability weg te werken in de nieuwe generatie? Zo gaan er geruchten dat de R700 ook al een geintegreerde PCI Express switch aan boord.
Beetje simpel gezegd:
R300: 4 minicores (4x RV350)
R420: 4 minicores (4x RV360 of 2x R300)
R520: 4 minicores (4x RV515 alhoewel de RV515 technisch gezien geavanceerder is)
R580: 4 minicores (4x RV530)
Ze zeggen ook wel eens dat binnen elke core er gebruik wordt gemaakt van een soort van supertiling. Elke quad rendert bepaalde gedeeltes van het beeld en dit wordt razendsnel weer samengevoegd tot 1 geheel. Het is efficienter dan een multi GPU setup als CrossFire omdat latencies heel goed verborgen kunnen worden en is niet afhankelijk van profielen.
Met de R6x0 generatie is dit concept zelfs nog flexibeler geworden:
RV610: 8 mini-cores (verdeeld over 2 SIMD Arrays van 20 SPs)
RV620: 24 mini-cores (verdeeld over 3 SIMD Array van 40 SPs)
R600: 64 mini-cores (4 SIMD Arrays van 80 SPs)
Zie je hoe schaalbaar dit is? De verhoudingen zijn flexibeler geworden. En die flexibiliteit is iets wat steeds belangrijker gaat worden.
Daarnaast, als de invloed van AMD voelbaar gaat worden, dan kan het best zijn dat een multi-core GPU straks net zo flexibel is als een dual/quad core CPU. Die werken ook probleemloos en schalen ook vrij netjes mee zonder dat je met aparte profielen hoeft te werken... Dus als het op CPUs werkt, waarom zou het dan straks niet op GPUs werken? Het lijkt me een logische volgende stap, zeker met Swift (Fusion) op komst. Dan moet deze drempel van schaalbaarheid die er op dit moment soms nog is vanwege de afhankelijkheid van profielen toch echt verdwenen zijn.
NV doet het zelfde. Alleen dan met 128 minicores (en schaalbaar naar beneden richting: 112, 96, 80, 64, 48, 32... en schaalbaar omhoog...
@ Ed_L: 65nm is toch ook maar slechts op 1 generatie gebruikt? Namelijk de RV610 en RV630.
Dat werkt ook goed binnen in die. Dus wie zegt dat AMD niet iets gevonden heeft om problemen met bv latency en scalability weg te werken in de nieuwe generatie? Zo gaan er geruchten dat de R700 ook al een geintegreerde PCI Express switch aan boord.
[ Voor 4% gewijzigd door CJ op 03-01-2008 16:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Meet the HIS HD3870 IceQ:

(plaatje zegt trouwens HD3850)
Corespeed: 850Mhz
Memspeed: 1190Mhz GDDR4 (2380Mhz effectief)
Volgens mij is dit de snelst geklokte HD3870 die uit is. http://www.hisdigital.com/html/product_sp.php?id=363

(plaatje zegt trouwens HD3850)
Corespeed: 850Mhz
Memspeed: 1190Mhz GDDR4 (2380Mhz effectief)
Volgens mij is dit de snelst geklokte HD3870 die uit is. http://www.hisdigital.com/html/product_sp.php?id=363
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik heb alle vertrouwen in de techniek, maar de machines die die technieken aankunnen is vreselijk duur. Ach, naar de 38xx serie kijkend kan ik niet zeggen dat wij als consument daar last van hebben.CJ schreef op donderdag 03 januari 2008 @ 16:41:
@ Ed_L: 65nm is toch ook maar slechts op 1 generatie gebruikt? Namelijk de RV610 en RV630.
Dat werkt ook goed binnen in die. Dus wie zegt dat AMD niet iets gevonden heeft om problemen met bv latency en scalability weg te werken in de nieuwe generatie? Zo gaan er geruchten dat de R700 ook al een geintegreerde PCI Express switch aan boord.
Vond die koeler altijd al vet uitzien, als deze nou ook net zo goed koelt als de rest, en niet te duur is, wil ik em miss wel vervangen voor mn huidge CF setje ^^. Anyways, nu nog een plek waar ie verkrijgbaar is, die HIS dingen zijn niet makkelijk te krijgen.CJ schreef op donderdag 03 januari 2008 @ 17:02:
Meet the HIS HD3870 IceQ:
[afbeelding]
(plaatje zegt trouwens HD3850)
Corespeed: 850Mhz
Memspeed: 1190Mhz GDDR4 (2380Mhz effectief)
Volgens mij is dit de snelst geklokte HD3870 die uit is. http://www.hisdigital.com/html/product_sp.php?id=363
Even tussendoor, is er inmiddels al een relatief zekere datum van de release van de R680? Wat ik als laatste heb vernomen was eind jan begin feb, klopt dit?
Verwijderd
heh voor de core loopt die het snelst alleen het geheugen niet heh!CJ schreef op donderdag 03 januari 2008 @ 17:02:
Meet the HIS HD3870 IceQ:
[afbeelding]
(plaatje zegt trouwens HD3850)
Corespeed: 850Mhz
Memspeed: 1190Mhz GDDR4 (2380Mhz effectief)
Volgens mij is dit de snelst geklokte HD3870 die uit is. http://www.hisdigital.com/html/product_sp.php?id=363
die Atomic versie van Sapphire heeft 1200Mhz ram effectief 2400Mhz DDR
http://www.overclockerscl...phire_atomic_hd3780/5.htm
Dus ik denk dat die van His als die Atomic van Sapphire erg overheen komen, wat doet meer meer corespeed of meer ram speed, ik denk dat dat aan de aplicatie hangt die men draait
Sapphire Atomic HD 3870:
VPU Clock: 825MHz
VRAM Clock 2400MHz DDR [1200Mhz Physical Speed]
HIS HD3870 ICEQ series:
VPU Clock: 850MHz
VRAM Clock 2380MHz DDR [1190Mhz Physical Speed]
En toch heeft die van Sapphire het mooiste voordeel die is lekker single slot en koelt best goed ook, ik weet niet hoe dat zit met die cooler van HIS aangezien die erg lijkt op de stock cooler van ATi.
[ Voor 18% gewijzigd door Verwijderd op 03-01-2008 17:23 ]
Verwijderd
Hmmm ik vind die van HIS toch veel beter aangezien die koeler de warme lucht uit je kast blaast!En toch heeft die van Sapphire het mooiste voordeel die is lekker single slot en koelt best goed ook, ik weet niet hoe dat zit met die cooler van HIS aangezien die erg lijkt op de stock cooler van ATi.
Word tijd dat die R680 eraan komt want ik wil mijn Asus X1900XTX kaartje zsm kwijt
Waarom zou je dat willen? We hebben nu toch ook niet voor niets dualcore processors? Doordat er steeds meer van op de markt komen tegen steeds betere prijzen moeten de softwareontwikkelaars ook wel om en meer multicore gaan ondersteunen en benutten. Uiteindelijk kun je met meerdere kleine cores een veel hogere rekenkracht per watt behalen dan met één uit de kluiten gewassen supercore.Verwijderd schreef op donderdag 03 januari 2008 @ 15:38:
hmm toch jammer dat de nieuwe high end chips eigenbestaan uit meerdere kleinere cores zoals R580 eigenlijk uit twee kelien cores bestaat aka 2x RV670, toch is 1 helse grote core beter, vooral al s multicore niet ondersteund wordt, dan ben je meteen f*cked, dan ben je mischien net sneller als een 2900XT or 3870 waar het verschil ook niet groot is soms is de 2900XT sneller als in flight Sim X Deluxe Edition bevoorbeeld dankzei zijn 1024 bit ringbus memory controller en zijn 512Bit geheugen interface.
en dat de R700 een echte quadcore wordt ik weet het eerlijkgezegd niet meer, toch is 1 hele grote core altijd sneller en beter omdat de verdubbeling van vele kleinere cores nooit een 100% snelheids winst kan geven, terwijl een enkele core altijd op 100% werkt.
Dus hierbij zie ik liever 1 hele grote helse core ipv meerdere kleintjes.
Een laptopprocessor met twee 1.6GHz kernen verbruikt misschien 22 watt, terwijl een singlecore 1.6 echt wel meer nodig heeft dan 11 watt. Toch kan in het meest ideale geval de dualcore twee keer zo snel zijn. Technisch is multicore dus veel interessanter, en bovendien heeft het maken van meerdere kleine cores voordelen m.b.t. ontwikkelingskosten, schaalbaarheid en yields....
Zolang je maar niet first mover bent, want die profiteert er doorgaans het minst van. Tussen de X1900 CF en HD2900CF merk ik al een enorm verschil in stabiliteit én performance, er zit echt veel vooruitgang in.
Goud is geen geld
het 55nm proces is eigenlijk net het zelfde als het 65nm, het is 65nm versie 1.5Edmin schreef op donderdag 03 januari 2008 @ 16:29:
Met de volgende generatie alweer over naar 45nm? Dat moet een ongelooflijke bak geld kosten. Het 55nm proces wordt toch pas 1 generatie gebruikt?
@CJ
R300 = 2x rv350R300: 4 minicores (4x RV350)
en eigenlijk is je redenering nogal krom over de R600 & g80, als je er wat meer op naleest ga je zien dat er grotere structuren zijn, vooral voor de G80 is dat duidelijk
[ Voor 25% gewijzigd door oeLangOetan op 03-01-2008 18:50 ]
Verwijderd
you have a point maar dan nog of ik nu 1 core van me DCO 185 gebruik of alle bij de enigste apps waar ik echt boost in merk zijn Flight SimX en games als Crysis enzo games als HL2 merk ik het verschil niet tussen single & dual core met CF weer wel maar Crysis weer niet in vele apps wordt CF als SLI niet goed ondersteunt omdat het hoofdzakelijk software matig wordt gedaan.frankknopers schreef op donderdag 03 januari 2008 @ 18:09:
[...]
Waarom zou je dat willen? We hebben nu toch ook niet voor niets dualcore processors? Doordat er steeds meer van op de markt komen tegen steeds betere prijzen moeten de softwareontwikkelaars ook wel om en meer multicore gaan ondersteunen en benutten. Uiteindelijk kun je met meerdere kleine cores een veel hogere rekenkracht per watt behalen dan met één uit de kluiten gewassen supercore.
Een laptopprocessor met twee 1.6GHz kernen verbruikt misschien 22 watt, terwijl een singlecore 1.6 echt wel meer nodig heeft dan 11 watt. Toch kan in het meest ideale geval de dualcore twee keer zo snel zijn. Technisch is multicore dus veel interessanter, en bovendien heeft het maken van meerdere kleine cores voordelen m.b.t. ontwikkelingskosten, schaalbaarheid en yields....![]()
Zolang je maar niet first mover bent, want die profiteert er doorgaans het minst van. Tussen de X1900 CF en HD2900CF merk ik al een enorm verschil in stabiliteit én performance, er zit echt veel vooruitgang in.
met 3dfx SLIoftewel de enige echte SLI Scan Line Interleave was de extra performance altijd aanwezig en het maakte echter nooit uit wat men draaide de impact van een tweede VSA-100 or een vierde VSA-100 was altijd groot omdat het 100% hardware matig was.
nu speelt de software helaas een veel grotere rol en ik merk het veel bij games en applications, het moet goed aangestuurt worden anders werkt het niet, en dan maakt het niets uit of je met dual R480's werkt, Quad G71m's of dual R600's werkt, het is merendeels de software die het bepaald, en bij 3dfx was dat nooit zo, dus ik vraag me af, aren't we missing the point?
Oops. My bad.
Grotere structuren in de zin van... clusters?en eigenlijk is je redenering nogal krom over de R600 & g80, als je er wat meer op naleest ga je zien dat er grotere structuren zijn, vooral voor de G80 is dat duidelijk
Zoiets noemde ik ook al in m'n voorbeeld bij AMD met de SIMD Arrays... maar het blijft een feit dat deze een stuk flexibeler zijn dan het voorheen was. En elke streamprocessor is feitelijk min of meer een mini-core die alles kan doen. Bij NV zijn ze echter gegroepeerd in clusters van 16 streamprocessors. Elke cluster kan je dus min of meer ook zien als 'mini-core' als je een niveau hoger wilt gaan.
Bij AMD is er geen peil te trekken op de grootte van de clusters/Arrays.
RV610: 2 SIMD Arrays met elk 4 shaderunits. Elke shaderunit heeft natuurlijk 5 streamprocessors, dus totaal 40 streamprocessors. Je zou dan zeggen dat een SIMD Array bij AMD standaard uit 4 shaderunits bestaat, maar de RV630 laat weer anders zien... Die heeft 3 SIMD Arrays met elk 8 shaderunits x 5 streamprocessors = 120 streamprocessors. En de R600 heeft 4 SIMD Arrays met elk 16 shaderunits x 5 streamprocessors.
Dus een mini-core bij AMD bestaat respectievelijk uit een SIMD Array van 4, 8 of 16 streamprocessors x 5 streamprocessors. Daarnaast is ook de texture unit flexibel en kan er van alles worden weggehaald of worden toegevoegd en is dit niet meer afhankelijk van de ROPs of andere zaken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
toch wel, ik zou je nog heel wat meer willen vertellen maar tis blok & de volgende 3 weken examens dus geen tijdCJ schreef op donderdag 03 januari 2008 @ 23:35:
Bij AMD is er geen peil te trekken op de grootte van de clusters/Arrays.
http://www.beyond3d.com/content/reviews/16/8
Each cluster contains sixteen shader units, each containing five sub scalar ALUs that perform the actual shading ops. Each ALU can run a separate op per clock, R600 exploiting instruction-level parallelism via VLIW
ik heb gisteren de nieuwste ati drivers geinstalleerd.
krijg 480 640 als max res.
en 4 bits kleuren. met de omega driver.
toen de originele Ati installed. pc start op, zelfde res en bits. maar pc blijft zich continu herstarten.
dus de oudere er maar op gezet,
heb een asus EAX1950XTX pcie erin,
iemand zelfde problemen?
krijg 480 640 als max res.
en 4 bits kleuren. met de omega driver.
toen de originele Ati installed. pc start op, zelfde res en bits. maar pc blijft zich continu herstarten.
dus de oudere er maar op gezet,
heb een asus EAX1950XTX pcie erin,
iemand zelfde problemen?
www_un4given_nl
Verwijderd
ja man ik zie het, mischien dat alleen de Midend en high end kaarten het mooie rode PCB krijgen?The Source schreef op vrijdag 04 januari 2008 @ 00:32:
Doei ATI rood, hallo AMD groen???
[afbeelding]
http://www.tomshardware.tw/307,news-307.html
Aangezien dat alle kaarten van de HD 3800 serie wel allemaal rood zijn als alle kaarten van de HD 2900 serie
Kan ook wezen om geld te besparen ik weet nou niet of die rode lak zoveel duurder is dan dat groene?
[ Voor 6% gewijzigd door Verwijderd op 04-01-2008 07:58 ]
Ik ken de review.oeLangOetan schreef op vrijdag 04 januari 2008 @ 00:49:
[...]
toch wel, ik zou je nog heel wat meer willen vertellen maar tis blok & de volgende 3 weken examens dus geen tijd
http://www.beyond3d.com/content/reviews/16/8
[...]
Het zegt precies wat ik al zei.... maar de review legt hier alleen uit hoe het bij de R600 zit. Als je verder kijkt naar de RV610 en RV630 dan zie je dat de clusters (oftewel SIMD Arrays) niet 16 shaderunits groot zijn, maar varieren in grootte (dus zeer flexibel). Bij nVidia is dit bij elke GPU 16 shaderunits groot of het nou om high-end gaat of low-end.
8800GTX/Ultra: 8 clusters van 16 = 128 streamprocessors
8800GT: 7 clusters van 16 = 112 streamprocessors
8800GS: 6 clusters van 16 = 96 streamprocessors
9600GT: 4 clusters van 16 = 64 streamprocessors
8600GTS/GT: 2 clusters van 16 = 32 streamprocessors
8400GS: 1 cluster van 16 = 16 streamprocessors
3870/50: 4 clusters (SIMD Array) van 16 (x5) = 320 streamprocessors
2900XT: 4 clusters van 16 (x5) = 320 streamprocessors
2900GT: 3 clusters van 16 (x5) = 240 streamprocessors
2600XT/Pro: 3 clusters van 8 (x5) = 120 streamprocessors
2400XT/Pro: 2 clusters van 4 (x5) = 40 streamprocessors
Zie je het verschil? Een cluster bij AMD kan dus ook 8 of 4 shaderunits groot zijn (x5). En als ik het goed heb begrepen dan is het hier niet toe beperkt. Er zou dus een highend kunnen komen met 4 clusters van 24 (5x) voor een totaal van 480 streamprocessors of een highend met 6 clusters van 16 (5x) voor hetzelfde aantal.
Theoretisch gezien zouden we dus ook "rest-afval" kunnen verwachten van de RV630 in de vorm van een 2 cluster GPU met 80 streamprocessors. Maar de yields zijn vrij goed, dus de kans dat dat gebeurt is zeer klein.
Overigens heb ik een heel tactisch antwoord gekregen van AMD op mijn vraag of de HD2400 en HD2600 serie ook al DX10.1 compliant zijn. Mij werd verteld dat compliance relatief gezien binair is en dat de RV610 en RV630 ontworpen werden met het niveau van de specificaties die op dat moment beschikbaar waren, net zoals dat met PCI Express is gebeurd. Dat laatste was een hint richting de 'geruchten' dat de RV610 en RV630 al PCIe 2.0 ondersteunen na een bios-flash.
Over dat groene PCB, dat was vroeger ook de standaard kleur. Mijn Radeon 8500 heeft ook een groen PCB.
[ Voor 22% gewijzigd door CJ op 04-01-2008 09:31 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
ja dat klopt mijn Radeon 256 AGP 64MB DDR met ViVo is ook groen:

Alleen na de introductie van de 9700 Pro kaarten werd alles rood

En ja de meeste mensen als ATi gebruikers zijn die rode PCB gewend waar de ATi kaarten ook beroemder van zijn geworden.
Als AMD die rode PCB weg haalt zal deze beroemdheid ook harder verdwijnen, ik zou het jammer vinden, die rode PCB heeft altijd iets gehad
Alleen na de introductie van de 9700 Pro kaarten werd alles rood



En ja de meeste mensen als ATi gebruikers zijn die rode PCB gewend waar de ATi kaarten ook beroemder van zijn geworden.
Als AMD die rode PCB weg haalt zal deze beroemdheid ook harder verdwijnen, ik zou het jammer vinden, die rode PCB heeft altijd iets gehad
[ Voor 72% gewijzigd door Verwijderd op 04-01-2008 16:55 ]
En uit betrouwbare bron kan ik je ook vertellen dat je Rage 3D ook groen is

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
AIBs kunnen zelf ook met eigen kleur PCBs komen zoals Hercules dat vroeger deed met het mooie blauwe PCB.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Zou '08 dan toch ATI's jaar worden na de lichtjes magere lineup van Nvidia?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
als je de g100 niet meetelt, misschien welN0taFAma schreef op vrijdag 04 januari 2008 @ 18:56:
Zou '08 dan toch ATI's jaar worden na de lichtjes magere lineup van Nvidia?
Zeg ik dat dan ergens? Nee hoor ik reageerde op je "dus nu moeten alle tests opnieuw gedaan worden" met je hint dat die allemaal niet zouden kloppen omdat NV sjoemeld, niet juist dus, er worden amper opengl titles gebruikt.CJ schreef op donderdag 03 januari 2008 @ 12:03:
[...]
Dus dat er toch weinig OpenGL games zijn is een excuus om lagere image-quality te leveren wanneer de eindgebruiker eigenlijk om hogere IQ vraagt?![]()
Sorry... maar ik zei helemaal niet dat "alle" tests opnieuw gedaan moeten worden.k995 schreef op vrijdag 04 januari 2008 @ 19:19:
[...]
Zeg ik dat dan ergens? Nee hoor ik reageerde op je "dus nu moeten alle tests opnieuw gedaan worden" met je hint dat die allemaal niet zouden kloppen omdat NV sjoemeld, niet juist dus, er worden amper opengl titles gebruikt.

"Wat" als in "een aantal" als in "de OpenGL" benchmarks zoals de vaak gebruikte Prey, Quake 4 en Enemy Territory: Quake Wars.En volgens mij moeten er wat benchmarks opnieuw gedaan worden wanneer vergeleken wordt met de GF8 serie
Wat != Alles.
Wel goed lezen en quoten aub en geen woorden in andermans mond stoppen.
NV is overigens op de hoogte van het probleem en zegt dat het een bug is en dat er gewerkt wordt aan een fix. Maar dat terzijde.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk dat nVidia zich in de positie bevindt waarin zij bepalen waarme wij draaien. En dat ze allang iets klaar hebben, maar het gewoon niet releasen omdat ze nu toch nagenoeg geen concurrentie hebben. De lineupvan ATi is nu ook niet echt iets om vrolijk van te worden als je puur naar performance kijkt.N0taFAma schreef op vrijdag 04 januari 2008 @ 18:56:
Zou '08 dan toch ATI's jaar worden na de lichtjes magere lineup van Nvidia?
OK, de HD3870 pakt nu wat marktaandeel terug, maar of ze (nV) daar wakker van liggen na 2007? Ik denk het niet. Ik februari schoppen ze weer kont denk ik. Maar goed, dat is een aanname. De concurrentie mag van mij wel losbarsten, want ik ben wel toe aan iets supersnels. En vele andere 8800GTX of HD2900XT bezitters (enthousiasts) ook wel denk ik.
Al denk ik dat die 9800GX2 een flop wordt. De 7950GX2 had onder XP al problemen. (Random BSOD's) Dus ik wil niet weten hoe dat in Vista zal zijn...
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Voor nV is het alleen maar gunstig om de release zo lang mogelijk uit te stellen, des te meer G80 cores ze nog voor de volle prijs kunnen verkopen.
Ik hoop maar dat ATi snel komt met de R700, de 8800GTX is nu al bijna anderhalf jaar high-end... En een dual-chip oplossing zit ook niemand op te wachten, kun je net zo goed gewoon SLI of Crossfire nemen, presteert bijna even goed...
Ik hoop maar dat ATi snel komt met de R700, de 8800GTX is nu al bijna anderhalf jaar high-end... En een dual-chip oplossing zit ook niemand op te wachten, kun je net zo goed gewoon SLI of Crossfire nemen, presteert bijna even goed...
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Als je voorraad G80s op is dan verkoop je niet meer zo veel hoor.... Deze maand ging de G80 geloof ik EOL, dus dan kan het haast niet missen dat er een vervangend iets moet komen.leonpwner1 schreef op vrijdag 04 januari 2008 @ 23:33:
Voor nV is het alleen maar gunstig om de release zo lang mogelijk uit te stellen, des te meer G80 cores ze nog voor de volle prijs kunnen verkopen.
Tot nu toe zijn het alleen maar aannames of je dan 'net zo goed' SLI of CrossFire kan gebruiken. Misschien is er wel iets gevonden om er voor te zorgen dat 2 chips op 1 PCB beter schaalt? Hoe R680 werkt zien een aantal mensen binnen een week... dan verwacht ik ook wel de eerste officiele leaks (afgezien dan van de specsheets van R680 die al gelekt zijn).Ik hoop maar dat ATi snel komt met de R700, de 8800GTX is nu al bijna anderhalf jaar high-end... En een dual-chip oplossing zit ook niemand op te wachten, kun je net zo goed gewoon SLI of Crossfire nemen, presteert bijna even goed...
Ik denk overigens niet dat AMD haast heeft om R700 uit te brengen. En zoals ik al zei, volgens mij komt de originele R700 niet eens uit (maar is al wel klaar).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Je hebt theoretisch waarschijnlijk een snellere kaart omdat de latencies wel lager zijn, maar of ze een 'magische' manier hebben gevonden om ze veel beter te op te laten schalen betwijfel ik, maar dat is inderdaad puur speculatie en zullen pas terugzien in de benchmarks.CJ schreef op vrijdag 04 januari 2008 @ 23:52:
[...]
Tot nu toe zijn het alleen maar aannames of je dan 'net zo goed' SLI of CrossFire kan gebruiken. Misschien is er wel iets gevonden om er voor te zorgen dat 2 chips op 1 PCB beter schaalt? Hoe R680 werkt zien een aantal mensen binnen een week... dan verwacht ik ook wel de eerste officiele leaks (afgezien dan van de specsheets van R680 die al gelekt zijn).
Hoewel het bij dual-PCB kaarten zo is dat de klokfrequenties wat omlaag worden gezet vanwege de gedissipeerde hitte en het stroomverbruik, ik weet niet in hoeverre de frequenties van de R680 gereduceerd zijn...?
Ik weet niet of je het al eerder had uitgelegd, maar waarom zou AMD de R700 voorlopig niet willen releasen?Ik denk overigens niet dat AMD haast heeft om R700 uit te brengen. En zoals ik al zei, volgens mij komt de originele R700 niet eens uit (maar is al wel klaar).
Ik durf niet eens meer multi GPU kaarten te nemen na mijn ervaringen met de 7950GX2.CJ schreef op vrijdag 04 januari 2008 @ 23:52:
[...]
Als je voorraad G80s op is dan verkoop je niet meer zo veel hoor.... Deze maand ging de G80 geloof ik EOL, dus dan kan het haast niet missen dat er een vervangend iets moet komen.
[...]
Tot nu toe zijn het alleen maar aannames of je dan 'net zo goed' SLI of CrossFire kan gebruiken. Misschien is er wel iets gevonden om er voor te zorgen dat 2 chips op 1 PCB beter schaalt? Hoe R680 werkt zien een aantal mensen binnen een week... dan verwacht ik ook wel de eerste officiele leaks (afgezien dan van de specsheets van R680 die al gelekt zijn).
Ik denk overigens niet dat AMD haast heeft om R700 uit te brengen. En zoals ik al zei, volgens mij komt de originele R700 niet eens uit (maar is al wel klaar).
Al ben ik er van overtuigd dat de manier waarop ATi het doet beter is dan die van nV. Ik denk dat 2 chips op 1 PCB op de 1 of andere manier toch beter werkt dan 2 chips op 2 PCB's. Vraag me niet waarom maar het is een gevoel. kan komen omdat nV er niets tot weinig van bakte en dat mijn ervaringen daarmee zo slecht zijn.
Als die R680 echt heel snel is, en als ook nog eens blijkt dat "Quad CF", dus 2 R680's in CF echt heel goed werkt, zou het best kunnen zijn dat ik weer een X38 setup neem en dan 2 van deze kaartjes in CF zet. Ligt wel een beetje aan het verbruik...
Maar goed, maar ff afwachten.
[ Voor 6% gewijzigd door Format-C op 05-01-2008 00:17 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
ATi will R700 houden als concurrent voor nVidia's G100 dat denk ik
R680 neemt het wel tegen op Dual G92 en als Dual G92 maar op zijn minst 30% sneller is als de G80 A3 heh dan heeft ATi de winst al in handen met hun R680 minder stroomverbruik en toch sneller als men twee Hd 3870's in CF vergelijk met een G80 A3 heh die doen vaker meer dan 30% snelheidswinste vergeleken met een G80 A3 dus ik denk dat het een spannende strijd wordt 
Mijn gevoel ligt nu ook meer bij ATi qua best performance met max image quallity op een manier van max FSAA en AF.
@ Hekking heh ik weet het heb hem ook
zelfs me ATi Small Wonder CGA Graphics card van 1988 is groen
8bit CGA kaartje met maar liefst 64KB ram w00t!
Mijn gevoel ligt nu ook meer bij ATi qua best performance met max image quallity op een manier van max FSAA en AF.
@ Hekking heh ik weet het heb hem ook
[ Voor 12% gewijzigd door Verwijderd op 05-01-2008 00:22 ]
Het zou goed zou kunnen dat er iets anders voor in de plaats is gekomen. Misschien heet het straks wel R700, maar is het niet de oorspronkelijke R700, maar een tussenoplossing. Misschien is de echte R700 doorgeschoven naar achteren. Er gaan namelijk wat geruchten over de R700 die zeggen dat de R700 die we te zien krijgen niet de 'echte' R700 zou zijn zoals deze oorspronkelijk bedoeld was.leonpwner1 schreef op zaterdag 05 januari 2008 @ 00:05:
[...]Ik weet niet of je het al eerder had uitgelegd, maar waarom zou AMD de R700 voorlopig niet willen releasen?
Ik kan me voorstellen dat we in de zomer eerst een GPU te zien krijgen die de "gebreken" van de R600 aanpakt en tegelijkertijd zo'n 50% sneller is dan een G80Ultra vanwege hogere kloks, meer ROPs, meer texture units, meer AA samples per seconde of hardware AA wanneer dit het meest efficient blijkt (dit komt ook in de R700). Voor de RV670 was het te laat om grote veranderingen door te voeren. Dat werden er bij de HD3800 serie slechts enkele kleine tweaks.
Een opgepompte R600 zou dan prima zijn om de R680 opvolgen die gemiddeld zo'n 15% sneller is dan een G80Ultra. Plus.... Het is goedkoper om een afgeleide te produceren (zie ook R420 als tijdelijke oplossing en afgeleide van de R300 omdat R400 niet haalbaar was) en het geeft je wat meer tijd om je op de echte R700 te richten.
Maar goed, misschien komt de echte R700 wel deze zomer... Het gerucht gaat dat de R700 eind vorige maand al z'n tape-out heeft bereikt en deze goed draait.... Dus dan ligt R700 wel op schema voor een Q2/Q3 lancering... En men heeft sinds Q4'06 een richtperformance... minimaal 2x zo snel als de G80.
G80Ultra = 100%
HD3870 X2 = 115%
GF9800 GX2 = 130%
Opgepimpte R600 = 145-150% of echte R700 = 150%
G100 = 180% (?)
Wat lijkt logischer? Denk je dat AMD genoegen neemt met maar 50% sneller dan een G80 nadat de R600 zo lauwtjes ontvangen is? Ze hebben daar ook rond de duizend engineers lopen die echt niet gek zijn.... en die weten ook dat NV voor een verdubbeling gaat van de performance.
Overigens.... over de gekleurde PCBs....
Sapphire Blue AGP HD3850:


Bron: http://www.fudzilla.com/i...ask=view&id=4979&Itemid=1
[ Voor 13% gewijzigd door CJ op 05-01-2008 01:44 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
HD3870X2 = 150% zo snel als HD2900XT CF toch?
waarom dan maar 115% zo snel als G80A3?
waarom dan maar 115% zo snel als G80A3?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
We kunnen voor komende donderdag al de eerste benchmarks verwachten van de HD3870 X2 kaarten.
Laten we hopen dat ze voor zich spreken en een goede eerste indruk achter laten.
Dan wil ik eventueel nog wel overwegen om twee van die X2 kaarten in Crossfire te zetten op mijn nieuwe X38 mobo Maximus Formula.
Alleen is mijn 650Watt voeding dan waarschijnlijk niet meer voldoende, of denken jullie dat de HD3870 X2 niet zo heel veel watt nodig heeft?
En als de eerste indruk niet zo goed is wordt het toch weer Nvidia, dan waarschijnlijk de 8800GTS G92 tot de G100 kaart later dit jaar uit komt.
Laten we hopen dat ze voor zich spreken en een goede eerste indruk achter laten.
Dan wil ik eventueel nog wel overwegen om twee van die X2 kaarten in Crossfire te zetten op mijn nieuwe X38 mobo Maximus Formula.
Alleen is mijn 650Watt voeding dan waarschijnlijk niet meer voldoende, of denken jullie dat de HD3870 X2 niet zo heel veel watt nodig heeft?
En als de eerste indruk niet zo goed is wordt het toch weer Nvidia, dan waarschijnlijk de 8800GTS G92 tot de G100 kaart later dit jaar uit komt.

[ Voor 13% gewijzigd door outlandos op 05-01-2008 23:23 ]
Tijdens CES?Outlandos schreef op zaterdag 05 januari 2008 @ 23:21:
We kunnen voor komende donderdag al de eerste benchmarks verwachten van de HD3870 X2 kaarten.
Of bedoel je door reviewers?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Ik bedoel inderdaad tijdens CES (ma tot wo)N0taFAma schreef op zaterdag 05 januari 2008 @ 23:23:
[...]
Tijdens CES?
Of bedoel je door reviewers?
En is er al bekend hoeveel watt die kaart nodig heeft?
Watt zou iets minder dan HD2900XT moeten zijn.
190~220 zou ik dan zeggen.
190~220 zou ik dan zeggen.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Dat tegenover 155Watt van G92 kaarten is kinda sucky...N0taFAma schreef op zaterdag 05 januari 2008 @ 23:42:
Watt zou iets minder dan HD2900XT moeten zijn.
190~220 zou ik dan zeggen.
Als je er dan 2 neemt ben je zo al ~400Watt verder!

155 Watt van G92 kaarten? Bron? Een enkele 8800GT verstookt meer dan een HD3850 en volgens mij zelfs iets meer dan de HD3870, aldus een review die ik een tijdje geleden zag... Ik denk dat het stroomverbruik iets lager zal liggen dan het stroomverbruik van een HD3850 CF setup.Outlandos schreef op zaterdag 05 januari 2008 @ 23:46:
[...]
Dat tegenover 155Watt van G92 kaarten is kinda sucky...
Als je er dan 2 neemt ben je zo al ~400Watt verder!
leonpwner1 schreef op zaterdag 05 januari 2008 @ 23:50:
[...]
155 Watt van G92 kaarten? Bron? Een enkele 8800GT verstookt meer dan een HD3850 en volgens mij zelfs iets meer dan de HD3870, aldus een review die ik een tijdje geleden zag... Ik denk dat het stroomverbruik iets lager zal liggen dan het stroomverbruik van een HD3850 CF setup.
@Voedingen topic @ GoTtheodouma schreef op vrijdag 04 januari 2008 @ 21:18:
[...]
De G92 heeft 155 watt nodig. Vanuitgaand dat de 9000 series onder de 200 watt blijven zijn er de volgende eisen aan een voeindg voor jouw ssytem (met dikke OC): voeindg moet minimaal 500 watt zijn, minimaal 36 amperres op de 12 volt hebben en minimaal twee 6 pins stekkers voor de videokaart
Verwijderd
Dat is nou niet echt een goede bron, meer nog iemand die, niet onderbouwd, hetzelfde zegt 
Edit 1: Typo's maken we allemaal wel eens
Edit 2: hij geeft echter ook niet aan waar wij officieel kunnen vinden dat de G92 max.155 Watt verstookt. Dat is wat ik bedoelde te zeggen, niet bedoeld als commentaar op de posters bedoeld.
Heb je bij Tweaktown al op deze geklikt btw?

Plaatje werkt tegen...
Edit 1: Typo's maken we allemaal wel eens
Edit 2: hij geeft echter ook niet aan waar wij officieel kunnen vinden dat de G92 max.155 Watt verstookt. Dat is wat ik bedoelde te zeggen, niet bedoeld als commentaar op de posters bedoeld.
Heb je bij Tweaktown al op deze geklikt btw?

Plaatje werkt tegen...
[ Voor 76% gewijzigd door Verwijderd op 06-01-2008 02:37 ]
Ik lees die dingen officieel al niet eens meer. Officieus gezien wel, en ik schaam me er diep voor! Staat er in de releasenotes: 5% in 3DMark2005 erbij voor HD2400/2600, laten ze niet zien. En als je ziet dat ze bij de Call of Juarez-test onder Vista in DX10-mode ook nog eens over het hoofd zien dat de HD3870 op de hoogste resolutie opeens 5% sneller is, evenals de HD2600XT die er op de zware reso's zomaar 10% bijkrijgt, dan vind ik dat knap onwaardig.
GatverWe can see again there are no real differences at both the minimum and averages under COJ.

1. het is goedE.Verwijderd schreef op zondag 06 januari 2008 @ 02:02:
Dat is nou niet echt een goed bron, meer nog iemand die, niet onderbouwd, hetzelfde zegt
2. Theodouma is zo ongeveer de voedingenexpert die al sinds mensenheugenis het Voedingentopic draait. Lijkt me onlogisch om zo iemand die vaak goed adviseert geen goede bron te noemen
[ Voor 20% gewijzigd door Jejking op 06-01-2008 02:29 ]
Zijn ervaring met voedingen zegt altijd nog weinig over zijn kennis van toekomstige GPU kaarten. Knappe jonge als hij al weet hoeveel watt dat ding trekt terwijl de grote hardware sites nog nergens van weten. Daarbij maak je mij niet wijs dat wanneer twee 8800GT gpu's op een prinplaat gooit die ineens 2/3 van z'n normale verbruik trektJejking schreef op zondag 06 januari 2008 @ 02:27:
[...]
1. het is goedE.
2. Theodouma is zo ongeveer de voedingenexpert die al sinds mensenheugenis het Voedingentopic draait. Lijkt me onlogisch om zo iemand die vaak goed adviseert geen goede bron te noemen

Edit: aap uit de mouw
Onze Theo heeft het over een enkele GPU opstelling met een G92 chip en wij over een dualOutlandos schreef op zaterdag 05 januari 2008 @ 23:46:
[...]
Dat tegenover 155Watt van G92 kaarten is kinda sucky...
Als je er dan 2 neemt ben je zo al ~400Watt verder!
[ Voor 21% gewijzigd door Hekking op 06-01-2008 10:04 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Is er trouwens al meer bekend over de HD3870 Mobility ? daar hoor je ook helemaal niets meer over. Mijn huidige laptop begint nu echt te traag te worden voor games dus het wordt tijd voor iets nieuws maar de HD2600 XT is niet snel genoeg meer en de 8700 ook niet 8800 GO niet te krijgen HD3870 is er niet eens
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk (en hoop
) dat AMD snel een serieuse come back maakt met zijn grafische chips op laptops, want daar is er dringend concurrentie nodig!
https://www.instagram.com/anafollotofbricks/
Ik zei het ook niet voor niksHekking schreef op zondag 06 januari 2008 @ 09:56:
Edit: aap uit de mouw![]()
Onze Theo heeft het over een enkele GPU opstelling met een G92 chip en wij over een dual
Je hebt ruimte genoeg met voedingen, meer dan de meeste mensen denken. Ik heb laatst nog een 6000+ met 2x 8800GT getest waar slechts een Antec 430W voeding in zat, en dat systeem heeft gewoon stabiel gedraaid
Ik kwam het volgende toevallig tegen



weet niet of het al voorbij is gekomen?



weet niet of het al voorbij is gekomen?
[ Voor 8% gewijzigd door Icingdeath op 06-01-2008 17:20 ]
Oke bedankt!Hacku schreef op zondag 06 januari 2008 @ 13:23:
[...]
Je hebt ruimte genoeg met voedingen, meer dan de meeste mensen denken. Ik heb laatst nog een 6000+ met 2x 8800GT getest waar slechts een Antec 430W voeding in zat, en dat systeem heeft gewoon stabiel gedraaid
Hopelijk morgenavond meer informatie over de HD3870 X2 tijdens de opening van de CES!
Dat lijkt opeens een kort kaartje 
Weer een kaartje van Unika.
Meer foto's
Weer een kaartje van Unika.
Meer foto's
[ Voor 59% gewijzigd door zzzzz op 06-01-2008 18:00 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Kijk dat is mooi klein
Ben benieuwd naar de benshmarks van sites als Anandtech.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ziet er goed uit en hij gebruikt maar 2x 6pins

Wordt misschien mijn vervanger voor de 2900XT

Wordt misschien mijn vervanger voor de 2900XT
|2600k|Asus 290|
Ik heb zat foto's gezien waarop de achterste stekker een 8 pins is.
Of 2x6 pins moet ook genoeg zijn net als bij de R600.
Of zou Unika een non-reference R680 launchen
.
Of 2x6 pins moet ook genoeg zijn net als bij de R600.
Of zou Unika een non-reference R680 launchen

[ Voor 17% gewijzigd door zzzzz op 06-01-2008 22:12 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Komop, post je Voodoo's ook nog ff, ik heb ze al zeker 2 topics niet meer gezien.Verwijderd schreef op vrijdag 04 januari 2008 @ 11:36:
ja dat klopt mijn Radeon 256 AGP 64MB DDR met ViVo is ook groen:
[afbeelding] [afbeelding] [afbeelding]
Alleen na de introductie van de 9700 Pro kaarten werd alles rood![]()
![]()
[afbeelding] [afbeelding] [afbeelding]
En ja de meeste mensen als ATi gebruikers zijn die rode PCB gewend waar de ATi kaarten ook beroemder van zijn geworden.
Als AMD die rode PCB weg haalt zal deze beroemdheid ook harder verdwijnen, ik zou het jammer vinden, die rode PCB heeft altijd iets gehad
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
bronOp de aziatische website PC Pop zijn enkele afbeeldingen verschenen van de nieuwe R680 videokaart van AMD. Deze kaart moet het nieuwe vlaggenschip worden van AMD, en zal zoals bekend is beschikken over twee 55nm RV670 GPU's. De kaart die we hier op de foto zien is van het merk Unika en gebruikt een alternatieve koeloplossing met twee waaiers op de RV670's en een heatsink op de PCI-E switchchip die ertussen ligt. De R680 zoals we die eerder zagen op gelekte slides had een dualslot koelerontwerp gebaseerd op de HD2900XT.
De nieuwe videokaart die we hier zien is aanmerkelijk korter dan wat de eerder getoonde afbeeldingen deden geloven. Waarschijnlijk heeft Unika het reference PCB (Printed Circuit Board) van AMD onder handen genomen, met als gevolg een veel compacter ontwerp dat zich qua lengte kan meten met de 8800GTX van nVidia. Ook qua hoogte wijkt de kaart niet af van de concurrent, want twee sloten zijn genoeg. Dus ook met deze alternatieve koeling is het nog steeds goed mogelijk om twee (of zelfs drie) R680's in CrossfireX opstelling te gebruiken. Quad-Crossfire drivers zijn er nog steeds niet, maar AMD heeft nog tot halverwege februari de tijd om deze vrij te geven, want dan zal de R680 officieel aan het grote publiek worden voorgesteld.
Frank schijnt een hoop te weten over de R680.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Het zou fysiek passen in een moederbord met drie PCI-E sloten op juiste afstand. Maar omdat er maar één CF connector op zit wordt het inderdaad lastig om drie van dergelijke kaarten ook daadwerkelijk hardwarematig in crossfireX te laten werken....N0taFAma schreef op zondag 06 januari 2008 @ 22:22:
[...]
bron
Frank schijnt een hoop te weten over de R680.
Zal dus softwaremode moeten worden of een aparte triple bridge, maar dat verwacht ik niet.
Anyways, ik heb het aangepast..
Goud is geen geld
Er zijn wel plannen van Mobo makers (vooral MSI) die een OctoCF opstelling willen gaan proberen (4xHD3870X2). Maar dat zal niet direct bij de launch over een maand zijn.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Omdat de nieuwe ATi kaarten:
-op het gebied van prijs erg aantrekkelijk zijn
-crossfire beter presteerd als SLI
-je voor SLI een Nvidia chipset nodig hebt (warm)
vroeg ik me het volgende af:
Ondersteunt crossfire WEL dual-screen? Dit is bij SLI namelijk niet het geval.
Ik ben namelijk van plan later in het jaar dan over te stappen op een 1600FSB/DDR3/nieuwe CPU (bv X48 chipset) met een crossfire setup.
Dit geld natuurlijk alleen als ATi dan nog altijd ass-kicked
.
Ik heb altijd een AMD+Nvidia combo gehad, nu ik ben geswitched naar Intel, wil ik ook wel eens ATi gaan proberen.
-op het gebied van prijs erg aantrekkelijk zijn
-crossfire beter presteerd als SLI
-je voor SLI een Nvidia chipset nodig hebt (warm)
vroeg ik me het volgende af:
Ondersteunt crossfire WEL dual-screen? Dit is bij SLI namelijk niet het geval.
Ik ben namelijk van plan later in het jaar dan over te stappen op een 1600FSB/DDR3/nieuwe CPU (bv X48 chipset) met een crossfire setup.
Dit geld natuurlijk alleen als ATi dan nog altijd ass-kicked
Ik heb altijd een AMD+Nvidia combo gehad, nu ik ben geswitched naar Intel, wil ik ook wel eens ATi gaan proberen.
Tot nu toe is gebleken dat meer dan 2 videokaarten enkel bij hoge resoluties zinvol is, zou mooi zijn als daar met CrossfireX verandering in komt.
Anders heeft het geen zin om een dual R680 setup te hebben, als je scherm niet minstens 24" groot is.
Anders heeft het geen zin om een dual R680 setup te hebben, als je scherm niet minstens 24" groot is.
Voor AA en AF is er anders behoorlijk veel GPU power nodig. Maar onder de 1920x1080 is het in de meeste gevallen inderdaad zinloos omdat de CPU het niet bijhoudt..Maikel205 schreef op zondag 06 januari 2008 @ 23:58:
Tot nu toe is gebleken dat meer dan 2 videokaarten enkel bij hoge resoluties zinvol is, zou mooi zijn als daar met CrossfireX verandering in komt.
Anders heeft het geen zin om een dual R680 setup te hebben, als je scherm niet minstens 24" groot is.
Goud is geen geld
Nog niet, maar het komt straks wel... tot op 8 monitoren zelfs. De de drivers zouden dit in Januari of Februari moeten ondersteunen. Zie ook het welbekende filmpje waar Flight Simulator X op een Phenom met 4 HD3870s in CrossFireX wordt afgespeeld:Paprika schreef op zondag 06 januari 2008 @ 23:55:
Ondersteunt crossfire WEL dual-screen? Dit is bij SLI namelijk niet het geval.
[ Voor 7% gewijzigd door CJ op 07-01-2008 01:13 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ok, maar je hebt het hier over HD3870's. Is dualscreen straks ook mogelijk met een X1900 CrossFire set?CJ schreef op maandag 07 januari 2008 @ 01:13:
[...]
Nog niet, maar het komt straks wel... tot op 8 monitoren zelfs. De de drivers zouden dit in Januari of Februari moeten ondersteunen. Zie ook het welbekende filmpje waar Flight Simulator X op een Phenom met 4 HD3870s in CrossFireX wordt afgespeeld:
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Ik sta op het punt een nieuw pc aan te schaffen namelijk:
Sapphire HD3870,
Sapphire HD3870,
Microsoft Windows Vista Home Premium,
Intel® Core™ 2 Duo E6850,
Samsung Syncmaster 2232BW,
Thermaltake Toughpower,
Antec Nine Hundred,
Alternate 1 jaar pixelgarantie,
Creative X-Fi Xtreme Gamer,
LiteOn SH-20A1S,
Asus P5E,
Western Digital Caviar SE16,
Western Digital Caviar SE16,
OCZ 4 GB DDR2-800 Kit,
nou vraag ik mij dus af of ik dus beter die 2x HD3870 kan nemen of een 8800GT?
en werkt het nou met alle spellen? Ben nog niet zo thuis op dit gebied
Sapphire HD3870,
Sapphire HD3870,
Microsoft Windows Vista Home Premium,
Intel® Core™ 2 Duo E6850,
Samsung Syncmaster 2232BW,
Thermaltake Toughpower,
Antec Nine Hundred,
Alternate 1 jaar pixelgarantie,
Creative X-Fi Xtreme Gamer,
LiteOn SH-20A1S,
Asus P5E,
Western Digital Caviar SE16,
Western Digital Caviar SE16,
OCZ 4 GB DDR2-800 Kit,
nou vraag ik mij dus af of ik dus beter die 2x HD3870 kan nemen of een 8800GT?
en werkt het nou met alle spellen? Ben nog niet zo thuis op dit gebied

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
1 3870 vs 1 8800GT [8800GT wint]
1 3870 vs 8800GT SLI [8800GT wint]
3870CF vs 1 8800GT [3870CF wint]
3870CF vs 8800GT SLI [3870CF wint]
1 3870 vs 8800GT SLI [8800GT wint]
3870CF vs 1 8800GT [3870CF wint]
3870CF vs 8800GT SLI [3870CF wint]
Als het goed is wel.Oet schreef op maandag 07 januari 2008 @ 09:19:
[...]
Ok, maar je hebt het hier over HD3870's. Is dualscreen straks ook mogelijk met een X1900 CrossFire set?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat zou hééél erg mooi zijn!
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
AMD lanceert Mobility Radeon HD3400 en HD3600
AMD heeft vandaag de eerste twee Mobility Radeons uit de HD3000-Serie geintroduceerd. Het gaat hier om de energy efficient en thin & light GPUs HD3400 en HD3600. De verwachting is dat de HD3800 snel zal volgen. Alle GPUs zijn DX10.1 compliant en hebben UVD aan boord.
Zoals je op de onderstaande plaatjes kan zien is nu ook het AMD logo zichtbaar op het PCB van de Mobility Radeon!

Mobilty Radeon HD3650

Mobility Radeon HD3450
De Mobility Radeon HD3600 is gebaseerd op de eind deze maand verwachte RV635. Opvallend is dat de Mobility Radeon HD3600 echter minder transistoren aan boord heeft dan z'n voorloper die gebaseerd is op de RV620 ondanks de toegevoegde support voor DirectX10.1. De HD3400 heeft echter weer 1 miljoen transistoren meer dan z'n voorloper de HD2400.
Mobility Radeon HD2600XT -> 390M transistoren
Mobility Radeon HD3600 -> 378M transistoren
Mobility Radeon HD2400XT -> 180M transistoren
Mobility Radeon HD3400 -> 181M transistoren

Productpage: http://ati.amd.com/products/mobilityradeonhd3600/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3600/specs.html

Productpage: http://ati.amd.com/products/mobilityradeonhd3400/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3400/specs.html
AMD heeft vandaag de eerste twee Mobility Radeons uit de HD3000-Serie geintroduceerd. Het gaat hier om de energy efficient en thin & light GPUs HD3400 en HD3600. De verwachting is dat de HD3800 snel zal volgen. Alle GPUs zijn DX10.1 compliant en hebben UVD aan boord.
Zoals je op de onderstaande plaatjes kan zien is nu ook het AMD logo zichtbaar op het PCB van de Mobility Radeon!

Mobilty Radeon HD3650

Mobility Radeon HD3450
De Mobility Radeon HD3600 is gebaseerd op de eind deze maand verwachte RV635. Opvallend is dat de Mobility Radeon HD3600 echter minder transistoren aan boord heeft dan z'n voorloper die gebaseerd is op de RV620 ondanks de toegevoegde support voor DirectX10.1. De HD3400 heeft echter weer 1 miljoen transistoren meer dan z'n voorloper de HD2400.
Mobility Radeon HD2600XT -> 390M transistoren
Mobility Radeon HD3600 -> 378M transistoren
Mobility Radeon HD2400XT -> 180M transistoren
Mobility Radeon HD3400 -> 181M transistoren

Productpage: http://ati.amd.com/products/mobilityradeonhd3600/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3600/specs.html

Productpage: http://ati.amd.com/products/mobilityradeonhd3400/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3400/specs.html
[ Voor 12% gewijzigd door CJ op 07-01-2008 14:38 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
@ CJ, hierboven.
Die videokaarten van laptops zijn wel de meest grappige.
Ksnap alleen niet dat dit wel zo klein kan en een voor een normale pc is ontzettend groot met een dikke koeler erop. Mja het zijn natuurlijk geen high-end kaartjes maar ik denk dat bijv. de 8800GO (GTX versie) niet super veel groter zal zijn.
Die videokaarten van laptops zijn wel de meest grappige.
Gokje waarom een gamelaptop 1000'en kost en een game pc al voor 1000 aardig high-end is.Ted56 schreef op maandag 07 januari 2008 @ 14:56:
@ CJ, hierboven.
Die videokaarten van laptops zijn wel de meest grappige.Ksnap alleen niet dat dit wel zo klein kan en een voor een normale pc is ontzettend groot met een dikke koeler erop. Mja het zijn natuurlijk geen high-end kaartjes maar ik denk dat bijv. de 8800GO (GTX versie) niet super veel groter zal zijn.
Kijk !! Super hier moeten ze snel profijt van maken. Ik gok dat deze weer iets hoger geclockt zijn als de 65nm modellen ? dus ook iets sneller zijn dan de Geforce tegenhangers. Eerst waren ze iets trager. En dan ook DX10.1 dit is wel interessant voor de mid range laptops. Nu hopen dat die HD3800 Mobility snel komt. Ik wil er wel een hebbenCJ schreef op maandag 07 januari 2008 @ 14:34:
AMD lanceert Mobility Radeon HD3400 en HD3600
AMD heeft vandaag de eerste twee Mobility Radeons uit de HD3000-Serie geintroduceerd. Het gaat hier om de energy efficient en thin & light GPUs HD3400 en HD3600. De verwachting is dat de HD3800 snel zal volgen. Alle GPUs zijn DX10.1 compliant en hebben UVD aan boord.
Zoals je op de onderstaande plaatjes kan zien is nu ook het AMD logo zichtbaar op het PCB van de Mobility Radeon!
De Mobility Radeon HD3600 is gebaseerd op de eind deze maand verwachte RV635. Opvallend is dat de Mobility Radeon HD3600 echter minder transistoren aan boord heeft dan z'n voorloper die gebaseerd is op de RV620 ondanks de toegevoegde support voor DirectX10.1. De HD3400 heeft echter weer 1 miljoen transistoren meer dan z'n voorloper de HD2400.
Mobility Radeon HD2600XT -> 390M transistoren
Mobility Radeon HD3600 -> 378M transistoren
Mobility Radeon HD2400XT -> 180M transistoren
Mobility Radeon HD3400 -> 181M transistoren
[afbeelding]
Productpage: http://ati.amd.com/products/mobilityradeonhd3600/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3600/specs.html
[afbeelding]
Productpage: http://ati.amd.com/products/mobilityradeonhd3400/index.html
Spec-sheet: http://ati.amd.com/products/mobilityradeonhd3400/specs.html
Bij de 8800 Go zijn het er 64 en 96 geworden. Vraag me af of dit nog wel een G92 is. Want dan zouden er 128 shaders in zitten. En hoe ze het verbruik dan zo laag gekregen hebben. Want ik vraag me af of een native 112 shader core waar er 96 van aan staan niet zuiniger is dan een 160 shader core waar er 96 van aan staan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
o
Als het alleen op prestatie aankomt wint de gt (in game's) (3dmak06 wint de 3870)
Prijst prestatie wint de 3870 in cfPaprika schreef op maandag 07 januari 2008 @ 11:48:
1 3870 vs 1 8800GT [8800GT wint]
1 3870 vs 8800GT SLI [8800GT wint]
3870CF vs 1 8800GT [3870CF wint]
3870CF vs 8800GT SLI [3870CF wint]
Als het alleen op prestatie aankomt wint de gt (in game's) (3dmak06 wint de 3870)
Maar opzich is het wel wer zo dat je een >2 videokaarten opstelling binnekort waarschijnlijk goedkoper kan bouwen met Crossfire dan met een Sli opstelling. Ik bedoel, je kan toch 3 of 4 HD3870 in CF zetten voor "slechts 700" euro aan de kaarten. Terwijl je voor Tri SLi minimaal een 8800GTX/Ultra moet hebben, en 1 ultra kost nu nog evenveel als 3 HD3870's. Toch?
MBP 2.2 GHz, 2 GB, 8600GT 128mb, Bootcamp Vista, Crumpler Gel Sleeve
Verwijderd
8800GT SLI doet haasje over met 3870CF, geen van beide is echt duidelijk sneller dan de ander.Verwijderd schreef op maandag 07 januari 2008 @ 21:23:
o
[...]
Prijst prestatie wint de 3870 in cf
Als het alleen op prestatie aankomt wint de gt (in game's) (3dmak06 wint de 3870)
Levert die fabrikant wel in NL?N0taFAma schreef op zondag 06 januari 2008 @ 22:22:
[...]
bron
Frank schijnt een hoop te weten over de R680.
After the first glass you see things as you wish they were. After the second you see things as they are not. Finally you see things as they really are, and that is the most horrible thing in the world...
Oscar Wilde
Is er al nieuws vanaf de CES over de R680? Intel en Nvidia hebben al redelijk wat bekend gemaakt in ieder geval!
Klopt. In single opstelling is de 8800GT vaak sneller. In multi-GPU opstelling is het vaak haasje over, wat wel iets zegt over hoe goed CF meeschaalt.Verwijderd schreef op maandag 07 januari 2008 @ 21:58:
[...]
8800GT SLI doet haasje over met 3870CF, geen van beide is echt duidelijk sneller dan de ander.
Alle testen hieronder met Catalyst 7.11 verricht:


Ter vergelijking nog single GPU vs CF:

En ook het stroomverbruik is interessant om te bekijken, zeker met het oog op de HD3870 X2 en de GF9800GX2:

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Vind je? 255W voor een CF opstelling is zo laag dat ik begin te twijfelen of ze wel 100% stressed hebben getest.peakaboo schreef op dinsdag 08 januari 2008 @ 02:39:
Dat stroomverbruik is best wel groot vind ik,
Verwijderd
Bericht van de R680. CoD4 schijnt soepel te draaien @ 2500x1600.
Nog een bericht van de R680, schijnt prima samen te dwerken met Intels X48 (skulltrail) platform. Het zou zelfs mogelijk zijn om 4 kaarten tegelijk te draaien.
Alleen weet ik niet wat Fudzilla precies bedoelt met vier kaarten, twee keer een R680 of vier keer de R680?..
Hopen dat één dezer dagen benches opduiken van de R680, ben benieuwd.
Als CF inderdaad beter presteert dan SLI qua performance scaling en stroomverbruik, dan krijgt de 9800GX2 het nog zwaar..
Zou fijn zijn voor ATI/AMD om weer eens de prestatiekroon te bemachtigen
Al zal dat hoogstwaarschijnlijk niet lang duren met de komst van de G100, alhoewel.. de R700 komt er ook aan natuurlijk.
Ik ben er klaar voor
Nog een bericht van de R680, schijnt prima samen te dwerken met Intels X48 (skulltrail) platform. Het zou zelfs mogelijk zijn om 4 kaarten tegelijk te draaien.
Alleen weet ik niet wat Fudzilla precies bedoelt met vier kaarten, twee keer een R680 of vier keer de R680?..
Hopen dat één dezer dagen benches opduiken van de R680, ben benieuwd.
Als CF inderdaad beter presteert dan SLI qua performance scaling en stroomverbruik, dan krijgt de 9800GX2 het nog zwaar..
Zou fijn zijn voor ATI/AMD om weer eens de prestatiekroon te bemachtigen
Al zal dat hoogstwaarschijnlijk niet lang duren met de komst van de G100, alhoewel.. de R700 komt er ook aan natuurlijk.
Ik ben er klaar voor
[ Voor 19% gewijzigd door Verwijderd op 08-01-2008 08:35 ]
Is het plaatje van stroomverbruik niet een beetje vertekend omdat de nV chipsets een stuk meer stroom vragen dan de Intel chipsets?
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
nvidia chipsets gebruiken meer stroom en worden ook warmer. Het verschil in single 3870 en CF (power) ziet er tevens goed uit.
De oorzaak ligt vooral bij die 680 chipset van nVidia.peakaboo schreef op dinsdag 08 januari 2008 @ 02:39:
Dat stroomverbruik is best wel groot vind ik,
Hoezo? Als je SLI wilt draaien zit je ook aan een Nvidia chipset vast, dus vind ik dat je die er gewoon bij op mag tellen.Oet schreef op dinsdag 08 januari 2008 @ 11:53:
Is het plaatje van stroomverbruik niet een beetje vertekend omdat de nV chipsets een stuk meer stroom vragen dan de Intel chipsets?
Ik vind die resultaten eigenlijk behoorlijk vreemd. Maar 50 watt verschil in load tussen single 8800GT en 8800GT SLI? Die kaarten zuipen ruim 100 watt?
30 Watt verschil tussen single HD3870 en HD3870 CF in idle en stress
30 Watt verschil tussen single HD3870 en HD3870 CF in idle en stress
Dan wel, maar voor single-card kun je dat best testen op hetzelfde bord. Zo zie je wat een single kaart qua power doet.Krizzie schreef op dinsdag 08 januari 2008 @ 12:12:
[...]
Hoezo? Als je SLI wilt draaien zit je ook aan een Nvidia chipset vast, dus vind ik dat je die er gewoon bij op mag tellen.
Verschil meten doe je door alle variabelen hetzelfde te houden behalve die ene die je wil testen. Dit is niet dé manier.
There are 11 kind of people in the world, ones that can read binary, ones that can't and ones that complain about my signature
PC Specs | Mo Murda Squad Clan
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Komt omdat in sli de kaarten maar half werk hoeven te leveren dus minder stroom verbruiken.leonpwner1 schreef op dinsdag 08 januari 2008 @ 12:19:
Ik vind die resultaten eigenlijk behoorlijk vreemd. Maar 50 watt verschil in load tussen single 8800GT en 8800GT SLI? Die kaarten zuipen ruim 100 watt?
30 Watt verschil tussen single HD3870 en HD3870 CF in idle en stress![]()
Het word verdeeld over bijde kaarten als het goed is?. Als dat niet zo zou zijn zouden we niet eens sli kunnen draaien met een 600watt voeding en 2 gt's
Het werkt wordt verdeelt, maar daardoor hoeven ze toch niet half te werken? Anders zou je mindere prestaties hebben... 50% + 50% ipv 100% + 100%Verwijderd schreef op dinsdag 08 januari 2008 @ 12:53:
[...]
Komt omdat in sli de kaarten maar half werk hoeven te leveren dus minder stroom verbruiken.
Het word verdeeld over bijde kaarten als het goed is?. Als dat niet zo zou zijn zouden we niet eens sli kunnen draaien met een 600watt voeding en 2 gt's
Verwijderd
Ze hoeven iig minder werk te verrichten dan een single kaart laat ik het zo zeggen. Elke kaart moet 1 helft van het beeld renderen. Zo blijft er extra rekenkracht over voor andere dingen. Nu weet ik niet of dat wel benut wordleonpwner1 schreef op dinsdag 08 januari 2008 @ 13:01:
[...]
Het werkt wordt verdeelt, maar daardoor hoeven ze toch niet half te werken? Anders zou je mindere prestaties hebben... 50% + 50% ipv 100% + 100%
[ Voor 10% gewijzigd door Verwijderd op 08-01-2008 13:08 ]
Juist ja, maar die extra rekenkracht wordt toch omgezet in meer frames, anders zou SLI/Crossfire geen FPS winst opleverenVerwijderd schreef op dinsdag 08 januari 2008 @ 13:07:
[...]
Ze hoeven iig minder werk te verrichten dan een single kaart laat ik het zo zeggen. Elke kaart moet 1 helft van het beeld renderen. Zo blijft er extra rekenkracht over voor andere dingen. Nu weet ik niet of dat wel benut word
Misschien een CPU bottleneck in die benchmark opstelling.. Er staat immers niet bij hoe die idle en load zijn gemeten. Als je 3DMark06 draait op 1280x1024 met een E6600 en twee van die high-end kaarten, dan zou de videokaart inderdaad wel eens minder hard aan het werk zijn dan op een 1920x1200 resolutie..leonpwner1 schreef op dinsdag 08 januari 2008 @ 13:13:
[...]
Juist ja, maar die extra rekenkracht wordt toch omgezet in meer frames, anders zou SLI/Crossfire geen FPS winst opleverenLijkt me stug dat een 2e videokaart maar 30 watt extra verbruikt...
Edit:
Net even gemeten. Op 1024x768 verbruikt mijn bak 520-540 watt, op 1920x1080 is dat 540-560 watt. Verschil is dus minimaal. De E6600 draait op 3GHz en de videokaarten op stock.
Ohja, en idle verbruikt het systeem 320 watt ongeveer. Daar kun je wel 10 laptops op laten draaien lol
[ Voor 25% gewijzigd door frankknopers op 08-01-2008 13:43 ]
Goud is geen geld
Verwijderd
Mijjn E6600 op 3.7gig is idd een bottlenek op 1280x1024 in 3dmark06. Ik heb hier geen stroom meter helaas anders had ik het wel ff getest.frankknopers schreef op dinsdag 08 januari 2008 @ 13:27:
[...]
Misschien een CPU bottleneck in die benchmark opstelling.. Er staat immers niet bij hoe die idle en load zijn gemeten. Als je 3DMark06 draait op 1280x1024 met een E6600 en twee van die high-end kaarten, dan zou de videokaart inderdaad wel eens minder hard aan het werk zijn dan op een 1920x1200 resolutie..
//Pakt stroommeter en gaat het gelijk even testen op zijn eigen bak
Frank thanks, ik ben beniewd wat dat effectief nou extra neemt CF! 30W zou ideaal zijn
Ik zit ook over CF te denken, 2 problemen:
1)
Ik heb een Antec NeoHE 430W
wel goede voeding dus verwacht wel wat van
er is volgens mij veel overkill in voedingen
2)
mijn tweede PCI lane is maar x4
heb al in HD38xx topic gevraagd wat effect voor mij is
wel wat info gevonden maar weet niet hoe groot real negatief effect is bij gamen
Ik zit ook over CF te denken, 2 problemen:
1)
Ik heb een Antec NeoHE 430W
wel goede voeding dus verwacht wel wat van
er is volgens mij veel overkill in voedingen
2)
mijn tweede PCI lane is maar x4
heb al in HD38xx topic gevraagd wat effect voor mij is
wel wat info gevonden maar weet niet hoe groot real negatief effect is bij gamen
PC: LianLi O11D evo, Corsair HX1500i, Asus ROG Z790-A, i7-14700KF, 48GB DDR5 Corsair PC7400, MSI RTX5090 Suprim Liquid, Samsung 990pro 1+2TB, LG 42OLEDC4 *** HCS: LG 83OLEDG2, Marantz Cinema 40, B&W (702S2 HTM71S2 705S2 DB4S), Project X2B-at33ptg2, DS3B
Die test is ook niet helemaal eerlijk. nForce 680i zuip platform vs zuinigere X38. Mja tis ook wel weer zo dat als je SLi wilt je niet anders kan 
Over de prestatie. 4x PCIe is wel weinig denk dat je wel een hit krijgt van 15-25% in performance in sommige gevallen.
Ik vind het wel krap hoor. Maar kijk even wat je PC nu trekt of hij het aan kan ik zou toch liever een nieuwe psu kopen bv een Coolermaster realpower pro 650 watt of zo. Ik had X1900 XTX CF met een 550 watt voeding en die trok al iets van 500 watt. En dat was zonder CPU en VGA OC. Een beetje overgeclockte Q6600 met verhoogde v-core zuipt al 80 watt meer. Dus reken maar uit.Tonton schreef op dinsdag 08 januari 2008 @ 13:41:
Frank thanks, ik ben beniewd wat dat effectief nou extra neemt CF! 30W zou ideaal zijn
Ik zit ook over CF te denken, 2 problemen:
1)
Ik heb een Antec NeoHE 430W
wel goede voeding dus verwacht wel wat van
er is volgens mij veel overkill in voedingen
2)
mijn tweede PCI lane is maar x4
heb al in HD38xx topic gevraagd wat effect voor mij is
wel wat info gevonden maar weet niet hoe groot real negatief effect is bij gamen
Over de prestatie. 4x PCIe is wel weinig denk dat je wel een hit krijgt van 15-25% in performance in sommige gevallen.
[ Voor 78% gewijzigd door Astennu op 08-01-2008 13:51 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Release al op 24 januari? Dat is over 2 weken! Nou dan mogen de eerste benchmarks wel is lekken lol, ben heel erg benieuwd.
Verwijderd
Die ziet er erg netjes uit het is net een uitgerekte HD 2900 XT waarbij de windtunnel iets versmald is
ook wel een nette shot, qua stroom verbruik zal deze iig iets zuiniger zijn als een HD 2900 XT Rev.A3
Maar het zien van de R680 als een refresh van de R600 is ook geen goede inzicht het is toch meer een refresh van de RV670 aan de ene kant? aan de andere kant meer een dubbele RV670 heh, een refresh van de R600 zal dan iig niet komen als men verwacht hadden, niet, wel?
[ Voor 18% gewijzigd door Verwijderd op 08-01-2008 14:07 ]
Zijn het dan ook echt R680 chips die er op zitten of gewoon RV670 die exact hetzelfde zijn als de chips op de huidige HD3870 kaarten. Want in dat geval vraag ik me echt af waarom ze het R680 noemen of die dat R680 inc het PCB ? Normaal hadden PCB's losse namen. Ben benieuwd of een HD3870 X2 als CF uitgeschakeld is nog iets sneller is als een HD3870 misschien nog wat tweaks of zo. Al denk ik van niet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit topic is gesloten.
Let op:
Dit is GoT en geen kleuterschool... dus:
- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten
Dit is GoT en geen kleuterschool... dus:
- geen basic vraagjes die makkelijk via (in-topic) search te vinden zijn
- geen gezever over winkels of levertijden
- post on-topic, onderbouwd en vriendelijk of post niet
- vergelijkingen met non-ATi kaarten mag altijd, maar ga daarbij ongeacht resultaten niet trollen
- als je een ander uitmaakt voor fanboy kun je direct een Officiele Waarschuwing verwachten