Hahaha, idd, ik had het levensgrote CJ logo niet eens gezien, had hij ook wel even GOT de primeur kunnen gevenApoca schreef op maandag 02 juni 2008 @ 23:27:
Is nooit gepost hier op Tweakers.net![]()
Komt wel van CJ zelf af op het Beyond3D forum.
http://forum.beyond3d.com...php?p=1169627#post1169627
Hij was op z'n tenen getrapt door Cassius een paar paginas hiervoor.mdcobra schreef op dinsdag 03 juni 2008 @ 00:25:
[...]
Hahaha, idd, ik had het levensgrote CJ logo niet eens gezien, had hij ook wel even GOT de primeur kunnen geven
Wel bij de les blijven!
Life is what you others make it.
Total Board Power voor de GTX 280 is 236W. Onder LOAD verbruikt hij echt heel erg veel....Jim423 schreef op dinsdag 03 juni 2008 @ 00:11:
Wel vreemd dat ze het eerst over 240W hadden
Nu zou je dus aan een 500W PSU meer dan genoeg hebben.
Waarom denk je dat NV straks bij de GTX 280 launch vooral de nadruk gaat leggen op het IDLE verbruik? Om de aandacht af te leiden van het enorme stroomverbruik van de GTX 280... dat is zelfs nog meer dan de R600...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Daarentegen als je gaat kijken hoe vaak je PC @ full load games draait dan valt dat al met al wel mee...
Je kan bij wijze van spreken beter 10 uur idle @ 25W draaien en 1 uur @ 250W dan 10u @ 80W en 1u @ 150.
De PC staat toch best vaak te idlen.
Je kan bij wijze van spreken beter 10 uur idle @ 25W draaien en 1 uur @ 250W dan 10u @ 80W en 1u @ 150.
De PC staat toch best vaak te idlen.
[ Voor 8% gewijzigd door Format-C op 03-06-2008 06:44 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Euhm, ja. Da's wel van diezelfde bron als die 'officiële grafiekjes' he 
Als dit het idle-getal zou zijn zou het netjes zijn, maar die load-getallen. Moet dat nou? Allemaal aan de zuinige CPU's, voedingen en moederborden, en dan krijg je dit er nog bij
Als dit het idle-getal zou zijn zou het netjes zijn, maar die load-getallen. Moet dat nou? Allemaal aan de zuinige CPU's, voedingen en moederborden, en dan krijg je dit er nog bij

He'll livefalling_down schreef op dinsdag 03 juni 2008 @ 01:08:
[...]
Hij was op z'n tenen getrapt door Cassius een paar paginas hiervoor.
Wel bij de les blijven!
Maar ik vat die slide niet helemaal. "Power efficiency" - dat zegt meer iets als performance per watt yes? Anders gebruik je het woord efficient niet. Maar volgens mij zijn de getallen bij idle en bluray gewoon de verbruik getallen. maar dat getal bij 3dm06 valt me op.
Als dat ding zoveel stroom gaat verbruiken als CJ zegt dat ie gaat verbruiken, dan is 147Watt in 3DM wel heel weinig niet? En hoe moet ik dat getal anders zien? Hij wordt toch niet maar half gestressed door 3DM (dat zou zeer vreemd zijn)

De meeste mensen deugen!
Ondersteunen die drivers ook physics voor de G80 en de G92 kaarten?The Source schreef op maandag 02 juni 2008 @ 18:46:
Vanmiddag meeting met Roy Tailor van nVidia gehad (in Taipei). Ik roep het al wat langer en na de meeting en demo's van deze middag ben ik wederom overtuigd. nVidia heeft met Cuda en Physix een enorm sterk product. Uiteraard heb ik alle marketing en sales praat eruit gefilterd maar alles klinkt erg goed. CUDA is een programmeer taal om parallel dingen sneller te laten verlopen. Voor consumenten is dit niet zo interessant (afgzien van wat conversietools en piclens, etc) maar voor bedrijven wel, hier ook het voorbeeld van die belgische gasten met hun Fastra PC. Maar wat helemaal interessant is is PhysiX. De driver die dit enable zal binnen een paar weken gereleased worden (guess GT200 launch) en geeft de kaart in Vantage een extra push (daar wordt Physics ook in de score meegenomen). Daarnaast zal NV tegen kerstmis zo'n 25 titels op de markt hebben met support hiervoor. Ik heb demos gezien (mag geen namen noemen) die er ERG goed uitzien. Naast Agiea hebben ze ook een deal gesloten met euphoria engine (not sure of ik het goed schrijf) en dit komt in Q3 uit. De volgende stap is AI op de VGA kaart, ook al een simpele demo van gezien. Kortom nVidia gaat met CUDA hun vga kaarten erg interessant maken, iets dat Intel niet kan (voorlopig gaan VGA) en AMD ook niet (geen middleware voor physics, maar vooral !!! geen releatie met game developers). Nu moet ik mijn oogjes gaan sluiten

Dat hebben ze ooit beloofd iig
JaGurneyhck schreef op dinsdag 03 juni 2008 @ 09:31:
[...]
Ondersteunen die drivers ook physics voor de G80 en de G92 kaarten?
Dat hebben ze ooit beloofd iig
Computerbase geeft aan dat het verbruik nog wel eens lager zo kunnen uitvallen dan dat van de 3870X2.CJ schreef op dinsdag 03 juni 2008 @ 01:34:
Total Board Power voor de GTX 280 is 236W. Onder LOAD verbruikt hij echt heel erg veel....
Waarom denk je dat NV straks bij de GTX 280 launch vooral de nadruk gaat leggen op het IDLE verbruik? Om de aandacht af te leiden van het enorme stroomverbruik van de GTX 280... dat is zelfs nog meer dan de R600...
En zelfs er van uit gaande dat de GTX280 wat meer verbruikt dan de 3870X2: gezien de verwachte prestatieverhouding van 3870X2 : GTX280 (= 1 : 1,8) lijkt me dit volkomen gerechtvaardigd. De performance per Watt verhouding van de GTX280 is hoe dan ook veel beter dan die van de 3870X2... en al helemaal als we idle verbruik gaan meerekenen.
Klagen over de hoeveelheid watt's is leuk, maar die watt's staan nog altijd in verhouding tot een performancecijfer dat blijkbaar constant voor het gemak uit het oog wordt verloren. Bij de 2900XT was dit performancecijfer per watt ronduit dramatisch. De (naar verhouding) bijster slecht presterende 2900XT verbruikte irl net zoveel watt's als het GTX280 tdp, tegen vrm minder dan 1/3 van de performance ervan... alleen toen hoorden we je om een of andere reden nauwelijks over dat 'enorme stroomverbruik'
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Nu nog wat benches.... 
Edit:
wel raar dat de GEHELE kaart bedekt is, en dat zelfs het PCB (de achterkant) is afgedekt...
Edit 2:
ach ja, daar zitten natuurlijk OOK geheugenmodules...
Edit:
wel raar dat de GEHELE kaart bedekt is, en dat zelfs het PCB (de achterkant) is afgedekt...

ach ja, daar zitten natuurlijk OOK geheugenmodules...
[ Voor 100% gewijzigd door Format-C op 03-06-2008 11:51 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
de kaarten worden steeds meer ingepakt. en waarom? kijk dat de bovenkant dicht is snap ik, vanwege de radiale fan de de lucht direct naar buiten toe blaast, maar het is gewoon steeds meer een computertje aan het worden in plaats van een insteekkaart.
Qua uiterlijk vind ik er weinig erotisch meer aan...
Qua uiterlijk vind ik er weinig erotisch meer aan...
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Warmte heeft zo maar 1 weg en dat is naar buiten. Anders heb je overal kieren en dan wordt de warmte alsnog in de kast geblazen (zoals bij de 8800GTX).RappieRappie schreef op dinsdag 03 juni 2008 @ 11:45:
Nu nog wat benches....
Edit:
wel raar dat de GEHELE kaart bedekt is, en dat zelfs het PCB (de achterkant) is afgedekt...
Zie toch nog kieren genoeg in de coverbiobak schreef op dinsdag 03 juni 2008 @ 17:38:
[...]
Warmte heeft zo maar 1 weg en dat is naar buiten. Anders heb je overal kieren en dan wordt de warmte alsnog in de kast geblazen (zoals bij de 8800GTX).
Snap alleen niet dat ze niet eens een fatsoenlijke oplossing zoeken voor de fan.
Moet je je dit weer eens voorstellen in tri-sli, waar moet zo'n heethoofd dan zijn lucht vandaan pakken?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
They just want to put you some ultra expensive liquid cooing system up in your ass so they help sales from their othar yelow friends

[ Voor 39% gewijzigd door dion_b op 04-06-2008 11:34 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Als je geen engelse zin kunt schrijven, probeer het dan ook nietHekking schreef op dinsdag 03 juni 2008 @ 18:47:
They just want to put you some ultra expensive liquid cooing system up in your ass so they help sales from their othar yelow friends![]()
Je zult dan een beste airflow in je pc moeten hebben idd.justifire schreef op dinsdag 03 juni 2008 @ 18:26:
[...]
Zie toch nog kieren genoeg in de cover
Snap alleen niet dat ze niet eens een fatsoenlijke oplossing zoeken voor de fan.
Moet je je dit weer eens voorstellen in tri-sli, waar moet zo'n heethoofd dan zijn lucht vandaan pakken?
Wilde het net niet zeggenleonpwner1 schreef op dinsdag 03 juni 2008 @ 19:10:
[...]
Als je geen engelse zin kunt schrijven, probeer het dan ook niet
WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream
Dat zijn het ook. Alleen dan hele krachtige computertjes.Deathchant schreef op dinsdag 03 juni 2008 @ 17:31:
maar het is gewoon steeds meer een computertje aan het worden in plaats van een insteekkaart.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Nog even, dan prikken we het moederbord op de videokaartRappieRappie schreef op dinsdag 03 juni 2008 @ 19:18:
[...]
Dat zijn het ook. Alleen dan hele krachtige computertjes.
Tijd voor een cpu socket aan de bovenzijde van de kaart ?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Had ik hier al gezegd dat NV de score in 3DM Vantage op de Extreme Preset sinds de laatste driver heeft weten op te krikken van X4100 naar X4800? Hier kunnen ze waarschijnlijk nog ongeveer 1000 punten bij sprokkelen wanneer PhysX geactiveerd wordt op de GPU.
Of dit echter mee wordt geteld in de eindscore is nog maar de vraag en dat is waar Futuremark zich nu over moet buigen. Als de GPU namelijk aan het werk wordt gezet om PhysX te activeren, dan gaat de CPU score flink omhoog en niet de GPU score. Dus daar waar de GPU en CPU score apart gehouden zouden moeten worden en een losse PPU alleen de CPU score zou moeten beinvloeden, gaat nu de GPU dus ook de CPU beinvloeden en dat is niet de bedoeling in 3DMark Vantage.
Door PhysX te activeren zou de GTX 280 echter wel iets meer kunnen scoren dan een R700 (HD4870X2) die volgens mijn welingelichte Canadeze bronnen nu rond de X5500> scoort.
Of dit echter mee wordt geteld in de eindscore is nog maar de vraag en dat is waar Futuremark zich nu over moet buigen. Als de GPU namelijk aan het werk wordt gezet om PhysX te activeren, dan gaat de CPU score flink omhoog en niet de GPU score. Dus daar waar de GPU en CPU score apart gehouden zouden moeten worden en een losse PPU alleen de CPU score zou moeten beinvloeden, gaat nu de GPU dus ook de CPU beinvloeden en dat is niet de bedoeling in 3DMark Vantage.
Door PhysX te activeren zou de GTX 280 echter wel iets meer kunnen scoren dan een R700 (HD4870X2) die volgens mijn welingelichte Canadeze bronnen nu rond de X5500> scoort.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nette score van die R700... Alleen jammer dat Quad CF (nog) zo slecht schaalt. Ik denk dat 2 GTX280's in SLi sneller zijn dan 2 HD4870X2's in QCF.
En over dat Futuremark; aan al hun benchmarks mankeert wel íets. Zo is 3DM06 ook veel te CPU afhankelijk...
Crysis/ game benches zouden beter zijn om de performance te checken imho.
En over dat Futuremark; aan al hun benchmarks mankeert wel íets. Zo is 3DM06 ook veel te CPU afhankelijk...
Crysis/ game benches zouden beter zijn om de performance te checken imho.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Los van het feit dat het laatste stuk nogal rascistisch overkomtleonpwner1 schreef op dinsdag 03 juni 2008 @ 19:10:
[...]
Als je geen engelse zin kunt schrijven, probeer het dan ook niet
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Fudzilla komt met het bericht dat GTX260 misschien 210 shaders krijgt (i.p.v. de eerdergenoemde 192).
Ook schijnt nV hun physics support flink te gaan 'uitbuiten' via TWIMTBP.It also looks that Geforce GTX 260 should end up with 210 Shaders, but we still haven’t confirmed this number. If you assume that GT200 or D10U chip has eight clusters and if you disable one you end up with 210 Shaders.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik heb 't probleem dat mijn videokaart vrij warm wordt, richting de 90 graden onder load in spelletjes en ik vermoed dat dat ook de reden is waarom ik wel eens een bsod krijg en dat is vrij vervelend tijdens mmorpg's
ik heb 2 8800GTX in SLI, iemand die ideeen heeft of deze hoge temperaturen inderdaad de oorzaak van de crashes zijn en wat ik eraan kan doen? Ik heb al m'n kast open gehad en zo op 't 1e gezicht is stof niet een probleem, hij kan voldoende lucht aanzuigen.
Zou onderclocken van de videokaart helpen? En ik vermoed dat de langzaam oplopende temperatuur op m'n kamer ook een oorzaak is, als ik die weet te verlagen naar 15-18 graden, maakt dat echt veel uit, of zou dat weinig effect sorteren?
ik heb 2 8800GTX in SLI, iemand die ideeen heeft of deze hoge temperaturen inderdaad de oorzaak van de crashes zijn en wat ik eraan kan doen? Ik heb al m'n kast open gehad en zo op 't 1e gezicht is stof niet een probleem, hij kan voldoende lucht aanzuigen.
Zou onderclocken van de videokaart helpen? En ik vermoed dat de langzaam oplopende temperatuur op m'n kamer ook een oorzaak is, als ik die weet te verlagen naar 15-18 graden, maakt dat echt veel uit, of zou dat weinig effect sorteren?
Tuurlijk.Cheetah schreef op woensdag 04 juni 2008 @ 11:41:
Fudzilla komt met het bericht dat GTX260 misschien 210 shaders krijgt (i.p.v. de eerdergenoemde 192).

Hij heeft deze slides dus duidelijk nog niet in handen.

Hij gaat uit van 8 clusters van 30 shaders. Dat klopt niet. Het zijn 10 clusters van 24, zoals je ook kan zien op de die-shot die ik vorige week gelekt heb. De 280 heeft alle 10 geactiveerd (24x10=240). De 260 heeft er 8 geactiveerd (en 8x24=192)
Check een eerdere post van The Source.. oud nieuws.Ook schijnt nV hun physics support flink te gaan 'uitbuiten' via TWIMTBP.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CJ, waarom is het zo dat de core speeds niet meer zo hard omhoog gaan? Volledig inherent aan het productie proces dat nog steeds op 65nm zit en gewoon echt niet harder kan? Ik heb G80Ultra's soms prima 650 zien doen bijvoorbeeld. Lijkt me best een significant verschil 75MHz al mag ik de cores niet 1 op 1 vergelijken.
Ben benieuwd 183W + dual slot wat voor temperaturen dit oplevert tijdens load/idle. Fan lijkt redelijk identiek aan 9800GTX; al kan ik niet duidelijk zien of hij ook lichtelijk onder een hoek staat. Zal wel niet wonderbaarlijk stil / anders zijn als de vorige generatie.
Ben benieuwd 183W + dual slot wat voor temperaturen dit oplevert tijdens load/idle. Fan lijkt redelijk identiek aan 9800GTX; al kan ik niet duidelijk zien of hij ook lichtelijk onder een hoek staat. Zal wel niet wonderbaarlijk stil / anders zijn als de vorige generatie.
De meeste mensen deugen!
De GPU is gewoon enorm groot... en het wordt steeds moeilijker om deze hoger te klokken, want grotere oppervlaktes moeten dan op hogere kloksnelheden lopen... hierdoor krijg je meer hotspots... en tja... dan loop je op een gegeven moment tegen limieten aan, tenzij je een mega-cooler er op zet... voltages hoger gooit... maar ja, dat kan dan weer een negatief effect hebben.... m.a.w. grote complexe chips hoger klokken kan vrij moeilijk zijn....
Vergeet niet dat de GT200 wel meer dan 2x zo veel transistoren heeft als de G80 die in de GF8800U zit op hetzelfde proces.
Vergeet niet dat de GT200 wel meer dan 2x zo veel transistoren heeft als de G80 die in de GF8800U zit op hetzelfde proces.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heb je misschien ook zo'n slide voor GTX280. Vind het bijzonder interessant namelijk, kan hem niet vinden in het topic dus zover ik weet heb je die nog niet gepost
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Vond het inderdaad ook al een vreemd berichtCJ schreef op woensdag 04 juni 2008 @ 14:57:
Tuurlijk.
[afbeelding]
Hij heeft deze slides dus duidelijk nog niet in handen.![]()
Hij gaat uit van 8 clusters van 30 shaders. Dat klopt niet. Het zijn 10 clusters van 24, zoals je ook kan zien op de die-shot die ik vorige week gelekt heb. De 280 heeft alle 10 geactiveerd (24x10=240). De 260 heeft er 8 geactiveerd (en 8x24=192)
Sowieso is de hoeveelheid shaderprocessors bij nV (per cluster) tot nu toe altijd een veelvoud van 4 geweest. 30 per cluster zou dus een ietwat vreemde eend in de bijt zijn.
Idd, maar kan geen kwaad om er een 2e bron bij te vermelden tochCheck een eerdere post van The Source.. oud nieuws.
Er moet altijd een afweging worden gemaakt met corespeed afgezet tegen prestaties, yields, stroomverbruik en warmte-ontwikkeling. De bedoeling is om 260/280 toch in redelijk grote oplage te gaan slijten. Je wilt dan zeker weten dat de yields je daarbij niet enorm in de weg gaan zitten.Cassius schreef op woensdag 04 juni 2008 @ 15:09:
CJ, waarom is het zo dat de core speeds niet meer zo hard omhoog gaan? Volledig inherent aan het productie proces dat nog steeds op 65nm zit en gewoon echt niet harder kan?
Ik heb G80Ultra's soms prima 650 zien doen bijvoorbeeld. Lijkt me best een significant verschil 75MHz al mag ik de cores niet 1 op 1 vergelijken.
De chips kunnen dus vrijwel zeker wel harder, maar vermoedelijk is het gelet op yields en investering in koeling (tdp) voor nV niet zo interessant om de 280 en 260 stock harder te laten lopen. Qua absolute performance maakt het vermoedelijk ook niet veel uit. Een ruime performancekroon blijft een ruime performancekroon, of het nou om 30 of 35% gaat (even fictief). Voorlopig zijn de huidige clocks dus genoeg.
De 8800 Ultra Extreme waar je het over hebt was er in beperkte oplage (Vendor specific) voor die-hard gamers die bereid waren om een kapitaal te besteden. Waarschijnlijk zullen er ook wel Vendor overclocked versies van GTX260 en 280 komen voor de liefhebbers. En wie weet tegen introductie van R700 een hoger geklokte 'GTX290' of 'Ultra280'.
Daarnaast is het omhooggooien van corespeed slechts 1 van de vele manieren om performancewinst te boeken. 260/280 doen het op slechts iets hogere clockspeeds, maar wel met 2x zo veel shaders als hun G80 voorgangers plus een aanmerkelijk wijdere bus. Als je ter vergelijk naar intel/amd kijkt dan is het toch ook niet vreemd dat bijv. hun quadcores in absolute clockspeeds wat trager zijn dan de dualcores?
GTX260 heeft vrijwel exact hetzelfde TDP als de 8800GTX. Koeling zal dus ook wel in die richting zitten.Ben benieuwd 183W + dual slot wat voor temperaturen dit oplevert tijdens load/idle. Fan lijkt redelijk identiek aan 9800GTX; al kan ik niet duidelijk zien of hij ook lichtelijk onder een hoek staat. Zal wel niet wonderbaarlijk stil / anders zijn als de vorige generatie.
[ Voor 55% gewijzigd door Cheetah op 04-06-2008 16:36 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Klopt. Kan geen kwaad, maar Fudo noemt zo veel dingen... ook foute dingen (zie boven) dat bepaalde dingen niet echt geloofwaardig over komen.
@ Jim423, ja die heb ik ergens liggen. Maar verschilt niet zo veel.
shaderaantal op 240
core graphics clock op 602
shaderspeed op 1296Mhz
memclock op 1107Mhz
memory op 1GB GDDR3
Powerconnector: 1x8pin + 1x6 pin
Board Power 236W
@ Jim423, ja die heb ik ergens liggen. Maar verschilt niet zo veel.
shaderaantal op 240
core graphics clock op 602
shaderspeed op 1296Mhz
memclock op 1107Mhz
memory op 1GB GDDR3
Powerconnector: 1x8pin + 1x6 pin
Board Power 236W
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat is de reden (ik blijf vragen stellen, opslurpen die info) dat die clocks zo raar zijn? Is dat gewoon een wetenschappelijke formule/berekening die berekent op welke frequentie de beste performance / yield verhouding ligt? Want 602/1296/1107 bekt toch echt niet lekker, waarom dan niet 600/1300/1100CJ schreef op woensdag 04 juni 2008 @ 16:25:
Klopt. Kan geen kwaad, maar Fudo noemt zo veel dingen... ook foute dingen (zie boven) dat bepaalde dingen niet echt geloofwaardig over komen.
@ Jim423, ja die heb ik ergens liggen. Maar verschilt niet zo veel.
shaderaantal op 240
core graphics clock op 602
shaderspeed op 1296Mhz
memclock op 1107Mhz
memory op 1GB GDDR3
Powerconnector: 1x8pin + 1x6 pin
Board Power 236W

De meeste mensen deugen!
GTX260 in actie (techdemo). Wel Italiaans helaasch
:
http://translate.google.i...hl=it&ie=UTF8&sl=it&tl=en

http://translate.google.i...hl=it&ie=UTF8&sl=it&tl=en
[ Voor 12% gewijzigd door Format-C op 04-06-2008 20:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Kan je misschien even vertalen wat hij zegt?RappieRappie schreef op woensdag 04 juni 2008 @ 20:04:
GTX260 in actie (techdemo). Wel Italiaans helaasch:
http://translate.google.i...hl=it&ie=UTF8&sl=it&tl=en
-
Hij zegt dat als je de nieuwe glimmer van nvidia koopt, je veranderd in een stenen beeld.markje1 schreef op woensdag 04 juni 2008 @ 22:00:
[...]
Kan je misschien even vertalen wat hij zegt?
Je geld zal verdwijnen in de glimmer en uiteindelijk komt iemand je hoofd er af hakken.
Nou ben benieuwd...
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Zag ik het goed!? Twee zespinsaansluitingen? Mooi, dan hoef ik mij geen zorgen te maken om mijn voeding want ik heb nl. geen Pci-e achtpinsaansluiting zoals op de 9800GX2 vereist is.
Stel je voor, een 280GTX + 850W voeding erbij...dure zaken.
Stel je voor, een 280GTX + 850W voeding erbij...dure zaken.

Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
IK heb eigenlijk momenteel maar 1 grote wens van nVidia en dat is dat ze de wattages nou is flink naar beneden schroeven want een plankje van 200watt vind ik echt ziekelijk. Is het echt zo moeilijk om een kaart niet de 100watt te laten overschreiden? (i guess so...) 
Dus over 4 jaar komt de GeForce 16 met 1024 shaders en 2GB RAM op 400 watt? Krijgt zeker ook meteen een eigen voeding meegeleverd.
Ik ben gek op nVidia kaarten maar aan die wattages moeten ze echt is gaan werken.
Dus over 4 jaar komt de GeForce 16 met 1024 shaders en 2GB RAM op 400 watt? Krijgt zeker ook meteen een eigen voeding meegeleverd.
Ik ben gek op nVidia kaarten maar aan die wattages moeten ze echt is gaan werken.
GTA VI - All aboard the hype train!!
Misschien dat de 55mm versie, die later komt, wat zuiniger is.
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Lekkere Italiaanse fake film..
De 280GTX heeft wel degelijk een 6 -en 8 pinsaansluiting...
Asus P6t / Core i7 @1.800mhz / 3.150mhz, 1.048V / 1.168V waterkoeling / mem: Patriot Viper ddr3, 1600mhz. c8, 3x2gb / 285gtx in SLI / Thermaltake 850W / Dell 30"
Ik betwijfel het.hosee schreef op woensdag 04 juni 2008 @ 23:08:
Misschien dat de 55mm versie, die later komt, wat zuiniger is.
Onder de 200W gaat het toch niet snel komen helaas

Je hebt dus voor SLI zo'n 850W voeding nodig en voor Triple SLI 1000W voeding.
AMD Ryzen 5800X - 32GB DDR4 Corsair RGB - XFX 6900XT - Panasonic HIT 990Wp - AE200L WPB met cv-ondersteuning
Ook hier nog maar eens:Sir_Hendro schreef op woensdag 04 juni 2008 @ 22:59:
IK heb eigenlijk momenteel maar 1 grote wens van nVidia en dat is dat ze de wattages nou is flink naar beneden schroeven want een plankje van 200watt vind ik echt ziekelijk. Is het echt zo moeilijk om een kaart niet de 100watt te laten overschreiden? (i guess so...)
Dus over 4 jaar komt de GeForce 16 met 1024 shaders en 2GB RAM op 400 watt? Krijgt zeker ook meteen een eigen voeding meegeleverd.
Ik ben gek op nVidia kaarten maar aan die wattages moeten ze echt is gaan werken.
Het gebruikte vermogen is geen op zichzelf staand gegeven, maar altijd gerelateerd aan prestaties, ofwel performance per watt. Iets wat nogal vaak vergeten lijkt te worden
De GTX280's tdp betreft evenveel watt's als het verbruik van de 2900XT, tegen naar verwachting 3-4x hogere prestaties. Computerbase geeft aan (speculatief) dat het verbruik om en rond dat van de 3870X2 zal zitten (hetzelfde, net iets minder of net iets meer)... maar de GTX280 is naar verwachting gemiddeld zo'n 1,8x zo snel als de 3870X2.
Al met al wordt de performance/watt verhouding van GTX280 onder load dus zo'n 3-4x beter dan van de 2900XT, en zo'n 1,5-2x beter dan van de 3870X2. Niets om over te klagen dus lijkt me, nog afgezien van dat het idle verbruik van de 280 schreeuwend lager ligt dan van de 2 eerdergenoemde
Gaan we vergelijken met een 8800GTX, dan heeft de GTX280 een tdp dat ~25% hoger ligt (~187 vs 236W). Prestatiewise gezien zal de 280 naar verwachting echter sneller zijn dan 8800GTX SLI. Dan wordt het plots 374W vs 236W, en ziet die 236W er voor zijn prestaties juist heel aantrekkelijk uit.
Je kunt geen Ferrari prestaties verwachten tegen het verbruik van een Prius. Net zo bij videokaarten. Beetje realistisch blijven dus. Vind je het verbruik te hoog, en wil je minder dan 100W load dan staat het je vrij naar een 9600GT te kijken. Zijn de prestaties dan ook wel naar natuurlijk
Komt nog bij dat het idle verbruik (en de kaart zal meestal idle draaien) van de GT200 veel lager is dan dat van de vorige generatie. Al met al ben je qua totaalverbruik dus toch zuiniger af, ondanks het piekverbruik van de 280 hoger ligt.
[ Voor 5% gewijzigd door Cheetah op 05-06-2008 00:27 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Hahaha jij past zo in het marketing plan van nVidia! Ik zou bijna denken dat je daar op de loonrol staat.
Dat gegeven staat wél op zichzelf. Je kan het wel blijven vergelijken met oude hardware, maar hij verbruikt gewoon VEEL. Punt. Als er over 6 jaar een nieuwe generatie uitkomt, die een kilowatt voeding nodig heeft, maar wél 6x sneller is dan de 280... kom jij dan nog met precies dezelfde beredenatie?Cheetah schreef op donderdag 05 juni 2008 @ 00:20:
[...]
Ook hier nog maar eens:
Het gebruikte vermogen is geen op zichzelf staand gegeven, maar altijd gerelateerd aan prestaties, ofwel performance per watt.
Life is what you others make it.
Laten we het zo zeggen. Momenteel krijg je voor 1 watt 4 prestatie punten maar waarom zou nVidia dat niet zo zuinig maken dat voor 4 prestatie punten nog maar slechts 0,5 nodig is of wel 1 watt en 8 prestatie punten. Intel en VIA zijn hard bezig met zuinige chips maar nVidia wil alleen maar ATi ownen door steeds meer benzine in de tank te gooien terwijl de temps de pan uit reizen. De nieuwe koeling van de toekomst wordt 60 heatpipes met een grote fan die door een Rolls Royce motor wordt aangedreven. Maar dan heb je ook wat! (naast een hogestroomrekening)
Had de Nuon nou niet al iets speciaals voor PC's met nVidia kaarten? Ik hoorde iets over groene stroom?
Had de Nuon nou niet al iets speciaals voor PC's met nVidia kaarten? Ik hoorde iets over groene stroom?
GTA VI - All aboard the hype train!!
Omdat het blijkbaar nog steeds niet opvalt:
We zijn alweer een tijdje over de 500 posts, tijd voor een nieuw deel
We zijn alweer een tijdje over de 500 posts, tijd voor een nieuw deel
Als je stil blijft staan, komt de hoek wel naar jou toe.
Wat een onzin.falling_down schreef op donderdag 05 juni 2008 @ 01:05:
Hahaha jij past zo in het marketing plan van nVidia! Ik zou bijna denken dat je daar op de loonrol staat.
Ik kijk er gewoon realistisch tegenaan in plaats van onrealistisch verwachtingen te hebben.
Ik wijd er net een uitgebreide post aan om uit te leggen waarom het verbruik niet op zichzelf staat, en dat 'weerleg' je met weinig meer dan een 'nietus'Dat gegeven staat wél op zichzelf. Je kan het wel blijven vergelijken met oude hardware, maar hij verbruikt gewoon VEEL. Punt. Als er over 6 jaar een nieuwe generatie uitkomt, die een kilowatt voeding nodig heeft, maar wél 6x sneller is dan de 280... kom jij dan nog met precies dezelfde beredenatie?
Bovendien, waar wil je anders mee vergelijken dan met de vorige generatie? GT200 is naar verhouding een stuk zuiniger dan de vorige generatie. In absoluut verbruik (idle + load) zijn ze ook zuiniger dan de vorige generatie.
Of misschien wil je vergelijken met ATi's zuinige nieuwe RV770 generatie? Ook geen probleem hoor:
TDP GTX280 = 236W
TDP 4850 = 114W ; CrossFire = 228W
TDP 4870 = 157W ; CrossFire = 314W
Prestaties GTX280 naar verwachting tussen 4850CF en 4870CF in, maar dichter bij 4870CF.
Perspectief terug naar (verwachte) performance/watt?
Elke auto verbruikt VEEL in vergelijk met een brommer. Punt. Dus iedereen dan maar uit de auto en aan de brommer met @max 45km/u? Of nee, waarom gaan we niet allemaal gewoon lopen @6km/u: is nog weer zuiniger

Hedendaagse grafische topprestaties tegen 100W verbruik is gewoon een illusie. Wil je perse niet verder dan 100W dan zijn er voldoende alternatieven. Niemand dwingt je een GT200 te kopen, net zoals niemand je dwingt om een Bugatti Veyron te kopen. Wil je echter die 400km/u rijden, dan zul je dat verbruik van die 8L motor op de koop toe moeten nemen. Net zo met die GT200.
Verschil is alleen dat die GT200 wel heel zuinig is als die niet hard hoeft te lopen. In tegenstelling tot de Veyron die constant veel verbruikt. Dus waar er hier nou eigenlijk precies over geklaagd wordt...
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 144949
Kan je eens de volgende vergelijking doen?Cheetah schreef op donderdag 05 juni 2008 @ 02:05:
Of misschien wil je vergelijken met ATi's zuinige nieuwe RV770 generatie? Ook geen probleem hoor:
TDP GTX280 = 236W
TDP 4850 = 114W ; CrossFire = 228W
TDP 4870 = 157W ; CrossFire = 314W
- De GTX280 single versus de 4870 single, hoeveel maal sneller is de GTX280 en hoeveel maal meer verbruikt hij.
- De GTX280 SLI versus de 4870 X2, hoeveel maal sneller is de GTX280 setup en hoeveel maal meer verbruikt hij.
- De GTX280 SLI versus de 4870 CF, hoeveel maal sneller is de GTX280 setup en hoeveel maal meer verbruikt hij.
Denk dat je dan een interessantere performance/watt vergelijking krijgt.
Verder ben ik het er mee eens dat als je prestaties wilt, je er een hoger verbruik moet bijnemen. Én hogere prestaties én lager verbruik zou mooi zijn, maar dat zou er net ruimte zijn om de chip zwaarder en sneller uit te voeren waardoor prestaties (en verbruik) nóg hoger zijn (want er wordt nog altijd meer naar prestaties gekeken dan naar verbruik, marketingsgewijs).
wat nieuws betreft de 280GTX, de EVGA versie heeft snelheden van GPU: 675MHz MEM: 2,2GHz en zal €599 gaan kosten.
en dat haal je waar vandaan?
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
betrouwbare bronnen die ik liever niet vrijgeefDemon_Eyez schreef op donderdag 05 juni 2008 @ 10:57:
en dat haal je waar vandaan?
Nice! Dan zit er dus nog flink headroom in voor overklokken.SamStar schreef op donderdag 05 juni 2008 @ 10:21:
wat nieuws betreft de 280GTX, de EVGA versie heeft snelheden van GPU: 675MHz MEM: 2,2GHz en zal €599 gaan kosten.
Edit; ook zal een Club3D of MSI dan wel een eurootje of 50 goedkoper zijn, aangezien EVGA meestal redelijk prijzig is..
[ Voor 16% gewijzigd door Format-C op 05-06-2008 11:54 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dus 700 hmz is vermoedelijk wel te halen 
Nou, het wordt nu toch onderhand wel tijd voor de eerste echte perf. leaks van PCpop
Nou, het wordt nu toch onderhand wel tijd voor de eerste echte perf. leaks van PCpop
Niet op voorraad.
EVGA is iig wel een leverancier die bijv. bij de G80 launch daadwerkelijk kon leveren.RappieRappie schreef op donderdag 05 juni 2008 @ 11:48:
[...]
Nice! Dan zit er dus nog flink headroom in voor overklokken.Dan moet 700MHz wel te doen zijn.
Edit; ook zal een Club3D of MSI dan wel een eurootje of 50 goedkoper zijn, aangezien EVGA meestal redelijk prijzig is..
Bij dit soort launches vraag ik me af: wil je tegen (geringe?) meerprijs de kaart gelijk hebben of
soms pas flinke tijd later tegen klein prijsvoordeel.
Je moet echt de leveranciers die een goede band met nVidia hebben in de gaten houden.
[ Voor 7% gewijzigd door Help!!!! op 05-06-2008 12:12 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat komt wel goed.
Er zijn 3 a 4 shops in NL die bij launches altijd als eerste kunnen leveren.
XFX, Jetway en MSI kaarten zijn meestal wel beschikbaar op launchday.
Het maakt mij zowieso niks/weinig uit wat ze kosten. Ik wil er 2 hebben op launchday.
Er zijn 3 a 4 shops in NL die bij launches altijd als eerste kunnen leveren.
Het maakt mij zowieso niks/weinig uit wat ze kosten. Ik wil er 2 hebben op launchday.
[ Voor 48% gewijzigd door Format-C op 05-06-2008 12:26 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit is ook een interessante vergelijking, maar wat ik wilde laten uitkomen is dat je voor vergelijkbare performance als de GT200 levert zowel bij de vorige generatie als bij ATi meer Watt's kwijt bent.Anoniem: 144949 schreef op donderdag 05 juni 2008 @ 08:50:
Kan je eens de volgende vergelijking doen?
- De GTX280 single versus de 4870 single, hoeveel maal sneller is de GTX280 en hoeveel maal meer verbruikt hij.
En zelfs als we bovenstaand meenemen, er even van uit gaande dat 4870 ongeveer even snel zou zijn als 3870X2: GTX280 is naar verwachting gemiddeld ongeveer 1,8x zo snel als 3870X2.
1,8x157W (=4870TDP) = 282W. GTX280 heeft een TDP van 236W.
Zelfs als we er van uit gaan dat GTX280 'slechts' 1,5x de perf van 4870 neerzet: 1,5x157W = 236W. Exact gelijkspel dan dus, op performance/watt gebied.
En zelfs als dat niet zo zou zijn: zie jij Bucatti Veyron rijders die zowel de investering doen in die wagen als die 400km/u willen rijden al klagen dat de Porsche Cayman met zijn 3.4L motor 260km/u haalt en dus per km/h efficienter is dan de Veyron met zijn 8L motor?
De GTX280 is niet bedoeld voor Greanpeace activisten, noch voor 'kleinverbruikers' idd. Big deal
Dit lijkt me dan weer aanmerkelijk minder interessant, gezien de perf van een single GTX280 daar vermoedelijk al in de buurt zit. Van 4870X2 hebben we nu trouwens nog geen serieuze indicatie.- De GTX280 SLI versus de 4870 X2, hoeveel maal sneller is de GTX280 setup en hoeveel maal meer verbruikt hij.
- De GTX280 SLI versus de 4870 CF, hoeveel maal sneller is de GTX280 setup en hoeveel maal meer verbruikt hij.
Als je dan weer naar vergelijkbaar performanceniveau wilt kijken moet je GTX280 SLI tegenover Quad CF zetten. Komt nog bij dat tegen de tijd dat 4870X2 uitkomt vermoedelijk de GT200's zijn vervangen door de zuinigere 55nm GT200b.
[ Voor 9% gewijzigd door Cheetah op 05-06-2008 12:49 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Je verwacht dat nVidia binnen 2 maanden met een 55nm GT200b komt? De X2 komt namelijk ongeveer 6 weken na de HD4870.Cheetah schreef op donderdag 05 juni 2008 @ 12:39:
Komt nog bij dat tegen de tijd dat 4870X2 uitkomt vermoedelijk de GT200's zijn vervangen door de zuinigere 55nm GT200b.
Eindelijk, zoals The Source had voorspeld, begin ik nVidia MCP7A chipsets te spottenop Computex!
Vooralsnog zijn het entry mobo's met IGP's, maar het begin is er!
Nu nog een MCP7A-SLI mobo en ik ben blij!
http://www.fudzilla.com/i...sk=view&id=7748&Itemid=69
http://www.fudzilla.com/i...sk=view&id=7746&Itemid=69
Vooralsnog zijn het entry mobo's met IGP's, maar het begin is er!
Nu nog een MCP7A-SLI mobo en ik ben blij!
http://www.fudzilla.com/i...sk=view&id=7748&Itemid=69
http://www.fudzilla.com/i...sk=view&id=7746&Itemid=69
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Volgens de geruchten heeft GT200b zijn tape-out inmiddels al gehad.Da_DvD schreef op donderdag 05 juni 2008 @ 20:21:
Je verwacht dat nVidia binnen 2 maanden met een 55nm GT200b komt? De X2 komt namelijk ongeveer 6 weken na de HD4870.
Het is in nV's belang om vrij snel om te schakelen. Een 55nm chip is zuiniger, kleiner en goedkoper te produceren... en vooral van dat goedkoper zal nV het moeten hebben als ik de ATi prijsstellingen zie
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
http://www.fudzilla.com/i...ask=view&id=7713&Itemid=1
Ziet er naar uit dat we dus toch SLI op Intel chipsets krijgen, ik zie in ieder geval geen andere uitweg voor Nvidia.
Ziet er naar uit dat we dus toch SLI op Intel chipsets krijgen, ik zie in ieder geval geen andere uitweg voor Nvidia.
Intel moet gaan oppassen, zeker met de rechtzaken die ze al hebben lopen vanwege misbruik van hun monopoliepositie...ormagon schreef op vrijdag 06 juni 2008 @ 11:28:
http://www.fudzilla.com/i...ask=view&id=7713&Itemid=1
Ziet er naar uit dat we dus toch SLI op Intel chipsets krijgen, ik zie in ieder geval geen andere uitweg voor Nvidia.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Voor de mensen die het hele GPU Physics gebeuren al even willen uitproberen:
http://www.fun-motion.com/forums/showthread.php?p=58687
Werkt alleen met de 174.55 drivers.
Het werkt hier prima op mijn 8800GT
http://www.fun-motion.com/forums/showthread.php?p=58687
Werkt alleen met de 174.55 drivers.
Het werkt hier prima op mijn 8800GT
[ Voor 9% gewijzigd door Dax op 06-06-2008 14:29 ]
Werkt het ook met een GeForce 7950GT? Of gebruikt het technologie die alleen de GeForce 8/9 series heeft?MasterJR schreef op vrijdag 06 juni 2008 @ 14:28:
Voor de mensen die het hele GPU Physics gebeuren al even willen uitproberen:
http://www.fun-motion.com/forums/showthread.php?p=58687
Werkt alleen met de 174.55 drivers.
Het werkt hier prima op mijn 8800GT
Iedereen weet dat het in het beste belang van nVidia is om zo snel mogelijk naar 55nm om te schakelen. Dat wil echter niet zeggen dat ze er toe in staat zijn. Tussen tape out en massa levering zit toch zeker wel 6 maanden, meen ik mij te herinneren.Cheetah schreef op vrijdag 06 juni 2008 @ 05:02:
[...]
Volgens de geruchten heeft GT200b zijn tape-out inmiddels al gehad.
Het is in nV's belang om vrij snel om te schakelen. Een 55nm chip is zuiniger, kleiner en goedkoper te produceren... en vooral van dat goedkoper zal nV het moeten hebben als ik de ATi prijsstellingen zie
Wat ik op de nVidia presentatie gehoord heb is dat ze het backwards ondersteunen tot de 8 serie ... maar je kan het altijd proberen?leonpwner1 schreef op vrijdag 06 juni 2008 @ 14:44:
[...]
Werkt het ook met een GeForce 7950GT? Of gebruikt het technologie die alleen de GeForce 8/9 series heeft?
De meeste mensen deugen!
Ja ach, nVidia moet niet gaan huilen. Ze houdt SLI ook al jaren voor zichzelf, dus beetje pot verwijt de ketel verhaal.Cheetah schreef op vrijdag 06 juni 2008 @ 11:46:
[...]
Intel moet gaan oppassen, zeker met de rechtzaken die ze al hebben lopen vanwege misbruik van hun monopoliepositie...
Uiteindelijk is de consument momenteel de grootste verliezer van deze wederzijdse stoten onder de gordel.
[ Voor 4% gewijzigd door Demon_Eyez op 06-06-2008 16:06 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
Vind ik ookDemon_Eyez schreef op vrijdag 06 juni 2008 @ 16:04:
[...]
Ja ach, nVidia moet niet gaan huilen. Ze houdt SLI ook al jaren voor zichzelf, dus beetje pot verwijt de ketel verhaal.
Uiteindelijk is de consument momenteel de grootste verliezer van deze wederzijdse stoten onder de gordel.
ik basseer dit op betrouwbare bronnen...
Klopt. In webshops vallen de prijzen nog lager uit btw
De meeste mensen deugen!
Overzichtje:

Gainward 280GTX doos:

Het lijkt erop dat de Gainward ook HDMI heeft trouwens:
http://forums.vr-zone.com/showthread.php?t=285102

Gainward 280GTX doos:

Het lijkt erop dat de Gainward ook HDMI heeft trouwens:
http://forums.vr-zone.com/showthread.php?t=285102
[ Voor 28% gewijzigd door Format-C op 07-06-2008 10:51 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
dat ziet er goed uit. Alleen zegt men NON reference....terwijl het wel een reference board is.
Gainward GTX280:

Reference:

van de gainward zie je dus net niks alleen het voorslotje...alhoewel, je kunt aan de sticker wel zien dat het ongeveer hetzelfde is als de 8800 en 9600 goldensample series
Hier alle foto's:
http://en.expreview.com/2...off-their-gtx-280-boxart/
Ik ben erg benieuwd wat die ATI's gaan doen t.o.v. de nvidia's als ik je lijstje zo bekijk....waarom heeft ati geen problemen met 55nm en nvidia wel?
Ik vind Gainward daarbij sowieso altijd erg uitblinken t.o.v. de rest. Dus ik ben benieuwd wat die gaan doen....en hoe lang we daarop moeten wachten
Gainward GTX280:

Reference:

van de gainward zie je dus net niks alleen het voorslotje...alhoewel, je kunt aan de sticker wel zien dat het ongeveer hetzelfde is als de 8800 en 9600 goldensample series
Hier alle foto's:
http://en.expreview.com/2...off-their-gtx-280-boxart/
Ik ben erg benieuwd wat die ATI's gaan doen t.o.v. de nvidia's als ik je lijstje zo bekijk....waarom heeft ati geen problemen met 55nm en nvidia wel?
Ik vind Gainward daarbij sowieso altijd erg uitblinken t.o.v. de rest. Dus ik ben benieuwd wat die gaan doen....en hoe lang we daarop moeten wachten
[ Voor 51% gewijzigd door Deathchant op 07-06-2008 12:40 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Tja, het moet wel gezegd worden dat die vergelijkingstabel niet helemaal klopt: de 4850 zou 1TFLOPS halen en de 4870 1.2 TFLOPS. Maarja, dat soort dingen kan je altijd moeilijk van te voren zeggen (althans, tot de specs dus echt vast staan.
Die E399 valt me 'n beetje tegen, toch weer dollar=euro. Ik denk dat 250-300 een veel betere zet zou zijn geweest om te concurreren met de 4870.
Die E399 valt me 'n beetje tegen, toch weer dollar=euro. Ik denk dat 250-300 een veel betere zet zou zijn geweest om te concurreren met de 4870.
Systeempje: [MSI P45 Neo2 - Intel C2Q6600@3.2Ghz - OCZ 4GB PC8000 Platinum - Spinpoint F1 750GB - MSI ATi HD4850 - Cooler Master Real Power M620Watt - Antec Solo Piano Black]
Da's precies de reden waarom m'n volgende kaart een HD4870 wordt. Ik kan me veel meer vinden in het prijs beleid van ATi waar de euro niet gelijk staat aan de dollar, zoals bij de prijzen die nVidia hanteert voor EuropaThijs_O schreef op zaterdag 07 juni 2008 @ 12:55:
Die E399 valt me 'n beetje tegen, toch weer dollar=euro.
[ Voor 10% gewijzigd door Demon_Eyez op 07-06-2008 14:26 ]
i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover
En nu is het tijd om af te sluiten. Wie opent een nieuw deel?Ultraman schreef op donderdag 05 juni 2008 @ 01:36:
Omdat het blijkbaar nog steeds niet opvalt:
We zijn alweer een tijdje over de 500 posts, tijd voor een nieuw deel
Dit topic is gesloten.