Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hmmz plaatje is een beetje dood..CJ schreef op 30 maart 2004 @ 09:38:
Ik weet niet of deze al voorbij is gekomen, maar op 3DGPU is de vereiste powersupply voor NV40 gespot: http://www.3dgpu.com/phpbb/viewtopic.php?t=9526
PV: 2550WP | 520WP | een mens lijdt t meest door het lijden dat hij vreest
Bij mij doet t plaatje t prima. Ik vraag me af of er diesel of ongelood in moet.Lief_Adje schreef op 30 maart 2004 @ 09:44:
Hmmz plaatje is een beetje dood..
Ik heb (toen ie 590Euro kostte op informatique, en in de Regenboog 609Euro) deze FX5900Ultra voor 470 weten te krijgen. Hij kostte toen 555 bij Computer cash and carry in Duitsland, ik kreeg via een vriend 16% btw korting (16% is BTW in duitsland).sjek schreef op 29 maart 2004 @ 23:19:
[...]
Weet niet wanneer je jou asus fx 5900 ultra hebt gekocht hoor maar die koste bij z'n introductie ook 530 keiharde euro's dus ik snap je point niet
Dus heb ik toch nog een goeie koop gedaan dacht ik zo, want hij was in november rond de 490Euro dacht ik en zat daar dus nog mooi 20 Euro onder. Ik dacht toen (september 2003) een zeer goeie investering gedaan te hebben en wist niet dat het zo snel zou gaan met de NV40(Ultra).
Omdat ik graag op de hoogte blijf van zulke ontwikkelingen, kan ik het niet laten om deze dan ook te proberen, maar alweer zoveel geld voor de NV40........misschien idd 2 maanden later.....
Maar ik ben bang dat mijn Zalman 400W dan ook niet meer voldoende zal zijn aangezien de NV40 2 power supply connectors nodig heeft............
[ Voor 10% gewijzigd door Deathchant op 30-03-2004 13:07 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Nee 400 watt gaat zeker voldoende zijn maak je daar maar niet druk om als hij nog meer nodig heeft verbrand hij zowat. Het is nog niet eens zeker of dat plaatje dat uit is een echte nv40 is en wie zegt als dat er één was dat hij ook daadwerkelijk op het eindmodel ook 2 heeft. Er wordt echt heel veel negatief over de nv40 gepraat wat ik toch onterecht vind aangezien dat ding nog niet eens uit is.Deathchant schreef op 30 maart 2004 @ 13:04:
[...]
Maar ik ben bang dat mijn Zalman 400W dan ook niet meer voldoende zal zijn aangezien de NV40 2 power supply connectors nodig heeft............
Zo wordt er de r420 ookal helemaal de hemel in geprezen wat ook nog niet kan.
Tja er wordt wat afgespeculeerd maar binnenkort hebben we antwoorden.
Dat valt wel mee, UT200x is voornamelijk CPU-afhankelijk (op de meeste gfx-kaarten) dus er kunnen best wat GFX-features bij.Shunt schreef op 30 maart 2004 @ 09:32:
[...]
zodat nu echt geen enkele pc het fatsoenlijk kan draaien ?
he wat jammer.![]()
je kan in zo'n game niet gaan kwallen met totaal nieuwe tech's dat is altijd geweest. singelplayer games kan dat mp games gewoon niet mp games moeten snel en vloeiend draaien. en daar let je niet op een schaduw of hij wel mooi vouwt over een muurtje.
in games als half life 2 DOOM III unreal 3 enz enz enz daar zul je dit soort dingen tegen gaan komen. over het algemeen allemaal singelplayer games.
Voor de rest heb je wel gelijk, multiplayer games moeten sneller zijn, maar het hoeft niet gelijk een Far Cry te worden natuurlijk
Niet op voorraad.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
NV38 trekt geloof ik iets van 75 Watt. NV40 zou volgens de eerste meldingen zo'n 120 a 150 Watt trekken.Deathchant schreef op 30 maart 2004 @ 15:34:
Bedankt voor je reactie. Hmm.........dan vraag ik me af hoeveel watt een 5950Ultra trekt en als de geruchten waar zijn (over die 2 connectors) lijkt het me sterk dat de NV40 2x zoveel watt trekt
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
2 versiesThought I would pass this to you, our readers. Penstar's Josh has an intersting little comment dated back to the 26th of March about NVIDIA's (soon to be launched) NV40 which adds even more confusion, to the confusion that already exists. Josh states (and I don't know where he got his information from) that, IBM and TSMC will both fab NV40 GPUs. The difference being TSMC (according to Josh) is set to manufacture the 210 million transistor version of the NV40 and IBM is set to manufacture the 175 million NV40 variant. Can it get more confusing? Click on the headline to read the commentary.
April 13th is the date which NVIDIA has set to release its latest and greatest chips. A few weeks ago I was on a conference call with NVIDIA and we discussed some of the technology involved with this release. While it was a good overview, nothing terribly specific was mentioned, so the information that I am relating here has been gathered from other places/rumors/sources. First off it appears that there are actually two chips that can fall into the NV40 spec, one made by TSMC and the other by IBM. If I were to hazard a guess, the 210 million transistor model is made by TSMC and the 175 million transistor product will be from IBM
Niet op voorraad.
Edward waarom vind je ps2 effecten belangrijk.edward2 schreef op 29 maart 2004 @ 23:57:
Jammer dat er niks van die tech in UT2004 gekomen is, ondanks dat gfx nog steeds één van de mooiste zijn, is het allemaal "oude" dx7 zooi en een polybumpmapje en een ps2-effectje zou hier en daar toch wel mogen..
Je gamed toch op je pc
Eduward: Gaarne niet posten als ik post
[ Voor 52% gewijzigd door Upke dupke op 30-03-2004 19:05 ]
Ik bedoel pixelshader 2.0stunter schreef op 30 maart 2004 @ 18:58:
[...]
Edward waarom vind je ps2 effecten belangrijk.![]()
Je gamed toch op je pc
Toch hardstikke gezellig dat synchroonpostenUpke dupke schreef op 30 maart 2004 @ 19:02:
Hij bedoelt PixelShader 2.0
Eduward: Gaarne niet posten als ik post![]()
![]()
[ Voor 36% gewijzigd door edward2 op 30-03-2004 19:22 ]
Niet op voorraad.
[ Voor 16% gewijzigd door stunter op 30-03-2004 19:03 ]
Lijkt me zeer sterk als ie 150 watt gaat verstoken dat kan gewoon niet das veels te veel power voor zo'n kaart. Dit klinkt eerder weer als een loze ati fan opmerking ( daar zijn er genoeg van )CJ schreef op 30 maart 2004 @ 17:27:
[...]
NV38 trekt geloof ik iets van 75 Watt. NV40 zou volgens de eerste meldingen zo'n 120 a 150 Watt trekken.
Wellicht kun je ook ff een linkje plaatsen?
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Niet op voorraad.
Het komt rechtstreeks van Beyond3D waar men toch doorgaans probeert om niet te bevooroordeeld over te komen. Maar ook op nVnews (toch niet echt een ATi fansite) is het een aantal keren naar voren gebracht.sjek schreef op 30 maart 2004 @ 19:07:
[...]
Lijkt me zeer sterk als ie 150 watt gaat verstoken dat kan gewoon niet das veels te veel power voor zo'n kaart. Dit klinkt eerder weer als een loze ati fan opmerking ( daar zijn er genoeg van )
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Thx.edward2 schreef op 30 maart 2004 @ 19:23:
http://www.nvnews.net/ heeft een bericht van penstarsys op de frontpage.
Vind het altijd wel prettig als bij een quote de link ernaartoe wordt vermeld zodat je weet waar het vandaan komt en je het nog ns kunt nalezen.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Verwijderd
En jij komt niet over als een Nvidia fan boy wou je zeggen?sjek schreef op 30 maart 2004 @ 19:07:
[...]
Lijkt me zeer sterk als ie 150 watt gaat verstoken dat kan gewoon niet das veels te veel power voor zo'n kaart. Dit klinkt eerder weer als een loze ati fan opmerking ( daar zijn er genoeg van )
Ik hoop iig dat met deze kaart de ps2 performace wat beter is want dat is crap met de kaarten van nu. Ik wacht af totdat er benches zijn van de r420 en nv40 en dan ga ik is kijken waar mij zuurverdiende geld naartoe gaat, maar tot nu toe denk ik dat het ati gaat worden.
Yup, maar dat was ook terechtT.T. schreef op 30 maart 2004 @ 09:07:
[...]
Behalve toen John Carmack zei dat je nooooit een GeForceMX moest kopen een aantal jaar geleden vanwege de uiterst beroerde prestaties
die GF4 mx heeft voor verwarring gezorgd, en doet dat nog steeds. Als ik in een readme zie staan bij systeemeisen minimaal GF3, betekent dat dan dat de GF4mx wel kan (lijkt me dus niet, maar ze zetten het er niet bij).
Verwijderd
Waar ik meer benieuwd naar ben is wat Gainward gaat doen met de NV40, ik hoop een Special Watercooled Edition
[ Voor 15% gewijzigd door Verwijderd op 30-03-2004 22:49 ]
ach Ut2k4 heb ik al getest op een voodoo4 en geforce4mx 440
ach het liep en daar bleef het ook bij.
maar eerst zien dan geloven
men kan veel zeggen over hij is zo slecht verstookt zoveel warmte enz.
als dat waar zou zijn duw je er een prescot bij en je CV is klaar.
en dat geloof ik dus niet Nvidia heeft echt wel geleerd van de 5800
dus nog paar nachtjes slapen en dan zien we de 1e benches.
Nou in mijn ogen ben ik zowiezo geen fanboy van iets of wat omdat ik zowel positief blijf over beide merken omdat het me geen zak uitmaakt welke het later gaat worden maar blijf erbij dat 150 watt onmogelijk is om door zo'n kaart te laten verstoken. Een verdubbeling in 1 generatie gebeurt niet of hij moet wel zo gruwelijk snel zijn maar dat zie ik ook nog niet gebeuren.Verwijderd schreef op 30 maart 2004 @ 21:31:
[...]
En jij komt niet over als een Nvidia fan boy wou je zeggen?
Ik hoop iig dat met deze kaart de ps2 performace wat beter is want dat is crap met de kaarten van nu. Ik wacht af totdat er benches zijn van de r420 en nv40 en dan ga ik is kijken waar mij zuurverdiende geld naartoe gaat, maar tot nu toe denk ik dat het ati gaat worden.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Als blijkt dat de overgang van 5900Ultra naar NV40Ultra groot genoeg is, dan pak ik em pas.
Ik neem aan dat de NV40 en de NV40Ultra beiden tegelijk uitkomen
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
R360 trekt nu al zo'n 70Watt (R350 en R300 iets minder). NV35 en NV38 trekken 75Watt. Ik kijk dus echt niet vreemd op als het rond de 100 uit komt of zelfs meer.Madrox schreef op 31 maart 2004 @ 07:41:
De snelste kaarten van nu verstoken rond de 50 watt, 150watt voor de volgende generatie lijkt me idd een fabeltje.
[ Voor 11% gewijzigd door CJ op 31-03-2004 19:42 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ik bedoel maar: hoe willen ze dat praktisch koelen?
zonder dat ze klachten krijgen over het formaat koeler oid dus
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
tvw
Mmm... nou de "standaard" koelers voldoen niet hoor als de kaarten echt zo warm gaan worden...met 75 Watt zijn ze al extreem moeilijk goed koel te houden.. ach ja!Puppetmaster schreef op 01 april 2004 @ 00:32:
maar das toch echt teveel denkik hoor...
ik bedoel maar: hoe willen ze dat praktisch koelen?
zonder dat ze klachten krijgen over het formaat koeler oid dus
mm, als ze nou standaard Zalman koelers gebruiken.........ach....hopen he. Tot nu toe hebben ze normale koelingen kunnen maken!
There is no place like ::1
Of waterkoeling nou zoveel uitmaakt vraag ik me ook af. Het water zal ook wel warm worden
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
De CNPS 7000 is een actieve koeling hoor mar een 85mm fan op 2400 RPM ( max ) hoor je bijna nietDeathchant schreef op 01 april 2004 @ 08:35:
zalman koelingen zijn er meer voor de geluidsreductie he. Een actieve koeling zal altijd beter koelen lijkt me zo.
Of waterkoeling nou zoveel uitmaakt vraag ik me ook af. Het water zal ook wel warm worden
There is no place like ::1
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
Dat is zeker waar, maar de heatsink voor de GPU met een zalmanfan op 5v erboven is..heerlijk rustig :-)Deathchant schreef op 01 april 2004 @ 11:25:
ik bedoelde natuurlijk de heatpipes. Ikzelf heb namelijk ook een CNPS7000 en die is voor de CPU niet de GPU
Helaas vrees ik dat die de NV40 of de R420 niet zal kunnen koelen... want die gaan blijkbaar zoveel warmte genereren!
There is no place like ::1
Mmm, na dat ati hun "spreadsheet" helaas kwijtraakte is dit natuurlijk wel weer toevallig he...
Zeker ook nog "tijdsdruk omdat hij snel terug op NV HQ moest zijn" enzo geven aan dat we dit niet als definitieve benchmark moeten zien!
There is no place like ::1
Ja en alleen testen waarin nvidia eerder al goed presteerde zijn gedaan "do I smell a fish?"Sjah schreef op 01 april 2004 @ 12:00:
Komt bij dat geen van die testen veel uitsluitsel geven over of ps2 nu dik in orde is, of zie ik dat verkeerd?
mmm, we zullen het allemaal wel zien als volledige benchmarks zijn gedaan....
[ Voor 14% gewijzigd door swampy op 01-04-2004 12:06 ]
There is no place like ::1
Ik bedoel.... Jeetje, wow.... als dat waar is dan kan ATi wel inpakken.
[ Voor 35% gewijzigd door CJ op 01-04-2004 12:12 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Iemand die met een NV40 kaart binnenloopt bij een of andere website om alles even te laten uitlekken lijkt me een mooie 1 april grap.
vind de cooling solutions van nvidia vaak beter dan die van ATI
heb hier een 9800pro met de default cooler volgens het reference design
ding zuigt.
word echt wel erg warm gelukkig binnenkort vga silencer erop.
ook al zijn dit benches waar nvidia altijd goed in is.
maaar je ziet toch een aardige vooruit gang met beta drivers.
ook al zal niemand het verschil tussen 200fps en 400 zien
hoop snel op meer benches met de R420 als ze elkaar niet teveel ontlopen zal de NV40 me volgende kaart wordena ls hij halveert in prijs lol.
Weet je dat wel zeker? Lijkt me namelijk op z'n minst een gefotosoepte NV38.oeLangOetan schreef op 01 april 2004 @ 12:13:
uit goede bron weet ik dat op z'n minst de kaart echt is
En zoals ik eerder al zei... url... plaatjes...
[ Voor 13% gewijzigd door CJ op 01-04-2004 12:33 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nou van mij mag het gauw 13 april worden.
[ Voor 30% gewijzigd door edward2 op 01-04-2004 12:53 ]
Niet op voorraad.
fotosoepen is nog altijd mogelijk (meh denkt een gefotosoepte msi)
ik denk niet dat er al echte previews gedaan zijn maar als je een foto hebt en je weet van nv pr hoe hij ongeveer gaat scoren
/edit hij is fake
[ Voor 10% gewijzigd door oeLangOetan op 01-04-2004 13:18 ]
Verwijderd
Zijn die dalijk te verwachten 'superkaarten' eigenlijk nog wel geschikt voor de huidigeje ziet toch een aardige vooruit gang met beta drivers.
ook al zal niemand het verschil tussen 200fps en 400 zien
LCD monitoren? Ik bedoel, bij heel veel frames per second krijg je ghosting bij het leven. Moet je dalijk een of andere limiter in gaan stellen met je nieuwe superkaartje.
Verwijderd
Verwijderd
Ik kwam hierop omdat ik vaak lees dat oudere spellen meer ghosting lijken te vertonen op lcd/tft dan de nieuwe spellen (oude spellen = véél fps op de huidige videokaarten, nieuwe spellen = stukken minder fps).Verwijderd schreef op 01 april 2004 @ 16:58:
Je krijgt helemaal niet meer ghosting bij hogere framerates, hoe kom je daar bij? Een tft vernieuwt het beeld minder vaak dan een crt, maar een crt gaat toch ook niet ghosten als je meer fps hebt dan je refreshrate? Ghosting heeft niets, maar dan ook helemaal niets met fps te maken.
Verwijderd
zouden die 2 power conectoren niet bedoeld zijn voor een betere verdeling van de stroom?
lijkt me sterk als ie het echt alletwee nodig heeft... ik heb nou nog een geforce4 4400 die nog zonder extra powerconector draait, lijkt me vreemd dat er 2 generaties na al eentje is die 2 conectoren _hard_ nodig heeft.
zou het niet meer "what IF" zijn (beter wel dan niet)
Dacht juist dat Ghosting op een TFT veroorzaakt werd omdat een TFT pixel trager van kleur verwisselt dan een CRT-pixel. Vooral van de ene grijs naar de andere grijstint schijnt lang te duren; omdat d epixel niet van grijs-licht naar grijs-donker gaat maar van grijs > wit(of zwart, weet nie zeker) en dan van wit > naar de nieuwe grijs-tint. ms loopt dan algauw op, tot boven de 25ms. Heeft dus weinig met de refreshrate van het hele scherm van doen, eerder met de techniek van de schermopbouw. Crt's wisselen kleuren van de pixels binnen 4 ms, dat scheelt nogal.Verwijderd schreef op 01 april 2004 @ 18:29:
Kijk het zit zo, een crt monitor heeft bv een refreshrate van 85. dus hij ververst 85x per seconde het beeld. Als je videokaart hier dus bovenkomt maakt het niks uit want het beeld blijft maar 85x per seconden worden ververst. Alleen het probleem bij lcd/tft schermen is dat ze meestal een veel lagere refreshrate hebben waardoor je soms alles een soort van dubbel krijgt te zien omdat het scherm je beeld niet snel genoeg refresh en dus soms nog het plaatje van het vorige scherm een beetje laat staan en de niewe er alweer overheen plakt. In dat geval zou minder fps juist beter zijn omdat je je scherm het dan wel aankan. CRt heeft hier iig nooit last van.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
ik weet niet hou het bij jou zit maar als ik met de fps boven de refresh rate uitkom ziet m'n beeld er niet bepaald lekker meer uit (crt), onderste helft loopt niet synchroon meer met de bovenste helft van het beeld. Dat is vooral merkbaar tijdens snelle acties (team fortress classic heel erg, cs ook af en toe en nog een zooi snelle games).Verwijderd schreef op 01 april 2004 @ 16:58:
Je krijgt helemaal niet meer ghosting bij hogere framerates, hoe kom je daar bij? Een tft vernieuwt het beeld minder vaak dan een crt, maar een crt gaat toch ook niet ghosten als je meer fps hebt dan je refreshrate? Ghosting heeft niets, maar dan ook helemaal niets met fps te maken.
De ene monitor heeft er meer last van dan de andere, dat wel.
Gelukkig bestaat er v-sync.
met een TFT heb ik het niet geprobeert.
[ Voor 4% gewijzigd door Verwijderd op 01-04-2004 18:41 ]
Jongens, gooi de boel nou niet door elkaar, Als je V-sync uitzet en de H-sync is langzamer of sneller dan de V-sync, krijg je corruptie op je scherm, logisch he.
horizentaal word het goed opgebouwd, maar de v-sync gaat te snel > stoorstrepen, v-sync gaat te langzaam > stoorstrepen. Speel je spellen, doe je de V-sync dan ook altijd aan, tenzei je het "effect" leuk vind...
FPS heef dan idd geen invloed op je Hz. 200 FPS op een 100hz scherm met V-sync aan geeft een perfect beeld. Zie je ook alle 200 FPS ? Nou nee, je ziet er maar 100, maar je muis "voelt" er 200 en zo heb je dus snellere reflexen.
Ghosting heb ik net al uitgelegt....
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
/review/April04_Joke/NV40_front_big.jpg. En aangezien dat er joke in de url staat moet je deze plaatjes maar niet te serieus nemen.
[ Voor 5% gewijzigd door Verwijderd op 01-04-2004 19:10 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Nope het is GoT die in 1 April "mood" is...daarom is de kop zo leuk :-)Madrox schreef op 01 april 2004 @ 20:36:
over 1 april en joke gesproken; ben ik de enige die de kop in mijn Explore-venster gespiegelt zieof heb ik een virus
[ Voor 3% gewijzigd door swampy op 01-04-2004 20:40 ]
There is no place like ::1
Er zit een verschil tussen de core en de kaart. Zo verbruikt een NV20 core 20Watt, terwijl een videokaart met een NV20 misschien wel 35Wat verbruikt. Als je het hebt over verbruik, laat dan duidelijk weten waar je het over hebt: core of kaart.
Dat de NV40 100+Watt zal verbruiken, en dan verneem ik dat dit over de core gaat, lijkt mij dus heel erg onwaarschijnlijk. De NV35 verbruikt max ongeveer 35-40Watt, de NV40 zal daar maximaal 70 Watt van maken. Vergeet niet dat je zo'n core met luchtkoeling moet koelen. De core is kleiner dan het oppervlakte van een processor, en een beetje snelle processor verbruikt toch al snel 80Watt. Het koelen van een 100+Watt GPU dmv lucht is dus onmogelijk.
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
Verwijderd
zet het ding in de keuken en je kunt een eitje baken.
zie veel menesen zeggen dat de Nv40 zo warm zal worden hoewel hiervoor nog geen 100% bewijs is.
denk dat de R420 geen koele kikker zal zijn als de NV40 echt warm word.
even wat nummertjes veranderen denk iksilentsnow schreef op 02 april 2004 @ 04:06:
Over het energie verbruik van de NV40 core...
Er zit een verschil tussen de core en de kaart. Zo verbruikt een NV20 core 20Watt, terwijl een videokaart met een NV20 misschien wel 35Wat verbruikt. Als je het hebt over verbruik, laat dan duidelijk weten waar je het over hebt: core of kaart.
Dat de NV40 100+Watt zal verbruiken, en dan verneem ik dat dit over de core gaat, lijkt mij dus heel erg onwaarschijnlijk. De NV35 verbruikt max ongeveer 35-40Watt, de NV40 zal daar maximaal 70 Watt van maken. Vergeet niet dat je zo'n core met luchtkoeling moet koelen. De core is kleiner dan het oppervlakte van een processor, en een beetje snelle processor verbruikt toch al snel 80Watt. Het koelen van een 100+Watt GPU dmv lucht is dus onmogelijk.
de nv 35 core verbruikt dik 60 a 70 (kan meer zijn) en een gpu core is GROTER als een cpu core. en vooral de gpu van de nv 40 zal een stuk grote zijn als de standaard cpu core. en een beetje sneller core trekt al gou 100 W hoor
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Dit meld Nzone... zit er toch nog een stukje realiteid in die "1april" grap[b]You're invited to the launch of our next-generation GPU,
and the first ever GeForce LAN Party, in San Francisco!
Are you thirsty for a new level of graphics technology? Tuesday, April 13th, NVIDIA will be hosting an unprecedented all-day LAN party in conjunction with the introduction of our next-generation GeForce GPU. Play Unreal Tournament 2004 and Battlefield Vietnam the way they're meant to be played, on custom NVIDIA gaming machines powered by our next-generation GeForce GPU!
In addition, you can join NVIDIA executives and industry luminaries for the launch event that evening. Whether you want to play in the LAN party, or just want to attend the NVIDIA launch event, be sure to register now for your chance to win cash and prizes!
Win a trip for two to the CPL!
All attendees at NVIDIA's GeForce LAN will be entered in a raffle for a special giveaway from the CPL. The raffle winner will receive two airline tickets and a hotel room, as well as 2 spectator passes to the Cyberathlete Extreme World Championships this summer in Dallas, Texas. This prize has a combined value of $1,500!
GreetZz
i7-6700K | Z170A XPOWER GAMING TITANIUM EDITION | InWin904 | 32GB Corsair Dominator Platinum | nVidia GeForce RTX2080 TI | Iiyama G-Master UWQH 34" | 2x 1TB Samsung SSD 980PRO | 1x 4TB Samsung 860EVO | Arctis 7 | SteelSeries Apex Pro | Logitech G502 Hero
Dat is toch wel oud nieuws hoor. Dit promotiebericht werd al zo'n 2 weken geleden door nVidia verzonden naar zeer veel mensen. Het stond zelfs al in dit topic...Fr0zenFlame schreef op 04 april 2004 @ 17:43:
[...]
Dit meld Nzone... zit er toch nog een stukje realiteid in die "1april" grap
GreetZz
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hun werk is het better laten afvloeien van warmte
wie weet misschien werkt dit wel erg lekker.
dan zou de GPu de warmte niet alleen in de hoogte (koeler) kwijt kunnen maar ook in de breedte (dode transistors) en die transistors die dan die warmte krijgen kunen dan de warmte weer in de hoogte kwijt.
Is dat een hele flauwe grap of een hele domme opmerkingBigbot schreef op 04 april 2004 @ 20:15:
de Nv40 core zal nog groter zijn omdat ze er nog transistors ofzo bij doen die gewoon niks zulleen doen.
hun werk is het better laten afvloeien van warmte
wie weet misschien werkt dit wel erg lekker.
dan zou de GPu de warmte niet alleen in de hoogte (koeler) kwijt kunnen maar ook in de breedte (dode transistors) en die transistors die dan die warmte krijgen kunen dan de warmte weer in de hoogte kwijt.
Anyway, 13 april zullen we het allemaal weten.
Verwijderd
Bigbot schreef op 04 april 2004 @ 20:15:
de Nv40 core zal nog groter zijn omdat ze er nog transistors ofzo bij doen die gewoon niks zulleen doen.
hun werk is het better laten afvloeien van warmte
wie weet misschien werkt dit wel erg lekker.
dan zou de GPu de warmte niet alleen in de hoogte (koeler) kwijt kunnen maar ook in de breedte (dode transistors) en die transistors die dan die warmte krijgen kunen dan de warmte weer in de hoogte kwijt.
Als dit waar is, dan kom je natuurlijk al snel op een getal van 210 miljoen transistoren. De vraag is dan nog maar hoeveel miljoen er daarvan echt werken. En daarnaast telt nVidia ook bepaalde dingen mee als transistoren die ATi op haar beurt weer niet mee telt.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
http://www.theinquirer.net/?article=15169
Dit is wel heeeeeeel vetjes. (mits zonder cheats)
Met mijn huidige systeem draai ik iets van 5800-6200 ofzo.
Als ik dan iets aftrek van die 12.535, laten we zeggen 1500 punten om te compenseren voor die heftige AMD64, dan blijft er nog een hele leuke winst over als ik strax een nv40 in mijn systeem hang!
Nu nog ns kijken wat ATI doet en of alles in de officiele benches bevestigd gaat worden......
[plaagmodus]PS: Eat this CJ....
[ Voor 66% gewijzigd door Help!!!! op 05-04-2004 10:33 ]
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Verwijderd
Mooi, mooiHelp!!!! schreef op 05 april 2004 @ 10:22:
nv40 3dmark 2003 score 12.535 !!!
http://www.theinquirer.net/?article=15169
Dit is wel heeeeeeel vetjes. (mits zonder cheats)
Met mijn huidige systeem draai ik iets van 5800-6200 ofzo.
Als ik dan iets aftrek van die 12.535, laten we zeggen 1500 punten om te compenseren voor die heftige AMD64, dan blijft er nog een hele leuke winst over als ik strax een nv40 in mijn systeem hang!![]()
![]()
Nu nog ns kijken wat ATI doet en of alles in de officiele benches bevestigd gaat worden......
De laatste zin van het artikel vind ik wel goed
Perhaps we should all now be expecting briefings by Nvidia's competitors that 3DMark03 isn't now a valid indicator of 3D graphics performance?
Maar dan doe je dit toch niet met transistoren maar met massief materiaal?CJ schreef op 05 april 2004 @ 01:45:
Wat Bigbot zegt is helemaal niet vreemd hoor. Er zijn meerdere bronnen op het internet geweest die speculeren dat NV40 een paar miljoen loze transistoren heeft (die dus gewoon geen functie hebben en niets zitten te doen) om het oppervlak van de core kunstmatig te vergroten met als uiteindelijk doel om daarmee de hitte beter te verspreiden.
Als dit waar is, dan kom je natuurlijk al snel op een getal van 210 miljoen transistoren. De vraag is dan nog maar hoeveel miljoen er daarvan echt werken. En daarnaast telt nVidia ook bepaalde dingen mee als transistoren die ATi op haar beurt weer niet mee telt.
Wat die 3dmarkscore betreft, ik ben dit soort verhaaltjes al gewend vanaf de NV30, die 30.000 zou halen onder 3dmark2001
Opzich zou een score van 12000 in 03 realistischer zijn dan een score van 30000 toen der tijd in 01, omdat die laatste ook CPU en geheugen afh. is, maar over een week of wat weten we hopelijk mee
[ Voor 20% gewijzigd door edward2 op 05-04-2004 11:01 ]
Niet op voorraad.
Tuurlijk. Heb je helemaal gelijk in. Maar toch is dit natuurlijk leuke speculatie.Upke dupke schreef op 05 april 2004 @ 14:56:
Ik kijk weer eens naar de link.Sorry, maar ik moet echt gewoon bewijs hebben van onafhankelijke test sites (hardocp bijv) Ik neem die INQ altijd maar met een korreltje zout. Nou hoop ik wel dat het waar is want dan
Intuitief heb ik dit keer wel een goed gevoel bij de release van nVidia.
Als het zo is dat R420 idd een 16pijps kaart met 12 ingeschakeld is, is het denk ik wel een krachtig baasje. Zeker als die andere 4 pijpen bijgeschakeld kunnen worden.
Ik kan niet wachten op die benches....
Weet iemand of er na de presentatie van nVidia op 13 april ook gelijk benches/uitgebreide testen zullen verschijnen? Of is dit slechts een paperlaunch met een technologieintroductie en 1 maand later benches en weer 1 maand later in de winkel.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Als nVidia een goede kaart heeft en als de launch-date doorgaat, dan kun je daar wel vanuit gaanHelp!!!! schreef op 05 april 2004 @ 15:42:
Weet iemand of er na de presentatie van nVidia op 13 april ook gelijk benches/uitgebreide testen zullen verschijnen? Of is dit slechts een paperlaunch met een technologieintroductie en 1 maand later benches en weer 1 maand later in de winkel.
Sites als anandtech, tom's hardware enz enz krijgen de kaart al geruime tijd van te voren om hun benchmarks te kunnen draaien en het verhaal te kunnen voorbereiden.
De Geforce FX werd op de Comdex te November 2002 geintroduceerd door nVidia. De eerste reviews door de serieuze sites kwamen pas eind januari 2003 (tomshardware bijv 27 jan 2003).T.T. schreef op 05 april 2004 @ 16:01:
[...]
Als nVidia een goede kaart heeft en als de launch-date doorgaat, dan kun je daar wel vanuit gaan
Sites als anandtech, tom's hardware enz enz krijgen de kaart al geruime tijd van te voren om hun benchmarks te kunnen draaien en het verhaal te kunnen voorbereiden.
Vandaar mijn vraag.
Ik ben erg eager om de winnaar zsm in mijn set te hangen. (mits niet duurder dan eur 550,- dat is toch wel mijn limit. "Moreel" gezien dan.
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
Klopt inderdaad, maar toen heeft nVidia ook erg veel kritiek gehad over deze papieren launch. Ze zullen niet zo dom zijn om dat een tweede keer uit te halen denk ik.Help!!!! schreef op 05 april 2004 @ 16:20:
De Geforce FX werd op de Comdex te November 2002 geintroduceerd door nVidia. De eerste reviews door de serieuze sites kwamen pas eind januari 2003 (tomshardware bijv 27 jan 2003).
Ik zou het er niet voor over hebben hoor, maar ieder z'n hobby he.Ik ben erg eager om de winnaar zsm in mijn set te hangen. (mits niet duurder dan eur 550,- dat is toch wel mijn limit. "Moreel" gezien dan.
Ik wil ook wel zo'n nieuwe kaart, maar vervolgens kun je alleen maar een jaar lang een paar tech-demo's draaien want alle spellen zijn ontwikkeld voor de huidige generatie kaarten. Ik heb nu voor iets meer dan 450 euro 1GB PC3200 & Athlon64 3000+ & moederbord & stille koeler gekocht. Dat vind ik dan iets kosten-effectiever
550 euro = 1200+ gulden (altijd leuk dat terugrekenen
* T.T. nog erg tevreden met z'n Radeon9500 @ 9700 voor 160 euro
[ Voor 9% gewijzigd door T.T. op 05-04-2004 16:29 ]
Ja maar ik heb al een 9800pro !T.T. schreef op 05 april 2004 @ 16:28:
[...]
Klopt inderdaad, maar toen heeft nVidia ook erg veel kritiek gehad over deze papieren launch. Ze zullen niet zo dom zijn om dat een tweede keer uit te halen denk ik
[...]
Ik zou het er niet voor over hebben hoor, maar ieder z'n hobby he.
Ik wil ook wel zo'n nieuwe kaart, maar vervolgens kun je alleen maar een jaar lang een paar tech-demo's draaien want alle spellen zijn ontwikkeld voor de huidige generatie kaarten. Ik heb nu voor iets meer dan 450 euro 1GB PC3200 & Athlon64 3000+ & moederbord & stille koeler gekocht. Dat vind ik dan iets kosten-effectiever
550 euro = 1200+ gulden (altijd leuk dat terugrekenen).... nee ik ga echt nooit meer dan 400 gulden (of 200 euro desnoods) uitgeven. Nu kun je bijvoorbeeld een Radeon9800pro kopen voor ongeveer 200 euro. Dat lijkt me redelijker dan een NV40, maar zoals ik zeg... ieder z'n hobby
Die koop die jij gedaan hebt is idd erg kosteneffectief.
En EUR 550,- voor een kaart is natuurlijk best absurd.
Maar goed ik ben ERG kritisch qua framerate EN graphics dus vandaar.
Ik heb een P4 3ghz met 1gig ram +9800pro maar vind FARCRY nog wel wat soepeler kunnen. Ook Call of Duty mag op sommige plekken / settings nog wel soepeler. Zeker als je van AA / AF houdt.
Dus met jouw opmerking dat je "alleen maar een paar techdemo's kunt draaien op de nextgen kaarten" ben ik het niet eens.
Het blijft ook spannend of D3 wellicht ook gelijk met de NV40 gelauncht wordt. Daar is een NV40 ook wel lekker voor vermoed ik zo.
Ook denk ik dat met name deze update cycle erg interessant is omdat ik verwacht dat de prestatietoename aanmerkelijk hoger zal zijn dan van FX 5800 naar FX5950 of 9800pro naar 9800XT.
Maar goed ook ik begrijp wel dat niet iedereen dit kan of wil betalen. En terecht: ieder zijn hobby.
Verder is het zo dat ik die 9800 pro weer doorverkoop voor ongeveer de helft van wat ik ervoor betaald heb. Als je dit weer aftrekt van de aankoop van die NV40/r420 houdt je best een aardige deal over. Zeker als je af en toe nog wat koopt via pc prive.
[ Voor 29% gewijzigd door Help!!!! op 05-04-2004 16:52 . Reden: toevoegingen en verbeteringen. (=slechte gewoonte;) ) ]
For Sale: Case Phanteks P600S. Zeer fijne, nette en in goede staat verkerende Case.
The first casualty in war is always the truth...
Verwijderd
Ik wou dat ik zoveel geld had
Als ik een 3DKaart koop is het meestal een goedkopere die je dan kan modden naar een snellere versie.
Verwijderd
Zoveel geld zou ik ook niet uitgeven voor een kaart maar zoals al is gezegd ieder zen hobby, heb trouwens vandaag een TI4200 gekocht voor 20 Euros gaat nog wel een tijdje meeVerwijderd schreef op 05 april 2004 @ 17:51:
Maar 400-450 euro?
Ik wou dat ik zoveel geld had![]()
Als ik een 3DKaart koop is het meestal een goedkopere die je dan kan modden naar een snellere versie.
Verwijderd schreef op 05 april 2004 @ 22:39:TI4200 gekocht voor 20 Euros gaat nog wel een tijdje mee.
dat is wel een heeeel lage prijs, moet bijna wel 64MB zijn? Ti4200 is helemaal niet verkeerd, zeker vergeleken met de Radeon9200/ GeForceFX5200 etc
Verwijderd
Verwijderd
Ja een 64 MB versie, ik ben van plan om de mainstream kaart van de NV 40 te halen.T.T. schreef op 05 april 2004 @ 22:53:
[...]
offtopic:
dat is wel een heeeel lage prijs, moet bijna wel 64MB zijn? Ti4200 is helemaal niet verkeerd, zeker vergeleken met de Radeon9200/ GeForceFX5200 etc
Ps. Deze Ti4200 loopt best wel hard
Kan je dat allemaal hard makenShunt schreef op 02 april 2004 @ 15:54:
[...]
even wat nummertjes veranderen denk ik![]()
de nv 35 core verbruikt dik 60 a 70 (kan meer zijn) en een gpu core is GROTER als een cpu core. en vooral de gpu van de nv 40 zal een stuk grote zijn als de standaard cpu core. en een beetje sneller core trekt al gou 100 W hoor
Als een GPU 100Watt trekt, dan komt daar nog 15 Watt voor het geheugen bij, 10 Watt voor de overige chips, een paar Watt voor de koeling, etc. Kortom, dan zit je al snel aan 125Watt voor een beetje videokaart
Dat is natuurlijk onzin. De NV35 core verbruikt echt niet veel meer dan 40Watt. Een AGP poort trekt niet veel meer dan 30Watt, en uit een extra molex stekker haal je echt geen 50+Watt.
De core van de gemiddelde hedendaagse processor zal zo'n 150mm zijn. Daarbovenop/omheen komt de heatspreader (zowel AMD als Intel gebruiken een heatspreader) wat het oppervlakte vergroot tot misschien wel 1000mm. De koeling koelt dat oppervlak. In het geval van een GPU zit de koeling direct op de core. Dus de core van een GPU is groter dan het oppervlakte van een CPU
The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590
http://www.anandtech.com/video/showdoc.html?i=2018
Recently we received confirmation that the first retail samples of ATI's R420 (AGP Radeon X800) will debut April 26 as Radeon X800 Pro. NVIDIA's NV40 (GeForce 6800) officially launches April 13th, but retail availability will occur around April 26th. Notice the NV40 product to be released April 13th is GeForce 6800, not GeForceFX 6800. ATI's naming scheme for R420 has been closely guarded as well, but the open term we hear from vendors is "Radeon X800."
What seems highly unusual is the scheduled introduction of Radeon X800 XT on May 31st; only a month after Radeon X800 Pro's unveiling. Recall that Radeon 9800 and 9800 XT were launched six months apart. We can speculate ATI has either changed their marketing strategy, or the difference in performance between R420 and NV40 hastens ATI's release schedule. Further inspection of the ATI roadmaps reveals that "Non-Pro" Radeon X800s are absent. Perhaps "XT" has replaced the "Pro" Radeon series, and "Pro" thus replaced the "Non-Pro" Radeon series. Even though the initial launches of Radeon X800 will use 256MB of GDDR3, before the end of the year we also anticipate a 512MB revision. Furthermore, we will almost certainly see Radeon X800 SE with 128MB of DDR1; which will also debut with much a lower clockspeed.
NV40 breaks NVIDIA's naming scheme with the removal of FX from their GeForceFX moniker. Will we see a separate GeForce and GeForceFX in the NV4x GPU family? It appears that is also speculation.
R423, the PCI-Express (PCX) version of R420, is scheduled to launch June 14th. Specifications on R423 are identical to R420, and the cards will also carry the Radeon X800 product name. NVIDIA's bridged PCI-Express cards will launch April 13th along with the AGP versions.
RV380 and RV370 will also receive new product names, as Radeon X600 and Radeon X300, respectively. For more details about R420, RV380 and RV370, please take a look at our previous ATI roadmaps here. Stay tuned for more ATI and NVIDA news from the trenches.
nVidia laat de FX vallen in hun benaming, zouden ze de CineFX engine zodanig hebben omgegooid dat ze hem niet meer zo noemen... (zou die nu goed met HLSL code kunnen omgaan bijv.)
Yup, ik heb er wel een goed gevoel over
wel gelezen ?Sjah schreef op 06 april 2004 @ 14:03:
Ati komt een maand later al met een XT, mmm die zijn geschrokken van wat ze van de nV40 gezien hebben, anders doe je dat niet.
nVidia laat de FX vallen in hun benaming, zouden ze de CineFX engine zodanig hebben omgegooid dat ze hem niet meer zo noemen... (zou die nu goed met HLSL code kunnen omgaan bijv.)
Yup, ik heb er wel een goed gevoel over
ati komt niet meer met non pro kaartjes alleen nog maar met pro en XT dus niets bang geworden ze hebben gewoon de naam geving aan gepast.
Game PC
2 Post or Not 2 Post What's the question ?
"If it ain't broken, you didn't try hard enough"
Verwijderd
Dat ze een maand later komen met de XT is niet langzaam, juist snel. Eerst duurde het een half jaar zoals in de tekst staat...
Heb jij wel gelezen?Shunt schreef op 06 april 2004 @ 15:03:
[...]
wel gelezen ?
ati komt niet meer met non pro kaartjes alleen nog maar met pro en XT dus niets bang geworden ze hebben gewoon de naam geving aan gepast.
We can speculate ATI has either changed their marketing strategy, or the difference in performance between R420 and NV40 hastens ATI's release schedule. Further inspection of the ATI roadmaps reveals that "Non-Pro" Radeon X800s are absent. Perhaps "XT" has replaced the "Pro" Radeon series, and "Pro" thus replaced the "Non-Pro" Radeon series.
Let op perhaps en speculate. Mijn (voorlopige) conclusie is dat ze gewoon geschrokken zijn (en misschien de non-pro hebben afgeblazen).
[ Voor 21% gewijzigd door Sjah op 06-04-2004 15:29 ]
Ik kan er nog wel een gerucht aan toe voegen die de "ATi is geschrokken"-theorie doet bevestigen.Sjah schreef op 06 april 2004 @ 15:23:
[...]
Heb jij wel gelezen?
We can speculate ATI has either changed their marketing strategy, or the difference in performance between R420 and NV40 hastens ATI's release schedule. Further inspection of the ATI roadmaps reveals that "Non-Pro" Radeon X800s are absent. Perhaps "XT" has replaced the "Pro" Radeon series, and "Pro" thus replaced the "Non-Pro" Radeon series.
Let op perhaps en speculate. Mijn (voorlopige) conclusie is dat ze gewoon geschrokken zijn (en misschien de non-pro hebben afgeblazen).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
The first casualty in war is always the truth...
[ Voor 24% gewijzigd door edward2 op 06-04-2004 21:49 ]
Niet op voorraad.
heb dit met dooie transistors al op meerdere sites zoals hier op Tweakers.net gelezen.straider schreef op 04 april 2004 @ 23:34:
[...]
Is dat een hele flauwe grap of een hele domme opmerking
Anyway, 13 april zullen we het allemaal weten.
ik weet dat mijn uitleg beetje shit is maar ik zou het kunnen tekenen maar ben erg lui en kan niet tekeken.
vind alleen de benaming van de langzamere X800 beetje raar
X800Pro is langzamer dan de X800XT
een onwetende zou juist anders om denken denk ik dan.
maar wat is NVidias reactie hierop?
dus ATI gaat de XT erg vlug uitbrengen te vlug bijna.
zou er dan nog een overtrefende trap komen? de X800 dunno what?
zal de pro wel vlugger in prijs dalen dus ik denk en hoop dat nvidia reageerd op de vervroegde launch van de XT
Gewoon wachten, denk trouwens niet dat we de 13e benches hoeven te verwachten an de nV40/45(welke t ook is geworden) want op beyond3d was er een dergelijke hint laten vallen.
De XT heeft bij ATi een naam als "De betere versie" gekregen door de 9600 en 9800 XT, daar proberen ze nu psychologisch op in te spelen door niet, non-Pro Pro XT te doen, maar meteen Pro en XT, dat lijkt sneller, omdat de snellere versies wel eerst zo heten. Als ATi zijnde kan je heus niet zomaar binnen een maand XT's uit je mouw schudden, "omdat ze geschrokken zijn" dan hadden ze wel 4 versies gebracht, eerst non-pro/pro/SE en dan later (een redelijke tijd om de yields hoger te krijgen) een XT, dus dit is meer een psychologische move dan dat er een duidelijk technische reden voor is.
[ Voor 39% gewijzigd door The PyroPath op 06-04-2004 23:55 ]
Breek je nek voorzichtig
Last week we’ve been briefed about Nvidia latest in a cozy hotel in San Jose, California and from what we’ve seen this is the most exciting product from Nvidia since the launch of the first Geforce a few years ago. Without going into the details too much, because we’re bound by an nda, we’ve been impressed...
Mark was genuinely enthusiastic about Nvidia’s new architecture, and not just because they’ve got a deal with Nvidia. Especially the shader 3.0 compatibility allows him to program more efficiently, faster and with higher fidelity than was possible with shader 2.0 or 2.0b. We could catch a glimpse of what he meant from the new Unreal 3.0 engine demos he showed during the presentation, which were nothing short of breathtaking.
During the briefing Nvidia did not shy away from getting down to detail about the NV40' features, of which some reminded us of 3dfx’ Rampage... But honestly the NV40 architecture is every bit as revolutionary as Geforce was
On paper it looks like a card that'll give 3D gaming performance and image quality a big boost, vastly improve video playback and bring cinematic computing yet another step closer.
Dit topic is gesloten.
![]()