Verwijderd
alsSchaapje_BlaaT schreef op 11 november 2002 @ 21:28:
ik heb de mijne 2 weken geleden gekocht, maar toen waren ze al niet meer overal te krijgen
als je er nog een wilt moet je snel wezen
http://www.xbitlabs.com/news/story.html?id=1037292690
Het minst spannende deel van de nieuwe chip. Dit is een beetje teleurstellend.
Best een logische naam (als het hem echt gaat worden), want ze adverteren zo vaak met CineFX, maar ook kun je hieruit misschien wel afleiden dat ze techniek van 3DFX gebruiken... Ach we zullen snel genoeg weten of het inderdaad zo gaat heten.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.netsol.com/cgi...forcefx.com&SearchType=do
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
-Welcome to GeforceFX-
P.S. This site is not affiliated with NVIDIA =)
Lijkt me duidelijk.
http://www.hypercoop.tk | GW user page | GW2 user page
Specs
Verwijderd
Ati is momenteel bezig met DDR-II op een R350. Ook is sinds december 2001 de R400 al hard in ontwikkeling. Deze zou eind 2003 in verkoop moeten gaan. Dus ik hoop dat NVidia nou eens gauw met die NV30 komt, want anders zou het weleens fout kunnen gaan met NVidia (zie 3Dfx, "there's always a bigger fish").Verwijderd schreef op 15 November 2002 @ 17:04:
Waarschijnlijk heeft Nvidia nog wat meer tijd nodig om een Radeon Killer te creëeren. Heeft Radeon Nieuwe plannen? Niet binnenkort? Dan kan Nvidia nog wel even doorontwikkelen en over twee maand een nieuwe videokaart uit te brengen. Dus.... twee maand verder doorontwikkeld, wellicht dan met DDR II?
Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos
Aanstaande maandag is als 't goed is de aankondiging van de NV30... We zullen dus eens zien wat dat wordt.Breepee schreef op 15 November 2002 @ 17:11:
[...]
Ati is momenteel bezig met DDR-II op een R350. Ook is sinds december 2001 de R400 al hard in ontwikkeling. Deze zou eind 2003 in verkoop moeten gaan. Dus ik hoop dat NVidia nou eens gauw met die NV30 komt, want anders zou het weleens fout kunnen gaan met NVidia (zie 3Dfx, "there's always a bigger fish").
Waarvoor dient die "TMU" ?Nvidia will use DDR II memory running at 500MHz or 1GHz effective that will be the fastest memory used so far in this type of semiconductor, as we reported before. The NV30 chip will feature eight pipelines and two TMUs - that's one more than ATI - and this will give it quite a boost since it will be able to render 16 textures per pass. We can also confirm that with 1.0 GHz data rate plus Lightspeed Memory Architecture 3, a card will be able to reach an amazng 48 GB/s, double what the Radeon 9700 PRO can do with its DDR 256 bit memory. Remember Nvidia will use 128 bit memory this time and will save its breath for 256 bit DDR II for future designs.
As for anti-aliasing, you will be able to use FSAA 8X now and anisotropic filtering will go up to 128 tap anisotropic filtering
Verwijderd
Correct me if i am wrong......
http://www.nvidia.com/con.../downloads/thebreakin.wmv
NV30?

Looks to be that even on .13 micron that the card is power hungry with a 4 pin power connector. Let's hope that this is just pre-production and they don't have it on the board.
Hij's al klaar hoor die NV30 inclusief DDRII.Verwijderd schreef op 15 November 2002 @ 17:04:
Waarschijnlijk heeft Nvidia nog wat meer tijd nodig om een Radeon Killer te creëeren. Heeft Radeon Nieuwe plannen? Niet binnenkort? Dan kan Nvidia nog wel even doorontwikkelen en over twee maand een nieuwe videokaart uit te brengen. Dus.... twee maand verder doorontwikkeld, wellicht dan met DDR II?
Vooral dat "Oh my God look! It's got DDRII!! It's unbelievable!!" is hilarisch.
Op Rage3D dacht men in het rechterbovenhoekje een externe powerconnector te zien net als op de R300.
Edit: Hacku was me net voor.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
te downloaden op www.nvidia.com natuurlijkHacku schreef op 15 november 2002 @ 18:49:
Filmpje van 2 gasten die nvidia binnendringen om de NV30 te filmen:
http://www.nvidia.com/con.../downloads/thebreakin.wmv
NV30?
[afbeelding]
Looks to be that even on .13 micron that the card is power hungry with a 4 pin power connector. Let's hope that this is just pre-production and they don't have it on the board.

Dat Filmje is super LOLHacku schreef op 15 November 2002 @ 18:49:
Filmpje van 2 gasten die nvidia binnendringen om de NV30 te filmen:
http://www.nvidia.com/con.../downloads/thebreakin.wmv
NV30?
[afbeelding]
Looks to be that even on .13 micron that the card is power hungry with a 4 pin power connector. Let's hope that this is just pre-production and they don't have it on the board.
AMD Ryzen 7 3800X/MSI MPG X570 Gaming Plus/HyperX Fury RGB HX432C16FB3AK2/64/Inno3D GeForce RTX 3060 TWIN X2 OC 12GB/Samsung SSD 850 EVO 500GB/2XSamsung 870 QVO 2TB
We kennen de naam nog niet.dominator schreef op 15 november 2002 @ 21:33:
Waarom stappen ze niet van dat geforce naampje af. Krijg je tenminste het idee dat het ECHT iets revolutinairs is....
Texture Management Unit, maar wat het doet...Hacku schreef op 15 November 2002 @ 18:15:Waarvoor dient die "TMU" ?
Uit een interview;
Beyond3D : OpenGL and D3D seem to implement multitexturing in such a way that the programmer must be aware of the number of TMUs. So programming texture effects for a 2 TMU design like a GeForce is different from programming for a 3 TMU design like a Radeon. Currently 3D cards like a GeForce fail when you try to apply more than 2 layers to a texture, thus forcing multipass programming on the developer. Do you think we need a higher level so the developer can just specify the texture layers and blend modes and have the driver handle the rest?
Croteam : Call me old-fashioned, but I think programmer must do that, not API. Generally, I'm against high-level API portion, because it can limit your creativity and it tends to be rather slow.
API and hardware are here to help engine to do things faster, and not to interfere with engine's feature set.
There are examples where multitexturing just cannot be emulated with multiple passes. Like when you want two textures to be combined and the result to be alpha-blended with the background. In most cases it is mathematically impossible to recreate same results without multiple texture units.
MadOnion : The single/multi-pass programming has been a "burden" on game developers ever since DirectX 5, and I think everybody has gotten used to it (necessary evil). But in this case, the higher level APl, the better, because it's less work for us developers.
But fortunately DirectX8's pixel shaders are a move to a better direction. Developers just check the pixel shader version, write some assembly-like material code and the driver handles the rest. Hopefully.
But keeping tight control over pixel shader versions, and requiring support for the whole feature set in the hardware is absolutely necessary. Developers can keep track of 2-3 versions, and will be glad to do so over the 100's of multi-texturing combinations.
NVIDIA : TMU is an obsolete term, by the way. It's a leftover from when the computation (blend stages) was tied directly to the texture read ability (texture stages). This is no longer true, since the TNT architecture. Modern hardware has texture loading separated from a processor that allows calculation and blending of texture addresses and interpolated and evaluated colors. Very soon, there will be powerful pixel processors where the number of textures that can be read is independent of the number of instructions that can be part of the pixel program. GeForce3 is the first of these processors. Most software developers do not wish the hardware developers to accept a high level shading model and handle multipass for them. The software developers want to program this themselves. Given that there are 10's of millions of TNT2-class graphics cards out there as an installed base, virtually ALL mass-market titles need to support rendering to 2 texture hardware, with multipass. Most physically based lighting models (such as BRDFs - bi-directional reflectance distribution functions) decompose cleanly into pairs of textures per pass. GeForce3, which supports 4 textures in a single pass, is a simple acceleration from that: every 2 passes can be collapsed into 1. For that reason, I believe that Radeon choosing to support 3 textures is an odd choice.
Denk je dat als iemand illegaal filmt in je fabriek, je dat filmpje dan gewoon op je eigen site zet ?
Marketingtruc....
Ik ben nu van bezit van Abit AT7-MAX2 (KT400) en maak me wel beetje zorgen om de AGP8X. Ik had namelijk 4 kaarten met de Radeon 9700Pro en 2 van de 4 werkten (weet niet precies in welk AGP mode) . Afgezien van dit probleempje wil ik de AT7-MAX2 wel houden want dat beste hardware die ik gekocht heb sinds vele jaren! Ik zit nu te wachten op de NV30 en hoop dat er geen problemen kommen vant op het moment van de introductie van de NV30 is dan de KT400 gebaseerde mobo`s aal een tijdje op de markt
* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
http://www.theinquirer.net/?article=6260 - NV 30 "30% faster" than Radeon 9700 Pro
De NV30 wordt maandag gelanceerd en het kan best wel eens zijn dat een reference design volgend weekend ergens in NL aanwezig is
Verwijderd
Ziet er goed uitThe Source schreef op 16 november 2002 @ 12:07:
Van onze doorgaans 'goed ingelicht' vrienden
http://www.theinquirer.net/?article=6260 - NV 30 "30% faster" than Radeon 9700 Pro
De NV30 wordt maandag gelanceerd en het kan best wel eens zijn dat een reference design volgend weekend ergens in NL aanwezig is
30% is dan 17000+ 3DMark punten. Of waar haalde jij je berekening vandaan?Verwijderd schreef op 16 November 2002 @ 14:23:
,, hmm,, een geforce 3 kan 8000 (ongeveer)
een gf 4 ti 4600 12000 ongeveer ?
een radeon 9700 14000
en dan zou een nv 30 dus 36000 moeten kunnen halen ... ??? lijkt me erg onwaarschijnlijk..
Ze bedoelen waarschijnlijk of een hogere res, of met aniso en FSAA, want op 1024 houdt de CPU hogere scores tegen..Verwijderd schreef op 16 november 2002 @ 14:23:
,, hmm,, een geforce 3 kan 8000 (ongeveer)
een gf 4 ti 4600 12000 ongeveer ?
een radeon 9700 14000
en dan zou een nv 30 dus 36000 moeten kunnen halen ... ??? lijkt me erg onwaarschijnlijk..
Niet op voorraad.
Verwijderd
eerste pagina van deze draad./. maar ik neem idd aan dat men daar wel van teruggekomen is.. met aniso en fsaa zou nog wel eens een goed punt kunnen zijn als je kijkt naar de 9700 zie je dat daar nog heel veel uit valt te persen
Verwijderd
Ofemmm wordt iets anders bedoelt met de lancering van de nv 30

Weet niet of het echt is, maar wel 1337 filmpjeHacku schreef op 15 November 2002 @ 18:49:
Filmpje van 2 gasten die nvidia binnendringen om de NV30 te filmen:
http://www.nvidia.com/con.../downloads/thebreakin.wmv
NV30?
[afbeelding]
Looks to be that even on .13 micron that the card is power hungry with a 4 pin power connector. Let's hope that this is just pre-production and they don't have it on the board.
1Ghz DDR-II ... damn, moet je voorstellen als daar ook nog eens een 256-bits bus opzat, dan werd het helemaal ongelovelijk. Met de 128-bits die ze nu gebruiken zal het ook wel lukken denk ik zo
Anyway, hij zal in Nederland echt nog niet leverbaar zijn voor dit jaar, my word. Ik gok op begin Februari ...
Word echt een wicked card (stiekeme NVDIDIA fan here
De meeste mensen deugen!
maandag wordtie geintroduceerd
ik kijk echt vooruit naar de benchmarks, of dit of de r350 wordt mn nieuwe kaartje denk ik .
maar ik hoop wel dat ze beiden direct uit zullen komen met 256 mb eigenlijk, kan je vrolijk UT2K3 spelen met ultra-high textures ofzo
maarja, t ziet er dus naar uit dattie niet echt verder te oc-en gaat worden, de nv30, aangezien ze de clocksnelheid al zo'n beetje op t maximum zullen instellen en 1gHz (ja, ddr, maar toch
ik verheug me echt op deze kaart, maar ik neem aan dat alsie maandag geintroduceerd zal worden dattie dit jaar nog wel te berkrijgen zal zijn... ?
maar met een nforce2 en een XP2800+ ofzo lijkt deze kaart me wel wat
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
haha jij neemt 300 % das wel iets anders als 30 % he!!!Verwijderd schreef op 16 november 2002 @ 14:23:
,, hmm,, een geforce 3 kan 8000 (ongeveer)
een gf 4 ti 4600 12000 ongeveer ?
een radeon 9700 14000
en dan zou een nv 30 dus 36000 moeten kunnen halen ... ??? lijkt me erg onwaarschijnlijk..
dit was al een keer gevraagd, maar dat lijkt me nu helemaal noodzakelijk
want de bottleneck komt steeds minder bij de videokaart te liggen.
en ik snap wel dat t een bench is voor gameperformance, maar t wordt ook veelal gebruikt als een soort videokaartbecnhmark...
dus
en 1024*768 is voor de r300 en nv30 (prob
maarja, ik wacht met smart op de benchmarks voor de G5/GFX/Omen/whatever
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
Lijkt me een goed idee, 1280x1024 dan maar?Okyah schreef op 16 november 2002 @ 15:26:
Zouden we eigenlijk neit bij t volgende 3dmark topic moeten vragen aan mensen om te benchen met eenm hogere res?
dit was al een keer gevraagd, maar dat lijkt me nu helemaal noodzakelijk
want de bottleneck komt steeds minder bij de videokaart te liggen.
en ik snap wel dat t een bench is voor gameperformance, maar t wordt ook veelal gebruikt als een soort videokaartbecnhmark...
dus
en 1024*768 is voor de r300 en nv30 (prob) geen uitdaging meer
maarja, ik wacht met smart op de benchmarks voor de G5/GFX/Omen/whatever
En het is GeforceFX geworden
niet waar.Verwijderd schreef op 16 November 2002 @ 15:28:
[...]
Lijkt me een goed idee, 1280x1024 dan maar?
En het is GeforceFX geworden
PSN: DutchTrickle PVoutput
is dat zo?Verwijderd schreef op 16 November 2002 @ 15:28:
[...]
Lijkt me een goed idee, 1280x1024 dan maar?
En het is GeforceFX geworden
ik dacht dat we t nog neit wisten, maarja
maar 1280*1024 vind ik zo'n rottige resolutie, weil t niet 4*3 is.
maarja, 1280*960 vormt ook niet een ontzettendeprobleem voor die kaartjes en 1600*1200 --> ik weet niet of een ieder z'n scherm dat aankan hier

Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
Ik dacht dat ik op T.net had gelezen dat het GeforceFX werd, kan het ook verkeerd hebben.Okyah schreef op 16 november 2002 @ 17:05:
[...]
is dat zo?
ik dacht dat we t nog neit wisten, maarja
maar 1280*1024 vind ik zo'n rottige resolutie, weil t niet 4*3 is.
maarja, 1280*960 vormt ook niet een ontzettendeprobleem voor die kaartjes en 1600*1200 --> ik weet niet of een ieder z'n scherm dat aankan hier
1600x1200 heb ik ook het liefst maar ben bang dat sommige mensen dit niet zullen kunnen draaien.
net even geprobeerd --> 3dmark2001 maar dan 1600*1200 --> 8214 met g4ti4600Verwijderd schreef op 16 November 2002 @ 17:27:
[...]
Ik dacht dat ik op T.net had gelezen dat het GeforceFX werd, kan het ook verkeerd hebben.
1600x1200 heb ik ook het liefst maar ben bang dat sommige mensen dit niet zullen kunnen draaien.
dus dan zou de nv30 tenminste wat te doen hebben
damn.... tis nog zo lang tot maandag

Alone at last
Just nostalgia and I
We were sure to have a blast
nee, zou toch juist 256 zijn?Hacku schreef op 16 november 2002 @ 18:29:
Is de NV30 core ook 512bit zoals de Matrox Parhelia?
itt de parhelia en r300
dat zijn ieg de geruchten...
toch?
of was nou iets anders de helft?
kweet t neit meer, hoor
Alone at last
Just nostalgia and I
We were sure to have a blast
NV35 will hit the 500MHz barriar on .13Micron technology. To do this Nvidia is removing the T&L unit from the GPU and putting it external. This allows for more heat spreader and better heat transfer from the GPU.
By removing the T&L unit, Nvidia is building on a new technology called TT&L which runs at 3/2 the GPU speed. (EX: Your GPU ran at 200MHz, the T&L unit would run at 300MHz) In NV35 case, the T&L unit will now run dedicated at 758MHz.
ehm...Hacku schreef op 16 November 2002 @ 18:33:
Moet je dit eens lezen. (specs van de NV35)
NV35 will hit the 500MHz barriar on .13Micron technology. To do this Nvidia is removing the T&L unit from the GPU and putting it external. This allows for more heat spreader and better heat transfer from the GPU.
By removing the T&L unit, Nvidia is building on a new technology called TT&L which runs at 3/2 the GPU speed. (EX: Your GPU ran at 200MHz, the T&L unit would run at 300MHz) In NV35 case, the T&L unit will now run dedicated at 758MHz.
de nv30 is nog neit uit en er zijn al specs vna de vn35?
Alone at last
Just nostalgia and I
We were sure to have a blast
Verwijderd
Zo kan ik natuurlijk wel voor altijd blijven wachtenOkyah schreef op 16 November 2002 @ 18:35:
[...]
ehm...
de nv30 is nog neit uit en er zijn al specs vna de vn35?
Pixel fill rate 4000 megapixel/s
600 miljoen triangles per seconde (NV30 200 miljoen)
en FSAA zonder framedrop
Verwijderd
- Hoeveel gaat de NV30 kosten? en andere versies?
- Vind de release van NV32, 34 etc. samen plaats met de NV30?
Sorry, k had geen zin om de hele topic door te zoeken naar de prijzen.
volgens mij is nog niets van deze dingen bekend...Verwijderd schreef op 16 November 2002 @ 19:45:
FF paar vraagjes:
- Hoeveel gaat de NV30 kosten? en andere versies?
- Vind de release van NV32, 34 etc. samen plaats met de NV30?
Sorry, k had geen zin om de hele topic door te zoeken naar de prijzen.
plus dan zouden de prijzen in amerika bekend zijn en die in nl zullen prob hoger zijn...
maarja, houd dit topic in de gaten zou ik zeggen
Alone at last
Just nostalgia and I
We were sure to have a blast
Hacku schreef op 16 november 2002 @ 19:39:
Er zijn zelf al NV40 specs.
Pixel fill rate 4000 megapixel/s
600 miljoen triangles per seconde (NV30 200 miljoen)
en FSAA zonder framedrop
hoe droog
specs van de nv75
Pixel fill rate 8500 gigapixel/s
9080 miljard triangles per seconde
7400 miljoen gigablocks/s
126 miljard megaFXglobes/s
en FSAA, SDK, KOITTG en LKDHF zonder framedrop

Alone at last
Just nostalgia and I
We were sure to have a blast
Hm, quaken aan 1000 fpsOkyah schreef op 16 November 2002 @ 19:50:
[...]
hoe droog
specs van de nv75
Pixel fill rate 8500 gigapixel/s
9080 miljard triangles per seconde
7400 miljoen gigablocks/s
126 miljard megaFXglobes/s
en FSAA, SDK, KOITTG en LKDHF zonder framedrop
Verwijderd
En komen er veel versie's uit van de NV30, hoop het wel, neem ik iig de goedkoopste
Shut op man , kom jij maar hier bij mij achter de pc kijkenHacku schreef op 16 november 2002 @ 21:11:
[...]
1) Fake => monitor kan da nie aan.
2) Hm photoshop ...

Monitor kan dat nie aan??
ik bedoel je kunt het niet waarnemen maar het voelt wel degelijk soepeler en smooth in het spel
Tjek btw ook ff mijn sig
Enkel een LCD kan da aan. Ma 1000 fps? En welke settings? 640x480?Klubbheads schreef op 16 november 2002 @ 21:12:
[...]
Monitor kan dat nie aan??rofl en als je 300 fps hebt dan?
Je blaat bestwel man...

600 x 800 , alles high en 32 bit detail
Zelfs op 1024 x 768 lukt me dat.. alleen speel ik nu @ een 15"

Maareh ff back ontopic !
vette resolutie is dat, heb je dan zo'n tft die je verticaal kan zetten ?Klubbheads schreef op 16 November 2002 @ 21:16:
[...]
Je blaat bestwel man...maar ik heb serieus 1k fps
600 x 800 , alles high en 32 bit detail
Zelfs op 1024 x 768 lukt me dat.. alleen speel ik nu @ een 15", mijn Pro512 is 2 weken geleden door teleplan opgehaald en in reparatie
Maareh ff back ontopic !
Alone at last
Just nostalgia and I
We were sure to have a blast
Nee , een Piyama Vison Master Pro 410 , en die trekt geen 1600 x 1200 @ 100 HzOkyah schreef op 16 november 2002 @ 21:23:
[...]
vette resolutie is dat, heb je dan zo'n tft die je verticaal kan zetten ?
dus game ik @ 1024 x 768
Die screenshot uit q3 had ik op 800 x 600 omdat ik mijn cpu wou stressen
anders wordt mijn GF4 de bottleneck
Klubbheads schreef op 16 november 2002 @ 21:27:
[...]
Nee , een Piyama Vison Master Pro 410 , en die trekt geen 1600 x 1200 @ 100 Hz
dus game ik @ 1024 x 768
Die screenshot uit q3 had ik op 800 x 600 omdat ik mijn cpu wou stressen
anders wordt mijn GF4 de bottleneck
nee, ik had t over je typo --> 600*800
lol
Alone at last
Just nostalgia and I
We were sure to have a blast
dat voelt alleen soepeler aan als jij een monitor met een refreshrate van 1khz hebtKlubbheads schreef op 16 November 2002 @ 21:12:
[...]
Shut op man , kom jij maar hier bij mij achter de pc kijken![]()
![]()
Monitor kan dat nie aan??rofl en als je 300 fps hebt dan?
ik bedoel je kunt het niet waarnemen maar het voelt wel degelijk soepeler en smooth in het spel
Tjek btw ook ff mijn sig
PSN: DutchTrickle PVoutput
nja, ik voel 150 ipv 85 bijv wel en toch draai ik 1600*1200@85 Hz...Maverick schreef op 16 November 2002 @ 21:33:
[...]
dat voelt alleen soepeler aan als jij een monitor met een refreshrate van 1khz hebt
Alone at last
Just nostalgia and I
We were sure to have a blast
dat "voel" jij omdat er rechtsboven dan 150 staat ipv 85Okyah schreef op 16 November 2002 @ 21:34:
[...]
nja, ik voel 150 ipv 85 bijv wel en toch draai ik 1600*1200@85 Hz...

PSN: DutchTrickle PVoutput
haha , er was laatst een mooi topic daarover..Maverick schreef op 16 November 2002 @ 21:37:
[...]
dat "voel" jij omdat er rechtsboven dan 150 staat ipv 85
anyways als je quake3 hebt gespeeld kun je oordelen anders niet.
Je hebt bij een bepaalde frames per second een soort van "boost" in springen en bewegen om hoekjes.
en dat is precies 125 fps en 333 fps dat je dat verschil goed merkt
Maja in Warcraft III ofzo merk je het inderdaad niet nee

das mooi geheugen
Ik denk dat ik er ook eentje neem als ie onder de 200 euro komt
Dat duurt hopelijk nog wel ff, dan kan m'n geforce 2 GTS nog mooi een tijdje mee
Check m'n icon trouwens
Maverick schreef op 16 november 2002 @ 21:37:
[...]
dat "voel" jij omdat er rechtsboven dan 150 staat ipv 85
kan ook, maar ik speel gewoon lekkerder bij hogere framerate
Alone at last
Just nostalgia and I
We were sure to have a blast
WOEI!Azrael schreef op 16 November 2002 @ 21:42:
nieuws: nVidia NV30 gebruikt DDR-II geheugen
das mooi geheugen
Ik denk dat ik er ook eentje neem als ie onder de 200 euro komt
Dat duurt hopelijk nog wel ff, dan kan m'n geforce 2 GTS nog mooi een tijdje mee
Check m'n icon trouwens
maar een g2gts is mijn inziens niet meer genoeg hoor...

helaas, maar toch
ik erger me al aan mn g3classic
Alone at last
Just nostalgia and I
We were sure to have a blast
We tasten dus ECHT nog in het duister over de naam:
- GeforceFX (lijkt me echt een baggernaam
- Nitro (stukken beter, mijn keus
- Geforce5 (Is het nou al ZEKER dat dit het niet wordt ?? )
- Hier kan alles staan, wie weet is NVIDIA er ook nog mee bezig
Overclocking, ja, mmm ... ik denk toch dat het ietsie minder gaat worden, de tijd dat je het geheugen van je Geforce4 Ti4200 van 500Mhz DDR naar 620Mhz DDR hefte zullen imo voorbij zijn ... en de core lijkt ook een beetje te maxen op de huidige micron productie
Stel, Je gaat 2003 in --> waarmee kun je dan nog 3 maanden lang gamen met een 1.6Ghz proc ... --> Geforce3 Classic is dan toch wel ok ... (Geforce3 Ti200 lijkt me ietsie te licht worden) ..
Ik ben zooooo benieuwd
De meeste mensen deugen!
nee, maandag, tis nog geen zondagmarzzman schreef op 16 November 2002 @ 23:07:
Mannen, we moeten ietsie beter ontopic blijven... ik kan ook niet wachten, maar toch
We tasten dus ECHT nog in het duister over de naam:
- GeforceFX (lijkt me echt een baggernaam)
- Nitro (stukken beter, mijn keus)
- Geforce5 (Is het nou al ZEKER dat dit het niet wordt ?? )
- Hier kan alles staan, wie weet is NVIDIA er ook nog mee bezig...
Overclocking, ja, mmm ... ik denk toch dat het ietsie minder gaat worden, de tijd dat je het geheugen van je Geforce4 Ti4200 van 500Mhz DDR naar 620Mhz DDR hefte zullen imo voorbij zijn ... en de core lijkt ook een beetje te maxen op de huidige micron productie!! Boeie, hij zal toch wel bruut snel zijn.
Stel, Je gaat 2003 in --> waarmee kun je dan nog 3 maanden lang gamen met een 1.6Ghz proc ... --> Geforce3 Classic is dan toch wel ok ... (Geforce3 Ti200 lijkt me ietsie te licht worden) ..
Ik ben zooooo benieuwd!!! Komt hij dus morgen officieel uit
????
maar ik kan mn geheugen ook nog wel redelijk omhoog krijgen, van 650 naar 735
maar 1 gHz -> 1050 misschien?

Omen vind ik btw nog wel de beste naam, maarja, die FX is idd redelijk lame en g5 vind ik wel ok
Nitro valt mee te leven, maar Omen is koeler
Alone at last
Just nostalgia and I
We were sure to have a blast
De meeste mensen deugen!
nog 6 uur latermarzzman schreef op 16 november 2002 @ 23:22:
Omen kan ook nog idd ... time will tell ... Hoe laat komt ie maandag uit op ONZE tijd ??
Amerika loopt achter op ons en daar wordt ie geintroduceerd, neem ik aan..
Alone at last
Just nostalgia and I
We were sure to have a blast
En nee de nv30 hoef je niet meer voor kerst te verwachten. Het wordt dan ook een paper launch maar een tissue launch
nou, nou, zucht, hoeft nou ook weer niet...The Source schreef op 17 November 2002 @ 01:30:
zucht... amerika loopt idd achter. Maar dat ding zal heus niet stipt om 0u worden gelanceerd. Ze wachten gewoon totdat de comdex geopend is en dan wordt dat ding ergens tijdens een pers conferentie gelanceerd.
En nee de nv30 hoef je niet meer voor kerst te verwachten. Het wordt dan ook een paper launch maar een tissue launch
maar ik verwacht em eigenlijk wel met de kerst, is toch leuk voor onder de boom?
Alone at last
Just nostalgia and I
We were sure to have a blast
"Omen" kan dus inderdaad NIET.marzzman schreef op 16 november 2002 @ 23:22:
Omen kan ook nog idd ... time will tell ... Hoe laat komt ie maandag uit op ONZE tijd ??
De merknaam "Omen" is namelijk van ATi.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
eerste link in google gezocht op de woorden nvidia en omen
Huh.. moet ik hier wat typen of zo ?
Tja, en dat nieuwsbericht is al weer van een tijd terug, voordat men er achter kwam dat ATi dus de bezitter was van de merknaam "Omen".Kramers schreef op 17 November 2002 @ 06:17:
De merknaam "Omen" van ATI? Dacht toch echt dat "Omen" van Nvidia was.
eerste link in google gezocht op de woorden nvidia en omen
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ik zou NV5 of gewoon NV30 wel een goeie naam vinden.marzzman schreef op 16 november 2002 @ 23:07:
We tasten dus ECHT nog in het duister over de naam:
- GeforceFX (lijkt me echt een baggernaam)
- Nitro (stukken beter, mijn keus)
- Geforce5 (Is het nou al ZEKER dat dit het niet wordt ?? )
- Hier kan alles staan, wie weet is NVIDIA er ook nog mee bezig...
Humanist | Kernpower! | Determinist | Verken uw geest | Politiek dakloos
Ik wil, ga, eind dit jaar of begin volgend jaar een nieuwe grafische kaart kopen (heeft dit trouwens wel nut bij een amd athlon 1,4 ghz (geen xp us)) maar heb nou geen flauw idee of ik die nv30 wil of de ati die daar weer op volgt.
"I don't take life too seriously, no one gets out alive anyways..."
Als we dan toch op de namen doorgaan, ozuden ze eigenlijk niet een beetje hetzelfde als radeon kunnen doen? Je hebt nu de 4200, 4400, 4600....dat ze dan dus bijv. de 5200, 5400, 5600 doen? En dus wel als Geforce 5 doorgaan, maar toch een duidelijk rating systeem ofzo.....Breepee schreef op 17 November 2002 @ 10:44:
[...]
ik zou NV5 of gewoon NV30 wel een goeie naam vinden.
NV30 dat zegt de gemiddelde consument namelijk niks denk ik....
Nitro klinkt trouwens ook erg cool...
Ik heb nu een Radeon 9700pro en dezelfde processor. Wat ik nu merk is dat ik alle grafische functies open kan zetten zonder performance verlies. Dit komt doordat de Radeon al vette overpower is t.o.v. de processor. Dus bij een nog snellere kaart zal het niet veel sneller worden doordat je cpu duidelijk de bottleneck is. (EN het PC133 geheugen).siggy schreef op 17 november 2002 @ 11:00:
Ben beetje ongeinformeerd de laatste tijd op het gebied van videokaarten (heb nog maar een gef 2 gts pure) maar wat ik dus lees is dat die dus morgen word gereleased in amerika? en dat wij hem dan pas? een maand later kunnen kopen? En hoe zit het met die opvolger van de laatste radeon kaarten van ati?
Ik wil, ga, eind dit jaar of begin volgend jaar een nieuwe grafische kaart kopen (heeft dit trouwens wel nut bij een amd athlon 1,4 ghz (geen xp us)) maar heb nou geen flauw idee of ik die nv30 wil of de ati die daar weer op volgt.
en bedankt.
"I don't take life too seriously, no one gets out alive anyways..."
Ja he, jij vraagt om adviessiggy schreef op 17 November 2002 @ 11:23:
Ik heb dan wel pc2100 geheugen maar wat ik dus hoor heeft het wel degelijk nut. Dus ik ga niet gebakken lucht kopen.
en bedankt.
Maar ook ik zal deze kaart niet kopen, zit nu op een AthlonXP 1600+ @ 1800+ met een Geforce4 Ti4200 64MB DDR ... vind ik een mooie combo, simpel
Als ik er een Radeon9700Pro in zou raggen dan kan ik veel eye-candy aanzetten, maar ik speel altijd gewoon op 1024x768x32 met alle settings op high zonder (FS)AA ... fine for me.
Al moet ik zeggen dat toen ik laatst AF op de 8x tab zette en de D3D op de 4xSAA zette (in drivers dus) en toen UT2003 ging spelen op 1024x768x32 met alles op high ik me de ogen uit me kop keek, mijn god, in de verte kon ik de grasprietjes nog zien
Maar ik denk dat we dus rond 18.00 ofzo de kaart hier kunnen verwachten ... (ongeveer)
De meeste mensen deugen!
"I don't take life too seriously, no one gets out alive anyways..."
http://www.warp2search.ne...=8485&mode=thread&order=0
http://www.warp2search.net/images/geforce_fx/before.jpg
als ie maar voor februari komt.
"I don't take life too seriously, no one gets out alive anyways..."
Dan zul je kerst laat moeten vieren. Of je moet zelf even naar de U S of A gaan om er eentje te scoren......Okyah schreef op 17 November 2002 @ 01:31:
[...]
nou, nou, zucht, hoeft nou ook weer niet...
maar ik verwacht em eigenlijk wel met de kerst, is toch leuk voor onder de boom?
Meer over deze kaart op nieuws: 3DLabs maakt herintrede in consumentenmarkt
Waarom niet iets als:
- Apocalyps !
- Nemesis
- Elite
- Tha Bitch
etc ..
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Hacku schreef op 17 november 2002 @ 18:23:
Weet iemand wanneer de P10 van 3Dlabs komt?
Meer over deze kaart op nieuws: 3DLabs maakt herintrede in consumentenmarkt
Deze kaart komt niet uit op de consumenten-markt. Blijft enkel en alleen beschikbaar voor de professionele markt.
Creative zag in dat deze kaart de Radeon9700 bij lange na niet kon bijbenen (en de NV30 al helemaal niet), dus vandaar deze beslissing.
nieuws: Creative: 3DLabs P10 niet voor consumentenmarkt
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dacht dat die er al zijn. maar het zijn dan ook alleen maar als profie 3D kaarten niet voor gamers bedoeld.Hacku schreef op 17 november 2002 @ 18:23:
Weet iemand wanneer de P10 van 3Dlabs komt?
Meer over deze kaart op nieuws: 3DLabs maakt herintrede in consumentenmarkt
neem aan dat giga wel bekend is die flops zullen wel met Floatingpoint verwerking te maken hebben.Hacku schreef op 17 november 2002 @ 18:41:
Kan iemand me uitleggen wat gigaflops per seconde zijn?
Das een drijvende punt 345 is een gehele 233.2233 is een floatEn wat is floating point?
met 'n 128bits float heb je een heel groot kleuren berijk met ook aanzienlijk kleinere afrondings fouten per berekening.En wat is het voordeel dat deze volledig door de pipes gaan?
Aangezien afrondings fouten per bewerking bij elkaar opgeteld kan worden is de invloed van een grove afrondings fout zeer groot bij meer beweringen.
daarom Float ipv integer.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Dit topic is gesloten.