ik ken er niet veel van, is 128-bit HDR dan goed? 16x aa ken ik wel. (want da bolt bij mij zelfs nie goeHacku schreef op donderdag 05 oktober 2006 @ 18:16:
[...]
Van een beest gesproken. Nog wat leuks: "G80" To Feature 128-bit HDR, 16X AA
Dat is volgens mij gewoon FP32 rendering.Anoniem: 151544 schreef op donderdag 05 oktober 2006 @ 18:25:
[...]
ik ken er niet veel van, is 128-bit HDR dan goed? 16x aa ken ik wel. (want da bolt bij mij zelfs nie goe)
Meer is opties is altijd goed.Hacku schreef op donderdag 05 oktober 2006 @ 18:16:
[...]
Van een beest gesproken. Nog wat leuks: "G80" To Feature 128-bit HDR, 16X AA
Wel wil ik hierbij aantekenen dat het alleen praktisch nut heeft als de framerate intact blijft.
Daarnaast is het zo dat ik bijvoorbeeld tussen 4* en 6* niet echt veel verschil meer zie. Ook hier vraag ik me af hoe nuttig het in de praktijk is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 107573
Ben ik het volkomen met je eens, zéker op de hogere resoluties neemt het nut van AA natuurlijk ook af. Maar méér is altijd beter
Nadat ik eerst nog wel wat twijfels had over de G80, begint het nu echt te kriebelen na het lezen van al deze specs en features ( er van uitgaande dat ze kloppen natuurlijk ). En nu maar hopen dat ze de daad bij het woord voegen en idd keihard zullen launchen half november
Nadat ik eerst nog wel wat twijfels had over de G80, begint het nu echt te kriebelen na het lezen van al deze specs en features ( er van uitgaande dat ze kloppen natuurlijk ). En nu maar hopen dat ze de daad bij het woord voegen en idd keihard zullen launchen half november
Kennelijk wordt het toch nog spannend aldus de Frontpage:
Overname nVidia door Intel 'kwestie van uren'
Overname nVidia door Intel 'kwestie van uren'
Door Yoeri Lauwers - donderdag 5 oktober 2006 11:22 - Bron: Reuters - Views: 23.662 - Permalink
Geruchten over de acquisitie van nVidia door Intel, die al snel na de overname van ATi door AMD de kop opstaken, zijn nieuw leven ingeblazen. Persagentschap Reuters wist namelijk te melden dat het nog slechts een kwestie van uren zou zijn voor de overname publiek bekendgemaakt wordt. Zoals het grote bedrijven betaamt, zijn zowel Intel als nVidia niet bereikbaar voor commentaar, maar voor de aandeelhouders brengen de geruchten in elk geval alleen maar positieve effecten met zich mee. De aandelen van nVidia stegen met 2,32 dollar tot 30,62 dollar nadat de geruchten weer op het web verschenen. Analist Bill Lefkowitz bevestigt dat er gespeculeerd wordt over een eventuele aankondiging van Intel waarin bekendgemaakt zal worden dat het nVidia aan zijn portefeuille toevoegt.
Andere analisten zijn dan weer van mening dat de prijs die voor nVidia betaald moet worden te hoog is om een overname realistisch te maken. Met een marktwaarde van om en bij de tien miljard dollar zou Intel bijna dubbel zo veel moeten betalen als wat AMD voor ATi moest neerleggen. Bovendien produceert Intel nu al grafische chips en zou de overname van nVidia dus minder effect hebben dan de koop van AMD, dat met de overname van ATi de grafische markt kon betreden. Het nieuws dat Intel nVidia alsnog zou overnemen, kan des te verrassender genoemd worden omdat gisteren nog aangekondigd werd dat de cpu-fabrikant tien miljoen dollar in PowerVR, dat zich bezighoudt met het ontwerpen van grafische chips voor video encoding en decoding, zou gaan investeren.
Dat bericht was gisteravond al door Reuters gepost. Ik heb het vandaag in Amsterdam gechecked maar nVidia ontkende het natuurlijk
Ach ja, het is in ieder geval goed voor mijn call opties.
Ik denk niet dat het waar is, anders heeft het enorme impact op de industrie die erg negatief zal zijn. Geen nVidia chipsets meer voor AMD segment, zal een zware klap voor AMD zijn om maar iets te noemen. Daarnaast 2 grote conceren tegenover elkaar, zal de innovatie ook niet ten goede komen.
Ik denk niet dat het waar is, anders heeft het enorme impact op de industrie die erg negatief zal zijn. Geen nVidia chipsets meer voor AMD segment, zal een zware klap voor AMD zijn om maar iets te noemen. Daarnaast 2 grote conceren tegenover elkaar, zal de innovatie ook niet ten goede komen.
Eerste blik op nVidia's G80-grafische kaart
nVidia's G80-grafische kaart
Een voeding van 450W nodig????
nVidia's G80-grafische kaart
Een voeding van 450W nodig????
iemand die een g80 koopt, heeft waarschijnlijk al een 400-500watt psu in z'n gamebak zitten
Anoniem: 107573
Ja en?? Ik vindt dat écht niet zo dramatisch ofzo. Ik zat in het begin eerder aan 550w minstens te denken ofzo. Dit betekend dat mijn Coolermastertje van 450w voorlopig nog even zijn diensten mag blijven bewijzen
hier staan wat specs van de g80
http://www.dailytech.com/article.aspx?newsid=4441
The core clock will be factory clocked at 575 MHz
128 unified shaders clocked at 1350 MHz
ziet er goed uit allemaal...nou nog effe afwachten hoe het daadwerkelijk presteerd
http://www.dailytech.com/article.aspx?newsid=4441
The core clock will be factory clocked at 575 MHz
128 unified shaders clocked at 1350 MHz
ziet er goed uit allemaal...nou nog effe afwachten hoe het daadwerkelijk presteerd
Heb hier even wat rommel weggehaald. Ik zie dat de meesten simpelweg niet reageren op posts die hier niet horen, wat ook de bedoeling is. Daar is het merendeel dus goed bezig, deze notitie is dus ook voor degene die hun posts missen. De topicwarning staat er niet voor niets.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Anoniem: 163665
Dit is een discussietopic waarbij er gediscussieerd wordt over alles wat gerelateerd is aan alle producten uit de GeForce 7-series.
Dus hier hoeven we het niet over de 8-series te hebben ?
Dus hier hoeven we het niet over de 8-series te hebben ?
De topicstart is verouderd, Jejking heeft deze uit het GeForce 7 topic overgenomen
Je mag hier gerust over ander nVidia related nieuws praten.
Anoniem: 100386
E.a. == fixedAnoniem: 163665 schreef op donderdag 05 oktober 2006 @ 22:01:
Dit is een discussietopic waarbij er gediscussieerd wordt over alles wat gerelateerd is aan alle producten uit de GeForce 7-series.
Dus hier hoeven we het niet over de 8-series te hebben ?
Dussss .... iemand een idee hoe dat nu in elkaar zit met die geheugenconfiguratie van de GF8 ?
Bij 384 bits kan ik me een berekening van 3 x 128 bits voorstellen, en bij die 320 ook (2 x 128 + 1 x 64). Waarbij die bit-configuratie mij lijkt te staan voor resp. PixelShader, VertexShader en de GeometryShader. Maar of dit klopt ??
[ Voor 45% gewijzigd door Anoniem: 100386 op 05-10-2006 22:51 ]
Anoniem: 163665
Cybersteef zal toch wel weten waar ie het over heeft als ie het over "topicwarning" heeft ?
Ik heb de topicwarning eveneens even aangepast omdat deze gebaseerd was op de topicstart.
Ik ben ook van mening dat dit een nVidia based nieuws topic hoort te zijn. Wat dat betreft is de topicstart dus ook niet consistent met de topictitle.
Ik ben ook van mening dat dit een nVidia based nieuws topic hoort te zijn. Wat dat betreft is de topicstart dus ook niet consistent met de topictitle.
Uhu, maar als me gevraagd wordt er een te maken dan kijk ik altijd eerst in de topicstart of daar regels staan. In dit geval was dat zo en heb die regel direct uit de TS gehaald. Destijds is het dan ook langs me heen geschoten dat dit een algemeen topic is in plaats van een specifiek GeForce7 draadje.Anoniem: 163665 schreef op donderdag 05 oktober 2006 @ 22:12:
Cybersteef zal toch wel weten waar ie het over heeft als ie het over "topicwarning" heeft ?
[ Voor 51% gewijzigd door Ultraman op 05-10-2006 22:19 ]
Als je stil blijft staan, komt de hoek wel naar jou toe.
Nog even over de GF7900GTO...edward2 schreef op donderdag 05 oktober 2006 @ 13:35:
[...]
Die GTO is een geweldig kaartje, na OC'en heb je gewoon een GTX voor 250 eur.
Het schijnt dat de GTO kaarten eigenlijk kaarten zijn die uit de eerste serie GF7900GTX serie kwamen. Deze hadden blijkbaar te veel problemen met het (Samsung) geheugen, want die wilden niet zonder problemen op 800 Mhz (1600Mhz effectief) lopen. Artifacts zouden opgetreden zijn bij deze kaarten. Vandaar dat nVidia ze terug heeft laten halen en ze lager heeft geklokt wat betreft het geheugen. Dit klinkt allemaal best plausibel zeker als je ziet hoeveel GF7900 kaarten er problemen hadden met het geheugen waardoor ze uit vielen of veel artifacts vertoonden. In nieuwere versies van de GF7900GTX is er ander geheugen (Infineon) op gekomen en zijn de meeste problemen de wereld uit geholpen.
Bron: http://www.beyond3d.com/forum/showthread.php?t=34196
Op dezelfde link staat een link naar het XtremeSystems forum, waar tevens nog gezegd wordt dat er ook een kans in zit dat de GF7900GTOs refurbished kaarten zijn (dus teruggekomen vanwege een defect en daarna gefixed en weer verpakt). Dit zou verklaren waarom op sommige dozen de GTX is afgeplakt en vervangen door GTO. Maar volgens een werknemer van eVGA is dit niet zo en mag dit ook zo maar niet.
Het is wel iets om in je achterhoofd te houden wat betreft het overklokken van het geheugen. Er zit dus een grotere kans in om artifacts te krijgen omdat je het flink boven de 'officiele GTO' specs laat draaien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik geloof het graag. Maar klok je niet over heb je nog steeds een fantastische kaart voor zeker een jaar. Overigens wist ik niet dat EVGA 'm ook levert, heb tot nu toe alleen MSI gezien. Nu zijn dat beide dacht ik wel heel betrouwbare merken.
De MSI is voorzien van een enorme koeling, dus dat onderbouwt je verhaal misschien wel.
De MSI is voorzien van een enorme koeling, dus dat onderbouwt je verhaal misschien wel.
Waar blijven de passieve 7900GS kaarten?
Komen die er nog wel?
Komen die er nog wel?
Een passive GS kaart ben ik nog niet tegen gekomen, maar al wel een 7950 GT; (r00t schreef op vrijdag 06 oktober 2006 @ 15:04:
Waar blijven de passieve 7900GS kaarten?
Komen die er nog wel?
XFX GeForce 7950 GT 570M Extreme (512MB DDR3 HDCP).





Specs: | |
---|---|
Graphics Core GeForce™ | 7950 GT |
Memory Interface | 256 bit |
Memory Bandwidth | 44.8 GB/sec |
Fill Rate | 3.2 Billion Pixels/sec |
Vertices Per Second | 1.1 Billion |
Pixels per Clock (peak) | 24 |
RAMDACs | 400 MHz |
Memory Clock | 1.5 GHz |
Dual Link DVI - Supporting digital output up to 2560x1600 | YES |
Clock rate | 570 MHz |
Chipset GeForce | 7950 GT |
Memory | 512 MB |
Bus Type | PCI-E |
Memory Type | DDR3 |
Memory Bus | 256 bit |
Highlighted Features | TV Out , SLI ready , HDTV ready , Dual DVI Out |
Pricewatch linkje
Imho een nette kaart voor een nette prijs, in duitse shops heb ik ze in ieder geval al voor ongeveer €270,- zien liggen.
Review linkje
[ Voor 22% gewijzigd door mambo No5 op 06-10-2006 15:43 . Reden: iets te vroeg op de verkeerde knop drukken is nooit grappig. ]
Do not throw Rubbish at the platform | Front Pro eigen foto's in een topic
Lijkt mij niet te kloppen. De 7900GTX kwam al lang geleden uit, en als dit een van de eerste series is, dan heeft nVidia wel heel erg lang op haar stock gezeten. nVidia zou dat NOOIT doen.CJ schreef op vrijdag 06 oktober 2006 @ 00:45:
[...]
Nog even over de GF7900GTO...
Het schijnt dat de GTO kaarten eigenlijk kaarten zijn die uit de eerste serie GF7900GTX serie kwamen. Deze hadden blijkbaar te veel problemen met het (Samsung) geheugen, want die wilden niet zonder problemen op 800 Mhz (1600Mhz effectief) lopen. Artifacts zouden opgetreden zijn bij deze kaarten. Vandaar dat nVidia ze terug heeft laten halen en ze lager heeft geklokt wat betreft het geheugen. Dit klinkt allemaal best plausibel zeker als je ziet hoeveel GF7900 kaarten er problemen hadden met het geheugen waardoor ze uit vielen of veel artifacts vertoonden. In nieuwere versies van de GF7900GTX is er ander geheugen (Infineon) op gekomen en zijn de meeste problemen de wereld uit geholpen.
Bron: http://www.beyond3d.com/forum/showthread.php?t=34196
Op dezelfde link staat een link naar het XtremeSystems forum, waar tevens nog gezegd wordt dat er ook een kans in zit dat de GF7900GTOs refurbished kaarten zijn (dus teruggekomen vanwege een defect en daarna gefixed en weer verpakt). Dit zou verklaren waarom op sommige dozen de GTX is afgeplakt en vervangen door GTO. Maar volgens een werknemer van eVGA is dit niet zo en mag dit ook zo maar niet.
Het is wel iets om in je achterhoofd te houden wat betreft het overklokken van het geheugen. Er zit dus een grotere kans in om artifacts te krijgen omdat je het flink boven de 'officiele GTO' specs laat draaien.
Ik heb uit Taiwan gehoord dat dit een batch is van een OEM project die 50K groot is, maar het OEM project ging niet door (HP dacht ik). De eerste keer toen ik op GoT over de GTO sprak was nog niet bekend wie die batch zou kopen. Toen heeft MSI blijkbaar die batch opgekocht en onderhandeld dat zij deze als GTO op de markt mochten brengen in retail packing. De GTO SKU is eigenlijk een OEM SKU die enkel voor de OEM klanten bestemd was. Zo zijn er veel meer nVidia en ATI SKU's namen die enkel toegankelijk zijn voor OEM klanten. OEM SKU's zijn eigenlijk zelfde, met andere benaming, en met kleine aanpassing in de specs. Op dit manier kan nVidia (of ATI) het zich veroorloven om een zelfde kaart erg goedkoop aan OEM's te verkopen, zonder dat andere klanten gaan klagen dat zijn meer moeten betalen. Zelfde verhaal bij Intel voor de T2050, veel goedkoper dan de T2300, maar technisch gezien bijna gelijk. Ook eVGA heeft 5000 stuks ofzo gekregen. Ik denk ook niet dat een merk als MSI een RMA kaart op de markt zou brengen, dus het zijn allemaal nieuwe kaarten, zonder problemen. Ach ja, nou zal nVidia geen GTX SKU's meer op voorraad hebben, wel zo handig nu de G80 eraan komt.
De GTO krijgt gold award op HWI http://www.hardware.info/..._NX7900GTOT2D512E_review/
[ Voor 7% gewijzigd door The Source op 06-10-2006 18:51 ]
Je verhaal klinkt heel aannemelijk, maar ik kan me voorstellen dat kaarten uit een serie, waarvan men niet direct de oorzaak van het probleem kent, apart worden gezet.The Source schreef op vrijdag 06 oktober 2006 @ 18:49:
[...]
Lijkt mij niet te kloppen. De 7900GTX kwam al lang geleden uit, en als dit een van de eerste series is, dan heeft nVidia wel heel erg lang op haar stock gezeten. nVidia zou dat NOOIT doen.
In dat geval lijkt het me dus eigenlijk niet onlogisch om dan alle 'oude' GTX-en terug te roepen en deze weer te verkopen op het moment dat men een passende oplossing heeft gevonden. Dat zou dan het simpelweg downclocken zijn van het geheugen. Maar doordat er al zo veel 7900-kaarten op de markt zijn en de G80 er aan komt, is het natuurlijk even afwachten op het juiste moment om het op de markt te dumpen.
En dit zou ook verklaren waarom niet alle GTOs op GTX kloksnelheid kunnen draaien, terwijl ze aan alle eisen voldoen om op GTX snelheid te lopen (identiek). Vaak zie je bij ATi en nVidia dat die speciale OEM kaarten net niet geschikt zijn om op de 'officiele' topsnelheden te draaien, waardoor er quads gedisabled worden of de snelheid omlaag wordt gekrikt (bv GF7900GS). Het zou dom zijn van nVidia om hier volwaardige GTX-en voor te gebruiken en ze zelf te castreren in vergelijking tot wanneer kaarten gebruikt die echt niet aan de GTX norm kan voldoen.
Overigens is de test van Hardware Info wel heel erg magertjes. Geen AA en AF?
[ Voor 8% gewijzigd door CJ op 06-10-2006 19:37 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 124625
Heb sinds een paar uur de 7900 GTO en mijn eerste indruk is erg positief! Verdomde stil en heb 'm nu op 711/1568 draaien en heb met geen enkel spel, 3d mark 05, ati tool artifacts scanner wat problemen ondervonden. Zeer mooie prestaties voor die prijs, maar ben wel benieuwd of er het oude of nieuwe geheugen inzit.
Edit: inmiddels draait hij bij mij prima op 720/1790.
Edit: inmiddels draait hij bij mij prima op 720/1790.
[ Voor 8% gewijzigd door Anoniem: 124625 op 08-10-2006 18:02 ]
Kijk ook eens voor de grap wat een X1900XT daar scoort in verhouding met de XTX.The Source schreef op vrijdag 06 oktober 2006 @ 18:49:
[...]
De GTO krijgt gold award op HWI http://www.hardware.info/..._NX7900GTOT2D512E_review/

Dat kan nooit.
Verder wel een leuke kaart die GTO. Alleen over 5 a 6 weken hebben we de 8 serie, dus wat moet je nog met een GTO.
[ Voor 27% gewijzigd door Format-C op 06-10-2006 20:09 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Even de productdatabase doorhalenCJ schreef op vrijdag 06 oktober 2006 @ 19:32:
[...]
Overigens is de test van Hardware Info wel heel erg magertjes. Geen AA en AF?Wat prijs betreft is het een heel leuk kaartje, maar ze hadden op z'n minst toch wel de eyecandy omhoog kunnen gooien om te zien welke van de twee kaarten (7900GTO of X1900XT(256) beter is voor die prijs.
http://www.hardware.info/...kapiYmJjK/viewbyproducts/
Beide aanvinken en even op "teken grafieken" klikken.
En jij denkt dat die scores kloppen?
Ik niet. Sterker nog; ik weet zeker dat het niet klopt.
Die X1900XT hoort tegen de 6000 te scoren (of zelfs nog iets meer) als hij op dezelfde manier en met hetzelfde systeem wordt getest als die GTO.
Die XT die daar staat is ook nog eens de 512MB versie. En die scoort echt geen 1100 punten minder dan een XTX hoor....
Eerder 300.
(Ik heb beide kaarten zelf gehad, en zodoende weet ik dat die scores van geen kant kloppen. Dus die grafiekjes e.d. zijn wel leuk, alleen zijn ze ook te verwaarlozen imho)
Ik niet. Sterker nog; ik weet zeker dat het niet klopt.
Die X1900XT hoort tegen de 6000 te scoren (of zelfs nog iets meer) als hij op dezelfde manier en met hetzelfde systeem wordt getest als die GTO.
(Ik heb beide kaarten zelf gehad, en zodoende weet ik dat die scores van geen kant kloppen. Dus die grafiekjes e.d. zijn wel leuk, alleen zijn ze ook te verwaarlozen imho)
[ Voor 34% gewijzigd door Format-C op 06-10-2006 21:14 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Wat wil je dan zeggen, dat wij valse data publiceren ofzo? Alle tests zijn zelf uitgevoerd en de waarden die je in de grafieken ziet komen rechtstreeks van het scherm. Dat jij hogere scrores haalt kan aan allerlei zaken liggen.
Die X1900XT kan NOOIT of te nimmer 1100 punten minder scoren dan een XTX. Die 25MHz op de core en 50 op het mem geven nooit of te nimmer een boost van 1100. .
Ik scoorde met een Opteron 165 @ 2570Mhz met die X1900XT al 5700 punten in 3DMark06. Dan KAN ik dus niet geloven dat die X1900XT met een C2D X6800 @ 2,93GHz minder scoort dan 6000.
Dat KAN gewoon niet, dus die tabel klopt niet.
Net als CJ hieronder zegt, denk ik dat die test idd met oude drivers is gedaan, op een FX-57 oid.
Ik scoorde met een Opteron 165 @ 2570Mhz met die X1900XT al 5700 punten in 3DMark06. Dan KAN ik dus niet geloven dat die X1900XT met een C2D X6800 @ 2,93GHz minder scoort dan 6000.
Dat KAN gewoon niet, dus die tabel klopt niet.
Vals wil ik het niet noemen hoor, niet kloppend klinkt beter. Ik ga er vanuit dat dit niet bewust gedaan is/wordt. Ik bedoel het ook niet aanvallend oid.Wat wil je dan zeggen, dat wij valse data publiceren ofzo?
Net als CJ hieronder zegt, denk ik dat die test idd met oude drivers is gedaan, op een FX-57 oid.
[ Voor 30% gewijzigd door Format-C op 06-10-2006 21:30 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Kijk dan ook eens op andere sites Hacku. Daar zie je precies wat RappieRappie beweert. De X1900XT512 scoort veel te laag op HWI. Als je de gemiddelde tech site neemt zie je dat in bv 3DM06 de SM3.0/HDR tests gewonnen worden door ATI. HWI wijkt hier wel enorm veel van af. Ook de grote verschillen in OGL games wijken af van de scores die met de meest recente Catalyst worden behaald.
Daarnaast lijkt het er op dat er gewoon hele oude Catalyst drivers zijn gebruikt. Ik kan nergens vinden op welk moment de X1900XT512 is getest, maar het lijkt er op dat de resultaten afstammen uit Januari op het moment dat de X1900XTX gelanceerd werd.
De scores van HWI liggen niet in lijn met die van de andere sites en gebruikerservaringen. Dan moet er toch ergens een belletje gaan rinkelen?
Daarnaast lijkt het er op dat er gewoon hele oude Catalyst drivers zijn gebruikt. Ik kan nergens vinden op welk moment de X1900XT512 is getest, maar het lijkt er op dat de resultaten afstammen uit Januari op het moment dat de X1900XTX gelanceerd werd.
De scores van HWI liggen niet in lijn met die van de andere sites en gebruikerservaringen. Dan moet er toch ergens een belletje gaan rinkelen?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Doe eens rustig aan man, het is maar een videokaart hoor. Ik zal het nog even navragen, ik zal je morgen een mailtje sturen (naar het e-mail dat in je profiel staat). Het kan natuurlijk altijd dat er ergens een verkeerde waarde ingegeven werd, maar dat is bij mijn weten nog nooit gebeurd en met opzet verkeerde waarden ingeven doen we ook niet 
Wij krijgen de kaarten steeds voor launch binnen en die worden dan ook direct getest, zodat de artikelen en data direct na het verloop van de NDA online kunnen. Die resultaten zijn sowieso nooit met de laatste drivers.Daarnaast lijkt het er op dat er gewoon hele oude Catalyst drivers zijn gebruikt. Ik kan nergens vinden op welk moment de X1900XT512 is getest, maar het lijkt er op dat de resultaten afstammen uit Januari op het moment dat de X1900XTX gelanceerd werd.
[ Voor 41% gewijzigd door XWB op 06-10-2006 21:36 ]
ach al die sites waar je veel vga kaarten met elkaar kunt vergelijken dat moet je allemaal maar met een beetje zout nemen. Systeem configuraties, drivers en het weer zijn nooit hetzelfde. Meestal probeer ik naar tests te kijken waarin alle kaarten opnieuw gebecnhmarkt worden met de nieuwste drivers. Helaas doen niet alles sites dit, omdat dit erg veel werk kost.
Anoniem: 107573
Bij deze wil ik mij best opgeven als freelance high-end kaartjes tester hoor. En nog voor niks ook
Hier scoort de X1900XT 512 6100 3D markjes.
Het betreft een eVGA 7900GTO review. Dus er komen meer merken GTO's.
Het betreft een eVGA 7900GTO review. Dus er komen meer merken GTO's.
[ Voor 22% gewijzigd door Format-C op 07-10-2006 09:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
r00t schreef op donderdag 05 oktober 2006 @ 16:48:
Is de XFX 7950 GT de enige in de 79xx familie die passief gekoeld wordt?
Oopsmoment, sorry mods, sorry Bockwurst 
Fixed, more things up to come soon
Klopt. Ik heb trouwens wat rondgezocht met Google en vond wat informatie over de eVGA.. het schijnt zo te zijn dat je deze gewoon "mag" overklokken en niet je garantie daardoor kan verliezen. Iemand daar meer over gehoord? Of is het misschien alleen in de US zo? Of misschien helemaal niet. Ik vind geen Nederlandse bronnen die dit zeggen, alleen een paar op Engelstalige fora, en ik heb geen bron van eVGA zelf gezien.RappieRappie schreef op zaterdag 07 oktober 2006 @ 09:20:
Hier scoort de X1900XT 512 6100 3D markjes.
Het betreft een eVGA 7900GTO review. Dus er komen meer merken GTO's.
Anoniem: 153166
7950g2 vs x1950xtx
Welke zou dan hoger komen testaan eigenlijk?? of ik het verschil gering??
Welke zou dan hoger komen testaan eigenlijk?? of ik het verschil gering??
[ Voor 28% gewijzigd door Ultraman op 08-10-2006 16:31 ]
Evga vindt overclocken geen probleem zo lang je de kaart maar niet aanpast (andere koeling, bios en dergelijke). Volgens mij kun je ook moeilijk aantonen dat een kaart overgeclockt is geweest op driverniveau.RoD schreef op zaterdag 07 oktober 2006 @ 13:32:
[...]
Klopt. Ik heb trouwens wat rondgezocht met Google en vond wat informatie over de eVGA.. het schijnt zo te zijn dat je deze gewoon "mag" overklokken en niet je garantie daardoor kan verliezen. Iemand daar meer over gehoord?
Verder heb ik gelezen dat op 18 oktober de 8800GTX en 8800GTS voorgesteld zullen gaan worden aan de pers in de USA. Drie weken later volgt Europa en een "hard launch" van het product wereldwijd.
Daarnaast gaat nVidia komen met de nForce 650i en de nForce 680i. De laatste ter vervanging van de mislukte 590 SLI, zodat nVidia ook eindelijk met een C2D (en C2Q) chipset komt met 48 PCI-E lanes.
Ik lees trouwens op internet dat de 7900GTO HDCP support heeft, maar ik lees er niks over terug in de specs (van de eVGA) weet iemand of deze kaart echt HDCP support heeft?
Het enige wat ik weet was dat er een 7900GT gelaunched was met HDCP-support, maar 7900GTO? Neeh, die volgens mij (nog) niet, of ik heb wat gemist.RoD schreef op zaterdag 07 oktober 2006 @ 19:15:
Ik lees trouwens op internet dat de 7900GTO HDCP support heeft, maar ik lees er niks over terug in de specs (van de eVGA) weet iemand of deze kaart echt HDCP support heeft?
De 7950GT heeft wel HDCP, dat weet ik, en ik lees dus ook dat de 7900GTO dat heeft alleen dat krijg ik niet bevestigd door naar de specs te kijken. Aan de andere kant hoor ik dat de 7900GTO identiek is aan de 7900GTX, behalve wat lager geklokt geheugen, en die heeft dus geen HDCP.
Nouja, het zal dan wel niet kloppen.
Zal eens even wat bronnen zoeken btw die dit zeggen.
Edit: Nou, volgens mij kloppen die bronnen gewoon niet
Goed, geen HDCP dus.
Nouja, het zal dan wel niet kloppen.
Zal eens even wat bronnen zoeken btw die dit zeggen.
Edit: Nou, volgens mij kloppen die bronnen gewoon niet
[ Voor 9% gewijzigd door RoD op 07-10-2006 21:16 ]
DirectX 10 compliant GeForce 8800GTX and 8800GTS headed your way
Dit is uit het artikeltje als je de link volgt, toch wel handig vind ik zo om even te vermelden
Dat van die 8800GTS vind ik wel vaag, hoe kan je in vrédesnaam nou een PCB maken met 320-bit in plaats van 384-bit van grotere broer? Dat riekt naar twee aparte PCB's vind ik.DailyTech's hands-on with the GeForce 8800 series continues with more information about the GPU and the retail boards. The new NVIDIA graphics architecture will be fully compatible with Microsoft’s upcoming DirectX 10 API with support for shader model 4.0, and represents the company's 8th generation GPU in the GeForce family.
NVIDIA has code-named G80 based products as the GeForce 8800 series. While the 7900 and 7800 series launched with GT and GTX suffixes, G80 will do away with the GT suffix. Instead, NVIDIA has revived the GTS suffix for its second fastest graphics product—a suffix that hasn’t been used since the GeForce 2 days.
NVIDIA’s GeForce 8800GTX will be the flagship product. The core clock will be factory clocked at 575 MHz. All GeForce 8800GTX cards will be equipped with 768MB of GDDR3 memory, to be clocked at 900 MHz. The GeForce 8800GTX will also have a 384-bit memory interface and deliver 86GB/second of memory bandwidth. GeForce 8800GTX graphics cards are equipped with 128 unified shaders clocked at 1350 MHz. The theoretical texture fill-rate is around 38.4 billion pixels per second.
Slotted right below the GeForce 8800GTX is the slightly cut-down GeForce 8800GTS. These graphics cards will have a G80 GPU clocked at a slower 500 MHz. The memory configuration for GeForce 8800GTS cards slightly differ from the GeForce 8800GTX. GeForce 8800GTS cards will be equipped with 640MB of GDDR3 graphics memory clocked at 900 MHz. The memory interface is reduced to 320-bit and overall memory bandwidth is 64GB/second. There will be fewer unified shaders with GeForce 8800GTS graphics cards. 96 unified shaders clocked at 1200 MHz are available on GeForce 8800GTS graphics cards.
Additionally GeForce 8800GTX and 8800GTS products are HDCP compliant with support for dual dual-link DVI, VIVO and HDTV outputs. All cards will have dual-slot coolers too. Expect GeForce 8800GTX and 8800GTS products to launch the second week of November 2006. This will be a hard launch as most manufacturers should have boards ready now.
Power requirements for the G80 were detailed in an earlier DailyTech article.
Dit is uit het artikeltje als je de link volgt, toch wel handig vind ik zo om even te vermelden
Mits deze kaartjes geen gigantische powersucking houses worden begin ik er hárd over na te denken om over te stappen als de ATi R600 een flop blijkt te zijn (of althans: niet goed genoeg). Comments anyone?Update 10/05/2006: We originally reported the GeForce 8800GTX and 8800GTS are 9" in length. The reference design for the 8800GTX is actually a little less than 11 inches. The GTX has two 6-pin power adaptors, the GTS has only one.
Gewoon 2 van de 12 geheugenmodules eraf slopen?Jejking schreef op zaterdag 07 oktober 2006 @ 21:15:
Dat van die 8800GTS vind ik wel vaag, hoe kan je in vrédesnaam nou een PCB maken met 320-bit in plaats van 384-bit van grotere broer? Dat riekt naar twee aparte PCB's vind ik.
Wat doe je dan als ze wel krachtcentrales nodig hebben?Mits deze kaartjes geen gigantische powersucking houses worden begin ik er hárd over na te denken om over te stappen als de ATi R600 een flop blijkt te zijn (of althans: niet goed genoeg). Comments anyone?
[ Voor 29% gewijzigd door Olaf van der Spek op 07-10-2006 21:32 ]
Anoniem: 107573
Tja, ik ben de laatste jaren nVidia altijd trouw gebleven, dus verwacht van mij geen objectieve meningJejking schreef op zaterdag 07 oktober 2006 @ 21:15:
Mits deze kaartjes geen gigantische powersucking houses worden begin ik er hárd over na te denken om over te stappen als de ATi R600 een flop blijkt te zijn (of althans: niet goed genoeg). Comments anyone?
Maar wat weerhoudt je ervan, afgezien van de eventuele hoger power consumptie, om de overstap te wagen? De R600 zal ook genoeg slurpen denk ik zo.. Of gaat het weer om het hele IQ verhaal?
Maar als ik eerlijk moet zijn, en dat is puur speculatief natuurlijk, denk ik gewoon dat de R600 weer over de G80 zal gaan, simpelweg omdat Ati het niet niet wederom kan veroorloven niet de snelste van het moment te zijn. En nVidia zal dan weer counteren met een 8900 GTX enz enz.
Maar goed, voor mij is het simpel als liefhebber zijnde, ik wil gewoon de snelste groene kaart verkrijgbaar.
Inderdaad, gezien dat videokaarten na 3 maanden aanzienlijk in prijs gedaalt zijn, denk ik ook weer dat er een voordeel voor nVidia is. De groene kaart is het snelste verkrijgbaarAnoniem: 107573 schreef op zaterdag 07 oktober 2006 @ 22:26:
Maar goed, voor mij is het simpel als liefhebber zijnde, ik wil gewoon de snelste groene kaart verkrijgbaar.
En die physics unit spreekt me zeker aan, gebouwd op de videokaart voor ultra lage latencies en minimale bushops. Not to mention the 128 shaders @ 1350mhz. Goed bezig
Het wordt op zn minst spannend.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Die heb ik nu draaien, en dat is een fijn kaartje. Hij is wat duurder in vergelijking met de x1900 serie, maar het grote voordeel (voor mij in ieder geval) is dat hij pasief gekoeld is. Heb er nog geen benchmarks mee gedraaid, alleen gegamed, maar dat doet hij heel goedmambo No5 schreef op vrijdag 06 oktober 2006 @ 15:34:
[...]
Een passive GS kaart ben ik nog niet tegen gekomen, maar al wel een 7950 GT; ()
XFX GeForce 7950 GT 570M Extreme (512MB DDR3 HDCP).
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]
Specs: Graphics Core GeForce™ 7950 GT Memory Interface 256 bit Memory Bandwidth 44.8 GB/sec Fill Rate 3.2 Billion Pixels/sec Vertices Per Second 1.1 Billion Pixels per Clock (peak) 24 RAMDACs 400 MHz Memory Clock 1.5 GHz Dual Link DVI - Supporting digital output up to 2560x1600 YES Clock rate 570 MHz Chipset GeForce 7950 GT Memory 512 MB Bus Type PCI-E Memory Type DDR3 Memory Bus 256 bit Highlighted Features TV Out , SLI ready , HDTV ready , Dual DVI Out
Pricewatch linkje
Imho een nette kaart voor een nette prijs, in duitse shops heb ik ze in ieder geval al voor ongeveer €270,- zien liggen.
Review linkje
Flickr PSN ID= cheironnl
Volgens mij is die 512mb het enige verschil met de 7900gt. Of is er nog meer?cheiron schreef op zondag 08 oktober 2006 @ 09:57:
[...]
Die heb ik nu draaien, en dat is een fijn kaartje. Hij is wat duurder in vergelijking met de x1900 serie, maar het grote voordeel (voor mij in ieder geval) is dat hij pasief gekoeld is. Heb er nog geen benchmarks mee gedraaid, alleen gegamed, maar dat doet hij heel goed
De GF7900GTX draait op 650Mhz core en 800Mhz mem (512MB)
De GF7900GTO draait op 650Mhz core en 660Mhz mem (512MB)
De GF7950GT draait op 550Mhz core en 700Mhz mem (512MB)
De GF7900GT draait op 450Mhz core en 660Mhz mem (256MB)
De GF7900GTO draait op 650Mhz core en 660Mhz mem (512MB)
De GF7950GT draait op 550Mhz core en 700Mhz mem (512MB)
De GF7900GT draait op 450Mhz core en 660Mhz mem (256MB)
Lol! Een 7950GX2 overkill op die resolutie... Welke games speel jij? Minesweeper?RappieRappie schreef op zondag 08 oktober 2006 @ 01:20:
[...]
Neem een X1950XTX of zelfs een X1900 kaart die veel goedkoper is. De 7900GTO is ook een leuke optie. De GX2 is overkill op die resolutie imho.
Sorry hoor, maar met Oblivion alles max ingesteld heeft zelfs die kaart er nog moeite mee in mijn systeem, en hoewel dat dan ook wel extreme grafische instellingen zijn vind ik die kaart alles behalve overkill voor die resolutie.
Tesla Model Y RWD (2024)
Nou, dan zet je de setttings in die ENE game wat lager.
Ik heb zelf alle high end kaarten gehad vanaf de 7800GTX, behalve de 7900GT. (Dus een 7800GTX, 7900GTX, 7950GX2, X1900XT, X1900XTX
) En mijn conclusie is dat een X1900 kaart alle huidige games goed trekt met AA en AF op hoge settings op 1280x1024 --->FEAR, BF2, CoD2, CSS, HL2, Prey, AoE3, GTR2. En een 7900GTO zal dat ook wel doen. Om al die games op 1680x1050 met AA en AF te spelen heb je geen 7950GX2 nodig.
En om nu 300 euro extra uit te geven omdat 1 game de power wel kan gebruiken vind ik persoonlijk zonde. Maar goed... Dat moet degene die het vroeg zelf maar bekijken.

Ik heb zelf alle high end kaarten gehad vanaf de 7800GTX, behalve de 7900GT. (Dus een 7800GTX, 7900GTX, 7950GX2, X1900XT, X1900XTX
En om nu 300 euro extra uit te geven omdat 1 game de power wel kan gebruiken vind ik persoonlijk zonde. Maar goed... Dat moet degene die het vroeg zelf maar bekijken.
[ Voor 17% gewijzigd door Format-C op 08-10-2006 13:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik heb al op heel veel plaatsen gezocht naar informatie over dit probleem, ik kan echter niets vinden.
De afgelopen jaren heb ik verschillende ATI videokaarten gehad. Deze week echter overgestapt op nVidia. Nu heb ik bij ALLE divx/xvid filmpjes die ik afspeel, ongeacht welke player, dat het beeld niet mooi is bij snelle camara bewegingen. (horizontale strepen).. net alsof het een vsync probleem is.
Valt dit op te lossen?
Nee? Dan is mijn ASUS 7900GT bij deze te koop.
De afgelopen jaren heb ik verschillende ATI videokaarten gehad. Deze week echter overgestapt op nVidia. Nu heb ik bij ALLE divx/xvid filmpjes die ik afspeel, ongeacht welke player, dat het beeld niet mooi is bij snelle camara bewegingen. (horizontale strepen).. net alsof het een vsync probleem is.
Valt dit op te lossen?
Nee? Dan is mijn ASUS 7900GT bij deze te koop.
klopt, maar dan kun je natuurlijk wel de instellingen wat hoger gaan zetten...8xAA supersampling, 16xAF, V-sync, tripple buffering + ingame alles volopen...enz..enz..RappieRappie schreef op zondag 08 oktober 2006 @ 12:59:
. Om al die games op 1680x1050 met AA en AF te spelen heb je geen 7950GX2 nodig.
.
een ''overkill'' videokaart bestaat naar mijn mening niet...je kan dan immers altijd nog de settings wat hoger zetten, waardoor het er ook weer wat beter uit gaat zien?!
Op een of andere Chinese site kwam ik speculaties tegen tav de prestaties van de 8800GTX/S. Ik weet niet wat er van waar is, maar daar komen we binnenkort wel achter:
Conroe E6600 400*9
3D06 12xxx
3D05 19xxx
http://we.pcinlife.com/thread-630584-1-1.html
Conroe E6600 400*9
3D06 12xxx
3D05 19xxx
http://we.pcinlife.com/thread-630584-1-1.html
Mwah, het zooitje doet 3x zo veel @ 3D6 dan mijn 7900GT + 3700+ (OC'ed, zie specs in sig).. 
Deze scores vallen mij echt niet tegen hoor, vooral niet als je erbij nadenkt dat er ook vast wel een 8900GT, 8900GTX, en zelfs 8950GX2 zullen komen.. Daarbij ondersteunen ze DX10.
Deze scores vallen mij echt niet tegen hoor, vooral niet als je erbij nadenkt dat er ook vast wel een 8900GT, 8900GTX, en zelfs 8950GX2 zullen komen.. Daarbij ondersteunen ze DX10.
Staat nergens dat het over de GTX versie gaat. Zoals een chinees daar één of twee posts onder stelt: misschien gaat het wel om de GTS versie.
Maar al bij al, mocht dit waar zijn, valt het tegen. Denk ook niet dat dit waar is.
Wat trouwens ook nog kan, misschien is het wel met AA en/of AF.
edit: Reactie op hierboven: Vergeet niet dat jij géén dual-core processor hebt, dit scheelt aanzienlijk in 3dmark06. Ik heb zo 1000 punten meer dan jij (zie sig.).
Maar al bij al, mocht dit waar zijn, valt het tegen. Denk ook niet dat dit waar is.
Wat trouwens ook nog kan, misschien is het wel met AA en/of AF.
edit: Reactie op hierboven: Vergeet niet dat jij géén dual-core processor hebt, dit scheelt aanzienlijk in 3dmark06. Ik heb zo 1000 punten meer dan jij (zie sig.).
[ Voor 22% gewijzigd door Gurneyhck op 08-10-2006 21:25 ]
Dan nog is het 3x zo veel..Gurneyhck schreef op zondag 08 oktober 2006 @ 21:24:
edit: Reactie op hierboven: Vergeet niet dat jij géén dual-core processor hebt, dit scheelt aanzienlijk in 3dmark06. Ik heb zo 1000 punten meer dan jij (zie sig.).
Aangepast.Gurneyhck schreef op zondag 08 oktober 2006 @ 21:24:
Staat nergens dat het over de GTX versie gaat. Zoals een chinees daar één of twee posts onder stelt: misschien gaat het wel om de GTS versie.
Ik denk wel redelijk realistisch. De 7800GTX was in 3D Mark 05 twee keer zo snel als een 6800 Ultra. Deze kaart is +/- 2x zo snel als een 7900GTX en 1,5x zo snel als de 7950GX2. Maar iemand kan dit ook gewoon verzonnen hebbenMaar al bij al, mocht dit waar zijn, valt het tegen. Denk ook niet dat dit waar is.
of de kaart overgeklokt is of niet, telt natuurlijk ook mee.....lees daar niks over
maar klinkt me idd wel realistisch....tenzij de kaart dik overgeklokt is natuurlijk, want op xs-systems heeft ook al iemand de 12k gehaald met een gx2
(al zijn dat dan wel weer 2 gpu's)
afwachten
maar klinkt me idd wel realistisch....tenzij de kaart dik overgeklokt is natuurlijk, want op xs-systems heeft ook al iemand de 12k gehaald met een gx2
afwachten
[ Voor 73% gewijzigd door Mr. Detonator op 08-10-2006 22:23 ]
Rappie speelt alleen CSS--MeAngry-- schreef op zondag 08 oktober 2006 @ 12:45:
[...]
Lol! Een 7950GX2 overkill op die resolutie... Welke games speel jij? Minesweeper?
Sorry hoor, maar met Oblivion alles max ingesteld heeft zelfs die kaart er nog moeite mee in mijn systeem, en hoewel dat dan ook wel extreme grafische instellingen zijn vind ik die kaart alles behalve overkill voor die resolutie.
Idd, CoJ, Oblivion, Condemned etc vind zelfs met een X1900CF soms nog te traag.
12xxx is hopelijk niet (final)voor een 8800 GTX, ik zit met een niet oc'de XF1900CF al op bijna 11000 met m'n Conroe 2,4@3 ghz. Het is wel zo dat de G80 drivers nog nauwelijks uit de debugging fase zijn, dus misschien zit 2x 7950 perf er nog steeds in.
[ Voor 18% gewijzigd door edward2 op 08-10-2006 22:23 ]
Niet op voorraad.
1900? 7950? Er zijn tig varianten van die kaarten, welke bedoel je?edward2 schreef op zondag 08 oktober 2006 @ 22:06:
[...]
Rappie speelt alleen CSS![]()
Idd, CoJ, Oblivion, Condemned etc vind zelfs met een X1900CF soms nog te traag.
12xxx is hopelijk niet (final)voor een 8800 GTX, ik zit met een niet oc'de XF1900CF al op bijna 11000 met m'n Conroe 2,4@3 ghz. Het is wel zo dat de G80 drivers nog nauwelijks uit de debugging fase zijn, dus misschien zit 2x 7950 perf er nog steeds in.
Een niet overgeklokte X1900CF opstelling is een x1900 crossfire met een x1900xt of x1900xtx (wat niet zoveel scheelt. Er is maar één 7950GX2.
Anoniem: 153166
Ja wel 1 g2 maar meer andere 7950 kaartenm277755 schreef op maandag 09 oktober 2006 @ 00:07:
Een niet overgeklokte X1900CF opstelling is een x1900 crossfire met een x1900xt of x1900xtx (wat niet zoveel scheelt. Er is maar één 7950GX2.
Aangezien de geruchten waar we over discussiëren spreken over 2x 7950GX2 prestatie voor de 8800 GTX en edward dit zegt:
Mag je er denk ik van uit gaan dat hij de 7950GX2 bedoelt.Het is wel zo dat de G80 drivers nog nauwelijks uit de debugging fase zijn, dus misschien zit 2x 7950 perf er nog steeds in.
Ik zit met interesse te kijken naar de prijzen van de laatste kaarten die nog uitkomen in de 7-serie van nvidia. De 7900GTO en 7950GT 512Mb zijn beide erg interessant.
XFX maakt een 7950GT (een gewone en een 'extreme') met 512Mb die passief gekoeld worden. Ideaal als je snelheid wilt en geen compromissen wilt sluiten qua geluid (zoals ik).
Maar de koeler van de 7900GTX/7900GTO schijnt ook weinig lawaai te maken. Zijn er mensen die ervaring hebben met de 'noise' van de 7900GTX stock cooler?
XFX maakt een 7950GT (een gewone en een 'extreme') met 512Mb die passief gekoeld worden. Ideaal als je snelheid wilt en geen compromissen wilt sluiten qua geluid (zoals ik).
Maar de koeler van de 7900GTX/7900GTO schijnt ook weinig lawaai te maken. Zijn er mensen die ervaring hebben met de 'noise' van de 7900GTX stock cooler?
https://www.strava.com/athletes/10490675
Anoniem: 107573
De koeler van een GTX hoor je zo goed als niet, in idle. Tuurlijk hoor je hem wel onder full load, maar mijn Zalman cu 9500 koeler hoor ik duidelijker. Dus de GTX is vrij stil.
Helemaal in vergelijking met m'n GX2
Helemaal in vergelijking met m'n GX2
Recentie van de Galaxy GF7900GT DUAL CORE: http://www.guru3d.com/article/Videocards/382/
En nee, dit is geen GX2, maar een echte 2 cores op 1 PCB kaart.
En nee, dit is geen GX2, maar een echte 2 cores op 1 PCB kaart.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CF met een X1900XT(X) en een X1900XT.OlafvdSpek schreef op maandag 09 oktober 2006 @ 00:00:
[...]
1900? 7950? Er zijn tig varianten van die kaarten, welke bedoel je?
Ik bedoel tov de 7950GX2, de 7950GT is nou niet echt een snelheidswonder
Deze perf. indicatie las ik ergens op het forum van b3d.
[ Voor 3% gewijzigd door edward2 op 09-10-2006 17:51 ]
Niet op voorraad.
Dan heb jij een vrij lage score denk ik. Want ik haal begin 5000 met mijn opstelling. Daarnaast is in deze test, waar de chinese site over gaat een conroe op 3.6ghz gebruikt. Als je een 3.6 ghz conroe gebruikt i.c.m. een 7900GTX dan heb je, schat ik, wel minstens 6500 punten (correct me if I'm wrong).
Zo stom.CJ schreef op maandag 09 oktober 2006 @ 16:58:
Recentie van de Galaxy GF7900GT DUAL CORE: http://www.guru3d.com/article/Videocards/382/
En nee, dit is geen GX2, maar een echte 2 cores op 1 PCB kaart.
Het moet een concurrent zijn van de GX2 en dan nemen ze die niet mee in de tests ?!
Dan is hij ook nog eens duurder dan een GX2 en heeft geen SLI bridge, lijkt mij geen interesante kaart (al is hij standaard wel lekker hoog geklokt)
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Zoals gezegd, ik heb 1GB geheugen, en een singlecore.. Dat scheelt aanzienlijk.Gurneyhck schreef op maandag 09 oktober 2006 @ 18:42:
[...]
Dan heb jij een vrij lage score denk ik. Want ik haal begin 5000 met mijn opstelling. Daarnaast is in deze test, waar de chinese site over gaat een conroe op 3.6ghz gebruikt. Als je een 3.6 ghz conroe gebruikt i.c.m. een 7900GTX dan heb je, schat ik, wel minstens 6500 punten (correct me if I'm wrong).
Check anders ook de top20 eens, daarin hebben ze al 16k
Ja precies, ze hebben de 16k al. Daarom vind ik het niet zo heel indrukwekkend die 12k van de G80, maar nu doe jij net alsof jij dat ook vind terwijl je toch echt dit zei:TheZeroorez schreef op maandag 09 oktober 2006 @ 18:59:
[...]
Zoals gezegd, ik heb 1GB geheugen, en een singlecore.. Dat scheelt aanzienlijk.
Check anders ook de top20 eens, daarin hebben ze al 16k
Dus nogmaals vind het niet heel indrukwekkend met een 3.6ghz conroe.TheZeroorez schreef op zondag 08 oktober 2006 @ 21:17:
Mwah, het zooitje doet 3x zo veel @ 3D6 dan mijn 7900GT + 3700+ (OC'ed, zie specs in sig)..
Deze scores vallen mij echt niet tegen hoor, vooral niet als je erbij nadenkt dat er ook vast wel een 8900GT, 8900GTX, en zelfs 8950GX2 zullen komen.. Daarbij ondersteunen ze DX10.
edit: typo
Let dus wel even op het feit dat dat machines zijn met 7900GTX SLi erin, 2048MB DDR2 RAM, en een Conroe @ 4,8GHz... Dat geheugen is dus ook dik overgeklokt, en die kaarten zullen ook wel niet standaard lopen.Gurneyhck schreef op maandag 09 oktober 2006 @ 19:12:
[...]
Ja precies, ze hebben de 16k al. Daarom vind ik het niet zo heel indrukwekkend die 12k van de G80, maar nu doe jij net alsof jij dat ook vind terwijl je toch echt dit zei:
[...]
Dus nogmaals vind het niet heel indrukwekkend met een 3.6ghz conroe.
edit: typo
Tel daar even bij op dat de 8800GT een kaart is die je als de opvolger van de 7800GT moet zien, en kom tot de conclusie dat het een vrij normale score is..
Anoniem: 107573
Wacht even, dus die speculatieve scores op die Chinese site bertrefften de 8800GTS? Dat haal ik uit jouw woorden. 12k voor een GTS vindt ik persoonlijk aannemelijker idd dan 12k voor een GTX.
nope: 1. k|ngp|n - 16357.00 - Cpu cooled using Dragon ln2 unit. GPU's cooled with Tek9 ln2 unit'sTheZeroorez schreef op maandag 09 oktober 2006 @ 19:23:
[...]
en die kaarten zullen ook wel niet standaard lopen.
kaart draait op 1050/1084
en de nummer 2 heeft dikke 14k, dus die 16k zijn echt uitzonderlijk hoog
[ Voor 7% gewijzigd door Mr. Detonator op 09-10-2006 19:49 ]
Ik heb het over de GT, niet de GTX idd.Anoniem: 107573 schreef op maandag 09 oktober 2006 @ 19:43:
Wacht even, dus die speculatieve scores op die Chinese site bertrefften de 8800GTS? Dat haal ik uit jouw woorden. 12k voor een GTS vindt ik persoonlijk aannemelijker idd dan 12k voor een GTX.
Anoniem: 107573
Ok dan
Maar voordat er verwarring ontstaat: het is de GTS, de GT komt er ( nog ) niet.
Ook al zou het de gtx zijn die 12k haalt, als het allemaal luchtgekoeld is, wil dat dus zegen dat je met 2 van die kaarten zo aan de 19-20k zit......en een beetje overgeklokt 20-22k..Anoniem: 107573 schreef op maandag 09 oktober 2006 @ 19:49:
Ok danMaar voordat er verwarring ontstaat: het is de GTS, de GT komt er ( nog ) niet.
let wel op...de snelste single-gpu kaart van het moment haalt zo'n 8500 punten (x1900xtx) dik overgeklokt @ 776/1790, P4 930@ 4731 nummer 46
dan is 12k toch een hele vooruitgang ?!
[ Voor 26% gewijzigd door Mr. Detonator op 09-10-2006 20:02 ]
Anoniem: 179733
Even een vraagje: Ik heb een Pentium D830 (Dual Core, 3GHz), als ik een Geforce 7950GX2 zou halen zal dan de cpu een bottleneck zijn? Kan ik dan beter voor een Radeon X1950XTX gaan? (Spellen 1680x1050 4/6x AA)
[ Voor 7% gewijzigd door Anoniem: 179733 op 09-10-2006 20:01 ]
nee....een gx2 zal in vrijwel alle gevallen beter presterenAnoniem: 179733 schreef op maandag 09 oktober 2006 @ 19:59:
Kan ik dan beter voor een Radeon X1950XTX gaan? (Spellen 1680x1050 4/6x AA)
Waarom denk je dat het een GTS is en niet een GTX (behalve lagere scores dan eerdere geruchten)?TheZeroorez schreef op maandag 09 oktober 2006 @ 19:47:
[...]
Ik heb het over de GT, niet de GTX idd.
Anoniem: 149755
Waarom?Anoniem: 107573 schreef op maandag 09 oktober 2006 @ 19:43:
Wacht even, dus die speculatieve scores op die Chinese site bertrefften de 8800GTS? Dat haal ik uit jouw woorden. 12k voor een GTS vindt ik persoonlijk aannemelijker idd dan 12k voor een GTX.
12k lijkt me t.o.v. 7900GTX een heel gezonde performance winst voor de GTX
Ik denk dat je geen verdubbeling van de 7950GX2 mag verwachten aangezien de 7950GX2 twee core's heeft en de G80 één core.
Een bijna verdubbeling van de performance bij een nieuwe generatie is de afgelopen jaren normaal geweest. Besef wel dat de G80 al lang in ontwikkeling was voordat de 7950GX2 bestond. Het is daarom ook logisch om niet de 7950GX2 maar de 7900GTX als referentie is nemen.
Omdat je het, als je het over 'de G80' hebt, meestal over een 'gewone 8800GT' hebt. Aangezien niemand het ooit (behalve hier eens) ergens over de (niet-standaard) 8800GTX heeft gehad, lijkt het me aannemelijker dat het een 8800GT is, en inderdaad ook een beetje gezien de scores.m277755 schreef op maandag 09 oktober 2006 @ 20:02:
[...]
Waarom denk je dat het een GTS is en niet een GTX (behalve lagere scores dan eerdere geruchten)?
Maar ik denk dat we deze (doelloze) discussie maar beter kunnen staken, aangezien we geen bronnen hebben, en enkel speculeren. We weten niet eens of die 12K betrouwbaar is, of gewoon uit een mouw geschud is..
Anoniem: 107573
Daarom, dat is dus een beetje mijn fout. Ik heb hier een GX2 die 8600 in 06 doet. Vandaar dat ik 12k " ietsje" vondt tegenvallen. Maar ten opzichte van een 7900GTX is het inderdaad zeer netjes. Helemaal als het een GTS betreft.Anoniem: 149755 schreef op maandag 09 oktober 2006 @ 20:03:
[...]
Het is daarom ook logisch om niet de 7950GX2 maar de 7900GTX als referentie is nemen.
Maar zoals mijn bovenbuurman zegt, het is idd vrij zinloos om in dit stadium al over eventuele 3dmark scores te discussieren.
[ Voor 16% gewijzigd door Anoniem: 107573 op 09-10-2006 20:36 ]
Is het verstandig om nu al een 8800 te kopen?
Of kan je beter wachten op de volgende generatie DirectX 10 videokaarten?
Voor wanneer zijn de eerste DirectX 10 games?
Of kan je beter wachten op de volgende generatie DirectX 10 videokaarten?
Voor wanneer zijn de eerste DirectX 10 games?
De eerste D3D10 games zullen zo'n beetje met de Vista-release en de eerste 'massale lading' DX10 kaarten komen. Er zullen niet veel van deze games zijn, en verwacht er ook niet teveel van. Bovendien kunnen ze op DX9 ook prima lopen.r00t schreef op maandag 09 oktober 2006 @ 20:56:
Is het verstandig om nu al een 8800 te kopen?
Of kan je beter wachten op de volgende generatie DirectX 10 videokaarten?
Voor wanneer zijn de eerste DirectX 10 games?
IMHO is het allemaal veel te opgeblazen, in het begin zul je er weinig profeit van hebben. Daarbij komt dan nog dat je eerst een dikke videokaart + andere hardware moet hebben, en een nieuw OS van €300,- aan moet schaffen

Anoniem: 162692
I have the same point of viewTheZeroorez schreef op maandag 09 oktober 2006 @ 21:10:
[...]
De eerste D3D10 games zullen zo'n beetje met de Vista-release en de eerste 'massale lading' DX10 kaarten komen. Er zullen niet veel van deze games zijn, en verwacht er ook niet teveel van. Bovendien kunnen ze op DX9 ook prima lopen.
IMHO is het allemaal veel te opgeblazen, in het begin zul je er weinig profeit van hebben. Daarbij komt dan nog dat je eerst een dikke videokaart + andere hardware moet hebben, en een nieuw OS van €300,- aan moet schaffen
Iedereen die nu met een 7900GTX/7950GX2 zou ik het zelf onnodig vinden te upgraden.
Zeker niet in het tweede geval. Ik wacht lekker op de refresh van de G80 in Juni , de G81
Of mss wacht ik tot volgend jaar september dan komt de G90 uit heb ik gehoord
Anoniem: 107573
Ja en zo kan je blijven wachten natuurlijk
Het gaat er ook niet echt om of je persé een G80 wilt voor de DX10 games. Mijns inziens is de G80 ook helemaal nog geen échte DX10 kaart. Tuurlijk, hij is DX10 capabel, maar meer ook niet denk ik. Was het niet zo dat maar 1/3 van de capaciteit van de G80 gebruikt zal worden voor DX10?
. De G80 zal, zoals het er nu naar uitziet, nog steeds meer gericht zijn op DX9 dan op DX10 hoor, in tegenstelling tot de R600, die juist weer meer richting DX10 gaat.
Zoals het er nu naar uitziet, presteerd de G80 1.5 tot 2 maal beter als een 7950GX2. Dan praten we puur over de harde cijfers. Daarnaast biedt de kaart nog tal val andere features, die mijns inziens zéker het overwegen waard zijn. Bijvoorbeeld de ingebouwde PhysX unit, 16aa, niewe vorm van aa, en uiteraard niet te vergeten de mogelijkheid tot het toepassen van hardwarematige HDR+AA.
Het gaat er ook niet echt om of je persé een G80 wilt voor de DX10 games. Mijns inziens is de G80 ook helemaal nog geen échte DX10 kaart. Tuurlijk, hij is DX10 capabel, maar meer ook niet denk ik. Was het niet zo dat maar 1/3 van de capaciteit van de G80 gebruikt zal worden voor DX10?
Zoals het er nu naar uitziet, presteerd de G80 1.5 tot 2 maal beter als een 7950GX2. Dan praten we puur over de harde cijfers. Daarnaast biedt de kaart nog tal val andere features, die mijns inziens zéker het overwegen waard zijn. Bijvoorbeeld de ingebouwde PhysX unit, 16aa, niewe vorm van aa, en uiteraard niet te vergeten de mogelijkheid tot het toepassen van hardwarematige HDR+AA.
Volgens mij zat G85 gepland voor Q3 07.Anoniem: 162692 schreef op maandag 09 oktober 2006 @ 22:59:
[...]
I have the same point of view
Iedereen die nu met een 7900GTX/7950GX2 zou ik het zelf onnodig vinden te upgraden.
Zeker niet in het tweede geval. Ik wacht lekker op de refresh van de G80 in Juni , de G81![]()
Of mss wacht ik tot volgend jaar september dan komt de G90 uit heb ik gehoord
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Doe mij maar een 8800GS
Dx10 voor een prikkie.
Dx10 voor een prikkie.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Laat ik me ook weer eens in het nVidia topic mengen. Na de Ti4200 heb ik een tijdje ATi gehad (9800XT, momenteel X800XT PE), en wil ik binnenkort een nieuwe PC bouwen met een groen monster
Ik was van plan voor de 7900GTX of 7950GT te gaan met een SLI mobo en dan over een half jaar een 2e kaart erbij te kopen.
Mijn plan was om binnen nu en een paar weken de PC bij elkaar te kopen, maar nu de 8800 serie zijn intrede gaat doen zou het misschien interessant zijn voor mij om even te wachten. Maar voor hoe lang? Is het nu al zeker dat de 8800 nog dit jaar geleverd kan worden, en wat zouden de verwachte prijzen zijn?
En wat is er nou waar van dat er 'volgens nVidia zelf' minimaal een 800W PSU vereist zou zijn voor twee van die 8800's in SLI?? Ik zat te denken om de 520W of 600W Enermax Liberty PSU te kopen, maar als dat al niet eens voldoende is...
Mijn plan was om binnen nu en een paar weken de PC bij elkaar te kopen, maar nu de 8800 serie zijn intrede gaat doen zou het misschien interessant zijn voor mij om even te wachten. Maar voor hoe lang? Is het nu al zeker dat de 8800 nog dit jaar geleverd kan worden, en wat zouden de verwachte prijzen zijn?
En wat is er nou waar van dat er 'volgens nVidia zelf' minimaal een 800W PSU vereist zou zijn voor twee van die 8800's in SLI?? Ik zat te denken om de 520W of 600W Enermax Liberty PSU te kopen, maar als dat al niet eens voldoende is...
Anoniem: 100386
Doe mij dan de 8800GS-plus .... maar ik weet eigenlijk 99% zeker dat die tijden geheel voorbij zijn bij deze generatie. Maar goed, dat dacht ik ook al bij de huidige generatie vandaar die 1% "slag om de arm".XanderDrake schreef op dinsdag 10 oktober 2006 @ 01:08:
Doe mij maar een 8800GS![]()
Dx10 voor een prikkie.
Mgoed, ik wacht nog eventje met upgraden van mijn hele systeem, en dan meteen over naar een volgende mega-bakbeest (zoals mijn Dual Xeon dat ooit ook eens was). Inclusief de volgende generatie PCI-E's en evt quad-cores etc. Kortom, nog zekr een jaar wachten denk ik. Voorlopig voldoet mijn dual Xeon met 7800GS-plus prima
[ Voor 13% gewijzigd door Anoniem: 100386 op 10-10-2006 09:23 ]
Ligt er aan. Als je de drivers bijde op HQ zijn. Zijn de verschillen aanzienlijk kleiner. + De ATi kan HDR + AA blijft een giga voordeel.Mr. Detonator schreef op maandag 09 oktober 2006 @ 20:02:
[...]
nee....een gx2 zal in vrijwel alle gevallen beter presteren
Ik ben wel benieuwd naar benchmarks van de nieuwe G80.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
nVidia laat waarschijnlijk de GF8800GTX en GTS al zien tijdens de GeForce Lan Party 3 op 8 November voor 600 enthusiaste gamers en een handjevol pers die een NDA verklaring hebben ondertekend.
Dit nieuwe gamingplatform is zoals het er nu naar uit ziet de her-lancering van de SLI chipsets voor Intel (NF 680 SLI/NF 650 SLI) samen met de G80. Intel is een hoofdsponsor van het evenement dus ljikt dit niet onwaarschijnlijk.
De officiele launch online zou moeten gebeuren rond 16 November. Dan zou de NDA gelift worden.
XFX en BFG hebben laten doorschemeren dat hun OC versies van de GF8800GTX voor zo'n €649 over de toonbank moeten gaan. De GTS versie zou voor €599 over de toonbank moeten gaan.
De informatie over de prijs van de GF8800GTS stond online op Clubic.com, maar is inmiddels verwijderd op verzoek van nVidia omdat de informatie nog onder NDA stond. In dat stuk stond dat de GF8800GTX voor €650-700 verkocht zou worden.
Zie ook: http://www.clubic.com/act...-noms-officiels-prix.html
Bron: http://www.pdxlan.net/nvidia/news.php- Witness the launch of NVIDIA's next generation Gaming PLATFORM (GPU and MCP together!)
Dit nieuwe gamingplatform is zoals het er nu naar uit ziet de her-lancering van de SLI chipsets voor Intel (NF 680 SLI/NF 650 SLI) samen met de G80. Intel is een hoofdsponsor van het evenement dus ljikt dit niet onwaarschijnlijk.
De officiele launch online zou moeten gebeuren rond 16 November. Dan zou de NDA gelift worden.
XFX en BFG hebben laten doorschemeren dat hun OC versies van de GF8800GTX voor zo'n €649 over de toonbank moeten gaan. De GTS versie zou voor €599 over de toonbank moeten gaan.
De informatie over de prijs van de GF8800GTS stond online op Clubic.com, maar is inmiddels verwijderd op verzoek van nVidia omdat de informatie nog onder NDA stond. In dat stuk stond dat de GF8800GTX voor €650-700 verkocht zou worden.
Zie ook: http://www.clubic.com/act...-noms-officiels-prix.html
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Is niet weinig maar je krijgt wel 768mb + watercooling. Dit laatste zal de prijs ook wel een stuk opdrijven.CJ schreef op dinsdag 10 oktober 2006 @ 14:37:
XFX en BFG hebben laten doorschemeren dat hun OC versies van de GF8800GTX voor zo'n €649 over de toonbank moeten gaan. De GTS versie zou voor €599 over de toonbank moeten gaan.
De informatie over de prijs van de GF8800GTS stond online op Clubic.com, maar is inmiddels verwijderd op verzoek van nVidia omdat de informatie nog onder NDA stond. In dat stuk stond dat de GF8800GTX voor €650-700 verkocht zou worden.![]()
Zie ook: http://www.clubic.com/act...-noms-officiels-prix.html
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Tuurlijk niet. Nu heb je nog een goede kaart. Over een jaar ofzo is dat niet meer het geval, en is het de upgrade wél waard. Bovendien is DX10 iets ingrijpender dan gewoon een nieuwe reeks kaarten..Anoniem: 107573 schreef op maandag 09 oktober 2006 @ 23:47:
Ja en zo kan je blijven wachten natuurlijk
Anoniem: 107573
http://uk.theinquirer.net/?article=34992
Lol, dat wordt leuk met die tech demo's voor G80 binnekort dan
Lol, dat wordt leuk met die tech demo's voor G80 binnekort dan
Waarom verwacht je dat ? Een GS variant is toch vaak een brakke GPU die het nog goed doet met wat deactivatie van shaders en pipes of heb ik het mis. Ik verwacht niet dat de opbrengst 100 % stabiele werkende GPU's is.Anoniem: 100386 schreef op dinsdag 10 oktober 2006 @ 09:21:
[...]
Doe mij dan de 8800GS-plus .... maar ik weet eigenlijk 99% zeker dat die tijden geheel voorbij zijn bij deze generatie. Maar goed, dat dacht ik ook al bij de huidige generatie vandaar die 1% "slag om de arm".
Verder is de markt voor budget GPU's een factor groter dan van HIgh End GPU's.
PC: ASRock Dual Sata II, AMD64 3500+ @ 2,42ghz, Kingston value 2gb Dual Channel DDR, ASUS 8800 GTS 640, HDD 1 TB total, DigiCam: Minolta Dynax 5D
Dit topic is gesloten.
Let op:
LET OP !
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan grafische producten van nVidia. Voor de regels van dit topic kijk je in de topicstart!
Wat voorbeelden van wat o.a. not done is:
- Kaart merk/type X is niet leverbaar bij shop Y
- Jippie! Ik heb mij kaart binnen! ...
- Welke GeForce # moet ik kopen?
- Check mijn nieuwe persoonlijke 3DMark## score
- Mijn kaart werkt niet/slecht, hoe fix ik dat?
LET OP !
Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan grafische producten van nVidia. Voor de regels van dit topic kijk je in de topicstart!
Wat voorbeelden van wat o.a. not done is:
- Kaart merk/type X is niet leverbaar bij shop Y
- Jippie! Ik heb mij kaart binnen! ...
- Welke GeForce # moet ik kopen?
- Check mijn nieuwe persoonlijke 3DMark## score
- Mijn kaart werkt niet/slecht, hoe fix ik dat?