[Algemeen] nVidia Nieuws & Discussie Topic - Deel 28 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 11.723 views sinds 30-01-2008

Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 04-06 19:59
leonpwner1 schreef op vrijdag 11 januari 2008 @ 20:25:
[...]


Simpel: niet.

Het kan geen berekeningen uitvoeren waarvoor je bepaalde features nodig hebt waar hij niet over beschikt.
en die berekeningen kunnen ook niet op een andere manier gedaan worden ?

misschien niet zo efficient, maar de vraag is natuurlijk hoevéél minder efficient..5%..20%..50% ?

het zou mij niks verbazen als het maar <5% scheelt als dx10.1 berekeningen met een dx10 kaart worden uitgevoerd...ook al omdat microsoft er weinig nut in ziet...en de makers van crysis hadden toch ook al bevestigd dat ze geen dx10.1 gaan gebruiken ??

[ Voor 35% gewijzigd door Mr. Detonator op 11-01-2008 20:34 ]


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Als die berichten kloppen zal nv het nog wel onnodig vinden om op dx10.1 over te gaan?

Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 01:23
en is het bestaan van de GT200 bevestigd -- en volgens nVidia wordt het een beest van een chip.
De GT200 is dus de nieuwe single GPU G100 waar we het voorheen over hadden?

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
Mr. Detonator schreef op vrijdag 11 januari 2008 @ 20:30:
[...]


en die berekeningen kunnen ook niet op een andere manier gedaan worden ?
Nee, zie de TS van het ATi-topic voor een uitgebreide uitleg over de features van DX10.1, er is geen manier om dit op wat voor manier dan ook te emuleren of iets dergelijks. Denk aan programmeerbare AA patronen, als de kaart dit niet ondersteunt dan houdt het op en kan het niet. Ook toegevoegde shader instructies mis je.
Anoniem: 226494 schreef op vrijdag 11 januari 2008 @ 20:30:
Als die berichten kloppen zal nv het nog wel onnodig vinden om op dx10.1 over te gaan?
Yep. Helaas voor hen als Futuremark toch doorzet met hun DX10.1 plannen, dan snijdt NV zichzelf in de vingers.
Outlandos schreef op vrijdag 11 januari 2008 @ 20:32:
[...]


De GT200 is dus de nieuwe single GPU G100 waar we het voorheen over hadden?
Zeer waarschijnlijk wel. Wellicht komt er nog een multi-chip oplossing, maar meest waarschijnlijk is dat het 'single core' blijft, zeker als je zo'n grote (en dus dure!) chip hebt.

[ Voor 18% gewijzigd door Avalaxy op 11-01-2008 20:38 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Anoniem: 226494 schreef op vrijdag 11 januari 2008 @ 20:30:
Als die berichten kloppen zal nv het nog wel onnodig vinden om op dx10.1 over te gaan?
Dat staat er in!!!! :o

Als je die berichten nou eerst eens leest ipv direkt te blaten zie je dat zelf ook. :(
nVidia vindt de verschillen tussen DX10 en DX10.1 te klein om hier hardwarematige aanpassingen aan te doen en wacht liever op DirectX 11

[ Voor 12% gewijzigd door Format-C op 11-01-2008 22:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Hmmm, vooral de reden waarom nV DX10.1 wil overslaan: het verschil met DX10.0 is niet groot genoeg, dus kun je beter meteen springen naar DX11. Over de vraag of DX10.1 nou echt zo weinig voorstelt zal nooit een eenduidig antwoord op komen, wordt een welles-nietes spelletje. Wat echter wel zo is; nV helpt bij het ontwikkelen van veel meer games dan ATi, dus het aantal games die DX10.1 zullen ondersteunen zullen zeer beperkt blijven. Ondertussen maakt nV zicht niet druk om 10.1, en worden alle pijlen gericht op DX11, dus daar zal weer een voorsprong te behalen zijn. Tja, ze zullen in 2008 alle 3dmark wedstrijdjes verliezen, maar doen ze dat niet nu ook al? Volgens met heeft ATi alle 3dmark records in handen (weet het niet zeker, 3dmark nieuwsberichten sla ik meestal over, boeit me geen zier).

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 04-06 19:59
leonpwner1 schreef op vrijdag 11 januari 2008 @ 20:35:
[...]


Yep. Helaas voor hen als Futuremark toch doorzet met hun DX10.1 plannen, dan snijdt NV zichzelf in de vinger.
nou...behalve natuurlijk als 3dmark, en een handvol games de enige dx10.1 titels worden...

de game-industrie snijd zichzelf dan in de vingers door dx10.1 games uit te brengen (die er dus niet gaan komen zolang nvidia geen dx10.1 ondersteund)....is maar net hoe je het bekijkt :)

[edit] zelfde hierboven

[ Voor 9% gewijzigd door Mr. Detonator op 11-01-2008 20:42 ]


Acties:
  • 0 Henk 'm!

Anoniem: 226494

RappieRappie schreef op vrijdag 11 januari 2008 @ 20:36:
[...]


Dat staat er in!!!! :o

Als je die berichten nou eerst eens leest ipv direkt te blaten zie je dat zelf ook. :(


[...]
Rustig rustig
Modbreak:Hij heeft wel degelijk een punt. Zie de pushmessage die ik je gestuurd heb.

[ Voor 12% gewijzigd door dion_b op 11-01-2008 22:28 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
Illidan schreef op vrijdag 11 januari 2008 @ 20:38:
Tja, ze zullen in 2008 alle 3dmark wedstrijdjes verliezen, maar doen ze dat niet nu ook al? Volgens met heeft ATi alle 3dmark records in handen (weet het niet zeker, 3dmark nieuwsberichten sla ik meestal over, boeit me geen zier).
Muah, ze verliezen niet alles, de single card oplossing doen het volgens mij vrij sterk tov de Radeon HD series. Ze presteren relatief gezien iets minder (dan in games) maar het verschil is ook niet zo drastisch groot. Wel staan alles WR's op de naam van HD2900XT CF setups.

Maar toch blijft het zo dat elke reviewer 3Dmark wel gebruikt, en dan vaak ook nog eens meerdere keren (verschillende resoluties, AA/AF). Veel mensen kijken dan ook erg naar 3Dmark scores, op de legio fora die op internet te vinden zijn zie je vrijwel alleen 3Dmark als maatstaaf gebruikt worden.

Of het zoveel uitmaakt dat NVIDIA kaarten in de nieuwste 3Dmark minder gaan presteren als er een DX10.1 test komt weet ik niet, er worden namelijk ook nog veel oude versies gebruikt (3Dmark01, 3Dmark05) omdat mensen houden van hoge scores. Misschien is het ook wel zo dat NVIDIA kaarten die niet beschikken op DX10.1/SM4.1 de tests wel helemaal niet kunnen draaien net zoals kaarten die geen DX10.0 ondersteunen dat niet kunnen? In dat geval maakt het niets uit voor NVIDIA.
Mr. Detonator schreef op vrijdag 11 januari 2008 @ 20:38:
[...]

nou...behalve natuurlijk als 3dmark, en een handvol games de enige dx10.1 titels worden...
Ik zie de relevantie niet helemaal met het stukje dat je quote ;) Ik had het erover dat NVIDIA zichzelf in de vingers snijdt als DX10.1 toch in 3Dmark wordt geïmplementeerd en GeForce kaarten dit niet ondersteunen, ik zei niets over of er veel games komen die het ondersteunen :+ Wat ik overigens ook niet zo waarschijnlijk acht... Wellicht dat er wat toekomstige DX10 titels komen waar de DX10.1 features in geïmplementeerd zijn, denk aan FarCry 2 oid, maar ik denk niet dat het er veel zijn aangezien deze zover ik weet aan TWIMTBP doen.
de game-industrie snijd zichzelf dan in de vingers door dx10.1 games uit te brengen (die er dus niet gaan komen zolang nvidia geen dx10.1 ondersteund)....is maar net hoe je het bekijkt :)
Muah, ik denk niet dat het veel moeite kost om de games te laten renderen volgens de voorschriften van DX10.1 en de extra (hardwarematige) features te benutten. Ik weet niet of het mogelijk is om te laten kiezen uit DX10.0 of DX10.1 rendering of dat deze 2 elkaar uitsluiten...? Ik denk niet dat developers zichzelf hiermee in de vingers zouden snijden, zeker niet als het hun spel nog mooier kan maken en de performance kan verbeteren.

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Hoe langer ik erover nadenk, hoe meer ik tot de conclusie kom dat het eigenlijk wel erg goed zal zijn als 3dmark idd DX10.1 een hoge score toekent. Alle ATi kaarten zullen dan opeens veel hoger scoren dan hun nV tegenhangers in dezelfde prijsklasse (en misschien zelfs hoger dan nV kaarten in een hogere prijsklasse). Vervolgens komen de echte game benchmarks aan bod, en dan veegt nV zoals gebruikelijk ATi van de kaart. Uhhh, hoe kén dat nou, ATi scoorde toch een hogere 3dmark Vantage? 8)7 8)7 Misschien, heel misschien, is 3dmark wel een erg brakke en onbetrouwbare benchmark....?? En walla; opeens is het voor de wereld, inclusief de huidige 3dmark fetischisten duidelijk dat de zo gekoesterde 3dmark geen drol voorrstelt en erg overrated is. Zijn we meteen van die hele 3dmark heisa af ;) ;)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja, als nVidia dx10.1 niet ondersteunt dan is dat kut. nVidia's TWIMTBP programma is veel invloedrijker dan ATI's GITG.

Persoonlijk ben ik zeeeer overtuigd van het nut van dx10.1 m.n. op AA gebied. Beetje triest dat de huidige brakke situatie dankzij nVidia zal voortduren tot ver in 2009 als eindelijk DX11 verschijnt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 220775

KappeNou schreef op vrijdag 11 januari 2008 @ 18:57:
Weet iemand of er al wat meer info is over de next gen high end nvidia kaartjes?
Als je nou even een aantal pagina's terug had gebladerd, dan had je mijn post betreffende High-End nieuws vanzelf gevonden.

Maar goed, volgens mij twee pagina's terug en dan onderaan.

Acties:
  • 0 Henk 'm!

Anoniem: 163444

Afbeeldingslocatie: http://xs123.xs.to/xs123/08025/dsc02601262.jpg

Nieuwe koeler op die kaarten, leuk ding :)

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Forceware_Vista_Beta_Drivers_Preview

Er komen weer wat dingen bij de komende tijd:

Afbeeldingslocatie: http://i14.tinypic.com/8g4z7s6.jpg

Ra-ra... Wat zijn dat? :>

[ Voor 3% gewijzigd door Format-C op 11-01-2008 23:32 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
4 Mainstream kaarten gebaseerd op de G96. Geen G100 iig :P

Acties:
  • 0 Henk 'm!

Anoniem: 131383

Ik heb nu ook eindelijk de 8800gt,
Ik vind alleen dat ik crysis voor geen meter kan spelen. maar ongeveer 30 fps bij medium dat moet toch beter kunnen? want bij ut3 Heb ik bij high 50 oid. Maar daar gaat soms de schaduw beetje kniperen op de gun lijkt net of die overgeklokt is. Heb wel de nieuwste drivers.
En bij mohaa (erg oud spel) Blijft de fps hezelfde als bij een 6600gt ongeveer :? En was de sneeuw verneukt, van die fouten die je krijgt als je hem overklokt. de temp was wel volgens mij goed.

Acties:
  • 0 Henk 'm!

  • KappeNou
  • Registratie: Oktober 2005
  • Laatst online: 29-05 15:35
rest van je PC specs zijn?

>PC specs<


Acties:
  • 0 Henk 'm!

Anoniem: 131383

asus a8n sli deluxe
4400 x2 @2,7
8800gt
enermax liberty 460
1 gb

Maar ga denk ik xp opnieuw instaleren mischien helpt dat.

Acties:
  • 0 Henk 'm!

  • BasNation
  • Registratie: Mei 2004
  • Laatst online: 23:07
Anoniem: 131383 schreef op zaterdag 12 januari 2008 @ 02:10:
asus a8n sli deluxe
4400 x2 @2,7
8800gt
enermax liberty 460
1 gb

Maar ga denk ik xp opnieuw instaleren mischien helpt dat.
Denk dat je je RAM moet uitbreiden

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
RappieRappie schreef op vrijdag 11 januari 2008 @ 23:27:
Forceware_Vista_Beta_Drivers_Preview

Er komen weer wat dingen bij de komende tijd:

[afbeelding]

Ra-ra... Wat zijn dat? :>
Had ik al eerder gepost wat het was... en wel 7 dagen geleden hier:
CJ schreef op zaterdag 05 januari 2008 @ 16:15:
ik hoorde net ook van een redelijk betrouwbare bron dat NV nu van alles aan het rebranden is. De GeForce 9 serie is niet meer dan een rebrand van huidige G9x cores die worden aangevuld met de G9x cores die nog uit moeten komen.

Het rijtje zou ongeveer als volgt zijn:

GeForce 9800GX2 = D9E-40 = 2x G92
GeForce 9800GTX = D9E-20 = snellere G92
GeForce 9800GT = D9P-40 = langzamere G92
GeForce 9600GT = D9P-20 = snellere G94
GeForce 9500GT (?) = D9P-10 = langzamere G94
GeForce 9400 = D9M = G96

De "snellere G92" oftewel GF9800GTX oftewel D9E-20 zou sneller moeten zijn dan een GF8800Ultra, maar dus minder snel dan de GX2. Van de GX2 wordt gezegd dat deze 30 tot 50% sneller is dan een GeForce 8800Ultra.
Dus zoals hierboven ook al eens gezegd... D9M is G96. Low-end/midrange.

Oh ja... over het al dan niet ondersteunen van DX10.1 door nV... bedenk je het volgende eens....

Wie zitten er in de commissie die de specs van DirectX samenstellen? Hieronder staan zowiezo de drie belangrijkste:

1) Microsoft (als ontwikkelaar van het meest gebruikte besturingssysteem)

2) Software developers (want zij maken uiteindelijk de games die gebruik moeten maken van de API)

3) Hardware developers, dus AMD (ATI), nVidia, Intel, S3, SiS, Via (want zij maken de hardware die met de API om moet kunnen gaan).

Wie heeft de specs van DX10.1 samengesteld? Juist.... ook nVidia was daar onderdeel van. De hardware vendors en software vendors wilden bepaalde functies ook gemakkelijker maken.... wat DX10 niet haalde werd in DX10.1 gezet. DX10.1 wordt niet voor niks "DirectX10 zoals het had moeten zijn vanaf het begin" genoemd. Developers vroegen om bepaalde technieken en de hardware vendors keken of dit haalbaar was... en dat was het.... dus kwam het in DirectX10.1.

Wel vreemd dat NV dan ineens een API downplayed waar ze zelf aan de totstandkoming hebben meegeholpen. Dan is het eigenlijk beter om op veilig te spelen en iets te zeggen als "we ondersteunen het als de tijd daar is" zoals ze dat ook met unified shaders deden, of zoals AMD deed met SM3.0. Zoals het nu gebeurt is het net alsof je je eigen geloofwaardigheid ook neersabelt door negatief te doen over iets waar je zelf aan hebt mee geholpen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

CJ schreef op zaterdag 12 januari 2008 @ 05:15:
[...]


Had ik al eerder gepost wat het was... en wel 7 dagen geleden hier:
:) OOps.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Hmmm, mij lijkt het niet eens zo'n geloofwaardigheid kwestie, ten eerste is onduidelijk wat precies is afgesproken, bovendien, wie noemt DX10.1 de DX10 zoals het had moeten zij? In ieder geval niet nV noch Microsoft. En dat zijn meteen de grootste partijen. In tegendeel, zij bagataliseren (of dat terecht of onterecht is laat ik in het midden) het belang van DX10.1
Als je als bedrijf op een later moment toch geen heil ziet in een bepaalde feature, getuigd het ook van lef om dat hardop te zeggen. Ze hadden idd ook kunnen zeggen 'we komen hier wat later mee', maar nee, ze slaan het gewoon over. Dat is aan de ene kant lef, aan de andere kant sterkt het ook hun kant van het verhaal dat DX10.1 niet belangrijk genoeg is.

nV maakt zoals elk bedrijf een kosten-baten overweging; het kost ze 15 miljoen om DX10.1 te implementeren (ik noem maar wat), baten: ondersteuning voor 3dmark08 + de enige 3 á 4 DX10.1 (vergis je niet, zelfs het aantal DX10.0 games groeit maar erg langzaam) games die tegen die tijd om de markt zullen verschijnen. Hmmmm, als ik in de directie zat daar had ik misschien ook wel NEE gestemd. "Lekker overslaan die handel, die 15 miljoen stoppen we in DX11."

[ Voor 24% gewijzigd door Illidan op 12-01-2008 11:36 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Illidan schreef op zaterdag 12 januari 2008 @ 11:29:
Hmmm, mij lijkt het niet eens zo'n geloofwaardigheid kwestie, ten eerste is onduidelijk wat precies is afgesproken, bovendien, wie noemt DX10.1 de DX10 zoals het had moeten zij? In ieder geval niet nV noch Microsoft. En dat zijn meteen de grootste partijen. In tegendeel, zij bagataliseren (of dat terecht of onterecht is laat ik in het midden) het belang van DX10.1
Stop. En toen hield ik op met lezen omdat de rest stoelt op een aanname die onjuist is.

Microsoft heeft wel degelijk aangegeven dat DirectX 10.1 eigenlijk is wat DX10 had moeten zijn. Het staat zelfs in de officiele slides die MS gepresenteerd heeft op Siggraph.
DirectX 10.1: Goals & Imperatives
  • Incremental Update to D3D10
  • "Complete" D3D10
  • Improve Rendering Quality - more antialiasing control
Bron:
http://www.istartedsometh...08/direct3d-101-siggraph/ (Doorscrollen naar blz 381)

Dus daar heb je de verklaring dat DirectX10.1 eigenlijk is wat DirectX10 vanaf het begin had moeten zijn. En als er complete workshops/presentaties worden gegeven over DirectX10.1 tijdens een groot en belangrijk evenement als SIGGRAPH... tja, dat zegt ook wel iets over hoe in ieder geval MS er tegen over staat.

En dat Microsoft en nVidia de grootste partijen zijn wil niet zeggen dat ze beide direct het meeste te zeggen hebben bij de ontwikkeling van een API (bv meer dan een AMD). Verkijk je daar niet op. Zie ook bv de ontwikkeling van DirectX9, waar nVidia door MS uit de commissie werd geflikkerd die DirectX9 samenstelde, omdat ze te veel eiste en haar eigen ding te veel wilde door drukken. Het gevolg daarvan is bekend. MS gooide nVidia uit het team dat de DX specs samenstelt. NV wist niet precies wat er in de uiteindelijke specs kwam van DirectX9, dus moesten ze gokken. Het resultaat? NV30. Een GPU die soms ruim voldeed aan de DX9 eisen, soms ook helemaal niet en in totaal te weinig power had om DX9 applicaties aan te kunnen.

Daarnaast vergeet je voor het gemak ook even de grote ISV (software developers)... die hebben ook wat in te brengen. Zij maken de games, zij willen bepaalde features... als zij bv geen betere AA-controle wilden hebben, dan was dit echt niet in DX10.1 verschenen.

Verder vergeet je dat DirectX10.1 niet alleen om graphics gaat, maar dat er ook een soundgedeelte in zit. DirectX10.1 is best een grote update op dat gebied, want de DirectSound API wordt vervangen door XAudio2 wat ook in de Xbox360 wordt gebruikt. Ook op soundgebied wordt dus DirectX10 compleet gemaakt.

MS heeft in ieder geval aangegeven dat er geen DirectX10.2 gaat komen en dat men dus voorlopig na service pack 1 voor Vista wel vast zit aan DirectX10.1. Crytek gaat er bijvoorbeeld van uit dat de echte DX10 games pas in 2010 zullen verschijnen. Afhankelijk van hoe lang men er over doet om DX11 (waar nagenoeg nog weinig over bekend is) uit te brengen kan het dus nog wel een aantal jaren duren voordat DX11 uit is.

Over DirectX10.1 staat hier een leuk stuk in het Nederlands met de perfecte conclusie:
Daarmee is DirectX10.1 dus niets anders dan een logische en noodzakelijke update. Een update die bedoeld is, om toekomstige videokaarten de ruimte te gunnen om te presteren en tegelijkertijd ervoor te zorgen dat game-ontwikkelaars er zonder al te veel poeha voor kunnen programmeren. Dat wil nog niet zeggen dat de nieuwe DX-versie weinig om het lijf heeft: DX10.1 biedt ruimte aan betere performance en vooral ook mooiere beelden. En is dat niet precies wat we allemaal willen?
http://www.gamez.nl/web/P...aarom-van-DirectX10.1.htm

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Ja ho wacht effe: “Extension” to Direct3D 10 "Complete" D3D10" die je op een slide te zien krijgt zegt nog helemaal niets. Dat DX10 nog niet 100% afgerond is ontkent ik niet, volgens mij nV ook niet; maar dat is iets anders dan te zeggen dat DX10.0 in feite had moeten zijn wat DX10.1 is; het gaat mij dan om de suggestie die wordt opgewekt; dat DX10.1 veel toegevoegde waarde heeft. En dát wordt ontkent door in ieder geval nV, en zelfs door Microsoft. Lol, jij probeert hier nu juist een andere draai aan te geven.

Crytek, Microsoft en Nvidia niet positief over DX10.1


Tja, dat ze om hun slide op te vullen wat info neerzetten over DX10.1, dat moet je niet gebruiken als referentie.
En je had niet hoeven te stoppen met lezen hoor; die "aanname" was niet het punt. Dat is namelijk dat er relatief zo weinig DX10.0 titels zijn verschenen, + Vista wordt slecht verkocht, + de verwachting over het aantal DX10.1 spelletjes is negatief. Dus als nV nu alle pijlen richt op DX11, wellicht dat daarmee zelfs DX11 vervroegd kan worden (wishfull thinking, maar je weet maar nooit :D ), dan lijkt mij dat helemaal geen slechte beslissing.

[ Voor 42% gewijzigd door Illidan op 12-01-2008 13:34 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dat Vista nog geen groot succes is en DX10 ook niet staat imo helemaal los van DX10.1. Volgensmij is het an sich, vanuit de consument gezien, een zeer nuttige toevoeging die zsm geimplementeerd moet worden.

Dat nVidia niet positief is, heeft m.i. er alleen maar mee te maken dat zij op de korte termijn even niks hebben dat DX10.1 ondersteunt.
Het lijkt mij 99% waarschijnlijk dat de G100 het gewoon heeft. Het zou mij zeer verbazen als de G100 het niet heeft.

Crytek wordt zwaar gesponsord door nVidia danwel is haar nummer 1 partner op dit moment. Los daarvan snap ik werkelijk niet dat Crytek zich zo opstelt. Als er een game is waar de AA implementatie echt volkomen ruk is,zeker als je je bedenkt dat dit DE nextgen game zou zijn, is het Crysis wel.
Waarom kan ik in een nextgen game anno 2007 niet gelijktijdig Edge AA en FSAA aan hebben staan 8)7 -O- Als ik me niet vergis zou het met DX10.1 wel kunnen. .

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 154173

Mooie discussie bezig hoor. Maargoed, ik denk dat het gewoon ieder z'n mening is.
De een vindt dat 10.1 niet genoeg waarde toevoegt om over te gaan, de ander vindt dit dus wel.
Is het niet gewoon zo simpel als dat?

En dan zou het dus eigenlijk vooral aan de developers liggen of ZIJ ook echt gebruik gaan maken van 10.1 en op wat voor termijn.
Hoeveel tijd zal er tussen het uitkomen van deze (bvijvoorbeeld) games en het uitkomen van versie 11 van directx zitten. Dan kan er iemand flink gaan profiteren. Want als deze tijd te kort is snap ik nvidia zeker wel! ..en omgedraaid uiteraard.

Maarja, misschien gaat er nog iets gebeuren..

[ Voor 3% gewijzigd door Anoniem: 154173 op 12-01-2008 14:07 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Punt is dat het er sterk op lijkt dat sommigen "tegen" zijn omdat hun favoriete IHV het niet heeft danwel zegt dat het niks is.

Als je over DX10.1 leest kun je naar mijn mening alleen maar tot de conclusie komen dat het een zeer zinvolle toevoeging is.

Het gaat er toch om dat je een zo mooi mogelijk plaatje op je scherm hebt met de handigste en gebruikvriendelijkste technieken. Of ben ik gek en gaat het er vooral om dat je je favoriete IHV cout que cout steunt. :?

[ Voor 3% gewijzigd door Help!!!! op 12-01-2008 14:24 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Help!!!! schreef op zaterdag 12 januari 2008 @ 14:21:
Punt is dat het er sterk op lijkt dat sommigen "tegen" zijn omdat hun favoriete IHV het niet heeft danwel zegt dat het niks is.

Als je over DX10.1 leest kun je naar mijn mening alleen maar tot de conclusie komen dat het een zeer zinvolle toevoeging is.

Het gaat er toch om dat je een zo mooi mogelijk plaatje op je scherm hebt met de handigste en gebruikvriendelijkste technieken. Of ben ik gek en gaat het er vooral om dat je je favoriete IHV cout que cout steunt. :?
Ik weet niet van jullie, maar tijdens het gamen zie ik in Crysis nauwelijks het verschil tussen DX10 en DX9, bij andere DX10 spelletjes Lost Planet, BioShock zie ik het helemaal niet. (als ik heel eerlijk ben, bij Crysis ook niet, ik betrap mezelf erop dat ik wíl dat het er beter uit ziet, pschyologisch dus, maar in werkelijk... :D ). Hellgate Londen: DX10 heeft wat zachtere schaduws, maar serieus, de details zijn véél te klein om het tijdens het gamen op te merken. Als ik op internet plaatjes bekijk van verschillen tussen DX9 en DX10, moet ik soms wel een minuut zoeken voor ik een verschil zie. En ik ben niet de enige kan ik je vertellen. De visuele verschillen tussen DX10.0 en DX10.1 zullen nog kleiner zijn (wordt vast weer een welles nietes spelletje waar ik vriendelijk voor bedank); ik snap dus ook niet waar al die heisa voor DX10, laat staan DX10.1 vandaan komt. DX10.2 komt er al helemaal niet, dus dan is het niet zo gek meteen een goede sprong te wagen naar DX11. Tegen die tijd is Vista alweer wat beter ingeburgerd (of de opvolger daarvan staat in de startblokken).
Ik neem aan dat DX11 alles zal zijn wat DX10.0, 10.1 en 10.2 had moeten zijn + meer? :P


Hypothetisch: als er een derde videokaart fabrikant, dus niet nV en niet Ati, met een DX9 kaart op de markt komt (dus geen DX10) die het in games met ruime voorsprong wint (uiteraard in DX9 mode) van alles wat nV en ATi nu te bieden hebben, (zeg maar, de enkele kaart (zacht concurend prijskaartje) is in DX9 sneller dan de ULTRA in SLI en dus uiteraaard ook sneller dan de 3870 in CF) dan stap ik, en met mij velen denk ik, meteen over daarop. Om maar aan te geven hoe belangrijk DX10, laat staan 10.1 is ;)

[ Voor 11% gewijzigd door Illidan op 12-01-2008 15:23 ]

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

  • justifire
  • Registratie: December 2001
  • Laatst online: 21:18

justifire

Shut up and squat !!

Is er hier iemand die toevallig nog flexibele SLI connectors/bruggen heeft liggen die hij toch niet gebruikt?
PM me dan even.

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Illidan schreef op zaterdag 12 januari 2008 @ 14:48:
[...]


Ik weet niet van jullie, maar tijdens het gamen zie ik in Crysis nauwelijks het verschil tussen DX10 en DX9, bij andere DX10 spelletjes Lost Planet, BioShock zie het het helemaal niet. (als ik heel eerlijk ben, bij Crysis ook niet, ik betrap mezelf erop dat ik wíl dat het er beter uit ziet, pschyologisch dus, maar in werkelijk... :D ). Hellgate Londen: DX10 heeft wat zachtere schaduws, maar serieus, de details zijn véél te klein om het tijdens het gamen op te merken. Als ik op internet plaatsjes bekijk van verschillen tussen DX9 en DX10, moet ik soms wel een minuut zoeken voor ik een verschil zie. En ik ben niet de enige kan ik je vertellen. De visuele verschillen tussen DX10.0 en DX10.1 zullen nog kleiner zijn (wordt vast weer een welles nietes speeltje waar ik vriendelijk voor bedank); ik snap dus ook niet waar al die heisa voor DX10, laat staan DX10.1 vandaan komt. DX10.2 komt er al helemaal niet, dus dan is het niet zo gek meteen een goede sprong te wagen naar DX11. Tegen die tijd is Vista alweer wat beter ingeburgerd (of de opvolger daarvan staat in de startblokken).
Ik neem aan dat DX11 alles zal zijn wat DX10.0, 10.1 en 10.2 had moeten zijn + meer? :P
Ben met je eens dat DX10 an sich er vooralsnog niet heel erg veel beter uit ziet dan DX9.

Echter ga eens Crysis spelen. Als je een beetje oplet zie je dat de AA van de blaadjes e.d. erg lelijk is. Schakel Edgedetect AA in (zie bijv. crysis guide op www.tweakguides.com) en het ziet er ineens duidelijk beter uit.
Selecteer FSAA en schakel het daarna uit. Een wereld van verschil als je naar de de randen van daken en schuttingen.

Het irritante is dat FSAA en Edgedetect niet allebei kunnen dus je hebt of lelijke daken of lelijke blaadjes. Met DX10.1 zou dit wel tegelijk kunnen.

En zo is er rond de AA implementatie onder DX10 en DX9 wel meer gezeur. Bepaalde vormen van HDR kunnen niet tegelijk met AA.

DX11 zal vast fantastisch zijn maar er is nog bijna niks van bekend dus je kunt er wel bijna zeker van zijn dat dat pas op zijn vroegst in de opvolger van Vista komt. :'(

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 104819

justifire schreef op zaterdag 12 januari 2008 @ 14:54:
Is er hier iemand die toevallig nog flexibele SLI connectors/bruggen heeft liggen die hij toch niet gebruikt?
PM me dan even.
Hehe ook bezig met TRI SLI? :D

Moet je meneer "hoegee" eens mailen vanuit mijn ad ( V&A gevraagd: SLI Bridge flexibel ) , hij heeft er wss nog een liggen, want ik ben voorzien :)

Acties:
  • 0 Henk 'm!

  • justifire
  • Registratie: December 2001
  • Laatst online: 21:18

justifire

Shut up and squat !!

Anoniem: 104819 schreef op zaterdag 12 januari 2008 @ 16:16:
[...]


Hehe ook bezig met TRI SLI? :D

Moet je meneer "hoegee" eens mailen vanuit mijn ad ( V&A gevraagd: SLI Bridge flexibel ) , hij heeft er wss nog een liggen, want ik ben voorzien :)
Ja :D
Draai jij al Tri Sli dan?
Zal hem eens mailen, heb er alleen wel 2 nodig dus...

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 12 januari 2008 @ 05:15:
Wel vreemd dat NV dan ineens een API downplayed waar ze zelf aan de totstandkoming hebben meegeholpen. Dan is het eigenlijk beter om op veilig te spelen en iets te zeggen als "we ondersteunen het als de tijd daar is" zoals ze dat ook met unified shaders deden, of zoals AMD deed met SM3.0. Zoals het nu gebeurt is het net alsof je je eigen geloofwaardigheid ook neersabelt door negatief te doen over iets waar je zelf aan hebt mee geholpen.
Ik denk niet zozeer dat nV, Microsoft en Crytek DX10.1 downplayen als dat AMD het 'upplayed', want het is het enige "voordeel" waar ze momenteel in marketingperspectief de nadruk op kunnen leggen.

Ik neem de developper van de update (Microsoft), en een van de belangrijkste en meest vooruitstrevende gamedeveloppers van het moment (Crytek) toch wel een heel stuk serieuzer dan een AMD marketingdepartement die DX10.1 zojuist tot 1 van hun voornaamste verkoopargumenten heeft gebombardeerd.
Tegenover ATi hebben we natuurlijk een nV, die het blijkbaar absoluut niet belangrijk genoeg vind om er zelfs maar haast mee te maken om het in hun GPU's te integreren. Als 't echt zo'n noodzakelijkheid was zou het wel toegevoegd zijn in hun upcoming GPU's.

Bovendien heeft nV DX10.1 niet nodig om AA behoeften te vervullen. Allereerst vanwege hun hardware-ondersteuning voor AA. Er word nogal wat afgeblaat over dat dit 'problemen' zou 'kunnen' geven met HDR, maar ik heb hier tot nog toe geen harde bewijzen (lees: beelden) voor gezien. Sterker nog, mijn ervaring met HDR+AA tot nu toe was dat 't uitmuntende plaatjes oplevert.
Daarnaast heeft nV zelfs voor deferred rendered UE3 games patches uitgebracht waardoor die AA ondersteunen. Hier zou zogenaamd ook DX10.1 voor nodig zijn, maar het blijkt nu zelfs onder DX9 aan de praat te krijgen.

Ergo: ik zie - naast de opmerkingen van nV, MS en Crytek erover - ook daadwerkelijk geen enkele concrete reden om aan te nemen dat DX10.1 noodzakelijk zou zijn. Ik heb er zelfs mijn twijfels over of DX10 in the first place uberhaupt noodzakelijk was, zeker nadat ik Crysis onder DX9 met de Very High patch heb gedraaid: zelfde IQ, veel betere performance dan onder DX10

Hoewel men bij AMD er natuurlijk alles aan zal doen om ons te laten geloven dat DX10.1 de beste uitvinding sinds gesneden brood is... ik heb echter geleerd marketingdepartementen te wantrouwen ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
Cheetah schreef op zaterdag 12 januari 2008 @ 16:31:
[...]
Daarnaast heeft nV zelfs voor deferred rendered UE3 games patches uitgebracht waardoor die AA ondersteunen. Hier zou zogenaamd ook DX10.1 voor nodig zijn, maar het blijkt nu zelfs onder DX9 aan de praat te krijgen.
Via een hack, waardoor de performance drop een stuk groter is dan wanneer je dit doet op de 'juiste' manier met DX10.1.

Acties:
  • 0 Henk 'm!

Anoniem: 104819

justifire schreef op zaterdag 12 januari 2008 @ 16:25:
[...]

Ja :D
Draai jij al Tri Sli dan?
Zal hem eens mailen, heb er alleen wel 2 nodig dus...
Nee nog niet, heb wel eindelijk de 3 bruggetjes, een lange harde O-) en 2 flexibele, en een plaatje hoe je het aan moet sluiten enzo op de 680i. Ik heb dezelfde voeding als jou, hoop dat die het trekt.
Nu alleen nog een 3 e 8800 gtx... voor een redelijke prijs

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Wat is een 'hack'? En zou het uitmaken dat het een 'hack' is zolang 't goed werkt?
waardoor de performance drop een stuk groter is dan wanneer je dit doet op de 'juiste' manier met DX10.1.
Wat is de 'juiste' manier? Er zijn vele wegen die naar Rome leiden. Wat belangrijk is, is dat je in Rome aankomt. Met nV's "hack" ben ik nu al in Rome, en met ATi's DX10.1 kan ik nog minimaal tot halverwege dit jaar wachten (Vista SP1) mits er uberhaupt al een DX10.1 patch voor UE3 uitkomt.

Verder is er geen enkele bevestiging, laat staan bewijs, dat AA in UE3 met DX10.1 sneller zou kunnen dan met nV's "hack". De enige ervaring die ik tot nu toe met DX10 heb is dat het een stuk langzamer is dan DX9. Zelfs als AA onder DX10.1 wat sneller zou zijn dan onder DX10 betwijfel ik ten zeerste dat het in de buurt komt van de performance onder DX9. Doe mij dus die 'hack' maar waarmee AA ook in DX9 werkt, nog afgezien van dat ik concrete resultaten vandaag sterk prefereer boven eventuele resultaten op enig ongedefinieerd moment in de toekomst...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • justifire
  • Registratie: December 2001
  • Laatst online: 21:18

justifire

Shut up and squat !!

Anoniem: 104819 schreef op zaterdag 12 januari 2008 @ 16:48:
[...]


Nee nog niet, heb wel eindelijk de 3 bruggetjes, een lange harde O-) en 2 flexibele, en een plaatje hoe je het aan moet sluiten enzo op de 680i. Ik heb dezelfde voeding als jou, hoop dat die het trekt.
Nu alleen nog een 3 e 8800 gtx... voor een redelijke prijs
Ben al iemand tegen gekomen die het heeft draaien op een 700W voeding.
1200W word aanbevolen, maar denk dat 1000W ook wel voldoende is.
Bovendien kan de Galaxy meer leveren dan 1000W, kijk maar eens op de sticker.

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

Cheetah schreef op zaterdag 12 januari 2008 @ 16:58:
[...]
Wat is een 'hack'? En zou het uitmaken dat het een 'hack' is zolang 't goed werkt?

[...]
Wat is de 'juiste' manier? Er zijn vele wegen die naar Rome leiden. Wat belangrijk is, is dat je in Rome aankomt. Met nV's "hack" ben ik nu al in Rome, en met ATi's DX10.1 kan ik nog minimaal tot halverwege dit jaar wachten (Vista SP1) mits er uberhaupt al een DX10.1 patch voor UE3 uitkomt.

Verder is er geen enkele bevestiging, laat staan bewijs, dat AA in UE3 met DX10.1 sneller zou kunnen dan met nV's "hack". De enige ervaring die ik tot nu toe met DX10 heb is dat het een stuk langzamer is dan DX9. Zelfs als AA onder DX10.1 wat sneller zou zijn dan onder DX10 betwijfel ik ten zeerste dat het in de buurt komt van de performance onder DX9. Doe mij dus die 'hack' maar waarmee AA ook in DX9 werkt, nog afgezien van dat ik concrete resultaten vandaag sterk prefereer boven eventuele resultaten op enig ongedefinieerd moment in de toekomst...
Hack is niet via officiele manier, ga nou niet met dingen blaten die je zelf ook wel weet Cheetah, je draait hier lang genoeg mee om te weten wat er bedoelt wordt en de consequenties daarvan.

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Phyxion schreef op zaterdag 12 januari 2008 @ 18:10:
Hack is niet via officiele manier
De officiele manier van wie? Van de gamedevelopper? Ondersteuning van AA is iets dat tussen de gamedev en de hardwarefabrikant in zit, en niet afhankelijk is van gamedev alleen.
Het is de officiele manier van nVidia en het werkt. Daar gaat het toch om?
ga nou niet met dingen blaten die je zelf ook wel weet Cheetah, je draait hier lang genoeg mee om te weten wat er bedoelt wordt
Nee, ik 'weet' niet wat er bedoeld wordt, dus daarom vraag ik er maar concreet naar :)
en de consequenties daarvan.
Welke consequenties dan? Please enlighten me :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

Cheetah schreef op zaterdag 12 januari 2008 @ 18:18:
[...]
De officiele manier van wie? Van de gamedevelopper? Ondersteuning van AA is iets dat tussen de gamedev en de hardwarefabrikant in zit, en niet afhankelijk is van gamedev alleen.
Het is de officiele manier van nVidia en het werkt. Daar gaat het toch om?

[...]
Nee, ik 'weet' niet wat er bedoeld wordt, dus daarom vraag ik er maar concreet naar :)

[...]
Welke consequenties dan? Please enlighten me :)
CJ heeft het meerdere malen uitgelegd hoe dat allemaal in z'n werk gaat :)

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
Phyxion schreef op zaterdag 12 januari 2008 @ 18:34:
[...]

CJ heeft het meerdere malen uitgelegd hoe dat allemaal in z'n werk gaat :)
Inderdaad... Googlen 1e hit -> CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cheetah schreef op zaterdag 12 januari 2008 @ 16:31:
[...]ik heb echter geleerd marketingdepartementen te wantrouwen ;)
Gaap, behalve die van nvidia natuurlijk....
Cheetah schreef op zaterdag 12 januari 2008 @ 16:58:
[...]
Wat is een 'hack'? En zou het uitmaken dat het een 'hack' is zolang 't goed werkt?

[...]
Wat is de 'juiste' manier? Er zijn vele wegen die naar Rome leiden. Wat belangrijk is, is dat je in Rome aankomt. Met nV's "hack" ben ik nu al in Rome, en met ATi's DX10.1 kan ik nog minimaal tot halverwege dit jaar wachten (Vista SP1) mits er uberhaupt al een DX10.1 patch voor UE3 uitkomt.

Verder is er geen enkele bevestiging, laat staan bewijs, dat AA in UE3 met DX10.1 sneller zou kunnen dan met nV's "hack". De enige ervaring die ik tot nu toe met DX10 heb is dat het een stuk langzamer is dan DX9. Zelfs als AA onder DX10.1 wat sneller zou zijn dan onder DX10 betwijfel ik ten zeerste dat het in de buurt komt van de performance onder DX9. Doe mij dus die 'hack' maar waarmee AA ook in DX9 werkt, nog afgezien van dat ik concrete resultaten vandaag sterk prefereer boven eventuele resultaten op enig ongedefinieerd moment in de toekomst...
Pff toen ATI in Oblivion HDR+AA aan de praat kreeg was dat in jouw ogen weinig relevant en maar een hack en nu is t ineens weer prima bij nvidia.

Je bent imo allang je geloofwaardigheid kwijtgeraakt. Je roept alleen wat in jouw straatje past onder het mom van objectiviteit enzo... De dingen die je anderen verwijt doe je zelf precies zo. Vroeger vond ik je idd objectief maar helaas ben je dat allang kwijtgeraakt. Je bent alleen aan het polariseren. Daar ben je niet alleen in maar omdat je in je poststijl continue objectieve superioriteit uitstraalt, ik weet hoe het echt zit en mij hoef je niks wijs te maken, irriteer en verziek je alle GPU topics.
Het is jammer dat je na al die jaren niet in staat bent een relaxte modus te vinden want je hebt zeker een hoop kennis waar iedereen hier van kan profiteren.

Waarom kun je niet gewoon constateren dat er rondom AA implementatie issues zijn met de huidige standaard DX10 en DX9 en een officiele oplossing verwelkomen :? Dat lijkt me nl. WEL objectief en realistisch.

(Dat nVidia het in de tussentijd zoveel mogelijk met hacks oplost is overigens prima natuurlijk)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Help!!!! schreef op zaterdag 12 januari 2008 @ 18:48:
Gaap, behalve die van nvidia natuurlijk....
Oh? In welk stuk van mijn argumentatie baseer ik me op nV's marketingdepartement dan? :>
Als je je mijn posts herinnert dan zul je weten dat ik precies dezelfde tegen-argumentatie gaf toen nV's marketingdepartment SM3.0 immens liep op te hypen op de GF6 serie. En dat was toen een feature die destijds al werd ondersteund in het OS en bepaalde games. DX10.1 is zelfs daar nog lang niet.
Pff toen ATI in Oblivion HDR+AA aan de praat kreeg was dat in jouw ogen weinig relevant en maar een hack en nu is t ineens weer prima bij nvidia.
Oh? Ik vond het anders prima, en hoopte dat HDR+AA snel in meerdere games gefixed zou worden gezien ik toen een X1900XT en later XTX had :)
Enige wat ik wel jammer vond was dat in het begin HDR+AA virtueel onbruikbaar was, gezien er gewoon niet genoeg performance voor was, zeker in Oblivion, en zeker niet met de X1800XT die destijds al performanceproblemen had met HDR alleen.
Je bent imo allang je geloofwaardigheid kwijtgeraakt. Je roept alleen wat in jouw straatje past onder het mom van objectiviteit enzo... Vroeger vond ik je idd objectief maar helaas ben je dat allang kwijtgeraakt. Je bent alleen aan het polariseren. Daar ben je niet alleen in maar omdat je in je poststijl continue objectieve superioriteit uitstraalt, ik weet hoe het echt zit en mij hoef je niks wijs te maken, irriteer en verziek je alle GPU topics.
Het is jammer dat je na al die jaren niet in staat bent een relaxte modus te vinden want je hebt zeker een hoop kennis waar iedereen hier van kan profiteren.
Zullen we de persoonlijke 'notes', gegis over mijn motivatie, en overige ad hominem ondergraving van mijn posts achterwege laten en het gewoon inhoudelijk houden ajb? :)

Wie je wel of niet geloofwaardig vindt mag je zelf weten, maar ik heb een aantal (vrij harde) argumenten gegeven waarom ik denk dat DX10.1 heel wat minder relevant is dan er links en rechts word beweerd door sommigen... en waarom het op dit moment zeker niet van belang is gezien zelfs OS (laat staan gamedev) ondersteuning nog een flink aantal maanden weg is. Tegen de tijd dat het misschien van belang wordt zijn we al 1 of 2 nieuwe generaties kaarten verder.
Die argumenten staan. Als je het daar niet mee eens bent, lees ik gaarne van je waarom niet :)
Waarom kun je niet gewoon constateren dat er rondom AA implementatie issues zijn met de huidige standaard DX10 en DX9 en een officiele oplossing verwelkomen :? Dat lijkt me nl. WEL objectief en realistisch.
Waarom kun jij niet gewoon constateren dat die 'implementatie-issues' marginaal zijn, vrijwel exclusief voor deferred rendering games gelden (en die zijn dik in de minderheid), en zelfs voor deferred rendering games (middels 'hacks') opgelost worden? :)
Dat lijkt me nl. WEL objectief en realistisch.

Dat ATi op dit moment AA-performanceissues heeft wegens weglaten van hardware AA lijkt me nou niet direct een queue voor de hele industrie om hun AA implementatie aan te passen. Want ik denk dat dat een van de belangrijkste zaken is die aan de basis van deze hele DX10.1 rush van ATi ligt.
Gelukkig word dit hardware AA gebrek aan ATi's zijde gefixed in hun toekomstige GPU's, waarna het opgehype van DX10.1 als "de oplossing van 'de vele AA problemen'" (kuch, die ik nog steeds op screenshot moet zien) hopelijk eens achterwege is ;)
(Dat nVidia het in de tussentijd zoveel mogelijk met hacks oplost is overigens prima natuurlijk)
En daar ging het me voornamelijk om. Praktische oplossingen vandaag (of je die nou 'hacks' wil noemen of niet), ipv theoretische oplossingen misschien ergens in een nog niet gedefinieerde toekomst :)
Ik had dat al lang gelezen :)
En? Het is theorie... theorie die ik nog in de praktijk getoetst moet zien. In theorie kan DX10.1 - als het al ondersteund wordt - sneller AA doen dan DX10. Maar in theorie zou DX10 ook sneller zijn dan DX9. We weten inmiddels al wat de praktijk zegt. Mijn motto: eerst zien, dan geloven... en zeker als het nog maanden duurt voordat die theorie uberhaupt getoetst kan worden... en daarna nog moet blijken of gamedevs die theorie uberhaupt ook in praktijk gaan brengen... en dat alles al helemaal als de hype bij een marketingdepartement vandaan komt die niets liever wil dan een 'unique selling point' voor hun kaarten te vinden om er meer van te kunnen schuiven ;)

Hoeveel (grote) gamedevs hebben al concreet aangekondigd DX10.1 te gaan implementeren in toekomstige games en patches, en welk tijdpad voorzien zij als ze het uberhaupt al gaan doen?
DX10.1 is totdat 1.) die ondersteuning er is, en totdat 2.) het ook in de praktijk echt voordelig blijkt te zijn weinig meer dan een checkbox feature... ik zie liever concrete praktische zaken als spearhead van een marketingcampagne, maar goed, dat ben ik weer ;)

[ Voor 6% gewijzigd door Cheetah op 12-01-2008 19:49 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Barfman
  • Registratie: Oktober 2003
  • Laatst online: 00:06
He mensen.

Ik heb een Gainward NVIDIA 8800 GTS, 512MB (G92), maar ik mis eigenlijk de temps in het control center. Hiervoor had ik een 7800 GS, en daar had ik wel de temp aanduiding in het control center staan. Komt het omdat mijn kaart net nieuw is, of ondersteund het control center nog niet mijn kaart volledig.

System | Racing is in my Blood


Acties:
  • 0 Henk 'm!

  • Fatal Mind
  • Registratie: September 2007
  • Niet online
Best kans datd Gainward ook een '' speciale '' sensor gebruikt heeft zoals Asus, de temp van de kaart is dan alleen uit te lezen met het programma wat je er van Gainward bij krijgt, misschien moet je dat maar even proberen.

Acties:
  • 0 Henk 'm!

  • Barfman
  • Registratie: Oktober 2003
  • Laatst online: 00:06
Fatal Mind schreef op zondag 13 januari 2008 @ 09:55:
Best kans datd Gainward ook een '' speciale '' sensor gebruikt heeft zoals Asus, de temp van de kaart is dan alleen uit te lezen met het programma wat je er van Gainward bij krijgt, misschien moet je dat maar even proberen.
Oke bedankt. Vind het wel jammer, want vind dat ExperTool eigenlijk niet veel.

System | Racing is in my Blood


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Dx10.1 is nog niet eens van toepassing in progamma's en game's Waarom zou nv dan er aan beginnen? Het is juist goed dat ze wachten op xd11. Zo zie je maar weer het verschil tussen dx9 en 10 is al nix en dx 10 en 10.1 zal wel helemaal nix zijn.

Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

Anoniem: 226494 schreef op zondag 13 januari 2008 @ 12:38:
Dx10.1 is nog niet eens van toepassing in progamma's en game's Waarom zou nv dan er aan beginnen? Het is juist goed dat ze wachten op xd11. Zo zie je maar weer het verschil tussen dx9 en 10 is al nix en dx 10 en 10.1 zal wel helemaal nix zijn.
Wat een onzin zeg, waarom zullen we DX11 gaan maken als er toch geen hardware voor is :X 8)7 |:(

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Phyxion schreef op zondag 13 januari 2008 @ 13:42:
[...]

Wat een onzin zeg, waarom zullen we DX11 gaan maken als er toch geen hardware voor is :X 8)7 |:(
Jonge voor later tog. Niet dat ze het direct moeten maken maar over een jaar bvb ;)

Acties:
  • 0 Henk 'm!

  • Illidan
  • Registratie: Augustus 2006
  • Laatst online: 22:35
Phyxion schreef op zondag 13 januari 2008 @ 13:42:
[...]

Wat een onzin zeg, waarom zullen we DX11 gaan maken als er toch geen hardware voor is :X 8)7 |:(
LoL dat is juist het idee; nV slaat de minor update DX10.1 over, richt al haar hardware + gamedev (TWIMTBP) pijlen op DX11, dus tegen die tijd komt het wel goed :)

Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802


Acties:
  • 0 Henk 'm!

Anoniem: 126513

Dat kun helemaal niet zeggen, je kunt pas oordelen als je de daadwerkelijke prestatie en IQ verschillen kunt opmerken bij een game gerenderd in DX10 path of te wel DX10.1 path. Daarna kunnen we pas gaan oordelen.
Opmerkingen zoals het verschil tussen DX9 en DX10 is klein dus zal dit ook wel...zijn gebasseerd op je eigen aannemingen daar kun geen vruchtbare discussie mee voeren. Vruchtbaar in de zin van dat we er mee vooruitkomen qua inzicht en kennis.

Waarom dan een tussenstap als DX10.1 niks voorstelt. BS, DX10.1 is een nodige update, jij wil ook niet je vista sp1 pack laten liggen dadelijk.
DX8 heeft updates gehad, waarbij de verschillen toch behoorlijk groot konden zijn. DX8 en DX8.1, shadermodel 1.1 naar 1.4.

Ik zeg niet meteen dat je nu persee alleen DX10.1 moet hebben, maar het is wel het meest verbeterd en aangepast zoals men het uiteindelijk wilde hebben. Nu gaan ze zich meer met DX11 bezig houden wrs.
De verschillen tussen DX9 en DX10 zijn visuaeel idd klein, maar er wordt totaal anders gerenderd, ook worden de mogelijkheden van DX10 nog weinig gebruikt zoals zeer lange shaderinstructies. Volgens mij komt dat ook door te trage hardware.

Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Zou ik de startpost opgenomen kunnen worden welke cores er nou zijn en welke kaarten hier aan hangen want ik begrijp dat er inmiddels twee verschillend 8800gts kaarten zijn, 1 met de G80 en een met de G92 maar hoe zie ik nou het verschil in de winkels en wat zijn de cores-to-come. IK heb liever een waardige opvolger van de 8800gtx/ultra maar dat is de G92 core volgens mij niet :?

Ik moet eerlijk bekennen dat ik de voorgaande delen niet heb gelezen..

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 01:23
shades schreef op zondag 13 januari 2008 @ 20:10:
Zou ik de startpost opgenomen kunnen worden welke cores er nou zijn en welke kaarten hier aan hangen want ik begrijp dat er inmiddels twee verschillend 8800gts kaarten zijn, 1 met de G80 en een met de G92 maar hoe zie ik nou het verschil in de winkels en wat zijn de cores-to-come. IK heb liever een waardige opvolger van de 8800gtx/ultra maar dat is de G92 core volgens mij niet :?

Ik moet eerlijk bekennen dat ik de voorgaande delen niet heb gelezen..
8800 GTS G92 heeft als enige GTS versie 512 MB

Dan heb je nog de GX2 (2 maal de 8800 GTX GPU's op één boordje) die midden/eind februari uitkomt.

En later dit jaar de nieuwe single GPU high-end kaart van Nvidia onder de voorlopige (code)naam GT200 (de voormalige G100).

Gelukkig maken ze het niet al te ingewikkeld daar bij Nv ;)

Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 23-05 19:15
Outlandos schreef op zondag 13 januari 2008 @ 20:19:
[...]


8800 GTS G92 heeft als enige GTS versie 512 MB

Dan heb je nog de GX2 (2 maal de 8800 GTX GPU's op één boordje) die midden/eind februari uitkomt.

En later dit jaar de nieuwe single GPU high-end kaart van Nvidia onder de voorlopige (code)naam GT200 (de voormalige G100).

Gelukkig maken ze het niet al te ingewikkeld daar bij Nv ;)
Nee hoor outlandos de 9800gx2 was toch 2 gts92 cores op 1 kaart?

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 05-06 22:17
EdwardvGelder schreef op zondag 13 januari 2008 @ 21:18:
[...]


Nee hoor outlandos de 9800gx2 was toch 2 gts92 cores op 1 kaart?
Yes.

edit: Nou, eigenlijk niet. Eigenlijk op 2 kaarten ;)

[ Voor 12% gewijzigd door Avalaxy op 13-01-2008 21:21 ]


Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 01:23
EdwardvGelder schreef op zondag 13 januari 2008 @ 21:18:
[...]


Nee hoor outlandos de 9800gx2 was toch 2 gts92 cores op 1 kaart?
Owja... :D

Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

ik zei al: lekker verwarrend. Wanneer wordt die nieuwe highend dat verwacht ? ik wil niet langer dan tot maart/april wachten. Anders doe ik eerst wel die gtx 512mb.. of is dat nou de gts ahhhh :? :? :?

[ Voor 9% gewijzigd door shades op 13-01-2008 23:09 ]

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 23:30

Edmin

Crew Council

get on my horse!

gtx 512mb???

Die bestaat niet vriend ;)

Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 01:23
shades schreef op zondag 13 januari 2008 @ 23:08:
ik zei al: lekker verwarrend. Wanneer wordt die nieuwe highend dat verwacht ? ik wil niet langer dan tot maart/april wachten. Anders doe ik eerst wel die gtx 512mb.. of is dat nou de gts ahhhh :? :? :?
GTS is dat, die heb je al voor 300 Euro en is een super kaart.

volgende maand komt dan de GX2 uit, dat wordt de nieuwe high-end kaart.

maar waarschijnlijk niet voor langer dan een half jaar, wanneer de GT200 uitkomt.

Acties:
  • 0 Henk 'm!

  • KappeNou
  • Registratie: Oktober 2005
  • Laatst online: 29-05 15:35
volgende maand komt niet de next gen high end kaart uit.. Als eerste komt de 9600 uit, die net wat langzamer is dan de 8800GT. Het duurt zeker nog wel 3 maandjes voordat de 9800GTX oid uit komt

>PC specs<


Acties:
  • 0 Henk 'm!

  • Plurk.
  • Registratie: Mei 2005
  • Laatst online: 06-06 09:04
Anoniem: 226494 schreef op zondag 13 januari 2008 @ 12:38:
Dx10.1 is nog niet eens van toepassing in progamma's en game's Waarom zou nv dan er aan beginnen? Het is juist goed dat ze wachten op xd11. Zo zie je maar weer het verschil tussen dx9 en 10 is al nix en dx 10 en 10.1 zal wel helemaal nix zijn.
En een tijdje terug reageerde je nog zo enthousiast over DX10
Anoniem: 226494 schreef op maandag 27 augustus 2007 @ 08:02:
[...]
dx10 is echt wel een stuk mooier dan dx9. Teminste hiero zie ik een groot verschil

Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 01:23
Ludwig lult gewoon constant met de wind mee en weet eigenlijk niks, opdat zijn posts ook nauwelijks enige toegevoegde waarde hebben. Op den duur ga je mensen hiermee en je vele tegenstrijdig heden irriteren.
Modbreak:Doe dit soort commentaar aub in topicreports ipv een topic er zo mee te verzieken :/

[ Voor 20% gewijzigd door dion_b op 14-01-2008 13:39 ]


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 20:30
Outlandos schreef op maandag 14 januari 2008 @ 01:27:
Ludwig lult gewoon constant met de wind mee en weet eigenlijk niks, opdat zijn posts ook nauwelijks enige toegevoegde waarde hebben. Op den duur ga je mensen hiermee en je vele tegenstrijdig heden irriteren.
_/-\o_

En straks komt RappieRappie weer langs die ook zo'n flapdrol is :P


Sorry ik kon het even niet laten, maar de meeste mensen weten wel wat ik bedoel + ik zette er :P achter O-)
Modbreak:Ongeacht of je er :P , O-) of welke smiley dan ook achter zet, dit blijft op de man spelen, oftewel flamen. Dat is nergens op GoT toegestaan en in dit topic is het ook nog eens nadrukkelijk in de topicwaarschuwing genoemd. Check je mail, wie niet horen wil... :/

[ Voor 42% gewijzigd door dion_b op 14-01-2008 13:12 ]


Acties:
  • 0 Henk 'm!

  • Phyxion
  • Registratie: April 2004
  • Niet online

Phyxion

_/-\o_

9600GT review is ook te vinden. Kaart presteert zoals te verwachten slechter dan de 8800GT. Performance zit zo rond de 3850 512MB. Alles zal van de prijs af gaan hangen :)

'You like a gay cowboy and you look like a gay terrorist.' - James May


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

mdcobra schreef op maandag 14 januari 2008 @ 01:35:
[...]


_/-\o_

En straks komt RappieRappie weer langs die ook zo'n flapdrol is :P
Waar slaat dít op? :(

[ Voor 85% gewijzigd door Format-C op 14-01-2008 10:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 169917

[moderate]

+1 kleuterspeelzaal factor

[/moderate]


Als ik die foto's van de 9800GX2 bekijk word ik niet vrolijk.
Al die warme lucht wordt gewoon weer de kast ingeblazen, en wat is ie bizar groot zeg.
Bovendien wordt ie na verluidt ook nog eens bijzonder warm.
Berichten over de 3870X2 vermelden: stressed 60 graden, blaast de lucht uit de kast, minder log dan de 9800GX2.. die voordelen verruil ik graag voor 10-15% minder performance.
Bovendien komt de 3870X2 eerder op de markt dan de 9800GX2, is in grote volumes beschikbaar en zal iets minder kosten.
Als ik nu niet zo willen wachten op de GT200/R700, dan was ik waarschijnlijk voor de 3870X2 gegaan.
Daar bij ATI/AMD doen ze toch iets goed, de afgelopen tijd heb ik geen oog voor ze gehad omdat ze niet in de buurt kwamen van de performance van NV.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 23:30

Edmin

Crew Council

get on my horse!

Ach, het is maar 1,5 generatie geleden dat de NV 7-serie het moest afleggen tegen de Ati X1900 serie. De 8800 is gewoon een ijzersterke GPU gebleken, waar Ati een matig antwoord op had. Dat de concurrentie in die generatie niet optimaal was, wil niet zeggen dat er de komende tijd ook sprake zal zijn van een unilaterale GPU markt.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22:40

Deathchant

Don't intend. Do!

Illidan schreef op vrijdag 11 januari 2008 @ 21:37:
Hoe langer ik erover nadenk, hoe meer ik tot de conclusie kom dat het eigenlijk wel erg goed zal zijn als 3dmark idd DX10.1 een hoge score toekent. Alle ATi kaarten zullen dan opeens veel hoger scoren dan hun nV tegenhangers in dezelfde prijsklasse (en misschien zelfs hoger dan nV kaarten in een hogere prijsklasse). Vervolgens komen de echte game benchmarks aan bod, en dan veegt nV zoals gebruikelijk ATi van de kaart. Uhhh, hoe kén dat nou, ATi scoorde toch een hogere 3dmark Vantage? 8)7 8)7 Misschien, heel misschien, is 3dmark wel een erg brakke en onbetrouwbare benchmark....?? En walla; opeens is het voor de wereld, inclusief de huidige 3dmark fetischisten duidelijk dat de zo gekoesterde 3dmark geen drol voorrstelt en erg overrated is. Zijn we meteen van die hele 3dmark heisa af ;) ;)
Ik deel exact ook deze mening. Ik gebruik 3dmark gewoon om te kijken of het enigszins in de buurt kom of om te controleren welke bottlenecks er zijn. Erg betrouwbaar vind ik het niet. En wat betreft dat DX10.1 verhaal wat llldan postte over dat het vaker tussen de oren zit, kan ik het ook wel in vinden. Je wilt vaker dat het mooier uitziet dan dat je echt zichtbaar verschil ziet. Ik wacht het allemaal wel af.

@mdcobra, outlandros en ludwig83:
- hou het on-topic, behulpzaam en vriendelijk. Op de man spelen wordt niet getolereerd.

[ Voor 5% gewijzigd door Deathchant op 14-01-2008 10:14 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Outlandos schreef op maandag 14 januari 2008 @ 01:27:
Ludwig lult gewoon constant met de wind mee en weet eigenlijk niks, opdat zijn posts ook nauwelijks enige toegevoegde waarde hebben. Op den duur ga je mensen hiermee en je vele tegenstrijdig heden irriteren.
Lekker offtopic weer.
Het groete verschil is wat ik bedoel de zachtere randjes en verbeterde schaduw efecten rook lijkt ook echter in dx10
Dat jij zecht dat ik nix weet is jou'n mening. Niet echt vriendelijk om zo over mensen te praten die jij niet eens kent maar goed bootje komt op zijn loontje ooit
Modbreak:Hou het zelf on-topic. En gebruik een spellchecker als je geen Nederlands kunt typen. Dat scheelt misverstanden en onnodige irritatie.

[ Voor 11% gewijzigd door dion_b op 14-01-2008 13:38 ]


Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Outlandos schreef op zondag 13 januari 2008 @ 23:25:
[...]


GTS is dat, die heb je al voor 300 Euro en is een super kaart.

volgende maand komt dan de GX2 uit, dat wordt de nieuwe high-end kaart.

maar waarschijnlijk niet voor langer dan een half jaar, wanneer de GT200 uitkomt.
gts dus - verwarrend zoals ik al zei en is deze nu sneller dan de gt :?


• (lijkt me nog steeds een goed idee om de startpost te voorzien van een volledige lijst core -> kaartnamen)
• stop eens met lullig doen. Valt nogal op de laatste paar posts..

[ Voor 8% gewijzigd door shades op 14-01-2008 10:31 ]

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 23:30

Edmin

Crew Council

get on my horse!

Uit de startpost:
8800 serie


8800 GTS
GPU: G80

Release Date: 11/2006
Interface: PCI-E x16
Transistors: 681 million
Unified shaders: 96
ROP's: 20
Core Clock: 500 MHz
Memory Clock: 800 MHz (1600 DDR)
Memory Bandwidth: 64 GB/sec
Memory Interface: 320 bit
Memory: 320 / 640 MB


8800 GTX
GPU: G80

Release Date: 11/2006
Interface: PCI-E x16
Transistors: 681 million
Unified shaders: 128
ROP's: 24
Core Clock: 575 MHz
Memory Clock: 900 MHz (1800 DDR)
Memory Bandwidth: 86.4 GB/sec
Memory Interface: 384 bit
Memory: 768 MB


8800 serie


8800 GTS
GPU: G92

Release Date: 12/2007
Interface: PCI-E x16
Transistors: 754 million
Unified shaders: 128
ROP's: 20
Core Clock: 650 MHz
Memory Clock: 950 MHz (1900 DDR)
Memory Bandwidth: 60.8 GB/sec
Memory Interface: 256 bit
Memory: 512 MB


8800 GT
GPU: G92

Release Date: 10/2007
Interface: PCI-E x16
Transistors: 754 million
Unified shaders: 118
ROP's: 20
Core Clock: 600 MHz
Memory Clock: 900 MHz (1800 DDR)
Memory Bandwidth: 57.6 GB/sec
Memory Interface: 256 bit
Memory: 512 MB
Het staat er dus wel, inclusief pics...

Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
edit

[ Voor 96% gewijzigd door Demon_Eyez op 14-01-2008 11:31 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Edmin schreef op maandag 14 januari 2008 @ 10:33:
Uit de startpost:


[...]


Het staat er dus wel, inclusief pics...
oh |:( 8)7
/me moet eens leren lezen
Het enige verschil waaraan je op de doos kan zien om welke het gaat is dus eigenlijk dat de G92 GTS 512Mb heeft en de oude 320 of 640Mb heeft. Oppassen geblazen dus in de winkel..

[ Voor 28% gewijzigd door shades op 14-01-2008 10:52 ]

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Verschillende bronnen spreken inmiddels over een nieuwe kaart in de 9-serie van nVidia. Tot op heden waren details bekend van de 9800GX2 en 9600GT, maar nu is er ook informatie over een GeForce 9500GT opgedoken. TomsHardware in Taiwan weet te melden dat de 9500GT gebaseerd is op de G96 chip die net als de G92, G94 en G98 geproduceerd gaat worden op 65 nm. Verwachting is dat de videokaart nog in de eerste helft van 2008 op de markt geïntroduceerd gaat worden.


De nieuwe low-end kaart zal onder de 9600GT gepositioneerd worden en heeft een 128-bits databus die wordt gecombineerd met GDDR2 of GDDR3 geheugen. De kaart ondersteunt DirectX10.0, OpenGL2.1, PCIExpress 2.0 en Hybride SLI. Via Hybride SLI kan de kaart samenwerken met een geïntegreerde videokaart op het moederbord. Het aantal Stream Processors is nog niet duidelijk, wel is bekend dat de core frequentie 650 MHz is en dat de shaders op 1650 Mhz geklokt gaan worden. Het geheugen zou op 1600 of 1800 Mhz effectief gaan draaien, afhankelijk van de hoeveelheid en type van het geheugen wat gebruikt gaat worden. Het referentieontwerp zou 256 MB DDR2 geheugen gebruiken op 900 Mhz (1800 Mhz effectief).


De 9500GT lijkt een antwoord op de Radeon HD 3650 van ATI, die een kleine voorsprong heeft aangezien deze binnenkort al in de schappen verwacht wordt. Of de kaart een DisplayPort aansluiting zal hebben laat nVidia over aan de fabrikant die deze naar keuze al dan niet kan implementeren.
Ik vind het maar een vaage volgorde van al die kaarten die uitkomen.
Nog ff en je ziet door de bomen het bos niet meer.
Modbreak:Jij niet, anderen blijkbaar wel. Doe dus de moeite je wat beter in te lezen. En nokken met slowchat als dit in dit topic.

[ Voor 5% gewijzigd door dion_b op 14-01-2008 13:37 ]


Acties:
  • 0 Henk 'm!

  • MaTr1x
  • Registratie: Maart 2003
  • Laatst online: 28-05 14:10
Wat jij vindt is totaal onbelangrijk voor ons en voegt niks constructiefs toe aan dit nieuws & discussietopic, onthoud je a.u.b. van zulk soort commentaar. En als je serieus wilt worden genomen probeer jezelf dan niet steeds tegen te spreken, en laat tevens zien dat je weet hoe je gebruik kunt maken van Algemeen Beschaafd Nederlands.
Modbreak:Laat het voortaan aub bij een TR in gevallen als dit, verlaag je niet tot zijn niveau :/

[ Voor 14% gewijzigd door dion_b op 14-01-2008 13:36 ]

π MW finishers


Acties:
  • 0 Henk 'm!

Anoniem: 226494

MaTr1x schreef op maandag 14 januari 2008 @ 13:03:
Wat jij vindt is totaal onbelangrijk voor ons en voegt niks constructiefs toe aan dit nieuws & discussietopic, onthoud je a.u.b. van zulk soort commentaar. En als je serieus wilt worden genomen probeer jezelf dan niet steeds tegen te spreken, en laat tevens zien dat je weet hoe je gebruik kunt maken van Algemeen Beschaafd Nederlands.
Jezus jullie moeten mij wel hebben hé.
Maar goed jongens ik zal helemaal nix meer posten en alleen lezen.
Bendankt voor het goede gevoel wat ik hier krijg over iedereen die zit af te zeiken en
over dit forum. Ik hoop dat dit alleen tegen mij is en niet tegen andere mensen hiero. En dan nog
als je mijn posts niet nuttig vind reageer er dan niet op imo
ps
Je gaat zelf nog meer offtopic dan mij.
Ik post toevallig wel iets nieuws wat hier in dit topic hoord
Er word steeds op mij gespeeld hiero mods doe er wat aan. Er worden namelijk post naar boven gehaald die eeuwen oud zijn
Modbreak:Pot=ketel.... reageer dan niet. En sta misschien even stil waarom jouw posts zo vaak irritatie opwekken bij anderen. Het heeft iets te maken met de moeite doen te lezen wat anderen schrijven. Als jij hen respectloos behandelt door niet te lezen wat zij schrijven, moet je niet raar opkijken als anderen weinig respect terug tonen. Ik heb je afgelopen vrijdag hier al een PM over gestuurd, maar je trekt je er helaas niets van aan. De maat begint ondertussen vol te zijn :o

[ Voor 30% gewijzigd door dion_b op 14-01-2008 13:36 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Edmin schreef op maandag 14 januari 2008 @ 10:33:
Uit de startpost:


[...]


Het staat er dus wel, inclusief pics...
Daar staat dus een fout in bij de G92. :)

De G92 heeft 16 ROPs en geen 20 zoals vermeldt. Je kan dit ook zien aan de geheugeninterface.

G92 GTS = 4 ROP partities van 4 64-bit kanalen = 4x4 = 16 ROPs = 256-bit
G92 GT = 4 ROP partities 4 64-bit kanalen = 4x4 = 16 ROPs = 256-bit
G92 GS = 3 ROP partities van 4 64-bit kanalen = 3x4 = 12 ROPs = 192-bit
G80 GTX = 6 ROP partities van 4 64-bit kanalen = 6x4 = 24 ROPs = 384-bit
G80 GTS = 5 ROP partities van 4 64-bit kanalen = 5x4 = 20 ROPs = 320-bit

[ Voor 10% gewijzigd door CJ op 14-01-2008 13:46 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 169917

Volgens een berichten op Fudzilla gaat de 9800GX2 meer dan de 8800Ultra kosten.. zo'n 600 euro.
Als dat waar ik hoop ik voor NV dat de prestatie minstens de helft beter is dan de 3870X2, want die gaat vermoedelijk rond de 400 euro kosten.

Acties:
  • 0 Henk 'm!

  • Powrskin
  • Registratie: November 2005
  • Niet online
uittopic:>>>>Ik vind dat de Mod hier ook wel erg op de man speelt anders (hoezo las ik iets van potketel?)

Gezeur over abn typen vind ik ook overdreven, en als mods het erg vinden zorgen ze maar voor een spelchecker (of ze verandere het lekkah zelf). Waarom ik spelfouten maak (meestal bewust), is om de post iets anders te laten overkomen (bv niet te serieus of woordgeintje erin).
Het moet wel gwoon leesbaar blijven natuurlijk. <<<<<uittopic

edit: eigenlijk niet nieuws te melden, uiteraard wel weer veel info vergaard hier :)
Modbreak:Als je niets nieuws te melden hebt, post dan niet...

Verder is het de taak van een moderator om mensen aan te spreken op ongewenst gedrag, zowel om die mensen zelf bij te sturen als om aan anderen duidelijk te maken wat niet getolereerd wordt. Heb je commentaar op uitvoering van het beleid? Neem dan direct contact op met mod in kwestie. Heb je issues met het beleid an sich? Neem dan eens een kijkje in Lieve Adjes. Hoe dan ook, niet hier offtopic posten :o

[ Voor 38% gewijzigd door dion_b op 15-01-2008 11:20 ]

Nukezone FTW


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Anoniem: 169917 schreef op maandag 14 januari 2008 @ 14:59:
Volgens een berichten op Fudzilla gaat de 9800GX2 meer dan de 8800Ultra kosten.. zo'n 600 euro.
Als dat waar ik hoop ik voor NV dat de prestatie minstens de helft beter is dan de 3870X2, want die gaat vermoedelijk rond de 400 euro kosten.
Er staat in het dik bij "wij hebben gehoord. Zolang nv zelf geen info over prijzen geeft hebben wij er niets aan. Ik denk ook dat nv wacht wat ati gaat doen(zeggen) over de 3870x2. De 8800 ultra was in het begin een stukie duurder dan 600euro's en op het moment is hij tussen de 500 en 600 euro verkijgbaar.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Anoniem: 169917 schreef op maandag 14 januari 2008 @ 14:59:
Volgens een berichten op Fudzilla gaat de 9800GX2 meer dan de 8800Ultra kosten.. zo'n 600 euro.
Als dat waar ik hoop ik voor NV dat de prestatie minstens de helft beter is dan de 3870X2, want die gaat vermoedelijk rond de 400 euro kosten.
Als dat waar is dan worden ze beide duurder dan resp 2x 8800GTS (= ~520 != 9800GX2 = 600) en 2x 3870 (= ~340 != 3870X2 = 400).
Volgens mij hebben ze 't dan niet helemaal goed begrepen daar bij ATi en nV... voor een dubbele uitvoering van een product dat al enkele maanden op de markt is wil de consument niet meer betalen dan het dubbele van dito product - eerder minder juist :/

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Ik heb net bij hardware.info die 8800gts 512 test gelezen maar in alle benchmarks die ze gedaan hebben zou de gts toch hoger moeten zijn dan de GT ???. Het enige wat anders aan de GTS 512 is, is dat die hoger is geklokt toch dus..... :?

Positief is wel die dualslot koeler.

[ Voor 1% gewijzigd door shades op 14-01-2008 16:20 . Reden: typos ]

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
shades schreef op maandag 14 januari 2008 @ 16:16:
Het enige wat anders aan de GTS 512 is, is dat die hoger is geklokt toch dus..... :?
Er is wel degelijk nog een ander verschil. De GT heeft 112 streamprocessors. De GTS heeft er 128.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 226494

Idd Als je goede benchmarks bekijkt is de gts ook iets sneller dan de gt in de meeste gevallen.

Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Anoniem: 226494 schreef op maandag 14 januari 2008 @ 16:19:
Idd Als je goede benchmarks bekijkt is de gts ook iets sneller dan de gt in de meeste gevallen.
Jawel maar je zou meer verwachten en niet dat hij onder de benchmarks van de gt duikt. Dat vind ik helemaal raar
CJ schreef op maandag 14 januari 2008 @ 16:17:
[...]


Er is wel degelijk nog een ander verschil. De GT heeft 112 streamprocessors. De GTS heeft er 128.
Ja maar de gts zou altijd beetje moeten presteren, zeker omdat hij beter is geklokt is en meer streamprocs heeft..

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • justifire
  • Registratie: December 2001
  • Laatst online: 21:18

justifire

Shut up and squat !!

Natuurlijk word de GX2 duurder dan de Ultra 8)7
De nieuwste high end kaart is toch altijd de duurste.
Het is het vlaggenschip van het bedrijf, voor de enthousiast users.
Ja 2 x GTS zal goedkoper zijn maar niet sneller dan 2x GX2
Denk dat de Ultra iets in prijs zal zakken en deze neer word gezet voor ultra prijzen.

[ Voor 3% gewijzigd door justifire op 14-01-2008 16:39 ]

- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
shades schreef op maandag 14 januari 2008 @ 16:28:
[...]


Jawel maar je zou meer verwachten en niet dat hij onder de benchmarks van de gt duikt. Dat vind ik helemaal raar


[...]


Ja maar de gts zou altijd beetje moeten presteren, zeker omdat hij beter is geklokt is en meer streamprocs heeft..
1 woord: drivers.

Wanneer de GT sneller is dan de GTS, dan is dat vaak toe te schrijven aan minder geoptimaliseerde drivers voor de GTS (want die is immers korter uit dan de GT). Technisch gezien is zoals je zelf al zegt de GTS immers sneller dan een GT vanwege de kloksnelheden en het hogere aantal streamprocessors.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

shades schreef op maandag 14 januari 2008 @ 16:16:
Ik heb net bij hardware.info die 8800gts 512 test gelezen maar in alle benchmarks die ze gedaan hebben zou de gts toch hoger moeten zijn dan de GT ???. Het enige wat anders aan de GTS 512 is, is dat die hoger is geklokt toch dus..... :?
Niet de eerste review van Hardware.info waarbij ik me hogelijkst verbaas over hun resultaten.
Vuistregel: een stock GTS is altijd sneller dan een stock GT. Core, mem en shader speeds van GTS zijn sneller plus de GTS heeft 16 (=14%) extra shaders. Krijg je andere resultaten (as in: GTS trager dan GT) dan doe je iets niet goed en moet je opnieuw testen.
Specs van door HI gebruikte testsysteem en -kaarten ontbreken helaas ook. Misschien dat ze een factory overclocked 8800GT hebben gebruikt, maar da's vrij onduidelijk.

Kijk liever naar wat serieuzere reviewsites als Anandtech, HardOCP en Driverheaven (tip) :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • BasNation
  • Registratie: Mei 2004
  • Laatst online: 23:07
[H]ardOCP heeft een review van de Palit 8800GT, zoeentje met een andere koeler die je tegenwoordig wel op meerdere kaarten terugziet.

http://enthusiast.hardocp...0NiwxLCxoZW50aHVzaWFzdA==

Afbeeldingslocatie: http://img246.imageshack.us/img246/5879/1200178806mmqisv254h61qf7.gif
Flink verschil lijkt me zo.

Acties:
  • 0 Henk 'm!

  • sewer
  • Registratie: November 2000
  • Laatst online: 22:05
CJ schreef op maandag 14 januari 2008 @ 16:56:
[...]
1 woord: drivers.

Wanneer de GT sneller is dan de GTS, dan is dat vaak toe te schrijven aan minder geoptimaliseerde drivers voor de GTS (want die is immers korter uit dan de GT). Technisch gezien is zoals je zelf al zegt de GTS immers sneller dan een GT vanwege de kloksnelheden en het hogere aantal streamprocessors.
Zat eerst ook aan drivers te denken, vooral bij de 2 dx10 games wint de GTS alles zonder aa/af, en verliest alles met aa/af.

Maar de resultaten bij UT3 zijn wel erg vaag, bij 1280*1024 wint de GT met 15%, bij 1600*1200 de GTS met zo'n 7%, en bij 1900*1200 opeens weer de GT met 6% :? En overal met dezelfde AF-instellingen, hier moet meer aan de hand zijn dan wat driver-issues lijkt me.

edit:
Bij anandtech's review op dezelfde dag hadden ze die driver-issues blijkbaar niet, daar komt alles uit zoals je verwacht: 512MB GTS > 512MB GT > 256MB GT.

[ Voor 16% gewijzigd door sewer op 14-01-2008 17:51 ]


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Cheetah schreef op maandag 14 januari 2008 @ 17:02:
[...]
Niet de eerste review van Hardware.info waarbij ik me hogelijkst verbaas over hun resultaten.
Vuistregel: een stock GTS is altijd sneller dan een stock GT. Core, mem en shader speeds van GTS zijn sneller plus de GTS heeft 16 (=14%) extra shaders. Krijg je andere resultaten (as in: GTS trager dan GT) dan doe je iets niet goed en moet je opnieuw testen.
Specs van door HI gebruikte testsysteem en -kaarten ontbreken helaas ook. Misschien dat ze een factory overclocked 8800GT hebben gebruikt, maar da's vrij onduidelijk.

Kijk liever naar wat serieuzere reviewsites als Anandtech, HardOCP en Driverheaven (tip) :)
Lijkt me niet meer dan logisch dat een G92 8800 GTS op gelijke kloksnelheid beter presteert dan een G92 8800 GT. Precies zoals Cheetah aangeeft, als die GT in sommige benchmarks onder de GT scoort dan zit er iets niet goed in dat testsysteem. Zoveel verschil zit er niet in de drivers, dus om die nu de schuld te geven vind ik een beetje flauw.
Ik wil niemand tegen het zere been schoppen, maar ik heb m'n twijfels over Hardware.info, en niet alleen over de benchmarks op die site.
Qua draaien van benches kunnen ze nog het een en ander leren, ze komen mij te amateuristisch over, maar da's offtopic.

[ Voor 4% gewijzigd door Demon_Eyez op 14-01-2008 17:52 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • KappeNou
  • Registratie: Oktober 2005
  • Laatst online: 29-05 15:35
BasNation schreef op maandag 14 januari 2008 @ 17:21:
[H]ardOCP heeft een review van de Palit 8800GT, zoeentje met een andere koeler die je tegenwoordig wel op meerdere kaarten terugziet.

http://enthusiast.hardocp...0NiwxLCxoZW50aHVzaWFzdA==

[afbeelding]
Flink verschil lijkt me zo.
Die 90 Graden is wel met de eerste kleine fan blade stock koeler en met de 29% fan speed bug. Op 40 a 45% waarbij de koeler nog stil is word die iets van 75 graden

Mijn aftermarket koeler doet het nog steeds wel wat beter met 40 graden @ full load 50% fan speed ;)

[ Voor 5% gewijzigd door KappeNou op 14-01-2008 18:15 ]

>PC specs<


Acties:
  • 0 Henk 'm!

  • BasNation
  • Registratie: Mei 2004
  • Laatst online: 23:07
KappeNou schreef op maandag 14 januari 2008 @ 18:13:
[...]


Die 90 Graden is wel met de eerste kleine fan blade stock koeler en met de 29% fan speed bug. Op 40 a 45% waarbij de koeler nog stil is word die iets van 75 graden

Mijn aftermarket koeler doet het nog steeds wel wat beter met 40 graden @ full load 50% fan speed ;)
en welke mag dat dan wel niet zijn? HR-03 zeker?

Acties:
  • 0 Henk 'm!

  • KappeNou
  • Registratie: Oktober 2005
  • Laatst online: 29-05 15:35
Yesj, zoals je kon zien in het behuizingen topic in me nieuwe cosmos 1000. Btw temps getest @ full OC. Nu nog met 0.05v erbij testen.


Afbeeldingslocatie: http://home.planet.nl/~gobiu004/cosmos1.JPG

>PC specs<


Acties:
  • 0 Henk 'm!

  • shades
  • Registratie: September 2001
  • Laatst online: 07-06 13:17

shades

huh ?

Cheetah schreef op maandag 14 januari 2008 @ 17:02:
[...]
Niet de eerste review van Hardware.info waarbij ik me hogelijkst verbaas over hun resultaten.
Vuistregel: een stock GTS is altijd sneller dan een stock GT. Core, mem en shader speeds van GTS zijn sneller plus de GTS heeft 16 (=14%) extra shaders. Krijg je andere resultaten (as in: GTS trager dan GT) dan doe je iets niet goed en moet je opnieuw testen.
Specs van door HI gebruikte testsysteem en -kaarten ontbreken helaas ook. Misschien dat ze een factory overclocked 8800GT hebben gebruikt, maar da's vrij onduidelijk.

Kijk liever naar wat serieuzere reviewsites als Anandtech, HardOCP en Driverheaven (tip) :)
Wow bedankt voor de top tip _/-\o_ Dit is inderdaad een review die meer aan de verwachting voldoet. +1 ;)

Gezien wat de kaart kan/doet is voor mij de keus voor een nieuw systeem klaar - ik hoop dat ik de G92 gts in een minitower past. Kan ik toch nog een lanbox maken. Of het wordt een miditower met gts waarin ik later een tweede gts of physics kan prakken...

https://k1600gt.nl


Acties:
  • 0 Henk 'm!

  • PainkillA
  • Registratie: Augustus 2004
  • Laatst online: 08-06 16:52
KappeNou schreef op maandag 14 januari 2008 @ 19:49:
Yesj, zoals je kon zien in het behuizingen topic in me nieuwe cosmos 1000. Btw temps getest @ full OC. Nu nog met 0.05v erbij testen.


[afbeelding]
ben benieuwd naar de temps. Weet niet waarmee je "full load" test? Atitool? crysis? Maar als je even fur benchmark draaid word hij gegarandeerd nog een stuk warmer.

http://www.ozone3d.net/benchmarks/fur/index.php#download

Mijn 8800gt zie sig \/ loopt met +0.05 met atitool of crysis ook maar netaan 40/41 graden maar die fur benchmark tilt het na enkele minuten al naar de 47.
Wel leuk dat mijn goedkope 15 euro ghetto oplossing ong zelfde temps haald als een 50 euro kostende thermalright koeler :P namelijk arctic s1 met 2x120mm erop.

[ Voor 3% gewijzigd door PainkillA op 14-01-2008 21:28 ]


Acties:
  • 0 Henk 'm!

  • KappeNou
  • Registratie: Oktober 2005
  • Laatst online: 29-05 15:35
getest met Fur. Hij word nu idd wat warmer, wel 43 graden stabiel ;)

>PC specs<


Acties:
  • 0 Henk 'm!

  • tjtristan
  • Registratie: Augustus 2005
  • Laatst online: 15-11-2023
Ik wil niet adverteren oid hoor, maar het gootste beest van nvidia staat de koop :P (die dus nooit in de retail verkoop is gegaan), de 7900GX2, ziekelijke lange kaart, voor de collecter mischien:
*SPAM*
Modbreak:En nog los daarvan, deze post getuigt niet echt van het niveau dat we op GoT verwachten

[ Voor 26% gewijzigd door dion_b op 16-01-2008 11:05 ]

http://specs.tweak.to/15535


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22:40

Deathchant

Don't intend. Do!

tjtristan schreef op woensdag 16 januari 2008 @ 00:24:
Ik wil niet adverteren oid hoor, maar het gootste beest van nvidia staat de koop :P (die dus nooit in de retail verkoop is gegaan), de 7900GX2, ziekelijke lange kaart, voor de collecter mischien:
*SPAM*
Deze kaart is gelijkwaardig aan de NVIDIA 8800GTS 640MB en dan de meeste ATi kaarten!
Beetje gevaarlijk om een link op tweakers te posten die ALLES van hardware weten...die gaan natuurlijk kijken of je advertentie een beetje objectief is en niet te hoog van de toren blaast om een artikel te kunnen verkopen :) M.A.W. ik zou deze regel weghalen, je uitroeptekens minderen en meer info erbij zetten:

- reden van verkoop
- vertellen WAAROM hij in topconditie is
- niet altijd even belangrijk, maar het merk van de kaart zelf
- waarom niet andermans 7900GX2 kopen maar die van jou?

Je prijs is enigszins redelijk. Verder succes met de verkoop. Zeker een collectors item nu :)

[ Voor 7% gewijzigd door Pollewob op 22-01-2008 08:02 ]

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • jorisw86
  • Registratie: Januari 2004
  • Laatst online: 19-05 21:26
vraagje,

dit is waarschijnlijk al voorbij gekomen sorry daarvoor.

heb een asus p5e ws pro met intel x38 chipset (crossfire board)

kan ik daar gewoon 2x 8800gt in sli laten opdraaien zonder sli bridge??

heb wel gelezen een en ander erover maar werkt dit nu echt goed?
Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Misschien klinkt het kinderachtig, maar het blijkt iedere keer weer nodig:

- geen gezeur over voorraad/levertijden. Zodra je het post is dergelijke info al verouderd en dus nutteloos. Niet posten dus. Gebruik IRC voor real-time only spul.
- geen slowchat. Leuk voor je als je iets gaat kopen, maar dat is offtopic
- geen basic vraagjes, dit is een topic om te discussieren over nieuws. Is het geen eigen topic waard, dan is het zeker ook geen post hier waard.
- hou het on-topic, behulpzaam en vriendelijk. Op de man spelen wordt niet getolereerd.