Toon posts:

[Algemeen] nVidia GeForce Topic! Deel 13 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 4 5 Laatste
Acties:
  • 4.005 views sinds 30-01-2008

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
nVidia GeForce Topic! Deel 13
http://members.home.nl/iceeyz/6800/nVLG.jpg
Regeltjes

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic, voor problemen met je videokaart mag je een nieuw topic openen. Ook AMD vs. Intel reacties zijn hier niet welkom!

Geschiedenis

Het grote NV40/GeForce 6800 topic Deel I
Het grote NV40/GeForce 6800 topic Deel II
Het grote NV40/GeForce 6800 topic Deel III
Het grote NV40/GeForce 6800 topic Deel IV
Het grote NV40/GeForce 6800 topic Deel V
Het grote NV40/GeForce 6800 topic Deel VI
Het grote NV40/GeForce 6800 topic Deel VII
Het grote NV40/GeForce 6800 topic Deel VIII
Het grote nVidia GeForce Topic Deel IX
Het grote nVidia GeForce Topic Deel X
Het grote nVidia GeForce Topic Deel XI
Het grote nVidia GeForce Topic Deel XII

Navigatie
[anchor=6800]De GeForce 6800

http://members.home.nl/iceeyz/6800/68LG.jpg

De 222 miljoen transistors tellende chip op 0,13 micron wordt geproduceerd door IBM, en werkt op een kloksnelheid van 400MHz. Het GDDR3-geheugen werkt zoals verwacht op 1,1GHz. Het lijkt erop dat nVidia bij het ontwerpen van deze enorme chip één van de grootste zwakke punten van NV3x recht heeft willen zetten, door extra aandacht te besteden aan de pixel- en vertexshaders.

http://www.tweakers.net/ext/i.dsp/1081875862.jpg


De NV40-core heeft zestien pipelines die per kloktik acht shaderinstructies op een pixel uit kunnen voeren, voor een totale pixelshaderkracht van 128 instructies per kloktik. De NV35 kon met zijn vier pipelines in totaal slechts twaalf instructies per kloktik verwerken. Ook zijn er in NV40 zes vertexshader-units aanwezig als vervanging van het dynamische systeem van NV3x dat het equivalent van twee à drie vertexshader-units aan performance opleverde. De GeForce 6800 is bovendien de eerste met ondersteuning voor pixel- en vertex-shader versie 3.0, waarmee niet alleen sommige bestaande effecten efficiënter gedaan kunnen worden, maar ook nieuwe grafische hoogstandjes mogelijk zijn dankzij de ondersteuning van if-then constructies.

http://www.tweakers.net/ext/i.dsp/1081876224.png


De shaders zijn echter niet het enige punt waar aandacht aan geschonken is. De GeForce 6-series ondersteunt displacement mapping, floating point textures, 16x anti-aliasing, adaptive AF (anisotropic filtering), UltraShadow II (een feature waar met name spellen als Doom 3 van zullen profiteren) en betere compressietechnieken om geheugenbandbreedte te sparen. Verder is het referentiemodel voorzien van uitgebreide mogelijkheden op het gebied van ViVo. Naast twee DVI-poorten vinden we een MPEG-decoder, WMV9-accelerator, NTSC/PAL-decoder en DVD/HDTV-decoder. Dit alles wordt aangestuurd door de nieuwe ForceWare drivers 6x.xx

Een mogelijke domper op het grafische geweld is echter de hoeveelheid vermogen die het apparaat moet opnemen om zijn kunstjes te kunnen doen. De kaart heeft twee molex-connectors nodig om de stroomtoevoer zo stabiel mogelijk te krijgen. Er wordt gebruik gemaakt van een aluminium koeler met een heatpipe voor het geheugen. Het nVidia reference-model van de Ultra heeft een koeler die twee sloten in beslag neemt, maar een aantal fabrikanten komt mogelijk met een koeler die in één slot past. De reviewers zijn bovendien aangeraden om tenminste een 480 Watt-voeding te gebruiken om de testexemplaren te benchmarken. De productiekaarten die uiteindelijk in de winkels terecht zijn gekomen hebben als minimum een 350 Watt-voeding. Mensen met grote installaties die veel harde schijven, energieslurpende processors en dergelijke bevatten, kunnen beter voor een wat stevigere voeding gaan. De GT en normale versies van de 6800 hebben maar één molex nodig en zijn voorzien van een koeler die géén PCI-sloten nodig heeft.

http://www.tweakers.net/ext/i.dsp/1081875782.jpg

http://www.tweakers.net/ext/i.dsp/1081965449.jpg



De GeForce 6800 Ultra verstookt ongeveer 120 Watt wanneer hij volledig belast wordt. De AGP-versie kaart vereist dan ook twee molex-connectors. Het ziet er naar uit dat in ieder geval de eerste kaarten voorzien zullen zijn van een koeler met heatpipe die twee slots in beslag neemt. Reviewers melden dat het ding tot hun verbazing stiller en lichter is dan de beruchte dustbuster van NV30. De snelheid van de fan wordt dynamisch geregeld en komt in een kast met goede airflow niet boven de 'medium' instelling uit, waarin hij naar verluidt nog overstemd wordt door de gemiddelde processorkoeler. Zonder goede airflow zal hij iets meer decibels genereren tijdens het spelen van spellen, maar het is sowieso niet aan te raden om een NV40 aan te schaffen voor een kast die niet goed gekoeld wordt; de warme lucht die van de kaart afkomt kan zonder fatsoenlijke afvoer leiden tot instabiliteit.

Hier een aantal plaatjes van Xbit Labs, welke de koeler heeft ontleed:

http://www.xbitlabs.com/images/video/nv40/nv40_cooler1.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler2.jpg
http://www.xbitlabs.com/images/video/nv40/nv40_cooler3.jpg


http://members.home.nl/iceeyz/6800/grootte.jpg

Boven op het plaatje een impressie van de grootte van de kaart, vergeleken met een ATI Radeon 9800XT. Hierop zijn ook goed de twee Molex Connectors te zien.

[anchor=6600]De GeForce 6600

http://members.home.nl/iceeyz/6800/66LG.jpg

Op twaalf augustus heeft nVidia de nieuwe GeForce 6600 gelanceerd. Dit zal de nieuwe mainstream-videokaart worden met de bedoeling om de oude FX-series geleidelijk van de markt te stoten. De 6600 heeft géén molex-connector nodig aangezien het PCI-Express slot genoeg stroom kan leveren aan de videokaart. Ondertussen zijn er ook versies met een AGP-brug aangekondigd, zodat mensen die hun moederbord nog niet willen upgraden ook kunnen meegenieten van "dé Doom 3 GPU".

De 6600 is gebaseerd op de NV43 core die afgeleid is van de NV40, ofwel 6800. De 6600 beschikt dan ook over dezelfde mogelijkheden als de 6800, waaronder Shader Model 3.0
De NV43 wordt gebakken op 110 nanometer door de mensen van TSMC. De chip telt 146 miljoen transistors, wat een aanzienlijk verschil is met de 222 miljoen van de NV40. Mede hierdoor is de kans op betere yields en daarmee een snellere levering, een stuk groter dan bij de 6800 series.

http://www.tweakers.net/ext/i.dsp/1092325166.jpghttp://www.tweakers.net/ext/i.dsp/1092325167.jpg


Maximaal acht pipelines en drie vertex shader units zullen er op de nieuwe 6600 te vinden zijn. De NV43 kan echter maar vier pixels per kloktik wegschrijven en acht Z/Stencil operaties uitvoeren tegenover 16 respectievelijk 32 bij de NV40. Daardoor presteert de NV43 in sommige gevallen alsof deze maar vier pipelines heeft die twee textures tegelijk kunnen behandelen, net zoals in de FX-series. Er kunnen wél acht shader instructies tegelijk worden behandeld. Aangezien verreweg de meeste shaders meer dan één kloktik nodig hebben, doet deze opstelling geen schade aan de shaderkracht van de 6600.

Voorlopig zullen er twee versies van de 6600 uitkomen, de 6600 en de 6600GT. De 6600 heeft een kloksnelheid van 300Mhz, de GT loopt op 500Mhz. De gewone 6600 heeft DDR geheugen met een snelheid vanaf 500Mhz, maar de GT heeft GDDR3 geheugen dat op 1000Mhz zijn werk doet. Bij beide kaarten is het 128MB tellend geheugen aangesloten op een 128-bits interface. Bovendien is de GT in staat om in SLI-modus te werken. Dit alles zorgt voor prestaties die, vooral in de nieuwe en toekomstige spelen, hoger liggen dan de vorige generatie topmodellen.
http://members.home.nl/iceeyz/6800/sli.jpg

De nieuwe kaarten hebben een vriendelijk prijskaartje, te weten $149 voor de 6600 en $199 voor de 6600GT. In europa zal de 6600GT ongeveer €229 gaan kosten.

[anchor=6200]De GeForce 6200

http://members.home.nl/iceeyz/6800/62LG.jpg

De GeForce 6200 is door nVidia gelanceerd op 11 oktober als dé videokaart voor het mainstream segment. De kaart is gebouwd rondom een afgeleide van de NV43 chip die voorzien is van vier pixel pipelines en drie vertex shaders. Samen met 128MB of 256MB geheugen aangesloten op een 128-bits wijde bus, kan deze kaart ruwweg de helft van de performance van een 6600GT leveren. Dat is genoeg om spelen uit de generatie van Doom3 en Half Life 2 op acceptabele framerates te kunnen spelen.

De GeForce 6200 is afgeleid van de 6600 en biedt daarom dezelfde mogelijkheden als de 6600. Hardwarematige versnelling voor video en Shader Model 3.0 is dus niet alleen voor de rijkeren onder ons weggelegd. Voorlopig is de kaart niet in staat om in SLI-modus te draaien. Wél is het zeker dat de kaart alle benodigde energie uit het PCI-Express slot kan halen, waardoor er geen extra stroomkabels door de kast hoeven te lopen. In februari 2005 verschijnen de eerste AGP-versies van de 6200.
http://members.home.nl/iceeyz/6800/62chip.jpg

De 6200 mist echter ook een aantal mogelijkheden. Kleur- en z-buffer optimalisaties die voor een hogere geheugenbrandbreedte kunnen zorgen, zijn niet aanwezig op deze kaart. Dit heeft vooral een negatief effect bij hoge resoluties en gebruik van anti-aliasing. Ook 64-bits precisie bij textures is niet ondersteund. Daarnaast is het mogelijk dat sommige fabrikanten de GeForce 6200 met een 64-bits geheugeninterface gaan verkopen onder de zelfde naam. Deze versie zal een stuk goedkoper zijn, maar ook prestaties leveren die daar bij horen.

110 is het getal voor het aantal nanometers waarop deze chip gemaakt wordt. Dit gebeurt in de fabrieken van TSMC die helaas nog niet klaar zijn met het tellen van het aantal transistors op de chip. Wel hebben ze de snelheid van de chip in de gaten gehouden en deze is vastgesteld op 300Mhz. Het DDR1 geheugen van de GeForce 6200 zal zijn werk doen vanaf 500Mhz.


http://members.home.nl/iceeyz/6800/card.jpg


Dan is er nog een klein addertje onder het gras. De grootte van de chip is gelijk aan die van de 6600 en aangezien er enkel wat features missen op de 6200, is het mogelijk dat deze kaarten door middel van hardware- of software hacks om te vormen zijn naar volledige 6600-modellen. Als dit waar zou zijn, kunnen de mannen van TSMC stoppen met tellen, aangezien dan ook bij deze chip het aantal transistors op 146 miljoen komt te liggen.

De aanbevolen prijzen zijn $129 voor de 128MB versie en $149 voor de 256Mb versie. Wanneer de kaarten volledig leverbaar zijn, is nog onbekend.

Performance Charts


http://members.home.nl/iceeyz/6800/Chart68sm2.jpg

http://members.home.nl/iceeyz/6800/Chart66sm2.jpg


Overclocking & Pipe-Unlocking

Er bestaat een kans dat je graag aan een goedkope 6800Ultra wil komen. Met enig geluk kun je inderdaad een 6800 (LE) omtoveren tot een Ultra. Hoe dit in zijn werk gaat kun je bijvoorbeeld hier lezen. Ook het programma RivaTuner is een handige aanvulling om te kijken wat met jouw 6800 (LE) allemaal kan.

Vragen en problemen met het overklokken, hard- en soft-modden van je videokaart horen niet in dit topic thuis. Daarvoor verwijzen we je naar DOC. Zoek eerst voordat je wat vraagt, op veel vragen is al wel een antwoord gegeven!

Termen en Technieken

FAQ: Algemene termen die bij elke tweaker bekend moeten zijn, kun je in de V&B Faq lezen.


CineFX 3.0: CineFX 3.0 is de marketingnaam voor alle ingewikkelde mogelijkheden van de laatste generatie videokaarten. Enkele technieken die hier onder vallen zijn: Virtual Displacement Mapping, Vertex en Pixel Shaders 3.0, Multiple Render Targets, Dynamic Flow Control. Een uitgebreide uitleg is hier te vinden.

Detonator: Vroeger heetten de drivers van nVidia "Detonator", maar vanaf de FX-series heten deze nu officieel "ForceWare"

ForceWare: De drivers voor nVidia videokaarten, klik hier voor een overzicht.

On-Chip Video Processor: Op de laatste chips van nVidia zit een video-accelerator die bijna alle populaire en toekomstige formaten zowel kan decoderen als encoderen. Helaas zit er een fout in de NV40 die het moeilijk maakt om de Video Processor goed te kunnen gebruiken. HDTV-filmpjes draaien daardoor bijna volledig over de CPU, maar mpeg-4 en mpeg-2 ondersteuning is wel goed. In de NV43 en NV44 is de processor gerepareerd, maar de NV45 (6800 Ultra en GT voor PCI-Express) kampt nog met hetzelfde probleem. Op alle videokaarten is het nog steeds mogelijk om alle soorten video's te bekijken, alleen de beloofde prestatie- en kwaliteitwinsten vergeleken met oudere videokaarten gaan niet door.

SLI: Voordat er kaarten in een AGP of PCI-E slot geprikt konden worden, gingen alle videokaarten in een standaard PCI-slot. Aangezien bijna elke pc meerdere PCI-sloten tot zijn beschikking had, leek 3dfx het een goed idee om hun welbekende "Vodoo" videokaarten de mogelijkheid te geven om meerdere kaarten tegelijk te gebruiken. Dit betekende dat je in plaats van één, twee videokaarten in je pc kon doen om zo een dubbel zo hoge framerate te halen. Deze technologie werd 'Scan Line Interleaving' genoemd.

Nadat nVidia 3dfx overgenomen had en elke videokaart in een AGP-slot ging, werd SLI tijdelijk in de ijskast gezet. Met de komst van PCI-Express veranderde dat echter weer. Videokaarten in een PCI-Express slot werken op een snelheid van 16x, maar de chipset op het moederbord kan ook twee keer een kaart op 8x aansturen. Daardoor is het weer mogelijk om meerdere videokaarten samen te laten werken. Deze "nieuwe" technologie heet nu 'Scalable Link Interface' en is voorlopig exclusief voor nVidia. Om SLI te laten werken heb je een moederbord met ondersteuning voor SLI nodig en twee identieke videokaarten, verbonden met een bijgeleverd "bruggetje".

UltraShadow II: UltraShadow II versnelt het berekenen en weergeven van schaduwen in spellen als Doom 3. De makers van een spel moeten deze functie wel zelf implementeren om er voordeel uit te kunnen halen. De technische kant van UltraShadow II kun je hier nalezen.

De Toekomst

NV40 bestaat al weer een tijdje en dus wordt het tijd om naar de toekomst te kijken; welke chips staan er op het programma?

Als refresh van de NV40 zou nVidia de NV48 aan het einde van 2004 introduceren als tegenhanger van de R480 uit het rode kamp. nVidia zou niet in staat zijn geweest om de NV48 veel sneller dan de NV40 te maken waardoor de NV48 nu waarschijnlijk de volgende generatie GPU wordt.

Voor 2005 stond de NV47 op de planning. Deze chip zou een geüpgrade versie van de NV40 zijn, dus waarschijnlijk met meer pipelines en vertex shaders. De NV47 bevat misschien al enkele onderdelen van NV50 die aan het eind van 2005 zou komen. Echter is het nu zeer waarschijnlijk dat de NV50 gecanceled is door de verschuiving van Microsoft's Longhorn. Wat er nu met de NV47 gaat gebeuren is nog onzeker. In ieder geval moet de NV40 langer meegaan dan verwacht werd en is het de NV48 die in 2005 op de markt komt.

De NV50 zou waarschijnlijk voor een deel gebaseerd zijn op NV40 / NV47 en vele optimalisaties bevatten om prestaties te verbeteren en het stroomverbruik te minderen. De NV48 is dus een soort tussenoplossing om het gat tussen de NV40 en NV50 op te vullen. Nieuwe features worden pas in NV60 verwacht.

NV60 is de eerste chip van nVidia met ondersteuning voor Pixel Shader 4.0, DirectX-Next en moet compatible zijn met 'Windows Graphics Foundation 2.0' (WGF 2.0). Kaarten gebaseerd op de NV60 zouden uit moeten komen vlak voor de launch van Windows Longhorn en DirectX-Next, verwacht in 2007.

Nu lijkt het zo te zijn dat Longhorn al in 2006 uit gaat komen door het weglaten van enkele nieuwe features. Die datum is te vroeg voor nVidia om een WGF2.0-compatible kaart neer te zetten. Het introduceren van NV50 zonder ondersteuning voor WGF2.0 heeft dan ook weinig zin, aangezien Longhorn en DirectX-Next vlak na de kaart gereleased worden. Door NV50 te cancelen, kan nVidia misschien meer engineers aan het werk zetten met NV60 om in 2006 een WGF2.0-compatible kaart te introduceren.

Het volgende lijstje is een overzicht van huidige roddels, slechts ter indicatie:

ChipPlanningStatusSnelheid
NV40Q2 2004Released100%
NV48Q2 2005Ontwikkeling150%
NV47Q2 2005Niet bestaand?>150%
NV50Q4 2005 / H1 2006Canceled>200%
NV60H1 2007Vervroegd?>250%

Dit overzicht bestaat uit volkomen roddels (op de NV40 na :)) en is onderhevig aan veranderingen. De snelheid is een zeer ruime geschatte gok, dus ook daar is geen touw aan vast te knopen.

De Fabrikanten

Hier wat plaatjes en informatie van kaarten die in de handel zijn/gaan :)

Albatron

Alle Albatron kaarten hebben een blauw PCB met standaard koelers en lopen op stock snelheden. Alleen de normale 6800 heeft een semi-origineel koeler design. Bij de videokaart in de doos zit het "Duke Nukem: Manhattan Project Game Pack"
http://www.albatron.com.tw/images/product/it/vga/picture/big/6800.jpg
De Albatron GeForce 6800


AOpen

De AOpen Aeolus 6800Ultra-DVD256:

http://english.aopen.com.tw//Products/images/VGA/images/Aeolus%206800-Ultra-460.jpg

De GT-versie heeft een reference-koeler, één molex, één VGA- en één DVI-aansluiting.
Zowel de GT als de Ultra lopen op stock snelheden en hebben dit softwarepakket: InterVideo WinCinema met IV WinDVD 4 en IV WinRip, SpellForce: The Order of the Dawn, Arx Fatalis, Games Collection: Vietcong, Railroad Pioneer, Neighbours From Hell, Tropico 2: Pirate Cove, Aquanox 2: Revelation.

Met dank aan VirtualJr voor de info

AOpen is één van de fabrikanten die de 6800LE ook voor de retail-markt verkrijgbaar heeft gemaakt:

http://members.home.nl/iceeyz/6800/aeolus6800le.JPG


Asus

http://members.home.nl/iceeyz/6800/asus2.jpg

Asus levert Far Cry en een mooie 300.000-pixels Webcam mee.

Let-op! Asus levert haar Geforce 6800 series in vijf smaken:

V9999TD:
GeForce 6800 Non Ultra met 12 pipelines op 325Mhz en 128MB DDR1 geheugen op 700Mhz. Dit is dus een gewone 6800.

V9999GE:
GeForce 6800 Non Ultra met 12 pipelines op 350Mhz en 256MB GDDR3 geheugen op 1000Mhz. Dit is dus géén GT!

V9999GT/TD:
GeForce 6800 GT op 350Mhz met 128MB DDR1 geheugen op 700Mhz.
Deze kaart is waarschijnlijk erg geheugen-gelimiteerd.

V9999GT Deluxe:
GeForce 6800 GT op 350Mhz met 256MB GDDR3 geheugen op 1000Mhz.

V9999Ultra Deluxe:
GeForce 6800 Ultra met 256MB GDDR3 geheugen op 1100Mhz. De core loopt waarschijnlijk op 425Mhz.

De GE, de GT/TD en Ultra Deluxe hebben hetzelfde blauwe PCB en dezelfde koeler. De GT Deluxe is een kaart die nog niet in winkels te vinden is en het is onzeker of deze ooit te krijgen zal zijn.

Het is ook nog steeds onzeker of dit de werkelijke specificaties zijn van de kaarten, aangezien zelfs Asus regelmatig de informatie verandert op de websites.

Chaintech


http://www.hardware.info/images/news/chaintech-nv40-card.jpg


De overgeklokte Chaintech 6800 wordt geleverd met 358 MHz Core en 770 MHz geheugen. Chaintech levert haar GeForce 6800 Ultra met het spel Commandos 3 en een speciale overklok utility.

Gainward

"Each Golden Sample™ product is guaranteed to outperform NVIDIA standard reference design with rock-solid stability."

De stock snelheid van de kaarten wordt bepaald door de installatie van de meegeleverde drivers en de Experttool. Met "Safe Mode" zullen de kaarten op 350/1000 (GT) of 400/1100 lopen (Ultra). Met één klik kun je later de kaart op onderstaande snelheden laten draaien.

GainWard komt met 5 verschillende 6800 series:

Als eerste is er de Gainward PowerPack! Ultra/2400 TV-DVI Golden Sample.
Dit is een 6800 GT die default draait op Ultra speeds: 400/1100 met 2.0ns geheugen.

Als tweede is er de Gainward PowerPack! Ultra/2600 TV-DVI-DVI.
Dit is een 6800 Ultra op 400/1100 en 1.6ns geheugen.

Als derde bestaat de 6800 Ultra Plus, deze gaat onder de naam:
6800U GoldenSample: Gainward PowerPack! Ultra/2600 TV-DVI-DVI Golden Sample.
Dit is een 6800 Ultra op 430/1200, ook uitgerust met 1.6 ns geheugen.

Als vierde hebben we het monster onder de luchtgekoelde Gainwards:
Gainward PowerPack! Extreme/2600 TV-DVI-DVI Golden Sample.
Dit is een 6800 Ultra Extreme, geleverd op 450/1200 snelheden met 1.6ns geheugen.
Deze kaart heeft speciale koperen koeling.
http://www.gainward.com/html/product/vga/powerpack/6800ultra/images-960tvdvi2/2600_TV_DVI2_6800Ultra_256M.jpg

Als vijfde is er de CoolFX serie voor de die-hard-hardcore-enthusiast:
Gainward PowerPack! CoolFX Ultra/2600 TV-DVI-DVI Golden Sample.
Dit is ook een 6800 Ultra Extreme op 450/1200 en 1,6ns geheugen, maar dan watergekoeld. :9

Daarnaast bestaan ook de gewone 6800 Non-Ultra's met stock snelheden, licht overgeklokte snelheden en snellere geheugenchips.

Alle Gainwards hebben een matig softwarepakket, te weten: WinDVD, Arx Fatalis wat utilities en drivers.

Gigabyte

GigaByte levert de 6800 GT en Ultra versies met standaard koelers en snelheden. GigaByte gaat ook de GeForce 6600 (GT) leveren en zal een versie van de GT met 256MB aan GDDR3 geheugen en Doom 3 gebundeld op de markt brengen. De normale 6600GT heeft 128MB DDR3 geheugen en is vergezeld van "Joint Operations: Typhoon Rising". De snelheden van deze kaarten zijn nog niet 100% zeker, maar in ieder geval 500/1000 voor de 6600GT en 350/550 voor de 6600.

Leadtek

WinFast A400 Ultra TDH MyVIVO on GeForce 6800 Ultra
http://vulcanus.its.tudelft.nl/tt/GoT/a400-2.jpg

Leadtek levert de spellen: "Prince of Persia the Sands of Time" en "Splintercell Pandora Tomorrow" mee in de verpakking.

MSI

De 6800 heeft een rood PCB en een koperen koeler:

http://members.home.nl/iceeyz/6800/msi.jpg


De fan is zelf in te stellen middels een klein schuifknopje op de kaart.
Er wordt een leuk softwarepakket bijgeleverd: URU, XIII, Prince of Persia 3D, Praetorians, Black Hawk Down, YAGER, Joint Operations: Typhoon Rising, Heaven & Hell, Comanche 4, Divine Divinity, American Conquest, Etherlords2, Commandos 3, Destination Berlin, IL-2 Sturmovik, Beach Life, Splinter Cell en Deus EX Invisible War plus nog wat software, drivers en utilities.

PNY

PNY levert alle kaarten met standaard koelers en een eigen Verto-sticker. PNY stopt helaas geen spellen in de verpakking van de kaart, alleen een drivers en utilities cd bevindt zich in de doos.

XFX

XFX was bijna de enige fabrikant die in staat was om de nieuwe videokaarten te leveren na de launch van de 6800-serie. Mede daarom zijn dit behoorlijk populaire kaarten geworden.

http://members.home.nl/iceeyz/6800/Ultra.jpg
De GeForce 6800 Ultra


http://members.home.nl/iceeyz/6800/GT.jpg
De GeForce 6800 GT


Er bestaat ook een 2xDVI variant van de 6800 GT die te herkennen is aan twee DVI-uitgangen in plaats van één DVI- en één D-Sub aansluiting.

Bij de XFX kaarten worden standaard drivers en utilities geleverd, samen met Commandos 3, Tomb Raider: The Angel of Darkness, X2: The Threat en MotoGP 2.
Daarnaast wordt Doom 3 met een aantal kaarten meegeleverd.

Links & Reviews

Andere topics
Het 6800LE Topic Deel 10

Drivers
Laatste officiële driver: ForceWare 66.93 WHQL (XP/2000)
Laatste 64-bits driver: ForceWare 66.96 (XP/2003) - ForceWare 70.80 Beta
Laatste WHQL's: 65.90 WHQL (Quadro) - 67.22 WHQL (Quadro) - 71.25 Beta WHQL
Laatste BETA's: 67.20 Beta - 67.65 Beta - 67.66 Beta - 71.22 Beta - 71.40 Beta - 71.50 Beta

Patches
FarCry v1.3 Patch - Gebruikt SM3.0 en biedt ondersteuning voor HDR.

Informatie
Officiële Website 6800
Officiële Website 6600
Officiële Website 6200
Officiële nVidia Forums
T.net Frontpage
Demo's
Mirror van het demo filmpje Grootte: 20,4 MB

Reviews 6800 series
PC Stats
Tom's Hardware
FiringSquad
Beyond3D
tecChannel
Hardware Analysis
X-bit labs
Guru3D
ExtremeTech
TechReport
AnandTech
HardOCP (Benchmarks)
HardOCP (Technieken)

Reviews 6600 series
AnandTech
Beyond3D (Aanrader)
NV News
X-Bit Labs
HardOCP
TechReport
Guru3D
Hexus
K-Hardware
Bit-Tech
Tom's Hardware
ComputerBase
HotHardware

Pricewatch

Hier de links uit de pricewatch met de bijbehorende prijzen. Klik om de huidige prijs te bekijken.

Legenda:
}:O = Goedkoopste in zijn soort
:Y) = One of a kind

Albatron
Geforce 6800 128 MB € 273 }:O
Geforce 6800 GT 256 MB €480
Geforce 6800 Ultra 256 MB €526

AOpen

Geforce 6800 128 MB €309
Geforce 6800 GT 256 MB €425
Geforce 6800 Ultra 256 MB €532

Asus

Geforce 6800 128 MB €281
Geforce 6800 256 MB €382 :Y) 256 MB GDDR3 1000Mhz
Geforce 6800 GT 128 MB €317 :Y) 128 MB DDR1 700Mhz
Geforce 6800 Ultra 256 MB €526

Chaintech

Geforce 6800 128 MB €339
Geforce 6800 GT 256 MB €489

Club 3D

Geforce 6600 128 MB €133 }:O
Geforce 6600 256 MB €159 }:O
Geforce 6600 GT 128 MB €198 }:O

Geforce 6800 128 MB €280
Geforce 6800 GT 256 MB €424
Geforce 6800 Ultra 256 MB €518

Gainward

Geforce 6600 128 MB €160
Geforce 6600 GT 128 MB €279

Geforce 6800 GT 256 MB €459
Geforce 6800 Ultra 256 MB €899 :Y) Waterkoeling

Gigabyte

Geforce 6800 128 MB €319
Geforce 6800 GT 256 MB €410

Leadtek

Geforce 6800 128 MB €290
Geforce 6800 GT 256 MB €414
Geforce 6800 Ultra 256 MB €540

MSI

Geforce 6800 128 MB €293
Geforce 6800 GT 256 MB €445
Geforce 6800 Ultra 256 MB €556

MTek

Geforce 6800 128 MB €299

PNY

Geforce 6800 GT 256 MB €435
Geforce 6800 Ultra 256 MB €555

Point of View

Geforce 6800 128 MB €295
Geforce 6800 GT 256 MB €399 }:O
Geforce 6800 Ultra 256 MB €543

Point of View heeft gemeld dat een klein aantal 6800GTs geleverd zullen worden met Doom 3 in de doos. Hoeveel, waar en wanneer is nog onbekend.

XFX

Geforce 6600 128 MB €151
Geforce 6600 256 MB €170
Geforce 6600 GT 128 MB €199

Geforce 6800 LE 128 MB €268
Geforce 6800 128 MB €289
Geforce 6800 GT 256 MB €419
Geforce 6800 GT 256 MB €428 :Y) Doom 3
Geforce 6800 Ultra 256 MB €510 }:O



Roddels:
Nog een vraag aan regelmatige bezoekers: Is het prijslijstje nog nodig, cq. wordt hier nog redelijk gebruik van gemaakt? Anders schrap ik deze voor wat ruimte voor nieuwe info.


Op- of aanmerkingen mogen altijd worden gemaakt :)

Eerste delen gemaakt door: MisteRMeesteR en Hacku! Grote dank aan hen! _/-\o_
Grote dank aan Deathchant voor Albatron/Gainward/Chaintech info/plaatjes _/-\o_
Grote dank aan iedereen die ietsanders heeft bijgedragen _/-\o_

[Voor 58% gewijzigd door IceEyz op 26-01-2005 13:38]

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • DaTiezl
  • Registratie: Januari 2004
  • Laatst online: 28-03 19:02
woei nette ts!! 1st reply...

Yesterday's home runs don't win today's games. - Babe Ruth


  • mcdronkz
  • Registratie: Oktober 2003
  • Laatst online: 28-03-2022
vraagje, ik heb een dvi naar vga verloopstekkertje, maar hij pakt em niet, ook niet als ik maar 1 crt monitor op dat poortje aangesloten heb... het verloopstekkertje is iig goed, dus waar kan het aan liggen?

vergeten te melden, het gaat om een msi gf440mx kaart, met vga, dvi, en s-video (tv-out)

[Voor 19% gewijzigd door mcdronkz op 02-12-2004 15:04]


Anoniem: 115092

Vreemd ja. Geen idee eigenlijk. Aan je monitor misschien?

Anoniem: 119772

Doen we btw nog niet aan vermelding van GF6800 OEM kaarten in de startpost ? Een hoop mensen kopen nog steeds OEM pc's zoals Dell. Hoewel Ati nu in Dell pc domineert is de
Geforce 6800 GTO wel een optie.

Tis min of meer een 6800 non ultra met 256bits memory interface, 12 pixelpipes en 5 vertex pipes. Minder mod potentieel dan een Asus GE dus.

Exacte specs van de GTO :

http://www.beyond3d.com/m...?view=boarddetails&id=172

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

PCX 6618 GT:
http://www.tweakers.net/ext/f/46491/full.jpg
http://www.tweakers.net/ext/f/46493/full.jpg
Specs:
PCX 6618 GT
PCI-X interface + SLI
128/256MB 128-bit GDDR3 2.0ns
8 pipelines
500/1000


G 6818 FX:
http://www.tweakers.net/ext/f/46490/full.jpg
http://www.tweakers.net/ext/f/46494/full.jpg
http://www.tweakers.net/ext/f/46492/full.jpg

Specs:
G 6818 FX
AGP8X
128MB 256-bit GDDR3 2.5/2.8ns
12 pipelines
325/700

[Voor 15% gewijzigd door silentsnow op 03-12-2004 21:42]

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


Anoniem: 130676

Ik heb een beetje een naar probleem met mijn net aangeschafde 6800 Ultra van Gainward. Het gebeurd redelijk vaak dat ik midden in een spel hang (elk willekeurig spel). Als ik geluk heb knal ik terug naar mijn desktop na het velen malen misbruiken van de ctrl+alt+del toetsen, maar vaak moet ik rebooten omdat niets meer helpt.

Nu geeft hij na de reboot aan dat het aan de vid. kaart drivers ligt, en dat de file nd4_disp.dll de boosdoener is. Nu heb ik zo ongeveer elk mogelijke driver geprobeerd maar nog steeds blijft mijn pc erg eigenwijs.
Soms heb ik ook last van nare strepen in beeld waardoor ik ook niet verder kan. De kaart is niet ge-overclocked en heeft een temp van 54 graden, wat me normaal lijkt.

Het kan ook neit een te lage capacitiet voeding zijn want ik heb een 500 watt voeding wat meer dan genoeg is voor deze kaart.

Iemand misschien ideeen wat het probleem kan zijn? of iemand toevallig zelf dit meegemaakt en een oplossing gevonden heeft?

Bij voorbaat dank.

  • TomSmit82
  • Registratie: November 2004
  • Laatst online: 28-05 15:51
Ik heb zelf ook een gainward, maar gebruik wel de drivers van nvidia zelf. En heb je ook de drivers verwijderd van je oude videokaart?
Ik heb zelf wel een ander probleem, op de gainward zitten twee dvi uitgangen en ik gebruik dus een converter voor mijn monitor. Alleen is het net of het scherm de lijnen herhaald verticaal. Dus stel ik heb een verticale zwarte lijn dan zie ik vaagjes rechts er van de lijn nog een paar keer. Wanneer ik een screenshot maak om het te laten zien aan bijvoorbeeld een vriend. En hij bekijkt de screen op zijn pc dan zijn die lijnen er niet... Dus mijn vraag is eigenlijk ligt het nou aan mijn monitor of toch aan de videokaart?

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
nVidia schrapt NV48
Chipbakker nVidia heeft besloten om het NV48-project in de ijskast te plaatsen, aldus The Inquirer. Bronnen rond het bedrijf melden zelfs dat de chipset helemaal niet buiten de nVidia-laboratoria zal komen. Volgens de oorspronkelijke plannen was het de bedoeling dat in het eerste kwartaal van 2005 grafische kaarten met deze chipset op de markt zouden komen. De reden voor het feit dat nVidia hiertoe besloten heeft, is dat de nieuwe chipset slechts een minimale prestatiewinst zou laten zien ten opzichte van de eerdere chipsets NV40 en NV42. Volgens metingen van de chipproducent zou de NV48-chipset namelijk 20 à 30MHz sneller zijn dan zijn oudere broers en zussen. Om het ontstane gat te vullen, zal nVidia NV45-kaarten blijven produceren om zo onder andere de PCIe-markt te voorzien.
nieuws: nVidia schrapt grafische chipset NV48

World War One


Anoniem: 119772

Goed besluit van Nvidia : alle resources voor de huidige Ultra & GT

Ook makkelijker voor game devs. Kunnen die zich lekker focussen
op optimaliseren voor de Ultra & GT.

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
De game devvers zullen zich meer richten op de nieuwe generatie, huidige en vorige. De refresh-versies zijn tenslotte niks meer dan een Mhz-Boost. Hooguit een tweakie hier en een tweakie daar, maar verder blijft de architectuur gelijk.

Ik denk verder dat niemand die NV48 zal missen, net als de X850 ook niet nodig was. Als nVidia een 500Mhz 6800 neer kon zetten, dan was er wel genoeg reden geweest. Maar stel dat de Ultra Extreme nu officieel zou worden, dan hebben we in sommige gevallen een maximale miserabele winst van 8%. Nou, wat zijn we daar blij mee :)

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Anoniem: 125049

Weet iemand hoe ik bij Rivatuner mijn Pipelines van mijn Gainward 6800 Golden Sample kan activeren?

als ik NVStrap driver instaleer dan vink ik Allow enabling hardware masked units aan en dan bij die menu waar je aantal pipelines HOORT te kunnen selecteren komt in plaats daarvan bij mij custom te staan...en als ik custom aanvink dan kan ik een knopje eronder klikken die customize heet maar als ik daar klik dan kom ik op een rare venster met allemaal Pixel Units ofzo

Specs:

Windows XP Pro SP1
Gainward 6800 Golden Sample
512MB geheugen
AMD Athlon 2400+ @2.0ghz

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
silentsnow schreef op vrijdag 03 december 2004 @ 04:06:
[afbeelding]
[afbeelding]
[afbeelding]

Specs:
PCX 6618 GT
PCI-X interface + SLI
128/256MB 128-bit GDDR3 2.0ns
8 pipelines
500/1000
Urhm, de specs en naam zijn vreemd en komen volgens mij niet helemaal met het plaatje? :?

PCX is toch een AGP GeForce kaart die dankzij de HSI-bridge geschikt is gemaakt voor PCI-Express? (zie ook PCX 5300, PCX 5900 etc) Maar een GF6600 is toch al native PCI-Express?
En op het plaatje zie je een AGP GF6600GT, dat kan je zien aan het voetje, maar ook aan de layout (45 graden gekantelde core + HSI bridge er rechtsonder)
En er mist een SLI aansluiting, wat natuurlijk logisch is omdat het een AGP kaartje is op de foto.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • AquilaDus
  • Registratie: Januari 2004
  • Laatst online: 25-01-2019
Zelf vind ik dit wel een mooie kaart, De XFX PVT45GUD. Ik denk dat het een van de eerste 6800GT's is die met PCIe wordt geleverd:

http://images10.newegg.com/productimage/14-150-081-01.JPG

Linkje naar XFX site: http://www.xfxforce.com/product_view.php?sku=PVT45GUD

Prijs volgens newegg is: $495.00

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het wordt alleen maar leuker, nu schrapt nVidia de NV50:
WE ARE told that Nvidia's next gen chip NV50 has been canned as well as the NV48 chip we reported on earlier in the week. I guess both were not fitting well into Nvidia's picture.

We don’t have any idea as yet what lead to such a decision, but Nvidia does apparently think it's now time to make its next breakthrough chip.

All we know is that Nvidia made a huge u-turn or a right turn in its roadmap as Intel describes it, and we don’t yet know where that leads.

We also know that Nvidia is very dedicated to win the graphic fight and to move away from the deadly embrace with ATI. In the current generation, it's not important what you get as both Nvidia and ATI cards are performing almost identically.

Nvidia still strongly believes that SLI is something that will become very important in the future.
http://www.theinquirer.net/?article=20034

World War One


  • Bart1983
  • Registratie: September 2004
  • Laatst online: 28-05 16:50

Bart1983

TF2: [GoT]Netherlands

Wat mij opvalt aan de openingspost is dat bijna alle merken genoemd worden behalven Inno3d. Ik krijg volgende week de Inno3d 6800GT. Ik hoop wel dat dit iets is. Inno3d heeft een samenwerkingsverband met coolmaster dus met de cooler zit het wel goed. Nou de rest nog. Heeft er iemand ervaring met deze kaart van Inno3d?

TF2: [GoT]Netherlands


Anoniem: 88245

Heeft er iemand toevallig meer informatie over hoe de Asus GeForce pci-e 6600GT TOP LIMITED EDITION presteert tegenover andere pci-e 6600 en 6800 kaarten.

Aangezien deze kaart een Engine Clock van 550MHz en een Memory Clock van 1.1GHz(550MHz DDR3) heeft (10% sneller dan de normale 6600GT dus), lijkt me het wel het vergelijken waard :)

Ook wel interessant is het feit dat deze kaart beter overclockbaar is, waardoor hij nog dichter bij de 6800 prestaties komt.
Asus Extreme N6600GT TOP LIMITED EDITION (Top Overclock Performance)
Graphics Engine GeForce 6600GT
Video Memory 128 M DDR3
Engine Clock 550MHz
Memory Clock 1.1GHz(550MHz DDR3)
RAMDAC 400MHz
Bus Standard PCI-Express
Memory Interface 128-bit
Max Resolution 2048x1536
VGA Output Standard 15-pin D-sub
TV Output S-Vedio and Composite
DVI Output DVI-I
2nd VGA Output Yes
http://www.asus.com/products/vga/en6600gt/en6600gt_l.jpg

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
LONDON — DECEMBER 4TH, 2004 — NVIDIA Corporation (Nasdaq: NVDA), a worldwide leader in graphics and digital media processors, today announced that Intel Corporation has launched a marketing promotion to bundle NVIDIA® GeForce™ 6600 GT graphics cards with Intel PCI Express motherboards.

The bundles will be available to Intel’s worldwide channel of 100,000 system builders through Intel Authorised Distributors. The promotion runs through December 31, 2004 and includes the following Intel products:

· Intel Desktop Board D925XCV/BC family
· Intel Desktop Board D925XECV2/BV2 family
· Intel Desktop Board D915PBL/CY/CM family
Da's pas een stuntje :)

NV50 gecanceled...Juist... Dus geen nieuwe high-end chip volgend jaar? Lijkt me erg sterk. Als die gecanceled is, is er vast wel een Plan B dat nu Plan A is geworden. We horen het vanzelf wel...

Bart1983: We zijn in ieder geval benieuwd naar jouw resultaten en als er interessante dingen aan de kaart zijn of een supersoftwarebundel, dan kan ook die kaart een plekje krijgen hoor :)

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Hacku schreef op vrijdag 03 december 2004 @ 17:55:
Het wordt alleen maar leuker, nu schrapt nVidia de NV50:


[...]


http://www.theinquirer.net/?article=20034
De nv50 (voor eind 2005) zou waarschijnlijk niet op tijd komen om een antwoord te bieden aan de r520
Nvidia kan de nv50 en de nv40 refresh hebben samengevoegd in de nv47 of nog een andere chip, die ze simultaan launchen met de R520.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
NV50 stond toch gepland voor H1 2005 ?

World War One


  • KunDun
  • Registratie: Augustus 2001
  • Laatst online: 28-05 11:24
Weet iemand hoe het zit met de levertijden van de Asus 6800 Gamers Edition en de Ultra . Want bij de goedkopere winkels in de pricewatch zijn ze allebei
zo goed als niet leverbaar , of de levertijd is onbekend .

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
NV50 heb ik nog even opgezocht en staat voor heel 2005 gepland. Zat wat roddels te lezen van mensen die dachten dat nVidia misschien NV50 canceled om meteen door te gaan voor DirectX 10 en SM4.0+. Dit is eigenlijk niet eens zo'n gekke gedachte:
2004: DX9 en SM3.0 - 2005: DX9 (?) en SM3.0 (?) - 2006: DX10 en SM4.0(+)

Het ligt er maar net een beetje aan wat Microsoft met Longhorn gaat doen en daarmee DX10.

Google-vondst

NV50 zou dus pas in 2006 echt leverbaar worden, maar waar laat je NV60 dan, want die moet DX10 hebben (Longhorn) en óók in 2006 aangekondigd worden. Ook zouden de budget en mid-end kaarten uit de NV40 reeks het tot die tijd uit moeten houden...

Ik denk echter niet dat nVidia stil zal zitten toekijken hoe Ati een nieuwe high-end chip op de markt zet volgend jaar (als ze dat doen natuurlijk :P)

Een goeie oplossing is dus misschien SLI, maar dan moet PCI-E en nForce 4/5 wel goed hard doorgedrukt worden in de markt. Een NV40 met 24 of 32 pijpen zou leuk zijn, maar is het mogelijk om die zo op 110 of 90nm te maken? Incoming: zware tijden ;)

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 26-05 14:54

Boushh

of TFA

De nv50 (voor eind 2005) zou waarschijnlijk niet op tijd komen om een antwoord te bieden aan de r520
Dat lijkt mij sterk. Uit het Algemene ATi draadje op GoT:
Een van die dingen is dat R520 volledig FP32 is en niet FP24 zoals alle vorige kaarten. Daarnaast ondersteunt R520 Shadermodel 3.0 en meer, waardoor er eigenlijk gesproken kan worden van SM3.5 of SM3.0+
Allemaal zaken (muv het eventueel hogere shader model) die nu al in de GeForce 6 reeks zitten. Dus als nVidia een hogere core clock zou kunnen krijgen voor de 6800 reeks, dan denk ik dat die kaarten prima de R520 bij kunnen houden. Dus het annuleren van de nv50 is helemaal niet zo gek.

Ik denk dat de eerste echte nieuwe nVIdia chip pas komt als DX10 vast staat. Als dat pas in 2006 is dan zal het mij niks verbazen als er in 2005 nVidia kaarten komen met 2 6800's erop. Als ze de 6800 op een 110 of 90 nm process kunnen bakken, dan denk ik dat het qua stroom en hitte ook nog wel te overzien is. En waarom niet ? Het kan nu ook met twee losse kaarten :)

  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

CJ schreef op vrijdag 03 december 2004 @ 15:15:
[...]


Urhm, de specs en naam zijn vreemd en komen volgens mij niet helemaal met het plaatje? :?

PCX is toch een AGP GeForce kaart die dankzij de HSI-bridge geschikt is gemaakt voor PCI-Express? (zie ook PCX 5300, PCX 5900 etc) Maar een GF6600 is toch al native PCI-Express?
Het voorvoegsel "PCX" geeft aan dat de kaart een PCI-Express interface heeft, meer niet. Zie nVidia's webpagina: http://www.nvidia.com/page/geforce_pcx.html
En op het plaatje zie je een AGP GF6600GT, dat kan je zien aan het voetje, maar ook aan de layout (45 graden gekantelde core + HSI bridge er rechtsonder)
En er mist een SLI aansluiting, wat natuurlijk logisch is omdat het een AGP kaartje is op de foto.
Het plaatje van de videokaart in mijn post hierboven is inderdaad en AGP kaartje, foutje van mij. Ik zal hem verplaatsen naar onderin de post.

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


Anoniem: 114616

Welke drivers kunnen eigenlijk op een hp pavilion laptop geinstalleerd worden met geforce 4 mx go?

( had een fx 5200go moeten zijn :( )

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
Boushh schreef op vrijdag 03 december 2004 @ 21:39:
...dan zal het mij niks verbazen als er in 2005 nVidia kaarten komen met 2 6800's erop. Als ze de 6800 op een 110 of 90 nm process kunnen bakken, dan denk ik dat het qua stroom en hitte ook nog wel te overzien is. En waarom niet ? Het kan nu ook met twee losse kaarten :)
Op dit moment gaat het helemaal niet zo lekker met het 90nm-proces (ik weet niet in hoeverre dit ook betrekking heeft op grotere chips met lagere snelheden, maar het loopt iig nog niet lekker) en ik denk zeker niet dat nVidia voor een Dual-GPU oplossing gaat kiezen. De kosten van één zo'n kaart, de complexheid van zo'n kaart, de problemen voor de fabrikanten, de ongelooflijke kleine markt voor zo'n kaart... 6800 Ultra's op 440+ Mhz met SLI is toch een stuk logischer.

Ik wil niet eens weten hoe groot een Dual-NV40 kaart gaat worden :)

Als de R520 24 pijps wordt, dan kan nVidia met SLI nog genoeg weerstand bieden, maar als Ati echt zo gek is om een 32pijps kaart neer te knallen met een redelijk hoge coresnelheid, veel vertexshaders en PS3.0+, dan kan nVidia de kroon in 2005 wel vergeten. En als Ati in 2005 een SLI-tegenhanger op de markt brengt...

offtopic:
@Hacku (beneden): Dacht je dat ik het nieuws niet meer volg? ;) En wil je het trouwens niet zo vrolijk brengen, het is nog steeds een groen topic hoor! :+

[Voor 15% gewijzigd door IceEyz op 03-12-2004 22:12]

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En als Ati in 2005 een SLI-tegenhanger op de markt brengt...
Doen ze ook: multi rendering :)
nieuws: ATi volgend jaar met Multi Rendering als SLI-tegenhanger

[Voor 65% gewijzigd door XWB op 03-12-2004 21:57]

World War One


  • Boushh
  • Registratie: Januari 2003
  • Laatst online: 26-05 14:54

Boushh

of TFA

Op dit moment gaat het helemaal niet zo lekker met het 90nm-proces (ik weet niet in hoeverre dit ook betrekking heeft op grotere chips met lagere snelheden, maar het loopt iig nog niet lekker)
Zowel AMD als Intel hebben dat proces nu redelijk onder controle. Dus dat lijkt mij niet onmogelijk. Zelfs ATi wil naar 90 nm.
en ik denk zeker niet dat nVidia voor een Dual-GPU oplossing gaat kiezen. De kosten van één zo'n kaart, de complexheid van zo'n kaart, de problemen voor de fabrikanten, de ongelooflijke kleine markt voor zo'n kaart... 6800 Ultra's op 440+ Mhz met SLI is toch een stuk logischer.
Het is niks nieuws. ATi deed het al met de MAXX kaarten, en 3dfx deed het al met de VSA100. En dat is toch alweer een hele tijd geleden. Verder moet je er rekening mee houden dat terwijl het produktie proces voort gaat, er ook allerlei verbeteringen worden gemaakt. Wat er (als het goed is) in resulteerd dat de chips goedkoper worden om te maken.

Wat complexiteit betreft heb je gelijk. Maar het is zeker niet onmogelijk. Niet iederen heeft een plank met twee PCIe 8x sloten erop. Het over grote deel van de mensen hebben een plank met maar 1 PCIe 16x slot erop. Dus de oplossing is in dat opzicht logischer dan SLi.
Ik wil niet eens weten hoe groot een Dual-NV40 kaart gaat worden
Zolang er geen quad-slot koeler op komt en die niet de diep wordt.......
Als de R520 24 pijps wordt, dan kan nVidia met SLI nog genoeg weerstand bieden, maar als Ati echt zo gek is om een 32pijps kaart neer te knallen met een redelijk hoge coresnelheid, veel vertexshaders en PS3.0+, dan kan nVidia de kroon in 2005 wel vergeten. En als Ati in 2005 een SLI-tegenhanger op de markt brengt...
Dus jij vindt twee GPU's op 1 kaart een probleem, maar 1 GPU die twee keer zo groot is niet ?

En je moet ook niet vergeten dat het voor ATi, zonder nv50 in het vooruitzicht, ineens ook niet zoveel zin meer heeft een 24/32 pijps chip te ontwikkelen. ATi zal zich nu (net als iedereen) afvragen wat nVidia van plan is. Het is namelijk best wel lastig om concurrerende producten uit te brengen als je niet weet wat de concurrent gaat doen.....

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
Niet om 't een of ander, maar de NV40 is toch ook ruwweg twee keer zo groot als zijn voorganger? Daarnaast zei ik niet voor niets: "maar als Ati echt zo gek is om een 32pijps kaart..." - ik ga eerder uit van een 24pijper. Ati krijgt gewoon een kans om snellere videokaarten neer te zetten, zonder dat nVidia enige vorm van weerstand biedt. Daarnaast kunnen ze gewoon verder met hun R600 en DX10 ondersteuning; nVidia zal ook wel iets nieuws van plan zijn (64pijps kaarten, zie je het voor je? :D)

Nog over Dual-GPU: Hoeveel Dual-GPU hebben het ook echt goed gedaan? Door de complexiteit van het PCB, de grootte en de hitte-productie is het veel makkelijker om twee kaarten tegen elkaar aan te plakken (SLI). Wat ze ook kunnen doen is een middenweg: twee kaarten met SLI in één PCI-E slot douwen. Een videokaart die drie sloten in beslag neemt en twee PCB's heeft. Koeling is goed veel ruimte voor (als je de onderste kaart bijvoorbeeld ondersteboven zet :)). Hmwz... leuk zelfbouwproject... :z

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
IceEyz schreef op vrijdag 03 december 2004 @ 20:50:
Ik denk echter niet dat nVidia stil zal zitten toekijken hoe Ati een nieuwe high-end chip op de markt zet volgend jaar (als ze dat doen natuurlijk :P)
Tegen alle verwachtingen in heeft ATi ook R480 dit jaar nog gelanceerd... dus waarom zouden ze dit keer een stap overslaan?

En trouwens, afgelopen oktober heeft R520 het tapeout stadium al bereikt. Dus de ontwikkeling is al af en nu kan er worden gefinetuned in samenwerking met TSMC om de boel goed op orde te krijgen op 0.09u. TSMC heeft al meer dan 80 verschillende soorten chips op 0.09u vervaardigt en heeft nu al dus wel wat ervaring met dit proces. :)

Na tape-out duurt het vaak zo'n 3 a 4 maanden voordat er begonnen kan worden met commerciele productie. Mocht er structureel iets mis zijn met de chip, dan kan het tot nog een maand of 3 duren voor de volgende tapeout. Zo bereikte de R420 in December 2003 z'n tape-out en werd in May gelanceerd (even de al dan niet beschikbaarheid niet meetellend).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

Verwacht de komende tijd geen nieuwe architecturen van ATi en nVidia. 90nm is op alle fronten een "probleem" geworden, dat is zelfs bij AMD en Intel te zien. Technologieen als low-k, strained silicon en SOI hebben minder effect naarmate het procede kleiner wordt. Het heeft waarschijnlijk te maken met de 193nm lithografische scanners waar TSMC ed gebruik van maken. Hopelijk zal de overstap naar 13nm (das geen typo) EUV hier verbetering in brengen. Voorlopig zitten we dus nog vast op de (volwassen) 130nm/110nm en de nog niet volmaakte 90nm processen.

nVidia heeft de NV48 en de NV50 geschrapt, en ook ATi heeft het een en ander uit moeten stellen. De technologie om 90nm volledig onder de knie te krijgen is er gewoon nog niet, dat is de reden. Daarom zullen zowel ATi als nVidia hun huidige architecturen verder opvoeren/uitbreiden. De volgende kaarten van nVidia zullen weinig nieuws brengen, wellicht meer/sneller geheugen. SLI gaat natuurlijk een belangrijke rol spelen. Zelfde verhaal voor ATi. 512MB kaartjes komen eraan, en kaartjes met een opgevoerde core en geheugen. Net als nVidia zal ook ATi het parallel processing idee toepassen

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


Anoniem: 37112

Beste mensen ik heb net mijn nieuwe kaart in mijn comp gezet en ik heb nog al wat problemen mijn beeldscherm gaat af en toe op 4 bit en tijdens het scrollen op internet sites zit er een soort vertraging in. ik heb net de drivers 66.93_win2kxp_english erop gegooit maar die bleek ook weer problemen te geven. Wat zijn op dit moment nu de juiste drivers voor deze kaart. En wat zijn de beste instellingen.

msik7t turbo
en 512 sdram
amd 1,4 tb

mochten jullie meer info moeten hebben over het probleem dan hoor ik het. Ik heb de search gebruikt en heb heel de dag al zitten speuren maar kan geen juiste instellingen vinden.

Mijn score met 3dmark2001 is 7233

Halflife2 geeft de melding dat mijn videokaart outdated is maar dat klopt neem ik aan ook niet

Ik had ook al een eigen topic geopend |:(

[Voor 3% gewijzigd door Anoniem: 37112 op 04-12-2004 09:32]


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
ik denk zeker niet dat nVidia voor een Dual-GPU oplossing gaat kiezen. De kosten van één zo'n kaart, de complexheid van zo'n kaart, de problemen voor de fabrikanten, de ongelooflijke kleine markt voor zo'n kaart... 6800 Ultra's op 440+ Mhz met SLI is toch een stuk logischer.
idd, er zijn weinig situaties waarin een dual-core kaart voordelen heeft tov een single core kaart andersom heeft een dual-core kaart wel voordelen tov een sli-combo. Misschien is een dual core uiteindelijk goedkoper dan een sli-combo. Dit kan een oplossing zijn voor het worst case scenario van nvidia, maar ik blijf geloven in een sterk verbeterde nv40 in de nv47
Ik wil niet eens weten hoe groot een Dual-NV40 kaart gaat worden
IK denk dat ze triple slot cooling gaan nodig hebben :)
Als de R520 24 pijps wordt, dan kan nVidia met SLI nog genoeg weerstand bieden, maar als Ati echt zo gek is om een 32pijps kaart neer te knallen met een redelijk hoge coresnelheid, veel vertexshaders en PS3.0+, dan kan nVidia de kroon in 2005 wel vergeten. En als Ati in 2005 een SLI-tegenhanger op de markt brengt...
Waarom denkt iedereen dat de R520 een gigantisch aantal pipes gaat hebben???
Als we de R420 en de nv40 op dezelfde frequentie laten draaien, is de nv40 een stuk sneller, er is dus nog ruime voor verbetering van de interne efficientie bij ATi. De nv40 is slechts een introductie van sm3.0(+). Het is al lang bekent dat de vertex texturing, dynamic branching & fp blending (hoewel deze laatste nog veel ruimte heeft voor verbetering) slecht presteren op de nv40. De R520 gaat (typisch ATi btw) de nv40 in deze functies verpulveren en alleen de functies implementeren die gegarandeerd gebruikt kunnen worden! Velen denken dat de R520 een opwaardering van de R420 is, "ze gooien er FP32 & sm3.0+ bij en verdubblen het aantal pipes", ik dacht het niet.
Longhorn is de sleutel (ook tot de roadmap verandering bij nv), er werd al door ATi verklaart dat de R520 een speciale geheugen architectuur zou hebben. Misschien maakt ATi de R520 al longhorn ready (sm3.0 zou genoeg moeten zijn maar er is ook virtueel video geheugen nodig), hoogst waarschijnlijk zullen de value R520 (R510?) nog steeds worden verkocht als longhorn uit is aangezien dat longhorn vroeger komt dan verwacht, misschien al midden 2006.

@CJ, de R300 tapte in mei uit en kwam in september op de markt = 5 maanden voor een nieuwe chip, april - mei dus :)
Technologieen als low-k, strained silicon en SOI hebben minder effect naarmate het procede kleiner wordt. Het heeft waarschijnlijk te maken met de 193nm lithografische scanners waar TSMC ed gebruik van maken. Hopelijk zal de overstap naar 13nm (das geen typo) EUV hier verbetering in brengen. Voorlopig zitten we dus nog vast op de (volwassen) 130nm/110nm en de nog niet volmaakte 90nm processen.
Je vergeet de voordelen van de fysieke die shrink. Meestal kan men bij overstap van process (bv .15 - 13 was zo) ongeveer 2x zoveel transistors in dezelfde ruimte krijgen. Dat betekend dat je 2x zoveel chips uit dezelfde wafer kunt halen, dan mogen je yields al echt barslecht zijn om betere resultaten in het grotere process te halen, bovendien kunnen de kleine chips veel hogere snelheden halen.
Dit is volgens mij de sleutel geweest tot de beslissing van ATi om volledig voor .09 te gaan, zeker omdat de R520 weer een stuk groter gaat zijn dan de R420.
Ik ken het fijne niet van de productieprocessen bij TSMC, maar ik geloof dat ze .09 al een eind aan het promoten zijn & dat ze klaar waren voor massaproductie.
Net als nVidia zal ook ATi het parallel processing idee toepassen
Ik denk dat ATi een stuk verder staat in paralell processing dan je denkt. Hun geheugenarchitectuur (hyperz) heeft een heleboel load ballancing technieken om de taken tussen de quads te verdelen (eigenlijk hebben gpu's al lang dual core en nu zelf quad core). Deze technologie kan zelf 256 chips laten samenwerken. Misschien vond ATi het (voorheen) een te kleine markt om in te investeren, natuurlijk zijn ze nu verplicht hun multi-gpu technologie uit te werken in hun toekomstige chipsets.

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
oeLangOetan schreef op zaterdag 04 december 2004 @ 14:10:
Waarom denkt iedereen dat de R520 een gigantisch aantal pipes gaat hebben???
Als we de R420 en de nv40 op dezelfde frequentie laten draaien, is de nv40 een stuk sneller, er is dus nog ruime voor verbetering van de interne efficientie bij ATi. De nv40 is slechts een introductie van sm3.0(+)...
Intel kan ook intern de cpu efficiënter maken en zo klok-voor-klok even snel zijn als Amd... De architecturen van beide zijn gewoon verschillend en hebben hun eigen doelstellingen.

Zo ook bij Ati-nVidia: Ati pompt met de refresh vooral nog wat Mhz'jes in/uit de core. nVidia lukt dat amper door...? De R520 kan niet alleen van interne aanpassingen sneller (genoeg) worden. Je kunt het in de diepte sneller maken (tijd per pixel), maar in de breedte is waarschijnlijk belangrijker (pixels per keer).

Daarnaast, de consument is niet bepaald van plan om een nieuwe, dure videokaart te gaan kopen, die maar lichtelijk sneller is dan zijn voorganger. Helemaal nu we gewend zijn dat nieuwe High-End's ongeveer twee keer zo snel zijn als hun voorgangers. In dat geval zouden we een soort van paperlaunch hebben die de kroon claimt, weinig nieuws biedt en de verkoop van mid- en low-end kaarten moet stimuleren. Waarschijnlijk weinig productie van de kaart zelf, alleen een paar nerds met veel centen die die kaart willen.
Longhorn is de sleutel (ook tot de roadmap verandering bij nv), er werd al door ATi verklaart dat de R520 een speciale geheugen architectuur zou hebben. Misschien maakt ATi de R520 al longhorn ready (sm3.0 zou genoeg moeten zijn maar er is ook virtueel video geheugen nodig), hoogst waarschijnlijk zullen de value R520 (R510?) nog steeds worden verkocht als longhorn uit is aangezien dat longhorn vroeger komt dan verwacht, misschien al midden 2006.
Longhorn-ready betekent ook DX10 (en volgens mij was unified architecture mogelijk ook een vereiste, mede-afhankelijk van wat nVidia gaat doen met de structuur van GPU's). Ik denk niet dat Ati nu al een DX10 ready kaart klaar heeft staan en de uiteindelijke specificatie van DX10 is nog niet af.
Je vergeet de voordelen van de fysieke die shrink. Meestal kan men bij overstap van process (bv .15 - 13 was zo) ongeveer 2x zoveel transistors in dezelfde ruimte krijgen. Dat betekend dat je 2x zoveel chips uit dezelfde wafer kunt halen, dan mogen je yields al echt barslecht zijn om betere resultaten in het grotere process te halen, bovendien kunnen de kleine chips veel hogere snelheden halen.
Dit is volgens mij de sleutel geweest tot de beslissing van ATi om volledig voor .09 te gaan, zeker omdat de R520 weer een stuk groter gaat zijn dan de R420.
Ik ken het fijne niet van de productieprocessen bij TSMC, maar ik geloof dat ze .09 al een eind aan het promoten zijn & dat ze klaar waren voor massaproductie.
Theoretisch kúnnen de chips hogere snelheden halen, maar daar is in de praktijk nog niet echt veel van te merken. Intel en Amd hebben precies hetzelfde probleem: Prescott houdt al bij 3,8 op, Amd verkoopt vooral laaggeklokte 90nm chips. Kleiner productieproces betekent ook weer meer lekstroom, waardoor de temperatuur omhoog gaat en de mogelijke snelheid naar beneden. TSMC promoot natuurlijk een product van hun bedrijf, ze willen geld zien na al die investeringen :)

...en nu weer naar bed... ikke... :Y)

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
IceEyz schreef op zaterdag 04 december 2004 @ 23:38:
[...]

Intel kan ook intern de cpu efficiënter maken en zo klok-voor-klok even snel zijn als Amd... De architecturen van beide zijn gewoon verschillend en hebben hun eigen doelstellingen.

Zo ook bij Ati-nVidia: Ati pompt met de refresh vooral nog wat Mhz'jes in/uit de core. nVidia lukt dat amper door...? De R520 kan niet alleen van interne aanpassingen sneller (genoeg) worden. Je kunt het in de diepte sneller maken (tijd per pixel), maar in de breedte is waarschijnlijk belangrijker (pixels per keer).
Ik vindt het bijna boosaardig dat cpu's steeds met gpu's worden vergeleken, maar dat pleidooi hoort hier niet thuis.
Je denkt nog steeds in termen van pure fillrate, dat is echt geschiedenis geworden. Momenteel moeten pixels verscheidene malen (nu al tot 40-50 keer) gemultipassed worden in de shader units om slechts 1 pixel/vertex shader uit te voeren. Hier zit dus een enorm optimalisatie potentiaal in, die een veel kleinere kostprijs heeft dan het vergroten van het aantal quads.
Daarnaast, de consument is niet bepaald van plan om een nieuwe, dure videokaart te gaan kopen, die maar lichtelijk sneller is dan zijn voorganger. Helemaal nu we gewend zijn dat nieuwe High-End's ongeveer twee keer zo snel zijn als hun voorgangers. In dat geval zouden we een soort van paperlaunch hebben die de kroon claimt, weinig nieuws biedt en de verkoop van mid- en low-end kaarten moet stimuleren. Waarschijnlijk weinig productie van de kaart zelf, alleen een paar nerds met veel centen die die kaart willen.
Misschien is de R520 een product voor de toekomst, terwijl de R420 op zijn laatste benen loopt ;).
[...]

Longhorn-ready betekent ook DX10 (en volgens mij was unified architecture mogelijk ook een vereiste, mede-afhankelijk van wat nVidia gaat doen met de structuur van GPU's). Ik denk niet dat Ati nu al een DX10 ready kaart klaar heeft staan en de uiteindelijke specificatie van DX10 is nog niet af.
Het gaat mij meer om het driver-profiel. Om WGF 1.0 volledig natief te ondersteunen met het nieuwe driver model (die nu volgens de laatste geruchten naar 2.0 is verschoven :( ) heb je sm3.0 nodig en ondersteunig voor virtual video memory. Dit kan later bellangrijk zijn (eventuele chipsets & value producten).
btw voor zover ik weet ligt sm4.0 en de rest van dx10 nog niet vast, voor zover ik weet was de nv50 nog steeds een sm3.0/dx9 product terwijl de nv60 dx10 was. In ieder geval laat nvidia deze keer minder over zich lopen dan bij het dx9 verhaal.
(het cannen van de nv50 heeft iets te doen met de vervroegde launch van longhorn & dxNext)
Als ms vraagt dat elke dx10 kaart een unified shader architecture heeft dan kunnen ze zowel vragen dat ze allemaal differed renderers zijn :Z 8)7 |:( (voor de noobs, het idee is overepatenteerd door ati, net als differd rendering door powervr)
[...]
Theoretisch kúnnen de chips hogere snelheden halen, maar daar is in de praktijk nog niet echt veel van te merken. Intel en Amd hebben precies hetzelfde probleem: Prescott houdt al bij 3,8 op, Amd verkoopt vooral laaggeklokte 90nm chips. Kleiner productieproces betekent ook weer meer lekstroom, waardoor de temperatuur omhoog gaat en de mogelijke snelheid naar beneden. TSMC promoot natuurlijk een product van hun bedrijf, ze willen geld zien na al die investeringen :)
Lekstroom is iets dat je gewoon niet kunt vermijden in de micro-electronica, maar het heeft ons nog nooit tegen gehouden om van process te verkleinen. TSMC had de investering niet gedaan als ze niet 110% zeker was dat hun investering rendabel zou zijn. Iedereen gaat op termijn naar .09, ATi is niets te vroeg. (denk s aan het potentiaal van de refresh R520)
...en nu weer naar bed... ikke... :Y)
goed idee...

  • IceEyz
  • Registratie: Juni 2002
  • Laatst online: 06:26
oeLangOetan schreef op zondag 05 december 2004 @ 00:53:
Je denkt nog steeds in termen van pure fillrate, dat is echt geschiedenis geworden. Momenteel moeten pixels verscheidene malen (nu al tot 40-50 keer) gemultipassed worden in de shader units om slechts 1 pixel/vertex shader uit te voeren. Hier zit dus een enorm optimalisatie potentiaal in, die een veel kleinere kostprijs heeft dan het vergroten van het aantal quads.
Sorry om weer een vergelijking met cpu-wereld te maken, maar ook daar zie je dat er steeds meer in de breedte gewerkt wordt: dual-core, SMT, zelfs Cell. Ati kan al wel bezig zijn met het optimaliseren van de shaders, maar dat loopt nu dus tegen z'n einde aan met de komst van R500 en R600. Het is dan makkelijker om gewoon het aantal pipes en vertexes te vergroten dan nog wat dure research er tegen aan te gooien om zo meer chips-per-wafer te bakken. Dat alles voor een kaart die niet machtig veel verkocht zal worden, vlak voor Longhorn-ready kaarten.
Ik bedoelde trouwens ook niet lettelijk pixels als in fillrate, immers, bij de fillrate valt er in diepte weinig/niets te optimaliseren. Het gaat inderdaad om de pixel die uit de pijp komt rollen en die pijp is te verbeteren.
Lekstroom is iets dat je gewoon niet kunt vermijden in de micro-electronica, maar het heeft ons nog nooit tegen gehouden om van process te verkleinen. TSMC had de investering niet gedaan als ze niet 110% zeker was dat hun investering rendabel zou zijn. Iedereen gaat op termijn naar .09, ATi is niets te vroeg. (denk s aan het potentiaal van de refresh R520)
Laten we er maar op hopen, want .09 heeft zich gewoon nog niet bewezen. Het kan inderdaad best zijn dat tegen de tijd dat R520 op grote schaal gemaakt wordt, het productieproces zich alsnog gaat bewijzen als *beter-zijnde* :)
goed idee...
't helpt me iig deze dag weer door te komen :P

In de praktijk blijkt dat sommigen moeite hebben met de uitspraak van mijn naam:
Fout: Ais-ees
Goed: Ais-Aiz


Anoniem: 58729

ik weet niet waaronder mijn probleem valt.
Software of Videoplanken & beeldkanonnen.
Maar iig
met mijn GF 6800 Ultra heb ik het volgende probleem:
link naar plaatje
vergeet telkens hoe ik een plaatje resize ;)

de knoppen bestaan wel. en zijn *.tga bestanden..
maar om een of andere reden maakt hij ze veel groter dan het zou horen,
heb dit met meerdere spellen die met *.tga bestanden werken als knop textures.

Iemand enig idee wat dit probleem kan oplossen?
Vind het vrij vaag eigenlijk

  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 29-05 19:02
Ik heb na veel revieuws lezen en eigen overtuiging gekozen voor de Asus 6800 non-GT/U boven de 6600GT.
Waar ik eigenlijk niet bij na heb gedacht is of mijn sys het wel trekt. Had nl in een ander topic gelzen dat voor een optimaal resultaat voor een 6600GT een 3000+ vereist was.
Zullen mijn specs(sig) het ook halen met de 6800? :o
En hij gebruikt toch geen xtra pci sloten? toch?

[Voor 7% gewijzigd door FDMK op 05-12-2004 21:13]

Any job you can do in your pajamas is not the hardest job in the world.


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Er is een "interessante ontdekking" gedaan in de 67.02 drivers.Het schijnt dat de NV40 "ATI2" als een geldige FourCC textureformat ziet. "ATI2" is de FourCC textureformat voor.... 3Dc.

Sommige mensen hebben het getest en het schijnt dat bv de demo The Project nu aangeeft: "3Dc Compression: Supported". Er wordt gezegd dat dit een soort van driverworkaround is dus dat de drver de videokaart 'voor de gek houdt' en het een soort van emulatie is. Je krijgt dan dezelfde qualiteit als 3Dc, maar het vergt 2x zo veel geheugen.

Zou dit beteken dat nVidia in de volgende chip gewoon standaard hardwarematige ondersteuning voor 3Dc gaat inbakken?

Bron: http://www.beyond3d.com/forum/viewtopic.php?t=18749

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Shemez
  • Registratie: Augustus 2000
  • Laatst online: 22:35
Ik heb een XFX 6600GT gekocht welke nog wel eens te warm wil worden na een lange tijd Half-Life 2, waardoor ik allemaal artifacten in beeld krijg. Kent iemand een goede cooler voor 6600GT die de warme lucht naar buiten blaast zonder het geluid te maken van een hoover-craft?

Anoniem: 93525

Shemez schreef op maandag 06 december 2004 @ 09:34:
Ik heb een XFX 6600GT gekocht welke nog wel eens te warm wil worden na een lange tijd Half-Life 2, waardoor ik allemaal artifacten in beeld krijg. Kent iemand een goede cooler voor 6600GT die de warme lucht naar buiten blaast zonder het geluid te maken van een hoover-craft?
Zonder ook maar iets getweakt te hebben? Zou erg slordig zijn en het zou duiden op een fabrikatiefout Die kaarten stressen ze al die-hard tijdens de test fases. .

  • Shemez
  • Registratie: Augustus 2000
  • Laatst online: 22:35
Zonder tweaks idd. De kaart begint raar te doen rond een temperatuur van 80C.

Anoniem: 79835

CJ schreef op maandag 06 december 2004 @ 01:17:
Er is een "interessante ontdekking" gedaan in de 67.02 drivers.Het schijnt dat de NV40 "ATI2" als een geldige FourCC textureformat ziet. "ATI2" is de FourCC textureformat voor.... 3Dc.

Sommige mensen hebben het getest en het schijnt dat bv de demo The Project nu aangeeft: "3Dc Compression: Supported". Er wordt gezegd dat dit een soort van driverworkaround is dus dat de drver de videokaart 'voor de gek houdt' en het een soort van emulatie is. Je krijgt dan dezelfde qualiteit als 3Dc, maar het vergt 2x zo veel geheugen.

Zou dit beteken dat nVidia in de volgende chip gewoon standaard hardwarematige ondersteuning voor 3Dc gaat inbakken?

Bron: http://www.beyond3d.com/forum/viewtopic.php?t=18749
Ik denk eerder dat nvidia compatibel wil zijn met games die veel 3dc gebruiken. Moeten game developpers maar voor 1 pad coderen.

Maar dit is een heel belangrijke ontdekking. Een ATi only feature die gewoon op nvidia hardware werkt.

[Voor 9% gewijzigd door Anoniem: 79835 op 06-12-2004 11:11]


Anoniem: 37112

hoe zijn jullie ervaringen met de nieuwe drivers van nvidia ik heb er tot nu toe slechte ervaringen mee.

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:37
CJ schreef op maandag 06 december 2004 @ 01:17:


Zou dit beteken dat nVidia in de volgende chip gewoon standaard hardwarematige ondersteuning voor 3Dc gaat inbakken?
Lijkt me wel als het er dik inzit dat het een DX feature gaat worden, maar nog belangrijker: 't is wel nuttig. Alleen.... welke volgende kaart? nV50 ook al gecancelled. Kan het me niet voorstellen dat ze tot begin 2006 met niks komen, dan zal er in Juli ofzo toch wel een nV48 komen zou je hopen. En wanneer worden de specs voor DXnext vastgelegd? Niet dat nVidia weer naast de pot gaat pissen,beter later dan Ati met iets goed komen dan te vroeg met iets halfbakken.

Anoniem: 58729

Anoniem: 58729 schreef op zondag 05 december 2004 @ 19:58:
ik weet niet waaronder mijn probleem valt.
Software of Videoplanken & beeldkanonnen.
Maar iig
met mijn GF 6800 Ultra heb ik het volgende probleem:
link naar plaatje
vergeet telkens hoe ik een plaatje resize ;)

de knoppen bestaan wel. en zijn *.tga bestanden..
maar om een of andere reden maakt hij ze veel groter dan het zou horen,
heb dit met meerdere spellen die met *.tga bestanden werken als knop textures.

Iemand enig idee wat dit probleem kan oplossen?
Vind het vrij vaag eigenlijk
snelle kick voor mezelf,
Weet iemand de oplossing hier voor? of hoe het uberhaupt kan gebeuren?
als ik de knoppen bekijk met Infranview dan hebben ze wel de normale grote namelijk

[Voor 7% gewijzigd door Anoniem: 58729 op 06-12-2004 12:30]


  • FDMK
  • Registratie: Augustus 2004
  • Laatst online: 29-05 19:02
ik heb nu net mijn 6800 binnen AGP.
Netjes drivers gedelete van mijn oude ati kaart. Daarna de 6800 geplaatst, aangesloten incl molex.Computer aangezet---> zwart beeld.
Ik heb een CRT 17" van een jaar of 5 , 6 oud. Kan daar het probleem zitten?

Any job you can do in your pajamas is not the hardest job in the world.


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22-05 15:47

Deathchant

Don't intend. Do!

ik zag trouwens een review over de Gainward 6800GT GS GLH (die met 1.6ns).
http://www.extreme64.com/...Graphics/gw6800gt/gwgt_05

En ik zag daar dit plaatje:
http://www.extreme64.com/...cs/gw6800gt/gwgt_3d05.jpg

Als je naar dat plaatje kijkt zie je op de achtergrond: SCORE: N/A, daar zou normaliter ook die score moten staan.
hetzelfde bij het plaatje van 3dmark2003. Als je photoshopt, doe het dan goed 8)7.
En op 1 pagina verder zie je screenshots van Doom3 met 4xFSAA en 8xAF op een reso van 1600x1200.
Bekijk dat plaatje eens goed, als dat 4xfsaa is, moet de maker van deze review zich schamen!

maar ja genoeg hierover. Ik kan trouwens mijn AF op 16x zetten. ik zie weinig verschil tussen 16x en 8x......

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 26-05 14:01
Na veel zoeken en benches te hebben gelezen heb ik ook maar eens besloten om een 6800gt te kopen, vooral de doom3 benchmarks gaven de doorslag. (twimp game..en omdat ik voornamelijk world of warcraft ga spelen wat ook een twimp game is toch maar voor nvidia gaan)

Maar nu weet ik niet welke het moet worden ~__~ de msi of de leadtek...gainward schijnt ook nice te zijn ik kan maar nergens benchsmarks vinden tussen de verschilende gt's die verkrijgbaar zijn.

Iemand nog tips? ^__^

[Voor 6% gewijzigd door Jumpiefox op 06-12-2004 13:54]

On a road of changes....


Anoniem: 79835

Jumpiefox schreef op maandag 06 december 2004 @ 13:52:
Na veel zoeken en benches te hebben gelezen heb ik ook maar eens besloten om een 6800gt te kopen, vooral de doom3 benchmarks gaven de doorslag. (twimp game..en omdat ik voornamelijk world of warcraft ga spelen wat ook een twimp game is toch maar voor nvidia gaan)

Maar nu weet ik niet welke het moet worden ~__~ de msi of de leadtek...gainward schijnt ook nice te zijn ik kan maar nergens benchsmarks vinden tussen de verschilende gt's die verkrijgbaar zijn.

Iemand nog tips? ^__^
Ik zou voor de goedkoopste kaart die in stock is gaan. Veel verschil zit er niet in de prestaties.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op maandag 06 december 2004 @ 01:17:
Er is een "interessante ontdekking" gedaan in de 67.02 drivers.Het schijnt dat de NV40 "ATI2" als een geldige FourCC textureformat ziet. "ATI2" is de FourCC textureformat voor.... 3Dc.

Sommige mensen hebben het getest en het schijnt dat bv de demo The Project nu aangeeft: "3Dc Compression: Supported". Er wordt gezegd dat dit een soort van driverworkaround is dus dat de drver de videokaart 'voor de gek houdt' en het een soort van emulatie is. Je krijgt dan dezelfde qualiteit als 3Dc, maar het vergt 2x zo veel geheugen.

Zou dit beteken dat nVidia in de volgende chip gewoon standaard hardwarematige ondersteuning voor 3Dc gaat inbakken?

Bron: http://www.beyond3d.com/forum/viewtopic.php?t=18749
Yep, net ff de humusdemo gedraaid met de 70.41's en ik krijg keurig netjes de soft edges van de texturerranden. Die 70.41's zijn echt hun tijd ver vooruit :D

De vraag is alleen hoeveel zal in de praktijk de meer nenodigde bandbreedte de performance partenspelen bij grotere textures en valt waarschijnlijk het snelheidsvoordeel weg bij gelijke texturegrootes tov de echte 3dc.

edit, ondanks de berichten over een evt grotere benodigde bandbreedte is de 3dc demo van Humus op de 6800U met 3dc enabled zo'n 5% sneller dan zonder, dus toch beide voordelen?
Kan iemand eens kijken hoeveel het scheelt in perf. met een X800?

[Voor 27% gewijzigd door edward2 op 06-12-2004 17:00]

Niet op voorraad.


Anoniem: 117859

mijn videokaart is net kapot gegaan :( dus moet ik een nieuwe kopen, maar ik kan door de bomen het bos niet meer zien. ik wil een gemiddelde kaart hebben voor maximaal 180 euro, ik was altijd een ATI fan, maar omdat deze kaarten mij iets te duur zijn geworden, wil ik overstappen naar nvidia. ik heEb al wel een kaart gezien, namelijk de 6600( niet GT ofzo) maar deze heb ik alleen maar in PCI-E gezien tot nu toe. is (komt) deze chipset ook nog op een agp kaart, of is deze er al? want ik kan hem niet in de pricewatch vinden, en met de search ben ik ook niet wijzer geworden. alleen maar over 6600 gt versies die al wel AGP zijn.
bvd.

Anoniem: 58729

Deathchant schreef op maandag 06 december 2004 @ 13:24:
ik zag trouwens een review over de Gainward 6800GT GS GLH (die met 1.6ns).
http://www.extreme64.com/...Graphics/gw6800gt/gwgt_05

En ik zag daar dit plaatje:
http://www.extreme64.com/...cs/gw6800gt/gwgt_3d05.jpg

Als je naar dat plaatje kijkt zie je op de achtergrond: SCORE: N/A, daar zou normaliter ook die score moten staan.
hetzelfde bij het plaatje van 3dmark2003. Als je photoshopt, doe het dan goed 8)7.
En op 1 pagina verder zie je screenshots van Doom3 met 4xFSAA en 8xAF op een reso van 1600x1200.
Bekijk dat plaatje eens goed, als dat 4xfsaa is, moet de maker van deze review zich schamen!

maar ja genoeg hierover. Ik kan trouwens mijn AF op 16x zetten. ik zie weinig verschil tussen 16x en 8x......
haha idd :)
Majah ik heb met mijn 6800 ultra (XFX) toch mooi 10709 puntjes gehaalt in 3dmark03 :)
AMD 2400+
768mb PC2100 memory
en dus die vidkaart..
Maar idd. da's wel een hele slechte soep :P

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
IceEyz schreef op zondag 05 december 2004 @ 12:59:
[...]
Sorry om weer een vergelijking met cpu-wereld te maken, maar ook daar zie je dat er steeds meer in de breedte gewerkt wordt: dual-core, SMT, zelfs Cell. Ati kan al wel bezig zijn met het optimaliseren van de shaders, maar dat loopt nu dus tegen z'n einde aan met de komst van R500 en R600. Het is dan makkelijker om gewoon het aantal pipes en vertexes te vergroten dan nog wat dure research er tegen aan te gooien om zo meer chips-per-wafer te bakken. Dat alles voor een kaart die niet machtig veel verkocht zal worden, vlak voor Longhorn-ready kaarten.
Ik bedoelde trouwens ook niet lettelijk pixels als in fillrate, immers, bij de fillrate valt er in diepte weinig/niets te optimaliseren. Het gaat inderdaad om de pixel die uit de pijp komt rollen en die pijp is te verbeteren.
Ik heb het ook over verbreding maar niet van het aantal quads. Je kunt het aantal shader units sterk verhogen zonder dat je chip 30-40% groter wordt. Probeer s wat te lezen over de shader units in de R300-420 en nv40, deze werken met verschillende ALU's die per clock verschillende instucties kunnen verwerken. Deze informatie is (jammergenoeg) niet noch door ATi noch door nVidia gedocumenteerd maar op verschillende fora worden ze toegelicht door mensen met inside informatie. (nvidia heeft het wel wat gedocumenteerd maar wat ze beweren houd geen steek, marketingpraat dus). Deze interne verbreding van de quads gaat het aantal shaderops/quad/clock serieus verhogen.
Bovendien is 32/24 pijplijnen nog steeds overkill zonder voldoende snel geheugen (GDDR4 komt pas eind volgend jaar, misschien later).

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22-05 15:47

Deathchant

Don't intend. Do!

Jumpiefox schreef op maandag 06 december 2004 @ 13:52:
Na veel zoeken en benches te hebben gelezen heb ik ook maar eens besloten om een 6800gt te kopen, vooral de doom3 benchmarks gaven de doorslag. (twimp game..en omdat ik voornamelijk world of warcraft ga spelen wat ook een twimp game is toch maar voor nvidia gaan)

Maar nu weet ik niet welke het moet worden ~__~ de msi of de leadtek...gainward schijnt ook nice te zijn ik kan maar nergens benchsmarks vinden tussen de verschilende gt's die verkrijgbaar zijn.

Iemand nog tips? ^__^
Ik heb een GoldenSample 6800GT van Gainward. Dus die is sowieso sneller. MSI zou ik niet pakken, is te weinig info over te vinden en te weinig ervaringen. Leadtek is goed. Vriend van mij heeft ook een Leadtek GT, prima kaart.

Een GT is een GT. Welke GT je ook neemt. De prestaties zijn allemaal hetzelfde. Behalve als je de GLH versie pakt van de 6800GT van gainward. Die heeft 1.6ns geheugen, terwijl ALLE GT's 2.0ns hebben.

Op elke kaart zit een GT chip. Dus tis aan jou welke fabrikant je kiest. (kijk daarbij naar de eisen die jij belangrijk vindt: geluid of effectieve koeling, geheugen wat erop zit, de software die erbij zit etc etc.)

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22-05 15:47

Deathchant

Don't intend. Do!

Anoniem: 58729 schreef op maandag 06 december 2004 @ 20:46:
[...]

haha idd :)
Majah ik heb met mijn 6800 ultra (XFX) toch mooi 10709 puntjes gehaalt in 3dmark03 :)
AMD 2400+
768mb PC2100 memory
en dus die vidkaart..
Maar idd. da's wel een hele slechte soep :P
Toch denk ik dat 10709 beetje matig is voor een pure Ultra. Zal wel je CPU en mem zijn. Maar ja benchmarks zijn slechts slechte cijfers over een indruk van een videokaart.

En ik vertrouw die reviewsite idd voor geen meter. Echt, als die plaatjes van doom 3 met AF en FSAA zijn op die hoge reso, dan is het OF een kutkaart, OF een kut reviewsite

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


Anoniem: 58729

Deathchant schreef op dinsdag 07 december 2004 @ 01:29:
[...]

Toch denk ik dat 10709 beetje matig is voor een pure Ultra. Zal wel je CPU en mem zijn. Maar ja benchmarks zijn slechts slechte cijfers over een indruk van een videokaart.

En ik vertrouw die reviewsite idd voor geen meter. Echt, als die plaatjes van doom 3 met AF en FSAA zijn op die hoge reso, dan is het OF een kutkaart, OF een kut reviewsite
ik meende ergens gelezen tehebben dat 3dmark niet echt veel met je cpu doet.
Zal wel klote kaart zijn. :P
Majah.. koste toch dikke 550 euro deze kaart :X
heb voor deze kaart 3dmark03 ook gedraait met mijn GF 4 4600 ultra. en haalde toen maar 1000 nog wat punten. Dus verschil is er wel :)

  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 20-05 19:38

Sm0k3r

cough...cough...

Anoniem: 58729 schreef op dinsdag 07 december 2004 @ 08:17:
[...]

ik meende ergens gelezen tehebben dat 3dmark niet echt veel met je cpu doet.
Zal wel klote kaart zijn. :P
Majah.. koste toch dikke 550 euro deze kaart :X
heb voor deze kaart 3dmark03 ook gedraait met mijn GF 4 4600 ultra. en haalde toen maar 1000 nog wat punten. Dus verschil is er wel :)
Vraagje ? XFX 6800 ULTRA of GAINWARD 2600 ULTRA, de XFX is standaard 425/1200 en de GAINWARD 430/1200.

De GAINWARD is hij standaard 430 of moet je daarvoor de GOLDEN SAMPLE software gebruiken?? Ben van plan om er een te kopen maar welke raden jullie aan, heeft er iemand een GAINWARD 6800 ULTRA om mij hierover wat te vertellen??

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Anoniem: 79835

Het is officieel:
Nvidia gaat de GPU voor de Playstation 3 ontwikkelen samen met IBM en Sony
Sony Computer Entertainment Inc. and NVIDIA Corporation today announced that the companies have been collaborating on bringing advanced graphics technology and computer entertainment technology to SCEI's highly anticipated next-generation computer entertainment system. Both companies are jointly developing a custom graphics processing unit (GPU) incorporating NVIDIA's next-generation GeForce(TM) and SCEI's system solutions for next-generation computer entertainment systems featuring the Cell* processor.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Anoniem: 79835 schreef op dinsdag 07 december 2004 @ 11:28:
Het is officieel:
Nvidia gaat de GPU voor de Playstation 3 ontwikkelen samen met IBM en Sony

[...]
Wow als nvidia dit echt doet en de ps3 net zo populair is als de ps2 hebben ze hier een mega vette deal erbij.
Ik vraag me af wat de specs gaan worden.

Anoniem: 79835

sjek schreef op dinsdag 07 december 2004 @ 11:44:
[...]

Wow als nvidia dit echt doet en de ps3 net zo populair is als de ps2 hebben ze hier een mega vette deal erbij.
Ik vraag me af wat de specs gaan worden.
NV48 en NV50 werden afgevoerd en dan komt dit nieuws. Is er een verband?

Anoniem: 58729

Sm0k3r schreef op dinsdag 07 december 2004 @ 10:00:
[...]


Vraagje ? XFX 6800 ULTRA of GAINWARD 2600 ULTRA, de XFX is standaard 425/1200 en de GAINWARD 430/1200.

De GAINWARD is hij standaard 430 of moet je daarvoor de GOLDEN SAMPLE software gebruiken?? Ben van plan om er een te kopen maar welke raden jullie aan, heeft er iemand een GAINWARD 6800 ULTRA om mij hierover wat te vertellen??
ik heb de XFX 6800 Ultra,
majah er zit overclock software bij.. dus die 5 zal het verschil niet maken :)
http://members.lycos.nl/devilseye2k2/gf6.jpg

[Voor 5% gewijzigd door Anoniem: 58729 op 07-12-2004 12:30]


  • Vandread
  • Registratie: November 2003
  • Laatst online: 26-05 09:37
Volgens mij word vergeten dat de xbox ook draait met een nvidia gpu chip ;)

GPU chips in consoles worden vaak relatief goedkoop gehouden om er geld aan te kunnen verdienen en het geheel toch geoptimaliseerd word voor games

Hardware van ps2 en xbox:
http://www.2002.arspentia.org/3mm/XboxGPU

Opzich kan het natuurlijk best leuk uitpakken :)

Nadeel van consoles lijkt me nog steeds de TV gebonden resolutie....

[Voor 38% gewijzigd door Vandread op 07-12-2004 12:39]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Vandread schreef op dinsdag 07 december 2004 @ 12:35:
Volgens mij word vergeten dat de xbox ook draait met een nvidia gpu chip ;)

GPU chips in consoles worden vaak relatief goedkoop gehouden om er geld aan te kunnen verdienen en het geheel toch geoptimaliseerd word voor games

Hardware van ps2 en xbox:
http://www.2002.arspentia.org/3mm/XboxGPU

Opzich kan het natuurlijk best leuk uitpakken :)

Nadeel van consoles lijkt me nog steeds de TV gebonden resolutie....
Nee dat is niet vergeten maar nvidia heeft geen deal voor de xbox2. De ps3 kan dan weer een hoop goedmaken.

  • Vandread
  • Registratie: November 2003
  • Laatst online: 26-05 09:37
sjek schreef op dinsdag 07 december 2004 @ 13:02:
[...]
Nee dat is niet vergeten maar nvidia heeft geen deal voor de xbox2. De ps3 kan dan weer een hoop goedmaken.
Wat moeten ze goedmaken dan :?

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Vandread schreef op dinsdag 07 december 2004 @ 13:07:
[...]

Wat moeten ze goedmaken dan :?
Het zou een logische stap zijn geweest om nvidia de 2e xbox gpu te maken ivm met de compatible te blijven met oude xbox games. Het is nu niet zeker of dat gaat lukken omdat nvidia deze niet gaat maken maar de concurent. Ze zijn dus een rendabele deal kwijt bij microsoft en nu maken ze dat weer goed door samen met sony te werken.

  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 20-05 19:38

Sm0k3r

cough...cough...

Anoniem: 58729 schreef op dinsdag 07 december 2004 @ 12:29:
[...]

ik heb de XFX 6800 Ultra,
majah er zit overclock software bij.. dus die 5 zal het verschil niet maken :)
[afbeelding]
Hartelijk bedankt gozer, nu alleen maar iemand met een GAINWARD strikken en kijken of hij standaard op 430/1200 draait, alsniet koop ik normale GAINWARD en flash ik hem met XFX bios

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Anoniem: 93354

sjek schreef op dinsdag 07 december 2004 @ 13:11:
[...]

Het zou een logische stap zijn geweest om nvidia de 2e xbox gpu te maken ivm met de compatible te blijven met oude xbox games. Het is nu niet zeker of dat gaat lukken omdat nvidia deze niet gaat maken maar de concurent. Ze zijn dus een rendabele deal kwijt bij microsoft en nu maken ze dat weer goed door samen met sony te werken.
Tenzij ze weer een deal hebben als ze met ms hadden, daar zijn ze niet echt beter van geworden. Wat ik me afvraag is hoelang nvidia hier al mee bezig is, als het van de laatste tijd is dan zullen ze vast niet optijd een hele niewe chip kunnen bouwen zoals ati wel voor de xbox2 en gc2 doet.

  • Vandread
  • Registratie: November 2003
  • Laatst online: 26-05 09:37
sjek schreef op dinsdag 07 december 2004 @ 13:11:
[...]Het zou een logische stap zijn geweest om nvidia de 2e xbox gpu te maken ivm met de compatible te blijven met oude xbox games. Het is nu niet zeker of dat gaat lukken omdat nvidia deze niet gaat maken maar de concurent. Ze zijn dus een rendabele deal kwijt bij microsoft en nu maken ze dat weer goed door samen met sony te werken.
Dit is natuurlijk ook vice versa zo dan he :P + het verhaal van m'n voorganger die meer wat dan ik :+ (geen drol verstand van die dingen maar wel logisch verstand ;))

Zullen we trouwes maar weer ontopic gaan :X misschien kan iemand me nog helpen met *dit* GF6 probleem O-)

[Voor 26% gewijzigd door Vandread op 07-12-2004 13:39]


Anoniem: 79835

Anoniem: 93354 schreef op dinsdag 07 december 2004 @ 13:35:
[...]


Tenzij ze weer een deal hebben als ze met ms hadden, daar zijn ze niet echt beter van geworden. Wat ik me afvraag is hoelang nvidia hier al mee bezig is, als het van de laatste tijd is dan zullen ze vast niet optijd een hele niewe chip kunnen bouwen zoals ati wel voor de xbox2 en gc2 doet.
Waarom niet? De xbox2 komt voor de PS3 uit, dus dat geeft hen meer tijd. De PS3 chip is al door Sony ontworpen, moet dus niet meer van scratch door nvidia gemaakt worden.
Wetende dat de xbox2 chip de R500 zal zijn en wetende dat de R520 gelijk is aan de R500 maar dan voor pc, kunnen we waarschinlijk iets gelijkaardig verwachten van de nv chip. NV60 misschien?

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 22-05 15:47

Deathchant

Don't intend. Do!

Sm0k3r schreef op dinsdag 07 december 2004 @ 13:26:
[...]

Hartelijk bedankt gozer, nu alleen maar iemand met een GAINWARD strikken en kijken of hij standaard op 430/1200 draait, alsniet koop ik normale GAINWARD en flash ik hem met XFX bios
Uhm, Ik heb een Gainward GoldenSample. ALLE ultra's van gainward draaien op 400/1100. je moet zelf (met behulp van EXPERTool wat je meegeleverd krijgt) op 430/1200 clocken. Dit gaat makkelijk met 1 druk op de ENHANCED SETTINGS button in Expertool.

Je moet je afvragen waarom je voor ene bepaalde fabrikant kiest. Als je voor gainward kiest, kies je voor efficiente cooling (en dus meer lawaai) en hoge overclock mogelijkheden.
Kies je voor XFX, dan kies je voor een stabiel referencemodel wat al out-of-the-box geclockt is.

Je kunt je afvragen of het de moeite waard is om voor 600 euro een Gainward 6800Ultra GS te bestellen, terwijl de XFX al standaard ongeveer zo draait.
Zoals ik al zeg, tis een keuze op gebied van cooling, noise, overclock mogelijkheden, geheugen etc.

Waarom een gainward kaart kopen en dan een XFXbios erin flashen ? Koop dan meteen een XFX, die is ook veel goedkoper dan de gainward

[Voor 22% gewijzigd door Deathchant op 07-12-2004 14:06]

Canon: R6 | 16-35 | 70-200 II
Zeiss: 35/2 DISTAGON | 50/2 MP | 100/2 MP | 135/2 APO SONNAR


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 27-05 14:35
Anoniem: 93354 schreef op dinsdag 07 december 2004 @ 13:35:
[...]


Tenzij ze weer een deal hebben als ze met ms hadden, daar zijn ze niet echt beter van geworden. Wat ik me afvraag is hoelang nvidia hier al mee bezig is, als het van de laatste tijd is dan zullen ze vast niet optijd een hele niewe chip kunnen bouwen zoals ati wel voor de xbox2 en gc2 doet.
Er was niks mis met de xbox deal die was juist zeer winstgevend voor nvidia. Ze hadden een vaste winst per verkochte chip. MS ging spelen met de prijs van de xbox om de verkopen te stimuleren en wou daarmee ook de prijs per gpu omlaag. Nvidia maakte de chips en was het er niet mee eens. Het enige wat minder was aan de xbox deal is dat de verkoop niet gigantisch hoog is geweest ivm met de ps2.

Anoniem: 93354

Nvidia kreeg toch geen vast deel betaald? Ik had gelezen dat dat het verschil tussen ati/nvidia was, dat ati voor de xdoos2 wel een vast bedrag betaald kreeg.


Waarom niet? De xbox2 komt voor de PS3 uit, dus dat geeft hen meer tijd. De PS3 chip is al door Sony ontworpen, moet dus niet meer van scratch door nvidia gemaakt worden.

Waar hebben ze nvidia dan nog voor nodig als die chip al ontworpen is? Meer tijd valt ook wel tegen denk ik, ja ze hebben wel meer tijd maar in de tijd daartussen worden wel xbox2's verkocht en een groot deel van de mensen zal dan geen ps3 meer kopen.

  • adewidt
  • Registratie: November 2002
  • Laatst online: 23:10
Even intressant nieuws melden:

Playstation 3 to use Nvidia graphics

Blocks begin to pile up

By INQUIRER staff: dinsdag 07 december 2004, 10:03

THE GRAPHICS CHIP for the next generation of the Playstation will be based on some flavour of Nvidia technology.
Sony and Nvidia made the joint announcement today, but gave little details of what the graphics processor will do for the Playstation 3.

Nevertheless, the announcement is one in the nuts for Microsoft, as Nvidia has been livid over its previous collaboration with the chip software giant.

When is the Playstation 3 out? Apparently in limited quantities next year and in spates the year after. The graphics chip will be made by Sony at its Nagasaki Fab Two and at a joint venture fab owned by Tosh-Sony.

CEO Jen-Hsun Huang is over the moon with delight. He trilled: "We are thrilled to partner with Sony Computer Entertainment to build what will certainly be one of the most important computer entertainment and digital media platforms of the twenty-first century".

The deal between Sony and Nvidia doesn't just cover the Playstation, but other Sony consumer products under a royalty yielding agreement.

This, we'd venture to suggest is a little bit too thrilled as the 21st century is still pretty much of an infant... µ

Bron: http://www.theinq.net/?article=20078

Kan dit de reden voor het annuleren van de NV50 zijn?

[Voor 4% gewijzigd door adewidt op 07-12-2004 16:45]


  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 20-05 19:38

Sm0k3r

cough...cough...

Deathchant schreef op dinsdag 07 december 2004 @ 14:01:
[...]

Uhm, Ik heb een Gainward GoldenSample. ALLE ultra's van gainward draaien op 400/1100. je moet zelf (met behulp van EXPERTool wat je meegeleverd krijgt) op 430/1200 clocken. Dit gaat makkelijk met 1 druk op de ENHANCED SETTINGS button in Expertool.

Je moet je afvragen waarom je voor ene bepaalde fabrikant kiest. Als je voor gainward kiest, kies je voor efficiente cooling (en dus meer lawaai) en hoge overclock mogelijkheden.
Kies je voor XFX, dan kies je voor een stabiel referencemodel wat al out-of-the-box geclockt is.

Je kunt je afvragen of het de moeite waard is om voor 600 euro een Gainward 6800Ultra GS te bestellen, terwijl de XFX al standaard ongeveer zo draait.
Zoals ik al zeg, tis een keuze op gebied van cooling, noise, overclock mogelijkheden, geheugen etc.

Waarom een gainward kaart kopen en dan een XFXbios erin flashen ? Koop dan meteen een XFX, die is ook veel goedkoper dan de gainward
hehehehe bedankt alsnog voor de reply, hij is dus niet 430/1200 "out of the box", reden waarom gainward is omdat ik geen enkele XFX ultra kan vinden zowel NL als GE, gainward vanwege cooling, ik zou anders een XFX kopen incl. arctic silencer.
Crappy voorraad iedereen en ik heb een distri gebeld en zei 2005 januari eerste leveringen :/

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Anoniem: 79835

Nieuws? Lees effe hierboven ...

[Voor 11% gewijzigd door Anoniem: 79835 op 07-12-2004 17:17]


Anoniem: 79835

Anoniem: 93354 schreef op dinsdag 07 december 2004 @ 14:48:
Waar hebben ze nvidia dan nog voor nodig als die chip al ontworpen is? Meer tijd valt ook wel tegen denk ik, ja ze hebben wel meer tijd maar in de tijd daartussen worden wel xbox2's verkocht en een groot deel van de mensen zal dan geen ps3 meer kopen.
De chip is al ontworpen in de zin dat Sony de specificaties ervan heeft vastgelegd en dat nvidia de knowhow levert om deze te realiseren. Zoals in de inq staat gaat het om een breed samenwerkingsverband, dus misschien ook binnenkort nv chips in de Sony Ericsson mobiles?

  • adewidt
  • Registratie: November 2002
  • Laatst online: 23:10
Anoniem: 79835 schreef op dinsdag 07 december 2004 @ 17:07:
[...]


Nieuws? Lees effe hierboven ...
Oops |:( daarnet laden GOT heel langzaam dus was al aan toevoegen voordat alles was ingeladen.

Maar er stond nog meer in het artikel dat nog niet verteld was:
The deal between Sony and Nvidia doesn't just cover the Playstation, but other Sony consumer products under a royalty yielding agreement

En verder (hopelijk wel nieuw nieuws):
Forceware 70.90

[Voor 4% gewijzigd door adewidt op 07-12-2004 17:23]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Sm0k3r schreef op dinsdag 07 december 2004 @ 16:53:
[...]

hehehehe bedankt alsnog voor de reply, hij is dus niet 430/1200 "out of the box", reden waarom gainward is omdat ik geen enkele XFX ultra kan vinden zowel NL als GE, gainward vanwege cooling, ik zou anders een XFX kopen incl. arctic silencer.
Crappy voorraad iedereen en ik heb een distri gebeld en zei 2005 januari eerste leveringen :/
Ik heb een beetje moete met het volgen van je zin, maar als jij of iemand anders op zoek is naar een 6800U, bij Alternate zijn er volop.

Zo nou ff eindelijk nieuwe 70xx proberen.

[Voor 5% gewijzigd door edward2 op 07-12-2004 18:33]

Niet op voorraad.


  • KillerDream
  • Registratie: Februari 2002
  • Laatst online: 25-04 21:27
Zijn er ook 6800LE kaarten die een 2x DVI uitgang hebben? :?

Ik heb alleen nog maar 2x DVI kunnen vinden bij de andere versies van de 6800 reeks.

Anoniem: 114616

Anoniem: 79835 schreef op dinsdag 07 december 2004 @ 17:16:
[...]

De chip is al ontworpen in de zin dat Sony de specificaties ervan heeft vastgelegd en dat nvidia de knowhow levert om deze te realiseren. Zoals in de inq staat gaat het om een breed samenwerkingsverband, dus misschien ook binnenkort nv chips in de Sony Ericsson mobiles?
Kan best weleens gebeuren. Ik zou het niet erg vinden als er daalijk een goforce in een SE zit :P

  • Bezulba
  • Registratie: November 2000
  • Laatst online: 21:53

Bezulba

Formerly known as Eendje

kan het kloppen dat zo'n beetje alle 6800 enorm slecht verkrijgbaar zijn atm? ik vind werkelijk geen 1 winkel waar ze op voorraad liggen, maakt niet uit welk merk en/of type. :(

khad een xfx 6800GT besteld, maar het lijkt er nu op alsof ik nog wel eventjes kan wachten :(

[Voor 4% gewijzigd door Bezulba op 07-12-2004 23:30]

blup


Anoniem: 115092

Vreemd... Ik kon bij Paradigit in Eindhoven laatst zo een 6800 GT mee krijgen (een maand of anderhalf geleden).

  • epo
  • Registratie: November 2000
  • Laatst online: 00:37
eendje schreef op dinsdag 07 december 2004 @ 23:24:
kan het kloppen dat zo'n beetje alle 6800 enorm slecht verkrijgbaar zijn atm? ik vind werkelijk geen 1 winkel waar ze op voorraad liggen, maakt niet uit welk merk en/of type. :(

khad een xfx 6800GT besteld, maar het lijkt er nu op alsof ik nog wel eventjes kan wachten :(
Sorry, maar als je even de moeite had genomen om edward zijn berichtje te lezen.....
Alternate heeft Gt's van XFX, Gainward en Aopen op voorraad !!! Ook hebben ze Ultras op voorraad van Gainward en XFX dus.................. Genoeg keuze lijkt me zo :)

  • Bezulba
  • Registratie: November 2000
  • Laatst online: 21:53

Bezulba

Formerly known as Eendje

ah sorry, niet helemaal goed gelezen..

bij alternate kosten ze wel 449 ipv de 398 bij salland.

kweet niet of dat prijsverschil de wachttijd rechtvaardigt.. ik wacht nog wel eventjes :)

blup


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 79835 schreef op dinsdag 07 december 2004 @ 14:00:
[...]

Waarom niet? De xbox2 komt voor de PS3 uit, dus dat geeft hen meer tijd. De PS3 chip is al door Sony ontworpen, moet dus niet meer van scratch door nvidia gemaakt worden.
Wetende dat de xbox2 chip de R500 zal zijn en wetende dat de R520 gelijk is aan de R500 maar dan voor pc, kunnen we waarschinlijk iets gelijkaardig verwachten van de nv chip. NV60 misschien?
Nogmaals... R520 is niet gelijk aan de "R500 maar dan voor de PC". R600 is gelijk aan de R500, maar dan voor de pc.

Het is wel wonderbaarlijk dat Sony nu na twee consoles altijd zelf de graphicschips te hebben ontworpen, nu voor de derde console voor een hulplijn kiest. Ze nemen de specs van Xenon + R500 dus wel heel erg serieus lijkt me. Anders hadden ze het wel in eigen hand gehouden....

nV heeft nu overigens een gelijksoortige deal met Sony zoals ATi dat heeft met Nintendo en Microsoft, dus op basis van royalties en niet meer zoals ze dat hadden met Microsoft (wat enorm winstgevend was voor nV, maar niet voor MS).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 79835

Interessante vergelijking tussen Forceware 66.93 VS Forceware 70.90:
http://www.tcmagazine.inf...ews&file=article&sid=8715

70.90 zijn de drivers die je moet hebben dus.

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 20:10

Pubbert

random gestoord

Deathchant schreef op maandag 06 december 2004 @ 13:24:
ik zag trouwens een review over de Gainward 6800GT GS GLH (die met 1.6ns).
http://www.extreme64.com/...Graphics/gw6800gt/gwgt_05

En ik zag daar dit plaatje:
http://www.extreme64.com/...cs/gw6800gt/gwgt_3d05.jpg
..
Zover ik weet komt de score hier pas te staan als je op Close klikt :) Maar weet ik niet zeker.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 20-05 19:38

Sm0k3r

cough...cough...

edward2 schreef op dinsdag 07 december 2004 @ 18:07:
[...]


Ik heb een beetje moete met het volgen van je zin, maar als jij of iemand anders op zoek is naar een 6800U, bij Alternate zijn er volop.

Zo nou ff eindelijk nieuwe 70xx proberen.
Alternate is duur!!!!! (zodoende dat zij nog een XFX 6800 Ultra hebben, niemand betaald 600 euro voor een 500 euro kaart)
En het spijt me als mijn verhaal niet echt te volgen was, type dit heel snel tijdens mijn werk en zinopbouw heeft daar onder te lijden.

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:37
Anoniem: 79835 schreef op woensdag 08 december 2004 @ 02:05:
Interessante vergelijking tussen Forceware 66.93 VS Forceware 70.90:
http://www.tcmagazine.inf...ews&file=article&sid=8715

70.90 zijn de drivers die je moet hebben dus.
Nou ik ben nog niet overtuigd, die kerel weet niet eens dat 6xAA op een 6800 geen zin heeft. Verder wordt er niet ingegaan op de achtergronden van de 70 serie, en het belangrijkste.... stabiliteit wordt niks over gezegd (kan ook moeilijk, maar is voor mij wel belangrijk).

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Heeft iemand de beschikking over een 6800GT of Ultra AGP én een PCI-E uitvoering (Nv45) om
even een bepaalde test uit te voeren in Farcry met patch 1.3?

(zal moeilijk worden maar misschien iemand die in een pc zaak werkt ofzo O-) )

[Voor 8% gewijzigd door Anoniem: 38733 op 08-12-2004 13:38]


  • DrDeathhand
  • Registratie: Maart 2003
  • Laatst online: 00:37
Wooot!!!

Kheb nu eindelijk mijn nieuwe vidkaartje binnen, tis een gainward 2400GS GLH geworden.

Kheb hem nu geinstalleerd en hij draait als een zonnetje. Op 1 ding na. Tis heel weird te omschrijven maar misschien weet iemand hoe ik dat weg kan krijgen.

Ok als ik naar de letters op mijn scherm kijk, maakt niet uit wat het is, dan is het net als of ik van het einde van de letters de schaduw kan zien, en dan 3 dubbel, en das met alle letters en dingetjes eigenlijk wel zo op mijn scherm.

Heb dit eigenlijk nog nooit gehad. Hoe is dit op te lossen???

Even een voorbeeld over die schaduw dingen. Als ik bvb de contouren van deze box pak waar ik nu in zit te tikken, dan heb ik bij de lijnen gewoon helemaal links en rechts gewoon 3 dubbel daar de schaduw van.

GReetingss from DrDeathhand

Anoniem: 79835

En meer speculatie over de NV47 en de NV50 op Xbit.
While NVIDIA remains extremely tight-lipped over its future products, it is known that the company is readying its code-named NV47 visual processing unit, a massively revamped GeForce 6 architecture with 24 pixel pipelines. The NV47 is expected to be released sometime in Spring, 2005, but it is unknown whether NVIDIA is ahead, or behind ATI’s R520 product.

The status of NVIDIA’s future architecture code-named NV50 is also uncertain: some reported recently that the chip had been cancelled, but officials decline to confirm or deny the information.
Dus de NV47: 24 pipes en release begin volgend jaar
De NV50: nog niet officieel afgevoerd

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Anoniem: 79835 schreef op woensdag 08 december 2004 @ 16:42:
En meer speculatie over de NV47 en de NV50 op Xbit.


[...]


Dus de NV47: 24 pipes en release begin volgend jaar
De NV50: nog niet officieel afgevoerd
X-Bit Labs is wel een beetje laat hoor. Wij hadden in dit topic al een hele poos terug melding gemaakt van NV47 met 24 pipes (op 0,11u) met eventueel een refresh met 32 pipes (op 0.09u). :Y)

Ik had het zelfs al op 9 September vermeldt in het grote ATi topic :D
Overigens schijnt niet NV50 de tegenhanger te worden van R520, maar NV47... waarvan verwacht wordt dat het een 24 pipelines kaart is.
[rml]CJ in "[ Algemeen] ATi Nieuws & Discussie Topic ..."[/rml]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Movinghead
  • Registratie: November 2001
  • Laatst online: 19-05 10:48
Ik ben er zo goed als uit, ik ga mijn dual xeon systeem uitbreiden, met een Asus GeForce 6800 V9999 Ultra Deluxe :)

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
CJ schreef op woensdag 08 december 2004 @ 17:25:
[...]


X-Bit Labs is wel een beetje laat hoor. Wij hadden in dit topic al een hele poos terug melding gemaakt van NV47 met 24 pipes (op 0,11u) met eventueel een refresh met 32 pipes (op 0.09u). :Y)

Ik had het zelfs al op 9 September vermeldt in het grote ATi topic :D


[...]

[rml]CJ in "[ Algemeen] ATi Nieuws & Discussie Topic ..."[/rml]
Kan best zijn, qua features kan de NV40 de R520 wel aan, alleen wat pipes erbij & hogere clocks en nVidia heeft een waardige tegenhanger.

NV50 geschrapt, en tegen eind 2005 een GPU uitbrengen die DirectX Next ondersteunt (zoals R600 ?) lijkt me trouwens een heel goede keuze.

Ik had ooit eens gelezen dat m'n zou afstappen van het huidig architectuur (pipes x textures ofzo iets) maar dat wordt blijkbaar altijd maar opgeschoven, komt dat er ooit nog?

World War One


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:37
Hacku schreef op woensdag 08 december 2004 @ 20:27:
[...]


NV50 geschrapt, en tegen eind 2005 een GPU uitbrengen die DirectX Next ondersteunt (zoals R600 ?) lijkt me trouwens een heel goede keuze.
Mmm, zeg een half jaar na de nV47 alweer een nieuwe architectuur, vraag me af of dat economisch verantwoord is.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
NV47 is geen nieuw architectuur, dat is gewoon de NV40 met meer pipes & hogere clocks.

Het is zo, om het half jaar een nieuwe kaart, en om het jaar een nieuw architectuur.

[Voor 46% gewijzigd door XWB op 08-12-2004 21:12]

World War One


  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 05:37
quote: a massively revamped GeForce 6 architecture with 24 pixel pipelines

Lijkt mij dat dit meer werk was dan bijv van de 5900U naar de 5950. En verder is het meer zo van om de 9 maanden een refresh in de praktijk, en na 1.5 jaar nieuwe architectuur.

[Voor 8% gewijzigd door Sjah op 08-12-2004 21:20]


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hacku schreef op woensdag 08 december 2004 @ 20:27:
[...]


Kan best zijn, qua features kan de NV40 de R520 wel aan, alleen wat pipes erbij & hogere clocks en nVidia heeft een waardige tegenhanger.
Hier zou je misschien nog eens verbaasd van kunnen opkijken wanneer je merkt dat R520 toch meer verschilt van de R3x0/R4x0 serie dan de meeste mensen denken. En NV40 is in feite gewoon een copy van de R3x0 architectuur, maar dan met meer pipelines en SM3.0 ondersteuning. Van R520 werd er ook zoiets verwacht. Maar er is in de laatste paar jaren blijkbaar meer veranderd aan de architectuur dan we tot nu toe gedacht hebben... ;)
NV50 geschrapt, en tegen eind 2005 een GPU uitbrengen die DirectX Next ondersteunt (zoals R600 ?) lijkt me trouwens een heel goede keuze.

Ik had ooit eens gelezen dat m'n zou afstappen van het huidig architectuur (pipes x textures ofzo iets) maar dat wordt blijkbaar altijd maar opgeschoven, komt dat er ooit nog?
NV50 stond eerst gepland voor eind 2005 met levering in begin 2006. Eigenlijk was het dus zo dat in December NV48 uit zou komen. In het voorjaar NV47. En aan het eind van 2005 NV50. Maar als MS besluit om unified shaders verplicht te stellen dan liep nV dus achter de feiten aan met hun NV50 wanneer Longhorn in 2006 uit zou komen, terwijl ATi wel een unified architecture heeft waar ze al jaren aan werken. Ik ben benieuwd hoe snel nVidia een unified architecture uit de mouw kan schudden aangezien ze na de FX hebben aangegeven dat unified niet de weg was voor de toekomst, maar dat ze meer voor parallelisme zouden gaan (dus meer pipes). Ik denk echter niet dat deze er eind 2005 al is... maar misschien kan Sony ze een handje helpen?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pagina: 1 2 3 4 5 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee