![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
In dit topic gelden een aantal regels om het lekker knus en gezellig te houden met zijn allen, namelijk:
Veel lees- en discussieerplezier toegewenst! | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Informatie over de G70 core wordt vanaf dit topic niet meer bijgehouden. Informatie over deze core kan in de vorige delen terug gevonden worden, de laatst upgedate overzicht kan je vinden op: • [Algemeen] nVidia Nieuws & Discussie Topic - Deel 27 Voor meer gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics: • Het Geforce 7800 GT en GTX Topic Deel 1, 2, 3, 4, 5, 6, 7 • [Discussie] Het GeForce 7 Topic Deel 8, 9, 10, 11, 12, 13, 14 Achter deel 14 werd alle informatie bijgehouden door deze topic reeks Onbeschaamd wat reclame maken voor eigen topic moet kunnen he Andere Interessante Topics: • [OC] nVidia GeForce 7 Series - Deel 1, 2 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sinds dit topic wordt de informatie over de G80 core niet langer meer bijgehouden in de TS Voor gedetailleerde informatie over deze kaarten kan je het beste kijken op de specifieke deel topics: • [Discussie] nVidia 8xxx series Deel 1,2, 3, 4, 5, 6, 7, 8, 9 Voor een mooi overzicht kan je natuurlijk gewoon het beste gaan naar het vorige deel van dit topic • [Algemeen] nVidia Nieuws & Discussie Topic - Deel 34 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sinds eind oktober 2007 is ook de G92 core op de markt. Dit is een G80 core, maar dan met enkele optimalisaties en gebakken op 65 i.p.v. 80nm, wat resulteert in een lager stroomverbruik. Vanaf G92 core zijn er nog wat nog een extra technologieën gebruikt: "HybridPower™* technology offers exceptional graphics performance and power savings for everyday needs" en PCI-E 2.0 interface, wat een maximum transfer snelheid van 16GB/s oplevert <> PCI-E 1.0 die "slechts" 8GB/S als maximum heeft Sinds Begin maart is ook de volledige GT1xx line up bekend gemaakt. In tegenstelling zoals velen zouden durven te vermoeden zijn ook deze kaarten gewoon gebaseerd op de (oude)G92/94 GPU-kern en horen ze gewoon in deze generatie thuis in plaats van een volgende. Een opmerking moet wel gemaakt worden dat deze kaarten enkel voor OEM gebruik bedoeld zijn en deze dus niet in de losse handel verkrijgbaar zijn. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
De GeForce 200 reeks is de 10de generatie van NVIDIA's grafische kaarten. Deze serie blijft de unified shader architectuur die geintroduceerd werd met de GeForce 8 serie gebruiken. Ook nu is er geen DX 10.1 ondersteuning. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Interview met Nvidia’s Senior PR Manager of Consumer Products, Bryan Del Rizzo • Tech Reaction: PAX East: Interview with Nvidia’s Bryan Del Rizzo on the GTX400 series (Updated) Minder goed, maar te verwachten, nieuws van de chipset afdeling van nVidia: Echter heeft nVidia een bondgenoot gevonden in het FTC die dezelfde aanklachten heeft overgenomen. Waardoor nVidia als het ware het FTC de juridische strijd kan laten voeren.Het enige nadeel dat er is, zelf al wint het FTC/nVidia op al hun punten is de datum van het proces: Deze komt eigenlijk veel te laat. En voor een schadevergoeding zal nVidia wellicht een apart proces moeten beginnen (zoals AMD ook geen geld heeft ontvangen van Intel daar de boete integraal naar de EU-kas ging) Vorige nieuwsberichten kan je natuurlijk altijd vinden in het vorige topic ;) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Zal nVidia eindelijk zijn mid-end dx11 kaarten releasen deze zomer? • Tech Report:Cheaper DX11 GeForces could be out this summer Uitstel van de GF 104 van Q2 naar Q3? Meer informatie over deze goedkopere kaarten(alle GF104 varianten): • Nieuws: Specificaties van Nvidia's GF104-chip duiken op • Tech Report: Details about first GF100 derivatives leak out Zal nVidia op 20 september Fermi2 voorstellen? • Tech Report: Nvidia sets date for next GPU Technology Conference Waarheidsfactor: 35% nVidia stapt uit de pc-gaming sector De ontwikkeling van high-end GPU's wordt duurder en duurder en aan de andere kant minder lucratief daar goedkope varianten (de igps's) dus niet meer mogelijk zijn. Daar nVidia de enige grote speler is zonder x-86 licentie waar de andere twee speler Intel en het ([sarcasm]ooh zo open [/sarcasm]) AMD geen licenties meer verlenen voor nieuwe chipsets voor hun cpu's. Hierdoor wordt het gerucht sterker en sterker dat nVidia zich nog enkel zal richten op professionele hardware (dit krijgt nu al officieel de voorrang) en multimedia hardware zoals de Tegra. (zie het andere topic) Link naar een nl website, van een mede-tweaker die nog aan het TS hier heeft meegeholpen, die het verhaal stukken beter kan uitleggen dan ik: Notebookspot.nl: Nvidia verlegt focus van GPU naar CPU Voor Tegra worden de laatste tijd meer en meer potentiele markten aangeboord:
Waarheidsfactor:45% | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Reviews van de GeForce 9 reeks Deze kan u vinden in Deel 36 van dit topic Reviews GeForce G 210-240: Deze kan u vinden in Deeltje 41 van dit topic Reviews van de GeForce GTX 470 • Tweaktown • Tweaktown: GTX 470 Overklokken • Guru 3D • FiringSquad • Tom's Hardware • Hard OCP • Anandtech • HardwareCanucks • PC Perspective • Hexus.net Reviews van de GeForce GTX 480 • Tweakers zelf! • Hot HardWare • HardwareHeaven formerly driverHeaven • Legit Reviews: Met Folding Performance! • Hardware.info • Tom's Hardware • Hard OCP: Met GTX 480 SLI • Anandtech • PC Perspective • Legion Hardware • HardwareCanucks • Techspot • ExtremeTech • Hexus.net • Hexus.net GTX 480 SLI Vorige Topics:
GeForce 9 serie in de Pricewatch GeForce 200 serie in de Pricewatch GeForce Qaudro in de Pricewatch | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Startpost: Jejking & biobak & RappieRappie | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Officiële (WHQL) nVidia drivers voor GeForce 6, 7, 8, 9 en 200 serie EN ION Deze ondersteunen: SLI , PhysX acceleration, CUDA, Folding@home performantie client en een nieuw? stukje software van NVIDIA, NVIDIA System Tools software • Windows OS:
Momenteel(14oktober 2009) zijn er nieuwe beta drivers uit die recenter zijn dan de WHQL's maar die enkel bug fixes voor hardware Flash support en nieuwe SLI profielen bevatten. • Windows OS:
Register tweaks voor het enablen van het klassieke controle paneel enableoldNV_CP.reg ( 1.46K ) Voor de veranderingen ongedaan te maken: enablenewNV_CP.reg ( 1.46K ) enableoldNV_CP_Vista.reg ( 1.46K ) (vista 32bit, XP) Officiële nVidia drivers voor Mobile GPU's • Windows OS:Een goede site voor de allernieuwste drivers voor Mobile GPU's is www.laptopvideo2go.com (hier kan je ook de aangepaste infs halen indien je notebook niet officieel ondersteund wordt door nVidia) • Alternatieve OS: Momenteel zijn deze drivers dezelfde als voor de desktop applicaties) nVidia BETA drivers voor Mobile GPU's • Windows OS: | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Informatie over de G70 core wordt in dit topic niet meer bijgehouden, daar deze kaarten al een redelijke leeftijd hebben en alle nieuwe laptops nu een 8 of 9 reeks van mobiele kaart hebben. De nieuwswaarde van de 7 reeks of oudere mobiele kaarten is dus enorm laag in te schatten. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
In november 2006 introduceerde nVidia de G80, oftewel de GeForce 8800 GTX en 8800 GTS. De G80 is een geheel nieuw ontwerp in tegenstelling tot bijvoorbeeld de G70 die erg veel leek op diens voorganger: NV40. nVidia heeft ongeveer vier jaar gewerkt aan de G80 en het resultaat mag er zijn. De G80 is de eerste DirectX 10 GPU en heeft een unified shader architectuur. De belangrijkste features van de G80 zijn:
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
De GeForce 9M Serie werd gereased op 21 februarie 2008 eerst exclusief voor asus maar daarop volgend ook voor andere merken (oa medion laptop beschikken al een tijdje over grafische kaarten van deze nieuwe reeks) Alle GPU's in de Geforce 9M Serie beschikken over volgende eigenschappen:
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Begin 2009 werd er de nieuwe G100M reeks voorgesteld. Deze reeks startte met de low bugdet kaarten GeForce G105M totaan de GeForce GT120M en de GeForce GT130M. Enkel de GeForce GT 130M werd zeker geproduceerd op het 55nm proces. De andere Budgetkaartjes werden nog steeds geproduceerd op het vertrouwde 65nm fabricatie proces. Sowieso verbruiken die eigenlijk zo weinig dat een conversie naar 55 nm niet echt heel veel zou opgeleverd hebben toen. Alle toen (begin 2009) geïntroduceerde kaarten ondersteunden DDR2 en GDDR3. Let op deze kaarten zijn in essentie "rebrands" daar deze 3 kaarten gewoon gebruik maken van de G92core of een doorontwikkeling hiervan. Pas bij GT200 reeks hebben we (eindelijk) een echte nieuwe reeks. Deze kaarten heb ik na veel twijfelen (6 keer van gedachte veranderd) toch apart geplaats omdat ze toch als een nieuwe reeks gepromoot en genamed werden.
1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Deze reeks van mobiele kaarten werd gelanceerd op 3 maart 2009 met 2 gpu's die eigenlijk gebaseerd waren op de al reeds overbekende G92b cor. De "echte" G2xxM Mobiele GPU's werden echter pas op 15 Juni Geïntroduceerd dit zijn kaarten die zijn gebaseerd op de GT215 tot GT218 cores. Echter enkel de GTS kaarten (GT215 core) supporten GDDR5 (yeah nVidia kaarten met GDDR5 support bestonden al degelijk vanaf zomer 2009). Deze reeks van kaarten wordt voornamelijk gepromoot dat ze tot 50% zuiniger zijn da vorige generatie en volledig geoptimaliseerd zijn voor Windows 7 (DirectX 10.1 support).
1Unified Shaders (Vertex shader / Geometry shader / Pixel shader) : Texture mapping units : Render Output units
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Basically komt her opneer dat CUDA een programmeertaal is die ervoor zorgt dat de minder krachtige, maar vele shader processoren ter beschikking komen van de programmeur. Deze cpu's zijn veel minder krachtig dan een gewone desktop CPU maar maken dit ruimschoots goed door hun aantal. In feite is een gpu krachtiger dan een cpu maar het is veel moeilijker hiervoor te programmeren daar 1 bewerking veel langer zal duren, maar je verschillende bewerkingen tegelijkertijd kan doen. Je zal dus je programma code zo moeten schrijven dat zoveel mogelijk taken parallel kunnen worden uitgevoerd. CUDA is dus vooral voordelig voor parallelliseerbare taken die veel berekeningen eisen, we denken aan wetenschappelijk onderzoek of aan renderen van beelden. CUDA zal je helpen bij het programmeren door een high-level C-achtige taal ter beschikking te stellen waardoor de programmeur het een stuk eenvoudiger heeft om al deze kleine processortjes zo optimaal mogelijk te gebruiken. Meer uitleg kan je vinden op de volgende links:Enkele programma's waar CUDA al wordt in gebruikt:
Meer uitleg hierover kan je vinden op:
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Hybrid power SLI Wat heb je nodig? 1. een Hybrid power compatibel Moederbord. Let op een goed moederbord is heel moeilijk te vinden doordat je dus een recente chipset met een igp nodig hebt MAAR deze moet ook nog video uitgangen hebben op het moederbord zelf. Vele moederbord fabrikanten maken wel reclame dat het moederbord hybrid-sli compatibel is indien er geen video uitgang aanwezig is op het moederbord is deze techniek zo goed als nutteloos. Indien je meer dan 1 scherm wil aansluiten zal je zelfs moeten uitkijken naar moederborden die dus 2 video uitgangen hebben. Ikzelf ben bij de Asus M3N78 als enige mogelijkheid terecht gekomen die vindbaar is in nederland( niet gevonden in belgie). Héél recentelijk is er ook nog de mogelijkheid van M4N78 Pro erbij gekomen. Waarom deze moederborden ipv een paar anderen? Simpele deze zijn de enige moederborden die zowel een GeForce 8200 of GeForce 8300 als chipset hebben en meer dan 1 video uitgang hebben waardoor een je dual screen setup kan draaien. Dit lijkt misschien triviaal maar als je hybrid sli wil draaien moeten al je schermen op je moederbord worden aangesloten waardoor als je maar 1 video uitgang hebt je simpel weg beperkt bent tot 1 scherm. let op:
AGAIN heel goed opletten, bv een 9800GT kaart ondersteunt dit theoretisch, praktisch bijna niet doordat er vele oude 8800GT gerebrand zijn naar een 9800GT (de oude 8800GT's ondersteunen dit dus niet!) Ook de GTX265 en de GTX285 ondersteunen dit niet. DUs wil je hybrid gaan, checkt niet enkel de nvidia site of uw kaart compatibel is maar check dit in de gedetailleerde specificaties van uw specifieke grafische kaart (zelfs sommige fabrikanten zijn hier heel zuinig mee .. bv zeggen dat al hun 9800 kaarten dit ondersteunen maar in werkelijkheid een hele hoop revisies zijn die dit niet doen ..) 3. Praktisch gezien momenteel een AMD cpu doordat je geen enkele chipset hebt die hybrid power sli ondersteunt die een intel cpu aanvaard Hoe werkt het? Simpel weg de monitors aansluiten op uw moederbord gpu (vandaar dus de noodzaak dat uw igp videouitgangen ter beschikking moet hebben ...) | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
En dan in het bios kruipen om een paar settings aan te passen. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Daarna zal je manueel power saving of performantie optie hebben rechts onder in de task bar. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Om van mode te kunnen switchen mag geen enkel 3D programma open staan. Dus eerst van mode veranderen dan pas het spel opstarten | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Het taskbar icoontje zal veranderen adhv je mode zodoende kan je in 1 blik direct zien in welje mode je Grafische kaart zich bevindt. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
nVidia blijkft voorlopig Physx en cuda supporten ondanks harde concurrentie en het feit dat het gebruik van Physx in games nog steeds niet algemeen is. Dat Physx wel degelijk een positief effect kunnen hebben toont volgende grafiek mooi aan (UT3 map dat speciaal ontwikkeld is voor Physx ) ![]() of de volgende FP: nieuws: Meerdere Nvidia-kaarten ontlasten cpu aanzienlijk bij Physx-benchmarks Zie ook voor meer uitleg • Guru3D Review (augustus-2008) • Tweaktown • Firingsquad • Hot Hardware • AMD's Antwoord op PhysX Nieuwe Informatieve gegevens dankzij de release van de GTX275 kaart waarbij nVidia maar bleef hameren op de PhysX, CUDA en AO voordelen. • Anandtech Games: Sacred 2: • Tom's Hardware • AnandTech Warmonger: • AnandTech UT3 PhysX Mod Pack: • AnandTech Mirror's Edge: • AnandTech Batman Arkham:(finally a good game ? • Onze eigen Tweakers FP How To: Dedicated PhysX kaart Om een grafische kaart als dedicated PhysX kaart te gebruiken moet je hem enkel als een multi gpu installeren. Maw in een tweede pci-e slot steken en een recente driver gebruiken. Je hebt maar 1 (recente) driver nodig om dan beide kaarten te gebruiken in combinatie met elkaar. Je zal deze driver echter achter het plaatsten van je tweede grafische kaart opnieuw moeten installeren . Dit is nodig om je driver je tweede kaart te laten herkennen. Eenmaal de driver opnieuw geinstalleerd is, is er een optie in het driver menu om deze kaart dan te enkel te laten werken voor het PshyX werk.
![]() Let op dit is geen SLI maar een "simpele" multi-gpu installatie, zoals je vroeger deed om meer dan 2 schermen aan te sturen bv. Hierdoor kan je elke GeForce kaart van de 8, 9 en GT200 reeks gebruiken als dedicated PhysX kaart in combinatie met je zwaardere grafische kaart. Je bent dus niet beperkt tot 2 dezelfde grafische kaarten zoals bij SLI. Een tweede opmerking die moet gemaakt worden is dat je best toch niet een al te lichte kaart neemt. Om het grofweg te zeggen je steekt deze kaart bij om je pc te voorzien van extra shaders die dan het PhysX werk zullen doen, een 8400 met 16 trage shaders zal hierdoor te zwak uitvallen voor wat je wil bereiken( een 9400 wellicht ook, deze shaders zijn weliswaar sneller maar nog steeds beperkt tot 16). Je gaat juist deze 2de kaart installeren omdat je vindt dat de PshyX teveel shader power gebruikt van je main-kaart waardoor je fps teveel daalt. Aan de andere kant is het ook redelijk zinloos om een te zware kaart hiervoor in te zetten. Tot nu toe heeft men ervaren dat een 9600GT het meeste opbrengt. Een zwaarder kaart zal niet meer bijdragen tot je PhysX ervaring en enkel maar meer shaders hebben die niets zitten te doen (maar wel energie zitten te verslinden). Let wel! Tot nu toe, dit kan veranderen in de toekomst!! De algeme consensus is dus dat je het beste een 8600/9600 bijprikt wanneer je een kaart wil bijkopen, indien je bv een 8800 al liggen hebt is dit natuurlijk ook ideaal en mss beter naar de toekomst toe. *update 7 oktober 2009* Nog steeds is een 8600Gt kaart voldoende maar wel het minimum volgens nVidia zelf! Onder Windows XP zijn er hiervoor geen beperkingen maar Vista heeft deze wel: Dit kan je oplossen door: Met een beetje geluk heeft uw monitor zowel een dvi als een vga ingang Je zou zeggen, pff al die beperkingen onder Vista ik gebruik XP wel... denk eraan de driver support voor Vista is momenteel veel beter dan voor XP zowel qua performantie als qua hardwarre support voor deze nieuwe technieken. Een ander mooi voorbeeld hiervan is Hybrid sli, dit wordt ook enkel maar onder VIsta ondersteunt. Een andere reden om naar vista gaan is de Systeem Ram waar een aardig stukje zal van afgepitst worden door je high-end kaart(en) die je gebruikt in combinatie met je dedicated PhysX kaart waardoor je toch naar een 64-bit OS zal grijpen. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() Deze informatie is afgesplits van het nVidia Nieuws en Discussietopic en bevindt zich nu in het Mediaspelers en HTPC's subforum | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() |
TODO:
Mobiele laptop::Ik ben er eindelijk aan begonnen
nieuwe VP4 engine
GTX 470 en 480 release:
Korte Samenvatting
• (TE) DUUR• (TE) HEET
• (TE) LUID
ATI is beter in termen van Bang for Bucks
(Hoe men dit kan weten voordat zelf de eerste nVidia kaarten verkocht zijn en de prijzen gestabiliseerd? Mijn kristallen bol is blijkbaar van slechte (nVidia
Maar bon het te duur statement is vooral gebaseerd op de huidige prijzen van de ATI/AMD kaarten (die dus nog kunnen zakken éénmaal er meer kaarten op de markt komen, al zijn het enkel bijkomende nVidia kaarten..) en de richtprijzen van de nVidia partners (die zowel kunnen stijgen als dalen) Vooral de europese prijzen lijken momenteel in verhouding duurder dan de amerikaanse.. is dit een teken dat men hier minder kaarten gaat leveren?
Mensen die hiernaast (durven? of willen) kijken zien wel een paar positieve zaken.
• Namelijk GPGPU applicaties hebben een enorme performantie gain gekregen
Zelf ondanks de grote power drain van de GTX 480 is hij stukken efficiënter op vlak van energie consumptie/verwerkingskracht. Een goed voorbeeld hiervan is Folding@Home
(dit kan voor sommige mensen zoals ik ook intressant wezen, momenteel werkt voor een filter geschreven voor de geForce FX kaarten lopend op een 8200(10-tal Watt0 even snel of sneller dan een overclocked Quadcore(PhenomII geen i7
Beeld je in dat deze filters eindelijk gaan herschreven worden naar de huidige architectuur toe, of nog beter in CUDA zelf..
• Sli doet het blijbaar qua schaling en op een beperkte test nog steeds beter dan Crossfire Linkje naar Hard OCP of Hexus.net
• Redelijk veel overklok ruimte: Eénmaal het 40nm procédé eindelijk goed onder de knie zal zijn kunnen we ons verwachten aan stukken beter kaarten.
• hdmi audio is nu wel geïntigreerd zoals bij de GT210 kaarten (een punt minder om op te bashen want hoeveel mensen gaan daadwerkelijk een GTX470 gebruiken in een htpc?)
• DX11 performantie is goed, zowel syntethisch (wat hier als oneerlijk wordt weggeflamed) als in de huidige games
Hoe het in de toekomst zal verlopen moeten we nog afwachten, maar het is duidelijk dat de nVidia oplossing zeker niet gigantisch moet onderdoen.
Start Persoonlijke Rant
Moest ik deze feiten zelf aankaarten of in de TS zetten? Neen elke tweaker wordt namelijk geacht zelf effen een review of twee te lezen en ik heb nog geen enkele review gezien waar de eerste 3 rode opmerkingen niet worden gemaakt in de conclusie.Echter zeggen dat deze kaart rommel is/af te raden is, geld enkel als je er niets anders mee doet als gamen en je niet van plan bent PhysX of andere nVidia games constant te spelen. Plan je een GPU aan te schaffen voor meer dan enkel te gamen is hij mss toch nog wel de juiste keuze.
Al bij al volg ik dezelfde denkwijze die vaak als conclusies staan opgestomt bij de vele reviews bv:
Buiten het feit, extra dingen als CUDA intresseren mij dan weer wel (hun nieuwe Hardware coderende engine ook, maar deze is niet veel beter dan de voorgaande, en die hdmi audio gebruik ik toch niet XD)Of course all this power is then translated into massive heat output. As a result the GeForce GTX 480 is one of the hottest, if not the hottest, graphics card available in terms of operating temperatures. Amazingly the GeForce GTX 480 is able to make the latest and greatest dual-GPU graphics cards look rather tame.
The good news for Nvidia and their new GeForce GTX 480 graphics card is that it is still a very fast product, and as the drivers have time to mature it is likely to become even faster. For now I am going to reserve my opinion on whether or not the GeForce GTX 480 is a good buy, and wait for it to hit shelves to review the pricing. It will also be very interesting to see what upgrades Nvidia’s board partners can throw at the GeForce GTX 480 to help keep temperatures under control.
En de drivers, dunno wat ik er van moet denken, ze hebben 6 maanden gehad, aan de andere kant is er iets grondigs mis met het idlen van deze kaart (zou het kunnen dat men origineel plande om deze fermi's te bundelen met een hybrid power SLI setup?.. of wou gebruik maken van deze technologie intern in de kaart??)
Enige wat ik zie bij de patches is dat de rek er nog niet uit is, maar mogelijkerwijze is die er bij ATI er ook nog niet uit.
Zou ik zelf die kaarten aankopen, Hell No! Enkel al doordat ik nooit high end GPU's aankoop
Een discussie over value/money is leuk af en toe, en kan voor mijn part voor 20 blz lang doorgaan in een aankoop topic of een BBG (waar die discussies juist wel heel kort en krachtdadig worden beëindigd (het kan dus well..)
De andere kant, eens laten weten dat je de nieuwe kaarten super vind is leuk, nog leuker dat je die stelling ondersteunt maar opnieuw dat is meer iets voor een ervaringstopic dan hier..
Ik denk trouwens dat de topic start voor zoiets al jaren hiervoor héél duidelijk is..
Om het vertrouwde autovoorbeeld (een traditie op de Tweakers Front Page) te nemen:
Je kan het altijd azo bekijken, waarom blijft men porche wagens verkopen ook al is een gewone volkswagen veel zuiniger/confortabeler en kan je met alle twee toch maar even snel rijden (verkeerswetten) De porshe heeft wel grotere mogelijkheden (GPGPU) maar die kun je in normale
gevallen toch niet aanspreken...
Moet je die mensen dan afbreken omdat ze toch die Porshe gekocht hebben enkel voor de naam/standing? Ik denk persoonlijk van niet iedereen doet met zijn geld wat hij wil.
Laat je niet mee trekken in een discussie.. die zal je hier op tweakers toch niet winnen en het enige dat je bereikt is een vervuild topic, en een mod berichtje in je inbox.
Reacties daarop zijn ook niet echt nodig, ik heb (hopelijk) alle engelstalige reviews die ik kon vinden in de TS gezet, iedereen kan deze lezen en interpreteren, er staan zelf 2 goede nederlandstalige revieuws tussen, dus geen engels kunnen is geen excuus!
Wat natuurlijk wel kan is effen kritiek geven op deze reviews:
bijvoorbeeld mij steekt het tegen ik heb 20 reviews gezien en is er ene die eens niet de gebruikelijke shooters gebruikt? Nog een beetje en ik ken de fps per game per resolutie een beetje uit mijn hoofd
Nu ik heb een paar met World of Warcraft gezien en in mijn ogen zijn die voor een groot doelpubliek even belangrijk dan fps #11..
Wat wil ik met deze post bekomen???
Dat ik geen 50 keer dezelfde inhoud moet herlezen in hetzelfde topic, ja de kaart is te duur en ja de power consumptie is véél te hoog.
Verwijs gewoon éénmalig naar deze posts waar deze 3 belangrijke feiten mooi in het rood staan opgesomt.
Of nog beter, verwijs naar de reviews die elke tweaker voor hij over deze kaarten gaat posten toch wel gelezen zou moeten hebben
Indien men het hiermee niet eens is met mijn standpunten hierover en je liever dus een andere topic starter zou willen hebben zie ik al minstens twee opties:
- Iemand neemt dit topic over (zie ik wel zitten daar ik tegenwoordig veel te laat reageer voor nieuwe delen aan te maken, eventueel wil ik zelf helpen met het onderhouden van de TS)
Kandidaten mogen altijd een PM sturen of een post in dit topic plaatsen, en je mag mij later altijd aanspreken indien je eventueel advies/hulp nodig blijkt te hebben, dus zelf zonder kennis van TS maken lukt het wel hoor (Dit topic is ook het enige topic dat ik onderhoud .. en ik ben ook vanaf 0 begonnen.. je ziet het resultaat XD) - De mensen die willen blijven discussieren hoe slecht die kaarten wel niet zijn vanwege die drie rode discussie punten kunnen steeds een "[Algemeen] nVidia Suckt ATI Rulez op Bang for Bucks vlak" topic aanmaken
offtopic:
ik zou wel persoonlijk gaan voor een andere titel al is het maar voor een vroegtijdig slotje te voorkomen
Ik hoop dat ik hier niet teveel mensen op hun tenen trap, zeker daar dit niet "mijn" topic is maar een algemeen topic is waar ik eerder toevallig de TS heb kunnen overnemen heb (waarvoor dank voor het vertrouwen)
maar ik zie dit afzakken naar een probleen topic en dit is heus niet de eerste keer meer. Het zou spijtig zijn dat er enkel een ATI topic overblijft, maar als het azo verder gaat is dat misschien op lange termijn de enige levensvatbare oplossing.
Er zijn veel mensen die hun best doen en héél intressante discussies voeren en leuke nieuzsfeitjes en het zou jammer zijn dat dit verdwijnt.
[ Voor 98% gewijzigd door lightdestroyer op 30-03-2010 20:30 ]
Anoniem: 171689
Over de TS, ik vind het wel geinig dat er nog die hypothetische XFX GTX470 en 480 in staan, net nu bekend werd dat zij ze waarschijnlijk niet (of nog een lange tijd niet) gaan leveren.
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adaptor prijzen zijn.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???
Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat. Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.
Verder zijn die ATI kaarten al sinds de launch bijna niet te krijgen, en ik zie sommige mensen wanhopig elke keer roepen dat dit de volgende maand aantrekt. BS, tot nu toe kan je zo'n 58xx amper krijgen in NL.
Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
En nee, ik ben geen nVidia fan, ik gebruik al jaren ATI kaarten. Ik erger me alleen aan de communicatie betreffende deze merken. Het is alsof levens ervan afhangen, soort van Feyenoord - Ajax. JAMMER.
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adaptor prijzen zijn.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???
Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat. Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.
Verder zijn die ATI kaarten al sinds de launch bijna niet te krijgen, en ik zie sommige mensen wanhopig elke keer roepen dat dit de volgende maand aantrekt. BS, tot nu toe kan je zo'n 58xx amper krijgen in NL.
Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
En nee, ik ben geen nVidia fan, ik gebruik al jaren ATI kaarten. Ik erger me alleen aan de communicatie betreffende deze merken. Het is alsof levens ervan afhangen, soort van Feyenoord - Ajax. JAMMER.
[ Voor 16% gewijzigd door epo op 30-03-2010 18:26 ]
Dat is de mening van Lightdestroyer, niet het officiele statement van de TS......epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adapter prijzen zijn.
* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???
Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat. Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.
Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
De richtprijzen zijn wel bekend en die komen exact overeen met wat er hier al eerder is genoemd... en ga er maar van uit dat de prijzen wellicht nog iets hoger kunnen uitvallen, wanneer de eerste kaarten vanaf 12 april echt verkrijgbaar zijn. Want dat is de dag dat ze mondjesmaat binnen komen... dus wees er snel bij als je er eentje wil...
Verder zijn het allemaal feiten die er vermeldt worden, waar je niet onder uit kan. De feiten van te heet en te luid zijn feiten waar AMD enorm op werd afgeschoten door veel NVIDIA fans ten tijde van de R600/HD2900XT. Nu ziet NV zichzelf in hetzelfde schuitje, dus gelijke monnikken gelijke kappen....
De kaart is geen k*tkaart, maar een beetje 'too little, too late', behalve dan voor de diehard NV fans die liever geen rood in hun PC willen hebben.
Verder zijn het allemaal feiten die er vermeldt worden, waar je niet onder uit kan. De feiten van te heet en te luid zijn feiten waar AMD enorm op werd afgeschoten door veel NVIDIA fans ten tijde van de R600/HD2900XT. Nu ziet NV zichzelf in hetzelfde schuitje, dus gelijke monnikken gelijke kappen....
De kaart is geen k*tkaart, maar een beetje 'too little, too late', behalve dan voor de diehard NV fans die liever geen rood in hun PC willen hebben.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
We moeten eens een bokswedstrijd organiseren tussen ATI en nV aanhangers. Dan kunnen ze die opgekropte emoties en agressie der uit eens uitslaan.
Mooie uitgebreide TS lightdestroyer! (sowieso horen beide topic starts van beide grafische nieuwsdiscussietopics tot de top) ik vind het ook goed dat je je nog steeds zo neutraal mogelijk opsteld en ook de minpunten van de kaarten accepteerd.
pluimpje voor lightdestroyer
pluimpje voor lightdestroyer
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.lightdestroyer schreef op dinsdag 30 maart 2010 @ 16:33:GTX 470 en 480 release:
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.Unagi schreef op dinsdag 30 maart 2010 @ 18:38:
[...]
Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ik zeg ook niet dat ze niet waar zijn, maar om als TS je eerste post met die meningen in het rood te beginnen... Nee dat is toch echt een troll.Xenomorphh schreef op dinsdag 30 maart 2010 @ 18:41:
[...]
Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.
Er staat een fout in de TS over de Tesla variant van Fermi.
Waarschijnlijk kloppen er nog wel meer punten niet, maar de onderstaande drie kloppen zeker te weten niet.
Unified shaders: 496
Dat kunnen er 448, 480 of 512 zijn. 496 is geen optie want ze zijn uit te schakelen per blok van 32, niet per blok van 16.
ROP's: ??
ROP's op een Tesla is nonsens, ja ze zitten er op, nee ze worden niet gebruikt.
Memory Interface: 396 bit
Onmogelijk, GDDR5 geheugen gaat per 64 bits en het is dus 384 bit of 320 bit, 396 bit is geen optie.
Waarschijnlijk kloppen er nog wel meer punten niet, maar de onderstaande drie kloppen zeker te weten niet.
Unified shaders: 496
Dat kunnen er 448, 480 of 512 zijn. 496 is geen optie want ze zijn uit te schakelen per blok van 32, niet per blok van 16.
ROP's: ??
ROP's op een Tesla is nonsens, ja ze zitten er op, nee ze worden niet gebruikt.
Memory Interface: 396 bit
Onmogelijk, GDDR5 geheugen gaat per 64 bits en het is dus 384 bit of 320 bit, 396 bit is geen optie.
Core i5-3570K/ASRock Z75 Pro3/Gigabyte Radeon HD7850/Corsair XMS3 2x4GB/OCZ Vertex2 64GB/3x640GB WD Black/24" B2403WS Iiyama x2/Nec 7200S
Waarom trollenUnagi schreef op dinsdag 30 maart 2010 @ 18:38:
[...]
Ongeacht of je mening wel of niet klopt, je loopt hier wel heel hard te trollen in je eigen topic. Zonde, de rest van je post is prima genuanceerd.

Even ontopic dan:
Nu beide partijen hun DX11 kaarten hebben ben ik benieuwd hoe tessellation gebruikt zal worden in nieuwe games. Ik vind de manier waarop het gebruikt word in Stalker en Dirt 2 een beetje teleurstellend eigenlijk. Models extra smooth maken, beetje rimpels op een plasje water, mooier vlagje die hangt te wapperen... Daar merk je toch allemaal vrij weinig van tijdens het spelen? Je moet al afzonderlijke screenshots nemen en achterna vergelijken met elkaar om het een beetje te kunnen zien.
Persoonlijk vind ik dat ze tessellation beter zouden inzetten in bijvoorbeeld plaatsen waar men nu bump mapping/relief mapping (of hoe het ook mag heten) gebruikt. Zo dat stenen in een muur er ook echt uitzien als stenen etc. Models zien er over het algemeen al goed genoeg uit vind ik persoonlijk.

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Nogmaals dat zijn geen feiten, persoonlijke mening meer niet. Zie mijn post hierboven.Xenomorphh schreef op dinsdag 30 maart 2010 @ 18:41:
[...]
Het is hier dan ook geen "prijs Nvidia" topic. Hij noemt daar gewoon de feiten. T klink heel negatief dat is zo. Maar zeker niet onwaar.
Trollen is uitlokken. Niet iedereen is ingelezen inderdaad en niet iedereen leest alles, niet echt handig om er dan met die 3 punten als TS tussenuit te springen. Niet dat ik dat perse erg vind, maar volgens mij moet dat juist wat minder in dit topic?Hyperz schreef op dinsdag 30 maart 2010 @ 19:15:
[...]
Waarom trollenAls de nieuwe nV kaartjes een paar negatieve punten hebben mogen deze toch eerlijk vermeld worden? Niet iedereen die een kijkje komt nemen in dit draadje is op de hoogte van de voor- en nadelen van deze nieuwe kaarten. Dan is het wel leuk als eventuele minpunten vermeld worden. We zitten toch niet in China
? Ik zie echt niet in waarom sommige mensen zich hieraan storen...
Ik denk dat tesselation redelijk snel overal komt, er is met tesselation namelijk geen reden meer om low-poly content in het spel te stoppen (op financieel gewin ivm kosten na). En volgens mij worden de meeste spellen al tijden met veel hogere poly counts gemodelt.Even ontopic dan:
Nu beide partijen hun DX11 kaarten hebben ben ik benieuwd hoe tessellation gebruikt zal worden in nieuwe games. Ik vind de manier waarop het gebruikt word in Stalker en Dirt 2 een beetje teleurstellend eigenlijk. Models extra smooth maken, beetje rimpels op een plasje water, mooier vlagje die hangt te wapperen... Daar merk je toch allemaal vrij weinig van tijdens het spelen? Je moet al afzonderlijke screenshots nemen en achterna vergelijken met elkaar om het een beetje te kunnen zien.
Persoonlijk vind ik dat ze tessellation beter zouden inzetten in bijvoorbeeld plaatsen waar men nu bump mapping/relief mapping (of hoe het ook mag heten) gebruikt. Zo dat stenen in een muur er ook echt uitzien als stenen etc. Models zien er over het algemeen al goed genoeg uit vind ik persoonlijk.
Oh.. I know who's going to win that!madmaxnl schreef op dinsdag 30 maart 2010 @ 18:03:
We moeten eens een bokswedstrijd organiseren tussen ATI en nV aanhangers. Dan kunnen ze die opgekropte emoties en agressie der uit eens uitslaan.
tevens
lightdestroyer 1
blinde fanboys 0
Ook moet er nog gekeken worden of de GTX480 wel op 48 ROPS draait. mensen die de kaart wat langer in hun bezit hebben krijgen hele rare waardes uit hun tests, wat eerder duid op 32 ROPS dan op 48, of 48 ROPS op een lagere frequentie dan de huidige clock.
Reviewers schijnen hun kaarten al vrij snel weer ingeleverd te moeten hebben zodat echt diepteonderzoek naar deze gegevens (of andere NDA info) nog niet boven water (mag) komt
[ Voor 42% gewijzigd door neliz op 30-03-2010 19:43 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ja, leuk, dan zijn de prijzen van 500,- voor een HD5970 ook te hoog, want dat was ook de early adaptor prijs. Hee, blijkt dus niet altijd te gelden. Voor producten die schaars zijn, d.w.z. slecht leverbaar, gaan de prijzen omhoog. Je wilt beweren dat je zeker weet dat fermi zeer spoedig goed leverbaar is? Zo nee, geef eens een andere (onderbouwde) reden waarom je zo zeker bent dat de prijzen zakken. Met de prijzen zoals ze er nu voor staan kan ik niet anders zeggen dat voor de meeste gamers minder bang-for-buck hebben dan ATI inderdaad.epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
======================
Sowieso allemaal BS, ten eerste zijn de exacte prijzen nog niet bekend. De prijzen die je nu ziet
zijn hoog omdat dit de early adaptor prijzen zijn.
Te heet: dat je een stuk meer verbruikt en dat je dus geen garantie hebt of de kaart wel net zo lang meegaat als je zou verwachten (NVidia heeft de garantie voor deze kaarten ingekort! Iets wat ik weinig tegenkom maar wat mij betreft zeer zwaar weegt, of blijkt dit toch niet te kloppen?). Te luid, dat je per se een aftermarketcooler nodig hebt om een stil systeem te hebben.* Te heet, definieer TE HEET? Bedoel je als de kaart in het systeem zit, je systeem dan smelt????
* Te luid? Heb je alle varianten getest? Alle kaarten zijn dus luid???
Oh, ja daar mag je wel op rekenen. ATI heeft ook mooie mislukkingen voortgebracht en dat is duidelijk vermeld in de nieuwsdiscussie-topics ja.Grappig dat dat in een starttopic staat. Ik ben benieuwd als nVidia het licht ziet en een betere kaart dan ATI produceert dit dan ook zo in het ATI topic staat.
Hmm, zoals de prijzen nu staan staat fermi er gemiddeld significant slechter voor dan de radeons qua prijs/prestatie en qua verbruik/prestatie. Dat mag toch wel gezegd worden of niet. Ik wordt ook moe van elke vorm van ongefundeerde meningen. Dat je fermi verdedigd heb ik helemaal geen moeite mee, voor sommige specifieke taken is de kaart natuurlijk ook beter en voor CUDA o.i.d. heb je toch echt een fermi nodig, maar voor de meeste gamers (waar geforce duidelijk op gericht is, heeft NVidia laatst nog duidelijk bevestigd) presteert de kaart gewoon minder.Ik begin echt heel moe te worden van al dat ATI gepromoot en nVidia getrap. JA HET IS DUIDELIJK DAT DE KAART TE LAAT IS, maar dat maakt het nog geen K*kaart.
Vandaar dat hij gewoon op voorraad is bij veel webshops, en ik zie fermi wel overal op voorraad zijn ja.Verder zijn die ATI kaarten al sinds de launch bijna niet te krijgen, en ik zie sommige mensen wanhopig elke keer roepen dat dit de volgende maand aantrekt. BS, tot nu toe kan je zo'n 58xx amper krijgen in NL.
Je wilt zeggen dat er in een Nvidia-topic geen kritiek op NVidia mag zijn als het even wat minder gaat? Dan kan ik je doorverwijzen naar guru3D of fudzilla. Ja, ik geef je wel gelijk dat GoT redelijk ATI-minded is op dit moment, zolang ik op GoT zit doet ATI het echter ook prima dus of het gewoon andersom is geweest in de HD2xxx-tijd kan ik niet zeggen. Maar ook nu worden onderbouwde reacties echt niet aan de kant geblazen met gebash. Dus ik zou zeggen: kom met een goede onderbouwde reactie, waar ga jij fermi voor gebruiken?Wat mij betreft houden we alleen een ATI topic over, gezien dit topic alleen gebruikt wordt om te laten zien hoe goed ATI wel niet is. Jammer om tweakers zo te zien afzakken naar niet objectieve site. ATI en AMD is
wat gepromoot wordt, heel jammer.
Je hoeft toch geen Ajax-fan te zijn om te zeggen dat Ajax het op dit moment prima doet? En dat een andere club het dramatisch doet? Ik kan mijn mening gewoon duidelijk onderbouwen hoor, dan is het al geen bashen.En nee, ik ben geen nVidia fan, ik gebruik al jaren ATI kaarten. Ik erger me alleen aan de communicatie betreffende deze merken. Het is alsof levens ervan afhangen, soort van Feyenoord - Ajax. JAMMER.
[ Voor 4% gewijzigd door bwerg op 30-03-2010 19:55 ]
Heeft geen speciale krachten en is daar erg boos over.
Als je er nu van zou maken "duur", "heet", "luid", zonder de "TE" woordjes erbij, dan ben je objectief. GTX470/480 zijn relatief duur, relatief luidruchtig en ook vrij heet. De afweging of dat dan teveel van het goede is, kan je dan aan de lezers overlaten. "TE" is namelijk subjectief.lightdestroyer schreef op dinsdag 30 maart 2010 @ 16:33:GTX 470 en 480 release:
• TE DUUR
• TE HEET
• TE LUID
Heb je de rest van de post wel gelezen? Ik vind het juist een dapper statement om zo de rode brigade het gras voor de voeten weg te maaien.epo schreef op dinsdag 30 maart 2010 @ 17:56:
Hahahaha wat een BS :
=====================
Korte Samenvatting
• TE DUUR
• TE HEET
• TE LUID
ATI is beter in termen van Bang for Bucks
======================
Ik (tegenwoordig bezitter van 5870 en 4870) ben het eigenlijk helemaal eens met de rest van de post. NVidia biedt wat mij betreft nu echt een alternatief voor de 5800 series. De kaart is - soms beduidend - sneller dan de 5800. Niet genoeg reden voor mij om naar de winkel te gaan rennen om een 480 te halen, maar ook zeker geen reden om Nvidia helemaal de grond in te boren.
Keep up the good work!
Idd. Bovendien is hij bij de feiten gebleven en heeft de nodige terechte nuanceringen aangebracht.Darkasantion schreef op dinsdag 30 maart 2010 @ 17:58:
[...]
Dat is de mening van Lightdestroyer, niet het officiele statement van de TS......
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Juist, het topic gaat zo'n beetje alleen over wat er goed of fout is aan de mening van lightdestroyer, dat is vast zijn bedoeling van dit topic!
Anyway, nu de Fermi storm redelijk voorbij is beginnen in het Ati topic weer berichten te komen over echt wat nieuws.
Weet iemand hoe het zit met de opvolger van Fermi? Heeft deze ontwikkeling ook veel vertraging opgelopen of heeft de ontwikkeling gewoon parallel doorgelopen en komt deze wel op tijd?
Anyway, nu de Fermi storm redelijk voorbij is beginnen in het Ati topic weer berichten te komen over echt wat nieuws.
Weet iemand hoe het zit met de opvolger van Fermi? Heeft deze ontwikkeling ook veel vertraging opgelopen of heeft de ontwikkeling gewoon parallel doorgelopen en komt deze wel op tijd?
Op welke review staat jij je eigenlijk dood? Er zijn genoeg spellen waar een enorm performance verschil zit tussen Fermi en de niet leverbare ATI kaart.bwerg schreef op dinsdag 30 maart 2010 @ 19:53:
[...]
Ja, leuk, dan zijn de prijzen van 500,- voor een HD5970 ook te hoog, want dat was ook de early adaptor prijs. Hee, blijkt dus niet altijd te gelden. Voor producten die schaars zijn, d.w.z. slecht leverbaar, gaan de prijzen omhoog. Je wilt beweren dat je zeker weet dat fermi zeer spoedig goed leverbaar is? Zo nee, geef eens een andere (onderbouwde) reden waarom je zo zeker bent dat de prijzen zakken. Met de prijzen zoals ze er nu voor staan kan ik niet anders zeggen dat voor de meeste gamers minder bang-for-buck hebben dan ATI inderdaad.
[...]
Te heet: dat je een stuk meer verbruikt en dat je dus geen garantie hebt of de kaart wel net zo lang meegaat als je zou verwachten (NVidia heeft de garantie voor deze kaarten ingekort! Iets wat ik weinig tegenkom maar wat mij betreft zeer zwaar weegt, of blijkt dit toch niet te kloppen?). Te luid, dat je per se een aftermarketcooler nodig hebt om een stil systeem te hebben.
[...]
Oh, ja daar mag je wel op rekenen. ATI heeft ook mooie mislukkingen voortgebracht en dat is duidelijk vermeld in de nieuwsdiscussie-topics ja.
[...]
Hmm, zoals de prijzen nu staan staat fermi er gemiddeld significant slechter voor dan de radeons qua prijs/prestatie en qua verbruik/prestatie. Dat mag toch wel gezegd worden of niet. Ik wordt ook moe van elke vorm van ongefundeerde meningen. Dat je fermi verdedigd heb ik helemaal geen moeite mee, voor sommige specifieke taken is de kaart natuurlijk ook beter en voor CUDA o.i.d. heb je toch echt een fermi nodig, maar voor de meeste gamers (waar geforce duidelijk op gericht is, heeft NVidia laatst nog duidelijk bevestigd) presteert de kaart gewoon minder.
[...]
Vandaar dat hij gewoon op voorraad is bij veel webshops, en ik zie fermi wel overal op voorraad zijn ja.
[...]
Je wilt zeggen dat er in een Nvidia-topic geen kritiek op NVidia mag zijn als het even wat minder gaat? Dan kan ik je doorverwijzen naar guru3D of fudzilla. Ja, ik geef je wel gelijk dat GoT redelijk ATI-minded is op dit moment, zolang ik op GoT zit doet ATI het echter ook prima dus of het gewoon andersom is geweest in de HD2xxx-tijd kan ik niet zeggen. Maar ook nu worden onderbouwde reacties echt niet aan de kant geblazen met gebash. Dus ik zou zeggen: kom met een goede onderbouwde reactie, waar ga jij fermi voor gebruiken?
[...]
Je hoeft toch geen Ajax-fan te zijn om te zeggen dat Ajax het op dit moment prima doet? En dat een andere club het dramatisch doet? Ik kan mijn mening gewoon duidelijk onderbouwen hoor, dan is het al geen bashen.
Het begrip "Te duur" Ja dat is BS, wie bepaalt dat, jij? ATI idiots?
Het begrip "Te heet" Alsof de kaarten jaren moet meegaan, get real. De kaart gaat zeker wat jaartjes mee, degene die hem nu kopen kopen hem omdat het verreweg de snelste single GPU is te krijgen. En verkopen hem vervolgens als de volgende uitkomt.
Ik ga geen Fermi kopen, ik probeer een 5850 te krijgen, maar ja niet leverbaar he.
Mijn reacties zijn eigenlijk ook bs, waarom reageer ik uberhaupt op reacties van een stomme videokaart LOL

Bon,
Blijkbaar lezen verschillende mensen niet héél mijn topic, ik denk dat héél die post nogal férm pro-nVidia was.. maar bon kheb nu een beetje met de kleuren gespeeld in de hoop het duidelijker wordt en bij elke TE haakjes rond geplaats.
Waarom TE? Niet omdat ik ze té duur vind maar omdat die kaarten té duur zijn in vergelijking met hun concurrenten en dit volgens alle reviews waarvan ik de conclusies gelezen heb. En geloof me dat zijn er veel
Een kaart kan duur zijn maar toch een goede koop zijn. Bijv 500 euro kosten maar wel 2 keer zo snel zijn als een 5870 ... dan is hij duur maar zeker niet té duur.
Omgekeerd, nu is de kaart eigenlijk niet duur als je vergelijkt met vroegere high end kaarten, De HD5970 is zelfs duurder, maar is hij volgens reviewers en de meeste posters té duur in vergelijking met wat hij levert.
Ik zou je tevens aanraden volledig mijn post te lezen, dan zal je zien dat ik persoonlijk die kaarten helemaal niet te duur vind. (Te warm mss wel, maar das omdat ikzelf niet goed tegen warmte kan XD)
Sowieso hoop ik toch dat er binnenkort een enorme big bang driver uitkomt die ervoor zorgt dat die TE's allemaal verleden tijd zijn (ik zal dan ook de eerste zijn die TE's te doorstrepen
)
-> Btw ik dacht dat mijn kristallen bol stukje erronder duidelijk liet uitschijnen wat ik dacht van die drie bovenstaande puntjes, niet dus
Nu communicatie is nooit mijn sterkste kant geweest vrees ik
-> De anti-ATI sfeer hier in dit forum merk ik op en juist daarom heb ik die post geschreven om al die negatieve dingen éénmaal op te sommen en daarna verder te doen met het topic... ik vrees echter dat het het omgekeerde effect gehad heeft
-> Ben ik een ATI fanboy, neen ... ik denk dat da wel redelijk duidelijk is dat ik nogal redelijk veel nVidia minded ben. Echter niet op vlak van gaming maar eerder op vlak van (anime)video decodatie
(Eén van mijn dromen is dat ik bij mijn anime encoderen weer ga gebruik kunnen maken van GeForce geoptimaliseerde filters .. maar momenteel blijft dat nog bij dromen
)
Ik heb van beide partijen de GPU's onder handen gehad maar momenteel werk ik nu met een Quadro, een 8600M Mobile GPU(ja jaa hij is nog steeds werkend!, hoewel ik even graag een Mobile radeo wou, maar die waren er niet met een digitale uitgang in dezelfde prijsklasse.. en achteraf gezien ben ik daar ferm gelukkig mee) en Hybrid SLI opstelling van een 8200 + 9800GT (lopende op 9800GTX+ speeds indien ik game, en anders ligt die kaart toch volledig stil..)
Anyway ik stel voor dat iedereen die nog een mening heeft op mijn post dat persoonlijk doorstuurt naar mijzelf( liefst wel na hem volledig gelezen te hebben...) zodat we dit nu kun afronden en weer on topic kunnen gaan. Kijk weer een nieuw deel en we zitten weer 20 posts verder nochtans heb ik toch nadrukkelijk het "Discussie" gedeelte voorlopig uit de titel gehaalt.
Ik zou hier graag (positief als het kan) nieuws van nVidia zien passeren, niet het eeuwige discussier van het vorige gedeelte ... welke ik blijkbaar aangewakkerd heb ipv geblust
Blijkbaar lezen verschillende mensen niet héél mijn topic, ik denk dat héél die post nogal férm pro-nVidia was.. maar bon kheb nu een beetje met de kleuren gespeeld in de hoop het duidelijker wordt en bij elke TE haakjes rond geplaats.
Waarom TE? Niet omdat ik ze té duur vind maar omdat die kaarten té duur zijn in vergelijking met hun concurrenten en dit volgens alle reviews waarvan ik de conclusies gelezen heb. En geloof me dat zijn er veel
Een kaart kan duur zijn maar toch een goede koop zijn. Bijv 500 euro kosten maar wel 2 keer zo snel zijn als een 5870 ... dan is hij duur maar zeker niet té duur.
Omgekeerd, nu is de kaart eigenlijk niet duur als je vergelijkt met vroegere high end kaarten, De HD5970 is zelfs duurder, maar is hij volgens reviewers en de meeste posters té duur in vergelijking met wat hij levert.
Ik zou je tevens aanraden volledig mijn post te lezen, dan zal je zien dat ik persoonlijk die kaarten helemaal niet te duur vind. (Te warm mss wel, maar das omdat ikzelf niet goed tegen warmte kan XD)
Sowieso hoop ik toch dat er binnenkort een enorme big bang driver uitkomt die ervoor zorgt dat die TE's allemaal verleden tijd zijn (ik zal dan ook de eerste zijn die TE's te doorstrepen
-> Btw ik dacht dat mijn kristallen bol stukje erronder duidelijk liet uitschijnen wat ik dacht van die drie bovenstaande puntjes, niet dus
Nu communicatie is nooit mijn sterkste kant geweest vrees ik
-> De anti-ATI sfeer hier in dit forum merk ik op en juist daarom heb ik die post geschreven om al die negatieve dingen éénmaal op te sommen en daarna verder te doen met het topic... ik vrees echter dat het het omgekeerde effect gehad heeft
-> Ben ik een ATI fanboy, neen ... ik denk dat da wel redelijk duidelijk is dat ik nogal redelijk veel nVidia minded ben. Echter niet op vlak van gaming maar eerder op vlak van (anime)video decodatie
(Eén van mijn dromen is dat ik bij mijn anime encoderen weer ga gebruik kunnen maken van GeForce geoptimaliseerde filters .. maar momenteel blijft dat nog bij dromen
Ik heb van beide partijen de GPU's onder handen gehad maar momenteel werk ik nu met een Quadro, een 8600M Mobile GPU(ja jaa hij is nog steeds werkend!, hoewel ik even graag een Mobile radeo wou, maar die waren er niet met een digitale uitgang in dezelfde prijsklasse.. en achteraf gezien ben ik daar ferm gelukkig mee) en Hybrid SLI opstelling van een 8200 + 9800GT (lopende op 9800GTX+ speeds indien ik game, en anders ligt die kaart toch volledig stil..)
Anyway ik stel voor dat iedereen die nog een mening heeft op mijn post dat persoonlijk doorstuurt naar mijzelf( liefst wel na hem volledig gelezen te hebben...) zodat we dit nu kun afronden en weer on topic kunnen gaan. Kijk weer een nieuw deel en we zitten weer 20 posts verder nochtans heb ik toch nadrukkelijk het "Discussie" gedeelte voorlopig uit de titel gehaalt.
Ik zou hier graag (positief als het kan) nieuws van nVidia zien passeren, niet het eeuwige discussier van het vorige gedeelte ... welke ik blijkbaar aangewakkerd heb ipv geblust
On topic (Eindelijk)primusz schreef op dinsdag 30 maart 2010 @ 20:24:
Juist, het topic gaat zo'n beetje alleen over wat er goed of fout is aan de mening van lightdestroyer, dat is vast zijn bedoeling van dit topic!
Anyway, nu de Fermi storm redelijk voorbij is beginnen in het Ati topic weer berichten te komen over echt wat nieuws.
Weet iemand hoe het zit met de opvolger van Fermi? Heeft deze ontwikkeling ook veel vertraging opgelopen of heeft de ontwikkeling gewoon parallel doorgelopen en komt deze wel op tijd?
CJ heeft al één en ander laten vallen hierover. Het is duidelijk dat nVidia zo snel als mogelijk naar Fermi2 wil gaan. Dit liefst nog tegen het einde van dit jaar, zo ongeveer dezelfde periode als de release van de HD6xxx
Dit is zeker doenbaar daar ontwikkeling van Series van GPU's parallel gebeurd, maw door een andere groep van ontwikkelaars. Dit heeft als grote voordeel dat de vertraging die Fermi opliep totaal geen effect heeft op zijn opvolgers. En daar Fermi er 6 maanden later is dan gehoopt zal de opvolger er veel sneller komen dan dat de meeste verwachten.
Maken ze hier veel ruchtbaarheid aan, neen éérst je huidige GPU's verkopen.
Tot nu toe ziet het er blijkbaar goed uit voor Fermi2, maar dat haal ik enkel uit de positieve berichten van CJ.
Ik denk zelf dat deze slag al lang voorbij is, het zal pas met de refreshes echt interessant worden. De architectuur werkt duidelijk wel; zelfs met de uitgeschakelde ROPs en lage clocks houdt ie de huidige ATI tegenhangers bij. Als de refresh de huidige problemen dus opgelost krijgt zal deze denk ik ineens beter presteren dan de meesten verwachten na het zien van het huidige product.
Aan de andere kant denk ik dat ATI ook al weer flink wat tijd heeft gehad om te sleutelen, en ik denk dat we het er allemaal wel over eens zijn dat ze de spijker de laatste tijd netjes op de kop slaan. Ik heb enkele jaren geen ATI gehad (lees 4.5, laatste was 9700 NP), en ben erg aangenaam verrast over hoe ATI het nu doet. Geen enkel probleem gehad met m'n 5870 *klopt af*.
Met een beetje geluk krijgen we rond het eind van het jaar voor het eerst sinds lange tijd een echte nek-aan-nek race! Ik hoop van wel in ieder geval
Bring on the refreshes!
Aan de andere kant denk ik dat ATI ook al weer flink wat tijd heeft gehad om te sleutelen, en ik denk dat we het er allemaal wel over eens zijn dat ze de spijker de laatste tijd netjes op de kop slaan. Ik heb enkele jaren geen ATI gehad (lees 4.5, laatste was 9700 NP), en ben erg aangenaam verrast over hoe ATI het nu doet. Geen enkel probleem gehad met m'n 5870 *klopt af*.
Met een beetje geluk krijgen we rond het eind van het jaar voor het eerst sinds lange tijd een echte nek-aan-nek race! Ik hoop van wel in ieder geval
Bring on the refreshes!
Op welke review staat jij je eigenlijk dood want ik zie een HD5970 nergens verliezen van de ook nog niet leverbare fermi.epo schreef op dinsdag 30 maart 2010 @ 20:40:
[...]
Op welke review staat jij je eigenlijk dood? Er zijn genoeg spellen waar een enorm performance verschil zit tussen Fermi en de niet leverbare ATI kaart.
En meneer epo klaagt over flamen. Chapeau. Ik zeg dat fermi in verreweg de meeste games een veel mindere bang-for-buck heeft dan de radeons, dat je negatieve reacties op fermi nuanceert vind ik prima maar ga dat alsjeblieft niet ontkennen.Het begrip "Te duur" Ja dat is BS, wie bepaalt dat, jij? ATI idiots?
Mja, meer dan één jaar mag wel ja.Het begrip "Te heet" Alsof de kaarten jaren moet meegaan, get real.
En dat weet je uit ervaring of zo?De kaart gaat zeker wat jaartjes mee
Ah, en fermi heb je wel morgen in huis... Je zou eens moeten proberen niet de goedkoopste te nemen want een HD5850 is prima leverbaar als je even zoekt.degene die hem nu kopen kopen hem omdat het verreweg de snelste single GPU is te krijgen. En verkopen hem vervolgens als de volgende uitkomt.
Ik ga geen Fermi kopen, ik probeer een 5850 te krijgen, maar ja niet leverbaar he.
[ Voor 9% gewijzigd door bwerg op 30-03-2010 21:51 ]
Heeft geen speciale krachten en is daar erg boos over.
En nu graag iets on topic aub...bwerg schreef op dinsdag 30 maart 2010 @ 21:39:
[...]
Op welke review staat jij je eigenlijk dood want ik zie een HD5970 nergens verliezen van de ook nog niet leverbare fermi.
[...]
En jij klaagt over flamen. Chapeau. Ik zeg dat fermi in verreweg de meeste games een veel mindere bang-for-buck heeft dan de radeons, dat je negatieve reacties op fermi nuanceert vind ik prima maar ga dat alsjeblieft niet ontkennen.
[...]
Mja, meer dan één jaar mag wel ja.
[...]
En dat weet je uit ervaring of zo?Je bent early adopter van een pre-A0-fermi?
[...]
Ah, en fermi heb je wel morgen in huis... Je zou eens moeten proberen niet de goedkoopste te nemen want een HD5850 is prima leverbaar als je even zoekt.
Ik als neutrale lezer wordt hier een beetje moe van.....
Ik ook maar als iemand me uit gaat maken voor idioot en onzin gaat beweren dan volgt een discussie.Humma Kavula schreef op dinsdag 30 maart 2010 @ 21:47:
Ik als neutrale lezer wordt ik hier een beetje moe van.....
Heeft geen speciale krachten en is daar erg boos over.
Dat snap ik heel goed maar dit is een nieuws topic, DM hem maar als je in discussie wil gaan!bwerg schreef op dinsdag 30 maart 2010 @ 21:52:
[...]
Ik ook maar als iemand me uit gaat maken voor idioot en onzin gaat beweren dan volgt een discussie.
Liever nietWerelds schreef op dinsdag 30 maart 2010 @ 21:28:
Met een beetje geluk krijgen we rond het eind van het jaar voor het eerst sinds lange tijd een echte nek-aan-nek race! Ik hoop van wel in ieder geval
Bring on the refreshes!
Dan kun je een hele dure kaart kopen welke in principe het beste is, maar ook voor een leukere prijs een kaart die het nog altijd heel aardig doet.
Even een heel recent voorbeeld:
Kijk maar eens naar de GTX280 + 4890. De 4890 was niet al te ver van een GTX280 in performance en prijs/performance(!, puur FPS) iets beter positioneert, maar je had dan wel weer het nadeel van een hoger idle verbruik (tevens lager load verbruik) en had er geen problemen mee om (met de reference koeler) meer geluid & hitte te produceren.
Zo had iederen genoeg keuze (je betaalde wat meer voor wat meer performance/minder geluid/minder hitte/lager idle verbruik/hoger load verbruik en kocht een GTX280 of je betaalde minder voor iets minder performance, meer geluid, hoger idle verbruik/meer warmte/lager load verbruik en nam een 4890 in huis).
Als beide gelijk zijn dan zullen de prijzen alleen maar hoger worden
[ Voor 5% gewijzigd door Paprika op 30-03-2010 22:02 ]
Anoniem: 346499
Ik stel voor dat er een nvidia/amd discussie topic ofzo komt want wat is dit hier allemaal
? De reviews zijn uit en iedereen heeft zijn eigen mening over de nieuwe GTX'en, mogelijk kan een discussie topic beter zijn.
--
Een leuk filmpje dat wat sfeerbeelden geeft van het PAX east event afgelopen weekend. (Morgen zou een uitgebreider filmpje komen)
* NVIDIA @ PAX East 2010 (montage)

--
Een leuk filmpje dat wat sfeerbeelden geeft van het PAX east event afgelopen weekend. (Morgen zou een uitgebreider filmpje komen)
* NVIDIA @ PAX East 2010 (montage)
[ Voor 10% gewijzigd door Anoniem: 346499 op 30-03-2010 22:38 ]
Voor de geinteresseerden:
Gezien de mate van ontsporing is besloten dit deel van de NV topicreeks permanent gesloten. In overleg met lightdestroyer hebben we een aantal aanpassingen aan de TS geformuleerd. Lightdestroyer zal deze zaken implementeren en ergens dit weekend (hopelijk) een nieuw deel van de NV topicreeks kunnen openen. Het zal niemand verbazen dat we daar de komende periode een zero-tolerance beleid zullen voeren t.a.v. flames, trolls en andere ongein die de sfeer verziekt.
Gezien de mate van ontsporing is besloten dit deel van de NV topicreeks permanent gesloten. In overleg met lightdestroyer hebben we een aantal aanpassingen aan de TS geformuleerd. Lightdestroyer zal deze zaken implementeren en ergens dit weekend (hopelijk) een nieuw deel van de NV topicreeks kunnen openen. Het zal niemand verbazen dat we daar de komende periode een zero-tolerance beleid zullen voeren t.a.v. flames, trolls en andere ongein die de sfeer verziekt.
Pagina: 1
Dit topic is gesloten.