[Algemeen] nVidia Nieuwdiscussie Topic - Deel 46 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 11 ... 13 Laatste
Acties:
  • 69.566 views

Acties:
  • 0 Henk 'm!

Anoniem: 357365

Ik denk hij bedoelt het totale plaatje: prestaties, prijs, verbruik en hitte/ geluid.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Anoniem: 263922 schreef op zaterdag 05 juni 2010 @ 00:31:
[...]


In welke context bedoel je niet super? zal wel in de zin van verbruik zijn want op het gebied van prestaties en beeldkwaliteit is het een dijk van een kaart.
Prestaties vind ik ook niet super. Tis maar 10-20% meer dan een 5870. Voor een kaart die veel duurder is. Daarnaast is de HD5970 een heel stuk sneller voor +- dezelfde prijs. Maar laten we hier over maar niet in discussie gaan want ik weet dat jullie het hier niet mee eens zijn :D
Anoniem: 357365 schreef op zaterdag 05 juni 2010 @ 01:09:
Ik denk hij bedoelt het totale plaatje: prestaties, prijs, verbruik en hitte/ geluid.
klopt. Ik vind het een beetje een flop. Had er meer van verwacht. (er zit ook meer in maar kan helaas nog niet gebruikt worden. Wie weet in de toekomst wel? (512 Shaders))

[ Voor 24% gewijzigd door Astennu op 05-06-2010 09:25 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 10:11
Anoniem: 357365 schreef op zaterdag 05 juni 2010 @ 01:09:
Ik denk hij bedoelt het totale plaatje: prestaties, prijs, verbruik en hitte/ geluid.
Als die galaxy koeler wat aan de laatste 2 dingen kan doen wordt het allemaal wel wat interessanter, vooral omdat de GTX480 met overvolten erg goed klokt en de performance schaalt ook erg goed mee met hogere clocks als ik het zo lees. Maar ook dan is 450-500 euro wel wat duur nog en zo'n custom kaart zal nog wel stukje duurder worden...

anathema


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Astennu schreef op zaterdag 05 juni 2010 @ 09:24:
[...]


Prestaties vind ik ook niet super. Tis maar 10-20% meer dan een 5870. Voor een kaart die veel duurder is. Daarnaast is de HD5970 een heel stuk sneller voor +- dezelfde prijs. Maar laten we hier over maar niet in discussie gaan want ik weet dat jullie het hier niet mee eens zijn :D
We hoeven het ook niet met elkaar eens te zijn, iedereen zijn eigen mening, maar een feit is wel dat die 10-20% er zijn, en dat maakt toch het verschil voor veel mensen, en dual-gpu kaarten zijn nog altijd een niche markt, op single gpu is de gtx480 het beste, iemand die veel geld in een pc steekt heeft dat er wel voor over.

Niet dat ik ooit een gtx480 zal kopen, of een hd5870, op 1920x1080 heb je dat ook niet nodig, ik heb laatst nog iemand een gtx260 aangeraden, hij wou per se een nieuwe kaart dus wel duur betaald, maar hij zal geen problemen hebben wat drivers,prestaties en warmte aangaat, hij is er dan ook dik tevreden mee 8)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 263922 schreef op zaterdag 05 juni 2010 @ 14:45:
op single gpu is de gtx480 het beste
Nee, want het beste is een mening en naar mijn mening is de GTX480 verreweg van de beste kaart. Het is gemiddeld gezien wel de 'snelste' single GPU videokaart.
hij is er dan ook dik tevreden mee 8)
Iemand met weinig verstand van zaken kun je overal tevreden mee krijgen, neemt niet weg dat het een slechte koop is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 263922 schreef op zaterdag 05 juni 2010 @ 14:45:
[...]


We hoeven het ook niet met elkaar eens te zijn, iedereen zijn eigen mening, maar een feit is wel dat die 10-20% er zijn, en dat maakt toch het verschil voor veel mensen, en dual-gpu kaarten zijn nog altijd een niche markt, op single gpu is de gtx480 het beste, iemand die veel geld in een pc steekt heeft dat er wel voor over.
Ik ben het ook al niet met je eens. Zeker de opmerking dat dual gpu kaarten in eens een niche markt zijn: Alsof dat de GTX 480 NIET is. Iemand die veel geld in zijn pc steekt en veel prestaties wil, kijkt ook echt wel naar de dual gpu kaarten. Zeker gezien de meer prijs van de dual gpu kaart niet heel groot is.
Niet dat ik ooit een gtx480 zal kopen, of een hd5870, op 1920x1080 heb je dat ook niet nodig, ik heb laatst nog iemand een gtx260 aangeraden, hij wou per se een nieuwe kaart dus wel duur betaald, maar hij zal geen problemen hebben wat drivers,prestaties en warmte aangaat, hij is er dan ook dik tevreden mee 8)
Sja, ik zou iemand nooit een verouderde kaart aanraden.

[ Voor 3% gewijzigd door Anoniem: 134818 op 05-06-2010 14:57 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 263922 schreef op zaterdag 05 juni 2010 @ 14:45:
Niet dat ik ooit een gtx480 zal kopen, of een hd5870, op 1920x1080 heb je dat ook niet nodig,
Bad Company 2 tends to disagree with you, Of elke nieuwe game wat dat betreft.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • ravw
  • Registratie: Augustus 2000
  • Laatst online: 15:08
Ik heb even een vraagje

wil een nVidia kaart kopen alleen weet niet welke ik moet hebben ..heb er nu een in zitten van Videokaart : ATI Radeon HD 4870 512 mb in zitten \

nu ben ik van plan om binnen kort een pc upgrade te doen van een pc

ik heb nu staan een 64 X2 6000 +

en wil gaan naar een i5 weet alleen nog niet welke ..
en wil hier bij een goede nvidia kaart halen van rond de 200 euro ..

welke raden jullie mij aan?
Ik heb een 27 inc scherm op max 1920 aan res
dit is puur voor een game pc

Systeem: Ryzen 7 7800X3D,RTX 4070Ti ,64GB,ASUS TUF GAMING X670E , Windows 11 Pro 64bits


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Dit is een nieuws topic, geen "welke moet ik kopen" vraag topic.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
ravw schreef op zaterdag 05 juni 2010 @ 16:14:
en wil hier bij een goede nvidia kaart halen van rond de 200 euro ..
Er bestaan geen goede nVidia kaarten van zo rond de 200 euro of je gaan voor een oude DX10 kaart van nVidia.

Maar denk dat dit beter in: [BBG aanschaf] Gamesysteem mei - juni 2010 past. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 303530

Afbeeldingslocatie: http://hothardware.com/newsimages/Item13347/big_coolers.jpg

480M in een notebook....

ter indicatie, een 5850 doet het met deze hoeveelheid koper:
Afbeeldingslocatie: http://www.notebook4game.com/web/wp-content/uploads/2010/01/MSI_GX640-9-600x450.jpg

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Anoniem: 134818 schreef op vrijdag 04 juni 2010 @ 13:22:
Conclusie: Het is geen hardcore gaming chip. Als ze al die extra gpGPU rommel er niet hadden in gestopt(bij het design al), was hij gewoon kleiner geweest. Kleiner betekend betere yields, minder stroom verbruik.
Nee, het is geen hardcore gaming chip. Alleen er is geen "al die" GPGPU rommel. Ik denk dat we hooguit over enkele procenten praten. En dankzij die extra procenten kan NVIDIA dezelfde chip die 300-400 euro in de winkel kost ook inzetten in kaarten die 5 tot 10 keer meer kosten.
Het lijkt me zeer sterk dat Fermi niet op tijd af was vanwege DP of ECC memory. Ik denk dat Fermi niet op tijd af was omdat de combinatie van TSMC 40nm en het gehele Fermi ontwerp niet echt samen gingen ;)
Anoniem: 134818 schreef op vrijdag 04 juni 2010 @ 13:22:
Die waarschijnlijk weinig ruimte in neemt? Je weet het dus niet eens. Je doet hier een claim en je hebt niets om het te ondersteunen. Dan kan ik dat ook: DP heb je niet nodig dus neemt het te veel ruimte in.
Nee, maar jij weet het ook niet. Bovendien claim ik niks, ik vraag waarom mensen het hebben over "al die GPGPU rommel" alsof het tientallen procenten van de chip inneemt. Dus waarom moet ik hier met bewijs komen? :)
Maar goed, los van dat punt, laat ik eens zien of ik mijn "claim" kan onderbouwen. Gezien het feit dat de SMs nog niet eens 50% van de die innemen, en dat daar nog alle andere logica in zit, van scheduling tot cache, en niet te vergeten de polymorph engines, lijkt het me veilig om te concluderen dat het gedeelte van de chip dat daadwerkelijk aan ALUs (los van SP of DP) is besteed minimaal is. Dan komen we bij het feit dat er sowieso al FPU units aanwezig zijn (het is een GPU dus tja) die NVIDIA gewoon hergebruikt bij DP. Uiteraard is hier wat extra logica bij nodig omdat een DP operatie de FPUs van beide pipelines in een SM gebruikt, maar wat belangrijker is is dat er dus geen extra DP unit is zoals bij G200 het geval is. De FPUs zijn gewoon ook inzetbaar voor DP. Oftewel, er is vast een kleine hoeveelheid logica nodig, maar de overgrote meerderheid van de DP logica zit al in de (SP) FPU. Combineer dat met het feit dat de FPU units maar een minimaal onderdeel zijn van het totale hoeveelheid transistor en die-space, en ik denk dat ik mijn punt dan wel heb bewezen.
Anoniem: 134818 schreef op vrijdag 04 juni 2010 @ 13:22:
Again, je hebt het niet nodig, het neemt ruimte in, het is dus al te veel. Om ruimte te besparen moet je soms features schrappen, ook al nemen ze een minimaal aantal in beslag. Zie Side port van de RV670 naar de RV770.
Side port is een interessante ja, want:
-Side port was meerdere procenten van het transistor budget
-Side port was een simpel logica blok dat los stond van alle andere logica
-Side port (weghalen) had geen enkele invloed op performance.
-RV870 (waar side port niet meer in zat) was een compleet nieuw ontwerp
Alle "GPGPU rommel" van Fermi voldoet alleen misschien aan de eerste van deze punten. De rest maakt denk ik wel duidelijk waar het niet zomaar even weggehaald kan worden.
Anoniem: 134818 schreef op vrijdag 04 juni 2010 @ 13:22:
Helemaal niet: Het is gpGPU rommel voor iemand die er niet in geïnteresseerd is. Dual precision? Weg er mee? Al die error correcting? Weg er mee.
DP weghalen is de complete SM core opnieuw ontwerpen. Waarom zou je dat doen voor die enkele procent? Het is niet alsof DP extra stroom verbruikt, het maakt alleen de chip lastiger te fabriceren en groter (waarschijnlijk marginaal, maar toch). Ik denk zelf niet dat het opweegt om de complete core te gaan herontwerpen ten opzichte van de voordelen die er mee gehaald kunnen worden. Beide opties hebben kosten. Lijkt mij dat DP intact laten de laagste kosten meebrengt.
Wat betreft ECC, ik heb werkelijk geen idee hoeveel dit kost, waar de logica zit en hoe makkelijk dat weg te halen is. Ik kan me alleen voorstellen dat, zelfde verhaal als bij DP, het meer kost om het weg te halen dan het gewoon laten zitten. Wat maakt het jou uit dat er een feature op je kaart zit waar je niets mee doet?
Anoniem: 134818 schreef op vrijdag 04 juni 2010 @ 13:22:
Ben ik niet geheel met je eens. Tuurlijk, hij doet GFX wel goed, maar niet als je performance/mm2 en performance/watt mee rekent
Helemaal mee eens, mijn punt is alleen dat GFX bij Fermi niet even een "toevoeging" oid is. Ik bedoelde meer dat de verhouding tussen GFX en rekenkracht netjes in balans is. Dat Fermi zelf tegen valt ben ik wel met je eens, maar het is niet zoals Charlie beweerde een GPGPU chip met wat GFX logica snel er bij aan geplakt.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Anoniem: 303530 schreef op zaterdag 05 juni 2010 @ 18:52:
[afbeelding]

480M in een notebook....

ter indicatie, een 5850 doet het met deze hoeveelheid koper:
[afbeelding]
Je zou bijna zeggen dat dit een must-have laptop gaat worden onder koperdieven.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Drie van die blowers kunnen ook nooit erg stil zijn :X

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Jejking schreef op zaterdag 05 juni 2010 @ 19:38:
[...]

Je zou bijna zeggen dat dit een must-have laptop gaat worden onder koperdieven.
_/-\o_

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-06 00:45
Triest, in tijden waar protability, eco friendly en low cost de bovenhand hebben.

Toch raar dat fabrikanten zich de moeite nemen om het te maken. Lijkt wel alsof ze verplicht worden. Want zeg nu zelf, wil je als fabrikant zoiets echt op de markt brengen. (cfr. klachten over warmte & lawaai, rma, designkosten, ..) Daar kan je reputatie toch een knauw krijgen als het achteraf mis loopt.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 172410 schreef op zaterdag 05 juni 2010 @ 19:46:
Drie van die blowers kunnen ook nooit erg stil zijn :X
In principe juist wel natuurlijk. Hoe meer hoe langzamer ze kunnen draaien.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 26-06 10:45
Anoniem: 303530 schreef op zaterdag 05 juni 2010 @ 18:52:
[afbeelding]

480M in een notebook....

ter indicatie, een 5850 doet het met deze hoeveelheid koper:
[afbeelding]
Damm dit is wel erg extreem. Mja 50 vs 100 watt. verklaart genoeg....
Anoniem: 172410 schreef op zaterdag 05 juni 2010 @ 19:46:
Drie van die blowers kunnen ook nooit erg stil zijn :X
Daarom zijn het er juist 3 zodat je met lagere speeds toch genoeg flow hebt. Echter heb je er bij de 5850 er maar 1 nodig om hetzelfde te bereiken als niet nog wat stiller te zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

-The_Mask- schreef op zaterdag 05 juni 2010 @ 19:59:
In principe juist wel natuurlijk. Hoe meer hoe langzamer ze kunnen draaien.
Dat is precies wat ze ook over die ene fan op de GTX480 zeiden! :D

Maar goed, zoveel fans is een indicatie van de warmte die ontwikkeld wordt (en dus afgevoerd moet worden) en dit kan nooit een goed ding zijn. Vooral niet als het van die kleine whinefans zijn.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 172410

-The_Mask- schreef op zaterdag 05 juni 2010 @ 19:59:
In principe juist wel natuurlijk. Hoe meer hoe langzamer ze kunnen draaien.
Behalve dat je geluid gewoon weer optelt, plus leuke resonantie tussen de verschillende fans.

Daarnaast is ruimte een schaars goed in een laptop, dus als je drie (!) blowers inbouwt ga je mij niet vertellen dat je het met twee of één gekund had. Stilte is nou niet écht prioriteit onder kopers van een high-performance laptop, niet in zulke mate dat je er zoveel ruimte voor opoffert.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 172410 schreef op zaterdag 05 juni 2010 @ 21:11:
[...]

Behalve dat je geluid gewoon weer optelt, plus leuke resonantie tussen de verschillende fans.
Alleen is het wel zo dat 3 fans op 20 dB minder lawaai maken dan 1 fan op 30dB.

Het hangt er dus gewoon van af hoeveel langzamer je fans kunt laten lopen als je er meer plaatst. Echter denk ik dat het in deze niet zozeer gaat om geluidsniveau, maar puur om noodzaak om de boel te kunnen koelen, maar dat zeg je zelf ook al in de rest van je post.
Daarnaast is ruimte een schaars goed in een laptop, dus als je drie (!) blowers inbouwt ga je mij niet vertellen dat je het met twee of één gekund had. Stilte is nou niet écht prioriteit onder kopers van een high-performance laptop, niet in zulke mate dat je er zoveel ruimte voor opoffert.
Koeling zal in deze altijd de topprioriteit hebben. Een 100 Watt gpu kan behoorlijk heet worden. Twee van die GPU's in 1 laptop, ik weet niet of ik daar wel aan wil denken.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

dahakon schreef op zaterdag 05 juni 2010 @ 21:32:
Alleen is het wel zo dat 3 fans op 20 dB minder lawaai maken dan 1 fan op 30dB.
Gevaarlijke uitspraak dat :p Maargoed, dat is er eentje voor SPCR ofzo, niet hier.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
uh een verschil van 3 db is een verdubbeling qua volume, dus 3 fans van 20 db = 24 db in totaal als ik het goed heb.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

tomcatha schreef op zondag 06 juni 2010 @ 02:56:
uh een verschil van 3 db is een verdubbeling qua volume, dus 3 fans van 20 db = 24 db in totaal als ik het goed heb.
Moet dit nou? :p Dan heb je ook nog het subjectieve volume, tonen waar mensen voor gevoelig zijn, interferentie en nog een hele lading zaken waardoor het natuurkundig wel klopt, maar in de praktijk eigenlijk nooit.

In theorie zijn praktijk en theorie hetzelfde, in de praktijk blijkt deze theorie meestal niet te kloppen :)

Acties:
  • 0 Henk 'm!

Anoniem: 357365

Ookal maken 3 fans van 20 DB minder geluid dan 1 fan van 30 DB, dan is nog maar de vraag of deze zoveel lucht verplaatsen als die ene fan.. Dus da's een beetje zinloze discussie. Waar het om gaat is dat een GTX480 twee keer zoveel hitte produceert als een HD5870 en dus een stuk zwaardere en luidere koeling nodig heeft. Of dit nu gerealiseerd wordt met 3 of 1 fans, doet er niet zo toe..

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Anoniem: 134818 schreef op zaterdag 05 juni 2010 @ 14:55:
[...]

Ik ben het ook al niet met je eens. Zeker de opmerking dat dual gpu kaarten in eens een niche markt zijn: Alsof dat de GTX 480 NIET is. Iemand die veel geld in zijn pc steekt en veel prestaties wil, kijkt ook echt wel naar de dual gpu kaarten. Zeker gezien de meer prijs van de dual gpu kaart niet heel groot is.

[...]

Sja, ik zou iemand nooit een verouderde kaart aanraden.
Je hebt nog altijd het verschijnsel dat micro stuttering heet, er zijn toch aardig wat mensen die daarom maar een gpu in hun systeem willen, en als je dan top notch performance wil, verbruik daargelaten, kom je toch op de gtx480 uit.
Dan heb je natuurlijk ook nog games die een slecht multi-gpu profiel hebben, dan moet je zelf gaan klooien en daar heeft ook niet iedereen zin in.

Die jongen die die gtx260 gekocht heeft sloeg mijn aanbod af om eentje tweedehands op tweakers voor hem te kopen, natuurlijk heb ik hem ook op een hd5850 gewezen, maar die was dan weer net te duur, en het is nog steeds zo dat je in de praktijk nog heel goed uit de voeten kan met een dx10 kaartje, dat handjevol dx11 games is ook niet echt super te spelen met de nieuwste high-end kaarten, dus ik snap het probleem niet.

En dat jij het niet met me eens bent verbaast me eigenlijk niet, je gaat zonder een goede reden tegen iedereen in.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 12:11

pino85

Im just a Bird in the Sky

Micro stuttering is imho zo'n overdreven fenomeen wat mensen anno 2010 te snel gebruiken
Heb diverse dual gpu oplossingen gehad in de loop der jaren en enkele jaren geleden toen had ik het bij bepaalde games dat dit zich voor deed en dat was vervelend dat zeker maar bij 90% van de games had ik er toen al geen last van
Anno 2010 ga ik er dan ook van uit dat dit fenomeen zo goed als niet meer voorkomt, zeker niet als je boven de 30 fps speelt.
En laten we eerlijk wezen tal van games spelen onder de 30 fps niet lekker en met dual gpu oplossingen ala 5850 kom je niet snel onder de 30 fps

Het andere punt van crossfire/SLI profielen, tja er was een tijd waarin helaas nog diverse games die uitkwamen matige ondersteuning boden echter die tijd zijn we mijn ziens voorbij
Games anno 2010 bieden imo gewoon een goede ondersteuning dus ook dit zie ik niet meer als struikelblok om er niet voor te gaan
Maar dit is puur gebaseerd op eigen ervaringen en mijn mening
Maar goed denk dat we nu de offtopic kant in gaan ;)

[ Voor 12% gewijzigd door pino85 op 07-06-2010 10:24 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

.

[ Voor 99% gewijzigd door Help!!!! op 07-06-2010 09:23 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Anoniem: 263922 schreef op zondag 06 juni 2010 @ 13:28:
Je hebt nog altijd het verschijnsel dat micro stuttering heet, er zijn toch aardig wat mensen die daarom maar een gpu in hun systeem willen, en als je dan top notch performance wil, verbruik daargelaten, kom je toch op de gtx480 uit.
MIcrostuttering schijnt vooral een probleem te zijn onder de 30 frames per seconde. Ik denk dat er maar weinig spellen zijn waarbij je met twee 5850's die kant op gaat, dus in de praktijk valt het allemaal wel geschikt mee.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 263922 schreef op zondag 06 juni 2010 @ 13:28:
[...]

En dat jij het niet met me eens bent verbaast me eigenlijk niet, je gaat zonder een goede reden tegen iedereen in.
Dat is ook al niet waar. Ik ben het eens met de mensen boven mij: Die het ook niet met jouw eens waren.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 10:11
Anoniem: 172410 schreef op maandag 07 juni 2010 @ 09:26:
[...]

MIcrostuttering schijnt vooral een probleem te zijn onder de 30 frames per seconde. Ik denk dat er maar weinig spellen zijn waarbij je met twee 5850's die kant op gaat, dus in de praktijk valt het allemaal wel geschikt mee.
Onder 40 fps is dat. Ook dat zal idd wel meevallen met snelle kaarten en de meeste huidige games, maar jammer is het wel en kan zeker een reden zijn om geen dual GPU kaart te willen.

anathema


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 04-07 15:41
heb al bijna 2 jaar een HD4870x2 en nooit echt ergens last van gehad. Heel dat microstuttering is maar microscopisch storend. Alleen zijkers heb last van dit soort dingen met dual-GPU kaarten.

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 05-07 19:18
Sorry maar dat is dan ook weer wat te ver om zomaar iedereen zijkerds te gaan noemen die klaagt over microstutter. Als je zoveel geld neerlegt verwacht je wel wat. Miscchien dat er mensen zijn die er beter tegen kunnen maar als je eenmaal weet hoe het eruit ziet ga je je gewoon dood ergeren.

Goed voorbeeldje van PC gameshardware.de:
http://www.youtube.com/watch?v=HGDOyzzRQ3k

mooi met fraps erbij en ondanks een vlotte 30-40fps niet om aan te zien.

God does not play dice


Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 20-06 07:06
-AzErTy- schreef op maandag 07 juni 2010 @ 17:30:
Sorry maar dat is dan ook weer wat te ver om zomaar iedereen zijkerds te gaan noemen die klaagt over microstutter. Als je zoveel geld neerlegt verwacht je wel wat. Miscchien dat er mensen zijn die er beter tegen kunnen maar als je eenmaal weet hoe het eruit ziet ga je je gewoon dood ergeren.

Goed voorbeeldje van PC gameshardware.de:
http://www.youtube.com/watch?v=HGDOyzzRQ3k

mooi met fraps erbij en ondanks een vlotte 30-40fps niet om aan te zien.
Ja, als je dat 'vlot' noemt dan vráág je er ook om he! :+

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 05-07 19:18
Je begrijpt dat het doel van het filmpje microstutter illustreren is?
Je begrijpt ook dat een single kaart met dezelfde framerate als geïllustreerd vloeiend zou zijn?

Conclusie zou moeten zijn dat je niet al teveel hebt aan een dure SLI of Crossfire opstelling als net op de momenten die bepalend zijn voor je spelplezier -de minima- die opstelling het laat af weten.
Leuk dat je average 20fps hoger ligt maar als iedere keer dat je naar minima gaat waar de single kaart ook naar gaat de 1 wel speelbaar is en de andere niet tja dan noem ik dat weggesmeten geld en jezelf voorliegen met mooie cijfertjes die in de praktijk niet zo leuk zijn.

Edit: sry had die smiley niet gezien.

[ Voor 3% gewijzigd door -AzErTy- op 07-06-2010 17:54 ]

God does not play dice


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 14:18
-AzErTy- schreef op maandag 07 juni 2010 @ 17:30:
Sorry maar dat is dan ook weer wat te ver om zomaar iedereen zijkerds te gaan noemen die klaagt over microstutter. Als je zoveel geld neerlegt verwacht je wel wat. Miscchien dat er mensen zijn die er beter tegen kunnen maar als je eenmaal weet hoe het eruit ziet ga je je gewoon dood ergeren.

Goed voorbeeldje van PC gameshardware.de:
http://www.youtube.com/watch?v=HGDOyzzRQ3k

mooi met fraps erbij en ondanks een vlotte 30-40fps niet om aan te zien.
Slecht voorbeeld, want in Clear Sky zit sowieso een rare stotter, of je nou 1, 2 of 3 videokaarten gebruikt ...

Acties:
  • 0 Henk 'm!

Anoniem: 357365

Yah, en da's uberhaupt GTX260 SLI en niet een HD5970. Een HD5970 pompt die shit gewoon op 50+ frames per second en dan is het geweldig vloeiond.

[ Voor 46% gewijzigd door Anoniem: 357365 op 08-06-2010 00:36 ]


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Ik zie ook vooral tearing en zaken die geladen worden. Dat doet Fallout ook bij mij op één kaart.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Anoniem: 357365 schreef op dinsdag 08 juni 2010 @ 00:36:
Yah, en da's uberhaupt GTX260 SLI en niet een HD5970. Een HD5970 pompt die shit gewoon op 50+ frames per second en dan is het geweldig vloeiond.
Denk zeker dat het wel zo zal zijn, maar het komt zo-zo over als je het op die manier brengt...

Acties:
  • 0 Henk 'm!

Anoniem: 357365

Hoe bedoel je?

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 13:36
Anoniem: 263922 schreef op zaterdag 05 juni 2010 @ 14:45:
[...]
ik heb laatst nog iemand een gtx260 aangeraden, hij wou per se een nieuwe kaart dus wel duur betaald, maar hij zal geen problemen hebben wat drivers,prestaties en warmte aangaat, hij is er dan ook dik tevreden mee 8)
Dat Bold heb je bij zowel ATi als nVidia niet, dus is geen argument in de pro's en con's tussen die twee...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 17:34

Herman

FP ProMod

Toch geen nVidia Tegra in de Nintendo 3DS

Het lijkt erop dat, alle geruchten ten spijt, er geen nVidia Tegra-processor in de nieuwe Nintendo 3DS zal zitten. Volgens DigitalFoundry heeft Nintendo ervoor gekozen samen te werken met een nog onbekende Japanse partner voor de cpu en 3D-acceleratie.
(...)
Engelse link: http://www.tgdaily.com/hardware-features/50127-report-nintendo-3ds-is-tegra-less?(...)

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat zal nVidia heel erg veel pijn doen, want zoals het er nu naar uitziet zullen ze ook geen console "wins" hebben.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

Puppetmaster schreef op dinsdag 08 juni 2010 @ 11:17:
Dat Bold heb je bij zowel ATi als nVidia niet, dus is geen argument in de pro's en con's tussen die twee...
nVidia heeft momenteel wel een probleem wat warmte/energieverbruik imho.

Acties:
  • 0 Henk 'm!

Anoniem: 251563

madmaxnl schreef op woensdag 09 juni 2010 @ 22:21:
Dat zal nVidia heel erg veel pijn doen, want zoals het er nu naar uitziet zullen ze ook geen console "wins" hebben.
Bedoel je daarmee de volgende generatie consoles? Daar heb ik nog niks van gehoord, behalve Charlie's Larrabee geruchten dan. Zou je dat kunnen toelichten?

De PS3 blijft nog wel een tijdje verkopen, dus daar zal nVidia nog wel redelijk wat geld mee vangen. Een "console win" moet echt heerlijk zijn voor AMD, Intel, nVidia en Big Blue - jaren lang praktisch zekerheid van verkoop.

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 13:36
Anoniem: 172410 schreef op woensdag 09 juni 2010 @ 22:36:
[...]

nVidia heeft momenteel wel een probleem wat warmte/energieverbruik imho.
Je hebt gelijk, subtiel aangepast! ;)
Maar de 260 van Frietje had dat minder...

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 251563 schreef op donderdag 10 juni 2010 @ 00:07:
[...]
De PS3 blijft nog wel een tijdje verkopen, dus daar zal nVidia nog wel redelijk wat geld mee vangen. Een "console win" moet echt heerlijk zijn voor AMD, Intel, nVidia en Big Blue - jaren lang praktisch zekerheid van verkoop.
De PS4 zijn toch net de eerste geruchten al van binnen gekomen?

Tis wel een tegenslag voor Nvidia, die tegra zie je toch verdomd weinig.

[ Voor 8% gewijzigd door Anoniem: 134818 op 10-06-2010 12:07 ]


Acties:
  • 0 Henk 'm!

  • Herman
  • Registratie: December 2009
  • Laatst online: 17:34

Herman

FP ProMod

Dell shoves Nvidia kit into its blades

Mooie ontwikkeling! Snelle (en relatief goedkope) Tesla-kaarten worden gebruikt om servers veel rekenkracht te geven. Nu gaat Dell dit ook toepassen in blade-servers.

Hier nog een nederlandse site met info: http://www.channelweb.nl/(...)
o De PowerEdge M610x voegt een nieuwe reeks van functies toe aan het blade server-aanbod van Dell, zoals versnelling van de databases van klanten, uitgebreide grafische mogelijkheden, GPGPU en andere gebruiksmodellen die op PCIe-uitbreidingskaarten zijn gebaseerd. Deze klanten kunnen nu profiteren van de beheereenvoud en efficiëntie van het blade-platform uit de Dell M-serie, die krachtige PCIe-oplossingen biedt zoals de nieuwe GPGPU's van Tesla "Fermi"-klasse van Nvidia en de ioDrive Duo van Fusion-IO.
-; Indien gebruikt in combinatie met Fusion I/O kan de PowerEdge M610x zorgen voor een reductie van het stroomverbruik tot 73% en de gegevensverwerkingscapaciteit van de CPU tot meer dan 1.000 keer vergroten[2].
-; De PowerEdge M610x met nVidia GPGPU's biedt een rekenvermogen dat gelijk staat aan het vermogen van een vergelijkbare niet-GPGPU-cluster, maar voor één tiende van de prijs en met gebruik van slechts één twintigste van het stroomverbruik van een dergelijke cluster[3].

Tweakers.net Moddereter Forum | Vragen over moderatie op de FrontPage? Het kleine-mismoderatietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 251563 schreef op donderdag 10 juni 2010 @ 00:07:
[...]


Bedoel je daarmee de volgende generatie consoles? Daar heb ik nog niks van gehoord, behalve Charlie's Larrabee geruchten dan. Zou je dat kunnen toelichten?

De PS3 blijft nog wel een tijdje verkopen, dus daar zal nVidia nog wel redelijk wat geld mee vangen. Een "console win" moet echt heerlijk zijn voor AMD, Intel, nVidia en Big Blue - jaren lang praktisch zekerheid van verkoop.
Ja dit artikel, ja ik weet het deze komt van onze nVidifoob Charlie maar dat doet er als je naar zijn argument kijkt weinig aan af.

Als je kijkt klopt het namelijk ook wel, MS had met de Xbox problemen met nVidia en is voor de Xbox360 voor ATI gegaan en dat werkt prima voor ze dus waarom terug switchen naar nVidia ? Ook zal de keuze voor ATI door MS voor de opvolger van de Xbox360 als deze der al is ook komen door de backwards compatibility die dan lekker makkelijk is.

Nintendo werkt al sinds zijn Gamecube - niet zo een succes - met ATI chips. Met de Wii hebben ze dan dus ook ATI chips gebruikt - wel een succes - en aangezien Nintendo net als bij de Gamecube zijn games backwards compatible wil houden met de opvolger van de Wii zullen dus ook weer voor ATI chips gaan die hun tevens al goed zijn bevallen in het verleden. Dat Nintendo voor ATI gaat is het meest zekeren omdat ATI ervoor heeft gekozen zich vooral te focussen op kleinen en efficiënte GPU's. Aangezien Nintendo het niet van de grapichs moet hebben maar van de gameplay zullen ze in de opvolger van de Wii geen snelheidsmonster plaatsen. nVidia valt dan buiten de boot met hun grote inefficiënte chips. Over de Playstation 4 doe ik geen uitspraak maar ik zie nVidia hier niet snel in terug. Het is trouwens zo dat de Xbox360 met de ATI Xenon GPU meer grafische power heeft dan de nVidia Reality Synthesizer, dit is als we naar de theoretische snelheid kijken. Tevens kan ATI met zijn Xenon al tessellation doen.

Even terug komen op "dit is als we naar de theoretische snelheid kijken".(dit zal ook een hoop duidelijk maken waarom ATI goede kandidaat is voor veel console "wins").
Op consoles kunnen ze het volledige potentieel uit de hardware halen omdat ze steeds met een hardware configuratie te maken hebben. Doordat veel games cross platform ondersteuning hebben zie je dit niet altijd terug en wordt de hardware niet altijd tot zijn uiterste gedreven. Maar bij titels die maar op een platform uitkomen zoals PS3 of Xbox360 dan zie dat ze meestal het maximale er uit halen, ervaring in het ontwikkelen van bepaald platform gerichte games heeft hier ook mee te maken. ATI heeft met zijn shader opbouw namelijk veel voordeel als men heel gericht gaat programmeren en rekening gaat houden met de hardware en de mogelijkheden die deze bied.
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ati/4800/ilp.png
Zoals je ziet kun je uit het plaatje opmaken dat als je rekening houdt met hoe de hardware het beste functioneert je het maximale eruit kunt halen. Bij de Xenon is het volgens mij nog niet zoals nu met de shaders maar hadden ze wel al zo een soort opbouw zoals hier boven op het plaatje is te zien i.t.t nVidia met zijn Reality Synthesizer.

Dank voor het plaatje trouwens aan Reinman want deze heb ik uit zijn review gebietst. _/-\o_

[ Voor 3% gewijzigd door madmaxnl op 10-06-2010 17:32 . Reden: Joa de spelling woar niet helemoal goad :P ]


Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 05-07 19:18
Ik dacht dat Neliz een tijdje terug een artikel van Semiaccurate gepost had waarin het gerucht stond dat Sony voor de PS4 weer terug naar een in eigen huis ontwikkelde chip een soort van Emotio Engine 2.0 wil.

Note: For what it's worth, the leading candidate at Sony right now is an internal design that several describe as "Emotion Engine based"

bron

God does not play dice


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Nu is het wel zo dat de shaders van nvidia een stuk sneller lopen, en dat is niet het enige verschil in beide architecturen, plaatje is nogal misleidend, vooral omdat gt200 in zijn volste vorm een stukje sneller was dan rv770 op volledige sterkte, natuurlijk rv790 en gt200b buiten beschouwing latend.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
-AzErTy- schreef op donderdag 10 juni 2010 @ 18:05:
Ik dacht dat Neliz een tijdje terug een artikel van Semiaccurate gepost had waarin het gerucht stond dat Sony voor de PS4 weer terug naar een in eigen huis ontwikkelde chip een soort van Emotio Engine 2.0.

Note: For what it's worth, the leading candidate at Sony right now is an internal design that several describe as "Emotion Engine based"

bron
Dit bericht duid er dan weer op dat Charlie in Februari 2009 niet wist waar die het over had toen hij suggereerde dat de PS4 met Larrabee GPU zou komen alhoewel het wel plausibel was. Maar nu min of meer duidelijk is dat Larrabee als GPU variant niet zeker is wijzigt hij zijn verhaal. Erg verdacht maar wellicht heeft hij het gewoon twee keer bij het rechter eind.
Anoniem: 263922 schreef op donderdag 10 juni 2010 @ 19:05:
[...]


Nu is het wel zo dat de shaders van nvidia een stuk sneller lopen, en dat is niet het enige verschil in beide architecturen, plaatje is nogal misleidend, vooral omdat gt200 in zijn volste vorm een stukje sneller was dan rv770 op volledige sterkte, natuurlijk rv790 en gt200b buiten beschouwing latend.
Nee hoor is niet misleidend want als je 5 soortgelijke instructies hebt die op 750mghz in een keer worden berekend is dat nog altijd sneller dan 5 soortgelijke instructie die op 1296 om de beurt worden berekend.
nVidia kan namelijk 1296/750=1,728 keer zo snel een instructie berekenen dan ATI dat kan maar ATI kan 5 soortgelijke instructie in een keer berekenen. Dus kan ATI (5*750)/1296=2,89 keer zo snel 5 soortgelijke instructies berekenen als nVidia. Als ATI al maar twee soortgelijke instructie kan berekenen is hij al sneller dan nVidia. Bij het programmeren is het dus belangrijk de instructies die per keer worden berekend zo veel mogelijk op elkaar te laten lijken en of soortgelijk te laten zijn want dan worden ze het snelst berekend. Terwijl het bij nVidia vrijwel niets uitmaakt in welke volgorde ze worden berekend.

Acties:
  • 0 Henk 'm!

Anoniem: 251563

Hmm, tja, de grote vraag is dus eigenlijk wat Sony wil met z'n PS4, de anderen gaan waarschijnlijk naar AMD inderdaad. Ik denk zelf niet dat Sony "in house" even een GPU gaat ontwikkelen die voorloopt op het huidige aanbod van AMD en nVidia. Het is enorm snel gegaan de laatste jaren, dat ontwikkel je niet zo maar even zelf (zoals Intel ook al demonstreerde). Hooguit maken ze er een in samenwerking met nVidia, en dan zal het "Emotion Engine based" op een toekomstige nVidia GPU kunnen slaan. De emotion engine is nu natuurlijk al behoorlijk verouderd, ik neem aan dat ze wel met iets nieuws zullen komen...

Als je naar het aantal GFLOPS kijkt (want daar gaat het om bij geoptimaliseerde performance) dan zie je inderdaad dat Cypress iets krachtiger is dan Fermi: 2720 vs. 2177 volgens Wikipedia. Maar bovendien is Cypress veel efficienter, en aangezien het toch om custom designs gaat kan AMD waarschijnlijk meer leveren voor hetzelfde geld. Maar, dat is nu. De volgende Playstation komt pas in 2014 of zo, tegen die tijd kan het allemaal weer anders liggen. En bovendien gaat het om meer dan alleen performance: misschien heeft Sony de samenwerking met nVidia wel heel prettig gevonden o.i.d., of ziet het wel iets in geadvanceerdere GPGPU dingen? Ik zou het zeker niet uitsluiten. :) Of nVidia heeft er zelf veel geld voor over, wat wel te begrijpen is - straks zit er een AMD GPU in elke nieuwe console...

(Plaatje komt overigens origineel van anandtech.com :P )

Acties:
  • 0 Henk 'm!

Anoniem: 292676

Als Sony voor nVidia gaat, dan bijten ze zichzelf weer op lange termijn.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 251563 schreef op donderdag 10 juni 2010 @ 20:17:
De volgende Playstation komt pas in 2014 of zo, tegen die tijd kan het allemaal weer anders liggen.

(Plaatje komt overigens origineel van anandtech.com :P )
Voor zo ver ik weet komt de nieuwe generatie consoles ergens in 2012 waarschijnlijk in Q4. Maar wat je ziet bij consoles is dat de hardware configuratie ruim voor de lanceer datum bekent moet zijn i.v.m de SDK. Bij de launch willen de fabrikanten van de consoles namelijk een zo een sterk mogelijk game aanbod(line-up) hebben met zoveel mogelijk exclusieve titels. Hierdoor verkopen ze in het begin relatief veel consoles waardoor ontwikkelaars die nog twijfelde over de keuze van het platvorm waarvoor ze gaan ontwikkelen gemaakt kan worden waardoor het des betreffende platvorm nog sterker wordt. Hierdoor denk ik dat de console bouwers toch constant de ogen open houden en aangezien ATI nu erg sterk is ga ik ervan uit dat ze dit in 2011 nog altijd zijn en zich zo de console "wins" toe-eigenen.

Ik hoop sowieso dat de consoles met enorm veel CPU cores uitgerust gaan worden want dit vertaald zich dan ook in een betere multicore support voor de PC games. Kijk maar naar GTA IV die drie cores maximaal kan benutten, triple cores zijn de CPU in de Xbox360 terwijl de PS3 er acht heeft maar in GTA IV volgens mij er maar drie kunnen worden aangesproken want voor meer cores gaan programmeren levert moeilijkheden op vanwege de variabelen die hier uit voortkomen. Men gaat dus voor cross platformen meestal uit van de zwakste console die zich wel met elkaar kunnen meten in het geval van GTA IV is dit de Xbox360. Men kan meestal wel gemakkelijker de grafische instellingen wijzigen omdat hier minder programmering achter zit en je makkelijker de last kunt bepalen.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

How to transform GTX 465 with 10 memorychips to a GeForce GTX 470



Er zijn GTX 465 kaarten in de omloop die eigenlijk gewoon een GTX 470 is, met ander bios.
Maar dit werkt dus alleen als je een reference GTX465 hebt 10 geheugenchips, kans is ook minuscuul dat je een GTX 465 hebt/krijgt wat eigenlijk een GTX 470 is. Een GTX 465 hiervoor kopen lijkt mij dan ook niet slim.

Probeer het dus niet met een GTX465 die minder dan 10 geheugenchips heeft want dat gaat sowieso niet werken en een kapotte kaart heb je dan zo maar. ;)

Unlock GTX 465 without flashing



Ook interessant en een stuk veiliger natuurlijk. :)

Downloadlink

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Was dit met de GTX275 en GTX285 ook niet zo, want toen waren er ook review exemplaren die een GTX285 leken te zijn vooral aan het stroomverbruik was dit terug te zien toch ?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op donderdag 10 juni 2010 @ 23:40:
Was dit met de GTX275 en GTX285 ook niet zo
Google en ik kunnen zich zo 1,2,3 niet echt iets herinneren.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
madmaxnl schreef op donderdag 10 juni 2010 @ 17:21:
Als je kijkt klopt het namelijk ook wel, MS had met de Xbox problemen met nVidia en is voor de Xbox360 voor ATI gegaan en dat werkt prima voor ze dus waarom terug switchen naar nVidia ?
Misschien omdat NVIDIA een betere optie voor een betere prijs biedt?
Ook zal de keuze voor ATI door MS voor de opvolger van de Xbox360 als deze der al is ook komen door de backwards compatibility die dan lekker makkelijk is.
De GPU van (zowel NVIDIA als AMD) nu lijkt totaal niet meer op de GPUs in de 360, dus dit is een waardeloos argument. Bovendien zal de GPU in de volgende generatie consoles vele malen sneller zijn dan de huidige generatie. Snel genoeg om BC mogelijk te maken, ongeacht de architectuur.
Dat Nintendo voor ATI gaat is het meest zekeren omdat ATI ervoor heeft gekozen zich vooral te focussen op kleinen en efficiënte GPU's.Aangezien Nintendo het niet van de grapichs moet hebben maar van de gameplay zullen ze in de opvolger van de Wii geen snelheidsmonster plaatsen. nVidia valt dan buiten de boot met hun grote inefficiënte chips.
Ja, want NVIDIA heeft nog nooit een kleine efficiente chip gemaakt! Wat denk je dat er in de sub $100 GPU's van NVIDIA zit, een grote inefficiente chip? :P
Over de Playstation 4 doe ik geen uitspraak maar ik zie nVidia hier niet snel in terug.
Van Microsoft en Nintendo verwacht je dat ze bij de huidige chipbakker blijven want tja, daar hebben ze eerder mee gewerkt. PS4 is een ander verhaal want?
Het is trouwens zo dat de Xbox360 met de ATI Xenon GPU meer grafische power heeft dan de nVidia Reality Synthesizer, dit is als we naar de theoretische snelheid kijken.
Vind je het raar? De RSX was een noodoplossing op het laatste moment, feitelijk gewoon een Geforce 7800 die maar op enkele punten is aangepast. Als Sony eerder naar NVIDIA was gestapt hadden ze vast een meer geschikte chip gekregen voor in hun console. Men vroeg ooit aan een NVIDIA topman "wanneer gaan we een GPU zien die sneller is dan de GPU van de PS3?", waarop zijn antwoord was "nog voor de PS3 in de winkel ligt". Drie dagen voor de eerste verkoop van de PS3 in Japan lag de 8800GTX in de winkel. Deze kaart maakte gehakt van zowel de RSX als Xenos

EDIT:
madmaxnl schreef op donderdag 10 juni 2010 @ 19:26:
Nee hoor is niet misleidend want als je 5 soortgelijke instructies hebt die op 750mghz in een keer worden berekend is dat nog altijd sneller dan 5 soortgelijke instructie die op 1296 om de beurt worden berekend.
nVidia kan namelijk 1296/750=1,728 keer zo snel een instructie berekenen dan ATI dat kan maar ATI kan 5 soortgelijke instructie in een keer berekenen. Dus kan ATI (5*750)/1296=2,89 keer zo snel 5 soortgelijke instructies berekenen als nVidia. Als ATI al maar twee soortgelijke instructie kan berekenen is hij al sneller dan nVidia. Bij het programmeren is het dus belangrijk de instructies die per keer worden berekend zo veel mogelijk op elkaar te laten lijken en of soortgelijk te laten zijn want dan worden ze het snelst berekend. Terwijl het bij nVidia vrijwel niets uitmaakt in welke volgorde ze worden berekend.
Dat is zeker wel misleidend, want AMD kan helemaal niet altijd 5 soortgelijke instructies tegelijk uitvoeren in de meeste gevallen. Ja, dat kan als je de volgende code hebt
A = A1+A2
B = B1+B2
C = C1+C2
D = D1+D2
E = E1+E2
Maar zo gauw je code afhankelijk is van andere instructies valt het hele idee heel snel om. Worst case is dit:
A = A1+A2
B = A + B1
C = B + C1
D = C + D1
E = D + E1
Elke instructie moet na de vorige uitgevoerd worden omdat resultaten van de ene berekening in de andere nodig zijn. Deze code kost dus minimaal 5 cylci. Uiteraard is dit een worst case scenario, maar in echte shadercode kom je wel vaker dit soort code tegen. Wel heeft de AMD architectuur een voordeel bij vector operaties, maar daar staat weer tegenover dat NVIDIA de SM clock hoger heeft.

Daarnaast, hoe verklaar je het feit dat NVIDIA nu al meerdere malen bewezen heeft dat hun chips, die een veel lagere theoretische hoeveelheid FLOPs halen, in de praktijk toch sneller zijn?

[ Voor 35% gewijzigd door Snoitkever op 11-06-2010 00:33 . Reden: Laat ik het wel beleefd houden :) ]


Acties:
  • 0 Henk 'm!

Anoniem: 171689

Verklaar eerst maar eens even waarom ze dan veel minder performance/watt leveren terwijl ze theoretisch nog minder rekenkracht hebben ook. DAT is pas bullshit.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Anoniem: 171689 schreef op vrijdag 11 juni 2010 @ 00:38:
Verklaar eerst maar eens even waarom ze dan veel minder performance/watt leveren terwijl ze theoretisch nog minder rekenkracht hebben ook. DAT is pas bullshit.
Wat jij zegt is bullshit. Meer transistoren enz is het antwoord trouwens.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Snoitkever schreef op vrijdag 11 juni 2010 @ 00:15:

Dat is zeker wel misleidend, want AMD kan helemaal niet altijd 5 soortgelijke instructies tegelijk uitvoeren in de meeste gevallen. Ja, dat kan als je de volgende code hebt
A = A1+A2
B = B1+B2
C = C1+C2
D = D1+D2
E = E1+E2
Maar zo gauw je code afhankelijk is van andere instructies valt het hele idee heel snel om. Worst case is dit:
A = A1+A2
B = A + B1
C = B + C1
D = C + D1
E = D + E1
Elke instructie moet na de vorige uitgevoerd worden omdat resultaten van de ene berekening in de andere nodig zijn. Deze code kost dus minimaal 5 cylci. Uiteraard is dit een worst case scenario, maar in echte shadercode kom je wel vaker dit soort code tegen. Wel heeft de AMD architectuur een voordeel bij vector operaties, maar daar staat weer tegenover dat NVIDIA de SM clock hoger heeft.

Daarnaast, hoe verklaar je het feit dat NVIDIA nu al meerdere malen bewezen heeft dat hun chips, die een veel lagere theoretische hoeveelheid FLOPs halen, in de praktijk toch sneller zijn?
Omdat er idd niet geoptimaliseerd is om 5 bewerkingen te doen in een SPU. (Oh en veel sneller vind ik hem niet, haal dat veel maar weg: Performance/mm2 is waar het omgaat: 576 mm2 vs 334(iets langzamer)/668 mm2(stuk sneller))... Op het moment dat je daar zwaar voor gaat optimaliseren, dan maakt het niet uit dat de SPU van nvidia op een keer zon hoge snelheid loopt, die kan dan niet op tegen 5 bewerkingen vs 2 in dezelfde tijd(Optimaal gezien). Hoe hoger de graat van optimalisatie, hoe sneller de ATI gaat zijn ten opzichte van de Nvidia SPU.

[ Voor 7% gewijzigd door Anoniem: 134818 op 11-06-2010 10:00 ]


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Anoniem: 171689 schreef op vrijdag 11 juni 2010 @ 00:38:
Verklaar eerst maar eens even waarom ze dan veel minder performance/watt leveren terwijl ze theoretisch nog minder rekenkracht hebben ook. DAT is pas bullshit.
40nm TSMC problemen? Te weinig ervaring met 40nm? Te complex ontwerp op een nieuw procedee? Kijk maar eens naar hoe goed G80 en G92 in de tijd waren qua perf/watt en dan weet je waar de architectuur toe in staat is.
Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 09:45:
[...]

Omdat er idd niet geoptimaliseerd is om 5 bewerkingen te doen in een SPU. (Oh en veel sneller vind ik hem niet, haal dat veel maar weg: Performance/mm2 is waar het omgaat: 576 mm2 vs 334(iets langzamer)/668 mm2(stuk sneller))... Op het moment dat je daar zwaar voor gaat optimaliseren, dan maakt het niet uit dat de SPU van nvidia op een keer zon hoge snelheid loopt, die kan dan niet op tegen 5 bewerkingen vs 2 in dezelfde tijd(Optimaal gezien). Hoe hoger de graat van optimalisatie, hoe sneller de ATI gaat zijn ten opzichte van de Nvidia SPU.
Omdat je vaak niet kan optimaliseren voor 5 bewerkingen tegelijk. Denk je dat AMD's drivers dat zelf al niet doen? Shadercode wordt nooit direct uitgevoerd, dat gaat altijd via de driver. Die optimaliseert alles wat maar mogelijk is, ik denk niet dat shadercode optimaliseren daar veel effect op heeft.

Daarnaast is het niet echt eerlijk om G200 en GF100 te gebruiken als voorbeelden van perf/mm2. Beiden zijn chips die problemen hebben gehad tijdens ontwikkeling en beiden halen hun optimale snelheden niet door problemen met het procedee. Anders mag jij me namelijk uitleggen waarom R600 het zo slecht deed tegen G80. R600 was 700 transistoren in 420mm2 op 80nm, G80 was 680 transistoren in 480mm2 op 90nm, en R600 was nog meer een flop dan G200/GF100 nu is.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

onzin, daar kan je best voor optimaliseren. Zeker als je van de grond op een game(engine) maakt die alleen op die hardware draait, kan je gewoon zorgen dat je lange shader strings hebt die goed geoptimaliseerd zijn voor de GPU architectuur(nu draaien sommige games al beter op de eene architectuur dan op de andere).

Waarom, is dat niet eerlijk, ik vergelijk de nieuwste ATI met de nieuwste Nvidia architectuur. Dat is net zo eerlijk als toen we de G80 tegen over de R600 zetten, waar ook uit kwam dat de R600 het niet zo goed deed.

[ Voor 9% gewijzigd door Anoniem: 134818 op 11-06-2010 10:48 ]


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 04-07 15:41
Snoitkever schreef op vrijdag 11 juni 2010 @ 00:15:
[...]

Misschien omdat NVIDIA een betere optie voor een betere prijs biedt?
I LOL'd
ATI heeft al jaren en jaren beter prijs/preformance.
ATI chips zijn zuiniger en genereren minder hitten waardoor ze stiller zijn.

en wat willen console bouwers, zo zuinig/stil/goedkoop mogelijke console produceren op dit moment kan NV daar niet tegen op niet in het laag of hoog sigment.

Jou opmerking van beter optie en prijs komt niet uit feiten maar uit fanboyism.

en allemaal leuk en aardig dat ze 3 jaar geleden de beste chip hebben maar dat is nu niet meer zo.

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 05-07 19:18
Wacht even al jaren is een beetje een overstatement hoor.

Enkel tijdens de 9xxx serie, de X1900 en nu met de 5xxx serie kan je spreken dat ATI echt beter was.
Andere series lag het ofwel zeer dicht bij elkaar of was Nvidia duidelijk beter.
Beide zijn elkaar meer dan waard als concurrent met succesverhalen aan beide kanten.

@Snoitkever:
Tja waarom Sony niet voor Nvidia zou kiezen. Persoonlijk vind ik Sony een zeer eigenwijs bedrijf dat al jarenlang een mentaliteit heeft van "we don't need no help from nobody." Ze kiezen zelden de gemakkelijke weg en echt dev/consumer friendly zou ik ze niet noemen. Als het aan Sony lag dan was er nooit een RSX nodig geweest. Daarnaast is microsoft na de Xbox ook overgestapt van Nvidia naar Ati na onenigheid over de productie en licentiekosten van de GPU dacht ik. Misschien dat achter de schermen nu ook zoiets speelt?

God does not play dice


Acties:
  • 0 Henk 'm!

Anoniem: 263922

ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
[...]


I LOL'd

ATI chips zijn zuiniger en genereren minder hitten waardoor ze stiller zijn.
De chip op mijn gtx260 maakt me toch een lawaai ;) , het is niet om aan te horen, die op mijn hd4870 was gelukkig een stuk stiller haha, helaas maakt de koeler op de 4870 het geluid van een staafmixer, en nog verbrandde ik mijn vingers er aan :+

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 263922 schreef op vrijdag 11 juni 2010 @ 11:15:
[...]


De chip op mijn gtx260 maakt me toch een lawaai ;) , het is niet om aan te horen, die op mijn hd4870 was gelukkig een stuk stiller haha, helaas maakt de koeler op de 4870 het geluid van een staafmixer, en nog verbrandde ik mijn vingers er aan :+
Pfff, doe je koel oplossing dan ook goed :+ : Load OCed 40 graden.

Afbeeldingslocatie: http://farm4.static.flickr.com/3128/2771005085_95ae7a48e5.jpg?v=0

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 04-07 15:41
Anoniem: 263922 schreef op vrijdag 11 juni 2010 @ 11:15:
[...]


De chip op mijn gtx260 maakt me toch een lawaai ;) , het is niet om aan te horen, die op mijn hd4870 was gelukkig een stuk stiller haha, helaas maakt de koeler op de 4870 het geluid van een staafmixer, en nog verbrandde ik mijn vingers er aan :+
Je vergelijkt nu wel grote en middelmaat appels :+ .
de HD4870 was een van de top modellen in het begin nr.2 na de hd4890 uit kwam nr.3

wat zat er nog allemaal boven de GTX260
GTX295
GTX285
GTX280
GTX275

dat is to een lager sigment dan de HD4870.

dus dit is niet helemaal een eerlijke vergelijking

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 02-05 23:43
Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 10:21:
onzin, daar kan je best voor optimaliseren. Zeker als je van de grond op een game(engine) maakt die alleen op die hardware draait, kan je gewoon zorgen dat je lange shader strings hebt die goed geoptimaliseerd zijn voor de GPU architectuur(nu draaien sommige games al beter op de eene architectuur dan op de andere).
Maar tot op bepaalde hoogte. De reden dat sommige games van dit moment beter op de ene architectuur draaien dan de andere is niet vanwege optimalisatie maar vanwege de manier waarop graphics in de game gebruikt worden. Sowieso gaat dit veel verder dan daadwerkelijke shadercode, die uiteraard maar een van de vele bottlenecks is in een game.
Verder niet lullig bedoeld, maar heb je eigenlijk ervaring met shadercode schrijven? Ik wel namelijk en ik weet uit eigen ervaring daarmee dat shadercode optimaliseren heel lastig is. Vergelijk het met optimaliseren van Java code, je hebt een virtual machine die het zelf allemaal weer uitvoert en rangschikt zoals het volgens de VM goed uitkomt. Het beste wat je kan doen is zorgen dat je intelligente en efficiente algoritmes gebruikt. Uiteraard zijn er wel trucs die je kunt gebruiken op bepaalde architecturen om het sneller te laten draaien, maar dat gaat niet op een dergelijk diep niveau. Bovendien heeft de NVIDIA architectuur daar ook weer z'n eigen voordelen. Het is natuurlijk niet alsof je niet kunt optimaliseren voor de huidige NVIDIA architectuur ;)
Anoniem: 134818 schreef op vrijdag 11 juni 2010 @ 10:21:
Waarom, is dat niet eerlijk, ik vergelijk de nieuwste ATI met de nieuwste Nvidia architectuur. Dat is net zo eerlijk als toen we de G80 tegen over de R600 zetten, waar ook uit kwam dat de R600 het niet zo goed deed.
Omdat een console bouwer nooit direct de huidige GPU in hun console zet. Ze willen een gespecialiseerde chip met features die passen in de rest van het ontwerp van hun console. Zowel AMD als NVIDIA hebben laten zien dat ze hele "goeie" en hele "slechte" chips kunnen produceren. Het feit dat NVIDIA nu wat pech heeft gehad met hun high-end chips op 40nm en 55nm zegt niets over wat ze in de toekomst gaan doen op een ander procedee. AMD is terug gekomen van een waardeloze R600 chip en heeft nu de fantastische RV870 (sorry, heb een hekel aan die huidige codenames). NVIDIA kwam van de fantastische G80 en G92 en heeft nu problemen met G200 en GF100. Allemaal binnen een paar jaar tijd. Wat voor garantie geeft zoiets voor de toekomst?
ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
I LOL'd
ATI heeft al jaren en jaren beter prijs/preformance.
Zoals -AzErTy- al zegt is dat alleen de laatste 2 jaar. Daarvoor had NVIDIA "jaren" betere prijs/performance. Voor een console die over 2 jaar uitkomt kan de situatie weer compleet anders zijn.
ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
ATI chips zijn zuiniger en genereren minder hitten waardoor ze stiller zijn.
Hoho, laten we even bij de feiten blijven. AMD chips van nu zijn zuiniger. De 4870 was in idle een stuk minder zuinig dan G200. 4870 was ook een vreselijk warme chip, problematisch warm zelfs, of zijn we opeens alle kritiek daarop vergeten? Meer dan 80 graden in idle zelfs. Verbaasd me steeds hoe snel mensen dit soort negatieve punten vergeten als het om hun favoriete bedrijf gaat ;)
ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
en wat willen console bouwers, zo zuinig/stil/goedkoop mogelijke console produceren op dit moment kan NV daar niet tegen op niet in het laag of hoog sigment.
Maar goed voor NVIDIA dan dat de nieuwe generatie consoles niet nu uit komt. Wie zegt dat NVIDIA dat niet kan in een volgende generatie? AMD is ook binnen 3 jaar van R600 naar RV870 gegaan, van een heet stroomslurpend monster naar een efficiente snelle maar toch zuinige chip.

Daarnaast zit er veel meer aan kosten in een console GPU dan alleen productiekosten, iets waar ik eigenlijk op doelde. Royalties en rechten zijn net zo belangrijk. Als NVIDIA het belangrijk vindt om in een console te komen kunnen ze hier misschien wel een hele mooie prijs voor bieden. Geen idee of ze het doen, maar madmaxnl vroeg waarom MS voor NVIDIA zou kiezen. Misschien kan NVIDIA op dat moment een heel mooi ontwerp voor een hele schappelijke prijs aanbieden. Lijkt mij een goeie reden :)
ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
Jou opmerking van beter optie en prijs komt niet uit feiten maar uit fanboyism.
Ik geef alleen wat tegengas voor het verhaal van madmaxnl waarin NVIDIA niets goed kan doen terwijl AMD fantastisch is. Wat zeg ik dat niet uit feiten voortkomt? Ik geef alleen aan dat NVIDIA mogelijk een betere optie tegen een betere prijs kan bieden. Waarom zou dat niet kunnen?
Let wel, ik zeg niet dat NVIDIA de winnaar zal worden, en ik zeg ook niet dat ik vind dat NVIDIA de beste keuze zou zijn. Ik vind het alleen bijzonder dom fanboygedrag om nu al te roepen dat NVIDIA afgeschreven is voor de consolerace over enkele jaren, enkel op basis van de huidige stand van zaken in de GPU markt.
ArgantosNL schreef op vrijdag 11 juni 2010 @ 10:32:
en allemaal leuk en aardig dat ze 3 jaar geleden de beste chip hebben maar dat is nu niet meer zo.
Precies. Volgens mij haal je nu precies je eigen argumenten onderuit ;)
-AzErTy- schreef op vrijdag 11 juni 2010 @ 11:03:
@Snoitkever:
Tja waarom Sony niet voor Nvidia zou kiezen. Persoonlijk vind ik Sony een zeer eigenwijs bedrijf dat al jarenlang een mentaliteit heeft van "we don't need no help from nobody." Ze kiezen zelden de gemakkelijke weg en echt dev/consumer friendly zou ik ze niet noemen. Als het aan Sony lag dan was er nooit een RSX nodig geweest. Daarnaast is microsoft na de Xbox ook overgestapt van Nvidia naar Ati na onenigheid over de productie en licentiekosten van de GPU dacht ik. Misschien dat achter de schermen nu ook zoiets speelt?
Goeie kans hoor, ik wou alleen even de hypocrisie in madmaxnl's post aangeven. Ik denk inderdaad dat Sony het liefst alles zelf doet, dus goeie kans dat hun volgende GPU uit eigen stal komt. Het is echter maar de vraag of ze het nog kunnen, een moderne GPU is zo vreselijk complex dat er tientallen tot honderden mensen jaren aan werken. Dit wordt alleen nog maar erger bij nieuwe generaties. De vraag is of Sony die mankracht wel heeft, of moeten ze dit toch uitbesteden?

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Laatst online: 05-07 19:18
ArgantosNL schreef op vrijdag 11 juni 2010 @ 11:55:
[...]


Je vergelijkt nu wel grote en middelmaat appels :+ .
de HD4870 was een van de top modellen in het begin nr.2 na de hd4890 uit kwam nr.3

wat zat er nog allemaal boven de GTX260
GTX295
GTX285
GTX280
GTX275

dat is to een lager sigment dan de HD4870.

dus dit is niet helemaal een eerlijke vergelijking
Wat loop jij nu te vertellen over topmodellen en middelmaat? Jouw verhaal raakt echt kant nog wal.
De gtx 260 is de directe concurrent van de 4870 dus niks appels en peren.

De line up was zo GTX280>GTX260=4870>4850=GTS250 aka 9800GTX aka 8800GTS
Daarna kwam de update van 4890 en gt200b met "nieuwe" varianten die jij noemt.

God does not play dice


Acties:
  • 0 Henk 'm!

Anoniem: 134818

Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]

Maar tot op bepaalde hoogte. De reden dat sommige games van dit moment beter op de ene architectuur draaien dan de andere is niet vanwege optimalisatie maar vanwege de manier waarop graphics in de game gebruikt worden. Sowieso gaat dit veel verder dan daadwerkelijke shadercode, die uiteraard maar een van de vele bottlenecks is in een game.
Zeker, maar daar kan je als maker van je game dus flink rekening mee houden.
Verder niet lullig bedoeld, maar heb je eigenlijk ervaring met shadercode schrijven? Ik wel namelijk en ik weet uit eigen ervaring daarmee dat shadercode optimaliseren heel lastig is. Vergelijk het met optimaliseren van Java code, je hebt een virtual machine die het zelf allemaal weer uitvoert en rangschikt zoals het volgens de VM goed uitkomt. Het beste wat je kan doen is zorgen dat je intelligente en efficiente algoritmes gebruikt. Uiteraard zijn er wel trucs die je kunt gebruiken op bepaalde architecturen om het sneller te laten draaien, maar dat gaat niet op een dergelijk diep niveau. Bovendien heeft de NVIDIA architectuur daar ook weer z'n eigen voordelen. Het is natuurlijk niet alsof je niet kunt optimaliseren voor de huidige NVIDIA architectuur ;)
Lastig betekend niet onmogelijk. Ik schrijf gpGPU code en andere multicore code, gemakkelijk is dat zeker niet, maar dat betekend nog steeds niet dat het niet te doen is. Zeker omdat ze geen rekening hoeven houden met andere architecturen, osen etc etc. Ik zeg ook nergens dat je niet kan optimaliseren voor NVIDIA architectuur. Ik zeg alleen dat als je optimaliseert voor 1 ATI SPU, dan is hij sneller dan een enkele Nvidia SPU op een dubbele snelheid. (Stel je zou zwaar optimaliseren voor een gemiddelde van utilisatie van 3/4 bewerking per kloktik, dan ben je een stuk sneller).
Omdat een console bouwer nooit direct de huidige GPU in hun console zet.
Daarom blijft het nog wel een goeie vergelijking....
Ze willen een gespecialiseerde chip met features die passen in de rest van het ontwerp van hun console.
Dat klopt, maar als ze dat nu vragen, wat voor afgeleide word dat dan?
Zowel AMD als NVIDIA hebben laten zien dat ze hele "goeie" en hele "slechte" chips kunnen produceren. Het feit dat NVIDIA nu wat pech heeft gehad met hun high-end chips op 40nm en 55nm zegt niets over wat ze in de toekomst gaan doen op een ander procedee. AMD is terug gekomen van een waardeloze R600 chip en heeft nu de fantastische RV870 (sorry, heb een hekel aan die huidige codenames).
Nou, net zoals de G200 en de GF100, was de R600 ook niet geheel waardeloos. Hij kon alleen zo slecht overweg met AA. Maar dat doet nog steeds niet af aan de vergelijking die ik maak. Het klinkt een beetje als smoesjes hoor ;).
NVIDIA kwam van de fantastische G80 en G92 en heeft nu problemen met G200 en GF100. Allemaal binnen een paar jaar tijd. Wat voor garantie geeft zoiets voor de toekomst?
Garanties zijn er nooit. Daarbij gelden voor consoles qua kracht toch andere regels gezien de optimalisaties(ongeacht merk).

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 30-06 14:35

Darkasantion

Just keep swimming!

Bedacht me net iets toen ik review op Guru3D zag. Fermi yields zijn slecht en om het stroomverbruik en de temperaturen een beetje in het gareel te houden moesten ze 1 cluster uitschakelen om beetje redelijke temperaturen te krijgen.

Maar als alle clusters gewoon goed werken, dus geen noodzaak om 1 uit te schakelen ivm hoge temps of leaks, welke clocks kun je dan bereiken :P ? Volgens mij zal een 512 SP Fermi ongelooflijk goed overclocken als je een beetje degelijke koeling en PSU hebt, juist omdat je niet 1 of misschien 2 slechte clusters erop hebt zitten die je afremmen :D

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Je wordt altijd nog afgeremd door je zwakste onderdeel he? ;)

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 04-07 15:41
[quote]Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]

Zoals -AzErTy- al zegt is dat alleen de laatste 2 jaar. Daarvoor had NVIDIA "jaren" betere prijs/performance. Voor een console die over 2 jaar uitkomt kan de situatie weer compleet anders zijn.[/QUOTE}

ik heb het over prijs/preformance NV is altijd duurder geweest in verhouding.
Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]

Hoho, laten we even bij de feiten blijven. AMD chips van nu zijn zuiniger. De 4870 was in idle een stuk minder zuinig dan G200. 4870 was ook een vreselijk warme chip, problematisch warm zelfs, of zijn we opeens alle kritiek daarop vergeten? Meer dan 80 graden in idle zelfs. Verbaasd me steeds hoe snel mensen dit soort negatieve punten vergeten als het om hun favoriete bedrijf gaat ;)
Ik heb zelf een HD4870x2 met stock, werd inderdaad warm 90 load en 60 idle maar om het problematisch te noemen vind ik zwaar overdreven. Ik heb geen nieuwsberichten gezien dat hd4870 sterven door hitte.
Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]

Maar goed voor NVIDIA dan dat de nieuwe generatie consoles niet nu uit komt. Wie zegt dat NVIDIA dat niet kan in een volgende generatie? AMD is ook binnen 3 jaar van R600 naar RV870 gegaan, van een heet stroomslurpend monster naar een efficiente snelle maar toch zuinige chip.
je ziet ook dat fermi probemen heeft met hitte/verbruik/prijs je hebt het over een omslag in 3 jaar. op dit moment zijn ze met fermi de verkeerde weg in geslagen om op hitte/verbruik/prijs te kunnen winnen. nieuwe consoles verwacht ik uiterlijk 2012 tegen die tijd dat het helemaal omgeslagen is is klein gezien de voorsprong van ATI
Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
Daarnaast zit er veel meer aan kosten in een console GPU dan alleen productiekosten, iets waar ik eigenlijk op doelde. Royalties en rechten zijn net zo belangrijk. Als NVIDIA het belangrijk vindt om in een console te komen kunnen ze hier misschien wel een hele mooie prijs voor bieden. Geen idee of ze het doen, maar madmaxnl vroeg waarom MS voor NVIDIA zou kiezen. Misschien kan NVIDIA op dat moment een heel mooi ontwerp voor een hele schappelijke prijs aanbieden. Lijkt mij een goeie reden :)
met de huidige situatie is de waarschijnlijkheid hiervan klein.
Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]

Ik geef alleen wat tegengas voor het verhaal van madmaxnl waarin NVIDIA niets goed kan doen terwijl AMD fantastisch is. Wat zeg ik dat niet uit feiten voortkomt? Ik geef alleen aan dat NVIDIA mogelijk een betere optie tegen een betere prijs kan bieden. Waarom zou dat niet kunnen?
Let wel, ik zeg niet dat NVIDIA de winnaar zal worden, en ik zeg ook niet dat ik vind dat NVIDIA de beste keuze zou zijn. Ik vind het alleen bijzonder dom fanboygedrag om nu al te roepen dat NVIDIA afgeschreven is voor de consolerace over enkele jaren, enkel op basis van de huidige stand van zaken in de GPU markt.
Ik heb niet gezegt dat NVIDIA niks goed kan doen het is alleen niet erg waarschijnlijk dat ze in 2 jaar ATI in halen. ATI zit niet stil zoals NV heeft gedaan met het rebranden. De nieuwe consoles kun je verwachten 2012 gezien de leeftijd van de huidige consoles. Dus de tijd om te zorgen voor een omslag is heel beperkt.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
-The_Mask- schreef op donderdag 10 juni 2010 @ 23:49:
[...]

Google en ik kunnen zich zo 1,2,3 niet echt iets herinneren.
Nope, het waren slechts geruchten die toen deels onderbouwt konden worden vanwege het stroomverbruik.
Maar het lijkt me sowieso stug dat nVidia GTX470 kaarten als GTX465 kaarten gaat verkopen. Voor zo ver ik weet is het al slecht gesteld met de "winst" marges die ze op de Fermi serie hebben. Ook lijkt het me niet zo slim vanwege de slechte yields goede chips als minder goede chips de deur uit te doen.
Maar nVidia ziet mensen graag GTX465 kaarten kopen met de hoop dat ze deze kunnen unlocken ;)
Snoitkever schreef op vrijdag 11 juni 2010 @ 00:15:
[...]

1. Misschien omdat NVIDIA een betere optie voor een betere prijs biedt?


2. De GPU van (zowel NVIDIA als AMD) nu lijkt totaal niet meer op de GPUs in de 360, dus dit is een waardeloos argument. Bovendien zal de GPU in de volgende generatie consoles vele malen sneller zijn dan de huidige generatie. Snel genoeg om BC mogelijk te maken, ongeacht de architectuur.


3. Ja, want NVIDIA heeft nog nooit een kleine efficiente chip gemaakt! Wat denk je dat er in de sub $100 GPU's van NVIDIA zit, een grote inefficiente chip? :P


4. Van Microsoft en Nintendo verwacht je dat ze bij de huidige chipbakker blijven want tja, daar hebben ze eerder mee gewerkt. PS4 is een ander verhaal want?


5. Vind je het raar? De RSX was een noodoplossing op het laatste moment, feitelijk gewoon een Geforce 7800 die maar op enkele punten is aangepast. Als Sony eerder naar NVIDIA was gestapt hadden ze vast een meer geschikte chip gekregen voor in hun console. Men vroeg ooit aan een NVIDIA topman "wanneer gaan we een GPU zien die sneller is dan de GPU van de PS3?", waarop zijn antwoord was "nog voor de PS3 in de winkel ligt". Drie dagen voor de eerste verkoop van de PS3 in Japan lag de 8800GTX in de winkel. Deze kaart maakte gehakt van zowel de RSX als Xenos


6. Dat is zeker wel misleidend, want AMD kan helemaal niet altijd 5 soortgelijke instructies tegelijk uitvoeren in de meeste gevallen. Ja, dat kan als je de volgende code hebt
A = A1+A2
B = B1+B2
C = C1+C2
D = D1+D2
E = E1+E2
Maar zo gauw je code afhankelijk is van andere instructies valt het hele idee heel snel om. Worst case is dit:
A = A1+A2
B = A + B1
C = B + C1
D = C + D1
E = D + E1
Elke instructie moet na de vorige uitgevoerd worden omdat resultaten van de ene berekening in de andere nodig zijn. Deze code kost dus minimaal 5 cylci. Uiteraard is dit een worst case scenario, maar in echte shadercode kom je wel vaker dit soort code tegen. Wel heeft de AMD architectuur een voordeel bij vector operaties, maar daar staat weer tegenover dat NVIDIA de SM clock hoger heeft.

Daarnaast, hoe verklaar je het feit dat NVIDIA nu al meerdere malen bewezen heeft dat hun chips, die een veel lagere theoretische hoeveelheid FLOPs halen, in de praktijk toch sneller zijn?
1. Op het moment en ook als we verder kijken dan dit moment ziet dat er niet naar uit, ATI zal tegen die tijd zijn chips bij GF laten bakken en ga der maar van uit dat dit een vriendenprijsje zal zijn. Want GF zal tegen die tijd ook erg veel productie capaciteit hebben en waarschijnlijk deze niet helemaal kunnen benutten omdat ze niet genoeg orders krijgen. Dus ATI/AMD ouder van GF zal bijvoorbeeld tegen MS en of Nintendo zeggen dat ze de chips bij GF moeten gaan produceren en dat zei hierdoor dan een mooie totaal prijs kunnen realiseren. Dit kan nVidia niet want die hebben deze mogelijkheid niet ;w
Ook speelt architectuur en die grote e.d heel erg mee en op dat vlak staat ATI er nu beter voor.

2. Op de Wii kun je zonder ook maar een hele instructie lijst door te lopen Gamecube games erop spelen omdat ze beiden een ATI GPU hebben. Bij de Xbox360 met Xbox games is dit net even ietsje anders en dat heeft er denk ik vooral met de andere GPU fabrikant te maken. Met de PS3 kun je gewoon PS2 games spelen voor zo ver ik weet want zowel in de PS2 als in de PS3 zit een nVidia GPU. De games zijn namelijk specifiek gemaakt om maar op één bepaalde hardware configuratie te werken en als een andere hardware configuratie dan een game moet gaan renderen dan moet hij zijn inefficiëntie hardware configuratie t.o.v de specifiek gemaakten hardware configuratie compenseren door simpel weg veel sneller te zijn. Als je bij een zelfde GPU fabrikant blijft met twee generaties consoles dan blijven een aantal dingen gelijk in de manier van de game rendering. Daardoor is het dus vaak wel makkelijker mogelijk. Dit alles is helaas lastig volledig te bewijzen.

Oeps foutje 8)7 nVidia heeft toch niet de GPU voor de PS2 gemaakt en vandaar dat niet alles PS3 versies backwards compatible zijn dat maakt het argument er niet minder op.

3. Tja zeker kunnen ze dat maar waar zijn die sub 100$ DX11 GPU's van nVidia dan ? Features zijn namelijk ook erg belangrijk voor consoles want hier heb je niet het probleem van adoptation. Zie tessellation op de Xbox360. De tesselator die in de Xbox360 zit zit nu nog altijd in de Cypress chips van ATI en ook in de R600 een van de reden waarom deze flopte maar daar kom ik nog op terug.

4. Hier heb ik toch al mijn argumenten voor aangedragen, i.p.v mijn argumenten af te doen met als niet waar o.i.d probeer ze onderuit te halen met eigen argumenten.

5. Ze hadden dus gewoon pech net als ATI met de R600 want die kwam ook niet goed uit de verf door verschillende factoren waar ATI niet altijd grip op had.

6. Reinman heeft dit al beargumenteerd en daar sluit ik me volledig bij aan.
Snoitkever schreef op vrijdag 11 juni 2010 @ 10:14:
[...]
Daarnaast is het niet echt eerlijk om G200 en GF100 te gebruiken als voorbeelden van perf/mm2. Beiden zijn chips die problemen hebben gehad tijdens ontwikkeling en beiden halen hun optimale snelheden niet door problemen met het procedee. Anders mag jij me namelijk uitleggen waarom R600 het zo slecht deed tegen G80. R600 was 700 transistoren in 420mm2 op 80nm, G80 was 680 transistoren in 480mm2 op 90nm, en R600 was nog meer een flop dan G200/GF100 nu is.
De R600 had ook veel problemen hier zaten namelijk heel erg veel functies in die niet tot hun recht kwamen door dat MS zijn DX 10 specificaties onder de druk van nVidia had gewijzigd. Vandaar ook dat er een DX10.1 kwam en alleen ATI hier in het begin aan kon voldoen omdat zij deze immers al klaar hadden ten tijden van DX10 en nVidia heeft dus min of meer voor DX stagnatie gezorgd want de oorspronkelijke DX10 standaard kon nVidia niet aan voldoen en ATI wel. Later is de oorspronkelijke DX10 standaard DX10.1 geworden. De rede dat nVidia dit ook heeft kunnen flikken is omdat Vista klaar was met zijn DX10 maar er nog geen GPU's waren. Zowel ATI als nVidia hadden niks. nVidia had wel GPU's maar die waren eigenlijk niet gereed voor de oorspronkelijk geplande DX10 en ATI had productie problemen e.d. Vandaar dat MS gewoon zijn DX10 specificaties heeft aangepast zodat er wel kaarten klaar waren voor Vista en wel die van nVidia. Plotseling had de R600 van ATI veel overbodige functies waardoor deze kaart niet goed uit de verf kwam. Hier na kwam de RV670 hiermee heeft ATI veel uit zijn R600 gesloopt en deze ook nog op 55nm gebakken, de RV670 dus. Hierdoor was ATI weer competitief maar werden ze nog overschaduwt door de slechte R600.

Volgens mij is het zo wel een beetje gegaan :) Net voor de R600 heeft AMD ATI overgenomen ;w Helaas pinda kaas want dit was net het verkeerde moment 8)7
Snoitkever schreef op vrijdag 11 juni 2010 @ 12:06:
[...]


1. Hoho, laten we even bij de feiten blijven. AMD chips van nu zijn zuiniger. De 4870 was in idle een stuk minder zuinig dan G200. 4870 was ook een vreselijk warme chip, problematisch warm zelfs, of zijn we opeens alle kritiek daarop vergeten? Meer dan 80 graden in idle zelfs. Verbaasd me steeds hoe snel mensen dit soort negatieve punten vergeten als het om hun favoriete bedrijf gaat ;)


2. Daarnaast zit er veel meer aan kosten in een console GPU dan alleen productiekosten, iets waar ik eigenlijk op doelde. Royalties en rechten zijn net zo belangrijk. Als NVIDIA het belangrijk vindt om in een console te komen kunnen ze hier misschien wel een hele mooie prijs voor bieden. Geen idee of ze het doen, maar madmaxnl vroeg waarom MS voor NVIDIA zou kiezen. Misschien kan NVIDIA op dat moment een heel mooi ontwerp voor een hele schappelijke prijs aanbieden. Lijkt mij een goeie reden :)

3. Ik geef alleen wat tegengas voor het verhaal van madmaxnl waarin NVIDIA niets goed kan doen terwijl AMD fantastisch is. Wat zeg ik dat niet uit feiten voortkomt? Ik geef alleen aan dat NVIDIA mogelijk een betere optie tegen een betere prijs kan bieden. Waarom zou dat niet kunnen?
Let wel, ik zeg niet dat NVIDIA de winnaar zal worden, en ik zeg ook niet dat ik vind dat NVIDIA de beste keuze zou zijn. Ik vind het alleen bijzonder dom fanboygedrag om nu al te roepen dat NVIDIA afgeschreven is voor de consolerace over enkele jaren, enkel op basis van de huidige stand van zaken in de GPU markt.

4. Goeie kans hoor, ik wou alleen even de hypocrisie in madmaxnl's post aangeven.
1. Een HD4870 die IDLE 80 grade celcius wordt is geen probleem, hij is immers IDLE gewoon erg stil maar in inruil daarvoor wordt die wel warm dus wat is het probleem :? Als je kijkt naar de Δ°C dan is deze bij de HD4870 wel erg positief maar de reden waardoor dit komt is niet zo positief als het aan jou ligt.

2. Zie eerdere argumenten die voldoen denk ik wel als reden waarom ATI meer kans maakt.

3. In plaats van te zeggen waarom iets niet zou kunnen want dat kan je in bijna alle situaties zeggen en is dan ook geen goed argument(duh). Geef eens aan waarom iets wel zou kunnen.

4. Hypocrisie is mijn tweede naam mijn eerste naam is Sjoege :+

[ Voor 13% gewijzigd door madmaxnl op 11-06-2010 16:12 ]


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 01-07 14:45
madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:


2. Op de Wii kun je zonder ook maar een hele instructie lijst door te lopen Gamecube games erop spelen omdat ze beiden een ATI GPU hebben. Bij de Xbox360 met Xbox games is dit net even ietsje anders en dat heeft er denk ik vooral met de andere GPU fabrikant te maken. Met de PS3 kun je gewoon PS2 games spelen voor zo ver ik weet want zowel in de PS2 als in de PS3 zit een nVidia GPU. De games zijn namelijk specifiek gemaakt om maar op één bepaalde hardware configuratie te werken en als een andere hardware configuratie dan een game moet gaan renderen dan moet hij zijn inefficiëntie hardware configuratie t.o.v de specifiek gemaakten hardware configuratie compenseren door simpel weg veel sneller te zijn. Als je bij een zelfde GPU fabrikant blijft met twee generaties consoles dan blijven een aantal dingen gelijk in de manier van de game rendering. Daardoor is het dus vaak wel makkelijker mogelijk. Dit alles is helaas lastig volledig te bewijzen.
xbox -> xbox 360 compatibiliteit komt niet zozeer door de GPU maar de CPU.
xbox was een veredelde intel celeron en de CPU in de 360 was gebaseerd op een PowerPC CPU.

Computer says no


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 04-07 15:41
madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:De R600 had ook veel problemen hier zaten namelijk heel erg veel functies in die niet tot hun recht kwamen door dat MS zijn DX 10 specificaties onder de druk van nVidia had gewijzigd. Vandaar ook dat er een DX10.1 kwam en alleen ATI hier in het begin aan kon voldoen omdat zij deze immers al klaar hadden ten tijden van DX10 en nVidia heeft dus min of meer voor DX stagnatie gezorgd want de oorspronkelijke DX10 standaard kon nVidia niet aan voldoen en ATI wel. Later is de oorspronkelijke DX10 standaard DX10.1 geworden. De rede dat nVidia dit ook heeft kunnen flikken is omdat Vista klaar was met zijn DX10 maar er nog geen GPU's waren. Zowel ATI als nVidia hadden niks. nVidia had wel GPU's maar die waren eigenlijk niet gereed voor de oorspronkelijk geplande DX10 en ATI had productie problemen e.d. Vandaar dat MS gewoon zijn DX10 specificaties heeft aangepast zodat er wel kaarten klaar waren voor Vista en wel die van nVidia. Plotseling had de R600 van ATI veel overbodige functies waardoor deze kaart niet goed uit de verf kwam. Hier na kwam de RV670 hiermee heeft ATI veel uit zijn R600 gesloopt en deze ook nog op 55nm gebakken, de RV670 dus. Hierdoor was ATI weer competitief maar werden ze nog overschaduwt door de slechte R600.

Volgens mij is het zo wel een beetje gegaan :) Net voor de R600 heeft AMD ATI overgenomen ;w Helaas pinda kaas want dit was net het verkeerde moment 8)7
misschien een beetje kort door de bocht, dus dat R600 is gefaald is mede de schuld van nVidia en Mircosoft. Anders hadden ze 2a3 jaar geleden als een zelfde dilema gehad als met fermi(half jaar telaat met nieuwe DX versie).

wedden voor 10 euro dat we het zelfde krijgen met DX12 8)
wie doet mee?

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Als het geen probleem is dat een kaart warm wordt.. Waarom dan al die bashes over fermi dat hij warm wordt? deze draait IDLE ook relatief stil.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Omdat Nvidia een cluster uit heeft moeten schakelen om de temperatuur nog enigszins binnen de perken te houden, terwijl de RV770 weliswaar warm wordt, maar daar prima tegen kan (geen verhalen over grootschalige uitval door oververhitting, heb er zelf ook geen problemen mee). Het hitteprobleem dat Nvidia nu heeft met Fermi is dus groter dan dat ATi destijds had met de RV770.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Moshe85 schreef op vrijdag 11 juni 2010 @ 17:00:
[...]


xbox -> xbox 360 compatibiliteit komt niet zozeer door de GPU maar de CPU.
xbox was een veredelde intel celeron en de CPU in de 360 was gebaseerd op een PowerPC CPU.
een 800 mhz P3 toch? :)
Snoitkever schreef op vrijdag 11 juni 2010 @ 00:15:
[...]
Dat is zeker wel misleidend, want AMD kan helemaal niet altijd 5 soortgelijke instructies tegelijk uitvoeren in de meeste gevallen. Ja, dat kan als je de volgende code hebt
A = A1+A2
B = B1+B2
C = C1+C2
D = D1+D2
E = E1+E2
Maar zo gauw je code afhankelijk is van andere instructies valt het hele idee heel snel om. Worst case is dit:
A = A1+A2
B = A + B1
C = B + C1
D = C + D1
E = D + E1
Elke instructie moet na de vorige uitgevoerd worden omdat resultaten van de ene berekening in de andere nodig zijn. Deze code kost dus minimaal 5 cylci. Uiteraard is dit een worst case scenario, maar in echte shadercode kom je wel vaker dit soort code tegen. Wel heeft de AMD architectuur een voordeel bij vector operaties, maar daar staat weer tegenover dat NVIDIA de SM clock hoger heeft.
aan jou dus te taak om dit te voorkomen:

A = A1+A2
B = C1 + B1
C = E1 + D1
D = A + B
E = C + D

scheelt je, als de pipelining zijn werk goed doet, 2 cycles

[ Voor 63% gewijzigd door Anoniem: 303530 op 11-06-2010 18:54 ]


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Maar als de Xbox een x86- en de Xbox 360 een PowerPC processor heeft, dan zou dat toch juist incompatibiliteit impliceren?

Acties:
  • 0 Henk 'm!

Anoniem: 303530

een wii heeft een powerPC processor, toch kan ik wii games draaien op mijn bak (oke, het gaat traag, maar dat komt omdat het grafische gedeelte nog wat optimalisaties kan gebruiken)

emulatie, heet dat :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
madmaxnl schreef op vrijdag 11 juni 2010 @ 15:58:
[...]


Nope, het waren slechts geruchten die toen deels onderbouwt konden worden vanwege het stroomverbruik.
Maar het lijkt me sowieso stug dat nVidia GTX470 kaarten als GTX465 kaarten gaat verkopen. Voor zo ver ik weet is het al slecht gesteld met de "winst" marges die ze op de Fermi serie hebben. Ook lijkt het me niet zo slim vanwege de slechte yields goede chips als minder goede chips de deur uit te doen.
Maar nVidia ziet mensen graag GTX465 kaarten kopen met de hoop dat ze deze kunnen unlocken ;)
Ik zei ook al dat de kans dat je er één hebt minuscuul is, waren dan ook alleen maar een paar kaarten in het begin om aan de eerste vraag te voldoen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 346499

GTX485 Launch: Less hot and noisy in the sack?
KitGuru has heard that nVidia’s been through the first iteration of the GTX480 with a fine tooth comb, to create a GTX485 product that can run at least 20MHz more on the core clock, with improved cooling and performance. It’s also worked through some neat driver improvements that will also help. Nice.

How has this improvement been made possible and why has it taken so long?

Bill Dally is a smart cookie. One that spent 10 years at MIT creating massive, experimental, parallel processing systems. He’s used to increasing the smoothness of a machine’s operation by reducing the effort needed to synchronize disparate components. Useful, now that he has Fermi to tame.

-> So what is the GeForce GTX 485?

Simply put, it’s what Fermi should have been at launch.

A little quicker. A little cooler. A little easier to make. It will also overclock easier
.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Rev A4 ? 512Cuda Cores ? 40nm ? En toch allemaal zuiniger en minder warm ? Ik zou bijna zeggen dat de GTX485 op 32nm gemaakt gaat worden maar dat kan toch niet.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op vrijdag 11 juni 2010 @ 19:46:
Rev A4 ? 512Cuda Cores ? 40nm ? En toch allemaal zuiniger en minder warm ? Ik zou bijna zeggen dat de GTX485 op 32nm gemaakt gaat worden maar dat kan toch niet.
Dat kan inderdaad niet want er is geen 32nm bulk process waar dan ook. Verder was er een tijd terug wel een gerucht over A4, maar dat lijkt toch nooit meer geweest te zijn dan een gerucht, temeer omdat een A-revisie gewoonweg de bestaande problemen niet weg kan werken.

Meest waarschijnlijk hebben ze bij nVidia gewoonweg genoeg dies gevonden die wel krap aan met 512 cudacores kan werken binnen een stroomgebruik dat (waarschijnlijk gemiddeld) nog net binnen de 300Watt valt.

Acties:
  • 0 Henk 'm!

  • remielowik
  • Registratie: Januari 2010
  • Laatst online: 11:48
Of ze hebben in het geheim al een B revisie klaar welke de problemen oplossen waardoor de chips minder lekken en dus minder verbruiken.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Lijkt mij ook gewoon kaart met alle shaders ingeschakeld en aangezien ze de GTX480 een TDP van 250 Watt geven (al neemt die zo'n 300 max) hebben ze ook genoeg ruimte over natuurlijk.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
remielowik schreef op vrijdag 11 juni 2010 @ 21:00:
Of ze hebben in het geheim al een B revisie klaar welke de problemen oplossen waardoor de chips minder lekken en dus minder verbruiken.
Dan had je er echt al iets van gehoord, daarnaast kost dit tijd en geld, terwijl ze dat natuurlijk beter in Fermi II en GF104 kunnen steken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 14:18
Zijn er van de vele Kitguru-geruchten al een paar waarheid geworden, of niet? Die website, die zo uit het niets komt en ineens van alles claimt te weten, ik heb mijn twijfels...

Acties:
  • 0 Henk 'm!

Anoniem: 346499

Ik vertrouw KitGuru ook niet helemaal maar ze zijn al eens gecontacteerd geweest door nVidia zelf dus ik heb zoiets van : Hmm dit zullen ze nu toch weer niet verzonnen hebben zeker ? Mja je weet nooit natuurlijk en mocht het wederom BS zijn zal nVidia ze hopelijk terug contacteren :)

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
de gtx480 mag dan een tdp hebben van 250 hij gaat er regelmatig overheen.

Acties:
  • 0 Henk 'm!

Anoniem: 251563

Marc Rademaker schreef op vrijdag 11 juni 2010 @ 21:20:
Zijn er van de vele Kitguru-geruchten al een paar waarheid geworden, of niet? Die website, die zo uit het niets komt en ineens van alles claimt te weten, ik heb mijn twijfels...
KitGuru was de eerste die met geruchten kwam dat Manju Hedge van nVidia naar AMD overstapte dacht ik - dat bleek, tot ieders verbazing, waar te zijn. Maar verder weet ik er niet veel van.

Acties:
  • 0 Henk 'm!

Anoniem: 346499

http://www.xtremesystems....php?p=4429729&postcount=7

Op andere fora zegt men hetzelfde dus ik denk dat we kunnen concluderen dat het nieuwsbericht van KitGuru wellicht verzonnen is ... Laatste keer dat ik naar KitGuru surf mocht het werkelijk onwaar zijn. Nvidia zal hopelijk wel een antwoord geven op deze zaak want ik zie dat deze bron al op vele sites gelinkt is met als gevolg dat diegenen die een 480 willen kopen nu wachten op de 485 terwijl deze misschien helemaal nog niet binnenkort wordt gelaunched.

Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 20-06 07:06
Maar we zullen maar niet vragen naar de prijs... :|

Acties:
  • 0 Henk 'm!

Anoniem: 346499

Sommigen prefereren liever prijs/performance of 'bang for the buck' maar niet iedereen is zo hé :) Dit klinkt onlogisch in die zin alsof ik geld zou uitgeven aan iets wat minderwaardig maar zo bedoel ik het uiteraard niet. Heb zelf nog geen 4xx gekocht en enkele maten zitten zelfs nog met de oudere 8-reeks dus wij wachten nog wat af vooraleer een grote upgrade door te voeren. Hopelijk komt de 485 alsnog snel op de markt want de 480 hoewel zeer snel kan me niet volledig overtuigen vanwege de vele uiteenlopende reviews en bovendien zouden het DX11 Tesselation monsters zijn maar er zijn natuurlijk ook nog niet veel DX11 games uit die er dermate gebruik van maken dus wij wachten sowieso nog wat af hoe dit gaat evolueren :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 346499 schreef op zaterdag 12 juni 2010 @ 09:55:
Hopelijk komt de 485 alsnog snel op de markt want de 480 hoewel zeer snel kan me niet volledig overtuigen vanwege de vele uiteenlopende reviews en bovendien zouden het DX11 Tesselation monsters zijn maar er zijn natuurlijk ook nog niet veel DX11 games uit die er dermate gebruik van maken dus wij wachten sowieso nog wat af hoe dit gaat evolueren :)
De vraag is of een GTX485 dan wel kan overtuigen, ~6% meer performance van de extra cluster, misschien een iets hogere clock, waardoor de totale extra performance theoretisch tot zo'n 10% kan oplopen, maar in de praktijk waarschijnlijk ergens tussen de 5 en 10% blijft hangen. Dat terwijl de prijs waarschijnlijk aanzienlijk hoger zal uitvallen en de beschikbaarheid niet al te geweldig zal zijn, wat alleen maar weer extra hoge prijzen zal veroorzaken.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 25-06 00:45
Of ze schuiven met de prjzen. 485 vervangt 480. en 480, 470, 465 dalen in prijs. Een prijsdaling over de hele GTX4xx reeks zou immers wel mogen.

Blijft natuurlijk de vraag hoeveel goede 485 chips er nu werkelijk van de band rollen. En welke winst er te halen valt tov de 480 met die minimale verbeteringen. Verbruik en warmte gaan ook niet zo in een keer opgelost zijn. Dus zonder prijsdaling of een hogere 485 prijs, wordt het niet interessanter dan nu.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Anoniem: 357365

Hoe kan het dat een HD5870 beter klokt dan een GTX480, terwijl ze op dezelfde wafers worden gebouwd van TSMC? Dat klopt toch niet? Een transistor is gewoon een transistor, daar heeft architectuur niet zoveel mee te maken.
Pagina: 1 ... 11 ... 13 Laatste

Dit topic is gesloten.