Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 7 Laatste
Acties:
  • 30.427 views

Acties:
  • 0Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 24-05 00:46
Merlanni schreef op zondag 01 mei 2011 @ 16:01:
Een tussendoor vraag over een Nvidia discussie, met name de Graka's.

Is er geen merk kaart dat in het echt deel is van Nvidia zelf. Ik meen EVGA.
Je hebt wel merken die Nvidia only verkopen, maar geen merken die van Nvidia zijn.

Echt verkoop Nvidia sinds een half jaar ook zelf zijn kaarten.

Acties:
  • 0Henk 'm!

Anoniem: 245699

Anoniem: 304087 schreef op zondag 01 mei 2011 @ 12:20:
3 way sli test van hardopc, die alleen zwaar anti nvidia is vanwege te zeggen datde nieuwere drivers niet beter zijn, wat wel zo is en daarom maar testen met drivers uit 2010 waarbij 3way sli helemaal niet eens goed schaald vergeleken met de drivers van nu. Er word wel getest met de laatste AMD drivers.
Deze test laat weer mooi zijn hoe bro mad deze site is en nvidia in een slechter daglicht willen laten zien om te zorgen dat meer mensen voor amd zullengaan kiezen bij een aankoop van zo'n setup. Echter weten wij wel beter en schaald 3 way sli met 3 gtx580's beter qua fps dan 3fire hd6970.
http://www.hardocp.com/ar...sli_radeon_trifire_review

Een test dus om weer met een korreltje zout te nemen...
Het enige wat ik kan aanmerken op de review is dat F1 2010 een te grote stempel drukt op het 'gemiddelde'. In de andere games gaat het gelijk op terwijl F1 gewoon duidelijk een AMD game is. Het zou wellicht wat slimmer zijn om die game te vervangen door een drie tal andere games, want vijf games is sowieso wat mager. Of zet er een 'Nvidia' game als Lost Planet 2 bij om de boel wat gelijkwaardiger te maken.

Maar de conclusie die ik verder trek uit die review is dat AMD voor ~800/900,- minimaal dezelfde prestaties neerzet als ~1200,- aan Nvidia kaarten en ook nog eens minder stroom verbruikt. ;)
Dat komt denk ik ook deels door de reso die men gebruikt en het kan heel goed zijn dat de 1.5gb toch net tekort komt op een dermate hoge resolutie. Nvidia zal bij de volgende serie echt meer en sneller geheugen op de kaarten moeten plakken en dan zullen de memorycontroller eens goed moeten doorlichten, want ik begreep dat daar voornamelijk het probleem ligt.

[Voor 12% gewijzigd door Anoniem: 245699 op 01-05-2011 18:02]


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 245699 schreef op zondag 01 mei 2011 @ 17:58:
Dat komt denk ik ook deels door de reso die men gebruikt en het kan heel goed zijn dat de 1.5gb toch net tekort komt op een dermate hoge resolutie. Nvidia zal bij de volgende serie echt meer en sneller geheugen op de kaarten moeten plakken en dan zullen de memorycontroller eens goed moeten doorlichten, want ik begreep dat daar voornamelijk het probleem ligt.
De 2GB voor de AMD kaarten is door AMD bewust gemaakt met het oog op Crossfire. Want de HD58xx en HD69xx kaarten verschillen qua performance onderling niet zo heel veel maar zodra ze in Crossfire worden gezet neemt de HD69xx reeks een fikse voorsprong. HD5xxx Crossfire was t.o.v. SLI ongeveer gelijkwaardig maar met de HD6xxx serie hebben ze SLI wat mij betreft ingehaald en daar kan tot in het einde der dagen over gediscussieerd worden.

Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
Dat komt denk ik ook deels door de reso die men gebruikt en het kan heel goed zijn dat de 1.5gb toch net tekort komt op een dermate hoge resolutie
Ik hoop dat ze binnenkort wat 3Gb versies van de 580 in SLI gaan testen. Ik heb er tot nu toe 1 filmpje over kunnen vinden, die persoon gaf aan dat het het upgraden waard was:
4 Way SLI Palit GTX 580 3GB

Edit:
Ik ben een topic tegengekomen waarin iemand quad-SLI 580's met 3Gb heeft. Bij sommige games schaalt de 4e kaart zelfs nog met 85%, bijna lineaire schaling dus: Vega's SLI scaling

[Voor 22% gewijzigd door Max Hunt op 02-05-2011 11:08]


Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Max Hunt schreef op zondag 01 mei 2011 @ 21:32:
Ik ben een topic tegengekomen waarin iemand quad-SLI 580's met 3Gb heeft. Bij sommige games schaalt de 4e kaart zelfs nog met 85%, bijna lineaire schaling dus: Vega's SLI scaling
Enige notatie in die 'benchmarks' is dat hij bij alle tests het spel laadde in single player (logisch) en vervolgens de character niets liet doen, dus er was sprake van een statische wereld. Vervolgens gebruikt hij Fraps om de FPS te bepalen (op zich prima methode). Het is leuk om te zien dat in dergelijke situaties scaling aardig omhoog gaat, maar hoe het gemiddeld is wanneer je daadwerkelijk gaat gamen (wat mij toch de bedoeling lijkt te zijn van games), wordt totaal niet duidelijk in deze.

Maar goed, voor mensen die graag naar het beginpunt willen blijven staren, is het goed te weten dat quad-SLI weldegelijk de FPS goed omhoog gooit.

Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
Enige notatie in die 'benchmarks' is dat hij bij alle tests het spel laadde in single player (logisch) en vervolgens de character niets liet doen
Alleen bij Crysis 2 en Metro 2033. Bij bijv. AvP, Lost Planet, F1 2010 en Batman gebruikt hij de benchmark van dat spel.

Het zou het dus waard kunnen zijn om over te stappen van een normaal GTX 580 model naar een 3Gb model. Alleen jammer dat er geen Palit's staan in de pricewatch, die hebben wel een 2-slot koeler.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op maandag 02 mei 2011 @ 15:05:
[...]


Enige notatie in die 'benchmarks' is dat hij bij alle tests het spel laadde in single player (logisch) en vervolgens de character niets liet doen, dus er was sprake van een statische wereld. Vervolgens gebruikt hij Fraps om de FPS te bepalen (op zich prima methode). Het is leuk om te zien dat in dergelijke situaties scaling aardig omhoog gaat, maar hoe het gemiddeld is wanneer je daadwerkelijk gaat gamen (wat mij toch de bedoeling lijkt te zijn van games), wordt totaal niet duidelijk in deze.

Maar goed, voor mensen die graag naar het beginpunt willen blijven staren, is het goed te weten dat quad-SLI weldegelijk de FPS goed omhoog gooit.
Alle tests? :? Misschien moet jij eens de inhoud lezen van hetgeen waar je op reageert. Er staat hartstikke duidelijk dat er ook ''in-game benchmarks'' worden gebruikt.

Edit: lees nu pas reactie van Max Hunt. Kan zelf voortaan beter alle reacties in topic lezen voor ik zelf reageer 8)7

[Voor 6% gewijzigd door Springstof op 02-05-2011 23:57]


Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Springstof schreef op maandag 02 mei 2011 @ 23:54:
Alle tests? :? Misschien moet jij eens de inhoud lezen van hetgeen waar je op reageert. Er staat hartstikke duidelijk dat er ook ''in-game benchmarks'' worden gebruikt.
Ja, ik zag het ook net vanmorgen. Was een klein beetje te vlot er doorheen gegaan met lezen. Goed, twee statische 'benchmarks'. Nog steeds zou het meer zeggen als er een bepaalde 'route' werd afgelegd in die spellen, om een beter idee te krijgen. Maar dat kun je natuurlijk niet verwachten van een enthousiast die het 'voor de lol' doet.

Waar ik dan nog wel commentaar op wil hebben, is dat de gegeven cijfers alleen maar de MAX FPS lijken te zijn, wat dus helemaal niets zegt over gemiddelde FPS, laat staan de minimum FPS. Dat er uitschieters naar boven zitten van ~100% scaling is leuk, maar als dat je algemene gameplay niet verbetert heb je er niets aan.

Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 30-05 11:07
Merlanni schreef op zondag 01 mei 2011 @ 16:01:
Een tussendoor vraag over een Nvidia discussie, met name de Graka's.

Is er geen merk kaart dat in het echt deel is van Nvidia zelf. Ik meen EVGA.
Ik dacht BFG dat die eigenlijk de Nvidia vendor zijn.

Acties:
  • 0Henk 'm!

Anoniem: 245699

dahakon schreef op dinsdag 03 mei 2011 @ 08:31:
[...]

Waar ik dan nog wel commentaar op wil hebben, is dat de gegeven cijfers alleen maar de MAX FPS lijken te zijn, wat dus helemaal niets zegt over gemiddelde FPS, laat staan de minimum FPS. Dat er uitschieters naar boven zitten van ~100% scaling is leuk, maar als dat je algemene gameplay niet verbetert heb je er niets aan.
Bij F1 2010 kunnen we toch duidelijk zien dat ie naar het gemiddelde kijkt en niet naar de max. fps. Snap niet waarom dit onderuit gehaald moet worden?

[Voor 59% gewijzigd door Anoniem: 245699 op 03-05-2011 11:22]


Acties:
  • 0Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 18:53
Duidelijk, iedereen dus weer nvidia kopen. Straks raken ze nog in de probs en gaan we meer betalen voor het alternatief :o

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Tuurlijk niet. Denk je nu echt dat ze door wat minder verkoop in de problemen komen?
Dit soort bdrijven gaan nooit kapot en dit zet ze weer ff aan het denken en hopelijk gevolgt
door een positief effect. Ik vind het tot nu toe allemaal niet meer zo intressant het gpu gebeuren qwa nieuws.
Ik wacht met smart op amd's en nvidia's 28nm spul.

Acties:
  • 0Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Nu online

superwashandje

grofheid alom

kuchsarcasmevanwegemadmaxkuch

toch de hoogste groei voor AMD, ik had eerder intel verwacht vanwege alle integrated graphics in de processors. maar dit zal natuurlijk wel gecompenseerd zijn doordat ze dat altijd al in de chipsets hadden.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0Henk 'm!

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 09:00

epic_gram

undercover moderator

superwashandje schreef op woensdag 04 mei 2011 @ 12:51:
kuchsarcasmevanwegemadmaxkuch

toch de hoogste groei voor AMD, ik had eerder intel verwacht vanwege alle integrated graphics in de processors. maar dit zal natuurlijk wel gecompenseerd zijn doordat ze dat altijd al in de chipsets hadden.
ja, en waarschijnlijk ook de problemen die er waren met de sandybridge chipsets. Volgens mij hebben ze daar best wel een klap van gekregen waar AMD van heeft geprofiteerd. Verder is er natuurlijk nog de HD6990 en GTX590 welke niet veel verkocht waren, maar toch wel positief uit heeft gepakt voor AMD.

Maar ik verwacht eerlijk gezegd wel dat nVidia niet echt meer groot zal worden, ze vallen nu een beetje buiten de boot aangezien AMD en intel allebei graka's in hun CPU en chipsets stoppen. Verder maken ze ook geen chipsets meer voor amd en intel, best jammer.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


Acties:
  • 0Henk 'm!

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 31-05 14:41
epic_gram schreef op woensdag 04 mei 2011 @ 20:24:
[...]

ja, en waarschijnlijk ook de problemen die er waren met de sandybridge chipsets. Volgens mij hebben ze daar best wel een klap van gekregen waar AMD van heeft geprofiteerd. Verder is er natuurlijk nog de HD6990 en GTX590 welke niet veel verkocht waren, maar toch wel positief uit heeft gepakt voor AMD.

Maar ik verwacht eerlijk gezegd wel dat nVidia niet echt meer groot zal worden, ze vallen nu een beetje buiten de boot aangezien AMD en intel allebei graka's in hun CPU en chipsets stoppen. Verder maken ze ook geen chipsets meer voor amd en intel, best jammer.
Ik ben nog steeds van mening dat Nvidia aan een x86 cpu aan het werken is.
Wat moeten ze anders met 200+ x86 CPU engineers? Die laat je niet ARM CPU's maken?
Want na de aankoop van Portalplayer hebben ze die al..

Nvidia had ook best verder met chipsets kunnen gaan maar ze zijn zelf met AMD gestopt en de ION die ze hadden aangekondigd voor VIA Nano is nooit uitgekomen. En na de Intel settlement hadden ze daar ook weer chipsets voor kunnen maken.

Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
deregtx schreef op woensdag 04 mei 2011 @ 22:05:
[...]


Ik ben nog steeds van mening dat Nvidia aan een x86 cpu aan het werken is.
Wat moeten ze anders met 200+ x86 CPU engineers? Die laat je niet ARM CPU's maken?
Want na de aankoop van Portalplayer hebben ze die al..

Nvidia had ook best verder met chipsets kunnen gaan maar ze zijn zelf met AMD gestopt en de ION die ze hadden aangekondigd voor VIA Nano is nooit uitgekomen. En na de Intel settlement hadden ze daar ook weer chipsets voor kunnen maken.
200+ x86 CPU engineers gaat niks uithalen. Zeker niet als je bedenkt dat VIA al meer x86 R&D personeel heeft daarnaast is VIA een fractie(1/10 van nVidia) van wat nVidia is om maar even aan te geven dat nVidia er niet zomaar even tussen kan komen. nVidia heeft niet eens een x86 licentie en ze hebben ook geen licenties op alle instructiesets die AMD en Intel min of meer delen. Zelfs als nVidia VIA overneemt is nVidia ongevaarlijk voor AMD en Intel. Daarom heeft nVidia ook al zijn geld ingezet op ARM iets waarvan AMD en Intel meer van te duchten hebben.

In een markt als ARM is makkelijk in te komen omdat iedereen die licentie kan kopen en bij wijzen van spreken "een cursus how-to" bijkrijgt. In de x86 markt begin je lekker onderaan de ladder. Ook de GPU markt is niet makkelijk in te komen. Kijk maar naar Intel die met miljarden gooit om er fatsoenlijk in te komen en mee te kunnen doen in het hogere segment, wat ze overigens nog niet is gelukt maar waarschijnlijk wel gaat lukken. Dus ook voor de GPU markt geldt dat als je daarin mee wilt doen je gewoon onderaan de ladder zult moeten beginnen i.t.t. de ARM markt.

Het voordeel en ook direct het nadeel van ARM is dat iedereen gezellig mee doet en iedereen je concurrent is. Het gevolg hiervan is dat ARM een erg concurrerende markt is en de marges erg laag zijn, want als Pietje een stuiver te veel vraagt en of minder kan bieden dan de concurrentie dan ligt Pietje eruit.

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
Weet iemand hoe het zit met de echte cijfers? Met statistieken kun je van alles doen maar met deze waarden weten we niet alles. Nvidia "verliest" 2.5% marktaandeel maar kan bijvoorbeeld 10% meer winst hebben gemaakt. En dat "verliezen" hoeft niet eens letterlijk zijn, het is alleen maar in verhouding met alle verkochte gpu's.

(Als 100% van de mensen een Nvidia gpu heeft maar ook een onboard gpu, dan heeft Nvidia maar een marktaandeel van 50%. )

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 31-05 14:41
madmaxnl schreef op woensdag 04 mei 2011 @ 22:26:
[...]


200+ x86 CPU engineers gaat niks uithalen. Zeker niet als je bedenkt dat VIA al meer x86 R&D personeel heeft daarnaast is VIA een fractie(1/10 van nVidia) van wat nVidia is om maar even aan te geven dat nVidia er niet zomaar even tussen kan komen. nVidia heeft niet eens een x86 licentie en ze hebben ook geen licenties op alle instructiesets die AMD en Intel min of meer delen. Zelfs als nVidia VIA overneemt is nVidia ongevaarlijk voor AMD en Intel. Daarom heeft nVidia ook al zijn geld ingezet op ARM iets waarvan AMD en Intel meer van te duchten hebben.

In een markt als ARM is makkelijk in te komen omdat iedereen die licentie kan kopen en bij wijzen van spreken "een cursus how-to" bijkrijgt. In de x86 markt begin je lekker onderaan de ladder. Ook de GPU markt is niet makkelijk in te komen. Kijk maar naar Intel die met miljarden gooit om er fatsoenlijk in te komen en mee te kunnen doen in het hogere segment, wat ze overigens nog niet is gelukt maar waarschijnlijk wel gaat lukken. Dus ook voor de GPU markt geldt dat als je daarin mee wilt doen je gewoon onderaan de ladder zult moeten beginnen i.t.t. de ARM markt.

Het voordeel en ook direct het nadeel van ARM is dat iedereen gezellig mee doet en iedereen je concurrent is. Het gevolg hiervan is dat ARM een erg concurrerende markt is en de marges erg laag zijn, want als Pietje een stuiver te veel vraagt en of minder kan bieden dan de concurrentie dan ligt Pietje eruit.
Ze hebben dan ook het hele Transmeta team in dienst inclusief de gast die code-morphing (een soort van emulatie)heeft uitgevonden. Dus ze kunnen net als transmeta (zonder x86 licentie)gewoon een cpu maken met x86 emulatie.
En zou daarnaast ook ARM kunnen emuleren om zo een X86/ARM hybride cpu te maken.
Dat lijkt me meer logisch dan de X86/Power die toen bij Transmeta in de planning was.

Via had 100 mensen in hun cpu afdeling (Centaur Technology) in 2008 en zal nu wel niet veel meer zijn.

Ik zou het anders ook niet weten wat die mensen daar aan het doen zijn :D
Want je gaat niet een heel x86 ontwerp team inhuren om ze vervolgens iets heel anders te laten doen :?

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 09:00

epic_gram

undercover moderator

deregtx schreef op donderdag 05 mei 2011 @ 01:18:
[...]


Ze hebben dan ook het hele Transmeta team in dienst inclusief de gast die code-morphing (een soort van emulatie)heeft uitgevonden. Dus ze kunnen net als transmeta (zonder x86 licentie)gewoon een cpu maken met x86 emulatie.
En zou daarnaast ook ARM kunnen emuleren om zo een X86/ARM hybride cpu te maken.
Dat lijkt me meer logisch dan de X86/Power die toen bij Transmeta in de planning was.
Volgens mij mogen ze het sowieso niet hardwarematig emuleren. Als ze X86 willen doen, moeten ze voor zover ik weet gewoon een ARM chip oid maken en daar dan een laagje software overheen knutselen waardoor het X86 instructies kan uitvoeren.

Maar ik moet madmaxnl gelijk geven, als zelfs AMD moeite heeft om intel bij te houden lukt het nVidia al helemaal niet om opeens met maar 200 mensen iets concurrerends te maken vanuit het niets. Ze hebben nog geen ervaring, en daarbij nog de beperking dat ze het heel anders moeten aanpakken als AMD/intel/Via. Daarbij zijn de marges van AMD ook nog heel klein, dus als ze al iets leuks ontwikkelen verdienen ze er alsnog geen knoop aan.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 02-06 05:09

Format-C

Rays aan het Tracen

Die market shares zijn gewoon golfbewegingen. Als nV straks weer met een uber kaart a la G80 komt gainen zij weer marketshare. Alleen het feit dat zij geen CPU's met IGP hebben moet ze toch wel zorgen baren...

[Voor 24% gewijzigd door Format-C op 05-05-2011 10:10]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Format-C schreef op donderdag 05 mei 2011 @ 10:09:
Die market shares zijn gewoon golfbewegingen. Als nV straks weer met een uber kaart a la G80 komt gainen zij weer marketshare. Alleen het feit dat zij geen CPU's met IGP hebben moet ze toch wel zorgen baren...
Quadro en Tesla compenseren het niet meer meedoen in het low-end segment wel. Laatste keer dat ik keek(2008?) had nVidia 90% van de CAD/Mathlab etc markt in handen met hun Quardro kaarten.
Max Hunt schreef op donderdag 05 mei 2011 @ 01:16:
Weet iemand hoe het zit met de echte cijfers? Met statistieken kun je van alles doen maar met deze waarden weten we niet alles. Nvidia "verliest" 2.5% marktaandeel maar kan bijvoorbeeld 10% meer winst hebben gemaakt. En dat "verliezen" hoeft niet eens letterlijk zijn, het is alleen maar in verhouding met alle verkochte gpu's.

(Als 100% van de mensen een Nvidia gpu heeft maar ook een onboard gpu, dan heeft Nvidia maar een marktaandeel van 50%. )
De statistieke zeggen inderdaad te weinig om er een zinnig woord over te kunnen zeggen.
Bij de huidige statistieken missen wij bijvoorbeeld de omzet en winstgevendheid cijfers. Als deze gegevens er bij zitten kunnen we al heel zinnig uitspraken doen.

[Voor 44% gewijzigd door madmaxnl op 05-05-2011 10:19]


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 09:00

epic_gram

undercover moderator

Format-C schreef op donderdag 05 mei 2011 @ 10:09:
Als nV straks weer met een uber kaart a la G80 komt gainen zij weer marketshare.
Het is alleen een ontzettend klein deeltje van de markt, die ze daarmee zouden bereiken. Alles word nu juist geintegreerd in CPU's en MoBo's, een supergoede ontwikkeling welke in de komende jaren alleen maar word doorgezet.

GPU kracht is anno 2011 niet echt meer belangrijk, behalve voor GPGPU, maar daar is een doorsnee AMD/intel graka ook wel prima toe in staat voor 99% v/d gebruikers. Energieverbruik en prijs zijn veel belangrijker, punten waarop het huidige nVidia ontwerp niet zo sterk staat tegenover AMD/intel. Ik verwacht dat het met nVidia nu gewoon berg afwaards gaat, en dat intel over een poosje het gat weer dichtmaakt. Het maakt mij ook geen zak uit of ik nou een intel, AMD of nVidia chip in mijn PC heb hangen, zolang er maar meerdere bedrijven zijn die een beetje gelijk opgaan aan elkaar vind ik het wel prima.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • michelv5
  • Registratie: Maart 2011
  • Laatst online: 04-08-2022
Ik denk zelf ook wel dat nVidia weer terug komt hoor, ik vind dit nog steeds dat ze de beste GPU's maken om cad te tekenen en te renderen met verschillende programma's of photoshoppen.

Ik heb 3 kaarten van nVidia gehad en 2 van Ati (amd) en ben beter te spreken over de nVidia dan die van Ati. Gewoon de nVidia kaarten waren sneller en hielden het langer uit dan de Ati kaarten. (ik kocht ze altijd in dezelfde prijsklasse en deed het er hetzelfde op)

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
Dan waren het geen G80's zeker..

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-05 13:53
deregtx schreef op donderdag 05 mei 2011 @ 01:18:
[...]


Ze hebben dan ook het hele Transmeta team in dienst inclusief de gast die code-morphing (een soort van emulatie)heeft uitgevonden. Dus ze kunnen net als transmeta (zonder x86 licentie)gewoon een cpu maken met x86 emulatie.
En zou daarnaast ook ARM kunnen emuleren om zo een X86/ARM hybride cpu te maken.
Dat lijkt me meer logisch dan de X86/Power die toen bij Transmeta in de planning was.
In de overeenkomst met Intel staat héél nadrukkelijk dat nVidia zich aan geen enkele vorm van x86 emulatie mag "bezondigen". Dit geld zowel software als hardware matig ...
Via had 100 mensen in hun cpu afdeling (Centaur Technology) in 2008 en zal nu wel niet veel meer zijn.


Ik zou het anders ook niet weten wat die mensen daar aan het doen zijn :D
Want je gaat niet een heel x86 ontwerp team inhuren om ze vervolgens iets heel anders te laten doen :?
• Enkel al door meer druk te kunnen uitvoeren op Intel tijdens de onderhandelingen hebben die mensen misschien al hun waarde bewezen.
• Daarbij 100-den ARM ontwerpers vind je ook niet in 1-2-3 hoor. Het is héél duidelijk gebleken dat nVidia plant om op termijn niet enkel de referentie architectuur van ARM over te nemen maar zelf een eigen implementaties wenst te produceren en hiervoor heb je nu eenmaal een hoop interne know-how nodig.
• Ook is het al lange tijd duidelijk dat nVidia plant om de GPU zoveel mogelijk taken te laten uitvoeren die nu door de CPU worden afgehandeld (CUDA). Een hoop x86 specialisten kunnen je hierbij echt wel bijstaan ook al creëer je een heel andere architectuur. Dezelfde problemen zullen nu eenmaal moeten opgelost worden, caching, pipelining (met efficiente voorspellingen) een goede compiler(Intel heeft momenteel een van de beste voor hun architectuur..) al is het maar om de workload zoveel mogelijk te paralleliseren,..

Ik zou dus weggen meer dan genoeg werk voor die 100-den mensen. Te meer we er al lang niet meer zeker zijn dat deze nog allen werken voor nVidia. Werknemers durven nogal te jobhoppen en zeker als ze een expert zijn op uw domein.

Specs


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
epic_gram schreef op donderdag 05 mei 2011 @ 09:40:
[...]

Volgens mij mogen ze het sowieso niet hardwarematig emuleren. Als ze X86 willen doen, moeten ze voor zover ik weet gewoon een ARM chip oid maken en daar dan een laagje software overheen knutselen waardoor het X86 instructies kan uitvoeren.

Maar ik moet madmaxnl gelijk geven, als zelfs AMD moeite heeft om intel bij te houden lukt het nVidia al helemaal niet om opeens met maar 200 mensen iets concurrerends te maken vanuit het niets. Ze hebben nog geen ervaring, en daarbij nog de beperking dat ze het heel anders moeten aanpakken als AMD/intel/Via. Daarbij zijn de marges van AMD ook nog heel klein, dus als ze al iets leuks ontwikkelen verdienen ze er alsnog geen knoop aan.
Intel heeft ooit het omgekeerde geprobeerd, aanhaken in de high-end GPU markt. Iemand de laatste tijd nog iets over Larrabee gehoord? ;)

specs


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Larrabee is ook een halve oplossing, een hoop kleine x86 cores bij elkaar plaatsen om zo ongeveer hetzelfde te krijgen als een GPU. Op driver niveau wordt dat een hel en het is nog maar de vraag of het überhaupt snel wordt.

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 12-01 23:43
madmaxnl schreef op donderdag 05 mei 2011 @ 13:43:
Larrabee is was ook een halve oplossing, een hoop kleine x86 cores bij elkaar plaatsen om zo ongeveer hetzelfde te krijgen als een GPU.
http://arstechnica.com/ha...-news-to-come-in-2010.ars

specs


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 09:00

epic_gram

undercover moderator

Er zijn gewoon wisselende berichten over de larrabee, dan weer zou intel stoppen, dan weer verder, dan weer stoppen, enz. Ik verwacht dat ze misschien een iets andere aanpak gaan verzinnen, maar dat ze wel degelijk gaan proberen om in de high-end graka markt te stappen.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Er zijn zelfs geruchten dat de nieuwe Larrabee terug gaat komen in de nieuwe Playstation van Sony iets wat niet slecht is voor de adaptatie van Larrabee i.v.m. drivers etc.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 18:53
madmaxnl schreef op donderdag 05 mei 2011 @ 14:16:
Er zijn zelfs geruchten dat de nieuwe Larrabee terug gaat komen in de nieuwe Playstation van Sony iets wat niet slecht is voor de adaptatie van Larrabee i.v.m. drivers etc.
Dat lijkt me zeer onwaarschijnlijk en gewoonweg ondenkbaar. Tenzij Sony weer extreme risico's durft te nemen door een compleet andere gpu architectuur te nemen en een rsx moeten integreren in de ps4 om backward compatible te blijven. Dan krijg je weer een console die overpriced is zijn eerste twee levensjaren en te weinig mensen voor willen betalen. Daarnaast is larrabee verre van af en is het niet eens zeker of dit ooit gaat komen, laat staan echt kan meekomen.
De ps4 is ondertussen in ontwikkeling en zal binnen twee jaar of ontworpen zijn of al in de winkel liggen, larrabee is dan een no go.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Waarom zit er geen 3GB geheugen op ?

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 30-05 11:07
ligt het aan mij of is dit echt een onzin product? Ik hoor mijn kaart niet eens terwijl ik hem heb overclocked naar 925Mhz bij 2200 met 1.125V in furmark wordt hij 80C met 60% fanspeed... Fluister stil echt en dit is een club3d 580 dus gewoon een reference design volgens mij. Vraag me dan af wat het nut is van een "stillere" cooler maar niet 3GB geheugen.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 21:13
Jasper 99 schreef op donderdag 05 mei 2011 @ 22:52:
ligt het aan mij of is dit echt een onzin product? Ik hoor mijn kaart niet eens terwijl ik hem heb overclocked naar 925Mhz bij 2200 met 1.125V in furmark wordt hij 80C met 60% fanspeed... Fluister stil echt en dit is een club3d 580 dus gewoon een reference design volgens mij. Vraag me dan af wat het nut is van een "stillere" cooler maar niet 3GB geheugen.
Blijft hij ook zo koel als je de .exe van furmark verandert naar jan.exe (of een andere fantastische naam)?
Volgens mij throttled nvidia zijn kaarten zodra furmark wordt gedraaid, volgens mij had springstof dat uitgezocht een tijd terug?

Lijkt mij dat een beter gekoelde kaart nooit kwaad kan.

Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 30-05 11:07
Sp3ci3s8472 schreef op donderdag 05 mei 2011 @ 23:56:
[...]


Blijft hij ook zo koel als je de .exe van furmark verandert naar jan.exe (of een andere fantastische naam)?
Volgens mij throttled nvidia zijn kaarten zodra furmark wordt gedraaid, volgens mij had springstof dat uitgezocht een tijd terug?

Lijkt mij dat een beter gekoelde kaart nooit kwaad kan.
hmm zal het proberen je kan gelijk hebben 3dmark 11 + crysis 2 komen echer ook niet boven 80 met fanspeed 60%

Edit: furmark.exe anders genoemd overvolt 1.138v core 925 mem 2200(die moet ik nog tweaken) temp 83c fanspeed 61% --> niet te horen. Maakt dus niet echt uit! ik ben wel tevreden met dit kaartje als ik fanspeed omhoog zou schroeven wordt hij gewoon koud! Ben er dik tevreden mee!

[Voor 20% gewijzigd door Jasper 99 op 06-05-2011 01:40]


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Maak eens een screenshot met daarin taakbeheer waarin we kunnen zien dat je Furmark hebt gerenamed waarbij Furmark zelf dan dusdanig lang loopt dat de temperatuur lijn vlak is. Dit lijkt me namelijk wel heel erg indrukwekkend.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
madmaxnl schreef op donderdag 05 mei 2011 @ 21:22:
Waarom zit er geen 3GB geheugen op ?
Omdat 1,5gb genoeg is? Timinste dat ondervind ik wel met mijn gtx580. Ben nog geen game tegen gekomen die over de 1gb heen komt.
Sp3ci3s8472 schreef op donderdag 05 mei 2011 @ 23:56:
[...]


Blijft hij ook zo koel als je de .exe van furmark verandert naar jan.exe (of een andere fantastische naam)?
Volgens mij throttled nvidia zijn kaarten zodra furmark wordt gedraaid, volgens mij had springstof dat uitgezocht een tijd terug?

Lijkt mij dat een beter gekoelde kaart nooit kwaad kan.
Nee dat was ik. Ik heb toen oudere drivers gebruikt waar bij furmark niet telkens voluit gaat.
Gulukkig. De fanspeed gaat richting de 70% en de teps richting de 95 graden ben toen maar opgehouden.

[Voor 52% gewijzigd door Anoniem: 304087 op 06-05-2011 08:41]


Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 30-05 11:07
Zal ik doen ik post hem zo wel even!

GVD net stabiel met screenshot maar heeft die honde pc me screenshot niet genomen....

hij bleef weer 84C met 61fanspeed. Heb nu nog 12 minuten voor ik moet weggaan, zal hem wel weer draaien als het goed is komt het wel weer redelijk duidelijk naar voren, maar ik post het zo wel...

edit kan nu niet kiezen tussen 85 en 84

http://imageshack.us/photo/my-images/190/furmarkah.jpg/

[Voor 93% gewijzigd door Jasper 99 op 06-05-2011 11:07]


Acties:
  • 0Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 21:13
Anoniem: 304087 schreef op vrijdag 06 mei 2011 @ 08:37:
Nee dat was ik. Ik heb toen oudere drivers gebruikt waar bij furmark niet telkens voluit gaat.
Gulukkig. De fanspeed gaat richting de 70% en de teps richting de 95 graden ben toen maar opgehouden.
Ah ok, het was iemand met groene avatar :).

Ik vind het best appart dat er zo'n groot verschil tussen zit als je jouw resultaten pakt en die vergelijkt met die van Jasper.
Toch blijf ik van mening dat meer dan 80 graden te veel is ;), dus betere koeling is altijd goed.
Om het te vergelijken mijn 5870 wordt 60 graden met 50% fanspeed. Kaart is natuurlijk ook trager en zuiniger maar toch.

@jasper Heb je wel in fullscreen gebenched? Anders blijft je kaart in 2d speeds draaien (in mijn geval wel).

[Voor 7% gewijzigd door Sp3ci3s8472 op 06-05-2011 14:55. Reden: @jasper]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Sp3ci3s8472 schreef op vrijdag 06 mei 2011 @ 14:54:
[...]


@jasper Heb je wel in fullscreen gebenched? Anders blijft je kaart in 2d speeds draaien (in mijn geval wel).
Bij Jasper dus niet.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Sp3ci3s8472 schreef op vrijdag 06 mei 2011 @ 14:54:
[...]


Ah ok, het was iemand met groene avatar :).

Ik vind het best appart dat er zo'n groot verschil tussen zit als je jouw resultaten pakt en die vergelijkt met die van Jasper.
Toch blijf ik van mening dat meer dan 80 graden te veel is ;), dus betere koeling is altijd goed.
Om het te vergelijken mijn 5870 wordt 60 graden met 50% fanspeed. Kaart is natuurlijk ook trager en zuiniger maar toch.

@jasper Heb je wel in fullscreen gebenched? Anders blijft je kaart in 2d speeds draaien (in mijn geval wel).
'
Als ik gewoon nieuwe drivers gebruik blijft doe van mij ook rond de 80-85 graden. In de driver erna zit iets waar door hij onzichtbaar trug klockt. GPU gebruik is gewoon 99% de klock snelheden worden ook niet truggeklockt. MSI afterburner laat geen veranderingen zijn en gpu-z ook niet.

Bij mij blijven beide kaarten rond de 80-85 graden in alle games die ik heb dus ik laat het gewoon zo.
Ik heb nog geen problemen gehad en er komt geen lawaai aan te pas.

[Voor 8% gewijzigd door Anoniem: 304087 op 06-05-2011 16:13]


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 304087 schreef op vrijdag 06 mei 2011 @ 08:37:

Omdat 1,5gb genoeg is? Timinste dat ondervind ik wel met mijn gtx580. Ben nog geen game tegen gekomen die over de 1gb heen komt.
In SLI wil 3GB zich op hoge resoluties wel lonen.
Indrukwekkend dat je kaart onder die omstandigheden zo koel blijft.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
580 SLI is sowieso niet echt een aanrader wat mij betreft. Mja, EVGA heeft ook een ongeveer 500 euro kostende 3GB 580 (minder ''fancy'' koeling en de overklok is ook weg, tho). Voor consumenten die graag 1000 euro aan videokaarten en het maximale op extreem hoge resoluties uit hun 580 SLI set up willen halen is dat uiteraard ook nog een optie.

[Voor 4% gewijzigd door Springstof op 06-05-2011 20:30]


Acties:
  • 0Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 21:09

mrc4nl

Procrastinatie expert

ach ja, er consumenten die dat soort kaarten kopen, dus blijven ze worden gemaakt, de fabrikant vind het allemaal best, er zal een hoge marge te halen zijn op topsegment kaarten.

voor een resolutie van 1080P is een 580 in sli overkill, als je prijs/prestatie gericht bent is de 560TI een betere keuze: http://www.tomshardware.com/charts/2011-gaming-graphics-charts/compare,2668.html?prod[4835]=on&prod[4838]=on

en dat er veel geheugen op zit is leuk, maar bij resluties waar >1gb benodigd is, is de fps alweer aan de lage kant, omdat het aantal pixels kwadraitsh groeit, en het een zware kluif word voor de topmodellen

[Voor 28% gewijzigd door mrc4nl op 06-05-2011 21:09]

ora et labora


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
madmaxnl schreef op vrijdag 06 mei 2011 @ 19:26:
[...]


In SLI wil 3GB zich op hoge resoluties wel lonen.


[...]


Indrukwekkend dat je kaart onder die omstandigheden zo koel blijft.
Ligt er aan of de game meer dan 1,5gb wil gebruiken.
Mensen kunnen dit testen maar jammer dat het niet gebeurd ik ben van mening dat je op 3 schermen nog niet aan de 1,5gb raakt. Dit kun je zien met afterburner. Zelfs met 64x sli AA raak ik niet over de 1gb heen.
mrc4nl schreef op vrijdag 06 mei 2011 @ 21:06:
ach ja, er consumenten die dat soort kaarten kopen, dus blijven ze worden gemaakt, de fabrikant vind het allemaal best, er zal een hoge marge te halen zijn op topsegment kaarten.

voor een resolutie van 1080P is een 580 in sli overkill, als je prijs/prestatie gericht bent is de 560TI een betere keuze: http://www.tomshardware.com/charts/2011-gaming-graphics-charts/compare,2668.html?prod\[4835]=on&prod\[4838]=on

en dat er veel geheugen op zit is leuk, maar bij resluties waar >1gb benodigd is, is de fps alweer aan de lage kant, omdat het aantal pixels kwadraitsh groeit, en het een zware kluif word voor de topmodellen
580 sli is zeker niet met alle games overkill op 1080p ik kan het weten ;)

[Voor 52% gewijzigd door Anoniem: 304087 op 07-05-2011 10:46]


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 304087 schreef op zaterdag 07 mei 2011 @ 10:43:
[...]


Ligt er aan of de game meer dan 1,5gb wil gebruiken.
Mensen kunnen dit testen maar jammer dat het niet gebeurd ik ben van mening dat je op 3 schermen nog niet aan de 1,5gb raakt. Dit kun je zien met afterburner. Zelfs met 64x sli AA raak ik niet over de 1gb heen.
Afterburner hoeft niet perse evenveel, meer of minder geheugen te gebruiken als anderen applicaties op bepaalde resoluties+AA. Dus zeggen dat als Afterburner het niet nodig heeft dat anderen applicaties het ook niet nodig gaan hebben is wat kort door de bocht lijkt mij.

Zoals ik al zei, vooral in SLI ga je tegen een bottelnek aan lopen zeker t.o.v. AMD met zijn 2GB:

Bron:

"Highest Playable Settings - In terms of highest playable settings, i.e. what we could actually set settings to in order to enjoy the game, we found we could maximize them on the AMD Tri-Fire setup. With 3-Way SLI we could not, this level of performance wasn't playable, and had its jerky moments. We had to disable SSAO in order to bring performance up to a level that was playable. So, the AMD Tri-Fire config allows us to play at maximum in-game settings, and with the 3-Way SLI config had to have SSAO disabled."

"Highest Playable Settings - Unfortunately, because of the VRAM limits, we are left with 4X AA at 5760x1200 being the highest playable settings for both 3-Way SLI and 2-Way SLI. Adding in another GTX 580 will do nothing for you in this game, it will in no way improve the gameplay experience. The AMD Tri-Fire configuration, for comparison, is able to run at 8X MSAA at 5760x1200 for a better gameplay experience."

"Highest Playable Settings - In terms of the gameplay experience, AMD still wins in this game. We were able to enable 4X MSAA with the AMD Radeon HD 6990/6970 CrossFireX configuration. Therefore, the highest playable settings were 5760x1200 4X AA/16X AF and highest in-game settings with AMD Tri-Fire. On the other hand, we could not enable 4X MSAA with 3-Way SLI, we ran into that pesky VRAM wall, so its highest playable was 5760x1200 NoAA/16X AF highest in-game settings."

"Highest Playable Settings - Once again, we ran into VRAM limits trying to push GTX 580 3-Way SLI to the highest possible playable settings. We tried 16xQ CSAA and 32X CSAA and neither were playable at this resolution due to those limitations. We did find 16X CSAA to perform very well, which is exactly what 2-Way GTX 580 SLI is playable at as well. We also tried to enable 2X TR SSAA, but as we played through the game there were many pauses and some choppiness as we played. On the other hand, AMD Tri-Fire was playable at 24X CFAA at 5760x1200."

"Highest Playable Settings - With GTX 580 3-Way SLI we were able to play at 5760x1200 with No AA and all Enthusiast settings. We were not able to have 2X AA enabled however, once again the VRAM limitation hit us. However, with AMD Tri-Fire we had no problems enabling 2X AA at these settings, providing a better gameplay experience."


Ik ben dus benieuwd hoe het eruit zou hebben gezien als men 3GB op die kaarten had geschroefd. Onnodig gemisten kans voor eVGA denk ik dan zo, eigenlijk in het algemeen voor de GTX580.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Lees goed met afterburner kun je zien wat het verbruik is van het geheugen.
Alleen bij games die meer dan 1,5gb wil gebruiken zal je dat nodig hebben echter gaan veel games niet over de 1gb heen bij hoge resoluties. Je kan zeggen wat je wil maar ik heb dit zelf al gezien.

Ik zou graag een test zien met 2xgtx580 sli 1,5gb en 2x gtx580 sli met 3 gb.
Ik weet 100% zeker dat het verschil maar zeer klein zal zijn danzij het extra geheugen.

Zie hier maar eens een test van1,5gb tegenover 3
Het is gewoon zijn geld niet waardop 2560 resolutie
http://www.fudzilla.com/r...gb-phantom-tested?start=7

[Voor 44% gewijzigd door Anoniem: 304087 op 07-05-2011 11:54]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op zaterdag 07 mei 2011 @ 10:57:
[...]


Afterburner hoeft niet perse evenveel, meer of minder geheugen te gebruiken als anderen applicaties op bepaalde resoluties+AA. Dus zeggen dat als Afterburner het niet nodig heeft dat anderen applicaties het ook niet nodig gaan hebben is wat kort door de bocht lijkt mij.
.... :?
Afterburner meet het verbuik van geheugen in games. Met andere woorden: terwijl je gamed kun je in Afterburner zien hoeveel videogeheugen je verbruikt.

Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 304087 schreef op zaterdag 07 mei 2011 @ 11:48:
Ik zou graag een test zien met 2xgtx580 sli 1,5gb en 2x gtx580 sli met 3 gb.
Ik weet 100% zeker dat het verschil maar zeer klein zal zijn danzij het extra geheugen.
Ik zou zo een test ook graag zien, tot nu toe heb ik alleen singel 3GB vs singel 1,5GB gezien(zonder merkwaardig verschil). Ook lijkt het mij wel interresant om HD6950 1GB CF vs HD6950 2GB CF te zien. Alhoewel dit laatste gegarandeerd een groot verschil opleverd aangezien het verschil tussen singel HD6950 1GB en HD6950 2GB op 2560x1600 8xAA al 50% is([url="http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6950-1.024-mb/22/#abschnitt_ratingshttp://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6950-1.024-mb/22/#abschnitt_ratings"]bron[/url]).

@Springstof

Dat had ik dus verkeerd begrepen.

Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
In dit topic is iemand bezig met het testen van de 3Gb 580. Bij hem gaat het dan vooral om quad-sli maar in z'n tests laat ie ook de resultaten van 2 en 3-way SLI zien. Zijn conclusie was dat 3Gb zeer hard nodig is op 3-scherm / Surround resoluties.

Hij heeft ook quad-crossfire getest met wat aparte resultaten, onder andere dat de CF bridges de hoeveelheid data niet meer aankunnen met quad-crossfire.

Op lagere resoluties is 3Gb natuurlijk overkill maar in SLI icm Surround worden de 580 kaarten redelijk gelimiteerd door het geheugen.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Leuk dat [H]ard|OCP toegeeft dat ze gefaald hebben en daardoor AMD's multi-GPU opstelling in hun review t.o.v. de concurrent er beter uit kwam dan in werkelheid het geval is. Ze hadden de fout simpelweg niet moeten maken. Dikke minpunten voor [H]ard|OCP wat mij betreft.

[Voor 11% gewijzigd door Springstof op 07-05-2011 17:01]


Acties:
  • 0Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 12:18

Darkasantion

Just keep swimming!

Springstof schreef op zaterdag 07 mei 2011 @ 16:59:
Leuk dat [H]ard|OCP toegeeft dat ze gefaald hebben en daardoor AMD's multi-GPU opstelling in hun review t.o.v. de concurrent er beter uit kwam dan in werkelheid het geval is. Ze hadden de fout simpelweg niet moeten maken. Dikke minpunten voor [H]ard|OCP wat mij betreft.
Hoe hadden zij kunnen vermoeden dat SLi wel problemen zou hebben terwijl Crossfire nergens last van had? Het is goed dat ze terug komen op hun 1e review en toegeven dat de conclusie niet helemaal juist was, maar dikke minpunten vind ik dit niet, zeker niet omdat ze erop terug komen. Oftewel, ze staan open voor verbetering/suggesties en reageren erop. Kun je niet altijd van anderen zeggen.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0Henk 'm!

  • Allubz
  • Registratie: Februari 2006
  • Laatst online: 29-05 14:47
Reviewen is niet een praktijk van koek-en-ei. Er zijn bijzonder veel punten om op te letten. Voor het gros van de reviews kan je een template en standaard setup gebruiken, maar als het gaat om 'speciaal terrein' dan is het niet altijd mogelijk om het de eerste keer perfect te doen.

That said, ik vind het goed dat ze er op terugkomen en pogen een zo goed mogelijke review te presenteren. Tuurlijk is het niet fijn om te zien dat je bij reviews mogelijk om de tuin wordt geleid, het komt echter vaker voor dan je je bewust bent; kijk alleen al naar uiteenlopende resultaten van een product in verschillende reviews.

Acties:
  • 0Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 20:25
Springstof schreef op zaterdag 07 mei 2011 @ 16:59:
Leuk dat [H]ard|OCP toegeeft dat ze gefaald hebben en daardoor AMD's multi-GPU opstelling in hun review t.o.v. de concurrent er beter uit kwam dan in werkelheid het geval is. Ze hadden de fout simpelweg niet moeten maken. Dikke minpunten voor [H]ard|OCP wat mij betreft.
Hoezo minpunten?
Ze luisteren tenminste naar hun lezers en komen terug op eerder gemaakte conclusies..
Verder hebben ze niet echt gefaald, het enige wat ze aangetoond hebben is dat de AMD videokaarten sneller waren met een i7 920 @ 3,6Ghz, niet iedereen met een multi-GPU setup heeft een sandy bridge @ 4,8Ghz..

Verder blijft er nog altijd over dat je voor de prijs van 3 GTX 580's ook quad crossfire kan draaien O-)

Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
De vraag die opkomt, is waarom de tri-SLI setup bij de nieuwe processor 30% omhoog springt in F1 2010, terwijl een tri-Crossfire 15% daalt in performance in datzelfde spel. Om HardOPC nu al af te serveren, omdat ze een standaard setup gebruiken die blikbaar niet afdoende is voor de tri-SLI setup, is gewoon veel te kort door de bocht. Moeten ze straks de tests overnieuw doen met Bulldozer, omdat SLI of Crossfire opeens veel beter zou kunnen schalen met die CPU?

Feit is wel dat als je niet al te veel overklokt, je meer rendement krijgt uit Tri-Crossfire dan uit Tri-SLI, aangezien er momenteel geen 4.8GHz x86 CPU's beschikbaar zijn.

Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 30-05 11:07
Sp3ci3s8472 schreef op vrijdag 06 mei 2011 @ 14:54:
[...]


Ah ok, het was iemand met groene avatar :).

Ik vind het best appart dat er zo'n groot verschil tussen zit als je jouw resultaten pakt en die vergelijkt met die van Jasper.
Toch blijf ik van mening dat meer dan 80 graden te veel is ;), dus betere koeling is altijd goed.
Om het te vergelijken mijn 5870 wordt 60 graden met 50% fanspeed. Kaart is natuurlijk ook trager en zuiniger maar toch.

@jasper Heb je wel in fullscreen gebenched? Anders blijft je kaart in 2d speeds draaien (in mijn geval wel).
Ja zoals springstof al zei :P maakt niet uit je kan de clocks zien hij gaat gewoon naar de goede clocks heb hem wel op 32MMAA draaien zodat hij mischien wat sneller/harder stressed.!

@ madmax Ja ik was ook wel blij met de resultaten :P weet niet of alle 580's het rond die manier kunnen draaien maar ik vind het best indrukwekkend dat hij met goede overclock en lage fanspeed toch zo cool blijft :)! Kan me voorstellen als ik de fanspeed wat omhoog draai dat hij echt een mooie temp krijg, ik ben alleen nooit zo'n fan van het handmatig instellen van fanspeed omdat het eventueel te laag kan zijn in sommige gevallen! Ben wel benieuwd wat ik hoor met 100% of met 70% fanspeed ga ik maar eens testen, zo als het nu is clocked hij mooi over met 0 geluid :P teminste hij komt niet over mijn Scythe mugen!

Btw er zijn ook op youtube benchmarks met Quad-sli 3gb 580 kaarten van crysis en daar worden ze helemaal gebruik! Maarja beetje overkill en een best zieke resolutie van 8000 x 1000 nogwat :P

Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Springstof schreef op zaterdag 07 mei 2011 @ 16:59:
Leuk dat [H]ard|OCP toegeeft dat ze gefaald hebben en daardoor AMD's multi-GPU opstelling in hun review t.o.v. de concurrent er beter uit kwam dan in werkelheid het geval is. Ze hadden de fout simpelweg niet moeten maken. Dikke minpunten voor [H]ard|OCP wat mij betreft.
Sandybridge systemen hebben niet de beschikking over 32xPCI-e 2.0 lanes verdeeld over 3 kanalen maar 16xPCI-e verdeeld over 2 kanalen. De NF200 chip van nVidia zorgt maakt meer lanes aan maar dit is eigenlijk enkel en alleen om ze zorgen dat er meer aangesloten kan worden en niet meer bandbreedte komt. De NF200 chip kan voor AMD dus roet in het eten gooien omdat het ding voor hun is geoptimaliseerd of wellicht zelfs het tegenovergestelde. Hoe verklaren we anders de teruglopende performance in sommige gevallen terwijl er een veel hoger geclockte CPU is waar nVidia schijnbaar hoger scoort ? Dit is natuurlijk te testen door twee systemen te pakken met CF, de een met NF200 chip en de ander zonder NF200 chip.

Daarnaast is nVidia nog altijd niet zo goed qua min FPS wat in zeker zin gezien de gemiddelde behaalde FPS door de setups belangrijker is.
dahakon schreef op zaterdag 07 mei 2011 @ 17:38:
De vraag die opkomt, is waarom de tri-SLI setup bij de nieuwe processor 30% omhoog springt in F1 2010, terwijl een tri-Crossfire 15% daalt in performance in datzelfde spel. Om HardOPC nu al af te serveren, omdat ze een standaard setup gebruiken die blikbaar niet afdoende is voor de tri-SLI setup, is gewoon veel te kort door de bocht. Moeten ze straks de tests overnieuw doen met Bulldozer, omdat SLI of Crossfire opeens veel beter zou kunnen schalen met die CPU?
NF200 met nVidia praktijken ?

'Ja, fanboy, flame, dit dat zus zo...'

[Voor 20% gewijzigd door madmaxnl op 07-05-2011 21:39]


Acties:
  • 0Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 21:09

mrc4nl

Procrastinatie expert

Anoniem: 304087 schreef op zaterdag 07 mei 2011 @ 10:43:
580 sli is zeker niet met alle games overkill op 1080p ik kan het weten ;)
ik generaliseerde dan ook, ik had dacht ook chart toegevoegd met fps van de meeste games ;)

ora et labora


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
In Metro2033 is de multi-GPU nVidia opstelling ook bijna 10% langzamer met de stuk verder overgeklokte CPU ten op zichte van de opstelling met de langzamere CPU. Ik begin me af te vragen wat de foutmarges zijn mbt de gebuikte testmethode van [H]ard|OCP en daarmee vraag ik me meteen af waarom harwarereviewwebsites, zoals dus ook Tweakers.net, deze er niet standaard bijzetten. Nu ik erover nadenk realiseer ik me dat de foutmarge inclusief het 95% betrouwbaarheidsinterval erg belangrijk is bij het vergelijken van resultaten en als taxatie van de validiteit van de review zelf en daarmee vind ik dat ik geheel in mijn gelijk sta door te concluderen dat hardwarereviewsites, die dit niet doen, simpelweg tekort komen. Al met al is de conlcusie dat er een erg lage standaard is in de betreffende sector wat betreft het reviewen van videokaarten een terechte.

[Voor 32% gewijzigd door Springstof op 07-05-2011 23:37]


Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Springstof schreef op zaterdag 07 mei 2011 @ 23:17:
In Metro2033 is de multi-GPU nVidia opstelling ook bijna 10% langzamer met de stuk verder overgeklokte CPU ten op zichte van de opstelling met de langzamere CPU.
Als ik de cijfers bekijk, is hij juist ~10% sneller met de SandyBridge CPU. Ik weet niet waar jij de 10% langzamer ziet.
Ik begin me af te vragen wat de foutmarges zijn mbt de gebuikte testmethode van [H]ard|OCP en daarmee vraag ik me meteen af waarom harwarereviewwebsites, zoals dus ook Tweakers.net, deze er niet standaard bijzetten. Nu ik erover nadenk realiseer ik me dat de foutmarge inclusief het 95% betrouwbaarheidsinterval erg belangrijk is bij het vergelijken van resultaten en als taxatie van de validiteit van de review zelf en daarmee vind ik dat ik geheel in mijn gelijk sta door te concluderen dat hardwarereviewsites, die dit niet doen, simpelweg tekort komen. Al met al is de conlcusie dat er een erg lage standaard is in de betreffende sector wat betreft het reviewen van videokaarten een terechte.
Met de notie dat je de 10% verkeerd gelezen hebt, gecombineerd met de notie van MadMaxnl dat ze gebruik maken van nf200 (en dat de P67 16x lanes heeft, dus tekort kan schieten met crossfire, zeker wanneer je een dual-GPU kaart op een 8x lane PCI-E slot duwt), is het inderdaad gemakkelijk te verklaren dat SLI beter zou kunnen schalen dan bij Nehalem (met een gelijke aantal lanes als SB met nf200) terwijl de Crossfire opstelling wellicht duidelijk problemen heeft met het gebruik van nf200, gezien de performance-drops die anders gewoonweg niet te verklaren zijn. Om dan te stellen dat er een lage standaard in benchen is, terwijl je met zoveel variabelen te maken hebt dat het haast onmogelijk is om alle situaties te dekken, zeker als 1 site zijnde, is gewoon erg kort door de bocht. Al met al sta je niet in je gelijk en als je vindt dat het beter moet, kun je net als vele anderen proberen een site op te richten om 'de perfecte benchmarksite' te maken met de meest diepgaande reviews.

Straks dus overnieuw testen op een Bulldozer met 990FX chipset en gaan met die banaan.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
madmaxnl schreef op zaterdag 07 mei 2011 @ 21:37:
[...]


Sandybridge systemen hebben niet de beschikking over 32xPCI-e 2.0 lanes verdeeld over 3 kanalen maar 16xPCI-e verdeeld over 2 kanalen. De NF200 chip van nVidia zorgt maakt meer lanes aan maar dit is eigenlijk enkel en alleen om ze zorgen dat er meer aangesloten kan worden en niet meer bandbreedte komt. De NF200 chip kan voor AMD dus roet in het eten gooien omdat het ding voor hun is geoptimaliseerd of wellicht zelfs het tegenovergestelde. Hoe verklaren we anders de teruglopende performance in sommige gevallen terwijl er een veel hoger geclockte CPU is waar nVidia schijnbaar hoger scoort ? Dit is natuurlijk te testen door twee systemen te pakken met CF, de een met NF200 chip en de ander zonder NF200 chip.

Daarnaast is nVidia nog altijd niet zo goed qua min FPS wat in zeker zin gezien de gemiddelde behaalde FPS door de setups belangrijker is.


[...]


NF200 met nVidia praktijken ?

'Ja, fanboy, flame, dit dat zus zo...'
Nope is geen nvidia praktijken HW matig gaat het via die chip en het zou zowel even goed werken met amd kaarten. Teminste een poos trug heb ik ati kaarten goed werkend gehad op een nf200 chip nix beter dan 2 8800gt's op dezelfde chip qua gpu schaling.

Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zoals ik al zei kan HardOCP dit testen door twee P67 borden te pakken, één met NF200 chip en de ander zonder NF200 chip. Vervolgens kijken hoe de resultaten zijn en concluderen of NF200 wel of geen roet in het eten gooit voor Crossfire. Vervolgens ook de andere kant uit testen, want het kan ook zo zijn dat nVidia de NF200 chip gewoon heeft geoptimaliseerd voor SLI waardoor Crossfire niet zo zeer slechter werkt maar SLI gewoon beter. M.a.w. dezelfde test maar dan met SLI. Als dan blijkt dat SLI beter werkt met NF200 chip en Crossfire niet slechter met NF200 chip heeft nVidia dat mooi voor elkaar.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op zondag 08 mei 2011 @ 10:25:
[...]


Als ik de cijfers bekijk, is hij juist ~10% sneller met de SandyBridge CPU. Ik weet niet waar jij de 10% langzamer ziet.


[...]


Met de notie dat je de 10% verkeerd gelezen hebt, gecombineerd met de notie van MadMaxnl dat ze gebruik maken van nf200 (en dat de P67 16x lanes heeft, dus tekort kan schieten met crossfire, zeker wanneer je een dual-GPU kaart op een 8x lane PCI-E slot duwt), is het inderdaad gemakkelijk te verklaren dat SLI beter zou kunnen schalen dan bij Nehalem (met een gelijke aantal lanes als SB met nf200) terwijl de Crossfire opstelling wellicht duidelijk problemen heeft met het gebruik van nf200, gezien de performance-drops die anders gewoonweg niet te verklaren zijn. Om dan te stellen dat er een lage standaard in benchen is, terwijl je met zoveel variabelen te maken hebt dat het haast onmogelijk is om alle situaties te dekken, zeker als 1 site zijnde, is gewoon erg kort door de bocht. Al met al sta je niet in je gelijk en als je vindt dat het beter moet, kun je net als vele anderen proberen een site op te richten om 'de perfecte benchmarksite' te maken met de meest diepgaande reviews.
Of het ongeveer 10% minder of juist meer is heeft niks te maken met het punt dat ik aanhaalde. Namelijk, dat het niet duidelijk is of bepaalde verschillen in reviews ontstaan door toeval of dat het significante verschillen betreffen.
dahakon schreef op zondag 08 mei 2011 @ 10:25:
[...]


Straks dus overnieuw testen op een Bulldozer met 990FX chipset en gaan met die banaan.
Lijkt me interessant.

[Voor 22% gewijzigd door Springstof op 08-05-2011 15:29]


Acties:
  • 0Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 12:18

Darkasantion

Just keep swimming!

Springstof schreef op zondag 08 mei 2011 @ 14:58:
[...]

Of het ongeveer 10% minder of juist meer is heeft niks te maken met het punt dat ik aanhaalde. Namelijk, dat het niet duidelijk is of bepaalde verschillen in reviews ontstaan door toeval of dat het significante verschillen betreffen.


[...]

Lijkt me interessant.
Hoe wil jij dan als review-site gaan bepalen of een verschil komt door toeval, foutje in de driver, bug in de chipset, te lage (over)clocks, trage HDD en noem maar op. Je hebt te maken met zoveel verschillende factoren buiten jouw gebied van invloed/kennis, dat je dus nooit een 100% accuraat beeld kunt krijgen.

Daarom dien je ook verschillende reviews te lezen, om zo een "gemiddeld" beeld te krijgen. Maar alle factoren in 1 keer meenemen en meewegen is onmogelijk en onbegonnen werk, anders moet je alles wel met +33 verschillende configuraties testen om HEEL zeker te weten dat die enne drop in FPS in game X toch echt toeval was of niet.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Darkasantion schreef op zondag 08 mei 2011 @ 15:48:
[...]

Hoe wil jij dan als review-site gaan bepalen of een verschil komt door toeval, foutje in de driver, bug in de chipset, te lage (over)clocks, trage HDD en noem maar op. Je hebt te maken met zoveel verschillende factoren buiten jouw gebied van invloed/kennis, dat je dus nooit een 100% accuraat beeld kunt krijgen
Als je een test X maal uitvoert en X staat dan voor steekproefgrootte kun je de meetonnauwkeurigheid door meetfouten in je testmethode en diens 95% betrouwbaarheidsinterval uitrekenen. Bij bijvoorbeeld toevallige fouten is de gemiddelde fout immers nul. Als je steekgrootte (=aantal metingen) dus voldoende is dan zullen deze fouten zich als de normale verdeling rond de juiste waarde (=verwachting μ) vormen. Op basis daarvan kun je resultaten goed én eerlijk vergelijken. De fout van Hard|OCP was trouwens een systematische en zorgde daarom voor een bias. Dat constateerden zij na aandringen van derden ook. Ik vroeg me daarnaast af waarom reviewssites in het algemeen niks doen aan de toevallige fouten en standaarddeviatie bij hun meting als ze resultaten met elkaar vergelijken en op basis van niet heel erg grote verschillen wel harde conlusies uit hun resultaten claimen te halen.
Als ik het me trouwens goed herinner (het is voor mij middelbare school materie).

Als we bijvoorbeeld naar een uitspraak van Dahakon kijken
terwijl de Crossfire opstelling wellicht duidelijk problemen heeft met het gebruik van nf200, gezien de performance-drops die anders gewoonweg niet te verklaren zijn.
Dit hoeft geen significante performance drop te zijn. Hier wordt al meteen naar een verklaring gezocht van een verschijnsel, terwijl het niet eens bekend is of het door toeval komt en dat komt weer omdat de reviewmethode tekort schiet.
Daarom dien je ook verschillende reviews te lezen, om zo een "gemiddeld" beeld te krijgen. Maar alle factoren in 1 keer meenemen en meewegen is onmogelijk en onbegonnen werk, anders moet je alles wel met +33 verschillende configuraties testen om HEEL zeker te weten dat die enne drop in FPS in game X toch echt toeval was of niet.
Zelf lees ik wel meerdere reviews, maar ik ben het met je eens dat bovenstaande erg veel werk is. Mja, websites als Tweakers, HWI, Anandtech, HardOCP enzovoorts verdienen er dan ook geld mee.

[Voor 22% gewijzigd door Springstof op 08-05-2011 16:29]


Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

dahakon schreef op zondag 08 mei 2011 @ 10:25:
[...]


l dat ze gebruik maken van nf200 (en dat de P67 16x lanes heeft, dus tekort kan schieten met crossfire, zeker wanneer je een dual-GPU kaart op een 8x lane PCI-E slot duwt), is het inderdaad gemakkelijk te verklaren dat SLI beter zou kunnen schalen dan bij Nehalem (met een gelijke aantal lanes als SB met nf200) terwijl de Crossfire opstelling wellicht duidelijk problemen heeft met het gebruik van nf200, gezien de performance-drops die anders gewoonweg niet te verklaren zijn. Straks dus overnieuw testen op een Bulldozer met 990FX chipset en gaan met die banaan.
Enige juiste conclussie, (mogelijk ook wat synchroniseringsproblemen tussen de HD6970 en HD6990, omdat het wel erg veel scheelt).

Laten ze Tri-fire straks maar eens met een X79-bord en een "2011-Sandy'tje" (of 990FX) testen, ik "weet" de resultaten al ;)

[Voor 9% gewijzigd door edward2 op 08-05-2011 16:24]

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
edward2 schreef op zondag 08 mei 2011 @ 16:20:
[...]


Enige juiste conclussie, (mogelijk ook wat synchroniseringsproblemen tussen de HD6970 en HD6990, omdat het wel erg veel scheelt).

Laten ze Tri-fire straks maar eens met een X79-bord en een "2011-Sandy'tje" (of 990FX) testen, ik "weet" de resultaten al ;)
Nu ga je er al vanuit dat er sprake is van een significant verschil zonder dat dit ook maar enigszins is aangetoond. Stel dat je 10.000 keer met dezelfde set up de gemiddelde FPS meet. Je vindt waarden van 42 tot 60. Het 95% betrouwbaarheidsinterval ligt echter tussen 48 en 56. Stel dat in review A (de eerste review van HardOCP) eruit kwam dat er een gemiddelde FPS van 49 was en uit review B (de meest recente review van HardOCP) volgde een gemiddelde FPS van 56. De enige juiste conclusie is dan dat het toeval betreft en de metingen niet significant van elkaar verschillen. Simpeler kan ik het niet uitleggen.

Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Springstof schreef op zondag 08 mei 2011 @ 16:39:
Stel dat in review A (de eerste review van HardOCP) eruit kwam dat er een gemiddelde FPS van 49 was en uit review B (de meest recente review van HardOCP) volgde een gemiddelde FPS van 56. De enige juiste conclusie is dan dat het toeval betreft en de metingen niet significant van elkaar verschillen. Simpeler kan ik het niet uitleggen.
Je 'enige juiste' conclusie is desalniettemin een onjuiste conclusie. Je stelt dat verschillen tussen review A en review B veroorzaakt worden door toeval, waarbij de basis voor die conclusie totaal ontbreekt. Er zijn namelijk significante verschillen tussen review A en review B, zijnde een heel ander moederbord (incluis een totaal andere chipset met andere features en mogelijkheden), gecombineerd met een geheel andere CPU, die een hogere IPC heeft en ook nog eens een veel hogere clock. Het negeren van deze aspecten, maar wel met een conclusie komen, is een beetje vreemd.

Verder stel je dat elke benchmark slechts 1 maal wordt gedraaid, dat er geen controle is of er vreemde fouten zijn of dingen die problemen zouden kunnen veroorzaken, waardoor je een veel te lage FPSmin of veel te lage FPSgem krijgt. Heb je bewijzen om deze claim te staven?

Acties:
  • 0Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Springstof schreef op zondag 08 mei 2011 @ 16:39:
[...]

Nu ga je er al vanuit dat er sprake is van een significant verschil zonder dat dit ook maar enigszins is aangetoond. Stel dat je 10.000 keer met dezelfde set up de gemiddelde FPS meet. Je vindt waarden van 42 tot 60. Het 95% betrouwbaarheidsinterval ligt echter tussen 48 en 56. Stel dat in review A (de eerste review van HardOCP) eruit kwam dat er een gemiddelde FPS van 49 was en uit review B (de meest recente review van HardOCP) volgde een gemiddelde FPS van 56. De enige juiste conclusie is dan dat het toeval betreft en de metingen niet significant van elkaar verschillen. Simpeler kan ik het niet uitleggen.
Als je bedoelt dat omdat de GeForces ook in één benchmark wat minder presteren dat de testwaarden teveel variëren en daardoor niet betrouwbaar zijn dan denk ik eerder dat ook de tri-SLI opstelling misschien in enkele gevallen (nog) niet optimaal draait op de P67 en als je refereert aaan vorige testresultaten, want ik kan me even niet herrinneren dat de tri-SLI het minder deed op de P67 in Metro2033, dan hou je natuurlijk altijd mogelijk verschillen door het gebruik van een nieuwere driver.

Natuurlijk zou het zo kunnen zijn dat (tri) SLI momenteel meer CPU-power vraagt. De beste methode om daar achter te komen is met gelijkwaardige platformen te testen met verschillende CPU-frequenties.

[Voor 52% gewijzigd door edward2 op 08-05-2011 23:04]

Niet op voorraad.


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op zondag 08 mei 2011 @ 22:39:
[...]


Je 'enige juiste' conclusie is desalniettemin een onjuiste conclusie.
Nee, bij een betreffende uitkomst is het de juiste conclusie en dat zal ik hieronder weer uitleggen.
Je stelt dat verschillen tussen review A en review B veroorzaakt worden door toeval, waarbij de basis voor die conclusie totaal ontbreekt.
Ik stel dat een niet significante uitkomst niet significant is. Dat is de basis van de conclusie.
Er zijn namelijk significante verschillen tussen review A en review B, zijnde een heel ander moederbord (incluis een totaal andere chipset met andere features en mogelijkheden), gecombineerd met een geheel andere CPU, die een hogere IPC heeft en ook nog eens een veel hogere clock. Het negeren van deze aspecten, maar wel met een conclusie komen, is een beetje vreemd.
Natuurlijk is dat niet vreemd. Ik zal het nu proberen nog simpeler uit te leggen. Stel er is een groep die wordt behandeld met een placebo en die groep noemen we A (is onafhankelijke variabele). Daarnaast is er een groep die wordt behandeld met een nieuw medicament waarvan men wil testen of deze werkzaam is en deze groep noemen we B (=onafhankelijke variabele). Als de uitkomst (=afhankelijke variabele) niet significant anders is in B dan in A dan wordt daaruit geconcludeerd dat medicament A niet werkzaam is. Dat geldt nu ook voor de review als blijkt dat het verschil in review A niet significant anders is dan de uitkomst in review B dan wordt daaruit geconcludeerd dat de invloed van zoals je het zelf noemt ‘’ een heel ander moederbord (incluis een totaal andere chipset met andere features en mogelijkheden), gecombineerd met een geheel andere CPU, die een hogere IPC heeft en ook nog eens een veel hogere clock.’’ (wat hier dus de onafhankelijke variabele zijn) niet significant anders is mbt de uitkomstmaat, namelijk de FPS (wat hier dus de afhankelijke variabele is). Al met al kijk je dus of de onafhankele variabelen een significante invloed hebben op de afhankelijke variabelen door naar de uitkomst te kijken. Door de incompleetheid van reviews is momenteel dus niet te beoordelen of verschillende uitkomsten dan ook significant zijn en dat had dus wmb beter moet.
Verder stel je dat elke benchmark slechts 1 maal wordt gedraaid, dat er geen controle is of er vreemde fouten zijn of dingen die problemen zouden kunnen veroorzaken, waardoor je een veel te lage FPSmin of veel te lage FPSgem krijgt. Heb je bewijzen om deze claim te staven?
Ik stel dat de kwaliteit van reviews (,zoals die van HardOCP) te laag is door het ontbreken van de 95% betrouwbaarheidsinterval (een belangrijk geven in de statistiek als je resultaten met elkaar wilt vergelijken) in de resultaten.
edward2 schreef op zondag 08 mei 2011 @ 22:40:
[...]


Als je bedoelt dat omdat de GeForces ook in één benchmark wat minder presteren dat de testwaarden teveel variëren en daardoor niet betrouwbaar zijn dan denk ik eerder dat ook de tri-SLI opstelling misschien in enkele gevallen (nog) niet optimaal draait op de P67 en als je refereert aaan vorige testresultaten, want ik kan me even niet herrinneren dat de tri-SLI het minder deed op de P67 in Metro2033, dan hou je natuurlijk altijd mogelijk verschillen door het gebruik van een nieuwere driver.

Natuurlijk zou het zo kunnen zijn dat (tri) SLI momenteel meer CPU-power vraagt. De beste methode om daar achter te komen is met gelijkwaardige platformen te testen met verschillende CPU-frequenties.
Nee, dat bedoel ik niet. Ik bedoel zoals ik meerdere keren tegen Dahakon in verschillende formuleringen heb gezegd: ‘’Ik stel dat de kwaliteit van reviews (,zoals die van HardOCP) te laag is door het ontbreken van de 95% betrouwbaarheidsinterval (een belangrijk geven in de statistiek als je resultaten met elkaar wilt vergelijken) in de resultaten.’’ Door het ontbreken van het betreffende kun je resultaten slecht met elkaar vergelijken en/of interpreteren. Iets wat ik jou en anderen in dit topic wel zie doen.

[Voor 18% gewijzigd door Springstof op 09-05-2011 10:49]


Acties:
  • 0Henk 'm!
Als de kwaliteit van de reviews van HardOCP al te laag is, dan kun je beter helemaal geen reviews meer lezen veel beter zal er niet echt zijn...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Max Hunt schreef op zaterdag 07 mei 2011 @ 13:10:
In dit topic is iemand bezig met het testen van de 3Gb 580. Bij hem gaat het dan vooral om quad-sli maar in z'n tests laat ie ook de resultaten van 2 en 3-way SLI zien. Zijn conclusie was dat 3Gb zeer hard nodig is op 3-scherm / Surround resoluties.

Hij heeft ook quad-crossfire getest met wat aparte resultaten, onder andere dat de CF bridges de hoeveelheid data niet meer aankunnen met quad-crossfire.

Op lagere resoluties is 3Gb natuurlijk overkill maar in SLI icm Surround worden de 580 kaarten redelijk gelimiteerd door het geheugen.
Ik ben benieuwd nar die test dan want tests van nu toe laten maar een verschil van 1 fps zien op 2560 resoluties 1,5gb vs 3gb. Ik zelf ben mij dat ik daarom maar 1,5gb kaarten heb want die extra 1,5gb is het niet waard

Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
Bij het testen van een medicijn neem je groepen mensen omdat 1 persoon niet genoeg is. Bij het testen van FPS in een bepaald spel neem je meerdere metingen met een gemiddelde FPS als uitkomst. Verder kun je (lijkt mij) bij computers er van uit gaan dat je bij commando X altijd resultaat Y krijgt, of je het nu 1, 2 of 200 keer doet.

De gemiddelde FPS die ze daar meten, dat is waar het om gaat. Ze geven er dan geen SD waarden bij oid. maar als het gaat om verschillen van 10 of 30 procent dan lijkt het me duidelijk dat er significante verschillen zijn.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
-The_Mask- schreef op maandag 09 mei 2011 @ 10:47:
Als de kwaliteit van de reviews van HardOCP al te laag is, dan kun je beter helemaal geen reviews meer lezen veel beter zal er niet echt zijn...
Dankje, maar ik bepaal zelf wel wat ik lees.
Max Hunt schreef op maandag 09 mei 2011 @ 10:52:
Bij het testen van een medicijn neem je groepen mensen omdat 1 persoon niet genoeg is. Bij het testen van FPS in een bepaald spel neem je meerdere metingen met een gemiddelde FPS als uitkomst. Verder kun je (lijkt mij) bij computers er van uit gaan dat je bij commando X altijd resultaat Y krijgt, of je het nu 1, 2 of 200 keer doet.

De gemiddelde FPS die ze daar meten, dat is waar het om gaat. Ze geven er dan geen SD waarden bij oid. maar als het gaat om verschillen van 10 of 30 procent dan lijkt het me duidelijk dat er significante verschillen zijn.
Als je game 30 FPS heeft is 27 al 10%. De betreffende waarde lijkt me dus wel wenselijk om goed te vergelijken.

[Voor 56% gewijzigd door Springstof op 09-05-2011 11:01]


Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 07:51
Ik ben benieuwd nar die test dan want tests van nu toe laten maar een verschil van 1 fps zien op 2560 resoluties 1,5gb vs 3gb. Ik zelf ben mij dat ik daarom maar 1,5gb kaarten heb want die extra 1,5gb is het niet waard
Vega heeft nog een thread waarin ie nog wat meer getest heeft met tri-quad crossfire en ook een tri-580-3gb setup: 6970 CF Eyefinity vs 580 SLI Surround Showdown . Een quote daaruit mbt. geheugen gebruik van de kaarten:
Virtually all of these games tested even with just 2x AA blew through the 1536 limit on the standard 580's. DCS A-10C used 2200MB, Heaven 2.1 with 8x AA used 2700MB and Eve online at 16x AA used 2800MB VRAM. You see that even with 6970s 2GB with more than 2x AA you run into problems.
Edit:
Als je game 30 FPS heeft is 27 al 10%. De betreffende waarde lijkt me dus wel wenselijk om goed te vergelijken.
Klopt, maar als 1 standaard afwijking neerkomt op 0,4 fps dan is 27 fps dus een enorme afwijking. En zo te zien gebruiken ze ongeveer 300 meetpunten, bij Crysis zelfs 600.

[Voor 15% gewijzigd door Max Hunt op 09-05-2011 11:07]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Max Hunt schreef op maandag 09 mei 2011 @ 11:03:

Klopt, maar als 1 standaard afwijking neerkomt op 0,4 fps dan is 27 fps dus een enorme afwijking. En zo te zien gebruiken ze ongeveer 300 meetpunten, bij Crysis zelfs 600.
Let wel: het gaat mij, zoals ik al meerdere keren heb aangegeven, om het 95% betrouwbaarheidsinterval en deze is groter dan een standaard afwijking. Dat terzijde, het kan inderdaad zo zijn dat het vrij kleine getallen betreffen, maar dat is een aanname net zoals het een aanname is dat het vrij grote getallen kunnen betreffen. Om hier duidelijkheid over te krijgen verwacht ik dus ook van een erg goede review dat de betreffende getallen worden weergegeven, want op basis daarvan kunnen harde en terechte conclusies getrokken worden wanneer resultaten met elkaar worden vergeleken en het verhoogt de validiteit van de resultaten. Win-win situatie.

Acties:
  • 0Henk 'm!

  • Ed_L
  • Registratie: Januari 2006
  • Nu online

Ed_L

Crew Council
Leuk, dat gemier om een betrouwbaarheidsinterval, maar het is tegelijk totaal onrealistisch om zoiets weer te geven. Je zou een enkele benchmark minstens 200 keer moeten draaien per kaart om zoiets weer te geven en dat is een verwachting die een site niet kan waarmaken. Het is vergelijkbaar met de eis die chimo onlangs neerlegde om zo ongeveer elke game ooit uitgebracht te benchen. Daar is simpelweg geen tijd voor. Als je als reviewer een week de tijd hebt om een high-end kaart te testen mag je al blij zijn. Ondertussen heb je ook nog kans dat je even een driver update om de oren krijgt. Totaal onrealistisch.

Ik heb het al eens eerder uitgelegd: een review levert X inkomsten op en mag dus nooit meer dan X - winstmarge kosten. En reviewers groeien niet aan bomen. Die willen ook graag eten.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Ed_L schreef op maandag 09 mei 2011 @ 11:54:
Leuk, dat gemier om een betrouwbaarheidsinterval, maar het is tegelijk totaal onrealistisch om zoiets weer te geven. Je zou een enkele benchmark minstens 200 keer moeten draaien per kaart om zoiets weer te geven en dat is een verwachting die een site niet kan waarmaken.
Mag ik de berekening zien waaruit jij uitmaakt dat de steekproefgrootte minstens 200 moet zijn? Als je bepaalde uitkomsten significant wilt krijgen hoeft je steekproefgrootte echt niet heel groot te zijn. Zou best kunnen dat het bij voor de reviewmethode van HardOCP het geval is, maar eerlijk gezegd weet ik dit niet zonder berekening.

Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Springstof ook altijd met zijn onrealistische eisen :S. Volgens mij heb je de strekken van Ed zijn post niet begrepen.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 134818 schreef op maandag 09 mei 2011 @ 12:08:
Springstof ook altijd met zijn onrealistische eisen :S. Volgens mij heb je de strekken van Ed zijn post niet begrepen.
Volgens mij heb je de strekking van mijn post niet begrepen. Ik betwijfel of het onrealistisch is.

[Voor 6% gewijzigd door Springstof op 09-05-2011 12:12]


Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Springstof schreef op maandag 09 mei 2011 @ 12:12:
[...]
Volgens mij heb je de strekking van mijn post niet begrepen. Ik betwijfel of het onrealistisch is.
Het is gewoon irrelevant. Het is gewoon te duur. En dan kan je van ed wel een berekening willen. Het punt blijft al zouden ze geen 200x moeten benchen, maar 50 keer, is dat nog te veel en dus te duur. Je kan wel wat willen, maar je weet wat ze zeggen over kindertjes die willen ;).

[Voor 30% gewijzigd door Anoniem: 134818 op 09-05-2011 12:14]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Als je irrelevante resultaten als relevant wilt beschouwen is het inderdaad irrelevant. Met de notie dat je dan niet goed bezig bent.
Het is gewoon te duur.
Liever lui dan moe denk ik eerder.
Je kan wel wat willen, maar je weet wat ze zeggen over kindertjes die willen ;).
:F

[Voor 12% gewijzigd door Springstof op 09-05-2011 12:16]


Acties:
  • 0Henk 'm!

  • Ed_L
  • Registratie: Januari 2006
  • Nu online

Ed_L

Crew Council
Springstof schreef op maandag 09 mei 2011 @ 12:12:
[...]
Volgens mij heb je de strekking van mijn post niet begrepen. Ik betwijfel of het onrealistisch is.
Het is heel eenvoudig. Als je je review niet direct op launch day kunt publiceren kost je dat duizenden views en dus inkomsten. Als je dus meer kosten maakt voor een view die minder oplevert, ben je bedrijfsmatig dom bezig. Lang leve de wetenschap, maar daar eet je geen brood van. En dat alles voor een minimaal verschil in resultaat dat de uitkomsten ineens significant maakt. Het gros van je lezers heeft daar echt geen boodschap aan.

Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Springstof schreef op maandag 09 mei 2011 @ 12:15:
[...]

Als je irrelevante resultaten als relevant wilt beschouwen is het inderdaad irrelevant. Met de notie dat je dan niet goed bezig bent.
Riiiiight.... De variatie is klein (algemeen bekend, wedden dat je hier over gaat zeuren, dat je dat dan in een link wil zien, met wetenschappelijk onderbouwde bronnen, die door meerdere peers ondersteund worden. kort om: Niet realistisch) en niet interessant voor de tijd die er in word gestoken, richting de 'winst' aan informatie die je daar uit krijgt.
Liever lui dan moe denk ik eerder.
Nou als jij zo veel keer die benchmark wil gaan draaien voor een heel stapel kaarten, niemand houd je tegen.
:F
Bijna, maar dan word er ergens anders geslagen ;).

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 134818 schreef op maandag 09 mei 2011 @ 12:18:
[...]

Riiiiight.... De variatie is klein (algemeen bekend, wedden dat je hier over gaat zeuren, dat je dat dan in een link wil zien, met wetenschappelijk onderbouwde bronnen, die door meerdere peers ondersteund worden. kort om: Niet realistisch) en niet interessant voor de tijd die er in word gestoken, richting de 'winst' aan informatie die je daar uit krijgt.
Right, wederom geen steekhoudend argument. Je bent (weer) aan het overhaast generaliseren.
[...]

Nou als jij zo veel keer die benchmark wil gaan draaien voor een heel stapel kaarten, niemand houd je tegen.
Geef me de kaarten, regel vrij van mijn huidige werk/studie en betaal me per uur. ;)
Ed_L schreef op maandag 09 mei 2011 @ 12:18:
[...]

Het is heel eenvoudig. Als je je review niet direct op launch day kunt publiceren kost je dat duizenden views en dus inkomsten. Als je dus meer kosten maakt voor een view die minder oplevert, ben je bedrijfsmatig dom bezig. Lang leve de wetenschap, maar daar eet je geen brood van. En dat alles voor een minimaal verschil in resultaat dat de uitkomsten ineens significant maakt. Het gros van je lezers heeft daar echt geen boodschap aan.
Kwantiteit boven kwaliteit is inderdaad niet mijn insteek, maar ik begrijp je insteek wel. Hoeveel dagen voor launch day krijgen jullie de kaarten binnen (gemiddeld genomen)

[Voor 3% gewijzigd door Springstof op 09-05-2011 12:29]


Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Springstof schreef op maandag 09 mei 2011 @ 12:25:
[...]

Je bent (weer) aan het overhaast generaliseren.
Tuurlijk, waar zijn jouw bronnen daar voor? Ik wil ze graag wel peer reviewed hebben. Een ouderbouwing zou het minste zijn...
Geef me de kaarten, regel vrij van mijn huidige werk/studie en betaal me per uur. ;)
O, jij wil er wel geld voor vangen, maar de reviewers moeten die testen uitvoeren en daardoor geld mis lopen.... Ik niet snap niet ;).

[Voor 3% gewijzigd door Anoniem: 134818 op 09-05-2011 12:29]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 134818 schreef op maandag 09 mei 2011 @ 12:28:
[...]

Tuurlijk, waar zijn jouw bronnen daar voor? Ik wil ze graag wel peer reviewed hebben. Een ouderbouwing zou het minste zijn...
Bronnen waarvoor? Voor dat jij claimt dat er sprake is van een verschijnsel zonder dit verschijnsel aan te tonen, maar op het moment dat ik dit een overhaaste generalisatie noem moet ik iets aantonen... haha, het moet niet gekker worden met jou.
[...]

O, jij wil er wel geld voor vangen, maar de reviewers moeten die testen uit voeren en daardoor geld mis lopen.... Ik niet snap niet ;).
ik heb het niet zo op vrijwilligerswerk.

[Voor 26% gewijzigd door Springstof op 09-05-2011 12:32]


Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Springstof schreef op maandag 09 mei 2011 @ 12:31:
[...]

Bronnen waarvoor? Voor dat jij claimt dat er sprake is van een verschijnsel zonder dit verschijnsel aan te tonen, maar op het moment dat ik dit een overhaaste generalisatie noem moet ik iets aantonen... haha, het moet niet gekker worden met jou.
O, jij mag wel bij alles gaan roepen dat er zo een bron bij moet, maar zelf hoef je dat natuurlijk niet te doen. :+

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 134818 schreef op maandag 09 mei 2011 @ 12:32:
[...]

O, jij mag wel bij alles gaan roepen dat er zo een bron bij moet, maar zelf hoef je dat natuurlijk niet te doen. :+
Dat vroeg ik niet. Ik vroeg welke claim van mij dan niet goed onderbouwd is. In dat geval neem ik hem direct terug of onderbouw ik hem wel.

Acties:
  • 0Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 24-05 00:46
Springstof schreef op maandag 09 mei 2011 @ 11:45:
[...]

Let wel: het gaat mij, zoals ik al meerdere keren heb aangegeven, om het 95% betrouwbaarheidsinterval en deze is groter dan een standaard afwijking.
Dat terzijde, het kan inderdaad zo zijn dat het vrij kleine getallen betreffen, maar dat is een aanname net zoals het een aanname is dat het vrij grote getallen kunnen betreffen.
Om hier duidelijkheid over te krijgen verwacht ik dus ook dat reviews de betreffende getallen dan ook voortaan gaan weergeven, want op basis daarvan kunnen harde en terechte conclusies getrokken worden wanneer resultaten met elkaar worden vergeleken en het verhoogt de validiteit van de resultaten.

Win-win situatie.
95% betrouwbaarheidsinterval ????
95% lijkt me wel een beetje aan de accurate kant voor zoveel omgevings variabelen.

Ik denk dat het een beetje onzinnig is om zo naar score's te kijken, je gaat gewoon een bench niet 10x draaien.
Echter als je een FPS meting doet in een game met een x aantal meetpunten kan het wel ergens nut hebben om x% van de toppen (zowel negatief als positief) eruit te halen.

Echter ben ik juist geinteresseerd in de toppen, het kan je hele game ervaring bepaalen.
En je kunt ook praten over betrouwbaarheid, maar uiteindelijk wil ik gewoon weten hoe een kaart presteerde op een systeem uit dezelfde prijsklasse of iets hoger/met een kleine OC.

Dus wat dat betreft is elke revieuw representatief voor een bepaalde doelgroep en dan kun je wel de uitkomst willen aanpassen met allemaal leuke termen en reken grapjes maar daar presteert een kaart als je aan het gamen bent echt niet beter of slechter van.
Springstof schreef op maandag 09 mei 2011 @ 12:00:
[...]

Mag ik de berekening zien waaruit jij uitmaakt dat de steekproefgrootte minstens 200 moet zijn?
Als je bepaalde uitkomsten significant wilt krijgen hoeft je steekproefgrootte echt niet heel groot te zijn.
Zou best kunnen dat het bij voor de reviewmethode van HardOCP het geval kan zijn, maar eerlijk gezegd weet ik dit niet zonder berekening.
Oke misschien heb ik een beetje slecht geslapen en pass vijf koppen koffie op, maar significant of niet, en 200 keer of 10.000 keer, het kan me echt niks schelen en het is geen nieuws.
Echt dit is leuk voor een wiskunde forum maar wij hebben het hier gewoon over prestaties van een kaart en niet over een onderzoek naar het gemiddelde stroomverbruik van bevolking tussen de 28 en 46 tijdens de paasdagen...

@Springstof, begrijp me niet verkeerd, ik vind het echt tof dat je alles aan de kaak stelt, anders valt er ook niets meer te bediscussiëren natuurlijk. Maar het gaat nu een beetje OT ;)
Dat geld natuurlijk ook voor de rest, maar jij bent op dit moment aanvoerder van de discussie :P

Ik kan hier niet eens terugvinden dat Nvidia drie dagen geleden PhysX SDK 3.0 de deur uit heeft geschopt.
http://physxinfo.com/news...dk-3-0-has-been-released/

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik doe ff een nieuwtje tussendoor:

NVIDIA to Acquire Icera, Adds Software Baseband to its Portfolio

http://www.anandtech.com/...baseband-to-its-portfolio


nVidia ziet haar toekomst dus duidelijk in de phone/tablet markt.

Denk dat het ook de enige weg voor ze is.

[Voor 23% gewijzigd door Help!!!! op 09-05-2011 16:19]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Oggg ook vast nog wel in de gpu markt voor desktops.

Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Anoniem: 304087 schreef op maandag 09 mei 2011 @ 16:55:
Oggg ook vast nog wel in de gpu markt voor desktops.
Ware het niet dat high-end kaarten een veel kleinere (al wel hogere marge) markt is. Mobiel is booming. Onboard en budget is verreweg de grootste markt qua volume. Budget gaat met de fusion concepten toch steeds meer verdwijnen. Laat nvidia op de X86 markt daar niet meer mee kunnen doen, daarmee word de markt wat dat betreft een stuk kleiner voor dedicated grafsiche oplossing. Ik denk dat deze niet gaat verdwijnen gezien de kracht van kaarten.

[Voor 6% gewijzigd door Anoniem: 134818 op 09-05-2011 16:59]


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 134818 schreef op maandag 09 mei 2011 @ 16:58:
[...]

Ware het niet dat high-end kaarten een veel kleinere (al wel hogere marge) markt is. Mobiel is booming. Onboard en budget is verreweg de grootste markt qua volume. Budget gaat met de fusion concepten toch steeds meer verdwijnen. Laat nvidia op de X86 markt daar niet meer mee kunnen doen, daarmee word de markt wat dat betreft een stuk kleiner voor dedicated grafsiche oplossing. Ik denk dat deze niet gaat verdwijnen gezien de kracht van kaarten.
Vraag is of ze op de lange termijn nog zelfs wel meedoen in het midden segment want AMD kan deze markt heel goedkoop en makkelijk weg jatten van nVidia. Dit kunnen ze doen door APUs welke net geen mid-end GPU huisvesten te combineren met een videokaart welke vervolgens de APU ondersteund waardoor een APU met net geen mid-end grafische kracht naar mid-end grafische kracht wordt getild. Bye bye nVidia.
Blijft high-end over maar als je geen mid en low-end markt hebt om de R&D van te betalen houd het al snel op.

nVidia kan dit voorkomen door heel sterk in de Quadro en Tesla markt te blijven maar in deze markten is GPGPU het belangrijkste en het is vooralsnog niet zeker of GPUs die eigenlijk speciaal voor GPGPU bedoelt zijn ook geschikt gaan zijn voor de consumenten markt.

Ze kunnen natuurlijk ook de mid-end markt in Intel systemen blijven aanspreken. Maar als een "all" AMD systeem veel goedkoper is, doordat alles en van één fabrikant komt en waarschijnlijk ondanks dit feit ook nog eens goedkoper is te krijgen is dan houd dat ook niet over, daarbij kan AMD gewoon heel scherp zijn qua prijs waardoor ze op die manier nVidia de markt uit duwen.

Het is natuurlijk nog lang niet zover. Maar de "APUs" van Intel alleen al blokkeren de low-end markt voor nVidia daarbij komt dat de APUs van AMD zelfs de mid-end markt voor nVidia in gevaar brengen en in de wordt het gevaarlijk voor nVidia.

1+1=3 want: meer orders, meer productie, lagere productie kosten, meer orders enzovoort.
Dit is een moeilijk te breken cyclus.
Doordat een fabrikant domineert gaat men in de industrie daar ook meer rekening mee houden i.v.m. programmeren wat de verkoop nog meer stimuleert. Dit kan men natuurlijk ook zelf stimuleren, zie TWIMTBP. Denk ook aan het SSE Intel schandaal welke AMD wel had maar niet werkte vanwege Intel.

Acties:
  • 0Henk 'm!

Anoniem: 263922

Voor de consument zou het enkel nadelig uit kunnen pakken als nVidia wegvalt, dat is geen situatie waar ik op zit te wachten iig.

Nu is het wel zo dat de kans op zo'n doemsituatie nihil is...

[Voor 20% gewijzigd door Anoniem: 263922 op 10-05-2011 01:56]


Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
NVIDIA koop ICERA

http://www.pcmweb.nl/nieu...-met-icera-mobiel-sterker

Nvidia betaalt $ 367 miljoen voor Icera

[Voor 19% gewijzigd door Anoniem: 304087 op 10-05-2011 09:15]

Pagina: 1 2 3 ... 7 Laatste

Dit topic is gesloten.

Let op:
Voor de duidelijk nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee