Nou nee, dat was ik alleenLOTG schreef op donderdag 24 maart 2011 @ 22:01:
Ik weet niet hoe het hier op tweakers gegaan is maar daar waren (vooral toenmalig ATI fans) in het verleden hele volksstammen de NVidia kaarten op aan het afkraken. Een beetje de omgekeerde wereld ineens lijkt het.
Waarom?-The_Mask- schreef op donderdag 24 maart 2011 @ 22:13:
[...]
Open standaard is natuurlijk altijd een stuk beter in alle opzichten,
Wordt beter ontvangen waardoor meer bedrijven er voor gaan ontwikkelen waardoor een openstandaard succesvoller wordt dan een gesloten standaard.
Jammer dat jij nu een beetje bot ligt te doen hier en naar de bekende weg vraagt.
Open versus Closed discussie graag in het apple os versus android topic.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Of in het HTML5 topic als het over H264 vs WebM/VP8 gaat.neliz schreef op donderdag 24 maart 2011 @ 22:19:
Open versus Closed discussie graag in het apple os versus android topic.
Trouwens, springstof, je hele betoog lijkt op een "ah, dus mijn favo wint niet? dan gun ik het niemand! baaaah!" Maar goed, dat is maar mijn persoonlijke indruk.
edit: Of je doet zo guur net omdàt iedereen je verwijt van fanatieke trekjes, terwijl je zelf vindt dat je die eigenlijk niet hebt. Zit dat er dichter op? Soit, metadiscussies ... zeer leuk, maar niet gepast hier.
[ Voor 20% gewijzigd door RuddyMysterious op 24-03-2011 22:25 ]
Ah, dus als ik kritiek heb op een review komt dat natuurlijk, omdat de 590 niet 'wint'. Ten eerste druk ik me helemaal niet uit in termen van 'winnen'. Dan verwar je me toch echt met een andere forumgebruiker denk ik en daarnaast had ik al voor de reviews geen hoge pet op van de 590. Hetgeen de 590 nu laat zien in reviews lag dus al in mijn lijn der verwachting.
Laten we het daarnaast hier niet over hebben (daarmee doel ik op de reden achter mijn kritiek op de review van Tnet, want ik vind de review oprecht niet goed en heb aangegeven waarom).
Laten we het daarnaast hier niet over hebben (daarmee doel ik op de reden achter mijn kritiek op de review van Tnet, want ik vind de review oprecht niet goed en heb aangegeven waarom).
[ Voor 25% gewijzigd door Springstof op 24-03-2011 22:30 ]
Je maakt je druk om het aantal sterren dat het apparaat krijgt/je bent het niet eens met aantal verkregen sterren door een apparaat.Springstof schreef op donderdag 24 maart 2011 @ 22:25:
Ah, dus als ik kritiek heb op een review komt dat natuurlijk, omdat de 590 niet 'wint'. Ten eerste druk ik me helemaal niet uit in termen van 'winnen'. Dan verwar je me toch echt met een andere forumgebruiker denk ik en daarnaast had ik al voor de review geen hoge pet op van de 590. Hetgeen de 590 nu laat zien in reviews lag dus al in mijn lijn der verwachting.
Laten we het daarnaast hier niet over hebben.
Vervolgens zeg je dat het je helemaal niet uitmaakt wie wint. Dus wat maken die sterren dan nog uit als het je geen hol kan schelen wie wint ?
Hoe was dat moeilijk woord ook alweer ? Oh ja:
Ik bedoel "inconsistentie".Springstof schreef op donderdag 24 maart 2011 @ 21:24:
Inconsisitentie
Het gaat mij niet om open VS closed, het gaat mij erom dat Nvidia zelf iets begint te ontwikkelen en daar veel tijd en geld in steekt. Dan vind ik niet dat je moet verwachten dat ze alles laten vallen nadat ze veel moeite gedaan hebben het door de grote menigte geaccepteerd te krijgen omdat iemand een open versie gemaakt heeft.
Ik ben niet tegen open standaarden maar het is ook niet het beste wat er is.
Nvidia heeft bijvoorbeeld jaren werk in CUDA en 3D gestoken, maar als AMD besluit een open standaard te pakken dan is ineens Nvidia evil omdat die met bepaalde leveranciers als iets hebben weten te regelen. Dan moet het ineens ook werken op AMD kaarten. Dat vind ik onzin, natuurlijk gaat Nvidia niet een hoop geld weggooien zodat AMD ook ineens hetzelfde kan. Daarom is het toch een Nvidia feature.
Ik ben niet tegen open standaarden maar het is ook niet het beste wat er is.
Nvidia heeft bijvoorbeeld jaren werk in CUDA en 3D gestoken, maar als AMD besluit een open standaard te pakken dan is ineens Nvidia evil omdat die met bepaalde leveranciers als iets hebben weten te regelen. Dan moet het ineens ook werken op AMD kaarten. Dat vind ik onzin, natuurlijk gaat Nvidia niet een hoop geld weggooien zodat AMD ook ineens hetzelfde kan. Daarom is het toch een Nvidia feature.
nV kan toch ook beide supporten. CUDA lekker voor de industriële tak en openCL voor de consumenten tak.
Zal voor alle spelers alleen maar goed zijn.
Zal voor alle spelers alleen maar goed zijn.
[ Voor 18% gewijzigd door spNk op 24-03-2011 22:36 ]
Wie zegt dat dat niet zo is? Ik niet.spNk schreef op donderdag 24 maart 2011 @ 22:36:
nV kan toch ook beide supporten. CUDA lekker voor de industriële tak en openCL voor de consumenten tak.
Zal voor alle spelers alleen maar goed zijn.
madmax, als je iemand gaat aanvallen op spelling raad ik je aan toch ook erg goed naar jezelf te kijken. Daarnaast is het simpelweg kinderachtig en ga ik niet eens op je berichten in.
Als Nvidia vanaf het begin een open standaard had gekozen was iedereen blij geweest, de videokaart fabrikanten omdat alles werkt en de game fabrikanten omdat hun games op alle videokaarten kunnen draaien aangezien het allemaal dezelfde techniek zou zijn.LOTG schreef op donderdag 24 maart 2011 @ 22:32:
Het gaat mij niet om open VS closed, het gaat mij erom dat Nvidia zelf iets begint te ontwikkelen en daar veel tijd en geld in steekt. Dan vind ik niet dat je moet verwachten dat ze alles laten vallen nadat ze veel moeite gedaan hebben het door de grote menigte geaccepteerd te krijgen omdat iemand een open versie gemaakt heeft.
Ik ben niet tegen open standaarden maar het is ook niet het beste wat er is.
Nvidia heeft bijvoorbeeld jaren werk in CUDA en 3D gestoken, maar als AMD besluit een open standaard te pakken dan is ineens Nvidia evil omdat die met bepaalde leveranciers als iets hebben weten te regelen. Dan moet het ineens ook werken op AMD kaarten. Dat vind ik onzin, natuurlijk gaat Nvidia niet een hoop geld weggooien zodat AMD ook ineens hetzelfde kan. Daarom is het toch een Nvidia feature.
Juist dáárom zijn open standaarden belangrijk, als iedereen gesloten standaarden zou gaan aannemen wordt het voor gamemakers toch onmogelijk om spellen te maken die op een zo groot mogelijke groep hardware kunnen draaien?
Wat Nvidia dus doet wat sommigen als ''evil'' zullen bestempelen is het lokken van bepaalde gamemakers (dmv. een zak geld bijv.) om hun gesloten standaard te gebruiken waardoor ze een grote groep mensen buitensluiten.
Verwijderd
Heb geen zin in hele discussies, maar we gaan toch niet zo moeilijk doen om ergens een sterretje teveel of te weinig? Al was dat gelijk gezet, dan was de conclusie toch hetzelfde gebleven?
Enfin, de GTX590 presteert zoals verwacht en gezien de gelekte clocks een tijd terug had ik (en velen anderen) al sterk m'n twijfels dat ie uberhaupt de HD6990 kon verslaan en dat klopt dus wel ene beetje. Op 1920x1200 pakt ie misschien net een nipte voorsprong, maar op de hogere reso's spelen de lage clocks 'm parte.
De HD6990 is gezien prijs en prestatie gewoon de betere keuze, enig nadeel is dat je er een bak herrie op de koop toe krijgt en dat is dan ok wel weer een vrij groot nadeel vind ik. Bij sommige reviews zelfs luider dan de GTX480...
De GTX590 presteert een net wat minder (over alle reso's), maar is veel stiller. Nadeel is dat je er ~100,- meer voor moet betalen wat ook wel weer erg jammer is.
Ideaal zou zijn een HD6990 met de koeler van de GTX590...
Enfin, de GTX590 presteert zoals verwacht en gezien de gelekte clocks een tijd terug had ik (en velen anderen) al sterk m'n twijfels dat ie uberhaupt de HD6990 kon verslaan en dat klopt dus wel ene beetje. Op 1920x1200 pakt ie misschien net een nipte voorsprong, maar op de hogere reso's spelen de lage clocks 'm parte.
De HD6990 is gezien prijs en prestatie gewoon de betere keuze, enig nadeel is dat je er een bak herrie op de koop toe krijgt en dat is dan ok wel weer een vrij groot nadeel vind ik. Bij sommige reviews zelfs luider dan de GTX480...
De GTX590 presteert een net wat minder (over alle reso's), maar is veel stiller. Nadeel is dat je er ~100,- meer voor moet betalen wat ook wel weer erg jammer is.
Ideaal zou zijn een HD6990 met de koeler van de GTX590...
Je kunt lastig een open standaard kiezen als die er niet is, en dat is precies mijn punt. Waarom moet Nvidia wijken voor een standaard die later komt.
Ze werken zelfs aan openCL mee.
Ze werken zelfs aan openCL mee.
Het ging me niet per se zo zeer om dat ene sterretje, maar om het gegeven dat ik bepaalde dingen in de review niet goed vond en ik dat aangaf.Verwijderd schreef op donderdag 24 maart 2011 @ 22:40:
Heb geen zin in hele discussies, maar we gaan toch niet zo moeilijk doen om ergens een sterretje teveel of te weinig? Al was dat gelijk gezet, dan was de conclusie toch hetzelfde gebleven?
Ze hadden ook zelf een begin kunnen maken aan een open standaard, in plaats van voor iets gesloten te kiezen.LOTG schreef op donderdag 24 maart 2011 @ 22:40:
Je kunt lastig een open standaard kiezen als die er niet is, en dat is precies mijn punt. Waarom moet Nvidia wijken voor een standaard die later komt.
Ze werken zelfs aan openCL mee.
Ah, mijn post op de fp past integraal in deze discussie zo te zien.
@ Marc Rademaker:
Wat me eerlijk gezegd ook verbaast op de scorekaart is dat de 6990 5 sterren heeft voor "Featureset" terwijl de GTX590 er maar 4 krijgt.
De unique selling point van deze generatie Radeons (5000/6000 serie) is Eyefinity.
Voor nVidia is dat PhysX en CUDA. Met SurroundView ondersteund nV nu echter feitelijk hetzelfde als ATI doet met Eyefinity, met als extra (nV exclusief) nog steeds PhysX en CUDA.
Hoe kan het dan dat de Radeon vervolgens hoger scoort op Featureset?? Wat kan de 6990 wel dat de GTX590 niet kan? Zeker gezien je zelf al stelt dat deze implementatie van die "AUSUM-switch" feitelijk een 'dooie mus' is: er zijn niet veel mensen die er zin in zullen hebben hun garantie op een kaart van 550 Euro door de WC te spoelen
<edit>
HWI komt trouwens met een benchmarksuite met grotendeels dezelfde games tot een andere conclusie:
<edit2>
Zo ongeveer alle andere gerenommeerde reviewsites die ik nu check komen tot de conclusie dat de GTX590 en 6990 gelijk presteren (met hier en daar een lichte 'edge' vaak juist naar de 590):
http://www.tomshardware.c...deon-hd-6990,2898-19.html
http://www.bit-tech.net/h...rce-gtx-590-3gb-review/10
http://www.hardwarecanuck...tx-590-3gb-review-23.html
http://www.techspot.com/review/378-nvidia-geforce-gtx-590/
http://www.techpowerup.co...S/GeForce_GTX_590/27.html
http://www.guru3d.com/article/geforce-gtx-590-review/21
http://www.legitreviews.com/article/1576/17/
http://www.anandtech.com/...r-the-single-card-king/17
Het is dus niet HWI die de vreemde eend in de bijt is...
<edit3>
Interessant uitgangspunt... dat je als je ~600 Euro overhebt voor een videokaart je ook wel 1200+ Euro zult (over)hebben voor een 2560x1600 scherm om op die reso te kunnen gamen is nogal een aanname. 1680x1050 skippen: soit. Maar 1920x1080? Dit zorgt er in ieder geval wel voor dat je eindconclusie behoorlijk scheef trekt bij de rest... want ook Computerbase die je aanhaalt concludeert
PS: What about the featureset die ik hierboven bespreek? Want - performance aside - ben ik heel erg benieuwd waarom de Radeon ook daar beter uit de bus komt in de score?
Voor degenen die de andere reviews nog niet gelezen hebben: op 1920x1080 - ofwel de reso die de meeste high-end gamers nu gebruiken (en gezien de prijzen van 2560x1600 monitoren: voorlopig ook zullen blijven gebruiken) - is de GTX590 dus sneller.
Bias zou ik het niet perse willen noemen, maar de keuze om deze reso helemaal niet te benchen - en ook niet even te bekijken om tenminste in het artikel aan te stippen - is zeker wel 'interessant' te noemen. Voeg daaraan vervolgens toe de onverklaarde keuze om de Radeon een hogere score op featureset te geven -> en ik kan Springstof zo nog best redelijk volgen ook...
@ Marc Rademaker:
Wat me eerlijk gezegd ook verbaast op de scorekaart is dat de 6990 5 sterren heeft voor "Featureset" terwijl de GTX590 er maar 4 krijgt.
De unique selling point van deze generatie Radeons (5000/6000 serie) is Eyefinity.
Voor nVidia is dat PhysX en CUDA. Met SurroundView ondersteund nV nu echter feitelijk hetzelfde als ATI doet met Eyefinity, met als extra (nV exclusief) nog steeds PhysX en CUDA.
Hoe kan het dan dat de Radeon vervolgens hoger scoort op Featureset?? Wat kan de 6990 wel dat de GTX590 niet kan? Zeker gezien je zelf al stelt dat deze implementatie van die "AUSUM-switch" feitelijk een 'dooie mus' is: er zijn niet veel mensen die er zin in zullen hebben hun garantie op een kaart van 550 Euro door de WC te spoelen
<edit>
HWI komt trouwens met een benchmarksuite met grotendeels dezelfde games tot een andere conclusie:
Altijd wel gek dat er zo'n opmerkelijk verschil in de resultaten kan zitten als bijna dezelfde games worden getest...Is de GeForce GTX 590 de snelste videokaart ter wereld? Ja, als we al onze benchmarks middellen is de kaart sneller dan de Radeon HD 6990. Echter, het verschil is niet bijster groot. Beide kaarten zijn duidelijk aan elkaar gewaagd.
<edit2>
Zo ongeveer alle andere gerenommeerde reviewsites die ik nu check komen tot de conclusie dat de GTX590 en 6990 gelijk presteren (met hier en daar een lichte 'edge' vaak juist naar de 590):
http://www.tomshardware.c...deon-hd-6990,2898-19.html
http://www.bit-tech.net/h...rce-gtx-590-3gb-review/10
http://www.hardwarecanuck...tx-590-3gb-review-23.html
http://www.techspot.com/review/378-nvidia-geforce-gtx-590/
http://www.techpowerup.co...S/GeForce_GTX_590/27.html
http://www.guru3d.com/article/geforce-gtx-590-review/21
http://www.legitreviews.com/article/1576/17/
http://www.anandtech.com/...r-the-single-card-king/17
Het is dus niet HWI die de vreemde eend in de bijt is...
<edit3>
Een test op 1920x1080 - met afstand de meest gangbare resolutie op high-end gamemachines - is "tijdverspilling"??Door Marc Rademaker, donderdag 24 maart 2011 21:08
Zie: http://www.computerbase.d...schnitt_leistung_mit_aaaf
Ik heb op 2560x1600 getest en op 5760x1080. Ik vermeld naast gemiddelden ook minima. Dat doen niet veel websites ons na. Daarkom is bij ons de HD 6990 sneller. Ik was tot een volledigere conclusie gekomen als ik ook op 1920x1200 had getest, maar dat vind ik tijdverspilling. Je haalt graag hwi aan, daar testen ze dus maximaal op 1920x1080 en halen ze soms 200fps. Nogal een verspilling voor een kaart als de GTX 590 en HD 6990.
Interessant uitgangspunt... dat je als je ~600 Euro overhebt voor een videokaart je ook wel 1200+ Euro zult (over)hebben voor een 2560x1600 scherm om op die reso te kunnen gamen is nogal een aanname. 1680x1050 skippen: soit. Maar 1920x1080? Dit zorgt er in ieder geval wel voor dat je eindconclusie behoorlijk scheef trekt bij de rest... want ook Computerbase die je aanhaalt concludeert
Wat 2560x1600 betreft heeft hardwarecanucks trouwens ook lichtelijk andere ideeen bij bijna dezelfde benchmarksuite als hier gebruikt, maargoed...Einen eindeutigen Gewinner im Duell GeForce GTX 590 gegen Radeon HD 6990 gibt es also nicht, denn beide Karten haben ihre Vor- und Nachteile. [...] In Sachen Performance gibt es keinen eindeutigen Gewinner.
PS: What about the featureset die ik hierboven bespreek? Want - performance aside - ben ik heel erg benieuwd waarom de Radeon ook daar beter uit de bus komt in de score?
Voor degenen die de andere reviews nog niet gelezen hebben: op 1920x1080 - ofwel de reso die de meeste high-end gamers nu gebruiken (en gezien de prijzen van 2560x1600 monitoren: voorlopig ook zullen blijven gebruiken) - is de GTX590 dus sneller.
Bias zou ik het niet perse willen noemen, maar de keuze om deze reso helemaal niet te benchen - en ook niet even te bekijken om tenminste in het artikel aan te stippen - is zeker wel 'interessant' te noemen. Voeg daaraan vervolgens toe de onverklaarde keuze om de Radeon een hogere score op featureset te geven -> en ik kan Springstof zo nog best redelijk volgen ook...
...behalve als die 'fantastische' open standaard niet gebruikt en niet geimplementeerd wordt door dev's. En guess what? Ik hoor inmiddels al ongeveer 3 jaar dat OpenCL het ei van columbus moet gaan worden qua GPGPU en GPU physics maar heb er nog praktisch geen bal van gezien... i.i.t. CUDA en Physx-The_Mask- schreef op donderdag 24 maart 2011 @ 22:13:
Dit snap ik niet. Jij bent tegen open standaarden en vind dat iedereen het maar op zijn eigen manier moet doen? Open standaard is natuurlijk altijd een stuk beter in alle opzichten,
[ Voor 6% gewijzigd door Cheetah op 24-03-2011 22:59 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Dan vind je het vast ook slecht dat er geen open standaard is voor Eyefinity.
Nvidia innoveert op een gebied om een verkoop argument te creëren voor de kaarten, je weet wel dat featureset onderdeel van de review.
Jij bent een voorstander van open standaarden, en daar is niets mis mee maar als je iets wilt verkopen zul je toch iets moeten doen wat de concurrentie niet doet.
Een open standaard creëren lost trouwens niets op als het gaat om compatibiliteit, acceptatie en weet ik wat veel. Iedereen vind zijn eigen standaard het beste. HTML is al zo ver gestandaardiseerd dat er nu bij HTML 5 ineens meningsverschillen zijn en er vertakking begint te komen. Hoera voor de open standaard.
Nvidia innoveert op een gebied om een verkoop argument te creëren voor de kaarten, je weet wel dat featureset onderdeel van de review.
Jij bent een voorstander van open standaarden, en daar is niets mis mee maar als je iets wilt verkopen zul je toch iets moeten doen wat de concurrentie niet doet.
Een open standaard creëren lost trouwens niets op als het gaat om compatibiliteit, acceptatie en weet ik wat veel. Iedereen vind zijn eigen standaard het beste. HTML is al zo ver gestandaardiseerd dat er nu bij HTML 5 ineens meningsverschillen zijn en er vertakking begint te komen. Hoera voor de open standaard.
CUDA is alleen interresant voor de industrie en PhysX is marketing daar het zo is gemaakt dat het een videokaart dusdanig uit de bus laat komen t.o.v. PhysX door een CPU. PhysX is niks vergeleken bij Havok en andere CPU gebaseerden Physics engines.Cheetah schreef op donderdag 24 maart 2011 @ 22:44:
...behalve als die 'fantastische' open standaard niet gebruikt en niet geimplementeerd wordt door dev's. En guess what? Ik hoor inmiddels al ongeveer 3 jaar dat OpenCL het ei van columbus moet gaan worden qua GPGPU en GPU physics maar heb er nog praktisch geen bal van gezien... i.i.t. CUDA en Physx
Daarbij is PhysX en CUDA ook niet bepaald populair. GPGPU-hype in het algemeen moet nog opgang komen.
Auto-vergelijking dan maar, anders wordt het niet gesnapt.Cheetah schreef op donderdag 24 maart 2011 @ 22:44:
Een test op 1920x1080 - met afstand de meest gangbare resolutie op high-end gamemachines - is "tijdverspilling"??![]()
Interessant uitgangspunt... dat je als je ~600 Euro overhebt voor een videokaart je ook wel 1200+ Euro zult (over)hebben voor een 2560x1600 scherm om op die reso te kunnen gamen is nogal een aanname. 1680x1050 skippen: soit. Maar 1920x1080? Dit zorgt er in ieder geval wel voor dat je eindconclusie behoorlijk scheef trekt bij de rest... want ook Computerbase die je aanhaalt concludeert
Met een Bugatti-Veyron of andere peperdure super auto ga je toch ook niet op de normalen weg rijden... Daarmee ga je naar Zandvoort. Jij stelt vervolgens dat het belachelijk is om een dergelijke auto alleen op Zandvoort te testen omdat het gros van de auto liefhebbers met hun "snelle bakkie" op de autobaan(GER) rijden.
[ Voor 42% gewijzigd door madmaxnl op 24-03-2011 23:02 ]
Daar heb je zeker een punt.LOTG schreef op donderdag 24 maart 2011 @ 22:01:
[...]
Ik weet niet hoe het hier op tweakers gegaan is maar daar waren (vooral toenmalig ATI fans) in het verleden hele volksstammen de NVidia kaarten op aan het afkraken. Een beetje de omgekeerde wereld ineens lijkt het.
Dat commentaar op sommige nvidia kaarten uit het verleden was echter wel terecht.Die dingen waren gewoon luid.
Cuda is volgensmij in het professionele segment wel degelijk populair.madmaxnl schreef op donderdag 24 maart 2011 @ 22:57:
[...]
CUDA is alleen interresant voor de industrie en PhysX is marketing daar het zo is gemaakt dat het een videokaart dusdanig uit de bus laat komen t.o.v. PhysX door een CPU. PhysX is niks vergeleken bij Havok en andere CPU gebaseerden Physics engines.
Daarbij is PhysX en CUDA ook niet bepaald populair. GPGPU-hype in het algemeen moet nog opgang komen.
[ Voor 94% gewijzigd door Help!!!! op 24-03-2011 23:04 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
In dit opzicht is Eyefinity toch iets totaal anders, je bent niet verplicht dit te gebruiken om bijvoorbeeld bepaalde spellen te spellen, terwijl Nvidia echt liever zou hebben dat iedereen aan de CUDA&PhysX zat en dit proberen ze ook zo veel mogelijk te pushen.LOTG schreef op donderdag 24 maart 2011 @ 22:47:
Dan vind je het vast ook slecht dat er geen open standaard is voor Eyefinity.
Nvidia innoveert op een gebied om een verkoop argument te creëren voor de kaarten, je weet wel dat featureset onderdeel van de review.
Jij bent een voorstander van open standaarden, en daar is niets mis mee maar als je iets wilt verkopen zul je toch iets moeten doen wat de concurrentie niet doet.
Een open standaard creëren lost trouwens niets op als het gaat om compatibiliteit, acceptatie en weet ik wat veel. Iedereen vind zijn eigen standaard het beste. HTML is al zo ver gestandaardiseerd dat er nu bij HTML 5 ineens meningsverschillen zijn en er vertakking begint te komen. Hoera voor de open standaard.
Begrijp me niet verkeerd hoor ik heb niks tegen Nvidia, heb zelf een GTX 470, maar voor dit soort situaties is het gewoon beter om een open standaard te hebben in plaats van iets gesloten waarmee je erg veel mensen buiten sluit.
Inderdaad, daarnaast dacht ik zelf aan het volgende. Hoe je het ook wendt of keert. In een game als bijvoorbeeld Mafia II met PhysX aan heb je meer aan een 590 dan aan een 6990. Nergens maak ik uit op dat het aantal mensen dat met bijvoorbeeld 5 monitoren gamed veel groter is dan bijvoorbeeld het aantal mensen dat Mafia II of andere games met PhysX speelt. Lijkt me zelfs logisch dat het tegenovergestelde waar is en meer mensen dus van de nVidia feature gebruik zullen maken. Ik vind het een dubieus stuk van Tnet.Cheetah schreef op donderdag 24 maart 2011 @ 22:44:
Ah, mijn post op de fp past integraal in deze discussie zo te zien.
@ Marc Rademaker:
Wat me eerlijk gezegd ook verbaast op de scorekaart is dat de 6990 5 sterren heeft voor "Featureset" terwijl de GTX590 er maar 4 krijgt.
De unique selling point van deze generatie Radeons (5000/6000 serie) is Eyefinity.
Voor nVidia is dat PhysX en CUDA. Met SurroundView ondersteund nV nu echter feitelijk hetzelfde als ATI doet met Eyefinity, met als extra (nV exclusief) nog steeds PhysX en CUDA.
Hoe kan het dan dat de Radeon vervolgens hoger scoort op Featureset?? Wat kan de 6990 wel dat de GTX590 niet kan? Zeker gezien je zelf al stelt dat deze implementatie van die "AUSUM-switch" feitelijk een 'dooie mus' is: er zijn niet veel mensen die er zin in zullen hebben hun garantie op een kaart van 550 Euro door de WC te spoelen
[Interessant stuk]
[ Voor 56% gewijzigd door Springstof op 24-03-2011 23:13 ]
De Eyefinity SDK is gewoon open source.LOTG schreef op donderdag 24 maart 2011 @ 22:47:
Dan vind je het vast ook slecht dat er geen open standaard is voor Eyefinity.
Nvidia innoveert op een gebied om een verkoop argument te creëren voor de kaarten, je weet wel dat featureset onderdeel van de review.
Jij bent een voorstander van open standaarden, en daar is niets mis mee maar als je iets wilt verkopen zul je toch iets moeten doen wat de concurrentie niet doet.
Een open standaard creëren lost trouwens niets op als het gaat om compatibiliteit, acceptatie en weet ik wat veel. Iedereen vind zijn eigen standaard het beste. HTML is al zo ver gestandaardiseerd dat er nu bij HTML 5 ineens meningsverschillen zijn en er vertakking begint te komen. Hoera voor de open standaard.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Sinds wanneer is Eyefinity een standaard?LOTG schreef op donderdag 24 maart 2011 @ 22:47:
Dan vind je het vast ook slecht dat er geen open standaard is voor Eyefinity.
Physx niet populair? Waar baseer je dat op? De hele lijst games die het ondersteunen? Het feit dat er SDK's zijn voor alle consolles? Support in Unreal Engine 3? Nee die is inderdaad niet populair.madmaxnl schreef op donderdag 24 maart 2011 @ 22:57:
[...]
CUDA is alleen interresant voor de industrie en PhysX is marketing daar het zo is gemaakt dat het een videokaart dusdanig uit de bus laat komen t.o.v. PhysX door een CPU. PhysX is niks vergeleken bij Havok en andere CPU gebaseerden Physics engines.
Daarbij is PhysX en CUDA ook niet bepaald populair. GPGPU-hype in het algemeen moet nog opgang komen.
Dat het ergens in zit betekend niet meteen dat het gebruikt wordt.
Waarom zou nVidia physx updaten voor AMD(daar doel je neem ik aan op)? Dat is een selling point voor hun. Dat nVidia zo hun gesponsorde games er mooier uit kan laten zien is toch een pro voor hun? Dat het soms niet helemaal netjes gaat zoals in Batman ok, maar toch blijft dit uniek voor nVidia al zien wij als consumenten het graag anders. Per slot van rekening geeft AMD hun eyefinity ook niet aan nVidia dus waarom zou nVidia wel hun Physx met hun delen als nVidia dit zo meer geld op levert?madmaxnl schreef op donderdag 24 maart 2011 @ 22:57:
[...]
CUDA is alleen interresant voor de industrie en PhysX is marketing daar het zo is gemaakt dat het een videokaart dusdanig uit de bus laat komen t.o.v. PhysX door een CPU. PhysX is niks vergeleken bij Havok en andere CPU gebaseerden Physics engines.
Daarbij is PhysX en CUDA ook niet bepaald populair. GPGPU-hype in het algemeen moet nog opgang komen.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Als ik het goed heb (ik kan het niet met 100% zekerheid zeggen wat ik kan het niet zo snel vinden) sinds CUDA en Physx standaarden zijn.
Er zijn steeds meer applicaties, mede in de professionele markt die CUDA gebruiken. Ook applicaties die consumenten gebruiken overigens. Photoshop is een hele grote. Maar ook bijvoorbeeld CoreAVC voor de consumentenmarkt gebruikt CUDA.madmaxnl schreef op donderdag 24 maart 2011 @ 22:57:
CUDA is alleen interresant voor de industrie
Hoe kom je daar bij? Wat ik van GPU-accelerated PhysX heb gezien zag er beter uit dan non-GPU accelerated physics. Heb je een bron voor wat je stelt?en PhysX is marketing daar het zo is gemaakt dat het een videokaart dusdanig uit de bus laat komen t.o.v. PhysX door een CPU. PhysX is niks vergeleken bij Havok en andere CPU gebaseerden Physics engines.
Je vergeet in je auto vergelijking iets met prijs. Niet iedereen heeft 1200+ Euro over voor een 2560x1600 monitor. Dat ga ik nog scherper stellen zelfs: bijna niemand heeft 1200+ Euro over voor een 2560x1600 monitor.Auto-vergelijking dan maar, anders wordt het niet gesnapt.
Het is dus zachtst gezegd bijzonder redelijk om de kaarten ook in een normaal gebruikscenario (dus: 1920x1080) te testen.
Eens. Alleen is het wel opmerkelijk dat de crowd die zoveel commentaar had op luide nV kaarten datzelfde totaal geen probleem lijkt te vinden als het een AMD kaart betreft. Ik ben hier wel sterk geneigd van bias te spreken eerlijk gezegdHelp!!!! schreef op donderdag 24 maart 2011 @ 22:58:
Dat commentaar op sommige nvidia kaarten uit het verleden was echter wel terecht.Die dingen waren gewoon luid.
[ Voor 14% gewijzigd door Cheetah op 24-03-2011 23:14 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Het wordt juist wel gebruikt, als je een nvidia kaart hebt en een game ondersteund physx, dan heb je gauw dat ene hokje aangevinkt.madmaxnl schreef op donderdag 24 maart 2011 @ 23:08:
Dat het ergens in zit betekend niet meteen dat het gebruikt wordt.
Ik had het er over dat PhysX ook op CPUs kan draaien als ze het gewoon doen optimaliseren naar x86, SSE(x) en meerdere cores. Door dit "bewust" niet te doen maken er een selling point van.
Ik had het overigens niet over OpenCL Havok maar de CPU gebaseerde Havok engine die wel overal in terug komt.
Ik had het overigens niet over OpenCL Havok maar de CPU gebaseerde Havok engine die wel overal in terug komt.
Beide kaarten kunnen elk spel met elke instellingen prima spelen op 1920x1080. Dat is wat je dan te zien krijgt over 20 charts. Alles zal boven de 60fps blijven. (Ja, voor 3D schermen is het belangrijk boven de 100/120fps te blijven, maar zo'n setup kost dan weer meer dan 3 normale schermen).Een test op 1920x1080 - met afstand de meest gangbare resolutie op high-end gamemachines - is "tijdverspilling"??
Ik vind de opmerking van Marc over NSurround trouwens wel vreemd. Tijdens de configuratie krijg je gewoon een knop waardoor er met koeienletters op elk scherm een getal wordt weergegeven (1, 2 en 3). Zelfs met 3 compleet lege zwarte schermen kun je heel simpel een NSurround config opzetten.
Nogmaals de Eyefinity SDK is open source dus die kan nVidia ook gebruiken.Xenomorphh schreef op donderdag 24 maart 2011 @ 23:08:
[...]
Waarom zou nVidia physx updaten voor AMD(daar doel je neem ik aan op)? Dat is een selling point voor hun. Dat nVidia zo hun gesponsorde games er mooier uit kan laten zien is toch een pro voor hun? Dat het soms niet helemaal netjes gaat zoals in Batman ok, maar toch blijft dit uniek voor nVidia al zien wij als consumenten het graag anders. Per slot van rekening geeft AMD hun eyefinity ook niet aan nVidia dus waarom zou nVidia wel hun Physx met hun delen als nVidia dit zo meer geld op levert?Het is allemaal marketing idem voor eyefinity. En het is niks vergeleken met Havok? Physx zie ik in games en demo's en dat ziet er toch aardig goed uit, van Havok zie ik helaas alleen een paar modellen met bewegend haar of een jurk. Dus daar kan ik iig niet uit concluderen dat het beter is aangezien Physx wel van de grond gekomen is en dat andere nog niet.
Ten tweede lijkt het me dat Eyefinity voor een belangrijk ook op hardware gestoeld is, dus ik vraag me af dit, gezien de totaal verschillende architecturen van AMD en nVidia, uberhaupt zin zou hebben voor nvidia.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Moeten we nu voor de zoveelste keer opmerken dat uit die hele lijst met PhysX titels er maar een paar zijn die gpu PhysX gebruiken? De rest laat de berekeningen gewoon door de cpu uitvoeren, waardoor er geen voor- of nadeel zit aan het gebruik van een NV videokaart.LOTG schreef op donderdag 24 maart 2011 @ 23:07:
[...]
Physx niet populair? Waar baseer je dat op? De hele lijst games die het ondersteunen? Het feit dat er SDK's zijn voor alle consolles? Support in Unreal Engine 3? Nee die is inderdaad niet populair.
Het is algemeen bekend dat PhysX dusdanig is gecodeerd zodat het voor geen meter op een CPU loopt. Het is namelijk niet zo dat het niet op een CPU zou kunnen maar eerder dat ze het niet op een CPU willen.Cheetah schreef op donderdag 24 maart 2011 @ 23:10:
Hoe kom je daar bij? Wat ik van GPU-accelerated PhysX heb gezien zag er beter uit dan non-GPU accelerated physics. Heb je een bron voor wat je stelt?
De stoom/damp en blaadjes papier die je in Batman AA ziet vliegen is namelijk ook te doen d.m.v. CPU.
http://arstechnica.com/ga...ibrary-to-spite-intel.ars
[ Voor 9% gewijzigd door madmaxnl op 24-03-2011 23:17 ]
Verwijderd
Ik denk dat nvidia juist ook physx op de gpu wil stimuleren, waar ze al aardig lang mee bezig zijn overigens, maar dat het echt van de grond komt kan niet gezegd worden.madmaxnl schreef op donderdag 24 maart 2011 @ 23:11:
Ik had het er over dat PhysX ook op CPUs kan draaien als ze het gewoon doen optimaliseren naar x86, SSE(x) en meerdere cores. Door dit "bewust" niet te doen maken er een selling point van.
Ik had het overigens niet over OpenCL Havok maar de CPU gebaseerde Havok engine die wel overal in terug komt.
Amd aan de andere kant heeft ook cpu's, waardoor zij het voor henzelf makkelijker kunnen maken omdat mensen met een intel cpu het ook kunnen gebruiken, dat trekt natuurlijk meer aan als nvidia-only physx.
En dat ze er een selling point van maken? Tja, amd doet hetzelfde met eyefinity dus ik zie het hele probleem niet.
Als dat zo is waarom word er dan zo over gezeurd dat het slecht is voor AMD gebruikers.Edmin schreef op donderdag 24 maart 2011 @ 23:12:
[...]
Moeten we nu voor de zoveelste keer opmerken dat uit die hele lijst met PhysX titels er maar een paar zijn die gpu PhysX gebruiken? De rest laat de berekeningen gewoon door de cpu uitvoeren, waardoor er geen voor- of nadeel zit aan het gebruik van een NV videokaart.
@Eyefinity SDK
Heb je ook gekeken wat die SDK doet, het is alleen handig voor software developers die graag willen zien wat de videokaart uitspookt op dat gebied.
Er staat nergens iets over de daadwerkelijke software/hardware implementatie (wat wel handig is als je eyefinity wilt implementeren). Dat zit allemaal verstopt in de catalyst driver die je moet installeren.
Eyefinity is net zo open als CUDA en Physx.
Edit:
Mee eens dat het slecht is van NV dat physics kut loopt op een CPU. Het is natuurlijk lastig om de CPU helemaal te ditchen aangezien er dan 2 varianten voor physics moeten worden geimplementeerd en daar geen hond aan begint.
Aan de andere kant gaan ze zich niet zelf de worst van het brood laten eten, en is dit marketing technisch vermoed ik niet op te lossen tenzij ze veel geld willen investeren en zeker zijn van hun zaak dat het ook daadwerkelijk een zak gaat uitmaken.
Dit zal op oude CPU's natuurlijk zeker zo zijn maar als je Core I7 990 50% zit te idelen onder het gamen zal het wat lastiger worden.
[ Voor 25% gewijzigd door LOTG op 24-03-2011 23:21 ]
Eyefinity is geen standaard die wel of niet in een spel zit geïmplementeerd. Daarnaast is de Eyefinity SDK gratis en voor niets c.q. "open".Verwijderd schreef op donderdag 24 maart 2011 @ 23:16:
En dat ze er een selling point van maken? Tja, amd doet hetzelfde met eyefinity dus ik zie het hele probleem niet.
Doordat je een splijting krijgt in de PC game wereld c.q. standaarden oorlog zoals Blu-Ray VS HDDVD.LOTG schreef op donderdag 24 maart 2011 @ 23:17:
Als dat zo is waarom word er dan zo over gezeurd dat het slecht is voor AMD gebruikers.
Want nVidia koopt nu letterlijk PhysX support voor games. Game devs moeten dit implementeren van de uitgevers die het zaakje financieren en geld hebben gekregen van nVidia. Op een gegeven moment kan het dus zo zijn dat bepaalde games niet meer werken als je een AMD kaart heb en dan kan er doordat PhysX de standaarden oorlog wint een monopoly ontstaan. Waardoor AMD gedwongen wordt PhysX toe te gaan passen wat ze veel geld en moeite kost en waardoor ze ook nog eens niet meer met nVidia zullen kunnen concurreren omdat nVidia er dan wel voor zorgt dat hun software beter op hun hardware werkt.
[ Voor 54% gewijzigd door madmaxnl op 24-03-2011 23:22 ]
Gratis != open..madmaxnl schreef op donderdag 24 maart 2011 @ 23:18:
[...]
Eyefinity is geen standaard die wel of niet in een spel zit geïmplementeerd. Daarnaast is de Eyefinity SDK gratis en voor niets c.q. "open".
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dat is zo
Dat gebeurt niet. Er wordt alleen gesteld dat PhysX op deze manier nooit een substantiele bijdrage aan je gameplay kan leveren. Immers, gameplay PhysX zouden een game uitsluitend voor NV kaarten geschikt maken en dus voor een groot deel van de potentiele kopers zinloos. Wat je dus krijgt zijn wat PhysX visuals, wat zich beperkt tot een wapperend capeje en brekend glas.waarom word er dan zo over gezeurd dat het slecht is voor AMD gebruikers.
Als er geen echte standaard komt, zal het nooit een break through worden in games op de pc.
Maar dit bespraken we een paar jaar geleden al
En hier zit het hem nou juist, nVidia wil hierdoor klanten lokken zodat dit meer gebruikt gaat worden, waardoor het dus wel een standaard kan worden. Maar hoe ze het nu aanpakken is het inderdaad niet de goede manier om het goed onder de consumenten te krijgen.Edmin schreef op donderdag 24 maart 2011 @ 23:23:
[...]
Dat is zo
[...]
Dat gebeurt niet. Er wordt alleen gesteld dat PhysX op deze manier nooit een substantiele bijdrage aan je gameplay kan leveren. Immers, gameplay PhysX zouden een game uitsluitend voor NV kaarten geschikt maken en dus voor een groot deel van de potentiele kopers zinloos. Wat je dus krijgt zijn wat PhysX visuals, wat zich beperkt tot een wapperend capeje en brekend glas.
Als er geen echte standaard komt, zal het nooit een break through worden in games op de pc.
Maar dit bespraken we een paar jaar geleden al
Als dit Physx beter bekend staat onder het grote publiek en mensen het ook graag geïmplementeerd zien, zullen dev's het zonder een zak geld van nVidia toepassen. Nu moet die zak helaas er nog aan te pas komen.
[ Voor 10% gewijzigd door Xenomorphh op 24-03-2011 23:28 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
sorry hoor... maar als ik mensen aan het neerschieten ben op crysis2 kijk ik niet eens naar dat wapperende capeje of dat vallende blaadjeEdmin schreef op donderdag 24 maart 2011 @ 23:23:
[...]
Dat is zo
[...]
Dat gebeurt niet. Er wordt alleen gesteld dat PhysX op deze manier nooit een substantiele bijdrage aan je gameplay kan leveren. Immers, gameplay PhysX zouden een game uitsluitend voor NV kaarten geschikt maken en dus voor een groot deel van de potentiele kopers zinloos. Wat je dus krijgt zijn wat PhysX visuals, wat zich beperkt tot een wapperend capeje en brekend glas.
Als er geen echte standaard komt, zal het nooit een break through worden in games op de pc.
Maar dit bespraken we een paar jaar geleden al
@ ed?
ondanks dat physx geen bal uitmaakt, weet ik toch niet of ik nou voor een 6950 moet gaan, of een 560 ti 1ghz, wat zou jij kiezen?
--------
sorry voor mn 2e post
net stond er nog dat xenomorphh na me had gereageerd
ondanks dat physx geen bal uitmaakt, weet ik toch niet of ik nou voor een 6950 moet gaan, of een 560 ti 1ghz, wat zou jij kiezen?
--------
sorry voor mn 2e post
[ Voor 25% gewijzigd door Frozen op 24-03-2011 23:27 ]
Frostbite 2.0 doet anders goed zijn best heb ik het idee. Geen idee welke physics engine die gebruikt, waarschijnlijk een eigen.Edmin schreef op donderdag 24 maart 2011 @ 23:23:
[...]
Dat is zo
[...]
Dat gebeurt niet. Er wordt alleen gesteld dat PhysX op deze manier nooit een substantiele bijdrage aan je gameplay kan leveren. Immers, gameplay PhysX zouden een game uitsluitend voor NV kaarten geschikt maken en dus voor een groot deel van de potentiele kopers zinloos. Wat je dus krijgt zijn wat PhysX visuals, wat zich beperkt tot een wapperend capeje en brekend glas.
Als er geen echte standaard komt, zal het nooit een break through worden in games op de pc.
Maar dit bespraken we een paar jaar geleden al
En zo kom je dus op weer een standaard. Dat is wat ik zeg, iedereen vind de zijne beter en wil het niet gratis weggeven (dat zou ik ook niet doen). Kijk naar HD-DVD/Blu-ray. Niemand geeft een haard breed toe en er word met geld gesmeten. Zo blijft het altijd gaan tot er iemand het bijltje er bij neer gooit.
Het word nog lastiger als het echt in de game engine zit want die wil niemand open maken (niet de echt goeie in iedergeval).
Een standaard welke minder dan de helf van de mensen kan gebruiken?Xenomorphh schreef op donderdag 24 maart 2011 @ 23:25:
[...]
En hier zit het hem nou juist, nVidia wil hierdoor klanten lokken zodat dit meer gebruikt gaat worden, waardoor het dus wel een standaard kan worden.
Beetje verkeerde topic niet echt nieuws dit.Stef602 schreef op donderdag 24 maart 2011 @ 23:26:
@ ed?
ondanks dat physx geen bal uitmaakt, weet ik toch niet of ik nou voor een 6950 moet gaan, of een 560 ti 1ghz, wat zou jij kiezen?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dan krijgen we dit dus:Xenomorphh schreef op donderdag 24 maart 2011 @ 23:25:
[...]
En hier zit het hem nou juist, nVidia wil hierdoor klanten lokken zodat dit meer gebruikt gaat worden, waardoor het dus wel een standaard kan worden. Maar hoe ze het nu aanpakken is het inderdaad niet de goede manier om het goed onder de consumenten te krijgen.
Als dit Physx beter bekend staat onder het grote publiek en mensen het ook graag geïmplementeerd zien, zullen dev's het zonder een zak geld van nVidia toepassen. Nu moet die zak helaas er nog aan te pas komen.
madmaxnl schreef op donderdag 24 maart 2011 @ 23:18:
Doordat je een splijting krijgt in de PC game wereld c.q. standaarden oorlog zoals Blu-Ray VS HDDVD.
Want nVidia koopt nu letterlijk PhysX support voor games. Game devs moeten dit implementeren van de uitgevers die het zaakje financieren en geld hebben gekregen van nVidia. Op een gegeven moment kan het dus zo zijn dat bepaalde games niet meer werken als je een AMD kaart heb en dan kan er doordat PhysX de standaarden oorlog wint een monopoly ontstaan. Waardoor AMD gedwongen wordt PhysX toe te gaan passen wat ze veel geld en moeite kost en waardoor ze ook nog eens niet meer met nVidia zullen kunnen concurreren omdat nVidia er dan wel voor zorgt dat hun software beter op hun hardware werkt.
Ja inderdaad, waardoor mensen dus "verplicht" wel voor nVidia zullen moeten kiezen.-The_Mask- schreef op donderdag 24 maart 2011 @ 23:29:
[...]
Een standaard welke minder dan de helf van de mensen kan gebruiken?
Precies wat madmax bedoelt @ hierboven.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ik vind dual GPU kaarten sowieso niks, van wie dan ook. Een beetje gamer met verstand van zaken zal dan ook altijd voor SLI of CFX gaan.
[ Voor 12% gewijzigd door chim0 op 24-03-2011 23:35 ]
Is dat niet zo'n beetje hoe iedere markt werkt? We hebben ook nog steeds Crossfire en SLI.Xenomorphh schreef op donderdag 24 maart 2011 @ 23:31:
[...]
Ja inderdaad, waardoor mensen dus "verplicht" wel voor nVidia zullen moeten kiezen.
Precies wat madmax bedoelt @ hierboven.
Er zijn zoveel concurenten die bij elkaar licenties moeten afnemen om een product op de markt te kunnen zetten.
Kijk naar android. Google released het altijd het eerste op zijn eigen toestellen. Verkoopt google daar meer telefoons mee dan de concurentie? Ik weet wel bijna zeker van niet.
@Chim0
Dual gpu kaarten zijn toch SLI of Crossfire?
[ Voor 4% gewijzigd door LOTG op 24-03-2011 23:36 ]
Ik snap de discussie over PhysX niet echt. Het kan er toe leiden dat het een succes wordt en dat iedereen voor Nvidia moet kiezen... dat is toch goed nieuws voor Nvidia? Dat is toch wat elk bedrijf wil? 't is niet goed voor de consument, maar ja
Volgens steam (lijkt me een redelijk grote steekproef) hebben bijna twee keer zo veel steamgebruikers een nVidia als AMD kaart. Dus de overgrote meerderheid van de steamgebruikers zal geen last hebben van het niet bezitten van het juiste hardwaremerk om PhysX te draaien
Verwijderd
Wat een slecht voorbeeld: Android is GPL en dus opensource. PhysX is zo closed source als maar kan. Wat ook het probleem is. Was PhysX opensource, dan zou AMD het ook gewoon implementeren. Hell dan kunnen we alleen nog maar beter zien hoe Nvidia mogelijk iets expres kreupel maakt om het gpGPU er beter uit te laten komen.LOTG schreef op donderdag 24 maart 2011 @ 23:35:
[...]
Kijk naar android. Google released het altijd het eerste op zijn eigen toestellen. Verkoopt google daar meer telefoons mee dan de concurentie? Ik weet wel bijna zeker van niet.
Ik weet niet wat jij bent, maar ik ben een consumentMaxily schreef op donderdag 24 maart 2011 @ 23:37:
Ik snap de discussie over PhysX niet echt. Het kan er toe leiden dat het een succes wordt en dat iedereen voor Nvidia moet kiezen... dat is toch goed nieuws voor Nvidia? Dat is toch wat elk bedrijf wil? 't is niet goed voor de consument, maar ja
Steam != gelijk aan alle verkochte GPU's. En of gebruikte GPU's. Je hebt daarbij toch wel de niet gpGPU hardware er afgehaald he....Springstof schreef op donderdag 24 maart 2011 @ 23:38:
Volgens steam (lijkt me een redelijk grote steekproef) hebben bijna twee keer zo veel steamgebruikers een nVidia als AMD kaart. Dus de overgrote meerderheid van de steamgebruikers zal geen last hebben van het niet bezitten van het juiste hardwaremerk om PhysX te draaien![]()
[ Voor 20% gewijzigd door Verwijderd op 24-03-2011 23:40 ]
Dat is ook mijn argument. Maar een groot deel van de wereld vind dat concurenten lief met elkaar moeten spelen en eerlijk alles delen heb ik het idee.Maxily schreef op donderdag 24 maart 2011 @ 23:37:
Ik snap de discussie over PhysX niet echt. Het kan er toe leiden dat het een succes wordt en dat iedereen voor Nvidia moet kiezen... dat is toch goed nieuws voor Nvidia? Dat is toch wat elk bedrijf wil? 't is niet goed voor de consument, maar ja
Concurrenten moeten zonder afspraken te maken zorgen dat ze concurrenten van elkaar blijven.
Dat claim ik dan ook niet. Ik geef aan dat het een grote steekproef is en zet er ook expliciet een aantal keer steam bij, maar dat bericht was sowieso niet al te serieus.Verwijderd schreef op donderdag 24 maart 2011 @ 23:38:
[...]
Steam != gelijk aan alle verkochte GPU's. En of gebruikte GPU's.
Zeker goed nieuws voor nVidia maar nVidia is dan ook de enige, als dev's besluiten PhysX zo te implementeren dat het een erg belangrijk deel van de game wordt waardoor het spel gewoon slecht loopt op AMD kaarten, zijn wij als consument hier de dupe van omdat wij of verplicht worden een nVidia kaart te kopen aka 300 euro spenderen of die game niet normaal kunnen spelen/misschien wel niet kunnen spelen. En dat is natuurlijk niet leuk voor de game wereld. Al zal het nooit zover komen vermoed ik.Maxily schreef op donderdag 24 maart 2011 @ 23:37:
Ik snap de discussie over PhysX niet echt. Het kan er toe leiden dat het een succes wordt en dat iedereen voor Nvidia moet kiezen... dat is toch goed nieuws voor Nvidia? Dat is toch wat elk bedrijf wil? 't is niet goed voor de consument, maar ja
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Mja, is toch anders.LOTG schreef op donderdag 24 maart 2011 @ 23:35:
[...]
@Chim0
Dual gpu kaarten zijn toch SLI of Crossfire?
Ja? En zouden dan wapperende capejes en brekend glas opeens wel cool zijn?Verwijderd schreef op donderdag 24 maart 2011 @ 23:38:
[...]
Was PhysX opensource, dan zou AMD het ook gewoon implementeren.
[ Voor 40% gewijzigd door chim0 op 24-03-2011 23:46 ]
Je weet nooit hoe snel het kan gaan. Als bijvoorbeeld de 7000 serie erg gaat teleurstellen.Xenomorphh schreef op donderdag 24 maart 2011 @ 23:41:
[...]
Zeker goed nieuws voor nVidia maar nVidia is dan ook de enige, als dev's besluiten PhysX zo te implementeren dat het een erg belangrijk deel van de game wordt waardoor het spel gewoon slecht loopt op AMD kaarten, zijn wij als consument hier de dupe van omdat wij of verplicht worden een nVidia kaart te kopen aka 300 euro spenderen of die game niet normaal kunnen spelen/misschien wel niet kunnen spelen. En dat is natuurlijk niet leuk voor de game wereld. Al zal het nooit zover komen vermoed ik.
[ Voor 3% gewijzigd door Springstof op 24-03-2011 23:46 ]
Verwijderd
Alleen als het gratis ischim0 schreef op donderdag 24 maart 2011 @ 23:43:
Ja? En zouden dan wapperende capejes en brekend glas opeens wel cool zijn?
Jaaaaa ja...Verwijderd schreef op donderdag 24 maart 2011 @ 23:45:
[...]
Alleen als het gratis is. Blijf een Nederlander he
.
Point taken. Dan nog zou het ook geoptimaliseerd zeer waarschijnlijk wel duidelijk sneller zijn met een compatible GPU - zeker bij complexere 'stunts' - maar het verschil zou idd niet zo groot zijn als nu het geval.madmaxnl schreef op donderdag 24 maart 2011 @ 23:15:
Het is algemeen bekend dat PhysX dusdanig is gecodeerd zodat het voor geen meter op een CPU loopt. Het is namelijk niet zo dat het niet op een CPU zou kunnen maar eerder dat ze het niet op een CPU willen.
http://arstechnica.com/ga...ibrary-to-spite-intel.ars
Niet meer werken zal niet gaan gebeuren. Dev's zijn niet zo gek om een gigantische userbase links te laten liggen. Games zullen minder goed lopen op een kaart die geen PhysX ondersteund. Precies zoals nu het geval.Want nVidia koopt nu letterlijk PhysX support voor games. Game devs moeten dit implementeren van de uitgevers die het zaakje financieren en geld hebben gekregen van nVidia. Op een gegeven moment kan het dus zo zijn dat bepaalde games niet meer werken als je een AMD kaart [...]
Wat ik me serieus afvraag: waarom is er nog steeds geen ATi tegenhanger hiervan? ATi heeft jarenlang van de toren geblazen over GPU physics, zelfs al in het tijdperk van de X1800XT. Is nooit van de grond gekomen. Hoe kan dat? En waarom stimuleert ATi dev's niet financieel om dergelijks voor hun hardware te devven?
Want ik kan je wel zeggen dat de innovatie en het performancevoordeel dat TWIMTBP - zeker vlak na de release van games voordat ATi's driverteam het 1-2 maanden later weer kan bijbenen - met zich meebrengt voor mij een hele belangrijke overweging is geweest om de afgelopen paar generaties (lees: vanaf de 8800GTX) consequent nV kaarten in mijn systeem te steken. En dat was vroeger wel anders (Radeon 7000, 9000, 9700, X1900 serie), met precies dezelfde redenatie.
PS: en bovenstaand geld trouwens even hard, zo niet nog harder, voor CUDA vs OpenCL.
Toch zijn ook "slechts" (kuch) visuals i.m.o. erg belangrijk, en leveren ze een belangrijke bijdrage aan de game-ervaring.Edmin schreef op donderdag 24 maart 2011 @ 23:23:
Er wordt alleen gesteld dat PhysX op deze manier nooit een substantiele bijdrage aan je gameplay kan leveren. Immers, gameplay PhysX zouden een game uitsluitend voor NV kaarten geschikt maken en dus voor een groot deel van de potentiele kopers zinloos. Wat je dus krijgt zijn wat PhysX visuals, wat zich beperkt tot een wapperend capeje en brekend glas.
Gameplay-GPU-physics hebben daarnaast nog een andere drawback: waar visual physics schaalbaar en/of uit te zetten zijn, zijn echte gameplay physics dat niet. Dev's zouden daarvoor dus moeten uitgaan van een veel hogere baseline performance (systemspecs!) dan ze vermoedelijk zouden willen.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Zeker weten!Verwijderd schreef op donderdag 24 maart 2011 @ 23:47:
[...]
Ja toch, net als gratis bier, dat smaakt veel lekkerder!
of je gaat aan de douwe egberts, en krijgt netzo als doutzen kroes en nvidia een nieuw idee? ''lets make physX opensource''
Je vergeet alleen 1 ding : de frostbite engine werkt net zo goed op Nvidia kaarten als op AMD kaarten, verder kun je dit ook moeilijk vergelijken aangezien het hier gaat om de game aanbieder die een engine aanbied die werkt met alle videokaarten terwijl je in het geval van PhysX zit dat het alleen werkt met Nvidia kaarten en meestal wordt het ook niet vrijwillig gebruikt in games, hiervoor komt Nvidia met een zak geld aan, aangezien de developers van die game heus wel zullen weten dat je net zogoed Havok physics oid. Had kunnen gebruiken waardoor je een grotere potentiele afzetmarkt had gehad.LOTG schreef op donderdag 24 maart 2011 @ 23:29:
[...]
Frostbite 2.0 doet anders goed zijn best heb ik het idee. Geen idee welke physics engine die gebruikt, waarschijnlijk een eigen.
En zo kom je dus op weer een standaard. Dat is wat ik zeg, iedereen vind de zijne beter en wil het niet gratis weggeven (dat zou ik ook niet doen). Kijk naar HD-DVD/Blu-ray. Niemand geeft een haard breed toe en er word met geld gesmeten. Zo blijft het altijd gaan tot er iemand het bijltje er bij neer gooit.
Het word nog lastiger als het echt in de game engine zit want die wil niemand open maken (niet de echt goeie in iedergeval).
Kan ik Doutzen Kroes niet gratis krijgen?Stef602 schreef op donderdag 24 maart 2011 @ 23:52:
[...]
of je gaat aan de douwe egberts, en krijgt netzo als doutzen kroes en nvidia een nieuw idee? ''lets make physX opensource''
Laat ik jullie voor vandaag even achter laten met het bericht dat deze week door een AMD woordvoerder (ofzo) werd medegedeeld waarin hij ons wist te vertellen dat DirectX slecht was en dat spellen veel beter konen presteren op (waarschijnlijk vooral AMD) videokaarten als devs dichter tegen de hardware konden proggen.
Dit zou dan direct uitkomen op alles wat hier als anti physx word aangedragen.
Devs zouden weer als vanouds voor iedere kaart/merk weer een eigen versie van de engine moeten schrijven en de cosument word daar het dupe van want geen hond die zoveel tijd/geld gaat uitgeven aan 2 engines. Spellen worden dan merk exclusief, want je kunt dat niet standaardiseren zonder te veel bedrijfsgeheimen prijs te moeten geven. Doe je dat op de manier waarop dat wel zou kunnen dan ben je terug bij af namelijk een HAL zoals DX.
AMD en Nvidia zullen beide concurenten blijven en er alles aan doen om er voor te zorgen dat jij jou zuurverdiende centjes aan hun doneert (en uiteraard 19% aan de fiscus), en daar is eigenlijk niet zo heel veel mis mee want zo werkt onze economie nu eenmaal.
Dit zou dan direct uitkomen op alles wat hier als anti physx word aangedragen.
Devs zouden weer als vanouds voor iedere kaart/merk weer een eigen versie van de engine moeten schrijven en de cosument word daar het dupe van want geen hond die zoveel tijd/geld gaat uitgeven aan 2 engines. Spellen worden dan merk exclusief, want je kunt dat niet standaardiseren zonder te veel bedrijfsgeheimen prijs te moeten geven. Doe je dat op de manier waarop dat wel zou kunnen dan ben je terug bij af namelijk een HAL zoals DX.
AMD en Nvidia zullen beide concurenten blijven en er alles aan doen om er voor te zorgen dat jij jou zuurverdiende centjes aan hun doneert (en uiteraard 19% aan de fiscus), en daar is eigenlijk niet zo heel veel mis mee want zo werkt onze economie nu eenmaal.
Dat vergeet ik helemaal niet, ik zeg toch ook nergens dat dit eender beter werkt. Ik zeg dat ik niet weet welke engine dat het gebruikt.Redblader schreef op donderdag 24 maart 2011 @ 23:53:
Je vergeet alleen 1 ding : de frostbite engine werkt net zo goed op Nvidia kaarten als op AMD kaarten,
[ Voor 14% gewijzigd door LOTG op 24-03-2011 23:56 ]
ehmm ja... verder snap ik je punt niet echt? wisten we dan nog niet dat AMD en Nvidia elkaar naar het leven staan?LOTG schreef op donderdag 24 maart 2011 @ 23:54:
Laat ik jullie voor vandaag even achter laten met het bericht dat deze week door een AMD woordvoerder (ofzo) werd medegedeeld waarin hij ons wist te vertellen dat DirectX slecht was en dat spellen veel beter konen presteren op (waarschijnlijk vooral AMD) videokaarten als devs dichter tegen de hardware konden proggen.
Dit zou dan direct uitkomen op alles wat hier als anti physx word aangedragen.
Devs zouden weer als vanouds voor iedere kaart/merk weer een eigen versie van de engine moeten schrijven en de cosument word daar het dupe van want geen hond die zoveel tijd/geld gaat uitgeven aan 2 engines. Spellen worden dan merk exclusief, want je kunt dat niet standaardiseren zonder te veel bedrijfsgeheimen prijs te moeten geven. Doe je dat op de manier waarop dat wel zou kunnen dan ben je terug bij af namelijk een HAL zoals DX.
AMD en Nvidia zullen beide concurenten blijven en er alles aan doen om er voor te zorgen dat jij jou zuurverdiende centjes aan hun doneert (en uiteraard 19% aan de fiscus), en daar is eigenlijk niet zo heel veel mis mee want zo werkt onze economie nu eenmaal.
Ik kan me toch herinneren dat er juist in dat bericht stond dat partners van AMD ontevreden waren over directX...LOTG schreef op donderdag 24 maart 2011 @ 23:54:
Laat ik jullie voor vandaag even achter laten met het bericht dat deze week door een AMD woordvoerder (ofzo) werd medegedeeld waarin hij ons wist te vertellen dat DirectX slecht was en dat spellen veel beter konen presteren op (waarschijnlijk vooral AMD) videokaarten als devs dichter tegen de hardware konden proggen.
Dit zou dan direct uitkomen op alles wat hier als anti physx word aangedragen.
Devs zouden weer als vanouds voor iedere kaart/merk weer een eigen versie van de engine moeten schrijven en de cosument word daar het dupe van want geen hond die zoveel tijd/geld gaat uitgeven aan 2 engines. Spellen worden dan merk exclusief, want je kunt dat niet standaardiseren zonder te veel bedrijfsgeheimen prijs te moeten geven. Doe je dat op de manier waarop dat wel zou kunnen dan ben je terug bij af namelijk een HAL zoals DX.
AMD en Nvidia zullen beide concurenten blijven en er alles aan doen om er voor te zorgen dat jij jou zuurverdiende centjes aan hun doneert (en uiteraard 19% aan de fiscus), en daar is eigenlijk niet zo heel veel mis mee want zo werkt onze economie nu eenmaal.
[...]
Dat vergeet ik helemaal niet, ik zeg toch ook nergens dat dit eender beter werkt. Ik zeg dat ik niet weet welke engine dat het gebruikt.
Verwijderd
Niemand ff linken? nieuws: AMD: ontwikkelaars willen van DirectX af
Dat komt omdat ze dan minder overhead hebben....LOTG schreef op donderdag 24 maart 2011 @ 23:54:
Laat ik jullie voor vandaag even achter laten met het bericht dat deze week door een AMD woordvoerder (ofzo) werd medegedeeld waarin hij ons wist te vertellen dat DirectX slecht was en dat spellen veel beter konen presteren op (waarschijnlijk vooral AMD) videokaarten als devs dichter tegen de hardware konden proggen.
[ Voor 60% gewijzigd door Verwijderd op 25-03-2011 00:04 ]
Tja. Dat nV die zak geld naar die gamedevs draagt zorgt ervoor dat de game beter presteert - zij het qua features, framerate of beide - op nV kaarten. En dat zorgt ervoor dat ik nV kaarten koop. Zo werkt het.Redblader schreef op donderdag 24 maart 2011 @ 23:53:
...verder kun je dit ook moeilijk vergelijken aangezien het hier gaat om de game aanbieder die een engine aanbied die werkt met alle videokaarten terwijl je in het geval van PhysX zit dat het alleen werkt met Nvidia kaarten en meestal wordt het ook niet vrijwillig gebruikt in games, hiervoor komt Nvidia met een zak geld aan, aangezien de developers van die game heus wel zullen weten dat je net zogoed Havok physics oid. Had kunnen gebruiken waardoor je een grotere potentiele afzetmarkt had gehad.
Dat zou ATi ook 's moeten doen [ja,ja ik ken GITG, maar dat vervalt bijna in 't niets bij TWIMTBP]...
Dat vond ik inderdaad een vrij vreemde stellingname. Het is vrij eenvoudig: Als spullen moeten werken op hardware van verschillende fabrikanten [Intel / VIA / AMD / nV] zul je altijd afspraken moeten maken over hoe. Die afspraken worden standaarden genoemd. En via die standaarden [middels standaard API calls] wordt vanuit de software de hardware benaderd.LOTG schreef op donderdag 24 maart 2011 @ 23:54:
Laat ik jullie voor vandaag even achter laten met het bericht dat deze week door een AMD woordvoerder (ofzo) werd medegedeeld waarin hij ons wist te vertellen dat DirectX slecht was en dat spellen veel beter konen presteren op (waarschijnlijk vooral AMD) videokaarten als devs dichter tegen de hardware konden proggen.
Dit zou dan direct uitkomen op alles wat hier als anti physx word aangedragen.
Effectief voor graphicshardware op een Windows OS dus in principe: OpenGL en DirectX.
Waar je - als gamedev - absoluut niet op zit te wachten is dat er apart gecode moet gaan worden voor 1.) de verschillende fabrikanten en dan ook nog eens voor 2.) de verschillende hardwaregeneraties per fabrikant. Da's echt een nachtmerrie. Ik kan me prima voorstellen dat de jongens op de coding-vloer likkebaardend zitten te kijken naar wat 'close to metal' per kaart mogelijk zou zijn, maar hun project/budgetmanager zal ze met veel plezier keihard terugfluiten als ze ook zo aan de slag willen
Dit is 1 ding dat consoles altijd zullen voorhebben op PC's.
[ Voor 13% gewijzigd door Cheetah op 25-03-2011 00:26 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ja, net zoals Intel die kwam aanzetten met zakken geld bij Media Markt zodat de computers met Intel er beter werden verkocht.Cheetah schreef op vrijdag 25 maart 2011 @ 00:09:
Tja. Dat nV die zak geld naar die gamedevs draagt zorgt ervoor dat de game beter presteert op nV kaarten, en dat zorgt ervoor dat ik nV kaarten koop. Zo werkt het. Dat zou ATi ook 's moeten doen [ja,ja ik ken GITG, maar dat vervalt bijna in 't niets bij TWIMTBP]...
Zoals je merkt ben ik niet echt te vinden voor zulke omkoopzaakjes. Optimalisaties zijn fijn, maar als een gpu-fabrikant daar zoveel belang aan hecht, dan vind ik dat ze de begeleiding gratis en open moeten aanbieden, zonder dat er iets tegenover staat. Want je ziet tot wat ze al in staat zijn: het bewust fnuiken van de ervaring bij mensen die een GPU van de concurrentie gebruiken. Beeld je eens in wat ze zouden doen moest hun macht groter zijn. Vender lock-in ahoi! Geen respect voor zulke praktijken en zo'n houding jegens je eigen potentiële klanten.
* Intel betaalde MM om minder/geen AMD te verkopen.DevilsProphet schreef op vrijdag 25 maart 2011 @ 00:24:
Ja, net zoals Intel die kwam aanzetten met zakken geld bij Media Markt zodat de computers met Intel er beter werden verkocht.
* nV betaalt en ondersteund dev's om meer/extra's voor hun GPU's te coden.
Dit is een groot en tevens fundamenteel verschil.
Dit is geen omkopen maar zakendoen, of investeren zo je wenst.Zoals je merkt ben ik niet echt te vinden voor zulke omkoopzaakjes.
Het is AMD die ervoor kiest om deze investering in dev's in veel mindere mate te doen. En dat kost ze punten.
Begeleiding van dev's door nV teams is veelal gratis en open. Echter uiteraard staat [indien hier overeenkomsten over worden gesloten] daar wel wat tegenover. nV investeert zowel in de game als in resources voor developpersupport.Optimalisaties zijn fijn, maar als een gpu-fabrikant daar zoveel belang aan hecht, dan vind ik dat ze de begeleiding gratis en open moeten aanbieden, zonder dat er iets tegenover staat.
Voor niets gaat alleen de zon op.. en zelfs dat geldt feitelijk niet meer sinds we milieubelasting moeten betalen
Waar wordt je 'gefnuikt'? Op het punt dat de GPU waar jij voor kiest bepaalde unique features van de GPU van de tegenpartij niet ondersteunt?Want je ziet tot wat ze al in staat zijn: het bewust fnuiken van de ervaring bij mensen die een GPU van de concurrentie gebruiken.
De game draait prima op jouw GPU, alleen beter op de GPU van de tegenpartij in daarvoor geoptimaliseerde games, vanwege bepaalde investeringen die nV wel en AMD niet heeft gedaan. Dat heeft niets met 'fnuiken' te maken.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
De discussie over Batman:AA is al wreed oud, maar om het nog maar eens op te rakelen: ik word gefnuikt als ik een nVidia kaart gebruik als tweede gpgpu-kaart die eventueel de physx zou kunnen verwerken, maar nVidia laat dat niet toe. Ik heb eveneens een cpu met veel cores, maar nVidia laat niet toe dat er meer dan één core wordt gebruikt om phsyx via de cpu te laten berekenen, met een slecht imago voor physx op systemen die een kaart van de concurrent gebruiken. Of is mijn informatie al verouderd en heeft nVidia verbeteringen aangebracht? Ik weet het eigenlijk niet eens. =")Cheetah schreef op vrijdag 25 maart 2011 @ 00:37:
Waar wordt je 'gefnuikt'?
Buiten wat ik hierboven heb aangehaald, heb je inderdaad gelijk, maar ze hebben het toch maar gedaan he.Cheetah schreef op vrijdag 25 maart 2011 @ 00:37:
Op het punt dat de GPU waar jij voor kiest bepaalde unique features van de GPU van de tegenpartij niet ondersteunt?
De game draait prima op jouw GPU, alleen beter op de GPU van de tegenpartij in daarvoor geoptimaliseerde games, vanwege bepaalde investeringen die nV wel en AMD niet heeft gedaan. Dat heeft niets met 'fnuiken' te maken.
Soit, ik ben mij er van bewust dat ik mijzelf te hard kan laten opjagen door bedrijfssmeerlapperijen. Om maar niet te spreken over Telenet, Belgacom, Electrabel en zelfs banken zoals Fortis! En Didier Reynders, den corrupte kwal. Maar ik ben aan het dwalen.
[ Voor 0% gewijzigd door RuddyMysterious op 25-03-2011 00:49 . Reden: yiiikes, de andere taalnazi's mogen me tegen de muur zetten :'( ]
Het is eigenlijk opvallend dat er in de commentaren op de reviews van de GTX590 op zowel anandtech als tom's hw te lezen valt dat mensen het verdacht vinden dat zowel anand als tom's in de conclusie zo positief zijn over de GTX590.
Enkele voorbeelden bij de commentaren op tom's:
Zoals blijkt heb ik inderdaad mijn best gedaan om de negatieve commentaren eruit te pikken, maar het feit dàt ze er zijn wilt toch wel wat zeggen.
Enkele voorbeelden bij de commentaren op tom's:
cburke82 - 03/24/2011 11:29 PM
Ok so here is what i just did. I went through the first 6 games benchmarked here ( didnt cont WoW because all cards did very well there) and only looked at 1080p and up and only looked at the results where full AA setting where used(come on who spends $700 to turn settings down). I took the FPS difference between both the 590 and 6990 for each game a wrote it down. then I came up with the avg difference between the two over all six games. here is what I found.
With full settings and high res:
1080p: The avg shows that at this setting the 590 is -3.8 FPS slower. If you take out F1 with its total AMD bias the avg is -0.94 FPS less that the 6990. So at 1080p with full setting these 2 cards go back and forth with AMD winning just barley when you AVG the results out.
1600p: First of all if you look at 1600p with full AA the 590 does not win any of the first 6 games benchmarked. But here is what I got as far as averages go. at this setting level the 590 was 6.98 FPS slower than the 6990, if you again take out F1 you get 3.68 FPS slower avg across all 6 games. Keeping in mind that at this level and with full settings the 590 was behind in all 6.
So I dont see how toms would say the 590 is the better card at the higher settings and resolutions the 6990 wins hands down. So we know the 590 is not as loud, but strictly looking at the performance of both cards at high settings the 590 would be a close second to the 6990.
If anybody sees any glaring errors in how I came up with this conclusion please point them out. I am not trying to favor one card or the other obviously i would use either one if they were given to me lol. I didnt crunch any numbers one the multi screen benches. If you look though the 6990 wins most of those as well with full settings. Flips on B2BC with a win in no AA and loss with full AA. And loses outright in Just Cause 2.
By the way I used the numbers from the stock 6990 not the one at 880mhz. I felt that was fair being that the 590 was not OC so these numbers would be if you purchased one of both out of the box and installed it with no OC.
mikenygmail - 03/24/2011 5:39 PM
----------------------------------------
Quote :
Nevertheless, in a comparison between GeForce GTX 590 versus Radeon HD 6990, Nvidia wins.
----------------------------------------
Correction: Nevertheless, in a comparison between the noise levels of GeForce GTX 590 versus Radeon HD 6990, Nvidia wins.
In a comparison between the performance of GeForce GTX 590 versus Radeon HD 6990, AMD wins.
In a comparison between the power consumption of GeForce GTX 590 versus Radeon HD 6990, AMD wins.
Let's be fair, shall we?
bernardv - 03/24/2011 4:17 PM
6990 is faster but blah blah ... blah blah Nvidia wins???
Sorry, 6990 is faster and it wins. Performance per Watt and overall speed should be deciding factors. They show whos chips are best.
There will be lots of versions of 6990 with various cooling solutions and different noise levels. Anyway, when you compare two such race horses, noise is not a deciding factor. Non of the top end cards will ever be a rational purchase.
en bij anand:matt_b - 03/24/2011 4:40 PM
"Nevertheless, in a comparison between GeForce GTX 590 versus Radeon HD 6990, Nvidia wins. "
Like others, I too feel this is a biased opinion. Clearly, depending on what criteria you're looking at, one card wins here and the other there - this is a draw!
NVidia bias again...yawn by the_elvino on Thursday, March 24, 2011
Is it so hard to admit that the 6990's performance is better across the board? Multi-monitor setups were left out in order to make NVidia look good.
Remember when the GTX 580 SLI review was published, AT didn't include a 5970 crossfire setup, because they sadly only had one 5970.
Yes, the GTX 590 is less noisy, but then again you can underclock the 6990 to GTX 590 performance levels and it will be quieter too, not really an argument.
The GTX 590 is slower (especially at super high resolutions) and draws more power than the 6990 at the same price, AMD wins! Simple!
(dit lijkt erop te wijzen waarom AMD goed scoort in civ V bij [H] terwijl dat normaal totaal niet het geval is)civ V benchmark by mmsmsy on Thursday, March 24, 2011
I know I can be annoying, but I checked it myself and the built in benchmark in Civ V really favours nVidia cards. In the real world scenario the situation is almost upside down. I got a reply from one of the reviewers last time that it provides quite accurate scores, but I thought that just for the heck of it you'd try and see for yourself that it doesn't at all. I know it's just one game and that benchmarking is a slow work, but in order to keep up the good work you're doing you should at least use the advice and confront it with the reality to stay objective and provide the most accurate scores that really mean sth. I don't mean to undermine you, because I find your articles to be mostly accurate and you're doing a great job. Just use the advice to make this site even better. A lot of writing for a comment, but this time maybe you will see what I'm trying to do.
Zoals blijkt heb ik inderdaad mijn best gedaan om de negatieve commentaren eruit te pikken, maar het feit dàt ze er zijn wilt toch wel wat zeggen.
Verwijderd
Denk dat je het beter bij hardware kan houden, want hoevaak denk je dat een Bugatti/Ferrari/Lambo rijder daadwerkelijk op een circuit rijdt t.o.v. de boulevard van laat zeggen Monaco...madmaxnl schreef op donderdag 24 maart 2011 @ 22:57:
Auto-vergelijking dan maar, anders wordt het niet gesnapt.
Met een Bugatti-Veyron of andere peperdure super auto ga je toch ook niet op de normalen weg rijden... Daarmee ga je naar Zandvoort. Jij stelt vervolgens dat het belachelijk is om een dergelijke auto alleen op Zandvoort te testen omdat het gros van de auto liefhebbers met hun "snelle bakkie" op de autobaan(GER) rijden.
Ik snap je punt wel, maar je voorbeeld is niet al te best...
Daarbij moet ik wel stellen dat ik denk dat zeker 50% van de mensen die deze kaarten kopen (590/6990) het gewoon zullen gebruiken op 1920x1080 en dan vind ik de reso toch wel van wezelijk belang in een review. Simpelweg stellen dat ie daarvoor niet bedoeld is en het zodoende als irrelevant beschouwen lijkt me niet de juiste benadering.
Ga je nu werkelijk post's van andere sites halen om hier een punt te maken? Waar is dat voor nodig? En wat wil het zeggen? Dat er verschillende meningen zijn is toch vrij logisch?DevilsProphet schreef op vrijdag 25 maart 2011 @ 01:15:
(dit lijkt erop te wijzen waarom AMD goed scoort in civ V bij [H] terwijl dat normaal totaal niet het geval is)
Zoals blijkt heb ik inderdaad mijn best gedaan om de negatieve commentaren eruit te pikken, maar het feit dàt ze er zijn wilt toch wel wat zeggen.
[ Voor 19% gewijzigd door Verwijderd op 25-03-2011 01:35 ]
Allez jom, ik gebruik mijn HD4770 om op 1920x1200 te spelen. Als ik het bij de resolutie moet houden, dan zou ik heus geen overkill kopen zoals een dual-gpu kaart of een dual-gpu opstelling om 8xSSAA te kunnen draaien ipv 2x of geen. Dat is mij de gigantische meerprijs niet waard, en volgens mij veel (meer dan de 50% die jij aanhaalt) anderen evenmin.Verwijderd schreef op vrijdag 25 maart 2011 @ 01:30:
Daarbij moet ik wel stellen dat ik denk dat zeker 50% van de mensen die deze kaarten kopen (590/6990) het gewoon zullen gebruiken op 1920x1080 en dan vind ik de reso toch wel van wezelijk belang in een review. Simpelweg stellen dat ie daarvoor niet bedoeld is en het zodoende als irrelevant beschouwen lijkt me niet de juiste benadering.
Als wat blijkt uit die stelling waar is, namelijk dat de ingame prestaties van een AMD gpu in CIV5 minder hard verschillen van die van nVidia dan de bench prestaties, dan is dat toch een heikel punt imo.Verwijderd schreef op vrijdag 25 maart 2011 @ 01:30:
Ga je nu werkelijk post's van andere sites halen om hier een punt te maken? Waar is dat voor nodig? En wat wil het zeggen? Dat er verschillende meningen zijn is toch vrij logisch?
[ Voor 23% gewijzigd door RuddyMysterious op 25-03-2011 01:38 ]
Tja. Mensen lopen te miepen over:DevilsProphet schreef op vrijdag 25 maart 2011 @ 01:15:
Het is eigenlijk opvallend dat er in de commentaren op de reviews van de GTX590 op zowel anandtech als tom's hw te lezen valt dat mensen het verdacht vinden dat zowel anand als tom's in de conclusie zo positief zijn over de GTX590.
Enkele voorbeelden bij de commentaren op tom's:
Zoals blijkt heb ik inderdaad mijn best gedaan om de negatieve commentaren eruit te pikken, maar het feit dàt ze er zijn wilt toch wel wat zeggen.
1.) ~1-5% performanceverschil in het voordeel van de Radeon. En dat alleen op specifieke resoluties/settings. Dat valt bijna binnen de test-error marge, en is geen verschil waarop je een rationele aankoop baseert. Neem je het verschil op de 'magische' grens van 30fps, dan maakt die 1-5% precies 0,3-1,5 fps uit. Nou whooptiedoo. Dat gaat precies nul-komma-niks verschil maken in je game-ervaring.
2.) powerdraw: ontloopt elkaar gewoon veels te weinig om daar een aankoop op te baseren
Prijsverschil bedraagt in de US precies $10 (volgens mij in het voordeel van nV ook nog trouwens).
Geen drol dus op een uitgave van $700.
Met dit soort marginale verschillen bepalen m.i. (en dus ook volgens diverse reviewers) andere zaken wat de beste kaart is. Zoals bijvoorbeeld of de kaart wel of niet als een overvliegende straaljager klinkt. Veel mensen vinden dat nog steeds belangrijk.
Uiteraard kun je richting aftermarketkoeling denken om de 6990 stil te krijgen, maar dat kost voor deze dual-gpu kaarten [lees: de Radeon 6990, want niet nodig voor de GTX590] een klein kapitaal.
M.i. geven de sites het prima aan: Performance is over the board feitelijk gelijk. Maar als zij moeten kiezen tussen de 2 kaarten dan kiezen ze voor de GTX590. Vandaar dat de GTX590 'wint'.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Zou voor mij ook absoluut de meerprijs niet waard zijn, maar nog denk ik dat er redelijk wat mensen zijn die dit soort kaarten echt op 1920x1080 zullen gebruiken al heb ik daar natuurlijk geen bronnen bij... Ik zeg ook niet dat 1920x1080 de belangrijkste reso is, maar ik vind dat het nog steeds wel een toegevoegde waarde geeft, ook bij dit soort kaarten.DevilsProphet schreef op vrijdag 25 maart 2011 @ 01:36:
[...]
Allez jom, ik gebruik mijn HD4770 om op 1920x1200 te spelen. Als ik het bij de resolutie moet houden, dan zou ik heus geen overkill kopen zoals een dual-gpu kaart of een dual-gpu opstelling om 8xSSAA te kunnen draaien ipv 2x of geen. Dat is mij de gigantische meerprijs niet waard, en volgens mij veel (meer dan de 50% die jij aanhaalt) anderen evenmin.
Je hebt het nu over alleen de laatste post, wat moeten we met al die meningen erboven?[...]
Als wat blijkt uit die stelling waar is, namelijk dat de ingame prestaties van een AMD gpu in CIV5 minder hard verschillen van die van nVidia dan de bench prestaties, dan is dat toch een heikel punt imo.
(Laat trouwens duidelijk zijn dat ik de HD6990 ook nipt als overall winnaar zie, al verscheelt het zeer per review en bij een review site die ik altijd vrij serieus neem, namelijk Computerbase.de gooien ze het op een gelijk spel, waar ik me ook wel in kan vinden.)
[ Voor 10% gewijzigd door Verwijderd op 25-03-2011 01:48 ]
Ah, die zijn puur ter illustratie.Verwijderd schreef op vrijdag 25 maart 2011 @ 01:45:
Je hebt het nu over alleen de laatste post, wat moeten we al die meningen erboven?
Nu iets anders, thermal imaging:
HD6990
GTX590
Hete brok!
Eens. Ik durf zelfs met stellige zekerheid te zeggen dat 1920x1080 in deze klasse de belangrijkste reso is.Verwijderd schreef op vrijdag 25 maart 2011 @ 01:45:
Zou voor mij ook absoluut de meerprijs niet waard zijn, maar nog denk ik dat er redelijk wat mensen zijn die dit soort kaarten echt op 1920x1080 zullen gebruiken al heb ik daar natuurlijk geen bronnen bij... Ik zeg ook niet dat 1920x1080 de belangrijkste reso is, maar ik vind dat het nog steeds wel een toegevoegde waarde geeft, ook bij dit soort kaarten.
Hoeveel mensen ken jij met een 2560x1600 monitor (30")? Of met een budget/uitgavebereidheid van 1200+ Euro voor zo'n monitor. En herhaal diezelfde vragen dan voor diehard gamers. In mijn geval is het antwoord op beide vragen voor beide categorieen mensen exact: 0. En ik ken er nogal wat van verschillend pluimage en verschillende budgetten.
Dit soort ultra-high-res monitors wordt voornamelijk professioneel gebruikt, niet om op te gamen.
Kijken we naar stereoscopisch 3D (nog een mooie doelgroep van deze kaarten) dan zullen verreweg de meeste users 3D TV's gebruiken, en een kleinere groep 3D monitors. Ook met een 1920x1080 reso.
Ik durf zelfs te wedden dat er (aanmerkelijk) meer mensen zijn die met deze kaarten op 1680x1050 draaien (alles maxed out), dan mensen die 2560x1600 hiermee draaien.
Een test exclusief op 2560x1600 gaat m.i dus voorbij aan de belangrijkste gebruikscenario's van misschien wel 90% van de doelgroep, als het niet meer is...
[ Voor 41% gewijzigd door Cheetah op 25-03-2011 02:13 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Is toch nergens voor nodig in een Nvidia topic, das gewoon 'vervuiling'. Men gaat in het AMD topic toch ook niet alle post's quoten van mensen die wel positief zijn over de GTX590? Zou ook nergens op slaan...
Heet worden ze idd en die backplates doen hun werk goed bij de GTX590... pffff!
Verwijderd
Zo wil ik het niet stellen, maar ik wil puur aangeven dat het geheel weglaten van 1920x1080 wat te kort door de bocht is door te stellen dat de fps anders toch hoog genoeg zouden zijn... En in combinatie met het feit dat het echt wel gebruikt wordt zou ik het wel erbij willen zien.Cheetah schreef op vrijdag 25 maart 2011 @ 01:52:
[...]
Ik durf met stellige zekerheid te stellen dat 1920x1080 de belangrijkste reso is.
Hoeveel mensen ken jij met een 2560x1600 monitor? Of met een budget van 1200+ Euro voor zo'n monitor.
Maar nu ga ik slapen!
Point taken. Maar om toch even DevilsAdvocate te spelen (DevilsProphet schreef op vrijdag 25 maart 2011 @ 00:46:
De discussie over Batman:AA is al wreed oud, maar om het nog maar eens op te rakelen: ik word gefnuikt als ik een nVidia kaart gebruik als tweede gpgpu-kaart die eventueel de physx zou kunnen verwerken, maar nVidia laat dat niet toe. Ik heb eveneens een cpu met veel cores, maar nVidia laat niet toe dat er meer dan één core wordt gebruikt om phsyx via de cpu te laten berekenen, met een slecht imago voor physx op systemen die een kaart van de concurrent gebruiken. Of is mijn informatie al verouderd en heeft nVidia verbeteringen aangebracht? Ik weet het eigenlijk niet eens. =")
Geen resources steken in het optimaliseren voor multi-core CPU's (en enkel in het optimaliseren voor GPU) is nog steeds geen 'fnuiken'. Ze maken niets stuk immers. Zouden ze bestaande optimalisaties voor multicore cpu's weghalen: soit. Maar dat is hier niet gebeurd
PS: dat nV geen mix-and-match GPU's toestaat vind ik inderdaad ook onzin btw.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Hoeveel mensen ken jij die 600+ euro uitgeven voor 1 videokaart? Die doelgroep is net zozeer klein als de doelgroep voor hoge resolutie schermen. Maar om even een domper op je stelligheid te gooien, kun je in de pricewatch al 2560x1440 schermen vinden vanaf 600 euro (666 euro voor een Dell). Dat is dan gelijk al een heel ander verhaal dan die 1200 euro waarmee je loopt te schermen. Bovendien kun je voor eenzelfde ~600-700 euro ook een leuke 3-scherm opstelling aanschaffen, waarmee je een nog hogere resolutie krijgt. Hogere resoluties voor kaarten als deze dual-GPU kaarten zijn dus wel de logische keuze voor testen.Cheetah schreef op vrijdag 25 maart 2011 @ 01:52:
[...]
Eens. Ik durf zelfs met stellige zekerheid te zeggen dat 1920x1080 in deze klasse de belangrijkste reso is.
Hoeveel mensen ken jij met een 2560x1600 monitor (30")? Of met een budget/uitgavebereidheid van 1200+ Euro voor zo'n monitor. En herhaal diezelfde vragen dan voor diehard gamers. In mijn geval is het antwoord op beide vragen voor beide categorieen mensen exact: 0. En ik ken er nogal wat van verschillend pluimage en verschillende budgetten.
Dit soort ultra-high-res monitors wordt voornamelijk professioneel gebruikt, niet om op te gamen.
Ja, 3D televisies en monitors, die hebben een groot marktaandeel...Kijken we naar stereoscopisch 3D (nog een mooie doelgroep van deze kaarten) dan zullen verreweg de meeste users 3D TV's gebruiken, en een kleinere groep 3D monitors. Ook met een 1920x1080 reso.
Ik durf zelfs te wedden dat er (aanmerkelijk) meer mensen zijn die met deze kaarten op 1680x1050 draaien (alles maxed out), dan mensen die 2560x1600 hiermee draaien.
Een test exclusief op 2560x1600 gaat m.i dus voorbij aan de belangrijkste gebruikscenario's van misschien wel 90% van de doelgroep, als het niet meer is...
Hoe dan ook, mensen die met een GTX590/HD6990 op 1680x1050 gaan gamen, hoe hoog de instelling ook gezet wordt, zullen echt geen verschil gaan merken tussen de twee kaarten. Temeer omdat de kans heel erg groot is dat beide kaarten zitten te wachten op de CPU.
Voor de rest zou het leuk zijn om geclaimde percentages te staven met wat linkjes. Het is veel te gemakkelijk om te claimen dat 90%+ van de HD6990/GTX590 gebruikers nog steeds op 1680x1050 of lager gamed.
Wie beweert dat dan? Hij had het over lager dan 2560x1600 en 1680x1050 is niet het enige dat lager is.dahakon schreef op vrijdag 25 maart 2011 @ 06:11:
Voor de rest zou het leuk zijn om geclaimde percentages te staven met wat linkjes. Het is veel te gemakkelijk om te claimen dat 90%+ van de HD6990/GTX590 gebruikers nog steeds op 1680x1050 of lager gamed.
Ik heb trouwens ook nog geen getallen gezien van de gamers op 2560x1600 of hoger. Wordt volgens mij gewoon langs elkaar geen gepraat.
[ Voor 13% gewijzigd door Springstof op 25-03-2011 07:03 ]
Voor het prijs verschil kun je denk ik wel een goede koeler kopen en die er op monteren?Verwijderd schreef op donderdag 24 maart 2011 @ 22:40:
Ideaal zou zijn een HD6990 met de koeler van de GTX590...
Maar moet zeggen dat ik echt onder de indruk ben van de koeler die NVIDIA er op heeft geplaatst om zo de geluidsproductie enorm terug te brengen.
En beiden kaarten zijn verder gewoon goed, aan 1 kant kun je zeggen ja het is wellicht niet wat we er van hadden verwacht gezien de extra tijd die NVIDIA had, aan andere kant kan je ook denken ja het is knap met de complexiteit van de chip(s) om dit voor elkaar te krijgen.
40NM zit echt aan zijn max nu, op naar 28NM.
Editje:
Het hele lange(pagina's vol) discussie over de resoluties, voor alles valt wel wat te zeggen.
Zelf wilde ik deze kaarten graag op hogere resoluties zien al weet ik ook dat het gros van de mensen op 1920*1080( en lager) gamed, dat is lijkt me toch gewoon iets wat iedereen met elkaar eens is?
Zo ver ik weet is er geen feitelijk bewijs op welke resolutie mensen met een 6990/GTX 590 gamen of gaan gamen, we kunnen alleen maar gokken?
En is het niet zo als je bv op 1920*1080 gamed en gebruik maakt van 3d dat ook deze kaart als je alles maxed het zwaar gaat krijgen? dat vind ik interessant om te zien.
Maar uiteindelijk kan een site/review het nooit voor iedereen goed doen want we weten het allemaal wel beter
Wellicht is het een keer tijd voor een poll op de fp met de vraag op welke resolutie men gamed? krijgen we toch een beetje een beeld.
[ Voor 109% gewijzigd door pino85 op 25-03-2011 08:17 ]
Liefhebber van Tweakers
Come on, lets be reasonable here.dahakon schreef op vrijdag 25 maart 2011 @ 06:11:
Hoeveel mensen ken jij die 600+ euro uitgeven voor 1 videokaart? Die doelgroep is net zozeer klein als de doelgroep voor hoge resolutie schermen. Maar om even een domper op je stelligheid te gooien, kun je in de pricewatch al 2560x1440 schermen vinden vanaf 600 euro (666 euro voor een Dell). Dat is dan gelijk al een heel ander verhaal dan die 1200 euro waarmee je loopt te schermen.
2560x1600: http://tweakers.net/price...sLCoHhtN4aXN38Xs4mB5rrfUD
1 enkel scherm van 1034 (LG), de rest zit boven de 1200.
2560x1440: http://tweakers.net/price...FQO9Ofh2ubuYjsczdhjrbV-AQ
5 hele schermen in totaal. 1 fujitsu van 605 (die praktisch niemand zal hebben). 1 dell van 666. En vervolgens via 979 naar 1200+.
Dat je alleen met die Fujitsu en die Dell van 666,- aankomt op een alternatieve resolutie betekent dat je dit ook al bekeken hebt. Waarom kom je er dan mee? Het schept m.i. bewust een verkeerd beeld. Verreweg de meeste mensen die deze kaarten kopen draaien niet met 1 van deze schermen, maar met schermen die op een lagere resolutie draaien. En dat weet jij ook wel.
En dat is nog afgezien van dat velen die dit soort kaarten kopen die-hard gamers zijn die alle moderne games altijd vloeiend op 60+ fps op hoge IQ settings willen draaien. Dan koop je dus om te beginnen juist geen 2560x1600 scherm.
Ook dat rechtvaardigt een test exclusief op 2560x1600 niet, want dit is een andere situatie die apart getest moet worden (wat gelukkig deels dan nog wel gebeurd).Bovendien kun je voor eenzelfde ~600-700 euro ook een leuke 3-scherm opstelling aanschaffen, waarmee je een nog hogere resolutie krijgt. Hogere resoluties voor kaarten als deze dual-GPU kaarten zijn dus wel de logische keuze voor testen.
Nog afgezien van dat de games dit moeten ondersteunen, en de hiervoor gebruikte monitors (in ieder geval voor de games die het niet ondersteunen) - wederom - een lagere resolutie zullen hebben (aka: 1920x1080 of 1680x1050).
Nee dat niet. Maar wat ik daar stelde is dat zelfs de mensen die daarvoor gaan gebonden zijn aan een 1920x1080 (of 1680x1050) scherm.Ja, 3D televisies en monitors, die hebben een groot marktaandeel...
Zo ongeveer iedereen die dus in meer of mindere mate gebruik wil gaan maken van multi-display (surroundview/eyefinity) of 3D features zit dus ook met een 1920x1080 (of zelfs 1680x1050) display, en dan in ieder geval voor de games die dat niet ondersteunen. Dat was het punt.
Waar heb ik beweert dat 90%+ gamed op 1680x1050 of lager? Ik heb beweerd dat 90%+ van de gebruikers (van dit soort kaarten) gamed op een resolutie lager dan 2560x1600 (dus veelal: 1920x1080 of 1680x1050). En dat is simple common sense. Tenzij je wilt beweren dat bijna iedereen die deze kaarten koopt er meteen die ene enkele Dell van 666,- bij besteld natuurlijk.Voor de rest zou het leuk zijn om geclaimde percentages te staven met wat linkjes. Het is veel te gemakkelijk om te claimen dat 90%+ van de HD6990/GTX590 gebruikers nog steeds op 1680x1050 of lager gamed.
[ Voor 4% gewijzigd door Cheetah op 25-03-2011 09:45 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Verwijderd
Ik krijg zo'n idee dat bepaalde pro AMD sites met e tessellation slide en textures hebben zitten auwehoeren.
Er zijn namelijk een paar site's waar nvidia ook wint op 2500 resuluties in dx 11 games. Maar amd komt daar wel meer trug. Ik blijf tot de conclussie dat de gtx590 toch iets sneller is. Verder werkt de gtx590 driver lekker op een sli setupje.
Verder moet ik er bij vermelden dat de textures high performance helaas geen effect heeft op de fps van nvidia kaarten. Ik wil dat ook nog wel even laten zien als het moet?
Kijk eens naar alle 2500 resoluties. Nvidia nog steeds in het voordeel......
http://www.techspot.com/r...eforce-gtx-590/page4.html
En hier is het om en om. Op lage resoluties nvidia in het voordeel.
Conclussie nvidia heeft toch wel de snelste kaart.
http://www.guru3d.com/article/geforce-gtx-590-review/18
Mensen moeten gewoon een keer acepteren dat nvidia ook een keer heeft gewonnen
als het gaat om wie heeft de snelste kaart. Daar is toch helemaal niets mis mee? En het zijn
verder maar videokaarten dus waar maken wij ons eingelijk zo druk om?
Er zijn namelijk een paar site's waar nvidia ook wint op 2500 resuluties in dx 11 games. Maar amd komt daar wel meer trug. Ik blijf tot de conclussie dat de gtx590 toch iets sneller is. Verder werkt de gtx590 driver lekker op een sli setupje.
Verder moet ik er bij vermelden dat de textures high performance helaas geen effect heeft op de fps van nvidia kaarten. Ik wil dat ook nog wel even laten zien als het moet?
Kijk eens naar alle 2500 resoluties. Nvidia nog steeds in het voordeel......
http://www.techspot.com/r...eforce-gtx-590/page4.html
En hier is het om en om. Op lage resoluties nvidia in het voordeel.
Conclussie nvidia heeft toch wel de snelste kaart.
http://www.guru3d.com/article/geforce-gtx-590-review/18
Mensen moeten gewoon een keer acepteren dat nvidia ook een keer heeft gewonnen
als het gaat om wie heeft de snelste kaart. Daar is toch helemaal niets mis mee? En het zijn
verder maar videokaarten dus waar maken wij ons eingelijk zo druk om?
[ Voor 23% gewijzigd door Verwijderd op 25-03-2011 09:31 ]
Bron? Of is het meer nattevingerwerk?Ik heb beweerd dat 90%+ van de gebruikers (van dit soort kaarten) gamed op een resolutie lager dan 2560x1600
Maar waar gaat zo'n review over? Daar worden toch de limits van deze kaarten opgezocht? Je test niet op oudere spellen omdat die kaarten dat makkelijk aan kunnen. Waarom zou je dan wel testen op oude resoluties, die deze kaarten makkelijk aan kunnen? (oud != niet veel gebruikt, geld voor zowel resoluties als games)
En ik vind het wat te simpel gedacht dat mensen die zo'n dure kaart kopen dan opeens geen geld hebben voor andere zaken als een paar monitors. Als mensen alle spellen op het hoogst op 1920x1080 willen spelen kunnen ze met de ~helft van het geld voor een 590 / 6970 een kaart kopen die ook goed genoeg is. Er zitten misschien wat mensen bij die echt een 590 gebruiken voor gamen op 1920x1080 maar dat lijkt mij echt de uitzondering.
[ Voor 4% gewijzigd door Max Hunt op 25-03-2011 10:24 ]
Ik denk dat dat je smerig tegen zal vallen...Maxily schreef op vrijdag 25 maart 2011 @ 10:23:
Er zitten misschien wat mensen bij die echt een 590 gebruiken voor gamen op 1920x1080 maar dat lijkt mij echt de uitzondering.
Er wordt nu ineens gedaan alsof 1920x1080 of 1920x1200 achterhaald is. Of dat dat een lage resolutie is. WTF?!

Terwijl het eigenlijk zo is dat 2560x1600 op een 30" of hoger (multi monitor) uitzonderingsgevallen zijn.
Dus feit blijft dat het interessant is om reviews te zien waarin ze op 1920x1x00 testen.
[ Voor 36% gewijzigd door Format-C op 25-03-2011 10:34 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Oke, ik begrijp je argumenten en het is zeker waar dat de GTX590 en de HD6990 heel dicht tegen elkaar aan liggen.Verwijderd schreef op vrijdag 25 maart 2011 @ 09:24:
Ik krijg zo'n idee dat bepaalde pro AMD sites met e tessellation slide en textures hebben zitten auwehoeren.
Er zijn namelijk een paar site's waar nvidia ook wint op 2500 resuluties in dx 11 games. Maar amd komt daar wel meer trug. Ik blijf tot de conclussie dat de gtx590 toch iets sneller is. Verder werkt de gtx590 driver lekker op een sli setupje.
Verder moet ik er bij vermelden dat de textures high performance helaas geen effect heeft op de fps van nvidia kaarten. Ik wil dat ook nog wel even laten zien als het moet?
Kijk eens naar alle 2500 resoluties. Nvidia nog steeds in het voordeel......
http://www.techspot.com/r...eforce-gtx-590/page4.html
En hier is het om en om. Op lage resoluties nvidia in het voordeel.
Conclussie nvidia heeft toch wel de snelste kaart.
http://www.guru3d.com/article/geforce-gtx-590-review/18
Mensen moeten gewoon een keer acepteren dat nvidia ook een keer heeft gewonnen
als het gaat om wie heeft de snelste kaart. Daar is toch helemaal niets mis mee? En het zijn
verder maar videokaarten dus waar maken wij ons eingelijk zo druk om?
Maar om nu te zeggen de een is sneller dan de ander gaat mij wat ver, zeker omdat je bij je beargumentatie Dirt2 en BFBC2 erbij haalt, wat gewoon twee benches zijn die echt een stukje beter draaien op nvidia kaarten, met andere woorden niet echt neutrale benches om erbij te betrekken.
Als ik kijk naar de conclusie van HWI:
Hier spreekt men over een nipte winst voor de GTX590.Is de GeForce GTX 590 de snelste videokaart ter wereld? Ja, als we al onze benchmarks middellen is de kaart sneller dan de Radeon HD 6990. Echter, het verschil is niet bijster groot. Beide kaarten zijn duidelijk aan elkaar gewaagd.
Dan kijk ik naar de conclusie van Tweakers:
Hier is de HD6990 toch echt wat meer de winnende kaart.Nvidia en AMD hebben allebei een monsterlijke videokaart op de markt gezet, maar het lijkt erop dat AMD de prestatiekroon in handen houdt. In sommige benchmarks zijn de videokaarten even snel, maar de HD 6990 wint vaker en overtuigender dan de GTX 590. Alleen in Bad Company 2 en in de Far Cry 2-benchmark op 5760x1080 is de GTX 590 duidelijk sneller. In Metro 2033 produceert de GTX 590 nog wel hogere minima, maar is de gemiddelde framerate van de HD 6990 iets hoger.
Kijken we naar het verschil in reviews dan is deze quote van de tweakers review van belang:
Waar HWI echt maar met een maximale resolutie van 1920x1080 test...Omdat zowel de HD 6990 als de GTX 590 krankzinnig heftige videokaarten zijn, pasten we onze testmethode iets aan. Zo werd er voornamelijk op 2560x1600 beeldpunten getest, omdat 1920x1200 voor deze videokaarten amper een uitdaging is. Bovendien werden vier spellen getest op de 5760x1080, een resolutie die mogelijk is gemaakt met AMD's Eyefinity- en Nvidia's Surround-technieken. Ook voegden we het spel Metro 2033 toe aan onze benchmarksuite.
Guru3d (die je zelf in je vorige post aanhaalt) zegt:
Techspot (die je er ook bij betrek in je vorige post) zegt:Wrapping up, you know I'm still a little flabbergasted as to why NVIDIA clocked the card as low as they did. Likely they are ying-yang with the fact that this card performance roughly equal slash close to R6990
Anandtech zegt het volgende:It's impossible to conclude the GeForce GTX 590 is faster than the Radeon HD 6990 as it really depends on the game, and that's precisely why we test with fourteen titles now. Based on our findings, the GTX 590 was just 1% faster than the HD 6990 on average. The GTX 590's only big win was in Far Cry 2 and some argue that the game isn't a worthy test candidate given the large influence Nvidia had on its development.
If we removed Far Cry 2 from the results, we would actually have the GTX 590 to be 2% slower than the Radeon HD 6990. It's also interesting to note that a vast majority of the GTX 590's losses were in DX11 titles: S.T.A.L.K.E.R.: Call of Pripyat (-15%), Metro 2033 (-20%), Battlefield Bad Company 2 (-9%), and Aliens vs. Predator (-10%).
Besides its 46.3% lead in Far Cry 2, the single GPU GTX 580 was also 22.5% faster than the HD 6990. The rest of the games, including Mass Effect 2, Call of Duty: Black Ops, F1 2010, Splinter Cell Conviction and World in Conflict all favored the GeForce GTX 590 by a margin of just 6% or less. Therefore, we think both dual-GPU cards are evenly matched and considering the GTX 590's $699 MSRP, Nvidia seems to think so, too.
Toms Hardware verteld:The crux of the matter is that NVIDIA and AMD have significantly different architectures, and once again this has resulted in cards that are quite equal on average but are all over the place in individual games and applications. If we just look at the mean performance lead/loss for all games at 2560, the GTX 590 is within 1% of the 6990; however, within those games there’s a great deal of variance. The GTX 590 does extremely well in Civilization V as we’d expect, along with DIRT 2, Mass Effect 2, and HAWX. Meanwhile in Crysis, BattleForge, and especially STALKER the GTX 590 comes up very short. Thus choosing the most appropriate card is heavily reliant what games are going to be played on it, and as a result there is no one card that can be crowned king.
Of the games NVIDIA does well in, only Civ5 is a game we’d classify as highly demanding; the rest are games where the GTX 590 is winning, but it’s also getting 100+ frames per second. Meanwhile on the games AMD does well at the average framerate is much lower, and all of the games are what we’d consider demanding. Past performance does not perfectly predict future performance, but there’s a good chance the 6990 is going to have a similar lead on future, similarly intensive games (at least as long as extreme tessellation isn’t a factor). So if you had to choose a card based on planning for future use as opposed to current games, the 6990 is probably the better choice from a performance perspective. Otherwise if you’re choosing based off of games you’d play today, you need to look at the individual games.
Nu heb ik er 6 reviews bijbetrokken, en alleen HWI vertelt dat de GTX590 sneller is op 1920x1080, de rest vind het een gelijkspel. (sommige hebben er wat interessante comments bij en tweakers en tom vinden zelfs de HD6990 sneller)Earlier this month, AMD established the Radeon HD 6990 as the fastest card on the planet, unseating its own Radeon HD 5970, the previous title-holder. Today, Nvidia challenges that crown, but ultimately fails to win consistently enough to unseat AMD’s flagship board in a meaningful way.
Dus zeggen dat de kaarten gelijk presteren kan ik me in vinden, maar vertellen dat iedereen maar eens moet inzien dat de GTX590 sneller is... Na dan moet je met betere argumenten komen.
Als je hier bewijs voor hebt wil ik dat graag zien.
Ik zag ook in de screenshot (een paar pagina's terug) van steam over de gebruikte resoluties. Daar bleek dat een groot deel van de steamgebruikers nog gamed op 1280x1024.
Ik zag ook in de screenshot (een paar pagina's terug) van steam over de gebruikte resoluties. Daar bleek dat een groot deel van de steamgebruikers nog gamed op 1280x1024.
Het enige waar je naar moet kijken is hoeveel mensen boven de 1920x1x00 gamen. Dat zijn er bar weinig.Maxily schreef op vrijdag 25 maart 2011 @ 10:33:
Als je hier bewijs voor hebt wil ik dat graag zien.
Ik zag ook in de screenshot (een paar pagina's terug) van steam over de gebruikte resoluties. Daar bleek dat een groot deel van de steamgebruikers nog gamed op 1280x1024.
Edit; er zijn genoeg fanatiekelingen die op 1920x1x00 gamen en een 590 of 6990 halen. Net zoals er genoeg mensen zijn die CFX met 6950/ 6970 of GTX570/ 580 SLi aanschaffen icm een 24" monitor.
Die willen met SSAA, MLAA, 16AA of 32XAA, of downsampling gamen. Of zonder na te hoeven denken elke game kunnen maxen. Of benchmarken, of simpelweg hun E-Peen vergroten. Redenen zat waarom mensen met een 1920x1x00 monitor een 590 od 6990 zouden willen hebben imho.
[ Voor 33% gewijzigd door Format-C op 25-03-2011 10:49 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
En dat moet je dan vergelijken met hoeveel mensen zulke grafische kaarten hebben. Ook bar weinig lijkt mij. En daar komt bij dat sommige spellen niet goed werken op 3 schermen. Bij dat soort spellen zal het inderdaad lijken alsof mensen 590's gebruiken voor spellen op 1920x1080.
Laat ik het zo zeggen; de grootste doelgroep zijn fanatiekelingen die op 1920x1200 op de allerhoogste settings gamen, en niet hoger. Daar ga ik vanuit. Als ik om mij heen kijk op diverse fora kan ik dat zien. De mensen met 30 inchers of multi monitor setups zijn schaars. Zo schaars dat dit nooit de doelgroep van nV of AMD kunnen zijn. Dan verkopen ze namelijk geen kaarten... Ik heb pagina's geleden ook al gedeeltelijk weerlegd waarom ik dit denk overigens. 
"Omdat sommige spellen niet op 3 schermen werken lijkt het erop alsof mensen de 590 dan gebruiken voor 1920x1x00?" Ik zie het verband niet echt.
Deze zin begrijp ik niet helemaal...Maxily schreef op vrijdag 25 maart 2011 @ 10:41:
En daar komt bij dat sommige spellen niet goed werken op 3 schermen. Bij dat soort spellen zal het inderdaad lijken alsof mensen 590's gebruiken voor spellen op 1920x1080.
"Omdat sommige spellen niet op 3 schermen werken lijkt het erop alsof mensen de 590 dan gebruiken voor 1920x1x00?" Ik zie het verband niet echt.
[ Voor 14% gewijzigd door Format-C op 25-03-2011 10:49 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Common logical sense. Maar dat heb ik in die post waar je dit uit quote en de post ervoor zeer uitgebreid toegelicht en dat ga ik niet nogmaals doen. Als je een indicatie wilt: kijk eens in je kennissenkring -> hoeveel die een dikke videokaart hebben, hebben ook een 2560x1600 scherm of zijn bereid 1200 Euro aan zo'n scherm uit te geven?Maxily schreef op vrijdag 25 maart 2011 @ 10:23:
Bron? Of is het meer nattevingerwerk?
Of laat voor de grap iedereen die deze thread leest en op 2560x1600 gamed eens zijn hand opsteken. Maar ik denk dat je ook wel weet wat het resultaat daarvan zal zijn: dat zijn enkelingen op de massa.
Naar mijn idee hoort een review voornamelijk te gaan over een realistisch gebruikscenario voor de doelgroep. En dat behelst m.i. zeer zeker wel de resolutie waarop (verreweg) het grootste deel van de doelgroep gamed: 1920*1xx0 (en lager).Maar waar gaat zo'n review over? Daar worden toch de limits van deze kaarten opgezocht?
Dat je 600 wilt besteden aan een snelle graka wil niet zeggen dat je 1200 wilt besteden aan een monitor.En ik vind het wat te simpel gedacht dat mensen die zo'n dure kaart kopen dan opeens geen geld hebben voor andere zaken als een paar monitors.
Als je moderne games (maxed out) wilt draaien op 60+ fps zoals de vele die-hard gamers kies je dus juist niet voor zo'n scherm.
Nee dus: Als je moderne games (maxed out) wilt draaien op 60+ fps zoals de vele die-hard gamers kies je dus juist wel voor een dual gpu setup.Als mensen alle spellen op het hoogst op 1920x1080 willen spelen kunnen ze met de ~helft van het geld voor een 590 / 6970 een kaart kopen die ook goed genoeg is.
Mij lijken dus 2560x1600 gamers met schermen van 1200+ Euro de uitzondering.Er zitten misschien wat mensen bij die echt een 590 gebruiken voor gamen op 1920x1080 maar dat lijkt mij echt de uitzondering.
Mede omdat ze zo'n kaart veelal kopen om met IQ maxed out op volle snelheid vloeiend te gamen met alle games, en dat dus niet kan op zo'n 2560x1600 scherm.
<edit> Wat Format-C zegt dus
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Ik heb 2 580's in SLI om te kunnen gamen op op 3 23" schermen. Maar sommige spellen (Mass Effect 2 bijv.) werken niet goed op 3 schermen, bijvoorbeeld omdat ze de beeld verhoudingen gelijk houden (3x zo breed = 3x zo hoog = gedeelte van het spel valt buiten je scherm).
Dat soort spellen speel ik dus, noodgedwongen, op 1920x1080. Als dan iemand gaat kijken op welke resoluties bijv. Mass Effect 2 wordt gespeeld en daar de hardware bij legt kun je dus claimen wat jij zegt, met een 590 spelen mensen op 1920x1080.
Edit:
Ja, gamen op 2560x1600 zal waarschijnlijk niet veel gebeuren. Maar voor 300 euro heb je nu al 3 1920x1080 schermen.
Dat soort spellen speel ik dus, noodgedwongen, op 1920x1080. Als dan iemand gaat kijken op welke resoluties bijv. Mass Effect 2 wordt gespeeld en daar de hardware bij legt kun je dus claimen wat jij zegt, met een 590 spelen mensen op 1920x1080.
Edit:
Ja, gamen op 2560x1600 zal waarschijnlijk niet veel gebeuren. Maar voor 300 euro heb je nu al 3 1920x1080 schermen.
[ Voor 11% gewijzigd door Max Hunt op 25-03-2011 10:52 ]
Verwijderd
Laten we het dan op gelijke prestaties houden, mij maakt dat niet uitToettoetdaan schreef op vrijdag 25 maart 2011 @ 10:32:
[...]
Oke, ik begrijp je argumenten en het is zeker waar dat de GTX590 en de HD6990 heel dicht tegen elkaar aan liggen.
Maar om nu te zeggen de een is sneller dan de ander gaat mij wat ver, zeker omdat je bij je beargumentatie Dirt2 en BFBC2 erbij haalt, wat gewoon twee benches zijn die echt een stukje beter draaien op nvidia kaarten, met andere woorden niet echt neutrale benches om erbij te betrekken.
Als ik kijk naar de conclusie van HWI:
[...]
Hier spreekt men over een nipte winst voor de GTX590.
Dan kijk ik naar de conclusie van Tweakers:
[...]
Hier is de HD6990 toch echt wat meer de winnende kaart.
Kijken we naar het verschil in reviews dan is deze quote van de tweakers review van belang:
[...]
Waar HWI echt maar met een maximale resolutie van 1920x1080 test...
Guru3d (die je zelf in je vorige post aanhaalt) zegt:
[...]
Techspot (die je er ook bij betrek in je vorige post) zegt:
[...]
Anandtech zegt het volgende:
[...]
Toms Hardware verteld:
[...]
Nu heb ik er 6 reviews bijbetrokken, en alleen HWI vertelt dat de GTX590 sneller is op 1920x1080, de rest vind het een gelijkspel. (sommige hebben er wat interessante comments bij en tweakers en tom vinden zelfs de HD6990 sneller)
Dus zeggen dat de kaarten gelijk presteren kan ik me in vinden, maar vertellen dat iedereen maar eens moet inzien dat de GTX590 sneller is... Na dan moet je met betere argumenten komen.
Dit topic is gesloten.
Let op:
Omdat het in het vorige deel blijkbaar niet helemaal duidelijk was nog een keer de belangrijkste topicregels:
* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.
Omdat het in het vorige deel blijkbaar niet helemaal duidelijk was nog een keer de belangrijkste topicregels:
* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.