[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 39 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op zaterdag 09 juni 2012 @ 23:17:
dahakon, heb je nu nog niets geleerd? Zodra je nVidia "bekritiseerd" in het nVidia nieuwsdiscussie topic dan is het offtopic, fanboyism of wordt het gebagatelliseerd.
Nee dat heeft daar niets mee te maken, het ging alleen nog maar over intel. ;)
Er was verder geen eens kritiek op nvidia dus ik snap dat gedoe over fanboy gedrag ook niet. 8)7
Het ging gewoon steeds meer over intel vs AMD in het nvidia topic, voor dat het uit de hand loopt snap je.

[ Voor 22% gewijzigd door Verwijderd op 10-06-2012 12:11 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:24

XanderDrake

Build the future!

madmaxnl schreef op zaterdag 09 juni 2012 @ 23:17:
dahakon, heb je nu nog niets geleerd? Zodra je nVidia "bekritiseerd" in het nVidia nieuwsdiscussie topic dan is het offtopic, fanboyism of wordt het gebagatelliseerd.
Deze toon voegt niets toe aan niks. Sommige dingen omtrent de HD 4000 waren inderdaad offtopic, naast het feit dat dahakon nVidia niet bekritiseerde, dus fanboyisme is niet van toepassing.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Sommige dingen kunnen wellicht 'off-topic' overkomen, maar ze waren toch echt wel van belang van de beeldvorming aangaande de discussie over 620M. Het besef dat HD4000 niet te vergelijken is met HD4000 en dat de HD4000 cijfers die we het eerst online zagen die van een desktop versie danwel een 45Watt laptop versie, waar de GPU simpelweg veel meer TDP-ruimte heeft en dus veel sneller is. Het gevolg is dat bij de launch van 620M en de logische vergelijking van die 620M met een 17W ULV IB's HD4000 mensen heel gemakkelijk kunnen gaan denken dat 620M 50% sneller is dan een desktop HD4000, waarmee deze dus ook sneller zou zijn dan een Trinity danwel Llano GPU.

Het is een kritische noot naar de 620M toe, die vervolgens de repliek kreeg dat het niets met de nVidia nieuws en discussie draad te maken zou hebben. Het 'fanboyisme' is dan ook simpelweg dat het blijkbaar teveel informatie is om duidelijk te maken wat 620M's werkelijke plek in de markt is.

En aangezien we nu toch al weer een pagina volgekalkt hebben over het al dan niet on-topic zijn, zal ik nog een 'off-topic' stukje toevoegen. Het kwam hierboven namelijk naar voren dat het zo gek is dat juist de ULV IB's een lager geklokte HD4000 hebben, waar je juist relatief meer grafische kracht wilt hebben. Het is echter simpel te verklaren. Intel heeft de TDP-ruimte gewoonweg niet om een op volle snelheid draaiende HD4000 in een 17Watt processor te krijgen. Ze missen de efficientie die echt ervaren GPU-bakkers hebben om dat voor elkaar te krijgen.

Acties:
  • 0 Henk 'm!

Verwijderd

Die 620M is gewoon prut. Enkel handig voor de low end laptops (cpu's)

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Echte low-ends zullen straks sowieso (bijna) allemaal wel met Fusion werken.

[ Voor 5% gewijzigd door Fid3lity op 11-06-2012 11:07 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dat is waar maar er zijn allemaal al laptops met de 620M's. Ik geloof verder wel dat over enkele jaren de low end GPU's er helemaal uit gaan.

[ Voor 41% gewijzigd door Verwijderd op 11-06-2012 11:18 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:24

XanderDrake

Build the future!

De GT 620M is gewoon een low-end Fermi op 28nm dus nee, niemand verwacht hier wonderen.

Maar de GPU heeft, zoals dahakon inderdaad aanduidt, een functie: hij presteert beter dan de ULV HD4000, 50% beter. Daarnaast kan de 620M met een degelijk functionerende Optimus gewoon worden uit gezet, dus verbruikt het niets/erg weinig in desktop modus, dus daar zit geen nadeel. Dit lijkt me duidelijk toch?

Ik ben heel benieuwd wat AMD gaat doen hiero. De A6-4455 (klopt dit?) heeft een Piledriver Dualcore op 2.1ghz met een Trinity 256sp GPU op 300-400mhz. Best lekker, maar ik ben wel benieuwd wat deze gaat doen tov de GT 620M (waar we niet de exacte specs van weten trouwens).

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
XanderDrake schreef op maandag 11 juni 2012 @ 11:21:
Daarnaast kan de 620M met een degelijk functionerende Optimus gewoon worden uit gezet, dus verbruikt het niets/erg weinig in desktop modus, dus daar zit geen nadeel. Dit lijkt me duidelijk toch?
Dat vraag ik me eigenlijk af, ik heb geen fatsoenlijke eenduidige praktijk test kunnen vinden van de huidige generatie GPU (28nm) en CPU (22nm). Het lijkt mij namelijk dat de GT620M in idle minder verbruikt dan een HD4000 in idle. Hierdoor zou Optimus geen praktisch nut hebben en enkel en alleen leuke marketing praat zijn.

Waar blijven die tests: GT620M uitgeschakeld met een HD4000 idle met verbruik X vs. GT620M idle met een HD4000 uitgeschakeld met verbruik Y. Wellicht blijkt dan gewoon dat nVidia's GT620M in idle zuiniger is als Intel's HD4000 in idle. Kunnen ze die HD4000 in sommige gevallen beter lassercutten.

Acties:
  • 0 Henk 'm!

Verwijderd

Nieuwe MacBook Pro heeft deze videokaart van NVIDIA
http://www.icreatemagazin...van-nvidia-met-1gb/54691/

[ Voor 15% gewijzigd door Verwijderd op 11-06-2012 12:58 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik denk dat nVidia en Apple nog wel eens grote vrienden gaan worden met het oog op de toekomst. Apple wil namelijk Intel (x86) eruit gooien en voor ARM gaan. Het is dus heel reëel dat ze dan weer gebruik gaan maken van nVidia videokaarten of SoC. Wie weet kopen ze nVidia wel, nVidia is nog geen tweehonderdste van wat Apple is, maar dat Apple nVidia o.i.d. overneemt is al vaker geopperd.

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 13:26

superwashandje

grofheid alom

ik gok dat de great leader jen hsun huang (of hoe die ook heet) dat niet toe gaat laten. ik heb het idee dat hij zijn bedrijf onafhankelijk wil houden zolang het kan.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Verwijderd

superwashandje schreef op maandag 11 juni 2012 @ 13:16:
ik gok dat de great leader jen hsun huang (of hoe die ook heet) dat niet toe gaat laten. ik heb het idee dat hij zijn bedrijf onafhankelijk wil houden zolang het kan.
Ik verwacht dat ook niet. In geen duizend jaar. Eerder andersom ;)
Lol, google, apple, intel, AMD?

[ Voor 6% gewijzigd door Verwijderd op 11-06-2012 13:23 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:24

XanderDrake

Build the future!

madmaxnl schreef op maandag 11 juni 2012 @ 12:44:
Dat vraag ik me eigenlijk af, ik heb geen fatsoenlijke eenduidige praktijk test kunnen vinden van de huidige generatie GPU (28nm) en CPU (22nm). Het lijkt mij namelijk dat de GT620M in idle minder verbruikt dan een HD4000 in idle. Hierdoor zou Optimus geen praktisch nut hebben en enkel en alleen leuke marketing praat zijn.

Waar blijven die tests: GT620M uitgeschakeld met een HD4000 idle met verbruik X vs. GT620M idle met een HD4000 uitgeschakeld met verbruik Y. Wellicht blijkt dan gewoon dat nVidia's GT620M in idle zuiniger is als Intel's HD4000 in idle. Kunnen ze die HD4000 in sommige gevallen beter lassercutten.
Die laptop in kwestie met de GT 620M, de Asus Zenbook UX32VD, komt ook uit zonder nVidia GPU. Ik voel er ook wat voor om te kijken wat Optimus en GT 620M doet met accu tijden mbt desktop gebruik, surfen, video's kijken en idle versus een laptop die het niet heeft.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:24

XanderDrake

Build the future!

Verder denk ik dat Apple eerst zijn best moet doen om Samsung uit zijn productie te soepelen voordat ze hun ogen gaan richten op grote overnames.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Was de GT640 review al langs geweest.
http://www.tomshardware.c...gt-640-review,3214-9.html

Alleen is deze kaart te duur voor wat je krijgt. Zal de prijs nog gaan dalen richting de 80 euro wat wel
bij deze kaart hoort?

[ Voor 38% gewijzigd door Verwijderd op 11-06-2012 13:43 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
XanderDrake schreef op maandag 11 juni 2012 @ 13:22:
[...]

Die laptop in kwestie met de GT 620M, de Asus Zenbook UX32VD, komt ook uit zonder nVidia GPU. Ik voel er ook wat voor om te kijken wat Optimus en GT 620M doet met accu tijden mbt desktop gebruik, surfen, video's kijken en idle versus een laptop die het niet heeft.
Dit zou ideaal zijn om mee te vergelijken. Hopelijk zijn er sites kritisch genoeg om dit tegen het licht te gaan houden.

[ Voor 3% gewijzigd door madmaxnl op 11-06-2012 14:16 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:24

XanderDrake

Build the future!

Ik neem aan dat die nVidia-loze Asus Zenbook nog wel ergens anders wordt onderzocht. Hopelijk blijft dan de rest van de hardware (met name CPU) identiek.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Volture
  • Registratie: November 2001
  • Laatst online: 18-09 13:02
Sinds vandaag is de MSI GTX 670 Power Edition te bestellen! Heb er maar meteen een in het mandje gedaan.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Volture schreef op woensdag 13 juni 2012 @ 23:11:
Sinds vandaag is de MSI GTX 670 Power Edition te bestellen! Heb er maar meteen een in het mandje gedaan.
Dat ziet er goed uit! MSI levert echt goede kaarten voor een kleine meerprijs. Wie weet verkoop ik mijn 580 nog _/-\o_ Altijd leuk om regelmatig die PC kast open te schroeven, ook al is het niet noodzakelijk :+

[ Voor 17% gewijzigd door A87 op 14-06-2012 11:49 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18-09 18:07
Ik ben eens benieuwd wat de GTX660 gaat worden. Heeft iemand enig idee wanneer die komt of heeft NVIDIA er nog niks over gezegd ?

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Mosin schreef op donderdag 14 juni 2012 @ 17:26:
Ik ben eens benieuwd wat de GTX660 gaat worden. Heeft iemand enig idee wanneer die komt of heeft NVIDIA er nog niks over gezegd ?
De laatste geruchten zijn dat er een overstock van 570 GPU's is, die ze eerst kwijt willen.
Klinkt niet onlogisch, daarom had je ook een tijd 560TI's met 570 GPU's.

[ Voor 9% gewijzigd door unfor op 14-06-2012 17:39 ]


Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18-09 18:07
Hmm, dat is wel jammer :(. Ik had meer een lekker zuinige gpu verwacht om een keer in sli te gaan zetten. Maar dat kan ik wel vergeten met een 570 gpu... Maarja het zijn geruchten.

Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Mosin schreef op donderdag 14 juni 2012 @ 20:10:
Hmm, dat is wel jammer :(. Ik had meer een lekker zuinige gpu verwacht om een keer in sli te gaan zetten. Maar dat kan ik wel vergeten met een 570 gpu... Maarja het zijn geruchten.
Zuinig en SLI, dat volg ik niet helemaal.
Neem dan lekker 1 670, heb je ook geen last van alle bijkomende problemen met SLI. (microstuttering, driver support etc)

[ Voor 14% gewijzigd door unfor op 14-06-2012 20:32 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Mosin schreef op donderdag 14 juni 2012 @ 17:26:
Ik ben eens benieuwd wat de GTX660 gaat worden. Heeft iemand enig idee wanneer die komt of heeft NVIDIA er nog niks over gezegd ?
Doen ze nooit, net zoals andere fabrikanten normaal gesproken, niemand geeft eigenlijk van te voren specs.

Maar de kans is groot dat er nog een GK106 aan komt met 768 cudacores, de helft van de GK104 (GTX680) en het dubbele van een GK107 (GT640) dus. Aangezien het gat anders veel te groot wordt tussen de verschillende videokaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 18-09 18:07
unfor schreef op donderdag 14 juni 2012 @ 20:28:
[...]

Zuinig en SLI, dat volg ik niet helemaal.
Neem dan lekker 1 670, heb je ook geen last van alle bijkomende problemen met SLI. (microstuttering, driver support etc)
Beetje verkeerd gezegd. Ik bedoelde eigenlijk te zeggen, dat ik een zuinige kaart verwacht, maar dat ik er later voor de prestaties nog eentje erbij zet. Het is niet zo dat 2 kaarten lekker zuinig moeten zijn... En ik bedoelde nog te zeggen dat 2 GTX570 gpu's niet gaan draaien op mijn voeding.

Een GTX670 lijkt me wel een leuke kaart om te hebben :D. En je hebt inderdaad niet zo'n gezeur wat je met 2 kaarten wel hebt.

[ Voor 17% gewijzigd door Mosin op 14-06-2012 20:54 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De GTX690 review van HWI.
http://nl.hardware.info/r...-review-twee-keer-gtx-680

Zl er nog één van tweakers komen, en dan ook de gtx680 en70?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Wat klets je nou? Tweakers heeft een review van de GTX 670 en daarin zijn testresultaten van de 680 ook te vinden. De 690 moeten we maar even afwachten..

Acties:
  • 0 Henk 'm!

Verwijderd

Dat heb ik dan gemist. Beetje verwarrend om ze dan ook in één review te stoppen.
Ik klets verder niet in typ ;)

[ Voor 17% gewijzigd door Verwijderd op 18-06-2012 14:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nieuwe nvidia beta drivers 304.48

Key Fixes
Fixes an intermittent vsync stuttering issue with GeForce GTX 600-series GPUs.
Fixes an issue where some manufacturer’s factory overclocked cards default to and run at lower clocks.
Fixes a performance issue in Total War: Shogun 2 with the latest game patch.

Performance Boost – Increases performance for GeForce 400/500/600 Series GPUs in several PC games vs. GeForce 301.42 WHQL-certified drivers. Results will vary depending on your GPU and system configuration:
GeForce GTX 680:

Up to 18% in Batman: Arkham City
Up to 15% in Dragon Age II
Up to 10% in S.T.A.L.K.E.R.: Call of Pripyat
Up to 60% in Total War: Shogun 2 (fixes performance issue with latest game patch)

GeForce GTX 560:
Up to 14% in Batman: Arkham City
Up to 5% in Battlefield 3 with SLI
Up to 4% in Dragon Age II
Up to 8% in The Witcher 2: Assassins of Kings with SLI
Up to 7% in Lost Planet 2

Volgens mij ook de eerste drivers met performance winsten voor de 600 series

Hier te downloaden:
http://www.nvidia.com/Download/Find.aspx?lang=en-us

[ Voor 4% gewijzigd door Verwijderd op 18-06-2012 16:03 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X


Acties:
  • 0 Henk 'm!

Verwijderd

Nog al zielig om zo professioneel over te komen. ;(
Wat hij hier mee bereikt is een negatief beeld van hem zelf door gebruikers.

De man kan beter naar AMD toe stappen qua drivers voor linux >:)

[ Voor 20% gewijzigd door Verwijderd op 18-06-2012 16:43 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het is een AMD FANBOY!one!1!11 omgwtfbbq... Yea right Ludo...

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Hij (Linus dus, Lupp heeft zelden gelijk) heeft anders wel gelijk. Als je wil meedraaien in Android met je chipverkoop, is het ook in je eigen voordeel om met de Linux zijde te overleggen. Hoe ver je daarin wil gaan of wat je wil bereiken kan je achteraf samen lekker bepalen. Maar nee, dat doen ze dus niet. De FU nVidia die hij er bij aan toevoegt, maakt het gewoon duidelijker. Gezien de commotie die er blijkbaar nu al ontstaan is, is hem dat perfect gelukt.

[ Voor 4% gewijzigd door Noel op 18-06-2012 20:07 . Reden: ff de hij verduidelijkt ]

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

In nadeel van hem zelf, beetje domme actie als je het mij vraagt.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Leuk hoe je het bagatelliseren, altijd het zelfde liedje hier.

[ Voor 3% gewijzigd door madmaxnl op 18-06-2012 21:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zeg alleen maar wat de linux gebruikers zelf ook roepen nu her en der. Die zijn met zijn uitspraken
totaal niet blij. Hij zal nu achteraf wel spijt hebben denk ik want dit kan ten koste gaan van zijn eigen besturing
systemen. Hij plast als het ware zich zelf nu over zij eigen schoenen heen.

[ Voor 12% gewijzigd door Verwijderd op 18-06-2012 17:49 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Oh dus als er her en der nog een aantal mensen het bagatelliseren dan is het terecht dat het gebagatelliseerd wordt?

Acties:
  • 0 Henk 'm!

Verwijderd

Het is gewoon niet waar wat hij roept want het werkt wel. Maar omdat hij zelf niet weet hoe het werkt gaat hij lopen schelen tegen iets wat gewoon werkt op zijn linux. Verder mag hij blij zijn dat er support is want het is zo klein zo dat niemand er wat aan verdiend en er gebruik van maakt.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Maar het kan beter werken. Sneller werken. Makkelijker werken. Dat kaart hij aan. Terecht ook.

@madmaxnl, check edit.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ja ik moest je stukje al drie keer lezen en kwam er niet achter wie je nu bedoelde, lol :+

Acties:
  • 0 Henk 'm!

Verwijderd

In een ander topic ook al benoemd maar zag 304.48 beta drivers http://www.geforce.com/drivers/beta-legacy. In 3dmark i.i.g. een kleine hogere score maar wellicht biedt het een fix voor mensen met problemen met de 600 serie.

Acties:
  • 0 Henk 'm!

Verwijderd

Noel schreef op maandag 18 juni 2012 @ 20:09:
Maar het kan beter werken. Sneller werken. Makkelijker werken. Dat kaart hij aan. Terecht ook.

@madmaxnl, check edit.
Klopt het kan beter werken maar zoals hij het brengt is toch niet normaal, totale arrogantie met zijn fuck you.
Als dat terecht is vind ik wel te ver gaan. En wat bedoel je met zelden gelijk, wel gelijk, trollen is soms wel leuk maar niet om een ander mee uit te dagen, zeker als het ook nog niet eens klopt ;)

[ Voor 15% gewijzigd door Verwijderd op 18-06-2012 21:53 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 juni 2012 @ 18:09:
Het is gewoon niet waar wat hij roept want het werkt wel. Maar omdat hij zelf niet weet hoe het werkt gaat hij lopen schelen tegen iets wat gewoon werkt op zijn linux. Verder mag hij blij zijn dat er support is want het is zo klein zo dat niemand er wat aan verdiend en er gebruik van maakt.
Volgens mij gaat hij hier niet in op of dingen al dan niet werken op Linux, maar eerder op nVidia als bedrijf en de samenwerking met hen. Hij heeft het specifiek over nVidia als slecht bedrijf, en de vergelijking tot veel andere bedrijven (dus waarschijnlijk niet eens alleen graphics hardware makers), en dat nVidia "moeilijk doet". Dit hoor je overigens wel vaker over nVidia. Linus spreekt zich daarnaast wel vaker openlijk uit als hij het niet eens is met een bepaalde gang van zaken, dus deze uitspraak zou men al met al niet zo heel veel moeten verbazen.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 juni 2012 @ 21:54:
[...]


Volgens mij gaat hij hier niet in op of dingen al dan niet werken op Linux, maar eerder op nVidia als bedrijf en de samenwerking met hen. Hij heeft het specifiek over nVidia als slecht bedrijf, en de vergelijking tot veel andere bedrijven (dus waarschijnlijk niet eens alleen graphics hardware makers), en dat nVidia "moeilijk doet". Dit hoor je overigens wel vaker over nVidia. Linus spreekt zich daarnaast wel vaker openlijk uit als hij het niet eens is met een bepaalde gang van zaken, dus deze uitspraak zou men al met al niet zo heel veel moeten verbazen.
Ik heb het hele artikel doorgelezen en ik zie enkel dat het gaat om de software. Filmpje kan ik helaas niet kijken. Houd niet in dat nvidia ook arrogant is soms, Verder moet nvidia er ook geld en tijd aan kunnen besteden, terwel er belangrijkere dingen zijn om te fixen.
Het ging me ook verder meer hier om.
Rob Coops in 'nieuws: Linus Torvalds haalt hard uit naar Nvidia'
Verwijderd schreef op maandag 18 juni 2012 @ 21:43:
In een ander topic ook al benoemd maar zag 304.48 beta drivers http://www.geforce.com/drivers/beta-legacy. In 3dmark i.i.g. een kleine hogere score maar wellicht biedt het een fix voor mensen met problemen met de 600 serie.
Jeps een vsync probleem fix.

Edit

En is ook echt gefixed, was weer een FUD dat nvidia problemen heeft met de 600 series.
Maar goed dat soort mensen houd je altijd

[ Voor 23% gewijzigd door Verwijderd op 18-06-2012 22:28 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 09:09
Verwijderd schreef op maandag 18 juni 2012 @ 22:01:
Edit

En is ook echt gefixed, was weer een FUD dat nvidia problemen heeft met de 600 series.
Maar goed dat soort mensen houd je altijd
Dus 'het' is wel gefixed, maar 'het' was eigenlijk fud en dus niet bestaand? Hoe kan 'het' dan wel gefixed worden? Of heeft Nvidia iedereen die die fud verspreidde en geloofde 'gefixed'?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Snorro schreef op maandag 18 juni 2012 @ 22:52:
[...]

Dus 'het' is wel gefixed, maar 'het' was eigenlijk fud en dus niet bestaand? Hoe kan 'het' dan wel gefixed worden? Of heeft Nvidia iedereen die die fud verspreidde en geloofde 'gefixed'?
:D

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Phntm
  • Registratie: Maart 2010
  • Laatst online: 09:16

Phntm

Tlingelingeling

Dit, veel van dit. Och wat is het weer fijn, al dat gedoe met beta drivers. Ze heten BETA drivers voor een reden...

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 juni 2012 @ 22:01:
[...]

Ik heb het hele artikel doorgelezen en ik zie enkel dat het gaat om de software. Filmpje kan ik helaas niet kijken. Houd niet in dat nvidia ook arrogant is soms, Verder moet nvidia er ook geld en tijd aan kunnen besteden, terwel er belangrijkere dingen zijn om te fixen.
Het ging me ook verder meer hier om.
Rob Coops in 'nieuws: Linus Torvalds haalt hard uit naar Nvidia'
Ik vind het ook vreemd dat het artikel alleen maar over drivers gaat, van het filmpje lijkt het me duidelijk dat dat niet Linus' punt is. Zelfs de vraag naar Linus lijkt niet specifiek over drivers te gaan (dat was slechts een voorbeeld). Misschien kan je het op YouTube zien:

YouTube: Aalto Talk with Linus Torvalds \[Full-length]

Dan zie je misschien ook nog iets van het humoristische element terug. :)

As always, het is goed de uiteindelijke bron van het nieuws te onderzoeken, informatie wordt nog altijd zo gemakkelijk verdraaid en herschreven.

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 12:00

mrc4nl

Procrastinatie expert

de 600 serie heeft enkele modellen met pci-3 3.0 ,maar ga je er echt op achteruit wanneer je pci-e 2.0 gebruikt?
is het verschil minder dan 10%?

want alleen de intels 68 en 75 hebben die. en ik was niet van plan om mn mobo te upgraden(ook niet naar intel...)

ora et labora


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

mrc4nl schreef op dinsdag 19 juni 2012 @ 01:05:
de 600 serie heeft enkele modellen met pci-3 3.0 ,maar ga je er echt op achteruit wanneer je pci-e 2.0 gebruikt?
is het verschil minder dan 10%?

want alleen de intels 68 en 75 hebben die. en ik was niet van plan om mn mobo te upgraden(ook niet naar intel...)
LM....
Verstopt of niet, dit wordt nog steeds niet gewaardeerd...

[ Voor 7% gewijzigd door Edmin op 19-06-2012 14:57 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

mrc4nl schreef op dinsdag 19 juni 2012 @ 01:05:
de 600 serie heeft enkele modellen met pci-3 3.0 ,maar ga je er echt op achteruit wanneer je pci-e 2.0 gebruikt?
is het verschil minder dan 10%?

want alleen de intels 68 en 75 hebben die. en ik was niet van plan om mn mobo te upgraden(ook niet naar intel...)
Serieus? Deze vraag is deze week nog op het forum gesteld.... een beetje zoeken kan geen kwaad. Het is een nieuwsdiscussie topic.
eVGA GeForce GTX 670 Superclocked in een PCIe 2.0 ipv 3.0
http://www.techpowerup.co...I-Express_Scaling/23.html

[ Voor 19% gewijzigd door Sp3ci3s8472 op 19-06-2012 02:05 . Reden: Verkeerde topic :p ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 18 juni 2012 @ 21:45:
[...]

[..] trollen is soms wel leuk maar niet om een ander mee uit te dagen, zeker als het ook nog niet eens klopt ;)
Over dingen die niet kloppen gesproken...
Verwijderd schreef op maandag 18 juni 2012 @ 18:09:
[..] Verder mag hij blij zijn dat er support is want het is zo klein zo dat niemand er wat aan verdiend en er gebruik van maakt.
Behalve dan dat ruim 90% van de supercomputers en ruim 60% van de internet servers op Linux draait, daar wordt uiteraard niks aan verdiend. De meer dan een miljard omzet van Red Hat levert ook niks op natuurlijk. Om het over Android maar helemaal niet te hebben.

Goed, in die servers zitten natuurlijk doorgaans geen graka's, maar als je wil beweren dat er aan Linux niks verdiend wordt zit je er heel erg naast. Op de desktop heeft Linux nog een lange weg te gaan, maar in andere markten is het erg succesvol. Leuk dat je het over Linux wilt hebben, maar zorg dan volgende keer wel dat je zelf weet waar je het over hebt, voordat je anderen er van beschuldigt dingen te zeggen die niet kloppen.

[ Voor 4% gewijzigd door Verwijderd op 19-06-2012 04:21 . Reden: typofix ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik doelde natuurlijk op de normale gebruikers als jij en ik, in die markt word amper geld verdiend laat staan voor de ontwikkelaars. Die supercomputers en servers daar heb ik het totaal niet over gehad. Dat zal natuurlijk ook allemaal wel prima werken qua driver ondersteuning voor die programma's, maar ja je kunt het er bij halen om een draai te geven aan het verhaal zo dat het lijkt alsof ik fout zit.
Snorro schreef op maandag 18 juni 2012 @ 22:52:
[...]

Dus 'het' is wel gefixed, maar 'het' was eigenlijk fud en dus niet bestaand? Hoe kan 'het' dan wel gefixed worden? Of heeft Nvidia iedereen die die fud verspreidde en geloofde 'gefixed'?
Het ging er om dat er iets mis zou zijn met de GPU zelf.

[ Voor 35% gewijzigd door Verwijderd op 19-06-2012 11:20 ]


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Buiten heel de voorgaande discussie om (kheb weer iets gemist op m'n jaarlijkse vakantie XP) heb ik gemerkt dat we nog steeds in het zelfde discussietopic deeltje zitten.
Kzal volgende week (weken) (sorry 2 examens inkomende en een héél druk weekend voor de boeg) dan toch maar eens kijken om een volgend deel in elkaar te boxen. Ondertussen een robbertje vechten met m'n huidige/oude isp om m'n vroeger webruimte terug te krijgen om zodoende heel oude topics weer te voorzien van images.

Indien er mensen zijn die willen helpen, input geven of denken "Dit moet er zeker in, dat stukje info mag er gerust van mij uit" PM's zijn welkom.
Tot nu toe heb ik één bericht gehad van iemand die wou helpen/zelf het volgend deel in elkaar wou steken en zoals altijd te meer zielen te meer vreugde ;)


Back "on topic"
Linus doet wel meer zo'n uitspraken en zit er evenveel naast als erop spijtig genoeg. De relatie met nVidia is nooit echt hartelijk geweest vanuit z'n kant (en kernel developpers) daar ze een probeleem hadden:
Jaren geleden had enkel nvidia goede support qua gpu's maar niet zoals de linux community het wenst namelijk closed source. (maar twas toen kiezen tussen principe of goede support en uit ervaring eindigde dit jaren geleden bijna altijd bij een nVidia GPU)
Nu dat Intel goede open source drivers heeft en ATI ook goed bezig is (volgens de community althans, eigen ervaring was minder leuk :P) ist waarschijnlijk het moment om nVidia eens tegen de schenen te schoppen in de hoop voor verandering. Of deze er uiteindelijk gaan komen is een andere zaak. in ieder geval is een linux gebruiker al lange tijd niet meer afhankelijk van nVidia zoals vroeger, ATi en Intel gpu's werken nu out of the box (bijna) even goed als nVidia gpu's.
Als je dus alles in context plaats snap je zoals altijd veel beter zo'n berichten (en waarom het zo opgeklopt werd, 10-8 jaar geleden (damn ik word oud) zou je nooit of te nimmer zo'n bericht gezien hebben. Toen was je super blij dat je een nVidia kaart had en dat de nVidia drivers werkten op je systeem(na soms een dag of meer plezier te hebben ze te doen werken ))

Specs


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 19 juni 2012 @ 13:13:
[...]


Als je twee kaarten pakt zullen die nooit evenveel gebruiken. Als je een een gpu die hebt die uit het midden van het silicium komt dan zal deze meestal zuiniger zijn en in dat geval kan hij ook een hogere boost clock halen omdat hij dan binnen het TDP blijft.

De boost van de GTX680 schaalt dus mee zolang hij binnen het TDP blijft, dus als je gaat overclocken dan zal je ook het TDP moeten verhogen met een tool zoals EVGA precision. Zeker als je het voltage voor je overclock moet verhogen.

http://www.legitreviews.com/article/1881/2/
BugFix ongewenst terug klocken.
http://www.bouweenpc.nl/n...e-betadriver-van-nvidia-2

[ Voor 5% gewijzigd door Verwijderd op 19-06-2012 15:17 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
lightdestroyer schreef op dinsdag 19 juni 2012 @ 14:39:
Nu dat Intel goede open source drivers heeft en ATI ook goed bezig is (volgens de community althans, eigen ervaring was minder leuk :P) ist waarschijnlijk het moment om nVidia eens tegen de schenen te schoppen in de hoop voor verandering. Of deze er uiteindelijk gaan komen is een andere zaak. in ieder geval is een linux gebruiker al lange tijd niet meer afhankelijk van nVidia zoals vroeger, ATi en Intel gpu's werken nu out of the box (bijna) even goed als nVidia gpu's.
Ik kan je uit eigen, zeer recente ervaring (bij launch van 6950 naar 680 geswitcht) zeggen dat AMD toch ver vooruit loopt op Nvidia momenteel. Intel durf ik niets over te zeggen, maar Nvidia's drivers staan al jaren stil; simpelweg een tweede monitor gebruiken loopt niet eens lekker (of je moet het bij elke boot opnieuw instellen, of je krijgt een OOB bericht bij boot, of het werkt gewoon helemaal niet). Ook HW acceleratie in bijvoorbeeld Flash werkt voor geen meter; de kleuren worden dan compleet verkracht (hoewel blauwe mensen ook wat hebben :+).

Er zijn nog meer van zulke dingen, allemaal dingen die bij AMD dus wel probleemloos gaan - allemaal kleine vervelendheden, maar wel dingen die je (ik althans) dagelijks gebruikt. Nu had ik dat met multimonitor wel verwacht, maar zoiets als die HW acceleratie viel me toch vies tegen. Qua installatie zijn ze hetzelfde; zorgen dat je enige "standaard" drivers van je distro verwijdert en een binary uitvoeren. Hoe het qua gamen zit weet ik niet en boeit me eerlijk gezegd ook helemaal niet. Daar blijft Windows toch heer en meester. In het dagelijks gebruik is AMD toch makkelijker. Frappant is overigens ook dat waar Nvidia op Windows net ff iets meer 3D opties heeft, AMD dat op Linux heeft voor zowel 2D als 3D :P

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

En nu wachten op de eerste die het op AMD aan de praat krijgt, en vervolgens klaagt over tegenvallende performance door vendor-ID-checks.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou zeggen probeer het uit met een AMD kaart PHYSX is helemaal uit te zetten.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Erg leuk voor techdemo's maar hoe vaak zien we PhysX in games ook alweer terug?

Acties:
  • 0 Henk 'm!

Verwijderd

Af en toe. Binnenkort de nieuwe Metro game en star trek game.
APEX PhysX wel te verstaan

[ Voor 18% gewijzigd door Verwijderd op 20-06-2012 13:10 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:47
PhysX wordt door enorm veel spellen gebruikt. Gpu accelerated APEX PhysX, not so much.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Physics != PhysX

Acties:
  • 0 Henk 'm!

Verwijderd

En toch komen er nog af en toe mooie games uit met APEX PhysX.
En met een AMD kaart is dat natuurlijk ook altijd uit te zetten of een hackje er over heen.
Ik dacht dat het dood zou gaan maar nee het word nog altijd gebruikt. Nvidia zal er goed aan doen om het ook op AMD kaarten te laten werken dan zal je het denk ik meer terug zien?

[ Voor 36% gewijzigd door Verwijderd op 20-06-2012 13:13 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:47
Ik denk dat iedereen dat zo onderhand wel weet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Het zou je verbazen hoevaak die vraag nog voorbij blijft komen..

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:47
Unique heaven met een paar explosies, net zo over the top tesselation als unique en een half paard in plaats van een draak.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Het is toch heel anders dan unique heaven qua beeld effecten. Net ff wat lichter ook voor de GPU
en het is de UR 3 engine. Verder zal deze engine wel voor games gebruikt worden.

[ Voor 18% gewijzigd door Verwijderd op 20-06-2012 13:44 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Unreal 3 Engine? Kerel, je weet toch wel dat UE3 alle physics zelf voor z'n rekening neemt ipv ze uit te besteden aan iets als PhysX?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
UE3 integreert vrij goed met PhysX, maar dat spel is weer een sterk staaltje onzin. Die slide met "PhysX Destruction" kan allemaal zonder PhysX, wordt toch niet op de GPU uitgevoerd. DICE heeft in elk geval geen PhysX nodig voor soortgelijke dingen en Havok kan veel meer (zie RF:G). Dit zijn het soort dingen waar ik een grafhekel aan heb, want het benadeelt gewoon een groot deel van de markt op een oneerlijke manier.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Daarom, dat was CPU-only toen.

Acties:
  • 0 Henk 'm!

Verwijderd

Jejking schreef op woensdag 20 juni 2012 @ 15:38:
Unreal 3 Engine? Kerel, je weet toch wel dat UE3 alle physics zelf voor z'n rekening neemt ipv ze uit te besteden aan iets als PhysX?
Unreal Engine 3’s physics engine is powered by NVIDIA’s PhysX
UE3 heeft PhysX geïntegreerd. Let wel, PhysX is een physics engine die zijn berekeningen zowel op de CPU als (deels) op de GPU kan doen. GPU-powered physics worden in de praktijk maar heel weinig gebruikt, voornamelijk omdat de markt zo klein is (alleen high-end Nvidia kaarten op de PC, niet op AMD kaarten en niet op de consoles) en het de investering dus zelden waard is. In de gevallen waar het wel gebruikt wordt, wordt dat nog wel eens gecompenseerd door een zak geld van Nvidia.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Sterker nog, het wordt altijd gecompenseerd met een zak geld van nVidia. Denk maar niet dat uitgevers PhysX integreren omdat het; zo goed werkt/nuttig is/mooi is. PhysX integreren kost namelijk geld en levert niks op. Daarnaast is het ook nog eens enkel en alleen voor ongeveer 50% van de PC gaming market. Dit is geen bijster grote markt. Al helemaal niet als PhysX games bijna altijd singelplayer games zijn die iedereen download omdat er niemand gek genoeg is om 40 euro te dokken voor een game die je binnen no-time hebt uitgespeeld.

nVidia lost het geld probleem voor een uitgever op door een uitgever geld te geven wanneer hun game PhysX gebruikt. Dit i.t.t. bijvoorbeeld Havok of Bullet Physics, als een uitgever hiervan gebruik wil maken zullen ze daarvoor moeten betalen.

PhysX is zo waardeloos en oneerlijk voor consumenten dat maar weinig uitgevers het gebruiken. Ze hebben zelf vaak betere alternatieve.
Werelds schreef op woensdag 20 juni 2012 @ 15:46:
Dit zijn het soort dingen waar ik een grafhekel aan heb, want het benadeelt gewoon een groot deel van de markt op een oneerlijke manier.
Ik ook, maar toen werd ik een fanboy genoemd.

[ Voor 10% gewijzigd door madmaxnl op 20-06-2012 19:47 ]


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Wat baal ik dat die 690 zo duur is, als het nou 600 euro was............... hopelijk komt het allemaal goed rond eind van het jaar!! :).. gezeur met TSMC.. alles blijft zo veel te duur

[ Voor 9% gewijzigd door A87 op 20-06-2012 22:43 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
TSMC is het maar deels schuld. Het is een samenhang van factoren. AMD en nVidia vinden de marges die ze nu pakken namelijk niet verkeerd.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op woensdag 20 juni 2012 @ 19:40:
[...]
Dit i.t.t. bijvoorbeeld Havok of Bullet Physics, als een uitgever hiervan gebruik wil maken zullen ze daarvoor moeten betalen.
[...]
Havok’s Intel® sponsored free binary-only PC download includes all of the standard features and functionality of the Havok Physics and Havok Animation SDKs and can be used during development to evaluate, prototype, and even commercially release any PC games sold for a retail value of $10.00 USD or less with no license required.
Bullet is a Collision Detection and Rigid Body Dynamics Library. The Library is Open Source and free for commercial use, under the ZLib license.
Havok is dus voor een beperkte groep gratis te gebruiken, Bullet Physics is voor iedereen gratis (zlib is een heel ruime licentie).

offtopic:
Fact checking is blijkbaar nogal moeilijk de laatste twee dagen. :X
madmaxnl schreef op woensdag 20 juni 2012 @ 19:40:
PhysX is zo waardeloos en oneerlijk voor consumenten dat maar weinig uitgevers het gebruiken. Ze hebben zelf vaak betere alternatieve.
GPU-powered physics is inderdaad zeldzaam, maar PhysX wordt vrij breed gebruikt via de CPU, o.a. dankzij de integratie in de veelgebruikte Unreal Engine 3. Het schrijven van eigen engines (physics of anderszins) is vrij zeldzaam, het is veel werk en er zijn prima alternatieven op de markt.

[ Voor 19% gewijzigd door Verwijderd op 20-06-2012 23:33 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hij is nogal goed om een heel verhaal op aannames te baseren en er dan proberen een serieuze conclusie uit te trekken. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ah shit, ik had het erbij moeten zetten anders tilt men er weer zo zwaar aan. Ik heb trouwens nooit gezegd dat mijn conclusies serieus zijn, leuke aannamen :+

[ Voor 4% gewijzigd door madmaxnl op 21-06-2012 00:42 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Jejking schreef op woensdag 20 juni 2012 @ 15:38:
Unreal 3 Engine? Kerel, je weet toch wel dat UE3 alle physics zelf voor z'n rekening neemt ipv ze uit te besteden aan iets als PhysX?
Kerel, metro, batman. Stuk voor stuk UR 3 engine's met nvidia physx door de GPU.
Net zoals deze benchmark die ook voor games in de toekomst zal worden gebruikt.

Het is verder indd niet eerlijk voor veel gebruikers met een andere kaart maar zo heeft AMD ook zijn
dingen die niet eerlijk zijn voor mensen met een nvidia kaart. Bvb cheaten in benchmarks,

[ Voor 20% gewijzigd door Verwijderd op 21-06-2012 12:16 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Verwijderd schreef op donderdag 21 juni 2012 @ 12:10:
[...]

Kerel, metro, batman. Stuk voor stuk UR 3 engine's met nvidia physx door de GPU.
Net zoals deze benchmark die ook voor games in de toekomst zal worden gebruikt.

Het is verder indd niet eerlijk voor veel gebruikers met een andere kaart maar zo heeft AMD ook zijn
dingen die niet eerlijk zijn voor mensen met een nvidia kaart. Bvb cheaten in benchmarks,
Achja, dat makers van games spul verkopen dat er minder goed uitziet op meer dan de helft van alle pc's moeten zij weten...

Acties:
  • 0 Henk 'm!

Verwijderd

Indd, maar zoals bij metro kun je het ook op de CPU laten doen en in die game mis je dan niets geloof ik.
In batman is dat weer een ander verhaal.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Mag ik hier even een stukje bewijs van?

Acties:
  • 0 Henk 'm!

Verwijderd

Ja hoor dat mag je wel even. Maar zelf had je er genoeg over kunnen vinden en dit zijn niet de éénige 2 op het internet.

http://www.atomicmpc.com....-quality-says-nvidia.aspx

http://www.guru3d.com/art...ge-quality-optimizations/

Ik bedoel maar dat beide bedrijven zo hun streken hebben. En dat de 1 daar door niet beter is dan de ander
wat eerlijk zijn betreft. Ook zijn ze dus geen heilig boontje wat velen wel denken. :o

[ Voor 21% gewijzigd door Verwijderd op 21-06-2012 12:55 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 21 juni 2012 @ 12:10:
[...]
Kerel, metro, batman. Stuk voor stuk UR 3 engine's met nvidia physx door de GPU.
Net zoals deze benchmark die ook voor games in de toekomst zal worden gebruikt.
En in beide gevallen dingen die zonder PhysX, met mindere performance hit op alle kaarten gedaan kunnen worden. Hoe geweldig ik beide Batman games ook vind, wat ze bij de eerste flikten heeft Rocksteady een minpuntje gegeven wat bij betreft. En het is UE3, niet UR3.
Het is verder indd niet eerlijk voor veel gebruikers met een andere kaart maar zo heeft AMD ook zijn
dingen die niet eerlijk zijn voor mensen met een nvidia kaart. Bvb cheaten in benchmarks,
Niet dat weer, asjeblieft zeg. Je leest heel Oost-Indisch over alles wat anderen zeggen heen hierboven en dan kom je weer met zoiets. Dat "cheaten" gebeurt al 20 jaar en doet elke fabrikant; zelfs Matrox deed er aan mee toen die nog iets betekenden voor games. Voor spNk: waarschijnlijk doelt hij weer op het aloude Quack 3 verhaal; ik kan net zo makkelijk wijzen op Crysis of Trackmania bijvoorbeeld (ik kies nou bewust twee relatief recente voorbeelden). Voor elke game waar een van de twee zoiets doet, kan ik er ook makkelijk een van de tegenpartij noemen. UT, HL, D3 hadden ook allemaal zulke dingen van beide kanten (zelfs 3DFX deed er bij 1 van deze drie aan mee dus dat zegt genoeg ;)), met name rond D3 was er natuurlijk wel wat gemekker :)


Feit is gewoon dat PhysX als physics engine inferieur is aan Havok en Bullet; die zijn allebei verder wat betreft daadwerkelijke physics - ze zijn ook qua performance een stuk beter, RF:G loopt veel soepeler dan menig PhysX "toonbeeld" ondanks het feit dat er veel meer en complexere berekeningen worden uitgevoerd. Vervolgens zijn er dan enkele dingen die wel GPU accelerated zijn (en nogmaals, dat is bij PhysX maar verdomd weinig), maar die in veel gevallen een spel ook tot een grote grap degraderen; neem bijvoorbeeld de particles in Mafia 2. Schiet jij maar eens in het echt met een 9mm op een pilaar van gewapend beton, ben benieuwd of je er dan ook 1000 stukjes ter grootte van een pingpong bal vanaf ziet springen. Ik kan je zeggen dat daar toch wel heel wat meer dan een 9mm voor nodig is. Dan zijn er nog dingen zoals de volumetric smoke in Batman, die in de praktijk niet zo goed uitziet als in hun demo filmpjes en sowieso probleemloos op de CPU kan lopen zonder al te veel verlies :)

Ik had Nvidia toen ze AGEIA overnamen en was toen niet onder de indruk, ik had Nvidia toen Mafia 2 uitkwam (en heb ook Batman: AA op Nvidia gespeeld) en was toen niet onder de indruk, ik heb nu Nvidia en ik ben nog steeds niet onder de indruk. Het is gewoon een waardeloos stuk bloatware en de zak geld die Nvidia deponeert verneukt sommige games voor de helft van de markt. Het enige voorbeeld waar PhysX iets deed dat andere engines wel voor elkaar kregen maar lang niet zo lekker lopend, is Cryostasis.

En nu ook weer, die "PhysX destruction" heb je geen PhysX voor nodig, andere games doen dat net zo goed (zo niet beter) zonder PhysX. Dat er verschillen tussen beide fabrikanten zitten, uiteraard. Dat ze allebei graag wat "optimalisaties" doorvoeren, uiteraard. Maar dit is gewoon bullshit van de bovenste plank en is niks minder dan gemoedwillig het spel slechter uit laten zien om maar makkelijk centen te verdienen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op donderdag 21 juni 2012 @ 13:07:
[...]

En in beide gevallen dingen die zonder PhysX, met mindere performance hit op alle kaarten gedaan kunnen worden. Hoe geweldig ik beide Batman games ook vind, wat ze bij de eerste flikten heeft Rocksteady een minpuntje gegeven wat bij betreft. En het is UE3, niet UR3.
Je bedoeld CPU?

Ik zelf vind PHYSX het toch wel meerwaarde geven aan die games want voor mij persoonlijk maakt het de game levendiger. Veel meer mensen vinden het de game toch mooier/levendiger maken :)

Wist je dat physx ook word gebruikt bij het ontwerpen van auto's, vliegtuigen en al dat soort meuk?

[ Voor 7% gewijzigd door Verwijderd op 21-06-2012 13:22 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ja. Kijk maar naar BF3 of RF:G, ze krijgen het allemaal klaargespeeld zonder PhysX en in beide gevallen lopen de spellen lekkerder dan vergelijkbare situaties met PhysX.

En ja, dat wist ik (je doelt waarschijnlijk op dingen als Siemens' Mechatronics of PCar voor 3DRAD). En nee, het grootste deel daarvan wordt niet op de GPU uitgevoerd. Delen wel, maar wederom draait het meeste gewoon op de CPU en kan Havok dat ook probleemloos aan.

Acties:
  • 0 Henk 'm!

Verwijderd

Klopt, je punt dat je er geen nvidia physx voor nodig bent is helemaal waar alleen zit het nu eenmaal in een aantal games. Ik vind het bvb er ook veel beter mooier uit zien in games als BF3 en crysis 2.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op donderdag 21 juni 2012 @ 13:33:
Ik vind het bvb er ook veel beter mooier uit zien in games als BF3 en crysis 2.
Ik snap deze zin niet.

Bedoel je: Ik vind BF3 en Crysis2 veel mooier uitzien dan PhysX games (Batman, Mafia2)
Of bedoel je: Ik vind PhysX games (Batman en Mafia2) veel mooier uitzien dan BF3 en Crysis2

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Ik bedoel daar de PHYSICS effecten mee in die games, het word daar ook veel meer in gebruikt dan in bvb batman. Maar batman ziet er bvb weer minder mooi/levendiger uit zonder PHYSX.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Maar dat is nu juist het punt Lupp. De enige reden daarvoor is die zak geld van Nvidia - alles wat je in Batman ziet kan volledig zonder PhysX. De stapels papier die onrealistisch exploderen als je teen ze raakt krijgen pas iets met PhysX te maken als ze beginnen te vallen; de rest is scripted (ook het omhoog vliegen na de explosie) en bij het vallen draait dat toch op de CPU (kijk maar eens naar de load als je het nog eens speelt). Hetzelfde geldt voor zo goed als alles in het spel; PhysX voegt niets toe in de zin dat het niet met dezelfde performance zonder PhysX kan. Die stapels papier zijn voor mij ook reden om het gewoon uit te zetten, want hoewel het op een cartoon is gebaseerd is het gewoon ronduit belachelijk hoe die dingen zich gedragen. Rocksteady's games hebben toch een iets realistischere look, maar zulke dingen passen alleen bij de Loony Tunes.

Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia herstelt pci express 3.0-ondersteuning socket2011-borden
nieuws: Nvidia herstelt pci express 3.0-ondersteuning socket2011-borden

Acties:
  • 0 Henk 'm!

Verwijderd

En het ziet er naar uit dat het ook nog een performance winst mee geeft pcie 2.0 vs 3.0.
(test van Visje66, een persoon die er echt niet mee gaat lopen trollen, benchmarker)

[ Voor 32% gewijzigd door Verwijderd op 22-06-2012 13:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Maar er zit wel winst in en in een benchmark kan dat al snel in punten oplopen.
Ik bedoel nu niet dat het ook noodzakelijk is om voor pcie 3.0 te gaan.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Tuurlijk, met LN2 de core naar 2ghz clocken en het geheugen ook een stuk, je loopt vanzelf in een bottleneck qua bandbreedte.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is niet echt een serieuze reactie, als je ziet dat het al gebeurd in 3dmark11 met 700 punten met normale klocks.

En wat nieuws
ZOTAC GTX 670 Extreme Edition gereed. Overklock tot 1400MHZ.
http://nl.hardware.info/n...70-extreme-edition-gereed

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op zaterdag 23 juni 2012 @ 13:16:
Dat is niet echt een serieuze reactie, als je ziet dat het al gebeurd in 3dmark11 met 700 punten met normale klocks.
Misschien had je dan even een link moeten geven naar het betreffende artikel/post?

Acties:
  • 0 Henk 'm!

  • Sn0wblind
  • Registratie: Januari 2003
  • Laatst online: 23-07 21:54
Verwijderd schreef op donderdag 21 juni 2012 @ 12:10:
[...]

Kerel, metro, batman. Stuk voor stuk UR 3 engine's met nvidia physx door de GPU.
Net zoals deze benchmark die ook voor games in de toekomst zal worden gebruikt.

Het is verder indd niet eerlijk voor veel gebruikers met een andere kaart maar zo heeft AMD ook zijn
dingen die niet eerlijk zijn voor mensen met een nvidia kaart. Bvb cheaten in benchmarks,
Metro2033 draait niet op de UR engine.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Sn0wblind schreef op zaterdag 23 juni 2012 @ 15:24:
[...]

Metro2033 draait niet op de UR engine.
UR? Unreal Engine? Is UE niet de gangbare afkorting?

[ Voor 14% gewijzigd door Olaf van der Spek op 23-06-2012 15:41 ]

Pagina: 1 ... 39 ... 43 Laatste