Toon posts:

[Algemeen] nVidia Nieuwdiscussie Topic - Deel 53 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 3 ... 7 Laatste
Acties:
  • 30.424 views

Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 263922 schreef op dinsdag 10 mei 2011 @ 01:55:
Voor de consument zou het enkel nadelig uit kunnen pakken als nVidia wegvalt, dat is geen situatie waar ik op zit te wachten iig.

Nu is het wel zo dat de kans op zo'n doemsituatie nihil is...
Ik denk dat die kans helemaal niet zo klein is. In deze markt kun je zo weg zijn.
Het is zeer de vraag of GPU's als grootste bron van inkomsten, een haalbare toekomst is voor nVidia.

Ik denk dat je vooral naar de big picture moet kijken.
De toekomst (die al begonnen is) is waarschijnlijk:
- een geintegreerde CPU + GPU die alles aan kan tot en met het EUR 150 a 200 GPU segment.
- phones/tablets met zo’n geintegreerde CPU + GPU die zo krachtig zijn dat het eigenlijk draagbare desktops zijn. Je hebt je programma’s en data altijd bij je en connect (wireless) met een keyboard en grotere monitor thuis, op je werk etc.

De x86 integrated markt komt nVidia nooit meer binnen en de markt voor upper midend , highend GPU’s (>E200) is ook weer niet zo groot.

De enige echt logische weg om een grote speler te blijven en misschien zelfs wel een veel grotere speler te worden is inderdaad om ARM CPU s te gaan ontwerpen en deze te combineren met hun GPU’s waar ze natuurlijk wel heel veel kennis hebben.

Met alles wat het laatste half jaar in het nieuws is gekomen is duidelijk te zien dat nVidia deze kant probeert op te gaan. En ik denk dat nVidia een bedrijf is, dat ondanks dat ze in ARM late to market zijn, een behoorlijke kans maakt om te slagen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
@ Toettoetdaan. Volgens mij heb je niet alles wat ik probeerde over te brengen correct geïnterpreteerd. Ik ben het met je eens dat het punt voorlopig wel genoeg is uitgekauwd.
madmaxnl schreef op dinsdag 10 mei 2011 @ 00:06:
[...]


Vraag is of ze op de lange termijn nog zelfs wel meedoen in het midden segment want AMD kan deze markt heel goedkoop en makkelijk weg jatten van nVidia. Dit kunnen ze doen door APUs welke net geen mid-end GPU huisvesten te combineren met een videokaart welke vervolgens de APU ondersteund waardoor een APU met net geen mid-end grafische kracht naar mid-end grafische kracht wordt getild. Bye bye nVidia.
Blijft high-end over maar als je geen mid en low-end markt hebt om de R&D van te betalen houd het al snel op.

nVidia kan dit voorkomen door heel sterk in de Quadro en Tesla markt te blijven maar in deze markten is GPGPU het belangrijkste en het is vooralsnog niet zeker of GPUs die eigenlijk speciaal voor GPGPU bedoelt zijn ook geschikt gaan zijn voor de consumenten markt.

Ze kunnen natuurlijk ook de mid-end markt in Intel systemen blijven aanspreken. Maar als een "all" AMD systeem veel goedkoper is, doordat alles en van één fabrikant komt en waarschijnlijk ondanks dit feit ook nog eens goedkoper is te krijgen is dan houd dat ook niet over, daarbij kan AMD gewoon heel scherp zijn qua prijs waardoor ze op die manier nVidia de markt uit duwen.

Het is natuurlijk nog lang niet zover. Maar de "APUs" van Intel alleen al blokkeren de low-end markt voor nVidia daarbij komt dat de APUs van AMD zelfs de mid-end markt voor nVidia in gevaar brengen en in de wordt het gevaarlijk voor nVidia.

1+1=3 want: meer orders, meer productie, lagere productie kosten, meer orders enzovoort.
Dit is een moeilijk te breken cyclus.
Doordat een fabrikant domineert gaat men in de industrie daar ook meer rekening mee houden i.v.m. programmeren wat de verkoop nog meer stimuleert. Dit kan men natuurlijk ook zelf stimuleren, zie TWIMTBP. Denk ook aan het SSE Intel schandaal welke AMD wel had maar niet werkte vanwege Intel.
Ik zie dit niet zo 1-2-3 gebeuren (dat wil uiteraard niet zeggen dat het niet kan) en als het wel gebeurd lijkt me een fusie van Intel en nVidia geen al te raar scenario. Daarnaast doet AMD het nog steeds niet al te best onder de gemiddelde consument.

[Voor 86% gewijzigd door Springstof op 10-05-2011 10:59]


Acties:
  • 0Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 02:52
Springstof schreef op dinsdag 10 mei 2011 @ 10:52:
Daarnaast doet AMD het nog steeds niet al te best onder de gemiddelde consument.
De gemiddelde consument boeit het geen drol wat er in zit.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 05-05 21:20
Noel schreef op dinsdag 10 mei 2011 @ 11:08:
[...]


De gemiddelde consument boeit het geen drol wat er in zit.
Ehm, de gemiddelde consument ziet Intel en denkt, oh dat ken ik. De gemiddelde consument ziet Nvidia en denkt, oh dat ken ik. De gemiddelde consument ziet AMD en denkt, huh?

Merkherkenning is erg belangrijk. Heeft iets te maken met heuristic cues en andere vage zooi waar ik ooit les over had.

Acties:
  • 0Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 26-05 15:46

Darkasantion

Just keep swimming!

Is ook een beetje gewoonte-aankopen. Ik koop altijd Merk X, dus ik blijf bij Merk X. Merk X wordt dat niet eens gekocht omdat die het beste is, maar omdat mensen gewend zijn die te kopen. Daarom zijn alle reclames voor bier en zo niet super succesvol, omdat de helft gewoon Amstel koopt omdat ze altijd Amstel kopen.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Samsung was vroeger een merk waarvoor je je schaamde, dat is in no-time veranderd. Als je naar de semiconductorslijst kijkt dan kun je goed zien hoe ze gegroeid zijn: Wikipedia: Semiconductor sales leaders by year

Acties:
  • 0Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 26-05 09:15
een geintegreerde CPU + GPU die alles aan kan tot en met het EUR 150 a 200 GPU segment.
Hoe realistisch is dit? Een 200 euro GPU combineren met een CPU en dat samen voor 100-150 euro?

De mensen die nu een losse videokaart kopen, is daarvan bekent waarom ze dat doen? Als ik bijv. kijk naar de afdeling waar ik gewerkt heb had iedereen minstens 1 videokaart omdat er met 2 of meer monitoren werd gewerkt.

Voor een gemiddelde consument is zo'n geïntegreerde GPU waarschijnlijk best handig maar hoe groot is die markt?

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Waar ikzelf mbt de markt al een tijdje op hoop is dat de OEM GPU's ( 5450, GT 220 (M), 5470M etc.)in staat zullen zijn om de nieuwste games op 1920x1080 op medium zonder AA en AF te spelen voor een interval van een jaar of twee na introductie van de GPU. Een logisch gevolg hiervan zou mijn inziens zijn dat het aantal PC gamers zal stijgen en daarmee ook meer zal worden gedaan aan de PC als gaming platform. Helaas is er momenteel helemaal niks (tot hoever ik het kan beoordelen) dat ook maar lijkt te hinten dat het betreffende in de nabije toekomst zal gebeuren. Zelfs niet nu de consoles ''verouderd'' zijn.

[Voor 12% gewijzigd door Springstof op 10-05-2011 16:27]


Acties:
  • 0Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 27-05 10:00
Marc Rademaker schreef op dinsdag 10 mei 2011 @ 11:27:
[...]

Ehm, de gemiddelde consument ziet Intel en denkt, oh dat ken ik. De gemiddelde consument ziet Nvidia en denkt, oh dat ken ik. De gemiddelde consument ziet AMD en denkt, huh?

Merkherkenning is erg belangrijk. Heeft iets te maken met heuristic cues en andere vage zooi waar ik ooit les over had.
Dit gebeurt inderdaad precies zo, het is zelfs zo erg dat mijn stiefvader die vrijwel niks over computers weet een laptop niet wilde kopen omdat er AMD in zat, en dat zou eerder stuk gaan dan Intel :F

Dit zal de komende tijd wel gaan veranderen, AMD wordt tegenwoordig steeds meer in OEM PC's geleverd en vooral het GPU gedeelte is voor veel mensen al vrij herkenbaar geworden, ik ben in ieder geval nog niemand tegen gekomen die dacht dat een Radeon eerder stuk zou gaan als een Nvidia (fanboys niet meegerekend O-) )

Acties:
  • 0Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 26-05 15:46

Darkasantion

Just keep swimming!

Springstof schreef op dinsdag 10 mei 2011 @ 16:23:
Waar ikzelf mbt de markt al een tijdje op hoop is dat de OEM GPU's in staat zullen zijn om de nieuwste games op 1920x1080 op medium zonder AA en AF te spelen voor een interval van een jaar of twee na introductie van de GPU. Dus zeg maar GPU's die vaak in OEM's zitten (daarmee doel ik op 5450, GT 220 (M), 5470M etc.). Een logisch gevolg hiervan zou mijn inziens zijn dat het aantal PC gamers zal stijgen en daarmee ook meer zal worden gedaan aan de PC als gaming platform. Helaas is er momenteel helemaal niks (tot hoever ik het kan beoordelen) dat ook maar lijkt te hinten dat het betreffende in de nabije toekomst zal gebeuren. Zelfs niet nu de consoles ''verouderd'' zijn.
No way dat dat gauw gaat gebeuren, wij eisen steeds realistischere graphics, die dus steeds sterkere hardware vereisen, dan kun je niet aan komen zetten met een ATi HDX450 of een Nvidia GTX20 zonder dat je daar na verloop van tijd de graphics (flink) omlaag moet gooien. Zeker omdat dat soort kaarten niet veel stroom mogen en kunnen verbruiken willen zij nog in een HTPC passen, of zonder externe stroomtoevoer kunnen.

[Voor 4% gewijzigd door Darkasantion op 10-05-2011 16:37]

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 20-04 23:26
Lieverds, jullie kijken naar de verkeerde data op het gebied van performance. Een IGP kan nooit tippen aan een 100+ euro videokaart om een hele simpele reden: bandbreedte. Een i7 2600 heeft 21GB/s aan bandbreedte. Zelfs de allergoedkoopste discrete kaarten hebben meer bandbreedte, laat staan alles boven de 100 euro. Dit is een probleem waar echt niet zomaar iets aan gedaan kan worden en zolang deze situatie bestaat zal een IGP nooit ook maar in de buurt komen van een 100 euro GPU, laat staan een 150-200 euro GPU zoals Help!!!! beweert.

Acties:
  • 0Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 26-05 15:46

Darkasantion

Just keep swimming!

Ja, maar gebruiken die kleine kaarten dan ook die volledige bandbreedte? Dunno...
Bovendien zit de GPU veel dichter op de CPU als het onder 1 cap zit, waardoor ie ook sneller dat van de CPU krijgt, wat ook wel in de prestaties te zien zal zijn.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op dinsdag 10 mei 2011 @ 16:37:
Lieverds, jullie kijken naar de verkeerde data op het gebied van performance. Een IGP kan nooit tippen aan een 100+ euro videokaart om een hele simpele reden: bandbreedte. Een i7 2600 heeft 21GB/s aan bandbreedte. Zelfs de allergoedkoopste discrete kaarten hebben meer bandbreedte, laat staan alles boven de 100 euro. Dit is een probleem waar echt niet zomaar iets aan gedaan kan worden en zolang deze situatie bestaat zal een IGP nooit ook maar in de buurt komen van een 100 euro GPU, laat staan een 150-200 euro GPU zoals Help!!!! beweert.
Bandbreedte van de kaarten die intern op een APU zitten is groter, de 21GB/s is naar chipset toe(?).
De communicatie van de GPU en de CPU zijn veel efficiënter en sneller als ze op één die zitten dan dat er nog een chipset tussen zit.

Dus stel je voor, een Llano APU met ongeveer 400 shader units die veel minder kost als een HD5670 + AMD Athlon II x4 640 maar wel veel sneller is. Deze kan bijvoorbeeld gecombineerd worden met een HD5670 of HD5770 etc, waardoor je flink wat GPU kracht in huis.

Enfin, de AMD APUs veranderen het hardware landschap radicaal. Over een paar jaar worden GPUs volop gebruikt d.m.v. GPGPU. Dit wordt door APUs flink gestimuleerd omdat AMD relatief sterke en capabele GPUs in hun APUs duwt welke gemeengoed worden wat nu doordat Intel crap levert niet het geval is. Maar Intel zal hierdoor ook sterke GPUs gaan leveren. Kijk naar de HD decodering die Intel GPUs al goed kunnen. Dat komt omdat ze de hete adem van nVidia en AMD voelen.

[Voor 16% gewijzigd door madmaxnl op 10-05-2011 17:11]


Acties:
  • 0Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Snoitkever schreef op dinsdag 10 mei 2011 @ 16:37:
Lieverds, jullie kijken naar de verkeerde data op het gebied van performance. Een IGP kan nooit tippen aan een 100+ euro videokaart om een hele simpele reden: bandbreedte. Een i7 2600 heeft 21GB/s aan bandbreedte. Zelfs de allergoedkoopste discrete kaarten hebben meer bandbreedte, laat staan alles boven de 100 euro. Dit is een probleem waar echt niet zomaar iets aan gedaan kan worden en zolang deze situatie bestaat zal een IGP nooit ook maar in de buurt komen van een 100 euro GPU, laat staan een 150-200 euro GPU zoals Help!!!! beweert.
Ik zou het woord "nooit" niet zo snel gebruiken.
Een vd dingen die je vergeet is dat de huidige CPU's voor 90% van de gebruikers al overkill zijn in relatie tot de apps die gebruikt worden. Het zou mij niet verbazen als het belang van de GPU in de totale diesize gaat toenemen. Zeker met toekomstige dieshrinks. Als er bandwith nodig is, zal die redelijk makkelijk gecreeerd kunnen worden.

Ieder mag er uiteraard het zijne van denken maar mijn visie is dat het dedicated GPU segment tot EUR 100 met de komst van de APU zeker wordt uitgeschakeld en het segment van 100 tot 200 een goede kans maakt om ook slachtoffer te worden.

In hoeverre er plaats is voor dedicated GPU's hangt voornamelijk af van de apps die er tzt zullen zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 27-05 10:06
Help!!!! schreef op dinsdag 10 mei 2011 @ 19:08:
[...]

Ik zou het woord "nooit" niet zo snel gebruiken.
Een vd dingen die je vergeet is dat de huidige CPU's voor 90% van de gebruikers al overkill zijn in relatie tot de apps die gebruikt worden. Het zou mij niet verbazen als het belang van de GPU in de totale diesize gaat toenemen. Zeker met toekomstige dieshrinks. Als er bandwith nodig is, zal die redelijk makkelijk gecreeerd kunnen worden.

Ieder mag er uiteraard het zijne van denken maar mijn visie is dat het dedicated GPU segment tot EUR 100 met de komst van de APU zeker wordt uitgeschakeld en het segment van 100 tot 200 een goede kans maakt om ook slachtoffer te worden.

In hoeverre er plaats is voor dedicated GPU's hangt voornamelijk af van de apps die er tzt zullen zijn.
Nooit is een woord dat je beter niet gebruikt in deze business, idd.

Maar als je naar de feiten kijkt;

Wat koop je voor € 100? Een HD 5770; een relatief klein, maar effectief chipje.
Een 5770, op 40 nm meet 166 mm². Een lynnfield (quadcore zonder IGP) op 45 nm meet 296 mm².

Oke, misschien zouden de twee de geheugencontroller kunnen delen. Gecombineerd kom je toch op een behoorlijk grote chip, waarvan ongeveer een derde wordt bezet door de IGP. Dat is nu minder dan een kwart als je naar de die shots van een i7-2600 kijkt. En dan zijn de Intel IGP's nog redelijk ineffectief vergeleken met de Grote Twee. Nog afgezien van het probleem met geheugen bandbreedte natuurlijk.

Er van uitgaande dat silicium real-estate de doorslaggevende factor voor de prijs van een CPU of GPU, denk ik niet dat we een verschuiving gaan zien naar €100 performance toe. Voor veel klanten van Intel zal een hele grote IGP op een CPU min of meer dead weight zijn, die wel degelijk op de prijs of marge drukt. Tegen dat gevaar is het makkelijk concurreren met een chip die zo 3x zo klein mag zijn, voor die mensen die wel graag iets meer video power willen gebruiken.

Misschien is het verhaal voor AMD net iets anders, omdat zij (waarschijnlijk) effectievere IGP's mee kunnen bakken op hun C(A)PU's, en gebruik kunnen maken van veel verder doorontwikkelde drivers.

Acties:
  • 0Henk 'm!

  • knoffy
  • Registratie: Januari 2011
  • Laatst online: 27-05 13:27

Nee dank je

[Voor 88% gewijzigd door Ed_L op 11-05-2011 00:07]


  • Hyperz
  • Registratie: Augustus 2009
  • Laatst online: 15-08-2021
ook niet

[Voor 95% gewijzigd door Ed_L op 11-05-2011 00:07]

Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD


  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 20-04 23:26
Darkasantion schreef op dinsdag 10 mei 2011 @ 16:40:
Ja, maar gebruiken die kleine kaarten dan ook die volledige bandbreedte? Dunno...
Bovendien zit de GPU veel dichter op de CPU als het onder 1 cap zit, waardoor ie ook sneller dat van de CPU krijgt, wat ook wel in de prestaties te zien zal zijn.
Ik gok dat minstens 95% van de data die een GPU nodig heeft vanuit geheugen komt, en hooguit een procent of 5 van de CPU. Dus dat zal het probleem niet oplossen. Bovendien, de data die vanaf de CPU komt komt daar ook weer uit geheugen en neemt dus nog steeds bandbreedte in (bij een IGP)

En als de low-end kaarten hun bandbreedte niet volledig (wat is "volledig" btw?) gebruiken zijn de chipmakers niet slim bezig want dan zouden ze dus met minder bandbreedte (langzamer geheugen, minder brede geheugeninterface) goedkoper uit zijn. Zoveel marge zit er niet op deze kaarten dus reken maar dat ze elke kans aangrijpen om te besparen.
madmaxnl schreef op dinsdag 10 mei 2011 @ 17:04:
[...]
Bandbreedte van de kaarten die intern op een APU zitten is groter, de 21GB/s is naar chipset toe(?).
De communicatie van de GPU en de CPU zijn veel efficiënter en sneller als ze op één die zitten dan dat er nog een chipset tussen zit.
De effectieve bandbreedte is juist veel kleiner. Die 21 GB/s is de bandbreedte voor dual-channel DDR3-1333 geheugen.
Het probleem is natuurlijk dat de CPU zelf die bandbreedte ook nodig heeft. Die 21GB/s wordt gedeeld door CPU en GPU en hoewel de meeste applicaties lang niet in de buurt komen van die limiet zijn juist games wel weer veeleisende applicaties. Dus zelfs een low-end GPU met een 128 bit bus naar DDR3 geheugen zal in de praktijk meer bandbreedte ter beschikking hebben dan een IGP.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op woensdag 11 mei 2011 @ 12:40:
De effectieve bandbreedte is juist veel kleiner. Die 21 GB/s is de bandbreedte voor dual-channel DDR3-1333 geheugen.
Het probleem is natuurlijk dat de CPU zelf die bandbreedte ook nodig heeft. Die 21GB/s wordt gedeeld door CPU en GPU en hoewel de meeste applicaties lang niet in de buurt komen van die limiet zijn juist games wel weer veeleisende applicaties. Dus zelfs een low-end GPU met een 128 bit bus naar DDR3 geheugen zal in de praktijk meer bandbreedte ter beschikking hebben dan een IGP.
Ja die 21 GB/s is specifiek voor de IMC. HT/QPI bandbreedte is dus anders.



Geheugen kan dus ook dedicated -via de northbridge worden- aangesloten waardoor via HT/QPI zoals bij IGPs die in de northbridge zitten het geval is. Een hybride vorm is dus ook mogelijk waardoor het systeem zelf kijkt wat het beste uit komt, zodat als de CPU de IMC niet aanspreekt de GPU de IMC naast de HT/QPI bus ook kan aanspreken voor geheugen(?).

[Voor 9% gewijzigd door madmaxnl op 11-05-2011 16:12]


  • albatross
  • Registratie: September 2006
  • Laatst online: 07-05 10:29
EDIT: heb post geplaatst in voedingen.

[Voor 96% gewijzigd door albatross op 13-05-2011 23:43]

i9 12900K | MSI Meg CoreLiquid S360 | ASUS ROG STRIX Z690-A GAMING WIFI D4 | G.Skill Trident Z Royal Elite 2x32GB 4266Mhz Gold | AORUS RTX 3080 Ti MASTER | Dark Power 12 850W | Samsung 980/860 EVO/970 Pro | Logitech Z-906 | Phanteks Evolv X | LG 32UK550


  • MikeVM
  • Registratie: Mei 2007
  • Laatst online: 10-05 19:53

MikeVM

- Baloo -

Ik zou graag een Surround Setup gaan installeren maar ik heb nog enkele vraagjes hierover.

huidige setup
1 x 24" Phillips 1920x1200
2x 20" Samsung 206BW 1680x1050
Nvidia 460 1GB
Nvidia GT210
900Watt Antec Voeding

voorlopig speel ik met SoftTH op drie schermen, maar het ziet er niet uit,
de verhouding van pixels komt niet overeen, daardoor zou ik over willen schakelen op "Nvidia Surround"

Kan ik huidige setup beter scalen dat het 1 groot vloeiend beeld is,
ga ik veel meer performance halen uit een extra 460 kaart?
zal ik het scalen van de drie resoluties beter kunnen met nvidia Surround?

ik zal straks eens een foto posten met mijn huidige setup, zodat je beter ziet wat ik bedoel

\\ Baloo \\ Mijn iRacing profiel


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 24-05 00:46
albatross schreef op woensdag 11 mei 2011 @ 19:22:
Ik wil graag een GTX 580 kopen. Specs als volgt (zie onder). Nou weet ik alleen niet of die Enermax Modu82+ 625W dat gaat trekken. Van iemand die de kaart heeft, hoorde ik dat je voeding maar 1x 12v rails mag hebben, en de mijn heeft triple. Beetje merkwaardig verhaal, eigenlijk.

Maar goed, als iemand ervaring heeft met deze combo van videokaart + voeding; of als je anderszins er iets meer over weet, dan hoor ik het graag.

Bij voorbaat dank.


---
Intel i7 980x | Scythe Mugen II | Asus P6X58D Premium | 6G HyperX | ASUS ENGTX285 | X-Fi Titanium | Logitech Z-5500 | 2x Caviar Black WD2001FASS | LG GGW-H20L Blu-ray rewriter | Enermax Modu82+ 625W | Lian Li PC-B25F | Dell 2707WFP
Dit is meer iets voor het aankopen topic of ergens bij voedingen, maar goed:
Wat diegene bedoelt is dat sommige voedingen meerdere 12v rails hebben, die ieder 250watt leveren, dan zet de fabrikant 750watt op de voeding. (Niet helemaal zo exact maar het komt er op neer)
Maar als je daar dus een kaart van 300watt op aansluit kan een enkele 12v rail dat niet aan en zal je kaart dus kuren vertonen of niet werken.
Terwijl een voeding van 750watt met slechts één rail dat wel zou kunnen.

Persoonlijk zou ik met zoon systeem sowieso minimaal een 750watt voeding aanraden, maar in jouw geval heb je wel een voeding van een goed merk, dus ik heb even de specificaties opgezocht.
Je voeding heeft in der daad drie 12v rails, maar wel ieder van 25amper. Dus per rail kun je 300watt trekken.
Waarschijnlijk zal je GPU een eigen rail hebben en ook nog eens 75 tot 150watt van het moederbord kunnen trekken, dus ik denk niet dat je problemen gaat krijgen.
Een B-merk zouw op jouw voeding een 1100watt stikker plakken xD

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
MikeVM schreef op donderdag 12 mei 2011 @ 12:34:
Ik zou graag een Surround Setup gaan installeren maar ik heb nog enkele vraagjes hierover.

huidige setup
1 x 24" Phillips 1920x1200
2x 20" Samsung 206BW 1680x1050
Nvidia 460 1GB
Nvidia GT210
900Watt Antec Voeding

voorlopig speel ik met SoftTH op drie schermen, maar het ziet er niet uit,
de verhouding van pixels komt niet overeen, daardoor zou ik over willen schakelen op "Nvidia Surround"

Kan ik huidige setup beter scalen dat het 1 groot vloeiend beeld is,
ga ik veel meer performance halen uit een extra 460 kaart?
zal ik het scalen van de drie resoluties beter kunnen met nvidia Surround?

ik zal straks eens een foto posten met mijn huidige setup, zodat je beter ziet wat ik bedoel
Ik zou hier voor een apart topic aanmanken of vragen in het nvidia 400 series topic.
Voor surround ben je sli nodig met 2 dezelfde kaarten.

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Anoniem: 304087 schreef op maandag 09 mei 2011 @ 16:55:
Oggg ook vast nog wel in de gpu markt voor desktops.
Jazeker, Kepler en Maxwell zullen tussen nu en 2013 verschijnen.

Niet op voorraad.


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
edward2 schreef op donderdag 12 mei 2011 @ 14:31:
[...]


Jazeker, Kepler en Maxwell zullen tussen nu en 2013 verschijnen.
Punt wat ik hierover wel heb aangehaald is dat ze nog meer op GPGPU toegespitst zullen zijn.Het is dus nog maar de vraag hoe de performance in games gaat zijn. I.i.g. verliest nVidia op deze manier wel de console design wins want GPGPU is daarin totaal niet van belang. Het mogen bakken van de GPUs voor consoles is voor ATI/AMD en nVidia wel heel belangrijk want;

1). Dit zorgt ervoor dat de R&D kosten over een heel erg grote order kan worden verdeeld.
2). Games zullen beter geoptimaliseerd zijn voor de GPUs(architectuur/merk) die gebruikt zijn in de console met als gevolg dat ze ook beter lopen op de GPUs(met zelfde soort architectuur/merk) op de computer.
3). In het geval van AMD kan het GF een grote klant bezorgen d.m.v. vriendjes politiek en voordelige prijzen te hanteren als de chips die Sony, Microsoft en of Nintendo bij GF laat bakken. Indirect is dit voor AMD bijvoorbeeld heel erg voordelig want AMD is afhankelijk van GF m.b.t. productie, R&D(budget) en natuurlijk eigen aandelen belang.

In zekeren zin hoeft AMD op zijn console GPU verkoop niet eens financiële winst te maken om er toch voordeel bij te hebben.

GPGPU is voor nVidia zeker iets waar het veel op inzet net zoals ARM nu maar hoe dit uit gaat pakken is allerminst zeker.

Acties:
  • 0Henk 'm!

  • PatrickH89
  • Registratie: November 2009
  • Laatst online: 26-05 16:10
madmaxnl schreef op donderdag 12 mei 2011 @ 20:43:
[...]


Punt wat ik hierover wel heb aangehaald is dat ze nog meer op GPGPU toegespitst zullen zijn.
Waar heb je dit vandaan dan? Het lijkt me dat NVIDIA echt wel een herhaling wil van de 8800 serie (met een goede underfill :P).

(Gedeeltelijk) toegespitst op GPGPU is niet heel erg goed uitgepakt lijkt me (GTX480).

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Nvidia posts $962 million revenue, record Tegra sales for Q1 FY 2012
The first quarter of its fiscal year 2012 (the three-month period ended May 1st) has seen Nvidia do a little better than expected, making sales of $962 million (up 8.4% sequentially but down 4% on-year) and posting a net income of $135.2 million, or $0.22 per diluted share.

http://www.tcmagazine.com...rd-tegra-sales-q1-fy-2012
PatrickH89 schreef op vrijdag 13 mei 2011 @ 10:19:
[...]


Waar heb je dit vandaan dan? Het lijkt me dat NVIDIA echt wel een herhaling wil van de 8800 serie (met een goede underfill :P).

(Gedeeltelijk) toegespitst op GPGPU is niet heel erg goed uitgepakt lijkt me (GTX480).
Inderdaad nvidia laat de gamers voor de pc echt niet zo maar links liggen. Tot nu toe heeft nvidia dat ook nog niet gedaan. Ze hebben prima gaming kaartjes tot nu toe gemaakt en dat zal ook zo blijven. Omdat er toevallig wat meer nadruk op gpgpu word gelecht betekend dat niet dat het gamen op de pc er minder door word qwa performance. Zie gtx460, gtx560ti en de echte high end kaaten gtx570 en gtx580 en gtx590.
Allemaal stuk voor stuk top kaarten voor de echte gamers. Ik verwacht dat de kepler nog beter uit gaat pakken voor ons gamers.

[Voor 49% gewijzigd door Anoniem: 304087 op 13-05-2011 10:54]


Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Anoniem: 304087 schreef op vrijdag 13 mei 2011 @ 10:50:
Inderdaad nvidia laat de gamers voor de pc echt niet zo maar links liggen. Tot nu toe heeft nvidia dat ook nog niet gedaan. Ze hebben prima gaming kaartjes tot nu toe gemaakt en dat zal ook zo blijven. Omdat er toevallig wat meer nadruk op gpgpu word gelecht betekend dat niet dat het gamen op de pc er minder door word qwa performance. Zie gtx460, gtx560ti en de echte high end kaaten gtx570 en gtx580 en gtx590.
Allemaal stuk voor stuk top kaarten voor de echte gamers. Ik verwacht dat de kepler nog beter uit gaat pakken voor ons gamers.
Daar hebben ze gpGPU juist weer verder uit gehaald. Kijk naar de GTX 480, te laat, te heet, te langzaam, niet op de specificaties. De 5 seri hebben ze juist weer er dingen uit gemaakt om het voor gaming interessanter te maken.

Acties:
  • 0Henk 'm!

Anoniem: 263922

Anoniem: 134818 schreef op vrijdag 13 mei 2011 @ 11:01:
[...]

Daar hebben ze gpGPU juist weer verder uit gehaald. Kijk naar de GTX 480, te laat, te heet, te langzaam, niet op de specificaties. De 5 seri hebben ze juist weer er dingen uit gemaakt om het voor gaming interessanter te maken.
Er zijn optimalisaties uitgevoerd, er is niks uit de gpu gesloopt.
In principe is het nog steeds dezelfde gpu, dat de gf110 full-spec is ligt voor een deel ook aan het productieprocedé wat nu een stuk volwassener is dan tijdens de gf100

Acties:
  • 0Henk 'm!

Anoniem: 245699

Ik ben toch wel benieuwd wat Nvidia met de prijs gaat doen van dit kaartje... Feitelijk is het een overclockte GTX460 1gb welke waarschijnlijk iets duurder gaat zijn, maarja, als je ziet dat de HD6870 nu ook al is gezakt naar minimaal 140,- en de HD6850 naar ~130,- wordt het knap lastig om hiermee te concurreren.

Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 263922 schreef op vrijdag 13 mei 2011 @ 14:27:
[...]


Er zijn optimalisaties uitgevoerd, er is niks uit de gpu gesloopt.
In principe is het nog steeds dezelfde gpu, dat de gf110 full-spec is ligt voor een deel ook aan het productieprocedé wat nu een stuk volwassener is dan tijdens de gf100

"One place where the GF104's SM is less capable is double-precision math, a facility important to some types of GPU computing but essentially useless for real-time graphics. Nvidia has retained double-precision support for the sake of compatibility, but only one of those 16-wide ALU blocks is DP-capable, and it processes double-precision math at one quarter the usual speed. All told, that means the GF104 is just 1/12 its regular speed for double-precision."


Bron

GF104 is dus een goed voorbeeld waarin nVidia dus aanpassingen heeft gedaan ten faveure van de game performance(t.o.v. GF100).

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Nvidia shows new GTX 560 running Duke Nukem Forever in 3D
http://www.techspot.com/n...-nukem-forever-in-3d.html

Kan denk ik nog wel een intresant kaartje worden voor mesnen met een niet zo groot budget

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Duke Nukem Forever is een game die het zeker niet moet hebben van zijn grafische pracht en praal. De game is bij wijzen van spreken grafisch al een decennia oud ;) Niet echt goed om een videokaart zijn potentie en of kracht mee te meten. Noch zijn de andere games hiervoor geschikt. Hij had net zo goed een GTX590 in het filmpje kunnen pakken want hij heeft geen woord gerept over de prijs, typisch.

Die olie op de grond waar de nVidia medewerker zo trots op is kan volgens hem alleen maar gerendered worden omdat er PhysX aanwezig is, maar.

*knip*

[Voor 32% gewijzigd door Kid Jansen op 15-05-2011 19:31. Reden: trollen doe je maar lekker ergens anders, niet op GoT]


Anoniem: 263922

madmaxnl schreef op vrijdag 13 mei 2011 @ 18:37:
[...]


GF104 is dus een goed voorbeeld waarin nVidia dus aanpassingen heeft gedaan ten faveure van de game performance(t.o.v. GF100).
Ik doelde dan ook alleen maar op de gf100, het hele gebeuren bij de gf104 tov de gf100 is mij bekend.
Mijn reactie was duidelijk zat imo (zie de quote) ;)

[Voor 7% gewijzigd door Anoniem: 263922 op 14-05-2011 19:16]


Acties:
  • 0Henk 'm!

  • Resinman
  • Registratie: September 2001
  • Laatst online: 27-05 19:48

Acties:
  • 0Henk 'm!

  • epic_gram
  • Registratie: April 2010
  • Laatst online: 23:23

epic_gram

undercover moderator

Dat is echt een hele verstandige keuze van nVidia, en het verbaast me ook eigenlijk. Ze hadden het probleem nog niet eens toegegeven maar hebben nu wel een oplossing. Dergelijke problemen hoor je IMO niet op te lossen door OCP maar door een compleet herontwerp van het PCB. Ze pakken het probleem hiermee echt bij de wortel aan. Ik hoop ook dat nVidia nu leert voor de volgende generatie graka's en de stroomvoorziening iets beter aan gaan pakken. Goede stap van ze. :)

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


Acties:
  • 0Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
'Raar, er was toch niks mis met de GTX590?' Maar toch gooien ze er een revisie tegenaan, typisch. Het is i.i.g. een indicatie dat 28nm nog wel even op zich laat wachten want anders was dit totaal niet rendabel geweest.

Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
prima toch hun oude kaarten was opzich niets mis mee, maar het kon gewoon beter. Er zijn sinds die driver fix niet meer echt gevallen van bekend maar als het beter kan dan doen ze dat blijkbaar. Goede actie in mijn ogen! Aangezien het hier om een high end kaart gaat mogen ze er best wat aan doen om die ook het beste van het beste te maken!

Acties:
  • 0Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 24-05 00:46
Jasper 99 schreef op zondag 15 mei 2011 @ 22:28:
prima toch hun oude kaarten was opzich niets mis mee, maar het kon gewoon beter. Er zijn sinds die driver fix niet meer echt gevallen van bekend maar als het beter kan dan doen ze dat blijkbaar. Goede actie in mijn ogen! Aangezien het hier om een high end kaart gaat mogen ze er best wat aan doen om die ook het beste van het beste te maken!
Dat is zo als je niet wil overclocken ;)

Ik ben blij met deze keuze van Nvidia, zo krijgt die GTX590 voor mij toch een waardig bestaan :)

Acties:
  • 0Henk 'm!

Anoniem: 263922

Idd, ze moesten wel om de hd6990 te beconcurreren, maar ze hadden die kaart gewoon niet moeten onderschatten...

Wel fijn dat ze hun 'fouten' rechtzetten, maar van mij mogen ze het de volgende keer in één keer goed doen.

Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
Toettoetdaan schreef op maandag 16 mei 2011 @ 08:43:
[...]

Dat is zo als je niet wil overclocken ;)

Ik ben blij met deze keuze van Nvidia, zo krijgt die GTX590 voor mij toch een waardig bestaan :)
Als ik het goed begrijp kan je alleen niet meer te ver overvolten, ie 1.2V is toch niet zo gek dat het daar fout zou gaan? Ik zet mijn 580 ook niet verder dan 1.15V moet hem bios unlocken voordat ik verder kan. Dat zijn ze volgens mij gewoon vergeten toen bij die 590. Maar ze zijn nog wel over te clocken naar mijn inziens je komt alleen iets minder ver. Los daarvan zal de pcb wel niet optimaal zijn geweest anders hadden ze nooit de moeite genomen om hem te veranderen, maar dat ze het wel doen vindt ik een goede actie zo kunnen ze daadwerkelijk de titel beste kaart krijgen (leuk zou zijn als ze er 580 stock clocks op zetten bij deze versie :P )

Acties:
  • 0Henk 'm!

  • jj71
  • Registratie: Maart 2005
  • Laatst online: 14-04 20:50
madmaxnl schreef op zondag 15 mei 2011 @ 20:12:
'Raar, er was toch niks mis met de GTX590?' Maar toch gooien ze er een revisie tegenaan, typisch. Het is i.i.g. een indicatie dat 28nm nog wel even op zich laat wachten want anders was dit totaal niet rendabel geweest.
Zoals in het Tweakers nieuwsartikel genoemd wordt was er toch een mogelijk probleem met de stroomvoorziening van de GPU's op de eerste GTX 590's, waardoor ze kapot konden gaan als je ze te hard liet werken of ging overclocken? Daar wordt nu wat aan gedaan.

Mooi, want ik ben wat plannen aan het maken voor een nieuwe computer en door dit probleem was ik een beetje huiverig voor de GTX 590.

Ik vraag me wel af hoe we dan in de winkel kunnen zien of het een oude of nieuwe GTX 590 betreft.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Als je normaal met de gtx590 om gaat is er niets aan de hand maar als je ging overvolten dan konden de vrams het niet aan geloof ik? Deze vrams zullen denk ik vervangen worden door betere vrams.
Als ze dan toch bezig zijn laat ze dan ook gelijk de kaart wat groter maken voor een betere koeling.

Acties:
  • 0Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 27-05 10:00
Anoniem: 304087 schreef op maandag 16 mei 2011 @ 15:57:
Als je normaal met de gtx590 om gaat is er niets aan de hand maar als je ging overvolten dan konden de vrams het niet aan geloof ik? Deze vrams zullen denk ik vervangen worden door betere vrams.
Als ze dan toch bezig zijn laat ze dan ook gelijk de kaart wat groter maken voor een betere koeling.
Het lag niet aan het vram (=VideoRAM) maar aan de VRM's (misschien bedoelde je dit ook wel?)
Het probleem is dat de stroomvoorziening het maar net aan kan op stock clocks en bij zelfs een milde overclock kan het zijn dat het teveel wordt voor de kaart waardoor hij doorbrand.

Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
De VRM ging/gaat inderdaad naar de haaien bij de eerste versie van de GTX590. Dat heeft verder weinig te maken met het op 1.2V zetten van die VRM's. Volgens de specs die in een eerder draadje wel eens naar voren waren gekomen en op een andere site terug te vinden waren in vorm van een product-sheet, kunnen de VRM's prima op 1.2V werken (1.1V is de default waarbij je wat omhoog danwel naar beneden kunt.)

Het probleem zat hem erin dat de VRM's samen amper genoeg watt kunnen leveren om de kaart van stroom te voorzien. Het is dusdanig beperkt, dat problemen snel de kop op kunnen steken bij overklokken/volten.

Acties:
  • 0Henk 'm!

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Redblader schreef op maandag 16 mei 2011 @ 16:15:
[...]


Het lag niet aan het vram (=VideoRAM) maar aan de VRM's (misschien bedoelde je dit ook wel?)
Het probleem is dat de stroomvoorziening het maar net aan kan op stock clocks en bij zelfs een milde overclock kan het zijn dat het teveel wordt voor de kaart waardoor hij doorbrand.
Ik bedoelde indd de VRM's bedankt voor het recht zetten ;)

Acties:
  • 0Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:32

Format-C

Rays aan het Tracen

Nou ja. Dat hebben ze iig opgelost. Dus de tweakers die zo'n nieuwe kaart kopen kunnen hem nog flink opvoeren. :)

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online

Acties:
  • 0Henk 'm!
Iets trager dan een HD6870 dus, maar wel 20/30 euro duurder voorals nog... Vindt het altijd maar raar dat als nVidia kaarten lanceert die later dan de concurrentie komen ze hem niet met een concurrerende prijs lanceren maar een te hoge prijs gaan vragen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
beter lees je wel even voordat je post, er staat iets sneller dan een HD6870 dus niet iets trager. En prijs moet nagenoeg hetzelfde zijn (het is nog wachten op wat andere merken doen.)

[Voor 14% gewijzigd door Jasper 99 op 17-05-2011 20:24]


Acties:
  • 0Henk 'm!
Ik lees wel goed, heel goed zelfs, daarom een HD6870 is iets sneller. Dat HWI weer op iets anders komt dan de rest zegt niks over de GTX560 maar alles over HWI. Review van HWI bevat ook weer eens mooi wat fouten...

[Voor 14% gewijzigd door -The_Mask- op 17-05-2011 21:00]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Overigens wordt er gelinkt naar toevallig die ene game in de HWI test waar de GTX560 er wel heel erg positief uit springt. Door de tang genomen verliest de GTX560 zelfs bij HWI redelijk wat game-benchmarks. Als je dan ook nog een test van bv Anandtech erbij trekt, dan zie je dat de HD6870 toch wel erg vaak net eventjes dat beetje extra heeft.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
-The_Mask- schreef op dinsdag 17 mei 2011 @ 19:58:
Iets trager dan een HD6870 dus, maar wel 20/30 euro duurder voorals nog... Vindt het altijd maar raar dat als nVidia kaarten lanceert die later dan de concurrentie komen ze hem niet met een concurrerende prijs lanceren maar een te hoge prijs gaan vragen.
Wat een slecht onderbouwde claim en dat komt omdat reviews geen 95% betrouwbaarheidsinterval weergeven. Met jouw conlusie ben je dus op zijn minst dus net zo belachelijk als HWI bezig.
dahakon schreef op dinsdag 17 mei 2011 @ 21:34:
Overigens wordt er gelinkt naar toevallig die ene game in de HWI test waar de GTX560 er wel heel erg positief uit springt. Door de tang genomen verliest de GTX560 zelfs bij HWI redelijk wat game-benchmarks. Als je dan ook nog een test van bv Anandtech erbij trekt, dan zie je dat de HD6870 toch wel erg vaak net eventjes dat beetje extra heeft.
Neen:
As has been the case with most of the GTX 500 series and Radeon HD 6000 series launches, when the cards are close, it’s only close on average. In this case the GTX 560 Mid is similar in performance to the Radeon HD 6870 on average, but this is because the two are constantly swapping for first place, and the difference between the two is quite dramatic at times. On average the GTX 560 Mid is ahead of the 6870 by just enough to justify its $200 price tag relative to the 6870’s price
Aldus Anandtech.

[Voor 47% gewijzigd door Springstof op 17-05-2011 21:48]


Acties:
  • 0Henk 'm!

  • Ed_L
  • Registratie: Januari 2006
  • Laatst online: 27-05 16:53

Ed_L

Crew Council
Ik wil de discussie over dat betrouwbaarheidsinterval hier niet nog een keer voeren...

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Ed_L schreef op dinsdag 17 mei 2011 @ 21:48:
Ik wil de discussie over dat betrouwbaarheidsinterval hier niet nog een keer voeren...
Maar dat kun je met dergelijke kleine verschillen niet claimen dat de 1 sneller dan de ander is. Iets wat Mask wel doet. Dus het is verboden om aan te geven dat iemand het verkeerd heeft?

Acties:
  • 0Henk 'm!
Springstof schreef op dinsdag 17 mei 2011 @ 21:46:
[...]

Wat een slecht onderbouwde claim en dat komt omdat reviews geen 95% betrouwbaarheidsinterval weergeven.
Niet die onzin weer.... Lees dan gewoon eens wat reviews dan zie je zelf dat een HD6870 over het algemeen iets sneller is. Zie bijvoorbeeld Techpowerup en Computerbase, die hebben altijd een mooi gemiddelde.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
En het is onzin omdat?
Lees dan gewoon eens wat reviews dan zie je zelf dat een HD6870 over het algemeen iets sneller is. Zie bijvoorbeeld Techpowerup en Computerbase,
Techpowerup lees ik door al vaker aangehaalde redenen sowieso niet. Althans het samenvattingsgedeelte niet
die hebben altijd een mooi gemiddelde.
Zegt niet veel.

Acties:
  • 0Henk 'm!
Gemiddelde zegt niet veel maar linken naar DiRT, waar nVidia veel beter in is dus wel?
Techpowerup lees ik door al vaker aangehaalde redenen sowieso niet.
Dus omdat hun gemiddelde altijd goed overeen komt met andere goede site's zoals Computerbase kijk je maar niet naar Techpowerup.

[Voor 55% gewijzigd door -The_Mask- op 17-05-2011 21:57]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
:? Ik claim dan ook niet dat de betreffende link veel zegt.
Dus omdat hun gemiddelde altijd goed overeen komt met andere goede site's zoals Computerbase kijk je maar niet naar Techpowerup.
Nee, dat komt niet daarom. Zoek mijn post er maar over terug als je het niet meer weet. Ik denk niet dat we die discussie hier opnieuw moeten voeren.

[Voor 72% gewijzigd door Springstof op 17-05-2011 21:59]


Acties:
  • 0Henk 'm!

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Jasper 99 schreef op dinsdag 17 mei 2011 @ 20:23:
beter lees je wel even voordat je post, er staat iets sneller dan een HD6870 dus niet iets trager. En prijs moet nagenoeg hetzelfde zijn (het is nog wachten op wat andere merken doen.)
Je weet dat ze appels met peren vergelijken?

Quote van hwi.
De ENGTX560 DirectXU II Top werkt standaard op flink hogere snelheden dan wat nVidia voor de GeForce GTX 560 voorschrijft: 925 MHz voor de GPU in plaats van 800 MHz en 1050 MHz voor het geheugen in plaats van 1000 MHz. Dat is een overklok van 15% respectievelijk 5%, waardoor je mag verwachten dat de kaart in praktijk zo'n 10% sneller zal een standaard GeForce GTX 560.
Uit onze benchmarks blijkt dat beide kaarten nagenoeg even snel zijn: nVidia is met 1,15% verschil de nipte winnaar.
850(hun geteste kaart) vs 810 (standaard kaart) = ~5% sneller. Dus die 1.15% kan je wel weg strepen.

[Voor 24% gewijzigd door Anoniem: 134818 op 17-05-2011 22:17]


Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 134818 schreef op dinsdag 17 mei 2011 @ 22:12:
[...]

Je weet dat ze appels met peren vergelijken?

Quote van hwi.

[...]


850(hun geteste kaart) vs 810 (standaard kaart) = ~5% sneller. Dus die 1.15% kan je wel weg strepen.
Om een beeld te krijgen van de standaard prestaties van de GeForce GTX 560 hebben we de ASUS kaart teruggeklokt naar de standaard klokfrequenties: 800 MHz voor de GPU en 1000 MHz voor het geheugen.
Aldus HWI...

NB: in games (van die review uiteraard) zal dat gemiddeld verschil meer in het voordeel van nVidia zijn. Immers, 3DMark en Heaven staan er ook tussen. nVidia verliest meer in 3DMark dan AMD in Heaven.

[Voor 16% gewijzigd door Springstof op 17-05-2011 22:21]


Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Niets neen. Vergelijken met de mid. Fout dus. Vergelijken met de base. Vergelijken met de kaart met clocks zoals nVidia de kaart officieel op de markt brengt. Anders hadden ze namelijk ook 'mid's' en oc's van de HD6870 erbij moeten pakken.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op dinsdag 17 mei 2011 @ 22:54:
[...]Niets neen. Vergelijken met de mid. Fout dus. Vergelijken met de base. Vergelijken met de kaart met clocks zoals nVidia de kaart officieel op de markt brengt. Anders hadden ze namelijk ook 'mid's' en oc's van de HD6870 erbij moeten pakken. Anders hadden ze namelijk ook 'mid's' en oc's van de HD6870 erbij moeten pakken.
Goed dat je me hierop wijst, want hier had ik me op verkeken. Althans na het globaal doornemen van de review is het me nog steeds niet duidelijk waar Anandtech nou exact op doelt met mid. Al heb ik wel een idee.
Daarnaast: die fictieve 6870 mid zou volgens jou moeten lopen op? Hoeveel procent scheelt dat bij 100% schaling van de 'hogere' kloksnelheden?

Acties:
  • 0Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 04-08-2022
Springstof schreef op dinsdag 17 mei 2011 @ 23:25:
Goed dat je me hierop wijst, want hier had ik me op verkeken. Althans na het globaal doornemen van de review is het me nog steeds niet duidelijk waar Anandtech nou exact op doelt met mid. Al heb ik wel een idee.
Daarnaast: die fictieve 6870 mid zou volgens jou moeten lopen op? Hoeveel procent scheelt dat bij 100% schaling van de 'hogere' kloksnelheden?
Een HD6870 mid zou bijvoorbeeld op 940MHz kunnen lopen. Dat is bijna 5% meer. De OC versie zou dan op 990MHz kunnen draaien, zo'n 10% meer. Deze varianten zijn in de pricewatch terug te vinden en daarmee dus ook prima hanteerbaar in een dergelijke review.

Acties:
  • 0Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
dahakon schreef op dinsdag 17 mei 2011 @ 23:34:
[...]


Een HD6870 mid zou bijvoorbeeld op 940MHz kunnen lopen. Dat is bijna 5% meer. De OC versie zou dan op 990MHz kunnen draaien, zo'n 10% meer. Deze varianten zijn in de pricewatch terug te vinden en daarmee dus ook prima hanteerbaar in een dergelijke review.
Als je naar de pricewatch kijkt. Eerder: 915 MHz (dat is ongeveer het gemiddelde als ik het zo even snel uit mn hoofd bereken), wat dus slechst 1.5%; het gemiddelde van alle overklokmodellen is slechts 3% extra... Ik ben het wel met je eens dat het er wel in had gemoeten voor een zo goed mogelijke vergelijking.
Maar weet je op welke snelheid de mid 560 van Anand nou precies loopt en waarom hij op die snelheid loopt? Als ik de text snel scan zie ik het nergens expliciet staan, maar het kan natuurlijk dat ik niet goed heb gekeken. :?

[Voor 27% gewijzigd door Springstof op 17-05-2011 23:59]


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

edit: is al gezegd, en ik lees dermate slecht dat ik naar bed ga. 8)7 ik wil een post-verwijder-feature

[Voor 118% gewijzigd door bwerg op 18-05-2011 00:23]

Heeft geen speciale krachten en is daar erg boos over.


Anoniem: 245699

Ach, zolang de GTX560 niet naar ~150-160,- gaat is ie toch sowieso niet zo interessant. Een discussie over sneller of langzamer dan de HD6870 ga ik niet aan beginnen, dus ik zeg bij voorbaat al dat het redelijk gelijk spel is, maar door een prijs van 20-30 euro minder is die kaart nu natuurlijk veel interessanter. Ben erg benieuwd naar welk prijsniveau de GTX560 gaat dalen, want op ~170/180 euro heeft de kaart weinig kans van slagen...

En dat heeft o.a. ook te maken met de Gigabyte GTX560Ti @ 900Mhz voor 175,-
-> pricewatch: Gigabyte GV-N560OC-1GI

[Voor 18% gewijzigd door Anoniem: 245699 op 18-05-2011 01:16]


  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
Mij lijkt 140-150 redelijker. wie koopt nou een 560 voor 170 als je een 560ti voor 5 euro meer kan krijgen.

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 245699 schreef op woensdag 18 mei 2011 @ 01:14:
Ach, zolang de GTX560 niet naar ~150-160,- gaat is ie toch sowieso niet zo interessant. Een discussie over sneller of langzamer dan de HD6870 ga ik niet aan beginnen, dus ik zeg bij voorbaat al dat het redelijk gelijk spel is, maar door een prijs van 20-30 euro minder is die kaart nu natuurlijk veel interessanter. Ben erg benieuwd naar welk prijsniveau de GTX560 gaat dalen, want op ~170/180 euro heeft de kaart weinig kans van slagen...

En dat heeft o.a. ook te maken met de Gigabyte GTX560Ti @ 900Mhz voor 175,-
-> pricewatch: Gigabyte GV-N560OC-1GI
Dat is wmb niet zo zwart op wit. De overklokuitvoeringen kunnen best de meerprijs waard zijn, zoals Anandtech volgens mij ook aangeeft. Alleen komt de concurrent in Nederldand voor dergelijke overklokuitvoeringen niet uit de stal van AMD, maar is het (zoals je oa aangeeft) een overklokeditie van de GTX 560 1 GB Ti. Die overigens ook veel 6950 AMD uitvoeringen overbodig maakt.

  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
Er zijn altijd mensen die zo'n kaart kopen. Geen getallen maar ik denk dat nvidia er genoeg van verkoopt.

  • Biff
  • Registratie: December 2000
  • Laatst online: 26-02-2018

Biff

waar zijn de visjes

Ze zijn zowat allemaal factory overclocked, prestaties zijn stuivertje wisselen met de 6870, en sommige mensen betalen wel wat extra voor het Nvidia ecosysteem, dus waarom niet?

Yeah well. The Dude abides.


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Ik ben van plan om eind deze zomer een nieuwe GPU te halen, ter gelegenheid van Battlefield 3 :)
Zal waarschijnlijk een GTX 560 TI worden, of misschien iets sneller als dat al beschikbaar is.

Wat dat betreft, kunnen we een nieuwe generatie GPUs verwachten rond de "Back to School" periode? Of moeten we weer wachten tot eind dit jaar?

Ook een andere vraag, ik heb nu een SLI setup van 2x 8800GTS G92. Die dingen zijn geen drol meer waard, dus ik denk dat ik 1 ga houden voor mijn LANpc en eentje als Physx kaart.
Maar is dat echt een goed idee? Weegt het hogere idle en ingame verbruikte energie tegen op dat handje vol Physx enabled games?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
De vraag is zelfs hoe goed de 8800gts nog als physx kaart functioneerd, stond al iets over in het andere forum zal het hier wel even voor je posten.

YouTube: Dedicated PhysX Card Experiment - How Powerful Does it Have to Be? Linus Tech Tips

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Jasper 99 schreef op woensdag 18 mei 2011 @ 12:56:
De vraag is zelfs hoe goed de 8800gts nog als physx kaart functioneerd, stond al iets over in het andere forum zal het hier wel even voor je posten.

YouTube: Dedicated PhysX Card Experiment - How Powerful Does it Have to Be? Linus Tech Tips
Hmm ik dacht dat een GPU met 48 tot 96-112 shaders heel goed als Physx kaart zou kunnen functioneren. Veel mensen hebben toch een 9600GT of 8800GT als Physx kaart?

Dus naast het feit dat niet veel games het ondersteunen, ook nog het probleem dat het niet zo goed werkt met oudere kaarten?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 26-05 09:15
Misschien dat een 8800 genoeg is voor bijv. een GTX 285, maar er zit gewoon teveel verschil tussen een 8800 en een 580. En het levert niet echt veel op. Voor de grap hadden ze in dat filmpje ook mafia 2 moeten draaien met 2 580's in SLI en dat vergelijken met de fps van een dedicated 580 voor physx.

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Max Hunt schreef op woensdag 18 mei 2011 @ 13:35:
Misschien dat een 8800 genoeg is voor bijv. een GTX 285, maar er zit gewoon teveel verschil tussen een 8800 en een 580. En het levert niet echt veel op.
Dus praktisch gezien zou een GTX 560 TI/570/580 net zo makkelijk de Physx berekeningen op zich kunnen nemen dan door een softwarematige oplossing de berekeningen sturen naar een dedicated physx 8800GTS met 128 shaders?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jasper 99 schreef op woensdag 18 mei 2011 @ 12:56:
De vraag is zelfs hoe goed de 8800gts nog als physx kaart functioneerd, stond al iets over in het andere forum zal het hier wel even voor je posten.

YouTube: Dedicated PhysX Card Experiment - How Powerful Does it Have to Be? Linus Tech Tips
Meer dan 150 euro voor nog geen 15% performance verbetering, nice.
XanderDrake schreef op woensdag 18 mei 2011 @ 13:24:
Veel mensen hebben toch een 9600GT of 8800GT als Physx kaart?
Weten zij veel, jij wist toch ook niet dat het niet lonend is qua performance. Dit zegt natuurlijk zowel wat over PhysX als de marketing ervan. Namelijk dat PhysX onnodig zwaar is voor de dingen die er op het beeld getoverd worden en qua marketing zit het heel goed in elkaar want er zijn blijkbaar mensen die speciaal voor PhysX een nVidia kaart 'erbij' halen. Terwijl het heel waarschijnlijk is dat hun performance er door achteruit gaat of gelijk blijft en als de performance dan al beter wordt is het nihil. Ook is de marketing ansicht al heel goed want er zijn mensen die voor PhysX een nVidia kaart aanschaffen.

[Voor 45% gewijzigd door madmaxnl op 18-05-2011 17:46]


  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 26-05 09:15
@XanderDrake
Ze hebben het niet getest met een 560 / 570, maar ik ga ervan uit dat een 560+ kaart hogere fps levert als hij zelf voor de physx berekeningen zorgt, ivm een 8800 dedicated physx kaart.
Namelijk dat PhysX onnodig zwaar is voor de dingen die er op het beeld getoverd worden en qua marketing zit het heel goed in elkaar want er zijn blijkbaar mensen die speciaal voor PhysX een nVidia kaart 'erbij' halen.
Onnodig zwaar vind ik wat te simpel geredeneerd. Een 580 is lijkt mij gewoon zo enorm snel dat puur alleen daarom een 8800 dedicated kaart de fps naar beneden trekt. 't Zou te zwaar zijn als die 8800 kaart voor 100% gebruikt wordt en dat daarom de 8800 de limiterende factor is. Het lijkt me echter dat die 8800 uit z'n neus zit te eten, bwvs.

Ik denk ook dat de meeste mensen met een dedicated physx kaart dit hebben door 1 reden. Ze hebben hun videokaart geupgrade en vragen zich af wat ze met hun oude kaart kunnen doen.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Heb je die rocketsled demo van nVidia wel eens gezien ?
Al die vectoren worden mooi aan de hand van de wet van newton berekend.
F=m*a etc, vervolgens moeten al die vectoren worden ontbonden tot één vector. Bon chance.

Aangezien het hier in de demo om maar één object gaat is het raar dat nVidia met zoveel vectoren rekening houd en het dus een onnodig zware berekening van maakt. Immers is voor het resultaat één vector vanuit het massa middelpunt ook al voldoen. Enfin, als ze dat zouden doen heb je die GPU niet mee nodig en nVidia wil juist dat jij die GPU wel nodig hebt.

Om voor z'n realistisch mogelijke physics te gaan is toch nutteloos want.
Hoe realistisch nVidia PhysX ook wil laten lijken. Gaat het ze voorlopig toch nog niet lukken want er is bij langen na niet genoeg GPU kracht. Immers om het realistisch te krijgen zal men tot op moleculair niveau moeten gaan rekenen. Want die mooie rook die zo mooi door PhysX wordt berekend is bij lange na niet de juist hoeveelheid rook die er in die situatie gecreëerd zou moeten worden.

Mij boeit het echt niet of iets niet helemaal volgens de natuurwetten in een game werkt. Zolang het maar realistisch genoeg oogt. 'Kan niet want g is in Luttjebroek niet 9.82m/s2 maar 9,81m/s2 |:( ' Idem dito met hoe het water altijd door PhysX wordt berekend. Natuurkundig gezien klopt er geen reet van net zo min als het water dat berekend wordt zonder PhysX maar dat maakt toch geen jota uit of wel soms ? 'Mot je kijken, die vlag beweegt wel heel realistisch', ik heb het nog nooit iemand horen zeggen in Mirror's Edge en het tegenovergestelde ook niet.

[Voor 44% gewijzigd door madmaxnl op 18-05-2011 19:49]


  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 27-05 09:12

naaitsab

Si vis pacem, para bellum

Is er eigenlijk al iets bekend over de opvolger van de huidige GTX 500 lijn?

In de trend van dat binnen een maand of 3 de GTX 600 lijn verschijnt, het staat namelijk bij mij in de planning om binnenkort een GTX 570 aan te schaffen maar als de GTX 600 lijn eraan komt wacht ik nog wel even.

Al zag ik in de roadmap dat kepler in 2011 "uitkomt" al staat er ook dat fermi in 2009 uitkwam maar die lagen geloof ik pas maart 2010 in de winkels.

if (!coffee) {
Work = false; }


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:32

Format-C

Rays aan het Tracen

madmaxnl schreef op woensdag 18 mei 2011 @ 19:35:


Mij boeit het echt niet of iets niet helemaal volgens de natuurwetten in een game werkt. Zolang het maar realistisch genoeg oogt. 'Kan niet want g is in Luttjebroek niet 9.82m/s2 maar 9,81m/s2 |:( ' Idem dito met hoe het water altijd door PhysX wordt berekend. Natuurkundig gezien klopt er geen reet van net zo min als het water dat berekend wordt zonder PhysX maar dat maakt toch geen jota uit of wel soms ? 'Mot je kijken, die vlag beweegt wel heel realistisch', ik heb het nog nooit iemand horen zeggen in Mirror's Edge en het tegenovergestelde ook niet.
Dat het jou allemaal geen reet uitmaakt wil niet zeggen dat iedereen er zo over denkt. ;)

[Voor 42% gewijzigd door Format-C op 18-05-2011 20:57]

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 27-05 09:12

naaitsab

Si vis pacem, para bellum

-The_Mask- schreef op woensdag 18 mei 2011 @ 20:39:
Eind dit jaar begin volgend jaar, sneller hoef je 28nm niet te verwachten.
Ah dan denk ik toch dat de 570 er gaat komen 6-10 maanden is me toch te lang wachten.

Een i7-2600K met een 9800GTX dat is niet helemaal in evenwicht :+

if (!coffee) {
Work = false; }


  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
Ja dat dedicated physx vind ik ook maar een beetje crap als ik het zo zie. Maarja 1 x 580 kan perfect physx draaien zo is het wel met de meeste kaarten vanaf de 260. Dus zo onnodig zwaar is het ook weer niet.

En ik vind persoonlijk physx wel een pre het is best leuk dat het gewoon realistisch valt etc als je soms ragdolls ziet etc die dan 1000 km wegschieten als je ze 1 x schiet of andere neppe shit is dat maar een beetje jammer. Hoe meer realisme in mooie shooters hoe beter imo.

Anoniem: 263922

Op een test is het natuurlijk moeilijk conclusies trekken, maar een 8600gts onder een gtx580 hangen als physx kaart is natuurlijk complete nonsens. Die 8600 trekt alleen maar stroom, en voegt zo bar weinig toe (zelfs negatief) dat een 580 in zijn eentje beter af is.

Die gtx550Ti daarentegen levert nog enigzins winst op, als je een 8800gts nog hebt rondslingeren is het het proberen wel waard, mocht het slechter worden verkoop je hem voor een paar tientjes.

Met een dual-gpu kaart als een gtx295 is het natuurlijk leuk dat je er nog wat mee kan als sli niet of slecht ondersteund wordt, bij burnout paradise maakte het voor mij wel verschil, kan natuurlijk ook zijn (gok ik wel op) dat die game geen sli vreet :P

Maar om nou een extra kaart voor physx te kopen? Nee bedankt.

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 27-05 09:12

naaitsab

Si vis pacem, para bellum

Een extra kaart als physx is juist nadelig qua fps icm een GTX 570/580 :p
Zijn aantal benchmarks te vinden die dat onderbouwen dus eruit halen dat ding.

if (!coffee) {
Work = false; }


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jasper 99 schreef op woensdag 18 mei 2011 @ 21:56:
En ik vind persoonlijk physx wel een pre het is best leuk dat het gewoon realistisch valt etc als je soms ragdolls ziet etc die dan 1000 km wegschieten als je ze 1 x schiet of andere neppe shit is dat maar een beetje jammer. Hoe meer realisme in mooie shooters hoe beter imo.
PhysX is ook goed, maar niet als het verkeerd wordt gebruikt. In mijn ogen wordt het nu meer voor en door marketing gebruikt dan dat het daadwerkelijk meerwaarden bied. Dat het meerwaarden bied willen ze ons natuurlijk maar wat te graag doen geloven.

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 26-05 08:51
madmaxnl schreef op woensdag 18 mei 2011 @ 23:55:
[...]


PhysX is ook goed, maar niet als het verkeerd wordt gebruikt. In mijn ogen wordt het nu meer voor en door marketing gebruikt dan dat het daadwerkelijk meerwaarden bied. Dat het meerwaarden bied willen ze ons natuurlijk maar wat te graag doen geloven.
Fair enough het wordt een beetje overmarketed in sommige gevallen. Maar het idee erachter vind ik tof ik kan me nog de eerste filmpjes herinderen waren wel bruut! Maar ik ben het met je eens een dedicated physx kaart is gewoon silly, vooral als jee een 260 of hoger nodig hebt om je 580 niet te bottlenecken. Eigenlijk geld weg gooien als je het koopt. Met SLI is het natuurlijk een heel ander verhaal en kan het allemaal mooi worden opgelost.

Maarja we zullen zien ik ben wel voor physx die goed en echt nuttig worden gebruikt. Maar als het tenkoste gaat van een beter alternatief hoeft het niet speciaal voor mij (wat volgens mij soms wel gebeurt omdat nvidia er geld tegenaan gooit.)

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 00:18

XanderDrake

Build the future!

Wow. Echt een eyeopener. Ziet er naar uit dat Physx niet zo efficient is, uiteindelijk. Goed, die 8800GTS gaat opzoek naar een ander baasje, als het moment er is.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:32

Format-C

Rays aan het Tracen

madmaxnl schreef op woensdag 18 mei 2011 @ 23:55:
[...]


PhysX is ook goed, maar niet als het verkeerd wordt gebruikt. In mijn ogen wordt het nu meer voor en door marketing gebruikt dan dat het daadwerkelijk meerwaarden bied. Dat het meerwaarden bied willen ze ons natuurlijk maar wat te graag doen geloven.
Probeert niet elk bedrijf hetzelfde? :)

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • Anoniem: 304087
  • Registratie: Mei 2009
  • Niet online
madmaxnl schreef op woensdag 18 mei 2011 @ 23:55:
[...]


PhysX is ook goed, maar niet als het verkeerd wordt gebruikt. In mijn ogen wordt het nu meer voor en door marketing gebruikt dan dat het daadwerkelijk meerwaarden bied. Dat het meerwaarden bied willen ze ons natuurlijk maar wat te graag doen geloven.
Met gaiming is het indd meer markting maar in de wetenschap, techniek en medische wereld word het heel veel gebruikt.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
PhysX =! CUDA hé.
PhysX word puur alleen in games gebruikt.
CUDA word in de wetenschap e.d. gebruikt.

  • naaitsab
  • Registratie: Augustus 2005
  • Laatst online: 27-05 09:12

naaitsab

Si vis pacem, para bellum

spNk schreef op donderdag 19 mei 2011 @ 12:11:
PhysX =! CUDA hé.
PhysX word puur alleen in games gebruikt.
CUDA word in de wetenschap e.d. gebruikt.
Tis PhysX != CUDA :+

CUDA wordt niet alleen in de wetenschap gebruikt maar ook door video software en reken programma's (denk aan brute-force progs) dus niet puur voor de zakelijke markt, het aantal 'Cudacores' komt ook overeen met de prestaties van een kaart hoe meer cores hoe sneller de kaart is (ook bij games)

Of CUDA enkel voor acceleratie wordt gebruikt of dat het ook in games gebruikt wordt is me niet helemaal duidelijk, kan me herinnere dat Tesselation draait op CUDA maar dat kan ik fout hebben.

if (!coffee) {
Work = false; }


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 12-05 11:16
CUDA is eigenlijk gewoon een taal, maar nV heeft voor de marketing shaders maar CUDA-cores genoemd.

  • Anoniem: 134818
  • Registratie: Januari 2005
  • Niet online
Om maar even mieren te neuken, shaders = code. Shader processing unit (SPU) is hardware om de shader uit te voeren.

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 26-05 09:15
Hopelijk komen er nu ook wat meer reviews over 580's in SLI met 3Gb geheugen. Als dat extra geheugen genoeg verschil maakt kan het interessant worden om wat extra te betalen voor een SLI set.
Pagina: 1 2 3 ... 7 Laatste

Dit topic is gesloten.

Let op:
Voor de duidelijk nog een keer de belangrijkste topicregels:

* Vanzelfsprekend is ook in dit topic het Algemeen Beleid van toepassing.
* Flames, trollen, fanboy-gedrag, etc. zijn allemaal zeer ongewenst. Dergelijke posts zullen verwijderd worden en bij herhaling kan er een ban volgen!
* Dit is het Nvidia nieuwsdiscussie, houd het daarom ook bij Nvidia gerelateerd nieuws.
* Als je een bewering doet, geef daar dan wel een bronvermelding bij of een goede argumentatie. Dit om zinloze en ongefundeerde discussies te voorkomen.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee