[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 ... 43 Laatste
Acties:

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op donderdag 24 november 2011 @ 17:54:
[...]

Heb je hier ook een bron van? Dat de 580 sneller is dan z'n AMD concurrent wil niet zeggen dat dat bij de volgende generatie ook zo is.
Welke AMD concurrent? ;)

De 580 zit een (prijs)klasse hoger dan de 6970; de concurrent van laatstgenoemde is de 570 en tussen die twee is het een nek-aan-nek race. Ik weet dat er veel mensen zijn die puur naar de rang binnen een serie kijken, maar de prijs en dus markt positie van een kaart is eigenlijk veel belangrijker. AMD heeft simpelweg geen concurrent voor de 580 helaas, om dat te realiseren hadden ze die 130mm^2 verschil in oppervlak voor moeten gebruiken. De 590 en 6990 zijn dan wel weer elkaars concurrent.

Als dat met de komende generatie weer zo gaat (grote chips met bijbehorende prijzen van NVIDIA) dan zullen ze weer de performance kroon hebben. Ik betwijfel of zij van hun strategie afstappen, net zo min als dat AMD dat zal doen, dus ik acht de kans dat NVIDIA weer de kroon steelt toch wel aardig hoog. Als het echter op performance per dollar en/of watt aan komt denk ik dat AMD wederom voorop loopt. Maakt verder niet uit, geeft ons namelijk genoeg keus, maar stiekem hoop ik toch aan een echte race tussen de twee (dromen mag, toch?) :P

[ Voor 25% gewijzigd door Werelds op 24-11-2011 23:31 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Twee keer HD6950 in CF, ongeveer even duur en het sloopt een GTX580. Dat lijkt mij toch wel de concurrent en past binnen de strategie die AMD heeft. Twee kleintjes die een grote slopen.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 24 november 2011 @ 23:34:
[...]


Twee keer HD6950 in CF, ongeveer even duur en het sloopt een GTX580. Dat lijkt mij toch wel de concurrent en past binnen de strategie die AMD heeft. Twee kleintjes die een grote slopen.
Ja, maar zo 'slopen' twee HD6850 kaarten ook een HD6970 en die zijn goedkoper... Twee keer een GTX560 Ti sloopt ook een GTX580 en dat komt zelfs uit eigen huis is dus niet echt een AMD strategie. Het is een vorm van concurrentie, maar toch anders.

Acties:
  • 0 Henk 'm!

Verwijderd

Appels en peren heet dat. Iemand die sneller wil hebben zal met die high end kaarten ook gewoon 2 stuks pakken en niet voor 2 gtx560's gaan of 2 hd 6870's. Alleen is de prijs prestatie voor velen niet te doen omdat ze het niet willen of kunnen betalen, maar er zijn genoeg die dat niet intresseren zoals de mensen die het snelste willen hebben en geld er voor hebben. De gtx580 heeftverder geen concurent omdat de tegen partij het niet is gelukt om een even snelle of snellere kaart te maken en daarom is deze kaart ook zo aan de prijs.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 24 november 2011 @ 20:09:
[...]


Totdat je hem koopt om in SLI te plaatsen met je andere GTX560...
Dan had je beter onderzoek moeten doen, alsje een kaart kunt verwisselen weet je ook wel welke kaartje hebt geocht want met een beetje gezond verstand zoek je dat eerst uit. De leek zelf zal niet snel losse kaarten kopen en zo maar in sli zetten. Die weten vak niet eens hoe je de kap van een pc open moet maken.
Verwijderd schreef op donderdag 24 november 2011 @ 17:54:
[...]

Heb je hier ook een bron van? Dat de 580 sneller is dan z'n AMD concurrent wil niet zeggen dat dat bij de volgende generatie ook zo is.
Amd heeft helemaal geen eens een concurent voor deze kaart kunnen maken want dat is niet gelukt.
De hd6970 hadhier tegenover moeten staan. Op eens of anderemanier is dat niet gelukt of wil amd nvidia op een andee manier pakken door langzamere goedkopere kaarten te makenzodat de gtx580 niet meer interesant word, di laatste zin heeftvast wel wat gewerkt maar niet goed.

[ Voor 53% gewijzigd door Verwijderd op 25-11-2011 08:28 ]


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:49

XanderDrake

Build the future!

dahakon schreef op donderdag 24 november 2011 @ 20:09:

Totdat je hem koopt om in SLI te plaatsen met je andere GTX560...
Doorsnee consumenten zijn niet op de hoogte van wat SLI is notabene. Heck, bijna alle high end consumers mijden Crossfire/SLI. De mensen die GTX 560 in SLI willen zetten zijn de mensen die weten wat het betekend als er 'Core 448' staat...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Als we gaan speculeren wat de doorsnee consument wel of niet weet, dan zullen we nooit meer stoppen met deze discussie. Maar om vanuit dat oogpunt te kijken, dan kunnen we stellen dat AMD weldegelijk een concurrent heeft voor de GTX580, namelijk de HD6990. Dat nVidia niet in staat is gebleken die te verslaan et de GTX590, doet daar niets aan af.

Acties:
  • 0 Henk 'm!

  • Rctworld
  • Registratie: Januari 2004
  • Laatst online: 22:18
XanderDrake schreef op donderdag 24 november 2011 @ 17:43:
[...]

Je kan zeggen wat je wilt, maar je weet wel precies wat je krijgt hehe :P
Noem hem dan gewoon GTX565Ti of iets dergelijks. Bij laptops heb je ook een GT525M 540M en 550M die praktisch dezelfde GPU hebben maar met andere clockspeeds. Vervolgens is de 555M ineens een hele andere chip dus waarom zouden ze dat bij de desktop-GPU's niet kunnen? Of is dit iets wat niet vanuit nVidia zelf komt en ze daarom alleen maar in kunnen delen als een niet volledige 570 en dus maar 560Ti c448 noemen?

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op vrijdag 25 november 2011 @ 10:03:
Als we gaan speculeren wat de doorsnee consument wel of niet weet, dan zullen we nooit meer stoppen met deze discussie. Maar om vanuit dat oogpunt te kijken, dan kunnen we stellen dat AMD weldegelijk een concurrent heeft voor de GTX580, namelijk de HD6990. Dat nVidia niet in staat is gebleken die te verslaan et de GTX590, doet daar niets aan af.
Dat is geen concurent de hd6990 is een stuk hoger qua prijs en de prestaties zijn niet veel hoger en een totaal andere videokaart met 2 gpu's, degtx590 komt daar dichter bij in de buurt, of zijn we al weer vergeten dat de hd6950 ook geen concurent heeft voor zijn zo genaamde gpu of its own.
Je gaat ook geen Q core vergelijken met een dual core cpu. Dit geldt ook gewoon zo voor gpu's,
Consumenten kijken daar wel wat anders teen aan vooral de leek.

[ Voor 8% gewijzigd door Verwijderd op 25-11-2011 10:27 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op vrijdag 25 november 2011 @ 10:25:
[...]


Dat is geen concurent de hd6990 is een stuk hoger qua prijs en de prestaties zijn niet veel hoger en een totaal andere videokaart met 2 gpu's, degtx590 komt daar dichter bij in de buurt, of zijn we al weer vergeten dat de hd6950 ook geen concurent heeft voor zijn zo genaamde gpu of its own.
Je gaat ook geen Q core vergelijken met een dual core cpu. Dit geldt ook gewoon zo voor gpu's,
Consumenten kijken daar wel wat anders teen aan vooral de leek.
Right... :/

Acties:
  • 0 Henk 'm!

Verwijderd

Niet veel hoger. Hij ligt wel wat hoger of mag ik dit niet zeggen omdat het over amd gaat?

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op vrijdag 25 november 2011 @ 10:31:
Niet veel hoger. Hij ligt wel wat hoger is mag ik dit niet zeggen omdat het over amd gaat ?
Zeg ik dat dan?
Een 6990 (of GTX 590 for that matter) is gewoon een stuk sneller dan een GTX 580 dus waarom jij vind dat de prestaties niet veel hoger zijn ontgaat me even..

Het verschil tussen een 6990 en een GTX 580 is groter dan het verschil tussen een 6870 en 6970 bijvoorbeeld. ;)

[ Voor 12% gewijzigd door Redblader op 25-11-2011 10:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zeg dat omdat de prestatie verschil maar klein is helemaal als je het verbruik en prijs mee neemt is het verschil gewoon niet zo groot. Maar zoals ik al zij die dual gpu's behoren ook tot een andere catogerie

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op vrijdag 25 november 2011 @ 10:38:
Ik zeg dat omdat de prestatie verschil maar klein is helemaal als je het verbruik en prijs mee neemt is het verschil gewoon niet zo groot. Maar zoals ik al zij die dual gpu's behoren ook tot een andere catogerie
Jij noemt ~30% sneller een klein verschil?
Maar goed de 6990 is dan ook een concurrent voor de GTX 590 gezien de prijs dat is waar.

Acties:
  • 0 Henk 'm!

Verwijderd

Op 2500+ resoluties is die kaart indd wel een heel stuk sneller. Ik doel in het algemeen en niet op 1 resolutie.
Ik ben niet van plan om hier weer een hoop opftopic gezeik neer te zetten dus ik kan mij beter stil houden
want ik word al niet zo gewaardeerd hier dat voel ik, ik wil daarom niet gebanned worden omdat bepaalde menbers dit kunnen regelen geloof ik, ik doel dit niet op jou red maar mensen in het algemeen hier..

[ Voor 23% gewijzigd door Verwijderd op 25-11-2011 10:46 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op vrijdag 25 november 2011 @ 10:42:
Op 2500+ resoluties is die kaart indd wel een heel stuk sneller. Ik doel in het algemeen en niet op 1 resolutie.
Ik ben niet van plan om hier weer een hoop opftopic gezeik neer te zetten dus ik kan mij beter stil houden
want ik word al niet zo gewaardeerd hier dat voel ik.
Dit is op 1920x1200 een vrij normale resolutie, maar goed dit is inderdaad vrij off-topic.

Echt nieuws dan maar?
Weet niet of dit al voorbij gekomen is maar Nvidia heeft voor de 2de keer op rij de efficiëntste supercomputer in de wereld op haar naam staan. :)

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:49

XanderDrake

Build the future!

Meer info over de GTX 560 Ti Core 448.
Fuad verwacht een release rond 29 november en een geschatte lanceerprijs van 250€. Aan de hoge kant vind ik, maar je weet nooit wat er gebeurt. 30€ zal er wel vanaf gaan, waarschijnlijk meer bij goedkopere merken en goedkope webshops.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia moet daar helemaal niet aan gaan denken. Waarom nog ergens geld in gaan steken wat waarschijnlijk ergens in het nieuwe jaar al helemaal plat gewalst word door amd. Het lijkt mij voor geld opleveren dus best wel nutteloos? Als ik bij nvidia zou wekren zou ik al mijn geld nu inzetten op de mombiele gpu's en de nieuwe reeks.

[ Voor 33% gewijzigd door Verwijderd op 25-11-2011 11:35 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nouja, als het een oude voorraad is, waarom ook niet? De chips hoeven niet meer geproduceerd te worden, dus het kost ook niks/weinig.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op vrijdag 25 november 2011 @ 11:33:
Nvidia moet daar helemaal niet aan gaan denken. Waarom nog ergens geld in gaan steken wat waarschijnlijk ergens in het nieuwe jaar al helemaal plat gewalst word door amd. Het lijkt mij voor geld opleveren dus best wel nutteloos? Als ik bij nvidia zou wekren zou ik al mijn geld nu inzetten op de mombiele gpu's en de nieuwe reeks.
Welke omzet is hoger, Chips weggooien of paar oude chips die er nog liggen verkopen voor mooi prijsje? En dit is wat Nvidia wil ze willen gewoon wat extra omzet en markt aandeel. Waarschijnlijk maken ze er ook weinig tot geen winst op.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Daarom bedoel ik gooi die rotzooi weg en leg de focus op de toekomst als het toch niets of nauwlijks wat oplever, want niet alleen de chip kost geld. Ik zou het op mijn eigen manier doen en dan ook gelijk wat minder geld vragen voor kaarten die niet zo veel hoeven te kosten.

[ Voor 31% gewijzigd door Verwijderd op 25-11-2011 13:07 ]


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 00:34
Verwijderd schreef op vrijdag 25 november 2011 @ 10:25:
[...]
Dat is geen concurent de hd6990 is een stuk hoger qua prijs en de prestaties zijn niet veel hoger en een totaal andere videokaart met 2 gpu's, degtx590 komt daar dichter bij in de buurt, of zijn we al weer vergeten dat de hd6950 ook geen concurent heeft voor zijn zo genaamde gpu of its own.
Je gaat ook geen Q core vergelijken met een dual core cpu. Dit geldt ook gewoon zo voor gpu's,
Consumenten kijken daar wel wat anders teen aan vooral de leek.
Als de 6990 niet veel sneller dan de 580 is, is de 580 ook niet veel sneller dan de 6950... (hier zit hij ongeveer tussenin).
De 6990 is 40% sneller dan de 580 en kost 30% meer.
De 580 is 40% sneller dan de 6950 en kost 100% meer.

Sorry voor offtopic, maar hoe lang blijf jij nog de prijs/prestatie van de 580 verdedigen?
Zolang die kaart meer dan 350 euro kost is de prijs/prestatie gewoon belabberd.

Acties:
  • 0 Henk 'm!

Verwijderd

Sorry maar ik wil die discussie noet door zetten omde redenen die ik daar al bij gaf.
Geen enkele kaart heeft een rechtvaardige prijs boven de gtx560 ti en hd6950. Helaas is dat altijd al zo geweest en zal dat ook nog wel een poos zo blijven. De bedrijven gaan voor hen eigen hagje en weten gewoon
dat mensen veel extra geld uit willen geven, zo gaat dat nu eenmaal altijd al en zal dus ook wel zo blijven
voorlopig. Wel jammer dat bedrijven niet luisteren naar de klanten, eigenlijk ook wel logisch want ze willen altijd meer en meer geld verdienen en dat wetk gewoon altijd tot een bepaalde hoogte.

[ Voor 57% gewijzigd door Verwijderd op 25-11-2011 13:24 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op vrijdag 25 november 2011 @ 13:05:
Daarom bedoel ik gooi die rotzooi weg en leg de focus op de toekomst als het toch niets of nauwlijks wat oplever, want niet alleen de chip kost geld. Ik zou het op mijn eigen manier doen en dan ook gelijk wat minder geld vragen voor kaarten die niet zo veel hoeven te kosten.
Ik bedoel juist dat het slim is om meer omzet te boeken. Als jij taarten bakt die 1 euro per stuk kosten en je bakt er 100. Je verkoopt ze voor 5 euro. Een paar zien er niet helemaal goed uit zou je die dan weggooien of verkopen voor 2 euro? Ik zou ze verkopen voor 2 euro.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Als er meer omzet mee te maken valt dan is het wel handig ja, alleen zal dat moeten blijken nog
of dat ook wel gaat gebeuren. Als ik nvidia was zou ik alles echt anders aanpakken, dan maar wat minder verdienen maar juist kijken naar wat de klanten willen. Maar goed ik zelf zal wel te sociaal zijn om een bedrijf goed draaidende te houden want ik geef eigenlijk meer om een ander dan om mezelf wat dat betreft;;;;

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Je zult i.i.g. niet veel investeerders tevreden houden met jouw oplossing...

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zou de high end kaarten goedkoper maken (meer prijsprestatie gericht) en minder met rebrands werken gaan. Ik denk juist dat inversteerders dit willen zien, of gooien die liever extra geld over de balk ?

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op vrijdag 25 november 2011 @ 13:34:
Ik zou de high end kaarten goedkoper maken (meer prijsprestatie gericht) en minder met rebrands werken gaan. Ik denk juist dat inversteerders dit willen zien, of gooien die liever extra geld over de balk ?
Nvidia wil het natuurlijk ook goedkoper maar als ze dit niet kunnen hebben ze geen keus.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Het enige wat in jouw post een investeerder geld zou kosten is alle kaarten goedkoper maken. Zelfs kaarten als GTX590s en 6990s worden gewoon verkocht. Stel de GTX580 zou de prijs van een GTX560 krijgen (en de rest van de lijn wordt dus ook veel goedkoper). Mensen die nu een GTX560 kochten, zouden dan bv een GTX580 kopen, maar ze kochten al nVidia kaarten, wat maakt het een investeerder nu uit wat voor naam de kaart was die verkocht was? Sterker nog, ze zullen zo minder geld krijgen, want de extremisten betalen nu minder en de mainstream betaalde al een bepaald bedrag, alleen krijgen ze nu een snellere kaart voor hetzelfde geld.
Rebrands zijn juist verzoeken van OEM producten om hun product te verkopen. Een serie nummer doet meer dan het volledige getal voor leken en als ze dus een nummertje (serie hoger) erbij krijgen, verkopen ze weer meer "zooi" en dus krijgt de investeerder meer. De nVidia lijn kan ik al jaren niet volgen, dus dan maar een AMD voorbeeld. Als iemand nu een laptop kocht, zou ie sneller een 7570 willen dan een 6630 (random getallen).

[ Voor 8% gewijzigd door Paprika op 25-11-2011 13:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ach dan moeten mensen ook niet blijven klachen over die prijzen van de high end kaarten die ze liever hadden gehad als het toch allemaal zo goed werkt op deze manier dan moet hetmaar zo blijven.
Maar zoals ik als zij op zo'n manier kan ik zelf niet met mensen om gaan. Als ik bvb weer mijn kaarten verkoopoe d ik ze voor een vrienden prijsje weg. Zoals 2 hd5870 van een jaar oud voor 125 euro verkopen pp ( een jaartje na de launch van deze goede kaarten)

[ Voor 62% gewijzigd door Verwijderd op 25-11-2011 13:47 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op vrijdag 25 november 2011 @ 13:43:
Ach dan moeten mensen ook niet blijven klachen over doe prijzen als het toch allemaal zo goed werkt op deze manier.
Wij techneuten hebben er verstand van. Wij weten wat de kaarten kosten en wat ze kunnen. Maar wij zijn maar een heel klein deel van de wereld. De meeste mensen zijn onwetend en die kopen alleen een hoger nummertje. Dusja de techs klagen omdat wij kunnen vergelijken op dit gebied de door snee consument snapt er geen snars van.

En ook als jij later een bedrijf hebt, wil je geld in het laatje zien zoveel mogelijk. Dus grote aantallen verkopen tegen een zo'n hoog mogelijke prijs zonder dat de concurrent een stuk betere prijs heeft.

[ Voor 15% gewijzigd door Xenomorphh op 25-11-2011 13:48 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Als het nodig is om om die redenen en bedrijf te kunnen runnen dan zeg ik doei bedrijf.
Ik ben niet zo'n geldwolf ik zou daarom ook nooit een berijf willen hebben maar goed. Ik zal later nooit een bedrijf krijgen ook want ik hoef geen geld meer te verdienen daar bij doe ik liever vrijwilligers werk zodat ik mensen echt help wat ik dus al doe.

[ Voor 7% gewijzigd door Verwijderd op 25-11-2011 13:53 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
En waar betaal jij je huidige SLI setup van dan?

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
spNk schreef op vrijdag 25 november 2011 @ 14:32:
En waar betaal jij je huidige SLI setup van dan?
Zakgeld? :+

Acties:
  • 0 Henk 'm!

  • auto660
  • Registratie: November 2010
  • Laatst online: 21:44

auto660

1991 240 GL Brick

Misschien is dit een beetje offtopic, maar een heel topic voor deze vraag openen is ook overdreven.
Ik draai momenteel met een 9400GT videokaart. Nu komt er nog een nvidia 8800GT videokaart voor in de plaats. Maar nu dacht ik, kan ik die 9400GT als physx kaart erbij zetten, zoja hoe dan?

Gaming~ |Ryzen 5 5500, Asrock B450M PRO4, 16GB 2666@3600MHz DDR4, GTX1650 Super 4GB, 1TB + 256GB SSD, 250W Apevia PSU| Workstation~ |Q9550, 8GB CL4 DDR2, P5B Premium, GTX950, 512GB SSD + 1TB HDD, 550W PSU


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
auto660 schreef op vrijdag 25 november 2011 @ 14:51:
Misschien is dit een beetje offtopic, maar een heel topic voor deze vraag openen is ook overdreven.
Ik draai momenteel met een 9400GT videokaart. Nu komt er nog een nvidia 8800GT videokaart voor in de plaats. Maar nu dacht ik, kan ik die 9400GT als physx kaart erbij zetten, zoja hoe dan?
Dit is een nieuws topic dus vragen horen hier niet maar ik kan je wel vertellen dat je aan een 9400GT als physx kaart niks hebt, daar is de kaart toch te traag voor, hoewel het misschien een klein beetje uit zal maken omdat een 8800GT natuurlijk ook niet zo snel is.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:49

XanderDrake

Build the future!

auto660 schreef op vrijdag 25 november 2011 @ 14:51:
Misschien is dit een beetje offtopic, maar een heel topic voor deze vraag openen is ook overdreven.
Ik draai momenteel met een 9400GT videokaart. Nu komt er nog een nvidia 8800GT videokaart voor in de plaats. Maar nu dacht ik, kan ik die 9400GT als physx kaart erbij zetten, zoja hoe dan?
Je hoeft het niet te doen, sterker nog het werkt tegen.
Physx wordt afgestemd op je gerenderde frames, gaan die de snel voor je Physx kaart, dan gaan de FPS naar beneden!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:49

XanderDrake

Build the future!

In Ander Nieuws

Er wordt steeds meer bekend over de GTX 560 Ti 448. Asus's versie is ook al gelekt. Deze keer met specifiefe specs, die ik heel makkelijk kan opsommen: een GTX 570 met één cluster uitschakelt. Clocks zijn precies hetzelfde, ook voor geheugen.

Dat geeft me wel hoop dat het meer een GTX 570 is dan een GTX 470 :)

Bron

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2011/November/Asus560ti448.jpg

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • auto660
  • Registratie: November 2010
  • Laatst online: 21:44

auto660

1991 240 GL Brick

Dan weet ik genoeg! :)

Gaming~ |Ryzen 5 5500, Asrock B450M PRO4, 16GB 2666@3600MHz DDR4, GTX1650 Super 4GB, 1TB + 256GB SSD, 250W Apevia PSU| Workstation~ |Q9550, 8GB CL4 DDR2, P5B Premium, GTX950, 512GB SSD + 1TB HDD, 550W PSU


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Wtf @ triple-slot...

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

Tis toch een GTX570 inside en die moeten die koeler hebben zoals de normale GTX570/GTX580 en HD6970 ;)

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • Roerbakeitje
  • Registratie: Maart 2009
  • Laatst online: 24-08 13:48
Afbeeldingslocatie: http://assets.vr-zone.net/14067/005.jpg
Rumor: eerste mainstream kepler kaarten komen pas Q2 2012, en de high end komen later in het jaar.


http://vr-zone.com/articl...op-gpu-roadmap/14067.html

[ Voor 40% gewijzigd door Roerbakeitje op 25-11-2011 23:50 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Zal Charlie dan toch weer gelijk krijgen?

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 12-09 09:59
Het zal mij niks verbazen, mede dankzij die wat vage 560Ti met 448 shaders. Op het moment dat Ati eraan komt zullen ze die wel in prijs verlagen denk ik.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op zaterdag 26 november 2011 @ 00:24:
Zal Charlie dan toch weer gelijk krijgen?
Nee man, Charlie wordt betaald door AMD weetje nog ? Die verzint alles, en als hij gelijk heeft is het gewoon geluk.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Zo ist maar net!

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op vrijdag 25 november 2011 @ 14:32:
En waar betaal jij je huidige SLI setup van dan?
Van een hele dikke jackpot ;)

Van bodum tot top komt niet van charlie, dat nivida op deze manier hun kaarten uit gaan brengen was al wat langer bekent maar waren ook gewoon zoals dit nog geruchten ;)
Ik hoop nog altijd op maart april voor de high end.

Gebruik die hond charlie liever niet meer als niewsbron want er hebben zo veel mensen een hekel aan die anti nvidia man

[ Voor 49% gewijzigd door Verwijderd op 26-11-2011 10:04 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 12-09 13:07
Verwijderd schreef op zaterdag 26 november 2011 @ 09:56:
Van bodum tot top komt niet van charlie, dat nivida op deze manier hun kaarten uit gaan brengen was al wat langer bekent maar waren ook gewoon zoals dit nog geruchten ;)
Ik hoop nog altijd op maart april voor de high end.
Het nieuwtje dat wordt gebracht in die link is dan ook niet zozeer de bottom-top release, wat nu toch wel een zekerheidje mag heten, maar het feit dat de eerste next-gen kaarten (de bottom dus) pas Q2 gereleased zullen worden. Dat is dus maart/april op z'n vroegst, met daarna nog eens de high end.
Verwijderd schreef op zaterdag 26 november 2011 @ 09:56:
Gebruik die hond charlie liever niet meer als niewsbron want er hebben zo veel mensen een hekel aan die anti nvidia man
Waar slaat dit nou weer op? Dat is net zoiets als stellen: "Ik vind Sacha de Boer een verschrikkelijke vrouw dus het nieuws dat zij brengt ben ik het niet mee eens en ga ik lekker negeren."... Het gaat in deze gevallen om de inhoud en niet hoe of door wie die gebracht wordt.
Daar komt nog eens bij dat het desbetreffende artikel niet eens van Charlie afkomstig is, maar van vrzone, dat als bron een Japanse site (4game) opgeeft. De enige reden dat Charlie wordt aangehaald is omdat die dit gerucht al eerder verspreidde. Wederom een teken dat zijn bronnen er goed bovenop zitten, wat weer een reden is om Charlie vooral vaker als nieuwsbron te gebruiken.

PS. Ik ga verder niet meer reageren op dit onderwerp omdat het alweer redelijk offtopic loopt en ik geen zin heb in nog een zinloze en eindeloze discussie die tot niks leidt, daarvan zijn er hier al genoeg geweest recentelijk.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Frontpage heeft er nu ook een artikel over geschreven. Als we wat dieper op de roadmap in gaan, dan zien we toch wel vreemde dingen. NVidia lijkt een gelijke strategie als AMD te gaan gebruiken (tenminste voor een deel). De GK104 lijkt de high mainstream chip te worden, wat op zich niets nieuws is. Wat wel bijzonder is, is dat ze een GK110 uit lijken te gaan brengen op basis van 2 van die chips, voor de (ultra)highend, iets wat AMD al jaren doet. Alleen lijkt de positionering niet helemaal te kloppen. Als een GK104 al haast als een GTX570 presteert, waarom zouden 2 van die chips amper sneller zijn dan een GTX580? Ik zou denken dat de GK110 en de GK112 omgedraaid zijn op de roadmap.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat komt omdat er ook her en der info word gehaald bij bedrijven die niet eens zeker zijn dan krijg je ook een raar beeld als je alles bij elkaar gooit. Bij nvidia zelf kan het dus nog totaal anders gaan qua naamgeving.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op zaterdag 26 november 2011 @ 12:23:
Dat komt omdat er ook her en der info word gehaald bij bedrijven die niet eens zeker zijn dan krijg je ook een raar beeld als je alles bij elkaar gooit. Bij nvidia zelf kan het dus nog totaal anders gaan qua naamgeving.
8)7

Misschien is er alleen in het plaatje de naam omgedraaid maar klopt de rest wel gewoon..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Misschien wel maar wie weet. Ik wacht toch nog lekker af op meer zekerheid. 8)7
Sorry dat ik ben begonnen over die charlie. Die gek heeft er voor gezorgt dat nvidia in aandelen is gedaald
en dit is ook zijn bedoeling. Zijn nieuws kan soms wel kloppen maar om bepaalde redenen hebben best veel mensen een hekel aan die gast en lezen dus liever niets over wat hij zegt.
http://blogs.barrons.com/...s-delay-in-tegra-roadmap/

Mensen vragen zich ook af waarom hij alleen nvidia moet hebben
http://doazic.wordpress.c...ult-of-charlie-demerjian/

[ Voor 91% gewijzigd door Verwijderd op 26-11-2011 12:37 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Verwijderd schreef op zaterdag 26 november 2011 @ 12:30:
Mensen vragen zich ook af waarom hij alleen nvidia moet hebben
Dan moeten "die mensen" misschien wat meer berichten op zijn website lezen. De GPU afdeling van AMD doet het over het algemeen gewoon goed. De laatste 3 series waren gewoon goed en de opkomende lijkt ook weer goed te gaan. Zijn Bulldozer nieuwsberichten waren meestal matig tot negatief, zo ook de berichten die gerelateerd zijn aan het wisselen van topman of bv de 6990.

Dat ie pro AMD-GPUs t.o.v. nVidia is was al lang duidelijk, maar laat hem niet beter overkomen dan ie is wat betreft AMD...

AMD finally releases the dual-GPU HD6990
The best card you should not buy
Sadly, during that meeting, I was told that AMD would indeed void the warranty if the card was used as designed, promoted, and expected. Unfortunately, I could not say so until the embargo lifted. Checks with multiple AMDers, and the presentation itself stated as much.

To say that this is stupid is stating the obvious. No, let me take that back, it is flat out irresponsible for AMD to do this. They designed the card for 450W, all the parts are spec’d for 450W, and they promote it as a 450W card in their literature, going so far as to make a marketing acronym, AUSUM, for it. But if you use it, your warranty goes poof.

Several AIBs are not pleased, and are in negotiations with AMD about this now, but there is no resolution as of this writing. This lawsuit-in-waiting has two outcomes, neither of which are good. The first is that if the card dies, and you have used it in 450W mode, you are SOL, $699 flushed. Not good. A quick check with a local attorney said that this would seem to fall afoul of false advertising laws and without more information, well, he’s not signing up to be your attorney as he doesn’t do class actions.
Als je even op AMD zoekt op zijn website zul je 4 negatieve berichten over de 6-serie vinden, om maar een voorbeeld te noemen (totaal aantal nieuwsberichten over dit onderwerp zijn er overigens 11).

[ Voor 7% gewijzigd door Paprika op 26-11-2011 12:56 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Charlie moet niet alleen nVidia hebben, al doet nVidia wel zijn uiterste best om hem van munitie te voorzien. Het is ook niet zijn bedoeling om de marktwaarde naar beneden te brengen, maar om de waarheid naar buiten te brengen, zeker wanneer het bedrijf er alles aan doet dit te voorkomen.

Hoe speculanten en analisten reageren op nieuws is altijd moeilijk in te schatten, maar het feit dat ze zo reageren op een nieuws-artikel van SemiAccurate zou juist een indicatie voor je moeten zijn dat ze SemiAccurate een behoorlijk betrouwbare bron vinden als het om nieuws gaat.

Je tweede link heb je al eerder gepost en is niets anders dan iemand die een rant loslaat op Charlie met allerlei ongefundeerde opmerkingen en aannames over dat Charlie er wel naast moet zitten, terwijl de geschiedenis ondertussen al heeft aangetoond dat Charlie gelijk had (of had de GTX480 bv niet 2 clusters uitgeschakeld?).

Charlie heeft simpelweg goede bronnen en zit simpelweg vaak in de goede richting (als het niet al spot-on is) met zijn nieuws. Je hoeft het niet leuk te vinden, maar dat is iets anders.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snorro schreef op zaterdag 26 november 2011 @ 10:40:
"Ik vind Sacha de Boer een verschrikkelijke vrouw dus het nieuws dat zij brengt ben ik het niet mee eens en ga ik lekker negeren."
offtopic:
Sacha <3 :$

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zaterdag 26 november 2011 @ 11:57:
Ik zou denken dat de GK110 en de GK112 omgedraaid zijn op de roadmap.
Vreemd is het sowieso wel ja... Maar de GK110 lijkt nu eigenlijk geen chip te zijn omdat het dus 2x een GK104 is... Dus de vervanger van de GTX580 lijkt nu een dual gpu kaart te worden en de GK104 wordt dus de opvolger van de GTX570 en komt tegenover de HD7970 te staan (zoals de GTX570 nu tegenover de HD6970 staat).
Vervolgens komen ze later met een 'monster' chip, de GK112 die zelfs weer een 512bit-bus heeft, maar wat ik me dan afvraag is hoe zo'n gpu dan weer sneller moet zijn dan 2x GK104! Wat moet dat voor een ding worden?

[ Voor 3% gewijzigd door Verwijderd op 26-11-2011 22:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Beetje raar als je het mij vraagt een dual gpu als vervanger voor de high end kaarten van nu.
Tja om veel sneller te zijn dat moet makkelijk kunnen met 2 gpu's maar ik zie dat liever niet met 2 gpu's want
ik wil wel een upgrade mogelijkheid behouden mocht dat nodig zijn.
Als nvidia daadwerkelijk een monster chip gaat maken wacht ik daar wel op, want mijn huidige setup zal vast
nog wel wat sneller zijn dan 2 gk104's

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 00:34
Verwijderd schreef op zondag 27 november 2011 @ 10:09:
Tja om veel sneller te zijn dat moet makkelijk kunnen met 2 gpu's maar ik zie dat liever niet met 2 gpu's want
ik wil wel een upgrade mogelijkheid behouden mocht dat nodig zijn.
Waarom zou er geen upgrade mogelijkheid meer zijn?
Quad SLI werkt nu ook al en misschien komt er wel octo SLI support?

Acties:
  • 0 Henk 'm!

Verwijderd

Qsli werkt nog niet in genoeg games vooral de wat oudere games doen niet goed met qsli. Het komt wel
langzaam op gang met qsli alleen vind ik het nog niet waard. Enkele games die er goed mee werken zijn
alleen maar te vinden in een paar bencharks en meestal zijn dat enkel niewe games of speciale AA titel games als crysis. Ik vind 10fps winst met 2 gpu's extra maar een slechte schaling
http://nl.hardware.info/r...eview-benchmarks---dirt-2

Misschien dat het anders zal zijn met deze nieuwe kaarten en drivers?

Ik wacht noh even op de roadmap die nvidia zelf nogmoetuit geven tot die tijd neem ik die huidige roadmap
maar als gerucht die ik niet neem als waarheid. Mijn eigen conlussie is dat er nog niets te zeggen is hoe de kaarten gaan komen en in welke volgorde.

Vanaf welke code komt er dx 11.1 in?

[ Voor 20% gewijzigd door Verwijderd op 27-11-2011 10:31 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zondag 27 november 2011 @ 10:26:
Ik wacht noh even op de roadmap die nvidia zelf nogmoetuit geven tot die tijd neem ik die huidige roadmap
maar als gerucht die ik niet neem als waarheid. Mijn eigen conlussie is dat er nog niets te zeggen is hoe de kaarten gaan komen en in welke volgorde.
Als we dat allemaal gaan doen, kunnen we dit draadje natuurlijk gewoon gelijk opheffen en simpelweg achter de marketingpraat van nVidia aan lopen...

Acties:
  • 0 Henk 'm!

Verwijderd

Van geruchten en speculaties word je anders ook niets wijzer 8)7
Als rond deze tijd met een echte roadmop komen zoals bedoeld is is
het wel iets om te geloven. Die road maps van die al heel oud zijn kloppen natuurlijk niet vaak.

[ Voor 62% gewijzigd door Verwijderd op 27-11-2011 10:57 ]


Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 17:45
"I love rumors! Facts can be so misleading, where rumors, true or false, are often revealing." - Col H. Landa.
:)

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Van nVidia's eigen roadmap wordt je anders ook niks wijzer, die klopt vaak genoeg ook niet door uitstel en die bevat ook altijd weinig leuke infirmatie. Maar de roadmap hierboven is ook maar een idee van iemand op een forum, zien we weer terug voor elke launch en meestal klopt het niet helemaal. ;)
Verwijderd schreef op zondag 27 november 2011 @ 10:26:

http://nl.hardware.info/r...eview-benchmarks---dirt-2

Misschien dat het anders zal zijn met deze nieuwe kaarten en drivers?
Dat is een CPU bottleneck, veel te lage instellingen in deze review, slechte review daarom.

[ Voor 39% gewijzigd door -The_Mask- op 27-11-2011 11:29 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Noel schreef op zondag 27 november 2011 @ 11:16:
"I love rumors! Facts can be so misleading, where rumors, true or false, are often revealing." - Col H. Landa.
:)
"One hears many things, my lord. Whether the truth is among is not clear." - Pius Thicknesse

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Nieuwe BETA drivers:
290.36 BETA

Windows Vista 64-bit, Windows 7 64-bit
Windows Vista 32-bit, Windows 7 32-bit
Win XP 32-bit

This is the first beta release from the Release 290 family of drivers. You can read more about this family of drivers on GeForce.com.

http://www.geforce.com/Ne...-36-beta-drivers-released

This driver package supports GeForce 6, 7, 8, 9, 100, 200, 300, 400, and 500-series desktop GPUs as well as ION desktop GPUs.

New in R290 Drivers

NVIDIA PhysX
•Updates PhysX System Software to version 9.11.11.07 for the best PhysX experience in Batman: Arkham City.

NVIDIA SLI
•Added or updated SLI profiles for Crysis 2, Heroes and Generals, Inversion, Stronghold 3, and Syndicate.

HD Audio
•Updates HD Audio driver to version 1.3.9.0.

Some Key Bug Fixes
• Fixes random flickering as Windows boot logo is loading or fading away.
• Fixes corruption in Crysis 2 with SLI and lower quality shadow settings.
• Fixes ability to set Surround resolutions to 5760x1080 (requires setting custom resolution).
• Fixes some random instances of triangular artifacts when playing Battlefield 3.
• Improved performance in Elders Scroll: Skyrim
• Fixes white dots appear in the edges of objects in NFS-ProStreet game with AA enabled
• Fixes blood is green color when AA is set to 4X or 8X from in-game video settings
• Fixes blank screen on certain Apple Macintosh computers running Windows
• Fixes negative SLI scaling in Anno 1404 with two-way, three-way or four-way SLI

Other Details
•Supports single GPU and NVIDIA SLI technology* on DirectX 9 and OpenGL.
•Users without US English operating systems can select their language and download the International driver here.
*Note: The following SLI features are only supported on Windows Vista and Windows 7: Quad SLI technology, 3-way SLI technology, Hybrid SLI, and SLI multi-monitor support.


Release notes
:)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ziet er goed uit die driver.
-The_Mask- schreef op zondag 27 november 2011 @ 11:18:
Van nVidia's eigen roadmap wordt je anders ook niks wijzer, die klopt vaak genoeg ook niet door uitstel en die bevat ook altijd weinig leuke infirmatie. Maar de roadmap hierboven is ook maar een idee van iemand op een forum, zien we weer terug voor elke launch en meestal klopt het niet helemaal. ;)


[...]

Dat is een CPU bottleneck, veel te lage instellingen in deze review, slechte review daarom.
Er word getest op hoge resoluties (3 schermen)

Afbeeldingslocatie: http://nl.hardware.info/productinfo/grafiek/7560/113521,114226,108228,111091,111092,111093,118712,119016/?colors=0000FF,0000FF,0000FF,0000FF,0000FF,0000FF,0000FF,FF0000

Verder word er een 4 GHz overklokte Core i7 980X gebruikt wat zeker geen bottlenek is.

[ Voor 109% gewijzigd door Verwijderd op 28-11-2011 14:17 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 00:04

Tomas Hochstenbach

Redacteur componenten
2560x1600 drie schermen? Da's gewoon één 30 incher hoor.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Ik kan me best voorstellen dat 2 GTX590s geneckt worden door een i7 op 4 GHz, als je naar dit grafiekje bekijkt (enkele 5870!):
Afbeeldingslocatie: http://puu.sh/9vrR
En 2560x1600 is inderdaad maar 1 monitor.

[ Voor 26% gewijzigd door Paprika op 28-11-2011 15:06 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ligt allemaal aan de resolutie en settings of iets wel of niet geneckt wordt.

Daar komt bij dat een bottleneck pas erg is als je < 60FPS haalt.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 28 november 2011 @ 14:11:
Ziet er goed uit die driver.


[...]


Er word getest op hoge resoluties (3 schermen)

[afbeelding]

Verder word er een 4 GHz overklokte Core i7 980X gebruikt wat zeker geen bottlenek is.
Je ziet in het plaatje dat 4x een gtx580 in quadsli trager is dan gtx590 sli, je spreekt jezelf tegen tenzij er iets heel fout is met de gebruikte drivers van Nvidia.
Tevens heeft crysis 1 vooral een cpu bottleneck met de kaarten van tegenwoordig. Dit is te lezen in een van de HardOCP reviews (die ik nu even niet kan vinden).

Acties:
  • 0 Henk 'm!

Verwijderd

Dat komt omdat 2 gpu's op 1 kaart toch net even iets anders werkt met sli dan 4 losse kaarten.
Bij 4 kaarten krijg je te maken met pcie bottlenek, vooral op 4x kan dat snel al in de 28% in de min schelen
(dit is door hwi getest met 2 hd6970's in cf en nog 2 lichtere kaarten en komtbinnen enkele maanden uit want het staat nog maar net in het blad) daarom schalen de gtx580's ook slechter maar de i7 is zeker geen bottlenek op 4ghz met 6 cores aan. CPU gebruik zal ook niet hoger liggen dan 60% en ik spreek dan uit ervaring met qsli.
4 gpu's werkt gewoon nog niet zo lekker tegenwoordig en dat is een feit in de meeste games met sli
Er zijn wel wat uit zoderingen met weining games maar dat is het niet waard.

Het is indd op één monitor maar dan wel met een hogere resulutie die standaard is met 3 monitorenwant de breedte heeft een veel hogere resolutie.

[ Voor 37% gewijzigd door Verwijderd op 28-11-2011 15:39 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op maandag 28 november 2011 @ 15:31:
Dat komt omdat 2 gpu's op 1 kaart toch net even iets anders werkt met sli dan 4 losse kaarten.
Bij 4 kaarten krijg je te maken met pcie bottlenek, vooral op 4x kan dat snel al in de 28% in de min schelen
(dit is door hwi getest met 2 hd6970's in cf en nog 2 lichtere kaarten en komtbinnen enkele maanden uit want het staat nog maar net in het blad) daarom schalen de gtx580's ook slechter maar de i7 is zeker geen bottlenek op 4ghz met 6 cores aan. CPU gebruik zal ook niet hoger liggen dan 60% en ik spreek dan uit ervaring met qsli.
4 gpu's werkt gewoon nog niet zo lekker tegenwoordig en dat is een feit in de meeste games met sli
Er zijn wel wat uit zoderingen met weining games maar dat is het niet waard.

Het is indd op één monitor maar dan wel met een hogere resulutie die standaard is met 3 monitorenwant de breedte heeft een veel hogere resolutie.
3x een 1920x1080 scherm is 5760x1080, dat is dus 6.220.800 pixels.
1x een 2560x1600 scherm is 4.096.000 pixels...

Dus een standaard tripple-screen setup heeft wel degelijk een veel hogere resolutie, het zou nog meer schelen wanneer er gebruik gemaakt wordt van 1920x1200 schermen dan zit je bijna aan de 7 miljoen pixels.

Als je ziet dat er bij veel spellen 120+ fps gehaald wordt kan het dus zeker zo zijn dat er een CPU bottleneck is en dat de videokaarten niet genoeg belast worden om het verschil te laten zien tussen 3/4 GPU's en dan krijg je dus ook rare dingen als 3 videokaarten die sneller zijn dan 4 videokaarten.

[ Voor 10% gewijzigd door Redblader op 28-11-2011 15:46 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
En het is gewoon een CPU bottleneck, instellingen zijn gewoon duidelijk te laag voor zulke kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Klopt ik kan niet rekenen damn. Maar indd hoe hoger de resolutie word hoe beter de schalling met meerdere gpu's alleen moet die schalling veel beter worden dan dat hij nu is want het is echt crap met 4 gpu's
Nee het is geen cpu bottlenek. Als at zo was had ik met 4 gpu's ook een cpu bottlenek moeten hebben maar hij komt niet boven de 60% uit dus de cpu zit nog altijd met 4 gpu's voor 40% uit zijn neus te eten.

[ Voor 33% gewijzigd door Verwijderd op 28-11-2011 15:49 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op maandag 28 november 2011 @ 15:47:
Klopt ik kan niet rekenen damn. Maar indd hoe hoger de resolutie word hoe beter de schalling met meerdere gpu's alleen moet die schalling veel beter worden dan dat hij nu is want het is echt crap met 4 gpu's
Nee het is geen cpu bottlenek.
Waarom niet?
Wanneer meer GPU kracht niet voor meer FPS zorgt en je al met gigantisch hoge FPS draait dan is het toch logisch dat een CPU bottleneck vrij waarschijnlijk is?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Wat een nutteloze discussies, het is duidelijk een CPU bottleneck, ik krijg een beetje genoeg van die onzin discussies.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Het is geen cpu bottlenek want als dat zo was ging het cpu gebruik wel verder omhoog.
Indd het is nutteloos om zo door te gaan helemaal als je vol bljft houden dat het een cpu bottlenek is wat niet zo is. 8)7. Ik heb het zelf gehad gezien en ik zal wel even op zoek gaan naar het cpu gebruik bij meerdere kaarten wanti ben niet gek.

[ Voor 64% gewijzigd door Verwijderd op 28-11-2011 15:57 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Het is wel een CPU bottleneck.

Kijk in de bovenste grafiek:

http://www.guru3d.com/article/geforce-gtx-590-sli-review/13

GTX590 SLi haalt dezelfde framerates als GTX590. Dat is dus een CPU bottleneck.

Nog een CPU bottleneck: http://www.guru3d.com/article/geforce-gtx-590-sli-review/10
En nog 1: http://www.guru3d.com/article/geforce-gtx-590-sli-review/8

Dit is een game die nog wel schaalt bij 4 GPU's: http://www.guru3d.com/article/geforce-gtx-590-sli-review/12

Dat heeft te maken met de framerates. Als je framerates ver boven de 100 hebt, en meer GPU's toevoegen geen extra FPS oplevert, heb je veelal een CPU bottleneck. ;)


On-topic please?

[ Voor 6% gewijzigd door Format-C op 28-11-2011 15:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Het is geen cpu bottlenek want waarom blijft het cpu gebruik dan laag.
Het is eerder een pcie boottlnek en ik blijf hier bij en reageer niet meer.
Laat ze die test maar eens doen met games die weinig fps hebben met 2 kaarten rond de 50 en dan nog maar eens 2 kaarten er bij wedden dat er dan in eens heel wat meer fps is en ook een hoger cpu gebruik.

Ik heb 4 gpu's gehad op 1920x1200 en bij geen enkele game komt het cpu gebruik boven de 60% uit met een i7 ht on 3600mhz.

[ Voor 55% gewijzigd door Verwijderd op 28-11-2011 16:03 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op maandag 28 november 2011 @ 15:59:

Laat ze die test maar eens doen met games die weinig fps hebben met 2 kaarten rond de 50 endan nog maar eens 2 kaarten er bij weddend at er dan in eens heel watmeer fpsis en ook een hoger cpu gebruik.
Precies; dan heb je namelijk een GPU bottleneck. ;) Dan heeft het "extra kaarten toevoegen" nog wél zin.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op maandag 28 november 2011 @ 15:59:
Het is geen cpu bottlenek want waarom blijft het cpu gebruik dan laag.
Het is eerder een pcie boottlnek en ik blijf hier bij en reageer niet meer.
Laat ze die test maar eens doen met games die weinig fps hebben met 2 kaarten rond de 50 en dan nog maar eens 2 kaarten er bij wedden dat er dan in eens heel wat meer fps is en ook een hoger cpu gebruik.
Ik neem aan dat je weet dat lang niet alle spellen ook alle cores van een processor kunnen gebruiken hè?
Dus wanneer 2 cores 100% belast worden bij een quad-core wordt dat ook weergegeven als 50% belasting.

Anyway..
Nvidia verliest marktaandeel door, waarschijnlijk, onder andere Llano en Sandy bridge en door AMD discrete graphics.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat weet ik indd maar geen enkele core komt boven de 60% uit, alsik zo iets ga testen let ik overal op zucht.

[ Voor 24% gewijzigd door Verwijderd op 28-11-2011 16:16 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dat zou mooi zijn, want deze nutteloze discussies zijn vrij nutteloos.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Redblader schreef op maandag 28 november 2011 @ 16:07:
Anyway..
Nvidia verliest marktaandeel door, waarschijnlijk, onder andere Llano en Sandy bridge en door AMD discrete graphics.
However, the data points from the survey showed that discrete GPU attach rates have remained stable in notebook PCs and have actually increased in desktop PCs over the past 18 months. Stable to rising GPU attach rates are the overall positive here for Nvidia as low-end desktops shrink in volume, as gamer desktops ramp, and as some low-end notebook users cut over to tablets, the analyst said.
:o
Beyond this survey, Berger said Nvidia has new product initiatives that could drive growth in coming years including several new versions of Tegra, the integration of the Icera baseband into Tegra, Windows on ARM processors (Project Denver), and increased functionality of the company's parallel compute (Tesla) product.
Hopelijk met betere berichten dan de Tegra 3 (A5 enzo).
Verwijderd schreef op maandag 28 november 2011 @ 16:15:
Dat weet ik indd maar geen enkele core komt boven de 60% uit, alsik zo iets ga testen let ik overal op zucht.
offtopic:
Dan niet.

[ Voor 24% gewijzigd door Paprika op 28-11-2011 16:56 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 28 november 2011 @ 15:47:
Klopt ik kan niet rekenen damn. Maar indd hoe hoger de resolutie word hoe beter de schalling met meerdere gpu's
De resolutie boeit tegenwoordig niet meer zo, het maakt nog steeds verschil maar als je het vergelijkt met de impact van andere dingen is het niet al te boeiend. Wat veel belangrijker is, is de FOV (field of view). Met een hogere fov zie je meer en moet er dus ook meer gerendered worden. Meer renderen betekend een hogere belasting voor je gpu(s).

Dat is ook de reden waarom meerdere schermen zo'n hoge belasting oplevert, de fov wordt verdrievoudigd (bij drie schermen uiteraard) waardoor er pakweg drie keer zo veel gerendered moet worden. Of je dat nou op een resolutie van 4320x900 of 7680x1600 draait maakt niet zo heel veel meer uit.

Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op maandag 28 november 2011 @ 16:17:
[...]

Dat zou mooi zijn, want deze nutteloze discussies zijn vrij nutteloos.
Indd net als heel veel posts van jou ook vaak, zoals deze :>
Paprika schreef op maandag 28 november 2011 @ 16:27:
[...]


[...]

:o

[...]

Hopelijk met betere berichten dan de Tegra 3 (A5 enzo).


[...]

offtopic:
Lees je s.v.p. even in over dit soort onderwerpen als je er een discussie over wilt hebben (tegen zowat iedere andere lezer in). Windows verdeelt de load over meerdere cores, ook bij 1 thread. Als er een gelijk aantal zware threads zijn als het aantal cores, dan zul je een 100% CPU gebruik zien. Zijn er bv 8 cores beschikbaar en er is maar 1 workthread dan zal je niet 7x 0% en 1x 100% krijgen, maar een redelijke verdeling, namelijk zo:
[afbeelding]
Laat 0.12 x 8 nou toevallig 96% zijn, dus als er 8 van deze threads waren, zou de CPU 100% gebruikt worden (de ontbrekende 4% is omdat je geen decimalen in de CPU Usage grafiek te zien krijgt).

Doe ons allemaal een plezier en ga niet nog een x voor een laatste woord, normaal maakt dat niet uit, maar ga dat niet doen als je ONGELIJK hebt en GELIJK claimt te hebben, terwijl je er echt naast zit. Bedankt voor je medewerking.
Het is geen cpu bottlenek dus, sorry maar ik blijf bij mijn geteste feit.

Jullie gaan verder zelf deze discussie aan niet ik,

[ Voor 73% gewijzigd door Verwijderd op 28-11-2011 16:41 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Verwijderd schreef op maandag 28 november 2011 @ 16:32:
Dat is ook de reden waarom meerdere schermen zo'n hoge belasting oplevert, de fov wordt verdrievoudigd (bij drie schermen uiteraard) waardoor er pakweg drie keer zo veel gerendered moet worden. Of je dat nou op een resolutie van 4320x900 of 7680x1600 draait maakt niet zo heel veel meer uit.
Wordt er eigenlijk echt 3x zoveel gerenderd? Ik heb me nooit zo in de werking tussen renderen en wat je werkelijk op je display te zien krijgt verdiept, maar bij dergelijke FOVs is het beeld uitgerekt aan de zijkanten. Hoe verder je van het middelpunt van je middelste monitor gaat, hoe erger deze rekking wordt. Zoals dit stukje bij een willekeurige screenshot (betreft hier de linkerhoek bij Crysis 2):
Afbeeldingslocatie: http://puu.sh/9vI8
Eigenlijk is het object een brievenbus/krantenbak/prullenbak (lijkt me dat het zoiets was) van laten we zeggen (compleet willekeurige getallen) 1.20m hoog en 0.6m breed. Op het linker scherm is deze echter (in verhouding tot objecten in het midden) misschien wel 6x zo breed. Kost het dan ook 6x zoveel om te renderen dan als ie in 't midden stond, of is ie uitgerekt en render je eigenlijk (als je de objecten zou meten) misschien maar 500 pixels in de breedte, i.p.v. 1200.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Even terzijde om er toch even zeker van te zijn dat we dit correct hebben voor wanneer er daadwerkelijk nieuws komt (:')):
Verwijderd schreef op maandag 28 november 2011 @ 15:31:
Dat komt omdat 2 gpu's op 1 kaart toch net even iets anders werkt met sli dan 4 losse kaarten.
Dit klopt niet helemaal; althans, niet de manier waarop ik het lees. Het schaalt uiteraard wel anders (als je hier op doelde, mijn excuses), maar vanuit een technisch standpunt is er geen groot verschil (als dit is wat je bedoelde, read on ;)). De GPU's communiceren namelijk via on-board PCI-e (die op zijn beurt weer met de "hoofd" PCI-E bus is verbonden). Hoeveel lanes het tegenwoordig zijn weet ik eerlijk gezegd niet, ik gok er op dat het gewoon PCI 2.0 met 16 lanes is. Punt is echter dat een dual-GPU kaart in principe vrij letterlijk twee kaarten op een enkel PCB is: de twee GPU's draaien nog steeds nagenoeg onafhankelijk van elkaar (ze hebben dan ook hun eigen geheugen, hun eigen voeding, etc.).

Waarom ga ik hier nu op in? Omdat ik stiekem nog steeds hoop dat we eindelijk eens iets innovatiefs gaan zien waardoor multi-GPU echt boeiend wordt. Momenteel is het grote struikelblok nog steeds het feit dat we met AFR moeten werken - en dat is op zijn beurt de grote boosdoener achter microstuttering. AMD had met Evergreen Sideport in het ontwerp zitten als een toevoeging op de "standaard" on-board PCI-E bridge, maar uiteindelijk is dat geschrapt (en helaas hebben we daar nooit echt alle details van gekregen). Ik kan me eerlijk gezegd niet voorstellen dat NVIDIA hier niet mee bezig is; hoewel ik me wel afvraag hoeveel man van 3DFX nog daadwerkelijk iets te zeggen hebben (daar komt SLI oorspronkelijk vandaan, hoewel het iets anders werkte en ook een andere naam had).

Edit: Correctie, SidePort zat zelfs al op de 4870X2, maar was daar uitgeschakeld vanwege power issues ;w

Plaatje ter illustratie, danke sehr Herr Lal Shimpi:
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4870X2/sideport.jpg

[ Voor 7% gewijzigd door Werelds op 28-11-2011 17:18 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op maandag 28 november 2011 @ 16:39:

Indd net als heel veel posts van jou ook vaak, zoals deze :>
Zat jij niet altijd zo te zeuren dat mensen op de man aan het spelen waren tegen jou?..
Je vraagt er ook gewoon om met dit soort opmerkingen hè..

[ Voor 9% gewijzigd door Redblader op 28-11-2011 17:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Kijk eens naar zijn eigen opmerking .
Ik ben zo gaan reageren juist om die redenen. Wat ook grappig is is dat jullie vragen om een opmerking zoals jij nu doet. Lijkt erg op ICT syndroom wat zamen hangt met autistme

[ Voor 105% gewijzigd door Verwijderd op 28-11-2011 18:08 ]


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Verwijderd schreef op maandag 28 november 2011 @ 15:59:
Het is geen cpu bottlenek want waarom blijft het cpu gebruik dan laag.
Dat is nu toch wel duidelijk?
1. spellen gebruiken vrijwel nooit alle cores
2. Als je (bijv.) 8 cores hebt en je stressed 1 core dan zie je niet 1 core op 100% en 7 cores op 0%, dan zie je 8 cores op 12(.5)%. (waar is dat plaatje gebleven met prime op 1 core?)

Test punt 2 anders zelf eens.

Daar komt natuurlijk bij dat als je met meer GPU-kracht niet meer FPS krijgt er ergens een bottleneck moet zijn. Waar zit die bottleneck als het niet de CPU is?

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 11-09 13:47
Verwijderd schreef op maandag 28 november 2011 @ 18:01:
Kijk eens naar zijn eigen opmerking .
Ik ben zo gaan reageren juist om die redenen. Watook grappig is is dat jullie vragen om een opmerking zoals jij nu doet.
Geen idee waarom je je daardoor aangevallen voelt, The_Mask zegt alleen dat dit een nutteloze discussie is.
Maar goed dit is geen nieuws natuurlijk..

[ Voor 5% gewijzigd door Redblader op 28-11-2011 18:07 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
'Meisjes toch, doen eens lief.'

[ Voor 11% gewijzigd door madmaxnl op 28-11-2011 18:10 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Max Hunt schreef op maandag 28 november 2011 @ 18:01:
(waar is dat plaatje gebleven met prime op 1 core?)
offtopic:
Had geen nut, dus had hem maar weggehaald: http://puu.sh/9vEB

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41

Sp3ci3s8472

@ 12 graden...

Afbeeldingslocatie: http://imgs.xkcd.com/comics/duty_calls.png

offtopic:
Situatie: ik heb een 16 core cpu met gtx580 in quad sli. Ik haal maar 50 fps in een game X. De cpu load is volgens windows 10%, conclusie ik ben niet cpu bottlenecked, maar de grafische kaarten zijn te traag!

Als je in windows maar 10% cpu load ziet kan het goed zijn dat maar 1 core benut wordt en dat de rest van de cpu dus niks kan uitvoeren. Dat betekent dus dat je nog wel cpu bottlenecked kan zijn.

Lees je alsjeblieft in over dingen, voor je onzin gaat posten.

Acties:
  • 0 Henk 'm!

  • vorda
  • Registratie: Januari 2004
  • Laatst online: 29-08 08:55
Konden we vandaag de 560Ti 448 niet verwachten?
edit: nvm, morgen.

[ Voor 17% gewijzigd door vorda op 28-11-2011 19:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op maandag 28 november 2011 @ 16:47:
[...]

Wordt er eigenlijk echt 3x zoveel gerenderd?
Drie keer was sowieso een benadering. Als je gezichtsveld 3x zo breed wordt zie je niet automatisch 3x zo veel, dat hangt nogal af van de hoek van de fov. Bovendien wordt je gezichtsveld wel 3x zo breed maar niet 3x zo hoog.

Maar goed, kijkende naar dat screenshot wordt het beeld uitgerekt om het menselijk gezichtsveld te simuleren: je ziet dingen anders "vanuit je ooghoek" dan als je er recht naar kijkt. Hoeveel pixels die brievenbus is maakt niet zo veel uit, waar het om gaat is of er aan de rechterkant zonder die uitrekking meer in beeld zou zijn dan met. Als dat zo is zien we minder en wordt er dus ook minder gerendered.

Ik heb zelf niet een dergelijke setup, maar als ik zo naar het screenshot kijk denk ik inderdaad dat je door de uitrekking die 3x niet haalt. Maar ik kan me zo voorstellen dat het wel prettiger speelt op die manier dus het lijkt mij niet iets negatiefs. :) Bovendien is het ook niet zo'n ramp dat de extra belasting van een dergelijke setup binnen de perken blijft, als je framerate met drie schermen compleet instort heb je er niet zo veel aan.

[ Voor 8% gewijzigd door Verwijderd op 28-11-2011 20:56 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Oh het is niet zo dat ik er last van heb ofzo, maar eigenlijk zou ik eens portrait mode moeten proberen om het antwoord te vinden. Het aantal pixels blijft immers gelijk:
5760 * 1200 = 6.912.000 (bezel management niet geteld).
3600 * 1920 = 6.912.000 (bezel management niet geteld).
Maar hoeveel je in het spel ziet (door de FOV verschillen) is in theorie kleiner. Eigenlijk was mijn eerder gemaakte post zinloos want dit had ik dus zelf zo kunnen testen. Dit zal ik dan ook even doen. ;) Verder zal ik die discussie in [Centraal] Dual / Triple monitor setup voortzetten, gezien het niet nVidia-only is.

[ Voor 15% gewijzigd door Paprika op 28-11-2011 21:08 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op maandag 28 november 2011 @ 18:01:
Kijk eens naar zijn eigen opmerking .
Ik ben zo gaan reageren juist om die redenen. Wat ook grappig is is dat jullie vragen om een opmerking zoals jij nu doet. Lijkt erg op ICT syndroom wat zamen hangt met autistme
Pardon? Wie denk je wel dat je bent?

Je bent hier duidelijk nog steeds nieuw, en toch probeer je de betweter uit te hangen.
Niemand heeft daar problemen mee, zolang het gegrond en beargumenteerd is.

Dat jij je dan telkens persoonlijk aangevallen voelt, omdat je je post's niet netjes opstelt maar 10x aanpast en dan nog geen duidelijk verhaal maakt, betekend niet dat je mensen hier gaat beledigen.
Het laat je er niet professioneel uitzien en je zorgt er alleen maar voor dat mensen je minder serieus nemen. Als mensen je dan gaan behandelen als een trol heb je dat helemaal aan jezelf te danken.

Als je nou de volgende keer wat beter je best doet om een nuttige toevoeging te geven aan dit topic, dan raken mensen ook niet zo geirriteerd van het pagina's zinloze discussies doorspitten...

Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 08-09 11:33
Toettoetdaan schreef op maandag 28 november 2011 @ 21:31:

Pardon? Wie denk je wel dat je bent?
Denk aan je bloeddruk... ik snap niet waarom jullie hem nog aandacht geven.
Iemand die denkt dat 3 schermen gelijk is aan een resolutie van 2560x1600 moet je sowieso niet serieus nemen.
Verder is hij oncorrigeerbaar en houdt hij vol aan z'n onzinnige standpunten. Dus doe geen moeite, hij weet het blijkbaar zelf beter.
Pagina: 1 ... 5 ... 43 Laatste