[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 54 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 31 ... 43 Laatste
Acties:

Acties:
  • 0 Henk 'm!

Verwijderd

Die bron hoeft niet percé betrouwbaar te zijn. Het gaat meer om de specs die goed kunnen kloppen gezien er heel wat meer bronnen zijn die het zelfde vertellen qua specs. Tik maar eens in. Wat niet hoeft te kloppen is de geheugen bus, daar heb ik namelijk wel mijn twijfels over. De rest kan heel goed kloppen.

Acties:
  • 0 Henk 'm!

Verwijderd

SirNobax schreef op donderdag 05 april 2012 @ 13:49:
[...]
@hieronder
Ik kan ook GK110 specs uit m'n duim zuigen die "Goed kunnen kloppen", als iedereen dat gaat doen zal het ook op verschillende plekken op het internet opduiken. Zolang er maar genoeg mensen troep op het internet plaatsen zal er vast wel eentje bijzitten die redelijk in de buurt zat.
Tjah als je het zo gaat bekijken kunnen het AMD topic en nvidia topic net zo goed sluiten want dit allemaal is vooral gebaseerd op geruchten als wat ik poste. Verder heb ik hier wel redelijk geloof in want deze site poste ook gewoon goede specs van de gk104 en thaiti. Verder geloof ik het ook wel omdat het allemaal past in een 500+mm2 chip, maar ik maak er geen feit van want dat kan pas tot hij gezien is. Ik denk dat dit soort topics dan ook niet interessant voor jou zijn.

Misschien vind je deze bron betrouwbaarder? :+
http://videocardz.com/316...eatures-4gb-512bit-memory

[ Voor 38% gewijzigd door Verwijderd op 05-04-2012 18:35 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

nVidia GK-110 Benchmark Results Leaked!!!

Afbeeldingslocatie: http://tweakers.net/ext/f/4icM6VUfh5QDUyZ0NOQcgldj/full.png

[ Voor 25% gewijzigd door Fid3lity op 06-04-2012 00:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dit lijkt in mijn ogen ook wel wat meer dan 25% :P

Edit. Maar goed wat hebben we straks nog aan nvidia kaarten als
alle consoles AMD cpu en GPU krijgen. Ik zie het nog wel gebeuren dat de games
niet goed gaan werken op nvidia kaarten.

[ Voor 27% gewijzigd door Verwijderd op 05-04-2012 18:40 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op donderdag 05 april 2012 @ 18:32:
[...]

Dit lijkt in mijn ogen ook wel wat meer dan 25% :P

Edit. Maar goed wat hebben we straks nog aan nvidia kaarten als
alle consoles AMD cpu en GPU krijgen. Ik zie het nog wel gebeuren dat de games
niet goed gaan werken op nvidia kaarten.
Bullshit, het gaat gewoon beter werken op AMD kaarten omdat het beter geoptimaliseerd is. I.t.t. wat nVidia bijvoorbeeld doet. Het corrumperen van engine/code zodat het slechter op AMD hardware loopt waardoor het vaak ook op nVidia hardware slechter loopt maar in verhouding AMD er juist het hardst op achteruit gaat. Zoals tesselation onder map in Crysis 2.

Als nVidia er op vooruit gaat en AMD niet op achter uit is er niks mis. Daarbij moet het geen er berekend wordt wel nuttig c.q. zichtbaar zijn. Tesselation onder map of dusdanige hoeveelheid tesselation dat een paar tanden lager geen verschil uit maakt is dat dus niet.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:39
Rutger Mulder schreef op donderdag 22 maart 2012 @ 00:48:
[...]

Die kon je er zelf ook wel bij zoeken, dit is gewoon mierenneuken.
Voor de vaste lezers van dit topic is het gewoon overduidelijk dat de GK104 als mid range geplanned stond.
http://www.techpowerup.co...X-680-as-GTX-670-Ti-.html

Dit gecombineerd met eerdere observaties die ik mbt de shaders en stroom aansluitingen maakte halen je (argmentsloze) standpunt toch wel onderuit :+ .

Midrange is volgens Nvidia overigens een 8600gt,gts250, gts450, enz.

[ Voor 25% gewijzigd door sdk1985 op 05-04-2012 19:39 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
Wat is dat nu voor onzin?

Een 360 heeft een ATI (nee, geen AMD!) GPU, PS3 heeft een Nvidia GPU. 360 games zien er vaak beter uit dan PS3 titels en draaien vaak ook veel soepeler, ondanks het feit dat de PS3 eigenlijk iets krachtiger is (elke console eigenaar zal dan ook aanraden een 360 te kopen tenzij er PS3 exclusives zijn die je wil spelen). Draaien de meeste crossplatform titels nu beter op ATI/AMD? Nee.

Tijd om eens met Mel Gibson te gaan praten ;)

Acties:
  • 0 Henk 'm!

  • EJPostema
  • Registratie: December 2010
  • Laatst online: 09-12-2024
Werelds schreef op donderdag 05 april 2012 @ 19:26:
Wat is dat nu voor onzin?

Een 360 heeft een ATI (nee, geen AMD!) GPU, PS3 heeft een Nvidia GPU. 360 games zien er vaak beter uit dan PS3 titels en draaien vaak ook veel soepeler, ondanks het feit dat de PS3 eigenlijk iets krachtiger is (elke console eigenaar zal dan ook aanraden een 360 te kopen tenzij er PS3 exclusives zijn die je wil spelen). Draaien de meeste crossplatform titels nu beter op ATI/AMD? Nee.

Tijd om eens met Mel Gibson te gaan praten ;)
Maar dat komt vooral omdat de meeste crossplatform titels worden geport naar de PS3, dus imho niet echt een goede vergelijking. buiten het feit dat een console geen PC is
Het blijft gewoon een feit dat op de PC nvidia kaarten het vaak iets beter doen omdat de games daarvoor geoptimaliseerd zijn. Dit is bijvoorbeeld weer andersom bij de total war serie. Daar krijg je ook een AMD logo te zien ipv een NVIDIA logo als je de game opstart

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op donderdag 05 april 2012 @ 18:25:
[...]


Tjah als je het zo gaat bekijken kunnen het AMD topic en nvidia topic net zo goed sluiten want dit allemaal is vooral gebaseerd op geruchten als wat ik poste.
Nee dat is het niet, alleen sommigen hebben nogal extreem veel moeite om de onzin er uit te vissen.
Onzin zoals dit.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 08-09 19:35
Verwijderd schreef op donderdag 05 april 2012 @ 18:25:
[...]

Ik denk dat dit soort topics dan ook niet interessant voor jou zijn.

Misschien vind je deze bron betrouwbaarder? :+
http://videocardz.com/316...eatures-4gb-512bit-memory
Dat artikel is gebaseerd op dezelfde lulkoek van OBR-Hardware, net als die vorige.

En nee, hoor, ik zit hier prima.
Even afgezien van de typo in de titel, neem ik aan dat dit het "Nieuwsdiscussie Topic" is, en mijn aandeel in deze discussie, is dus dat de bron, OBR-Hardware, waar andere hun artikel over hebben geschreven, als onzin klinkt, met uitspraken zoals "Launch month is ........ber! and is not December or November", "There are really lot of CUDAs" en melden dat er een 512-bit geheugenbus word gebruikt, wat zeer onlogisch zou zijn als de kaart maar 25% sneller is als een GK104.

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
EJPostema schreef op donderdag 05 april 2012 @ 19:44:
[...]
Maar dat komt vooral omdat de meeste crossplatform titels worden geport naar de PS3, dus imho niet echt een goede vergelijking. buiten het feit dat een console geen PC is
Het blijft gewoon een feit dat op de PC nvidia kaarten het vaak iets beter doen omdat de games daarvoor geoptimaliseerd zijn. Dit is bijvoorbeeld weer andersom bij de total war serie. Daar krijg je ook een AMD logo te zien ipv een NVIDIA logo als je de game opstart
Mijn reactie ging over Lupp's "Ik zie het nog wel gebeuren dat de games niet goed gaan werken op nvidia kaarten.". Dat is gewoon onzin van de bovenste plank. Dat is nu niet gebeurd en zal ook niet gebeuren. Mijn punt daarbij is juist dat op dit moment ATI/AMD ook het hoofdplatform is - alles wordt ontwikkeld voor een 360 en vervolgens geport naar PC en PS3, maar vrijwel al die games lopen zeker niet beter op AMD; vaak het tegenovergestelde.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Ssst, dat weet ik ook wel :9 Wil even zien of deze net als die vroege slide van de HD7970 ook elders opgepikt wordt (hoe dan ook ;) )

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op donderdag 05 april 2012 @ 19:22:
[...]


Bullshit, het gaat gewoon beter werken op AMD kaarten omdat het beter geoptimaliseerd is. I.t.t. wat nVidia bijvoorbeeld doet. Het corrumperen van engine/code zodat het slechter op AMD hardware loopt waardoor het vaak ook op nVidia hardware slechter loopt maar in verhouding AMD er juist het hardst op achteruit gaat. Zoals tesselation onder map in Crysis 2.

Als nVidia er op vooruit gaat en AMD niet op achter uit is er niks mis. Daarbij moet het geen er berekend wordt wel nuttig c.q. zichtbaar zijn. Tesselation onder map of dusdanige hoeveelheid tesselation dat een paar tanden lager geen verschil uit maakt is dat dus niet.
Bij welke games doet nvidia dat dan, zo dat hij slechter op beide kaarten draait?
Nu moet ik wel zeggen nu amd ook goede tessellation heeft voor crysis 2. Niet in het begin maar na nieuwere kaarten wel weer. Momenteel ontlopen ze elkaar daar niet zo veel met de 7000 series.
Werelds schreef op donderdag 05 april 2012 @ 20:04:
[...]

Mijn reactie ging over Lupp's "Ik zie het nog wel gebeuren dat de games niet goed gaan werken op nvidia kaarten.". Dat is gewoon onzin van de bovenste plank. Dat is nu niet gebeurd en zal ook niet gebeuren. Mijn punt daarbij is juist dat op dit moment ATI/AMD ook het hoofdplatform is - alles wordt ontwikkeld voor een 360 en vervolgens geport naar PC en PS3, maar vrijwel al die games lopen zeker niet beter op AMD; vaak het tegenovergestelde.
Juist dan zorgt AMD er juist voor dat het beter op nvidia draait. Nvidia heeft gewoon iets betere tesselation en dan krijgen ze door betere hardware de schuld. Foute wereld dit.
Ik heb één keer hier een artikel over gelezen zonder bronnen van ene Charlie. Ik heb hier mijn bedenkingen bij omdat hij nog al vaker van dit soort leugens schreef. Ik denk dat je dit ook met een korrel zout kunt nemen want bewijs heeft hij niet en er zijn verder later ook geen dingen meer over verschenen bij andere sites.

[ Voor 33% gewijzigd door Verwijderd op 05-04-2012 22:24 ]


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 05:56

Tomas Hochstenbach

Redacteur componenten
3XPER7 schreef op donderdag 05 april 2012 @ 20:13:
[...]


Ssst, dat weet ik ook wel :9 Wil even zien of deze net als die vroege slide van de HD7970 ook elders opgepikt wordt (hoe dan ook ;) )
Zou inderdaad wel grappig zijn als HWI 'm online gooide :P.

Acties:
  • 0 Henk 'm!

Verwijderd

Of tweakers, zoals laatst met de gtx680 en eerdere hd7970. Klopte ook niets van.
Maar goed geruchten hoort nu eenmaal ook bij het nieuws.
TomasH schreef op donderdag 05 april 2012 @ 22:11:
[...]

Zou inderdaad wel grappig zijn als HWI 'm online gooide :P.
Kunt hem daar en hier zo bij de redactie neer kwakken. Of bij BOUWEENPC. Heeft er ook een handje van. ;)

[ Voor 53% gewijzigd door Verwijderd op 05-04-2012 22:25 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
TomasH schreef op donderdag 05 april 2012 @ 22:11:
[...]

Zou inderdaad wel grappig zijn als HWI 'm online gooide :P.
Vergeet niet dat je er zelf ook goed in bent he. ;)
Verwijderd schreef op donderdag 05 april 2012 @ 22:23:
Of tweakers, zoals laatst met de gtx680 en eerdere hd7970. Klopte ook niets van.
Dat is niet zo kijk maar terug.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op donderdag 05 april 2012 @ 22:32:
[...]

Vergeet niet dat je er zelf ook goed in bent he. ;)


[...]

Dat is niet zo kijk maar terug.
nieuws: AMD: HD7970 gemiddeld bijna de helft sneller dan GTX580
Maar goed ook hier staat bij geruchten

Wel dus, gemiddeld 45%sneller. Maar dat is helemaal waar op 25x16. Zoek maar eens benchmarks op die na dat de kaart uit kwam verschenen op deze resolutie.

[ Voor 8% gewijzigd door Verwijderd op 05-04-2012 22:37 ]


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 15:44
Verwijderd schreef op donderdag 05 april 2012 @ 22:06:
[...]

Bij welke games doet nvidia dat dan, zo dat hij slechter op beide kaarten draait?
Nu moet ik wel zeggen nu amd ook goede tessellation heeft voor crysis 2. Niet in het begin maar na nieuwere kaarten wel weer. Momenteel ontlopen ze elkaar daar niet zo veel met de 7000 series.


[...]


Juist dan zorgt AMD er juist voor dat het beter op nvidia draait. Nvidia heeft gewoon iets betere tesselation en dan krijgen ze door betere hardware de schuld. Foute wereld dit.
Ik heb één keer hier een artikel over gelezen zonder bronnen van ene Charlie. Ik heb hier mijn bedenkingen bij omdat hij nog al vaker van dit soort leugens schreef. Ik denk dat je dit ook met een korrel zout kunt nemen want bewijs heeft hij niet en er zijn verder later ook geen dingen meer over verschenen bij andere sites.
Het punt bij crysis 2 is meer het overbodige water dat gerendered wordt onder de grond en andere overdreven complexe zaken, dat is gewoon een rottig truukje dat effect heeft alle kaarten maar bij AMD eerst wat meer omdat ze minder tesselation kracht hadden.

Hier heb je het artikel :)

Acties:
  • 0 Henk 'm!

Verwijderd

Redblader schreef op donderdag 05 april 2012 @ 22:36:
[...]


Het punt bij crysis 2 is meer het overbodige water dat gerendered wordt onder de grond en andere overdreven complexe zaken, dat is gewoon een rottig truukje dat effect heeft alle kaarten maar bij AMD eerst wat meer omdat ze minder tesselation kracht hadden.

Hier heb je het artikel :)
Dat van crysis wist ik maar heb je ook een bron dat dat van nvida af komt, moet willlig bij crysis 2?

Amd heeft trouwens ook dit soort truukjes gehad bij bencmark progamma's en ook een aantal games.

Uiteindelijk hebben ze gewoon alle 2 van dit soort streken. Is het niet met games dan wel weer ergens anders mee om mensen proberen bij de tegenpartij weg te lokken.

[ Voor 11% gewijzigd door Verwijderd op 05-04-2012 22:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja de slide bestaat wel, zo is de slide hier boven ook 100% echt omdat hij bestaat alleen kloppen de getallen niet in real life.

[ Voor 7% gewijzigd door Verwijderd op 05-04-2012 22:50 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
De slides zijn 100% echt en de waardes kloppen ook 100%, moet ook wel want het komt ook benchmarkguide van AMD. Als er onzin in zou staan zou dat alleen maar ellende geven aangezien reviewers dan op hele andere waardes komen en zich dan af gaan vragen wat ze verkeerd doen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Dan zou ik nog maar eens goed naar de benchmarks kijken op de zelfde instellingen.
Je kan dan direct zien dat er niets van klopt qua fps. Zoals in BF3 als voorbeeld. Max fps ligt sowieso hoger en AVG ook te hoog. Is gewoon fake rommel om mensen gek te maken, of te wel marketing.

Deze discussie ga ik ook niet verder aan want ik ben niet blind.

[ Voor 10% gewijzigd door Verwijderd op 05-04-2012 23:03 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
-The_Mask- schreef op donderdag 05 april 2012 @ 19:53:
[...]

Nee dat is het niet, alleen sommigen hebben nogal extreem veel moeite om de onzin er uit te vissen.
Ik vergat nog te melden dat sommigen dan ook weer moeite hebben om iets wat wel klopt te geloven als hun dat niet bevalt. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:01

dion_b

Moderator Harde Waren

say Baah

Modbreak:Allebei: deze discussie gaat de verkeerde kant op :o

Er zijn wat - nog niet onafhankelijk bevestigde - benchmarks. Jullie verschillen beide van mening over de betekenis/betrouwbaarheid ervan. Prima, constateer dat en laat het erbij.

Aub niet trollen met "Deze discussie ga ik niet aan" onder een post waarin je dat wel doet, of flamen met "sommigen". Gewoon proberen te doen alsof jullie (bijna) volwassenen zijn die andermans mening kunnen respecteren.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

Verwijderd

Eén voorbeeld welke al redelijk twijfelachtig is. Zie bijv. Battleforge hier;

Afbeeldingslocatie: http://tpucdn.com/reviews/AMD/HD_7970/images/battleforge_2560_1600.gif

en dan hier;

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagelarge/1324457589.jpeg

8% vs 58% sneller....

:?

Enfin, zou kunnen dat de slides echt waren, maar dan natuurlijk wel zo geconstrueerd dat ze zo goed mogelijk voor AMD eruit kwamen. Gebeurd die kant op, maar ook andersom en zo gaat het nu eenmaal...

[ Voor 81% gewijzigd door Verwijderd op 06-04-2012 10:45 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Behalve dat de kans er best wel in zit dat ook de instellingen heel anders zijn. Resolutie alleen zegt vrij weinig.

Acties:
  • 0 Henk 'm!

Verwijderd

Klopt, misschien heeft AMD wel MLAA toegepast (wat ik ook eerst dacht te zien), maar dat is niet zeker, dit kan ook veel invloed hebben op de uitslagen...

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op vrijdag 06 april 2012 @ 10:39:
Enfin, zou kunnen dat de slides echt waren, maar dan natuurlijk wel zo geconstrueerd dat ze zo goed mogelijk voor AMD eruit kwamen. Gebeurd die kant op, maar ook andersom en zo gaat het nu eenmaal...
Natuurlijk laat AMD zichzelf er goed uit komen bij iets wat ze zelf maken dat lijkt mij vrij logisch. Ik heb nog nooit een fabrikant gezien die zichzelf zo slecht mogelijk voordeed als die iets wou verkopen. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 06 april 2012 @ 11:15:
[...]

Natuurlijk laat AMD zichzelf er goed uit komen bij iets wat ze zelf maken dat lijkt mij vrij logisch. Ik heb nog nooit een fabrikant gezien die zichzelf zo slecht mogelijk voordeed als die iets wou verkopen. :p
Natuurlijk, is ook logisch, maar wel onrealistisch helaas... En dan nog zitten er uitslagen tussen die behoorlijk twijfelachtig zijn, zie het voorbeeld wat ik gegeven heb. Ik heb net als Lupp in dit geval sterk mijn twijfels of de uitslagen van die slides allemaal wel echt zo uit de benchmarks gerold zijn, maar dat zullen we nooit weten...

EDIT; Zo klopt trouwens Civ 5 ook voor geen meter als ik TPU wederom vergelijk... (10% vs 60% sneller...)

[ Voor 11% gewijzigd door Verwijderd op 06-04-2012 11:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Leuke test;

http://www.computerbase.d...x-680-sli-vs.-hd-7970-cf/

Gaat erg gelijk op, lang geleden dat we Nvidia eens een keer minder stroom zien verbruiken in dit soort tests...
Bij de conclusie gaat de lichte voorkeur uit naar Nvidia vanwege meer microstutter problemen bij AMD.

[ Voor 51% gewijzigd door Verwijderd op 06-04-2012 11:43 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
Het punt met die reviewer's guides is dat ze altijd heel erg specifieke instellingen voor alles hebben. Kijk maar eens naar http://www.hardocp.com/ar...e_gtx_680_reviewers_guide

Staat evenveel bullshit in en die cijfertjes komen even min overeen met de werkelijkheid als die uit de 7970 slides. Er wordt ook altijd vies uitgehaald naar elkaar waarbij partij A beweert dat partij B allerlei smerige dingen in de driver doet terwijl zij dat zelf niet doen. Wij weten wel beter natuurlijk, want dat doen ze allebei :P

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

dion_b schreef op vrijdag 06 april 2012 @ 09:17:
[modbreak]Allebei: deze discussie gaat de verkeerde kant op :o

Er zijn wat - nog niet onafhankelijk bevestigde - benchmarks. Jullie verschillen beide van mening over de betekenis/betrouwbaarheid ervan. Prima, constateer dat en laat het erbij.[/modbreak]

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 22-09 15:16
nieuws: TSMC kampt met 28nm-tekorten
http://semiaccurate.com/2...nvidias-financial-parade/
(Bij S|A even de eerste vier alinea's overslaan ivm bashen...)

Acties:
  • 0 Henk 'm!

Verwijderd

Jammer, daarom ook dat de prijzen hoog blijven aan beide kanten. Volgens mij zijn die slechte yields voor niemand goed.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Dat wordt 500 euro per kaart tot einde van het jaar...

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Roerbakeitje
  • Registratie: Maart 2009
  • Laatst online: 24-08 13:48
Azerty heeft zijn prijzen weer omlaag gegooid (€ 454,48), en afuture naar € 452,90.

edit: voor de EVGA gtx 680 pricewatch: EVGA GeForce GTX 680

[ Voor 45% gewijzigd door Roerbakeitje op 06-04-2012 14:54 ]


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Verwijderd schreef op vrijdag 06 april 2012 @ 14:44:
Jammer, daarom ook dat de prijzen hoog blijven aan beide kanten. Volgens mij zijn die slechte yields voor niemand goed.
Zelfde verhaal als met de Radeon HD 5870 destijds. Uitstekende videokaarten door nieuw 40nm procedé, maar direct schaarste. AMD heeft ervan geleerd in die zin dat ze de premium nu wel vanaf dag 1 vragen. Bij de HD 5870 zag je de prijzen na launch klimmen van €330 naar €380 voor een leverbare videokaart.. Ik geef ze groot gelijk, alhoewel ik wel wacht op lagere prijzen voordat ik overweeg om te upgraden.

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op vrijdag 06 april 2012 @ 14:44:
Jammer, daarom ook dat de prijzen hoog blijven aan beide kanten. Volgens mij zijn die slechte yields voor niemand goed.
Hoezo? enkel nvidia kampt met slechte yields.
TSMC kampt gewoon met een veel te hoge vraag tegenover hun productie capaciteit.

Acties:
  • 0 Henk 'm!

Verwijderd

AMD kan ook niet voldoende gpu's leveren.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
zoals elk nieuwsbericht zei: TSMC kampt met tekort aan productiecapaciteit. Dat is niet hetzelfde als yield problemen bij hun klanten.

Acties:
  • 0 Henk 'm!

Verwijderd

Welk probleem heeft AMD dan als ze niet voledoende gpu's kunnen leveren aan TSMC?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Verwijderd schreef op vrijdag 06 april 2012 @ 15:58:
Welk probleem heeft AMD dan als ze niet voledoende gpu's kunnen leveren aan TSMC?
:?

Acties:
  • 0 Henk 'm!

Verwijderd

Door Willem de Moor vrijdag 6 april 2012 12:11


De Taiwanese chipbakker TSMC zou nog tot het najaar met productietekorten kampen voor zijn 28nm-producten. Onder meer Qualcomm, AMD en Nvidia, die 28nm-chips van de fabrikant afnemen, zouden te lijden hebben onder de tekorten.

De productiecapaciteit van Taiwan Semiconductor Manufacturing Company blijkt onvoldoende om aan de vraag naar 28nm-chips te voldoen, zo meldt Digitimes. Dat zou deels komen doordat de yields, het aantal functionele chips per wafer, nog niet bijster goed zijn, maar ook de waferproductie laat te wensen over. Een bestaande 300mm-wafer-fabriek wordt vanaf deze maand aangepast voor de productie van 28nm-chips, maar deze upgrade zal nog enige tijd duren. TSMC zou in dit jaar vergeleken met 2011 ongeveer 10 procent meer productie kunnen draaien. Ongeveer een kwart van de productiecapaciteit betreft 300mm-wafers, deels geschikt voor 28nm-productie.

Qualcomm, een van de afnemers van 28nm-chips, heeft als reactie op TSMC's tekorten een deel van de productie uitbesteed bij concurrent United Microelectronics. Desondanks kampt het bedrijf met een vraag naar processors die groter is dan wat het kan leveren. Ook AMD, dat met de Radeon HD 79xx-videokaarten naar 28nm-gpu's is overgestapt, kan onvoldoende gpu's leveren. Datzelfde geldt voor Nvidia, dat met de eerste Kepler-gpu's, de GTX 680, naar 28nm switchte. Ook daarvan zijn er te weinig chips en hetzelfde geldt voor de rest van de geplande Kepler-gpu's.
Ik snap het verschil dan niet, want beide lijken de zelfde problemen te hebben als ik dit zo lees.

[ Voor 3% gewijzigd door Verwijderd op 06-04-2012 16:10 ]


Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op vrijdag 06 april 2012 @ 16:00:
Door Willem de Moor vrijdag 6 april 2012 12:11


De Taiwanese chipbakker TSMC zou nog tot het najaar met productietekorten kampen voor zijn 28nm-producten. Onder meer Qualcomm, AMD en Nvidia, die 28nm-chips van de fabrikant afnemen, zouden te lijden hebben onder de tekorten.

De productiecapaciteit van Taiwan Semiconductor Manufacturing Company blijkt onvoldoende om aan de vraag naar 28nm-chips te voldoen, zo meldt Digitimes. Dat zou deels komen doordat de yields, het aantal functionele chips per wafer, nog niet bijster goed zijn, maar ook de waferproductie laat te wensen over. Een bestaande 300mm-wafer-fabriek wordt vanaf deze maand aangepast voor de productie van 28nm-chips, maar deze upgrade zal nog enige tijd duren. TSMC zou in dit jaar vergeleken met 2011 ongeveer 10 procent meer productie kunnen draaien. Ongeveer een kwart van de productiecapaciteit betreft 300mm-wafers, deels geschikt voor 28nm-productie.
We weten dat nvidia kampt met yields (zie Nvidia press conference).
Al de anderen hebben geen lage yields warning afgegeven (dus yields zijn daar niet bar bar slecht), slechts een tekort omdat TSMC niet genoeg kan leveren omdat ze veel te weinig productie capaciteit hebben voor hun aantal klanten.

Maw: ze hebben beperkte oplage door te weinig 28nm machienerie (een groot stuk van hun 300mm productielijn moet nog geconverteerd worden van 40nm).
Sommige klanten hebben slechtere tot veel slechtere yields waardoor ze nog minder krijgen uit het aantal beschikbare wafers.

Dit is gewoon slecht nieuws voor alle fabrikanten die hun 2012 lineup bij TSMC hebben. (Het resultaat is dat Nvidia grotere problemen heeft dan de rest als ze dezelfde wafer oplage krijgen, maar dat elke fabrikant gewoon veeeeeel misloopt).

Dit verklaard ineens waarom we niet snel een >400mm chip van gpu fabricanten moeten verwachten.

[ Voor 19% gewijzigd door Devpartner op 06-04-2012 16:10 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Die eerste vier regels geven juist een uitermate goede reden waarom nVidia een 'Pay per good Die' regeling had voor 40nm, waar de 'Pay per Wafer' regeling de norm is. Het is evenzeer ook de reden geweest waarom AMD een Pay per good Die regeling had met GF aangaande 32nm, eveneens een tijdelijke regeling. Is het dan ook bashen als je stelt dat yields van GF's 32nm voor Llano producten superslecht waren?

FQ1 2013 zal in ieder geval interessant zijn met dit in het achterhoofd, maar dan zullen we eerst nog een maandje moeten wachten.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 06 april 2012 @ 15:58:
Welk probleem heeft AMD dan als ze niet voledoende gpu's kunnen leveren aan TSMC?
AMD levert geen gpu's aan TSMC, maar andersom....

Simpel uitgelegd; Beide kampen (AMD & Nvidia) zullen een tekort aan gpu's hebben omdat er te weinig productiecapaciteit is. Echter heeft AMD het voordeel dat hun yields beter zijn en dus meer werkende gpu's per wafer daadwerkelijk kunnen verkopen. Nvidia heeft dus zeg maar een 'dubbel' probleem; én te weinig capaciteit in de vorm van wafers, én lagere yields per wafer.

[ Voor 7% gewijzigd door Verwijderd op 06-04-2012 17:24 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 22-09 15:16
dahakon schreef op vrijdag 06 april 2012 @ 17:09:
[...]


Die eerste vier regels geven juist een uitermate goede reden waarom nVidia een 'Pay per good Die' regeling had voor 40nm, waar de 'Pay per Wafer' regeling de norm is. Het is evenzeer ook de reden geweest waarom AMD een Pay per good Die regeling had met GF aangaande 32nm, eveneens een tijdelijke regeling. Is het dan ook bashen als je stelt dat yields van GF's 32nm voor Llano producten superslecht waren?
Oke, de tweede alinea voegt nog wel wat aan het verhaal toe, maar misschien moet ik verduidelijken waarom ik zeg dat je de eerste vier alinea's beter kunt overslaan.
Persoonlijk vind ik namelijk de informatie die ze daar uit een qoute van een document weten te slepen best waardevol, maar als je eerst aan het begin van het bericht door dat oude-koeien-uit-de-sloot-halen en ander gebash heen moet graven dan wordt de aangeboden informatie een stuk minder serieus genomen.

Tenminste ik vind dat artikel nu een behoorlijk Charlie haat nVidia gehalte hebben, terwijl als Anandtech het had gepost het artikel waarschijnlijk veel serieuzer genomen zou worden.
Maar goed nogmaals, dat is wel persoonlijk ;)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Werelds schreef op donderdag 05 april 2012 @ 19:26:
Wat is dat nu voor onzin?

Een 360 heeft een ATI (nee, geen AMD!) GPU, PS3 heeft een Nvidia GPU. 360 games zien er vaak beter uit dan PS3 titels en draaien vaak ook veel soepeler, ondanks het feit dat de PS3 eigenlijk iets krachtiger is (elke console eigenaar zal dan ook aanraden een 360 te kopen tenzij er PS3 exclusives zijn die je wil spelen). Draaien de meeste crossplatform titels nu beter op ATI/AMD? Nee.

Tijd om eens met Mel Gibson te gaan praten ;)
PS3 is krachtiger vanwege zijn CPU niet vanwege zijn GPU. De GPU in de Xbox360 is iets krachtiger maar niet veel. Daarnaast betwijfel ik of het allemaal beter uit ziet op een Xbox360 dan op een PS3. Daarnaast zijn bijna alle consoles games zowel op PS3 als Xbox360 beschikbaar als ze ook voor de PC beschikbaar zijn.

Voorbeeldje waar het geen ik zeg wel van toepassing KAN zijn.

"Why the Radeons are doing so extremely well can only be speculated about at the moment. On the one hand it seems like Assault on Dark Athena has affinity for Arithmetic power - a plus for Radeons. On the other hand the developing platform of Escape from Butcher Bay had been the Xbox 360. The graphics processor of the console, the Xenos, is similar to current Radeon-HD models - so optimizations for this chip should also affect the RV770 and the other Radeon graphics chips. In matters of visual quality we didn't see any differences between AMD and Nvida graphics cards (see the gallery for comparative screensots). Another possibility for the good Radeon results is that Ati already optimized the drivers while Nvidia still has to do that."

Op 1280x1024 is een HD3870 sneller dan een GTX285 :+

Bron

Enfin laten we de discussie maar achter ons laten, er is namelijk geen eenduidige conclusie die met zekerheid getrokken kan worden.

[ Voor 47% gewijzigd door madmaxnl op 06-04-2012 18:48 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
madmaxnl schreef op vrijdag 06 april 2012 @ 18:33:
[...]
PS3 is krachtiger vanwege zijn CPU niet vanwege zijn GPU. De GPU in de Xbox360 is iets krachtiger maar niet veel. Daarnaast betwijfel ik of het allemaal beter uit ziet op een Xbox360 dan op een PS3. Daarnaast zijn bijna alle consoles games zowel op PS3 als Xbox360 beschikbaar als ze ook voor de PC beschikbaar zijn.
Nee hoor, RSX heeft meer shader power; het probleem is echter hetzelfde als met VLIW5 in Cypress. Het vergt flink wat meer werk om alles er uit geperst te krijgen. Xenos is een stuk flexibeler en makkelijker te gebruiken - niet in het minst omdat MS gewoon weet wat ze doen op dat gebied. De PS3 devkit is gewoon complex. Als je interesse hebt kun je altijd eens op Beyond3D kijken, daar zijn meerdere malen threads en dergelijke langs gekomen die iets dieper er op in gaan. Enige waar Xenos *technisch* gezien voorligt is met het EDRAM en de 8 vertex units, voor de rest heeft RSX meer rauwe kracht.

Simpel voorbeeld is Mafia 2, daar waren wat problemen met gras en bloed en dat was echt niet omdat de PS3 niet krachtig genoeg was vergeleken met de 360 ;)

Enfin, doet er verder ook niet toe - punt is dat ongeacht welke GPU er in de nieuwe consoles komt, dat gaat op de PC niets uitmaken. De onderliggende API's zijn gewoon anders en daar ligt de grootste bottleneck.

[ Voor 10% gewijzigd door Werelds op 06-04-2012 19:40 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 11:30
Werelds schreef op vrijdag 06 april 2012 @ 19:38:
voor de rest heeft RSX meer rauwe kracht.

Simpel voorbeeld is Mafia 2
Simpel voorbeeld is GPGPU?
Je hoort vaak genoeg over organisaties, bedrijven, overheden etc. dat ze PS3 clusters hebben staan voor GPGPU taken, eerlijk gezegd heb ik nog nooit van X360s die voor dat soort doeleinden worden gebruikt. Zegt genoeg over de rauwe krachtvergelijking tussen de twee lijkt mij.

Acties:
  • 0 Henk 'm!

  • Pazienza
  • Registratie: Februari 2012
  • Laatst online: 06:19
Snorro schreef op zaterdag 07 april 2012 @ 13:46:
[...]


Simpel voorbeeld is GPGPU?
Je hoort vaak genoeg over organisaties, bedrijven, overheden etc. dat ze PS3 clusters hebben staan voor GPGPU taken, eerlijk gezegd heb ik nog nooit van X360s die voor dat soort doeleinden worden gebruikt. Zegt genoeg over de rauwe krachtvergelijking tussen de twee lijkt mij.
En misschien ook over de betrouwbaarheid van de consoles..

Als je 30 xbox 360's hebt staan kun je er elke week 1 vervangen..

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
PS3 zal toch echt vooral vanwege Cell voor GPGPU taken worden ingezet en niet vanwege de DX9 (non-GPGPU-capabele) GPU die in die kast zit.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De PS3 is/was met name geschikt omdat er een vlotte processor in zit en omdat er Linux op kon. Hoe dat tegenwoordig aangepakt wordt nu er geen Linux meer op kan weet ik eigenlijk niet precies...

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 13:45
holy sh*t ik wist niet dat ik op het PS3 en Xbox 360 topic zat te kijken met nutteloze discussies! Misschien is het weer tijd voor wat nieuws ? srry voor de offtopic maar come on guys..

[ Voor 12% gewijzigd door Jasper 99 op 07-04-2012 20:43 ]


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Allemaal leuk die keiharde dikke performance en hoge prijzen maar ik ben meer geïnteresseerd in de lager geprijsde kaarten die Nvidia op de markt wil gaan zetten.

Een goede vervanger voor de GTX560 bijvoorbeeld tegen een bak minder stroomverbruik zou leuk zijn.

Is hier al info over?

[ Voor 4% gewijzigd door Blaat op 07-04-2012 17:57 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 15:07
Tsja, als er geen nieuws is...

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
Verwijderd schreef op vrijdag 06 april 2012 @ 11:40:
Leuke test;

http://www.computerbase.d...x-680-sli-vs.-hd-7970-cf/

Gaat erg gelijk op, lang geleden dat we Nvidia eens een keer minder stroom zien verbruiken in dit soort tests...
Bij de conclusie gaat de lichte voorkeur uit naar Nvidia vanwege meer microstutter problemen bij AMD.
Eindelijk een review die mijn mening deelt.
zie o.a.
Paprika in "[Centraal] Multi-monitor setup"
en
Paprika in "CJ's Radeon Nieuwsdiscussietopic - Deel 122"

Afbeeldingslocatie: http://vipeax.org/04p771M807N052.png
Al is dit natuurlijk wel slecht....

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jasper 99 schreef op zaterdag 07 april 2012 @ 14:40:
holy shit ik wist niet dat ik op het PS3 en Xbox 360 topic zat te kijken met nutteloze discussies! Misschien is het weer tijd voor wat nieuws ? srry voor de offtopic maar come on guys..
offtopic:
Je eigen gezever is nog meer off topic dan al het andere, maar goed...


Om dan toch nog iets 'nieuws' te brengen.

http://semiaccurate.com/2...hips-up-a-custom-gtx-680/

Een iets andere GTX680 dan de doorsnee non-reference versies.

Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 13:45
ik snap dat plaatje niet helemaal zegt dat niet meer over de benchmark dan over de kaarten? een 680 sneller dan 2x 7970 en 2 x 680 sli ? dan is het toch gewoon een nuteloze benchmark of mis ik iets ? :P
dahakon schreef op zaterdag 07 april 2012 @ 20:24:
[...]


offtopic:
Je eigen gezever is nog meer off topic dan al het andere, maar goed...


Om dan toch nog iets 'nieuws' te brengen.

http://semiaccurate.com/2...hips-up-a-custom-gtx-680/

Een iets andere GTX680 dan de doorsnee non-reference versies.
Super vet kaartje! Ziet er mooi uit, ik zou bijna me reference willen verkopen als al deze non reference modellen uitkomen maarja :D

offtopic:
hey iemand moet er wat van zeggen je mag het gezever noemen maarja

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
Jasper 99 schreef op zaterdag 07 april 2012 @ 20:46:
[...]
dan is het toch gewoon een nuteloze benchmark driver of mis ik iets ? :P
Fixed. Beide merken hebben er slechte dual-GPU ondersteuning, maar de dip van de GTX680 SLI-setup is wel extreem.

[ Voor 20% gewijzigd door Paprika op 07-04-2012 21:32 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Jasper 99 schreef op zaterdag 07 april 2012 @ 20:46:
[...]
Super vet kaartje! Ziet er mooi uit, ik zou bijna me reference willen verkopen als al deze non reference modellen uitkomen maarja :D

offtopic:
hey iemand moet er wat van zeggen je mag het gezever noemen maarja
http://nl.hardware.info/n...e-videokaart-van-colorful ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op zaterdag 07 april 2012 @ 21:32:
[...]

Fixed. Beide merken hebben er slechte dual-GPU ondersteuning, maar de dip van de GTX680 SLI-setup is wel extreem.
Maar het begin van de lijn van de hd7970 is ook niet echt geweldig, maargoed dat is geen dual-gpu

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
Lijkt alsof de buffer daar bleef hangen, maar daar merkte je tijdens de race dus niets van :P.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op zaterdag 07 april 2012 @ 23:44:
[...]


Maar het begin van de lijn van de hd7970 is ook niet echt geweldig, maargoed dat is geen dual-gpu
Lijkt alsof ze te laat beginnen met de meting... Kan natuurlijk niet gezien de tijden die vast zitten aan de metingen.

Acties:
  • 0 Henk 'm!

  • Cobaltos
  • Registratie: November 2009
  • Laatst online: 28-08 12:40
Wolf schreef op zaterdag 07 april 2012 @ 17:57:
Allemaal leuk die keiharde dikke performance en hoge prijzen maar ik ben meer geïnteresseerd in de lager geprijsde kaarten die Nvidia op de markt wil gaan zetten.

Een goede vervanger voor de GTX560 bijvoorbeeld tegen een bak minder stroomverbruik zou leuk zijn.

Is hier al info over?
Wacht hier ook op, hoorde dat ie misschien in mei uitkwam, maar dat was slechts een gerucht.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:39
Cobaltos schreef op zondag 08 april 2012 @ 23:55:
[...]


Wacht hier ook op, hoorde dat ie misschien in mei uitkwam, maar dat was slechts een gerucht.
Laatste gerucht is de zomer voor 660 (670 in mei oid).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Daantje20
  • Registratie: Mei 2002
  • Laatst online: 21-08 14:41

Daantje20

Je moet leven om te leren.

Er waren ook geruchten dat er een aantal GPU's een rebrand gingen krijgen. Heeft iemand al iets gehoord van welke GPU's dat gaan worden?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

Low-end's.. Van die OEM kaartjes a la GT520 enzo.

Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 05:56

Tomas Hochstenbach

Redacteur componenten
Daantje20 schreef op maandag 09 april 2012 @ 15:27:
Er waren ook geruchten dat er een aantal GPU's een rebrand gingen krijgen. Heeft iemand al iets gehoord van welke GPU's dat gaan worden?
GT 620 en GT 605.

Acties:
  • 0 Henk 'm!

  • Wackmack
  • Registratie: Oktober 2003
  • Laatst online: 18-09 15:42

Acties:
  • 0 Henk 'm!

Verwijderd

Nieuwe beta 301.24

http://www.nvidia.co.uk/Download/Find.aspx?lang=en-uk

New in R300 Drivers:

•New GPU Support – Adds support for the new GeForce GTX 680, the fastest, most efficient GPU ever built. Explore GeForce GTX 680 and its new SMX architecture on GeForce.com.
•Performance Boost – Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. GeForce 296.10 WHQL-certified drivers. Results will vary depending on your GPU and system configuration:
GeForce GTX 570/580:

◦Up to 23% in Just Cause 2 with SLI
◦Up to 21% in The Elder Scrolls V: Skyrim
◦Up to 17% in StarCraft II with SLI
◦Up to 14% in Far Cry 2 with SLI
◦Up to 9% in Bulletstorm
◦Up to 7% in Civilization V
◦Up to 6% in Deus Ex: Human Revolution with SLI
◦Up to 6% in Dragon Age 2 with SLI
◦Up to 5% in Metro 2033 with SLI
◦Up to 5% in Total War: Shogun 2
GeForce GTX 560/560 Ti:

◦Up to 20% in The Elder Scrolls V: Skyrim
◦Up to 15% in Just Cause 2 with SLI
◦Up to 13% in Far Cry 2 with SLI
◦Up to 12% in Bulletstorm
◦Up to 11% in Civilization V
◦Up to 10% in StarCraft II with SLI
◦Up to 9% in Batman: Arkham City
◦Up to 4% in Deus Ex: Human Revolution with SLI
◦Up to 4% in Dragon Age 2 with SLI
◦Up to 4% in Metro 2033 with SLI
◦Up to 4% in Total War: Shogun 2

•NVIDIA FXAA Technology – shader-based anti-aliasing technology available from the NVIDIA Control Panel that enables ultra-fast anti-aliasing in hundreds of PC games. FXAA delivers similar quality to 4x multi-sample antialiasing (MSAA) but is up to 60% faster, enabling substantially higher performance in games. FXAA is supported on all GeForce 8-series and later GPUs. Note: This feature is disabled for games that already have built-in support for FXAA. Visit GeForce.com to learn more.

•NVIDIA Adaptive Vertical Sync – dynamically enables vertical sync based on your current frame rates for the smoothest gaming experience. Adaptive VSync is supported on all GeForce 8-series and later GPUs. Visit GeForce.com to learn more.•NVIDIA Frame Rate Target – dynamically adjusts frame rate to a user specified target. Support for this feature is enabled via third party applications via NVAPI. Visit GeForce.com to learn more.

•NVIDIA Surround Technology – Adds the following new Surround capabilities. Visit GeForce.com to learn more.
◦Add in a fourth accessory display to get access to your email, web, or other applications while you game.
◦Maximize an application to a single physical display when in Surround mode (enabled by default).
◦Confine the Windows Taskbar to the center display (enabled by default).
◦Enable bezel peeking – a feature which enables users to temporarily ‘peak’ behind the monitor bezels using a hotkey (Ctrl + Alt + B). This feature is designed to be used in conjunction with bezel corrected resolutions.
◦Add or remove resolutions from the list of Surround resolutions (only those selected will be available to applications).
◦Full center display acceleration for single wide display modes (center display must be connected to the master GPU).

•NVIDIA SLI Technology – Adds or updates the following SLI profiles:◦Alan Wake
◦Call of Juarez: The Cartel
◦Counter-Strike: Global Offensive
◦Deus Ex: Human Revolution - The Missing Link
◦Left 4 Dead
◦Orcs Must Die!
◦Portal 2◦Risen 2: Dark Waters
◦The Darkness II
•NVIDIA 3D Vision – Adds or updates the following 3D Vision profiles:◦All Zombies Must Die! – rated Fair
◦Ghosts 'n Goblins Online – rated Good
◦Oil Rush – rated 3D Vision Ready
◦Postal III – rated Good
◦Rayman Origins – rated Good
◦SevenCore – rated Fair
◦Stacking – rated Good
◦Unigine Heaven Benchmark v3.0 – rated 3D Vision Ready
◦Wargame: European Escalation – rated Good
◦Warp – rated Good
◦Wings of Prey – rated Fair
◦Krater – rated Poor

Other Details
•Installs PhysX System Software v9.12.0213.
•Installs HD Audio v1.3.12.0.
•Supports OpenGL 4.2
•Supports DisplayPort 1.2 for GeForce GTX 680.
•Supports multiple languages and APIs for GPU computing: CUDA C, CUDA C++, CUDA Fortran, OpenCL, DirectCompute, and Microsoft C++ AMP.
•Supports single GPU and NVIDIA SLI technology on DirectX 9, DirectX 10, DirectX 11, and OpenGL, including 3-way SLI, Quad SLI, and SLI support on SLI-certified Intel and AMD motherboards.

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Die EVGA GTX680 SC+ haalt met gemak 1330mhz core :9~ En dat op 'slechts' 1.095v!

Acties:
  • 0 Henk 'm!

Verwijderd

Dat is dus incl. boost zoals ik het snel las in de review op hardwarecanucks...

Acties:
  • 0 Henk 'm!

  • theburninglink
  • Registratie: April 2010
  • Laatst online: 11-08 20:43
MSI lanceert gtx 680 twin frozr :)
Ben benieuwd hoeveel hij gaat kosten en wanneer hij fatsoenlijk leverbaar is :)
http://msi.com/news-media/news/1403.html

'I reject your reality and substitute my own'


Acties:
  • 0 Henk 'm!

  • vinom
  • Registratie: Augustus 2009
  • Laatst online: 15:15
Inderdaad, de prijs zal voor mij bepalen of ik voor de Twin Frozr III ga of gewoon voor de referentie kaart.

Acties:
  • 0 Henk 'm!

  • Devpartner
  • Registratie: Oktober 2008
  • Laatst online: 08-10-2021
Verwijderd schreef op dinsdag 10 april 2012 @ 16:13:
Dat is dus incl. boost zoals ik het snel las in de review op hardwarecanucks...
en op een andere spanning (want die gaat mee omhoog bij turboboost).

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Het is gewoon een reference pcb dus zou niet weten waarom je deze MSI boven een ander model met non-reference koeler zou verkiezen...

http://fudzilla.com/home/...gtx-680-twin-frozr-iii-oc

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Boost is gerelateerd aan het design van de GTX680, geef het een naam, feit is dat de kaart 1330mhz doet en dat is netjes (hoe die dat doet maakt mij geen ruk uit, zolang ie het maar doet zodra het gevraagd wordt).

Dus als je 1.1v instelt in Afterburner en locked ga je icm boost toch nog een hoger voltage krijgen volgens jullie? Dat is dan voor het eerst...

Acties:
  • 0 Henk 'm!

  • sleepwalkerbe
  • Registratie: Januari 2009
  • Laatst online: 20-09 01:27
t!n0 schreef op donderdag 12 april 2012 @ 16:31:
Boost is gerelateerd aan het design van de GTX680, geef het een naam, feit is dat de kaart 1330mhz doet en dat is netjes (hoe die dat doet maakt mij geen ruk uit, zolang ie het maar doet zodra het gevraagd wordt).

Dus als je 1.1v instelt in Afterburner en locked ga je icm boost toch nog een hoger voltage krijgen volgens jullie? Dat is dan voor het eerst...
Dat gebeurt niet, je kan alleen je minimale volt instellen op welke hij dus steeds zal blijven of ie t nodig heeft of niet. Vandaar dat ik het ook raar vind dat ze zo veel betere resultaten krijgen in de hardwarecanucks review ...

<SG> Sleepwalkerbe - Diablo 3


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
t!n0 schreef op donderdag 12 april 2012 @ 16:31:
Boost is gerelateerd aan het design van de GTX680, geef het een naam, feit is dat de kaart 1330mhz doet en dat is netjes (hoe die dat doet maakt mij geen ruk uit, zolang ie het maar doet zodra het gevraagd wordt).
Punt is dat jij niks te vragen hebt :)

GPU boost bepaalt zelf wanneer het zin heeft om de clocks omhoog te duwen en met hoeveel. Nu zal het voor de Twin Frozr wel meevallen omdat ze daar wel zullen cherrypicken, maar daar bovenop is het ook nog zo dat er ontzettend veel verschil tussen de chips zit. Ik heb met de mijne bijvoorbeeld pech; draait in 3D altijd op 1175mV en +120/+75 is mijn limiet. Anderen halen dan weer 100 op de core meer en zelfs meer dan 200 meer op het geheugen; en ze moeten zelf het voltage op 1175mV forceren :)

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Ik vraag de max van mijn kaart en dat levert ie icm een bepaald voltage en temperatuur, dus heb zeker wel wat te vragen (of de max via boost bereikt wordt of niet doet niet ter zake).
Zover ik heb begrepen is temperatuur de belangrijke factor die op da moment de max clock bepaald, niets anders als met andere kaarten dus (i.e. max op lucht, water en ln2 is bij dezelfde kaart altijd anders)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
t!n0 schreef op donderdag 12 april 2012 @ 19:26:
Ik vraag de max van mijn kaart en dat levert ie icm een bepaald voltage en temperatuur, dus heb zeker wel wat te vragen (of de max via boost bereikt wordt of niet doet niet ter zake).
Nee, je vraagt de max en hoopt dat ie niet de gelockte max-TDP haalt ;).

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
t!n0 schreef op donderdag 12 april 2012 @ 19:26:
Ik vraag de max van mijn kaart en dat levert ie icm een bepaald voltage en temperatuur, dus heb zeker wel wat te vragen (of de max via boost bereikt wordt of niet doet niet ter zake).
Zover ik heb begrepen is temperatuur de belangrijke factor die op da moment de max clock bepaald, niets anders als met andere kaarten dus (i.e. max op lucht, water en ln2 is bij dezelfde kaart altijd anders)
Nee, dat is dus helemaal niet zo. De eerste factor is je FPS en enige limiet die daar voor loopt. Als jij een frame-rate target, frame-rate limiter of V-Sync (adaptive of niet) gebruikt en je zit aan die limiet, doet GPU boost helemaal niks. Pas als je FPS dropt doet hij iets; wat in sommige gevallen dan al te laat is, want een game als BF3 wil toch nog wel onder de 60 vallen. Met een permanente overclock die je zelf in de hand hebt kun je er voor zorgen dat dat minimum iets hoger ligt, terwijl met GPU boost de mosterd pas na de maaltijd komt :)

Acties:
  • 0 Henk 'm!

  • t!n0
  • Registratie: December 2005
  • Laatst online: 17-07 17:44
Misschien nuttig om te vermelden dat ik meer doel op benchen (wat ik zelf het meest doe).
Dan gebruik je dus absoluut geen limiters ;)
Dan is de enige overgebleven factor dus temperatuur? Die kun je gemakkelijk beïnvloeden en daarmee dus de max clock.
Als ik ernaast zit hoor ik het graag want ik wil gewoon weten of ik met deze kaart lekker punten kan scoren op hwbot :) (sta op het punt 1 te bestellen namelijk)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 13:59
Als je een goed sample krijgt wel ja :P

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
Zit je dan niet nog altijd met de TDP?

Afbeeldingslocatie: http://vipeax.org/04e0O1F112u14h.png

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:39
Verwijderd schreef op vrijdag 06 april 2012 @ 11:40:
Leuke test;

http://www.computerbase.d...x-680-sli-vs.-hd-7970-cf/

Gaat erg gelijk op, lang geleden dat we Nvidia eens een keer minder stroom zien verbruiken in dit soort tests...
Bij de conclusie gaat de lichte voorkeur uit naar Nvidia vanwege meer microstutter problemen bij AMD.
Memory Capacity and Bandwidth
We know exactly what you guys are thinking. The Radeon HD 7970 has 3GB of VRAM, the GeForce GTX 680 has 2GB; the Radeon HD 7970 has 264GB/sec of memory bandwidth and the GeForce GTX 680 has 192GB/sec of memory bandwidth. You'd expect Radeon HD 7970 CrossFireX to simply blow GeForce GTX 680 SLI out of the water at 5760x1200. The simple fact is, it does not, and in fact GeForce GTX 680 SLI provides a better gameplay experience with better performance. Amazing, but true. Obviously AMD’s driver engineers need to figure out how to utilize the hardware more efficiently, because at the moment, NVIDIA is taking AMD to school.

There is one interesting game to look at right now for video card memory usage, and that is Battlefield 3 multiplayer. There is a big difference between the VRAM usage in single player and multiplayer. When we cranked this game up in a 64 player server at the highest in-game settings we saw it get near to 5 GB of VRAM usage on Radeon HD 7970 at 4X AA at 5760x1200. This game seems certainly capable of maximizing VRAM usage on video cards in multiplayer in NV Surround or Eyefinity resolutions. It makes us really want to try out 4GB, or higher video cards. A couple of 4GB GTX 680 video cards are looking real interesting to us right now in this game, and from what rumors we have heard, Galaxy is very likely to make this happen for us.

SLI smoothness vs. CrossFireX smoothness
We don't know what other descriptive word to use, other than "smoothness" to describe the difference we feel between SLI and CrossFireX when we play games. We've expressed this difference in gameplay feeling between SLI and CrossFireX in the past, in other evaluations, and we have to bring it up again because it was very apparent during our testing of 680 SLI versus 7970 CFX.

We can't communicate to you "smoothness" in raw framerates and graphs. Smoothness, frame transition, and game responsiveness is the experience that is provided to you as you play. Perhaps it has more to do with "frametime" than it does with "framerate." To us it seems like SLI is "more playable" at lower framerates than CrossFireX is. For example, where we might find a game playable at 40 FPS average with SLI, when we test CrossFireX we find that 40 FPS doesn't feel as smooth and we have to target a higher average framerate, maybe 50 FPS, maybe 60 FPS for CrossFireX to feel like NVIDIA's SLI framerate of 40 FPS. Only real-world hands on gameplay can show you this, although we can communicate it in words to you. Even though this is a very subjective realm of reviewing GPUs, it is one we surely need to discuss with you.

The result of SLI feeling smoother than CrossFireX is that in real-world gameplay, we can get away with a bit lower FPS with SLI, whereas with CFX we have to aim a little higher for it to feel smooth. We do know that SLI performs some kind of driver algorithm to help smooth SLI framerates, and this could be why it feels so much better. Whatever the reason, to us, SLI feels smoother than CrossFireX.

Personally speaking here, when I was playing between GeForce GTX 680 SLI and Radeon HD 7970 CrossFireX, I felt GTX 680 SLI delivered the better experience in every single game. I will make a bold and personal statement; I'd prefer to play games on GTX 680 SLI than I would with Radeon HD 7970 CrossFireX after using both. For me, GTX 680 SLI simply provides a smoother gameplay experience. If I were building a new machine with multi-card in mind, SLI would go in my machine instead of CrossFireX. In fact, I'd probably be looking for those special Galaxy 4GB 680 cards coming down the pike. After gaming on both platforms, GTX 680 SLI was giving me smoother performance at 5760x1200 compared to 7970 CFX. This doesn't apply to single-GPU video cards, only between SLI and CrossFireX.
http://www.hardocp.com/ar...0_sli_video_card_review/9

Beetje 't zelfde verhaal hier overigens, viel me nu pas op.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Even though this is a very subjective realm of reviewing GPUs, it is one we surely need to discuss with you.
Als ze het dan goed willen doen moeten ze ook met onderbouwing komen, gewoon even de tijd tussen de frames meten. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39

Fid3lity

Spectre X

-The_Mask- schreef op zaterdag 14 april 2012 @ 11:31:
[...]
Als ze het dan goed willen doen moeten ze ook met onderbouwing komen, gewoon even de tijd tussen de frames meten. :p
Exactly :Y

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 15:12
Weet niet of ze al langsgekomen waren maar nog enkele 4GB kaarten aangekondigd:

http://www.guru3d.com/new...x-680-4gb-edition-photos/
http://www.guru3d.com/new...phantom-4gb-in-the-works/

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

t!n0 schreef op dinsdag 10 april 2012 @ 12:07:
Die EVGA GTX680 SC+ haalt met gemak 1330mhz core :9~ En dat op 'slechts' 1.095v!
pas maar op wat je zegt... er was ook een GTX 480 die 1GHZ haalde op een stock luchtkoeler en dat was er 1... Of al die kaarten moeten cherry picked zijn.

Ik had zelf altijd pech gehad met videokaarten en clock frequenties..zelfs de lightning clockte hier voor geen meter over en vrat veeeel te veel stroom... alleen de positieve verhalen lees je.

Nu ik 3d vision heb zit ik er toch aan te denken om over te gaan op een 680... FPS cut in half is echt shit in games :+.. alleen jammer dat TSMC de boel verziekt.. 500 euro is een klap geld voor een 680. Zal nog maanden zo blijven ben ik bang voor..

[ Voor 45% gewijzigd door A87 op 14-04-2012 14:14 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:02
-The_Mask- schreef op zaterdag 14 april 2012 @ 11:31:
[...]
Als ze het dan goed willen doen moeten ze ook met onderbouwing komen, gewoon even de tijd tussen de frames meten. :p
http://techreport.com/articles.x/21516/11

dat microstutter verhaaltje is vast al vaak langsgekomen hier, maar ze hebben het erover dat wat je met fraps meet niet is wat wordt weergegeven, de gpu draait (met dedicated hardware) een algoritme om frames soms iets te vertragen als dat soepeler is. Ten koste van wat lag.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Positieve review van HardOCP over nvidia's Adaptive Vsync:

http://www.hardocp.com/ar...vsync_technology_review/3

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

Ben er ook wel te spreken over, stuk minder mouse lag, of lag over het algemeen. Heb verder ook niet zo'n best scherm.

Acties:
  • 0 Henk 'm!

  • Roerbakeitje
  • Registratie: Maart 2009
  • Laatst online: 24-08 13:48
Wilt iemand een PNY gtx 580 kopen? 41.231 euro excl. BTW of 49.064,89 incl. BTW. :P
http://www.centralpoint.n...tm_campaign=tweakersclick

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Roerbakeitje schreef op dinsdag 17 april 2012 @ 22:47:
Wilt iemand een PNY gtx 580 kopen? 41.231 euro excl. BTW of 49.064,89 incl. BTW. :P
http://www.centralpoint.n...tm_campaign=tweakersclick
offtopic:
Hierbij kan ik wel een mooie opmerking plaatsen, maar dan krijgen we weer van die krijsende kinderen in dit topic dus ik laat het maar voor wat het is.

[ Voor 3% gewijzigd door madmaxnl op 17-04-2012 23:02 ]


Acties:
  • 0 Henk 'm!

  • Jasper 99
  • Registratie: Augustus 2007
  • Laatst online: 13:45
Roerbakeitje schreef op dinsdag 17 april 2012 @ 22:47:
Wilt iemand een PNY gtx 580 kopen? 41.231 euro excl. BTW of 49.064,89 incl. BTW. :P
http://www.centralpoint.n...tm_campaign=tweakersclick
totally worth it! O-)

Acties:
  • 0 Henk 'm!

Verwijderd

Beetje crappy reviews van Fud, maar de kaart is bijzonder fraai;

http://www.fudzilla.com/h...tx-680-phantom-2gb-tested :)
Pagina: 1 ... 31 ... 43 Laatste