CJ's Radeon Info & Nieuwsdiscussie - Deel 125 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 10 Laatste
Acties:
  • 45.475 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
pino85 schreef op maandag 28 januari 2013 @ 21:42:
Mja maar dan vraag ik me echt af, snappen ze dat zelf nu niet? er zijn in Nederland niet veel sites denk ik die dit soort reviews doen met 2 van deze kaarten.. dus je kan echt iets neer zetten, dan doe je het toch goed of je doet het niet zou ik denken..

Maar goed zal wel weer een tijdsdruk verhaal zijn, dat hebben ze bij bepaalde reviews en andere zaken waar mensen vragen over stelden al vaker aangegeven..
Ze zijn een erg klein bedrijf als je het bekijkt, te weinig man in dienst.. maar ook daar zijn goedkoop oplossingen op te verzinnen/vrijwilligers oa denk ik dan maar dus dat is geen excuses voor mij.
Maar ga nu wel offtopic.. dus als iemand van jullie nog wat nieuws heeft laat maar horen, ik zit erg te wachten op de 8000 desktop series maar het blijft maar stil daar over,dat is wel eens anders geweest he :)
offtopic:
Laat wat 16, 17 en 18 jarige hobbyisten die tests dan lopen. Zijn er genoeg te vinden die componenten bij elkaar kunnen zetten en wat benchmarks kunnen laten lopen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
De tests zijn vaak CPU limited. Dat zie je bij GURU3D bv overduidelijk:

http://www.guru3d.com/art..._ares_ii_2_review,21.html

Bovenaan hebben ze ook 2560x1600 staan en daar zie je dat de Quad CF dan wel 20% sneller is waar het op 1080p geen nut heeft om 4 GPU's te hebben.

Ze hebben helaas niet alle Eyefinity games in Quad CF getest maar bij Metro zie je in ieder geval leuke scaling: http://www.guru3d.com/art..._ares_ii_2_review,27.html

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 02-05 11:33
AMD Catalyst 13.2 Beta 3 is now available, and includes the following updates:

Improves performance up to 15% in high MSAA cases for the Crysis 3 beta release
Significantly improves latency performance in Skyrim, Boderlands 2, and Guild Wars 2
Improves single GPU performance up to 50% for DmC Devil May Cry
Improves CrossFire performance up to 10% for Crysis 2
Resolves Texture flickering seen in DirectX9.0c applications.

http://www.guru3d.com/fil...talyst_13_2_download.html

Veel plezier! :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Gurneyhck schreef op dinsdag 29 januari 2013 @ 21:19:
AMD Catalyst 13.2 Beta 3 is now available, and includes the following updates:

Improves performance up to 15% in high MSAA cases for the Crysis 3 beta release
Significantly improves latency performance in Skyrim, Boderlands 2, and Guild Wars 2
Improves single GPU performance up to 50% for DmC Devil May Cry
Improves CrossFire performance up to 10% for Crysis 2
Resolves Texture flickering seen in DirectX9.0c applications.

http://www.guru3d.com/fil...talyst_13_2_download.html

Veel plezier! :)
Ben ze al aan het downloaden :) ik ben benieuwd of ze echt merkbaar soepeler zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • randomice
  • Registratie: December 2009
  • Laatst online: 30-04 22:24
[b]
Still in the works is a rewritten memory management routine for GCN-based GPUs. AMD anticipates the future driver with this new memory manager will reduce frame latencies in DirectX 10 and 11-based games on cards based on GCN chips.
techreport

Jammer dat de nieuwe memory managment er nog niet in zit. Ik heb liever een 10% algehele verbetering dan 30% verbetering per game. :-(

Diablo 3 Profiel


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
randomice schreef op woensdag 30 januari 2013 @ 08:08:
[...]


techreport

Jammer dat de nieuwe memory managment er nog niet in zit. Ik heb liever een 10% algehele verbetering dan 30% verbetering per game. :-(
Hoe snel denk je dat zo iets gaat? Mensen verwachten echt alles de volgende dag.
Die Memory controller verbeteringen komen er ook nog eens bij. Maar dat heeft gewoon tijd nodig. Dus straks heb je 30 + 10% :) maar je moet wel wat geduld hebben. Het is een helemaal nieuwe Architectuur. its waar nVidia deze ronde geen last van had. Want de GTX680 was gewoon Fermi rebuild zonder hot clocks en zonder GPGPU.




Ik weet niet of mensen deze al kende (ik in ieder geval niet) Maar AMD heeft een Catalyst uninstall util gemaakt die echt alles verwijdert: http://sites.amd.com/us/g...st-uninstall-utility.aspx

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • randomice
  • Registratie: December 2009
  • Laatst online: 30-04 22:24
Astennu schreef op woensdag 30 januari 2013 @ 10:16:
[...]


Hoe snel denk je dat zo iets gaat? Mensen verwachten echt alles de volgende dag.
Die Memory controller verbeteringen komen er ook nog eens bij. Maar dat heeft gewoon tijd nodig. Dus straks heb je 30 + 10% :) maar je moet wel wat geduld hebben. Het is een helemaal nieuwe Architectuur. its waar nVidia deze ronde geen last van had. Want de GTX680 was gewoon Fermi rebuild zonder hot clocks en zonder GPGPU.




Ik weet niet of mensen deze al kende (ik in ieder geval niet) Maar AMD heeft een Catalyst uninstall util gemaakt die echt alles verwijdert: http://sites.amd.com/us/g...st-uninstall-utility.aspx
Het is niet dat ik het verwacht had. Het was gezegd dat het misschien in de volgende beta erbij zou zitten dus was enkel teleurgesteld en zoals je zegt het kan alleen maar beter worden ;) . Nog een waarschuwing voor die uninstall tool, NIET gebruiken icm Windows 8 . Het haalt je power plans weg in windows , erg irritant |:(

Diablo 3 Profiel


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op woensdag 30 januari 2013 @ 10:16:
Die Memory controller verbeteringen komen er ook nog eens bij.
Het gaat om de memory manager, moet om de (hardware) memory controller.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

randomice schreef op woensdag 30 januari 2013 @ 11:16:
[...]


Het is niet dat ik het verwacht had. Het was gezegd dat het misschien in de volgende beta erbij zou zitten dus was enkel teleurgesteld en zoals je zegt het kan alleen maar beter worden ;) .
Daarmee werd, afaik, 13.3 beta bedoeld.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Olaf van der Spek schreef op woensdag 30 januari 2013 @ 11:30:
[...]

Het gaat om de memory manager, moet om de (hardware) memory controller.
Natuurlijk bedoel ik de software matige aansturing. Hardware aanpassen gaat niet dan krijg je een nieuw product. En dat is ook niet nodig want waarschijnlijk is er niets mis met de controller zelf alleen met de aansturing er van.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op woensdag 30 januari 2013 @ 19:11:
En dat is ook niet nodig want waarschijnlijk is er niets mis met de controller zelf alleen met de aansturing er van.
Daar gaat het ook niet om. ;)
Wikipedia: Memory management

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 02-05 11:33
Inmiddels zijn we in een paar dagen tijd weeral bij driver versie 13.2 beta 4 aangekomen:
http://forums.guru3d.com/showthread.php?t=374415

Enjoy!

Acties:
  • 0 Henk 'm!

  • Mosin
  • Registratie: Januari 2012
  • Laatst online: 23:03
Ik ga de driver zo meteen uit proberen! Wat ik me nu alleen afvraag is, dat als ik mijn settings niet op msaa zet, maar op smaa of ik dan ook een dikke performance winst heb. Iemand op het EVGA forum bewees, dat smaa veel beter is dan msaa. Het was getest met een 66ti of 670, ik neem aan dat het verschil met AMD minimaal is hierin ?

Ѫа$тёя чѳця аят


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

Beta nr. 4 geeft idd een flinke perf. verbetering in Crysis 3 beta met msaa!

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
HardwareInfo heeft een test gedaan met de 7970 GHz en de GTX680 en die getest op 10 verschillende CPU's. Maar ik vind de resultaten maar apart. Het ligt allemaal zo ver uit elkaar:
http://nl.hardware.info/r...met-10-cpus-dirt-showdown

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
@Astennu

Deze review is reeds vorig jaar door mij gepost ;) : http://gathering.tweakers...message/39482166#39482166

Mijn conclusie: AMD 6-core/8-core processoren kunnen zich in games prima meten met Core i5/i7 CPU's. Het scheelt hooguit een enkele frames. ;)

Mijn inziens kun je indien je gamebak bouwt met een Single GPU systeem en slechts op 1080P speelt, beter een AMD FX-6xxx kopen dan een duurdere Intel Core i5/i7 variant. Met het geld wat je dan met de goedkopere AMD CPU bespaart kun je een duurdere grafische kaart aanschaffen, waardoor je een stuk sneller zult zijn dan een op Intel CPU gebaseerde PC.

[ Voor 39% gewijzigd door Indy91 op 05-02-2013 13:38 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-04 21:46
Het is wel heel erg stil zeg rondom de nieuwe serie van AMD. Een rebrand voor OEMs is ook niet echt een goed teken (8xxx serie is er gewoon nog niet en komt binnenkort ook niet, anders konden de OEMs vast wel even wachten).

Heeft AMD het misschien te druk met GPUs voor consoles? Of zijn er problemen? Of is het gewoon zo gepland?

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
The Flying Dutchman schreef op dinsdag 05 februari 2013 @ 13:07:
Het is wel heel erg stil zeg rondom de nieuwe serie van AMD. Een rebrand voor OEMs is ook niet echt een goed teken (8xxx serie is er gewoon nog niet en komt binnenkort ook niet, anders konden de OEMs vast wel even wachten).

Heeft AMD het misschien te druk met GPUs voor consoles? Of zijn er problemen? Of is het gewoon zo gepland?
Zucht...nee, die OEM rebrand was er sowieso wel gekomen, OEMs lopen vrijwel constant een hele generatie achter.

En laten we wel wezen, er is momenteel niets aan het handje in de GPU wereld. Misschien dat Nvidia inderdaad volgende maand GK110 voor consumenten uit brengt. Zal AMD waarschijnlijk niet meteen warm of koud van worden, omdat de kans groot is dat die twee keer zo duur in de markt komt te staan, even afgezien van de 70% grotere die en daarmee gepaarde nadelen.

Tahiti begon ook pas wat serieuze informatie een dikke maand van tevoren te lekken (waar een groot deel ook nog niet helemaal accuraat bleek achteraf, uiteraard). Ik zal maar weer eens naar mezelf verwijzen:
- Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 125"
- Werelds in "CJ's Radeon Info & Nieuwsdiscussie - Deel 124"

Er is gewoon nog steeds niets aan de hand. Wat mij betreft is alles nog normaal voor AMD's standaarden, het is gewoon Nvidia niet. Ik ga stiekem uit van een 15 maanden cycle, dus op z'n vroegst eind deze maand dat er wat informatie begint te komen. En nee, "Titan" brengt daar geen verandering in. Nogmaals, dat ding is op dit moment geen enkele zorg voor AMD, tenzij hij 300% van een GK104 is qua performance, dan zullen ze zich pas achter de oren gaan krabben ;)

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Tegenwoordig is het idd goed bij te houden allemaal... voorheen had je net je nieuwe pc en 6 maanden later compleet outdated.. athlon 650mhz .. hopa opeens 1ghz

[ Voor 72% gewijzigd door A87 op 05-02-2013 17:59 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 01-05 09:33
The Flying Dutchman schreef op dinsdag 05 februari 2013 @ 13:07:
Een rebrand voor OEMs is ook niet echt een goed teken (8xxx serie is er gewoon nog niet en komt binnenkort ook niet, anders konden de OEMs vast wel even wachten).
OEMs kunnen juist niet wachten, die "moeten" (omdat iedereen het doet) bij bepaalde beurzen en momenten in het jaar (zoals de Back to School-periode) nieuwe producten laten zien die beter moeten zijn dan de vorige producten. Dus een rebrand van de 7-serie hoeft niets te maken te hebben met het slecht gaan met de 8-serie.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
A87 schreef op dinsdag 05 februari 2013 @ 17:57:
Tegenwoordig is het idd goed bij te houden allemaal... voorheen had je net je nieuwe pc en 6 maanden later compleet outdated.. athlon 650mhz .. hopa opeens 1ghz
Ja tegenwoordig komen er ook niet veel speed bumps meer uit. Van de Ivy Bridge is er nog geen geweest. En Bij SB alleen de 2600K > 2700K stap van wel 100 MHz! En IB was maar +-10% sneller dan SB en dat in een jaar tijd.

Hetzelfde met GPU's. Eerst elk jaar een grote boost van 80-100% en kleine tussen stapjes van 20% maar tegenwoordig moet je blij zijn als er eens in het jaar 20-60% bij komt.

Nu is het wel zo dat het verbruik eerst als maar steeg. Waar het nu steeds weer iets zuiniger moet maar ook sneller.

[ Voor 8% gewijzigd door Astennu op 07-02-2013 08:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Meer details Xbox 720-GPU bekend

HD4870 achtige prestaties :) Voor een console heel erg veel, zeker als je naar de economische situatie kijkt. Consoles zullen in deze tijd niet zo, relatief, krachtige zijn als hun voorgangers.

PlayStation 4 krijgt prijskaartje van 349 tot 399 euro?

Zie ook bijvoorbeeld de prijs van de PS4, de PS3 koste destijds volgens mij 600 euro bij launch (waarbij Sony best veel verlies voor rekening nam), maar daar zat voor die tijd dan ook beestachtige hardware in. Vooral die CPU die ze daar in hebben geduwd, die kunnen ze nu nog altijd volgens mij niet volledig belasten zonder dat de videokaart eigenlijk een bottelnek vormd. Wat dat betreft wat de Xbox360 beter in balans.

[ Voor 47% gewijzigd door madmaxnl op 08-02-2013 15:02 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Voor de duidelijkheid, het betreft hier geruchten. Officiëel is er nog helemaal niets bekend gemaakt.

Ik mag toch hopen dat de specs wel wat sneller worden dan dit. De hardware in de huidige consoles was op het moment dat ze uitkwamen sneller dan de snelste PC's van dat moment, dat werd met de eerstvolgende generatie pas gelijkgetrokken. Met 4870 prestaties zou de nieuwe xbox bij release al vijf jaar op de PC achter lopen, dat schiet niet op.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Dan nog, de 4870 1 GB draait op een (volgens velen) slecht geoptimaliseerde PC al makkelijk BF3 op medium. Doe er was leuk geheugen bij voor de AA en wat optimalisaties en ik denk dat je toch wel redelijk dicht bij 'High' moet komen. Dat is voor de meesten wel genoeg, ook ik zou niet graag extra euro's neertellen voor nog meer effecten, gamen is al duur zat voor de gemiddelde tiener - toch een behoorlijke doelgroep lijkt mij. Ik zou me dan dus niet zo'n zorgen maken, die consoles blijven nog wel even mooie beelden produceren. Maar ik heb verder geen verstand van zaken...

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 01-05 09:00

pino85

Im just a Bird in the Sky

Anoniem: 59888 schreef op vrijdag 08 februari 2013 @ 16:21:
Voor de duidelijkheid, het betreft hier geruchten. Officiëel is er nog helemaal niets bekend gemaakt.

Ik mag toch hopen dat de specs wel wat sneller worden dan dit. De hardware in de huidige consoles was op het moment dat ze uitkwamen sneller dan de snelste PC's van dat moment, dat werd met de eerstvolgende generatie pas gelijkgetrokken. Met 4870 prestaties zou de nieuwe xbox bij release al vijf jaar op de PC achter lopen, dat schiet niet op.
offtopic:
Specs zelf zeggen tov een pc weinig bij een console, je maakt nu de fout om het te gaan vergelijken met pc specs, je kan dit niet 1:1 gaan vergelijken met elkaar.

Het is ook maar een geruchten molen op het moment dus wat er uiteindelijk echt van over blijft geen idee.
Zelf hoop ik bij de nieuwe PS4 1 ding en dat is dat ze het programmeren voor de third parties makkelijker maken dan bij de PS3 het geval was, een veel voorkomende klacht bij meerdere game devs was toch wel dat de kracht die de cell cpu had niet makkelijk te gebruiken wa en dat vond ik persoonlijk toch wel een fout van Sony,maar goed dit is wel wat offtopic ;)

[ Voor 29% gewijzigd door pino85 op 08-02-2013 18:08 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Je kunt console en PC hardware niet één op één vergelijken omdat je bij consoles beter kunt optimaliseren. Optimalisatie is echter geen magie waarbij je met een stokje zwaait en vijf jaar aan hardwareontwikkeling is gecompenseerd. Optimalisatie helpt, maar daar zit een grens aan. Het is niet voor niets dat de games op de huidige consoles geen enkele vorm van AA/AF gebruiken, op 30 FPS lopen, op een resolutie nog lager dan 720p draaien, een lage FoV en low-res textures gebruiken. Die hardware is oud en zonder dat soort trucs krijg je moderne graphics niet aan de praat op die dingen, daar valt niet tegenop te optimaliseren.

Als we een flinke sprong in graphics willen zien die gebruikelijk is bij een nieuwe generatie consoles (en ook de graphics op de PC zal beïnvloeden via ports) dan moet die nieuwe generatie wel snelle hardware hebben, anders gaat dat niet lukken. En dan heb ik het nog niet eens over de gevolgen voor gameplay, AI en het aantal spelers in multiplayer, ook daar zijn verbeteringen mogelijk die met dergelijk oude/trage hardware niet gaan lukken. Ik zou de gamewereld graag vooruit zien gaan en ik hoop dan ook dat dit gerucht niet klopt en er veel snellere hardware in zal komen.
deraco96 schreef op vrijdag 08 februari 2013 @ 17:26:
[...] ook ik zou niet graag extra euro's neertellen voor nog meer effecten, gamen is al duur zat voor de gemiddelde tiener - toch een behoorlijke doelgroep lijkt mij. [...]
De grootste groep bestaat momenteel uit dertigers, met twintigers op de tweede plaats. Tot een paar jaar geleden waren twintigers de grootste groep. Tieners spelen misschien wel veel games, maar in de verkoopstatistieken komen ze nooit hoog uit (hoe zou dat nou toch komen...). Uitgevers richten zich doorgaans op een volwassen publiek met een redelijk vrij besteedbaar inkomen voor wie 50-80 euro per game geen probleem is. (Ik verwacht dat de prijs van consolegames omhoog zal gaan, aangezien dat bij een nieuwe consolegeneratie eigenlijk altijd het geval is geweest).

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Anoniem: 59888 schreef op vrijdag 08 februari 2013 @ 16:21:
Voor de duidelijkheid, het betreft hier geruchten. Officiëel is er nog helemaal niets bekend gemaakt.

Ik mag toch hopen dat de specs wel wat sneller worden dan dit. De hardware in de huidige consoles was op het moment dat ze uitkwamen sneller dan de snelste PC's van dat moment, dat werd met de eerstvolgende generatie pas gelijkgetrokken. Met 4870 prestaties zou de nieuwe xbox bij release al vijf jaar op de PC achter lopen, dat schiet niet op.
dat klopt niet, de 8800gtx was al zo'n 40% sneller bij launch en was ook een nieuwere ontwerp dus ook meer future proof.


Verder om een soort van halfbakken maar toch misschien de simpelste en beste vergelijking te maken. De 8800tx was 518 glops. De geforce 690 de 3d kaart die qua prestaties het dichtste bij komt met de next gen PC video kaarten. (we kunnen daar wel van uitgaan meestal) levert 5620 flops. We kunnen dus zeggen dat de PC concurrentie 10x sneller is geworden sinds de launch van de ps3. Als de nieuwe xbox en/of ps inderdaad 8 keer sneller zijn dan de vorige generatie dan word de gat groter dan wat het toen was.

Ik vind het persoonlijk vrij onwaarschijnlijk dat de nieuwe xbox en ps een gpu krijgen met de kracht van de 4870. De gpu's van de ps3 en xbox360 waren 1 generatie ouder dan de PC generatie van dat moment. De die size van beide lag rond de 200mm². De vraag is natuurlijk dan of ze met de komende generatie de zelfde aanpak ongeveer willen doen qua hardware. Als dat zo is dan kunnen we gaan kijken naar een gpu van de 7xxx generatie die er het dichst bij komt, en dat is de pitcairn die net over de 200 zit. We kunnen denk ik wel vrij zeker van zijn dat ze niet een grotere gpu gaan gebruiken dan pitcairn. Vergeet ook niet dat ze waarschijnlijk een aantal onderdelen van pitcairn kunnen halen waardoor de die size onder de 200 zit.
Ik gok zelf dus op een geoptimaliseerde pitcairn achtige gpu als ze verder gaan met vergelijkbare hardware ideeën qua kracht. Misschien in een redelijk "slechte" scenario dat ze gaan voor een gpu zoals in de hd7770 die is namelijk 123mm²

Verder word er trouwens wel altijd gepraat over dat pc's veel sneller zijn dan consoles. Maar ik kan me herrineren dat consoles zelf ook nog steeds veel sneller zijn in sommige aspecten. Ik weet niet meer precies wat maar heb hier meerdere keren wat over gelezen dus je moet me op mijn woord alleen geloven hier. Dit werd in de artikelen die gelezen had vaak geassocieerd door dat er veel minder overhead was.

en hier een nieuwsflits:
http://wccftech.com/amd-c...ies-remain-primary-focus/.
als dit klopt heeft dit denk ik te maken met inkakkende verkoop cijfers van PC's.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

tomcatha schreef op vrijdag 08 februari 2013 @ 19:11:
[...]


dat klopt niet, de 8800gtx was al zo'n 40% sneller bij launch en was ook een nieuwere ontwerp dus ook meer future proof.
Ik had iets specifieker moeten zijn. Ik doelde op de ATi Xenos GPU in de 360, die is gebaseerd op de R520 architectuur (de X1800 serie die in de winkels lag toen de 360 uitkwam) maar heeft een aantal innovaties aan boord die pas in de R600 architectuur terugkwam, die anderhalf jaar na de 360 launch pas uitkwam. De Xenos had ook een rudimentaire feature die later in andere vorm in DirectX 10 teruggekomen is, waarvan ik de naam vergeten ben. :X Bij de Playstation 3 lag dat inderdaad anders, al had dat ook een en ander te maken met het feit dat de launch van die console destijds uitgesteld is.
tomcatha schreef op vrijdag 08 februari 2013 @ 19:11:
Verder om een soort van halfbakken maar toch misschien de simpelste en beste vergelijking te maken. De 8800tx was 518 glops. De geforce 690 de 3d kaart die qua prestaties het dichtste bij komt met de next gen PC video kaarten. (we kunnen daar wel van uitgaan meestal) levert 5620 flops. We kunnen dus zeggen dat de PC concurrentie 10x sneller is geworden sinds de launch van de ps3. Als de nieuwe xbox en/of ps inderdaad 8 keer sneller zijn dan de vorige generatie dan word de gat groter dan wat het toen was.

Ik vind het persoonlijk vrij onwaarschijnlijk dat de nieuwe xbox en ps een gpu krijgen met de kracht van de 4870. De gpu's van de ps3 en xbox360 waren 1 generatie ouder dan de PC generatie van dat moment. De die size van beide lag rond de 200mm². De vraag is natuurlijk dan of ze met de komende generatie de zelfde aanpak ongeveer willen doen qua hardware. Als dat zo is dan kunnen we gaan kijken naar een gpu van de 7xxx generatie die er het dichst bij komt, en dat is de pitcairn die net over de 200 zit. We kunnen denk ik wel vrij zeker van zijn dat ze niet een grotere gpu gaan gebruiken dan pitcairn. Vergeet ook niet dat ze waarschijnlijk een aantal onderdelen van pitcairn kunnen halen waardoor de die size onder de 200 zit.
Ik gok zelf dus op een geoptimaliseerde pitcairn achtige gpu als ze verder gaan met vergelijkbare hardware ideeën qua kracht. Misschien in een redelijk "slechte" scenario dat ze gaan voor een gpu zoals in de hd7770 die is namelijk 123mm²
Duidelijk, dat klinkt mij eerlijk gezegd ook een stuk realistischer in de oren dan 4870 prestaties.

De ontwikkeling van de hardware voor de 360 en PS3 was erg duur. Er wordt al enige jaren gespeculeerd dat er voor de volgende generatie een veel kleiner R&D budget is en er voor de GPU dus min of meer voor een off-the-shelf design gekozen zou worden. Nou is een PC GPU niet zomaar geschikt om in een console te stoppen, al was het alleen maar omdat het afvoeren van 225 watt aan warmte in een behuizing van het formaat van een console geen sinecure is, en heel wat lawaai op zou leveren (dat vinden mensen niet leuk bij een console).

Ik zou zelf dan eerder denken aan een geoptimaliseerde versie van de 7000 of 6000 serie (afhankelijk van het moment waarop de GPU ontwikkeling voor de console begonnen is), waarbij de architectuur vrijwel ongewijzigd is gebleven maar eventueel wel een die-shrink en/of andere maatregelen om het energieverbruik in te perken. Maar goed, dat is allemaal pure speculatie, het blijft gewoon een kwestie van afwachten. Er gaan geruchten dat de opvolger van de PS3 op 20 februari aangekondigd gaat worden, maar als dat al het geval is, is het maar zeer de vraag of er veel duidelijk zal worden over de hardwarespecs.
tomcatha schreef op vrijdag 08 februari 2013 @ 19:11:
Verder word er trouwens wel altijd gepraat over dat pc's veel sneller zijn dan consoles. Maar ik kan me herrineren dat consoles zelf ook nog steeds veel sneller zijn in sommige aspecten. Ik weet niet meer precies wat maar heb hier meerdere keren wat over gelezen dus je moet me op mijn woord alleen geloven hier. Dit werd in de artikelen die gelezen had vaak geassocieerd door dat er veel minder overhead was.
Met sneller wordt over het algemeen op pure rekenkracht van de GPU als geheel gedoeld, die zoals jouw cijfers laten zien op de PC vele malen groter is. Wel kunnen console-GPU's features hebben die de PC niet heeft. Zo heb ik ooit gehoord dat de 360 GPU hardware heeft voor texture-compressie waardoor die gecomprimeerde textures kan gebruiken zonder aan pure rekenkracht in te boeten, iets wat een PC GPU niet kan. Dat scheelt geheugengebruik en is dus "sneller". Op de PC zijn dat soort dingen lastiger voor elkaar te krijgen omdat iets dergelijks alleen via een nieuwe DirectX en/of OpenGL feature kan.

Maar goed, een PC GPU heeft al lange tijd zo veel meer geheugen tot z'n beschikking dat dat voordeel weinig meer uitmaakt. Het scheelt Microsoft vooral een hoop geld, ze hebben minder geheugen in hoeven bouwen in de ca. 76 miljoen 360 consoles die ze inmiddels verkocht hebben. Ik denk dat dat de belangrijkste motivatie voor dergelijke features is, terwijl het op de PC vaak goedkoper is om wat meer geheugen op de kaart te schroeven dan veel dure R&D tijd in dergelijke features te steken. Zeker omdat PC GPU's met winst verkocht worden, en consoles zeker de eerste paar jaar vaak niet.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Anoniem: 59888 schreef op vrijdag 08 februari 2013 @ 18:26:
De grootste groep bestaat momenteel uit dertigers, met twintigers op de tweede plaats. Tot een paar jaar geleden waren twintigers de grootste groep. Tieners spelen misschien wel veel games, maar in de verkoopstatistieken komen ze nooit hoog uit (hoe zou dat nou toch komen...). Uitgevers richten zich doorgaans op een volwassen publiek met een redelijk vrij besteedbaar inkomen voor wie 50-80 euro per game geen probleem is. (Ik verwacht dat de prijs van consolegames omhoog zal gaan, aangezien dat bij een nieuwe consolegeneratie eigenlijk altijd het geval is geweest).
Mijn username verraad mij uiteraard, maar ik denk dat beide consoles zich niet geliefd zouden maken door heel duur te launchen. Niet hoger dan 350 is misschien wel verstandig. Wat je daarna zegt zou ik persoonlijk erg jammer vinden, de reden dat ik nu op een PC zit is juist dat ik nooit meer dan 30 euro voor een game hoef te betalen, en wat betreft nu al behoorlijk verwend ben. Meer heb ik er ook gewoon niet voor over, en hoe goed die console ook gaat worden, als alle games minimaal 40-50 euro worden komt 'ie er bij mij niet in. Maar dit was allemaal maar een klein beetje offtopic, dus let vooral niet op mij en ga door over de GPU's, die zijn wel interessant.
Ik denk niet dat er een erg dikke GPU in de PS4/Xbox 720 gaat komen, stroomverbruik is icm met geluid nogal belangrijk denk ik, een luide console is verre van ideaal, en flink power neerzetten zonder het stroomverbruik dat daar 7 jaar geleden bijhoorde is nu best mogelijk.

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Anoniem: 59888 schreef op vrijdag 08 februari 2013 @ 22:06:
[...]
De Xenos had ook een rudimentaire feature die later in andere vorm in DirectX 10 teruggekomen is, waarvan ik de naam vergeten ben. :X
De unified shader architecture ;)
Zo heb ik ooit gehoord dat de 360 GPU hardware heeft voor texture-compressie waardoor die gecomprimeerde textures kan gebruiken zonder aan pure rekenkracht in te boeten, iets wat een PC GPU niet kan. Dat scheelt geheugengebruik en is dus "sneller". Op de PC zijn dat soort dingen lastiger voor elkaar te krijgen omdat iets dergelijks alleen via een nieuwe DirectX en/of OpenGL feature kan.
Ik denk dat je MEMEXPORT bedoelt. Dat is echter voor vertex bewerkingen en komt met name voort uit de unified shader architecture. Als er iemand is die niet weet wat USA precies is: het maakt dat elke shader in een GPU dezelfde instructie set heeft - voorheen was het zo dat men echt specifiek vertex shaders, pixel shaders etc. aansprak. Met Shader Model 4.0 / Unified Shader Model (D3D / OGL) is het zo dat elke shader -het rekenmonster- het grootste deel van alle bewerkingen kan uitvoeren. Er zijn wel nog bepaalde bewerkingen die alleen door specifieke units uitgevoerd kunnen worden, maar dit wordt veelal afgevangen in de scheduler om dat stilzwijgend toch naar de goede shader te leiden.

Wat de 360 verder nog heeft is het eDRAM (dochter chip) dat zo bizar snel is dat het sommige bewerkingen veel rapper kan laten werken. Er zitten ook gespecialiseerde berekeningen in die chip, waardoor de 360 bepaalde dingen sneller kan doen dan de PS3. Wel zijn dat allemaal pixel bewerkingen, geen vertex data; zo uit m'n hoofd kan de eDRAM chip (door NEC ontworpen overigens) Z+stencil buffer bewerkingen en 4xMSAA uitvoeren - beide in heel weinig tijd, dat is waarom 360 games er vaak beter uitzien. Dat is althans waar hij voor gebruikt wordt. eDRAM is dan ook iets dat ik dolgraag op de PC zou zien: grotere buffer, hogere clocks dan dat ding in Xenos en inderdaad ook met MSAA bijvoorbeeld. Helaas is het een duur grapje :(


Consoles hebben minder overhead (maar in tegenstelling tot wat sommige idioten vaak beweren, is er weldegelijk overhead en is er weldegelijk nog steeds een API - Direct3D voor de 360, OpenGL voor de PS3), dus daar komt al een groot deel van de prestatiewinsten vandaan. Dat hebben ze nodig omdat ze inderdaad kleinere chips moeten gebruiken vanwege de hitte; dus wat doen ze dan, ze gaan op lagere clocks zitten. Zowel Xenos als RSX draaien op lagere clocks dan hun desktop tegenhanger geweest zou zijn. Xenos is een chip die ergens tussen R520 en R600 in hangt, RSX hangt ergens tussen G71 en G80 in - maar in beide gevallen draaien ze op lagere clocks dan zelfs de R520 en G71. Lagere clocks betekent lager voltage, betekent minder hitte en stroomverbruik.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Eerst zien dan geloven. Maar het zou een domme zet zijn. Geeft nVidia alleen maar de kans om terug te komen. En zij hebben GK110 (AKA Titan) sowieso ook nog achter de hand. Het is nou niet dat een 7970 GHz dik van een GTX680 wint. Ja hij is ietsjes sneller. Maar hij verbruikt ook meer.

Dus het zou geen slecht idee zijn om GCN verder te optimaliseren. Daarnaast verwacht ik dat Titan 50-60% sneller kan zijn dan een GTX680. Dus dat wordt best wel een killer single GPU kaart qua performance.

En ik vraag me af wat AMD nog allemaal kan veranderen om de Sea Islands sneller te maken. Ontwikkeling van deze chips is al 3 jaar bezig. Dus echt grote veranderingen door voeren gaat niet.

[ Voor 27% gewijzigd door Astennu op 09-02-2013 20:58 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werd gisteren ook al vermeld op videocardz.com
http://videocardz.com/394...8000-series-until-q4-2013

Enige die met wat nieuws komt voorlopig is Nvidia met de GK110 Titan.
Daarvan zijn al exemplaren verzonden naar reviewsites dus daar zullen we binnen niet afzienbare tijd echte reviews en benchmarks van zien :)
http://videocardz.com/393...x-titan-pcb-pictured-sort

[ Voor 18% gewijzigd door calsonic op 09-02-2013 21:02 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

Even niet gehinderd door enige kennis op de werking en CPU/GPU-load van een console, maar een HD4870? Ik heb al eens eerder gelezen dat de XBox 720-GPU mogelijk 5,5 gigaflops haalde. Nou zijn gigaflops ook niet zo makkelijk vertaalbaar naar gameprestaties, maar dit zit op HD7970CF niveau en over een jaar misschien Single GPU-niveau.

Wat Wezz6400 zei, de X360 had ten tijde van de release tov een PC-GPU een gelijkwaardige of hogere perf. Misschien is er iets veranderd bij de X720 kwa load verdeling? Ik verwachtte eerder een(speciale) 8xxx versie met (veel) eDram.

[ Voor 10% gewijzigd door edward2 op 09-02-2013 22:31 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
het is zeer onwaarschijnlijk dat de consoles een high end chip krijgen puur omdat de developers dan geen kans hebben om hun games af te hebben voor release. Development tijd is meestal minimaal 2 jaar. Dev kits van de nieuwe xbox en zo ver ik weet ook van de nieuwe PS zijn er nu ongeveer een jaar. Je kunt daarom wel uitgaan van een launch tijd rond het einde van het jaar gebaseerd op technologie die toen uit was of in ontwikkeling is. Dus hd7xxx technologie met misschien een paar extra foefjes omdat het later pas klaar moet zijn voor massa productie.
Dit past ook bij wat er met de vorige generatie gebeurde.
Het is voor sony en nvidia allebei gunsiger om een chip te hebben op 28nm dan 40nm omdat hitte afvoer een van de grootste problemen is bij consoles en 28nm is gewoon koeler bij de zelfde prestaties.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
edward2 schreef op zaterdag 09 februari 2013 @ 22:28:
Even niet gehinderd door enige kennis op de werking en CPU/GPU-load van een console, maar een HD4870? Ik heb al eens eerder gelezen dat de XBox 720-GPU mogelijk 5,5 gigaflops haalde. Nou zijn gigaflops ook niet zo makkelijk vertaalbaar naar gameprestaties, maar dit zit op HD7970CF niveau en over een jaar misschien Single GPU-niveau.

Wat Wezz6400 zei, de X360 had ten tijde van de release tov een PC-GPU een gelijkwaardige of hogere perf. Misschien is er iets veranderd bij de X720 kwa load verdeling? Ik verwachtte eerder een(speciale) 8xxx versie met (veel) eDram.
De Xenos C1 was toen de tijd een chip die geen gelijke had. Hij had meer dan DX9c features. (Een aantal DX10 features zaten er ook in) en het was de eerste chip met een universal shader model. Zoals je zegt was de Xbox360 krachtiger dan wat wij op de PC beschikbaar hadden.

Die tijden zijn inderdaad voorbij en ik vermoed vooral door het TDP van de huidige High end kaarten. Dat is zo veel hoger geworden dat het niet meer in een console kan. Xbox 360 was volgens mij iets van 200 watt toen hij net uit was. PS3 ook zo iets. Dat is wel de limit. Tegenwoordig zitten ze op 60 watt naar het verkleinen van de chips die er in zitten. Hoe lager hoe beter hoe goedkoper en hoe minder er kapot kan door hitte problemen.

Edit:

Xbox 360 - Revision - System Off - Idle - Halo 3 - Rockband 2 - Gears of War 2 - BioShock Demo
Xenon - 2.3W - 155.7W - 177.8W - 167.7W - 177.1W - 172W
Falcon - 2.8W - 101.4W - 121.2W - 112.8W - 121.5W - 115.5W
Jasper - 2.0W - 93.7W - 105.9W - 101.0W - 105.9W - 98.1W

[ Voor 8% gewijzigd door Astennu op 10-02-2013 10:11 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 29-04 23:32

edward2

Schieten op de beesten

tomcatha schreef op zondag 10 februari 2013 @ 02:32:
het is zeer onwaarschijnlijk dat de consoles een high end chip krijgen puur omdat de developers dan geen kans hebben om hun games af te hebben voor release. Development tijd is meestal minimaal 2 jaar. Dev kits van de nieuwe xbox en zo ver ik weet ook van de nieuwe PS zijn er nu ongeveer een jaar. Je kunt daarom wel uitgaan van een launch tijd rond het einde van het jaar gebaseerd op technologie die toen uit was of in ontwikkeling is. Dus hd7xxx technologie met misschien een paar extra foefjes omdat het later pas klaar moet zijn voor massa productie.
Zo'n defkit bestaat in eeste instantie toch uit een pc waamee de werking van de toekomstige (console) hardwarefuncties (die dan meestal al bekend zijn) gesimuleerd wordt? Dus idd op minimaal HD7xxx niveau met wat exotische toevoegingen lijkt mij dus ook niet onmogelijk.

Het is wel te hopen, want dan krijgen we vermoedelijk eindelijk kwalitatieve consoleports naar de PC.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

calsonic schreef op zaterdag 09 februari 2013 @ 20:58:
[...]


Werd gisteren ook al vermeld op videocardz.com
http://videocardz.com/394...8000-series-until-q4-2013

Enige die met wat nieuws komt voorlopig is Nvidia met de GK110 Titan.
Daarvan zijn al exemplaren verzonden naar reviewsites dus daar zullen we binnen niet afzienbare tijd echte reviews en benchmarks van zien :)
http://videocardz.com/393...x-titan-pcb-pictured-sort
In BF3 bottleneck de 3770 regelmatig zelfs mijn 7970 @ 1,1 met 64 spelers 80% gpu load.....

[ Voor 37% gewijzigd door A87 op 10-02-2013 17:17 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
A87 schreef op zondag 10 februari 2013 @ 17:13:
[...]


In BF3 bottleneck de 3770 regelmatig zelfs mijn 7970 @ 1,1 met 64 spelers 80% gpu load.....
Wat heeft dat met mijn mededeling te maken :?

Acties:
  • 0 Henk 'm!

  • Bintzak
  • Registratie: Februari 2010
  • Laatst online: 02-05 04:56
calsonic schreef op zondag 10 februari 2013 @ 17:57:
[...]


Wat heeft dat met mijn mededeling te maken :?
Dat de meeste processors nog niet in staat zijn om de data snel genoeg naar de kaart te sturen waardoor het zinloos is om zo'n dure kaart in je systeem te stoppen.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

edward2 schreef op zondag 10 februari 2013 @ 14:38:
[...]


Zo'n defkit bestaat in eeste instantie toch uit een pc waamee de werking van de toekomstige (console) hardwarefuncties (die dan meestal al bekend zijn) gesimuleerd wordt? Dus idd op minimaal HD7xxx niveau met wat exotische toevoegingen lijkt mij dus ook niet onmogelijk.

Het is wel te hopen, want dan krijgen we vermoedelijk eindelijk kwalitatieve consoleports naar de PC.
Klopt, zo waren de eerste devkits voor de 360 macs in een aparte kast ("doos" ;) ). Microsoft had op dat moment al besloten dat er een IBM PowerPC CPU in zou komen en de macs gebruikten toen ook nog PowerPC CPU's. Voor zover mij bekend waren het niet eens triple cores, zoals de 360 uiteindelijk zou krijgen.

Ik zou dan ook zeker geen conclusies verbinden aan het feit dat er volgens geruchten al devkits bij ontwikkelaars liggen. Uiteindelijk wordt een console ontworpen voor zes tot acht jaar, niet specifiek voor de launchgames.
Astennu schreef op zondag 10 februari 2013 @ 10:03:
[...]


Die tijden zijn inderdaad voorbij en ik vermoed vooral door het TDP van de huidige High end kaarten.
Het verschil tussen de TDP die op de PC acceptabel is en op een console is inderdaad groter geworden, maar GPU's voor consoles moesten altijd al aan andere eisen voldoen. Kosten zijn bijvoorbeeld veel belangrijker (consoles worden in de beginperiode vaak met verlies verkocht). Een PC GPU kan inderdaad niet zomaar in een console met dezelfde performance, maar dat kon vroeger ook al niet. Voordeel is dan weer dat dat door optimalisatie en een kleinere overhead ook niet hoeft. Waar het mij vooral om ging is dat de nieuwe generatie een beetje mee kan komen met high-end PC's zodat we van al die wanstaltige compromissen af zijn en slechte console ports op de PC minder een probleem zullen zijn.

Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Bintzak schreef op zondag 10 februari 2013 @ 22:03:
[...]


Dat de meeste processors nog niet in staat zijn om de data snel genoeg naar de kaart te sturen waardoor het zinloos is om zo'n dure kaart in je systeem te stoppen.
in BF3 idd niet, maar wel jammer dat het nog een jaar gaat duren.

[ Voor 23% gewijzigd door A87 op 10-02-2013 23:38 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
edward2 schreef op zondag 10 februari 2013 @ 14:38:
[...]


Zo'n defkit bestaat in eeste instantie toch uit een pc waamee de werking van de toekomstige (console) hardwarefuncties (die dan meestal al bekend zijn) gesimuleerd wordt? Dus idd op minimaal HD7xxx niveau met wat exotische toevoegingen lijkt mij dus ook niet onmogelijk.

Het is wel te hopen, want dan krijgen we vermoedelijk eindelijk kwalitatieve consoleports naar de PC.
Ik denk het niet. De hardware van PC's ontwikkelt zich te snel. Dus de architectuur van toekomste GPU's zal dan snel weer voorlopen op wat de Xbox en de PS hebben.

Daarnaast worden er andere API's gebruikt. Bij consoles heb je niet te maken met DirectX of OpenGL. Daar zit te veel overhead in.

Ik denk wel dat we voordeel zullen hebben van het feit dat er wellicht X86 en GCN gebruikt zal worden. Er zullen vast optimalisaties gevonden worden die ook hun weg zullen vinden naar de PC's,
Anoniem: 59888 schreef op zondag 10 februari 2013 @ 23:34:
[...]

Het verschil tussen de TDP die op de PC acceptabel is en op een console is inderdaad groter geworden, maar GPU's voor consoles moesten altijd al aan andere eisen voldoen. Kosten zijn bijvoorbeeld veel belangrijker (consoles worden in de beginperiode vaak met verlies verkocht). Een PC GPU kan inderdaad niet zomaar in een console met dezelfde performance, maar dat kon vroeger ook al niet. Voordeel is dan weer dat dat door optimalisatie en een kleinere overhead ook niet hoeft. Waar het mij vooral om ging is dat de nieuwe generatie een beetje mee kan komen met high-end PC's zodat we van al die wanstaltige compromissen af zijn en slechte console ports op de PC minder een probleem zullen zijn.
Dat weet ik. Ik wilde alleen aangeven dat die verschillen groter geworden zijn. Veel mensen vinden het maar stom dat er maar een HD77xx of HD78xx achtige GPU in die consoles gestopt wordt. Die wilde een HD79xx zien net als met de Xbox 360 toen de tijd. Maar dat kan gewoon niet meer.
Ik ben benieuwd wat er van die geruchten waard is. Misschien wilt AMD nVidia even af wachten. Of komen ze straks gewoon op tijd met een HD8xxx en is iedereen verrast.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
edward2 schreef op zondag 10 februari 2013 @ 14:38:
[...]


Zo'n defkit bestaat in eeste instantie toch uit een pc waamee de werking van de toekomstige (console) hardwarefuncties (die dan meestal al bekend zijn) gesimuleerd wordt? Dus idd op minimaal HD7xxx niveau met wat exotische toevoegingen lijkt mij dus ook niet onmogelijk.

Het is wel te hopen, want dan krijgen we vermoedelijk eindelijk kwalitatieve consoleports naar de PC.
We "weten" via semiaccurate dat massaproductie van de nieuwe xbox chip gestart was eind 2011/begin 2012 als ik het me goed herriner. En dat was op zon grote schaal dat het verder ging dan alleen maar om een paar dev kits te voorschijn toveren.

Persoonlijk denk ik dat als de nieuwe AMD generatie uitgesteld word dat is omdat de verkopen van PC's behoorlijk is ingekakt dus wachten ze denk ik tot yields wat beter zijn en meer hd7xxx kaarten zijn verkocht.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:12
HD8000 pas eind dit jaar en, slechte pc markt, misschien dat er low-end Southern Islands komen? (Aantrekkelijke prijzen)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 21:41
Ik kan er eerlijk gezegd niet mee zitten dat de release is uitgesteld, dat betekent namelijk dat mijn hd7950 een stuk minder snel verouderd en dat ze nog lang aan de drivers kunnen sleutelen. Hopelijk betekent het ook dat de HD8000 een geweldige kaart wordt omdat ze nu extra ontwikkeltijd hebben.

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Het zal meer te maken hebben met de onkunde van AMD om kaarten af te leveren die een surplus bieden ten opzichte van het huidige assortiment dan met de krimpende afzetmarkt. Kijk bijvoorbeeld naar de PC markt, waar de opvolger van Phenom II nauwelijks beter is.
De markt krimpt al een tijdje en de krimp is nog niet zo groot om een release van bijvoorbeeld nu naar december te rechtvaardigen. Eerder onkunde dan een strategische keuze dus.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
onkunde is onwaarschijnlijk, er ze kunnen teminste een refresh uitbrengen die een aantal zwakke punten verbetered zoals de hd6xxx generatie was in vergelijking met de hd5xxx.

Acties:
  • 0 Henk 'm!

  • The Fox NL
  • Registratie: Oktober 2004
  • Laatst online: 21:41
Springstof schreef op maandag 11 februari 2013 @ 20:26:
Het zal meer te maken hebben met de onkunde van AMD om kaarten af te leveren die een surplus bieden ten opzichte van het huidige assortiment dan met de krimpende afzetmarkt. Kijk bijvoorbeeld naar de PC markt, waar de opvolger van Phenom II nauwelijks beter is.
De markt krimpt al een tijdje en de krimp is nog niet zo groot om een release van bijvoorbeeld nu naar december te rechtvaardigen. Eerder onkunde dan een strategische keuze dus.
Onkunde lijkt me overdreven en een vergelijking met de cpu divisie is appels met peren vergelijken. Ik denk zelf ook niet dat de krimpende pc-markt de oorzaak is van het uitstellen, maar eerder een combinatie van gebrek aan productiecapiciteit door levering chips voor nieuwe consoles en gebrek aan concurrentie (ik weet dat de Titan een monster is, maar dat is een kaart die door zo weinig mensen gekocht wordt, dat dat niet meetelt).

Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 01-05 09:33
het zal wel aan mij liggen, maar mij lijkt het juist een goede strategische keuze
de pc markt krimpt én laptops en IGP's maken een alsmaar groter deel uit (AMD draagt er zelf toe bij met hun Ax cpu's)
videokaarten worden een echte nichemarkt die enkel is voor gamers en workstations
de investeringen zijn echter niet minnetjes
een jaarlijkse refresh is dan ook een moeilijk te verantwoorden strategie
in de toekomst verwacht ik dan ook eerder een nieuw ontwerp om de 18 à 24 maand, met eventueel een die-shrink tussendoor
de huidige situatie lijkt mij gewoon onhoudbaar

ik vind het ook onbegrijpelijk dat er direct over "onkunde" wordt gesproken
je kan echt niet blijven optimaliseren, op een gegeven moment is de winst zo klein dat de aanpassing te duur wordt
zo zie je dat niet alleen AMD z'n cpu nog nauwelijks sneller krijgt, maar ook intel

het aantal games dat de huidige kaarten ten volle benut zijn trouwens nog vrij zeldzaam
zoals The Fox NL schreef: dan blijft m'n huidige kaart wat langer bij de top

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Springstof schreef op maandag 11 februari 2013 @ 20:26:
Het zal meer te maken hebben met de onkunde van AMD om kaarten af te leveren die een surplus bieden ten opzichte van het huidige assortiment dan met de krimpende afzetmarkt. Kijk bijvoorbeeld naar de PC markt, waar de opvolger van Phenom II nauwelijks beter is.
De markt krimpt al een tijdje en de krimp is nog niet zo groot om een release van bijvoorbeeld nu naar december te rechtvaardigen. Eerder onkunde dan een strategische keuze dus.
AMD's GPU Afdeling =! CPU Afdeling.

Zo veel kunnen ze toch niet aan die GPU's aanpassen in een korte tijd. Ik denk eerder dat het met de markt te maken heeft. nVidia heeft ook niet echt iets nieuws op de planning. Alleen GK110. Maar daar komen er niet veel van. Het is voor mijn gevoel meer een Geforce 7800 512MB. Alleen dan sneller. Er komen er volgens mij niet veel van. En ze worden waarschijnlijk erg duur. De enige rede is reclame en de kroon pakken.
catfish schreef op maandag 11 februari 2013 @ 22:31:
het zal wel aan mij liggen, maar mij lijkt het juist een goede strategische keuze
de pc markt krimpt én laptops en IGP's maken een alsmaar groter deel uit (AMD draagt er zelf toe bij met hun Ax cpu's)
videokaarten worden een echte nichemarkt die enkel is voor gamers en workstations
de investeringen zijn echter niet minnetjes
een jaarlijkse refresh is dan ook een moeilijk te verantwoorden strategie
in de toekomst verwacht ik dan ook eerder een nieuw ontwerp om de 18 à 24 maand, met eventueel een die-shrink tussendoor
de huidige situatie lijkt mij gewoon onhoudbaar

ik vind het ook onbegrijpelijk dat er direct over "onkunde" wordt gesproken
je kan echt niet blijven optimaliseren, op een gegeven moment is de winst zo klein dat de aanpassing te duur wordt
zo zie je dat niet alleen AMD z'n cpu nog nauwelijks sneller krijgt, maar ook intel

het aantal games dat de huidige kaarten ten volle benut zijn trouwens nog vrij zeldzaam
zoals The Fox NL schreef: dan blijft m'n huidige kaart wat langer bij de top
Er zit nog veel rek in de bulldozer architectuur. Met Steamroller en Excavator krijgen we mooie speed boosts. Echter heeft AMD daar 20nm voor nodig aangezien ze al een lange tijd op 32nm zitten en intel al bijna van 22nm naar 14nm gaat. Dat is het geen wat AMD momenteel vooral tegen houd. MAar de architectuur aanpassingen die ze gaan door voeren is pressies waar Bulldozer nu zwak is. Single Thread performance gaat heel behoorlijk omhoog als ze alle veranderingen die ze belooft hebben implementeren.

[ Voor 44% gewijzigd door Astennu op 11-02-2013 23:05 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

'Moore's law' = gone.
maar zon 680 TIT is natuurlijk wel leuk speelgoed.
Ik en een hoop kopen hardware niet omdat het zo'n noodzaak is.... mijn 580 in SLI toendertijd en i5 op 3.9Ghz zou nog steeds meer dan zat zijn atm.

Het upgraden is gewoon leuk

[ Voor 116% gewijzigd door A87 op 11-02-2013 23:07 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
A87 schreef op maandag 11 februari 2013 @ 23:04:
'Moore's law' = gone.
maar zon 680 TIT is natuurlijk wel leuk speelgoed
Ja daar lijkt het wel op. Het is nu behoorlijk aan het vertragen. Het verkleinen van transistors kost te veel tijd en geld. Daarnaast moet het verbruik ook omlaag ipv omhoog. Dat helpt ook niet voor moores law.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Zou ook een keer fijn zijn als dat hele verhaal met 100+ w kaarten weer verdwijnt en alles max 100w wordt.
het was altijd tot rond 100w en opeens was het 250 8)7 met die GTX280, en daar was de nieuwe norm...


Zeker als je een klein moederbord hebt met stock i7 en koeler en dan die 7970 die er totaal uitspringt....

Aan de andere kant is het geen dure tijd meer > i5 2500 <

off/
http://science.howstuffworks.com/nanotechnology.htm

[ Voor 128% gewijzigd door A87 op 11-02-2013 23:18 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
A87 schreef op maandag 11 februari 2013 @ 23:08:
Zou ook een keer fijn zijn als dat hele verhaal met 100+ w kaarten weer verdwijnt en alles max 100w wordt.
het was altijd tot rond 100w en opeens was het 250 8)7 met die GTX280, en daar was de nieuwe norm...


Zeker als je een klein moederbord hebt met stock i7 en koeler en dan die 7970 die er totaal uitspringt....

Aan de andere kant is het geen dure tijd meer > i5 2500 <

off/
http://science.howstuffworks.com/nanotechnology.htm
Ik denk dat het wel langzaam die kant op gaat. Bij CPU's is de daling ook al ingezet. Eerst was het 130-140 nu zitten we al meer richting de 80-90. Al zijn de SB-E cpu's wel 120-130 watt en AMD FX ook nog. Maar APU's en Intel i7 3x70 zijn 100 en 80 watt.

Ik denk dat we voor High end single GPU's weer meer richting de 150-200 watt gaan. ipv 200-250.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ze kunnen tot 2nm chips gaan daarna komt er een probleem.... las ik ergens of het was 4nm.
iig bij chips wordt de dichtheid dan pas echt een probleem. Met 10 jaar zit je daar sowieso.

Dan wordt het pas echt een feest :o

[ Voor 66% gewijzigd door A87 op 11-02-2013 23:28 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

A87 schreef op maandag 11 februari 2013 @ 23:08:
Zou ook een keer fijn zijn als dat hele verhaal met 100+ w kaarten weer verdwijnt en alles max 100w wordt.
het was altijd tot rond 100w en opeens was het 250 8)7 met die GTX280, en daar was de nieuwe norm...
Wat is het probleem? Vroeger kon je alleen 100W-kaarten kopen, en als je meer performance wilde moest je SLI of CF (voor zover dat toen al kon, en goed werkte). Nu kan je nog steeds 100W-kaarten kopen, en als je meer performance wil koop je een 250W-kaart.

Het is een keuze, niemand verplicht je om een 250W-kaart in je slecht gekoelde mini-ITX-kastje te proppen. Het is niet alsof 100W-kaarten slechter zijn geworden.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Alhoewel men uiteraard zal proberen energy efficient te produceren lijkt het me niet direct logisch dat high-end kaarten richting 100 a 200 gaan.

Dit omdat deze kaarten zeer specifiek gebruikt worden (alleen als je aan het gamen bent) en alleen op dat moment treedt dit piekverbruik op en het is dan niet perse een probleem. Men wil die extra prestaties graag hebben. Huidige Highend GPU's gebruiken in idle/internet al erg weinig.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Opzich wel waar. CPU's zijn wel meer mainstream dan high end GPU's. Dus is het ook minder belangrijk dat ze zuinig zijn. Daarnaast zijn die GPU's tegewoordig in idle stand super zuinig dat scheelt ook al heel erg veel. High end CPU's zijn ook nog 120 Watt. Maar ik denk dat wel wel zuinigere mainstream hardware krijgen. In verhouding meer dan vroeger.

En dat ook in High end chips power efficiëntie een grotere rol gaat spelen. Dat zie je nu al door gebruik van clock gating en dingen als variabele voltages en turbo modes. De efficiëntie moet omhoog om zo veel mogelijk winst te halen. Zonder je chip kleiner te hoeven maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zeker.

Ik zie namelijk niet het directe belang dat een CPU bakker wel heeft. CPU's (incl integrated GPU) moeten extreem scalable worden/zijn en in notebooks, telefoons, tablets, ultrabooks komen. Daarom is energy zeer belangrijk. Want o.a.: battery life, hitte. In desktops / servers is het ook best belangrijk omdat het nogal wat uitmaakt voor de energierekening van bijv. een datacenter.
Maar meer iha heeft de grote massa al genoeg prestaties bij bijv 80W CPU.

Maar goed als X een kaart zou maken van 150w en Y maakt er een van 250w voor dezelfde prijs maar is 30% sneller dankzij dit TDP 'voordeel' dan verkoopt X nul kaarten.

[ Voor 13% gewijzigd door Help!!!! op 12-02-2013 00:34 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Help!!!! schreef op dinsdag 12 februari 2013 @ 00:33:
Zeker.

Ik zie namelijk niet het directe belang dat een CPU bakker wel heeft. CPU's (incl integrated GPU) moeten extreem scalable worden/zijn en in notebooks, telefoons, tablets, ultrabooks komen. Daarom is energy zeer belangrijk. Want o.a.: battery life, hitte. In desktops / servers is het ook best belangrijk omdat het nogal wat uitmaakt voor de energierekening van bijv. een datacenter.
Maar meer iha heeft de grote massa al genoeg prestaties bij bijv 80W CPU.

Maar goed als X een kaart zou maken van 150w en Y maakt er een van 250w voor dezelfde prijs maar is 30% sneller dankzij dit TDP 'voordeel' dan verkoopt X nul kaarten.
Ik denk dat je daar aardig gelijk in hebt. De meeste zullen de 150 watt versie links laten liggen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Springstof schreef op maandag 11 februari 2013 @ 20:26:
Het zal meer te maken hebben met de onkunde van AMD om kaarten af te leveren die een surplus bieden ten opzichte van het huidige assortiment dan met de krimpende afzetmarkt. Kijk bijvoorbeeld naar de PC markt, waar de opvolger van Phenom II nauwelijks beter is.
De markt krimpt al een tijdje en de krimp is nog niet zo groot om een release van bijvoorbeeld nu naar december te rechtvaardigen. Eerder onkunde dan een strategische keuze dus.
_O-

Grapjurk. AMD heeft al heel wat meer uit GCN weten te persen sinds de release en als je kijkt naar Cypress -> Barts weet AMD ook zeker wel hoe ze een architectuur moeten refreshen. Dat is wat er voor dit jaar op de planning had gestaan.

Maar als je dan toch overtuigd wil zijn van onkunde, dan moeten we GF100 (nooit een volledig werkende chip op de markt gekomen en als ze het hadden gekund hadden ze het ook echt wel gedaan) en GK100 die we nooit hebben gekregen daar evengoed onder rekenen. En dan ook nog GK110 voor consumenten, die inmiddels wel al ruim een half jaar in Tesla vorm beschikbaar is.

Nee, als het allemaal klopt zit er iets anders achter dan onkunde.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Help!!!! schreef op dinsdag 12 februari 2013 @ 00:33:

Maar goed als X een kaart zou maken van 150w en Y maakt er een van 250w voor dezelfde prijs maar is 30% sneller dankzij dit TDP 'voordeel' dan verkoopt X nul kaarten.
Dan ben ik de uitzondering die voor X gaat, wij betalen zelf onze energie en mijn selectie criteria voor een GPU zijn:
1-past het binnen budget
2-Is de verhouding fps/watt zeer goed tot optimaal.
3-Is verhouding bang/buck goed?
4 Koeling: DC2- TF3/4 - WF3

In de huidige line-up ben ik dan ook diegene die een reguliere 7870 verkiest boven de 7870xt of zelfs de 7950.
Om die reden ben ik ook voor een 2500k gegaan i.p.v. een 965be 2 jaar terug. Scheelt me ongeveer 20-25 euro per jaar. (Ben van plan CPU/Mobo 5 jaar te gebruiken dus de CPU verdient zichzelf wel terug t.o.v. een 965be, daarnaast een pak meer prestaties)

[ Voor 17% gewijzigd door eL_Jay op 12-02-2013 12:37 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Werelds schreef op dinsdag 12 februari 2013 @ 11:58:
[...]

_O-

Grapjurk. AMD heeft al heel wat meer uit GCN weten te persen sinds de release en als je kijkt naar Cypress -> Barts weet AMD ook zeker wel hoe ze een architectuur moeten refreshen. Dat is wat er voor dit jaar op de planning had gestaan.

Maar als je dan toch overtuigd wil zijn van onkunde, dan moeten we GF100 (nooit een volledig werkende chip op de markt gekomen en als ze het hadden gekund hadden ze het ook echt wel gedaan) en GK100 die we nooit hebben gekregen daar evengoed onder rekenen. En dan ook nog GK110 voor consumenten, die inmiddels wel al ruim een half jaar in Tesla vorm beschikbaar is.

Nee, als het allemaal klopt zit er iets anders achter dan onkunde.
@Werelds:

Don't Feed The Trolls :+

Als Springstof het heeft over de HD7xxx serie dan beweert hij:
Omdat amd wellicht te weinig tijd heeft genomen om goede producten neer te zetten? Hetgeen amd nu gelanceerd heeft stelt immers niet veel voor. De 7970 is amper sneller dan de 580.
Het zou me niet verbazen als hij werkzaam blijkt te zijn voor de nVidia Focus Group. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Indy91 schreef op dinsdag 12 februari 2013 @ 12:39:
[...]

@Werelds:

Don't Feed The Trolls :+

Als Springstof het heeft over de HD7xxx serie dan beweert hij:

[...]


Het zou me niet verbazen als hij werkzaam blijkt te zijn voor de nVidia Focus Group. ;)
Lol inderdaad. Amper sneller dan de GTX580.... WTF! 8)7
Ik vind dat AMD een heel goed product op de markt heeft gezet. Net als de GTX580 is de HD7970 een allrounder. Waar de GTX680 echt ontworpen is voor gaming. Het is gewoon net wat je zoekt. de GTX680 is wat zuiniger en wat sneller op 1080p. De HD7970 GHz is goed in GPGPU verbruikt wat meer maar is wel iets sneller op 2560x1600 en hoger.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Laten we wel wezen, AMD heeft in een jaar tijd enorm aan driverwinst gewonnen en de prijs flink laten zakken... Bij introductie was de HD7970 lang niet zo interessant als dat ie nu is. (~100-150,- goedkoper en 10-20(?)% sneller geworden door driverontwikkeling)

[ Voor 17% gewijzigd door Anoniem: 245699 op 12-02-2013 18:50 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
maar de 680 is ook een stuk sneller geworden door driver ontwikkeling.
Is er ergens een nieuwe benchmark die beide vergelijkt met hoe ze er nu voor staan?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Mja ik weet ook wel dat Springstof een groene bril heeft, neemt niet weg dat onzin uit zijn duim hier niet thuis hoort en gewoon gecorrigeerd dient te worden :)

@ tomcatha: de 680 is helemaal niet veel sneller geworden. Veel van de zogenaamde performance increases zijn gebaseerd op situaties zonder AA volgens mij, want ik heb geen donder gemerkt. Ook met FC3 waar ze met 310.70 maar liefst 38% performance winst claimden merkte ik er geen drol van. En ik heb echt geen CPU bottleneck of iets dergelijks. Daar moet ik dus ook wel bij vermelden dat ik als het even kan geen PPAA gebruik (maakt me niet uit of het FXAA of MLAA is, ik wil ze allebei niet - alleen SMAA wil ik wel overwegen), altijd MSAA.

Sterker nog, momenteel is AMD verreweg de betere van de twee qua drivers, voor zover het single GPU betreft. Grote performance winsten, geen stabiliteits problemen; ik heb .70 terug moeten draaien omdat andere games ineens crashten als een malle.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
tomcatha schreef op dinsdag 12 februari 2013 @ 19:05:
maar de 680 is ook een stuk sneller geworden door driver ontwikkeling.
Is er ergens een nieuwe benchmark die beide vergelijkt met hoe ze er nu voor staan?
Ja, zo ongeveer:Conclusie @1080P@medium settings:
BF3: Win voor HD7970 (~13% sneller)
AvP: Win voor HD7970 (~10% sneller)
Dirt:Showdown: Win voor GTX680 (a whopping ~3% faster)
SpecOps:The Line: Win voor HD7970 (ruim 50% sneller)

Conclusie test 10CPU's @1080P@4xAA en Ultra settings:
BF3: Win voor HD7970
Dirt:Showdown: Win voor HD7970 (@ultra settings en 4xAA: nu wél een win voor HD7970!)
Crysis 2: Win voor GTX680
Max Payne 3: Win voor HD7970

Geteste games Hardware.info:
HD7970 wint dus met @1080P @4xAA en Ultra settings in 5 van de 6 geteste games. ;)





Een ComputerBase multi-GPU test van 23 december jongstleden laat soortgelijke cijfers zien:
  • 2560x1600@4xAA en 8xAA: een enkele HD7970 is gemiddeld 15% sneller dan een GTX680
  • 5760x1600@4xAA en 8xAA: een enkele HD7970 is gemiddeld 23 tot 29% sneller dan een GTX680
Nu dan een oudere test van ComputerBase van 13 augustus 2012:
  • 2560x1600@4xAA en 8xAA: HD7970 is gemiddeld 1 respectievelijk 5% sneller dan GTX680
  • 5760x1600@4xAA en 8xAA: HD7970 is gemiddeld 5 respectievelijk 24% sneller dan GTX680
Puur kijkend naar de benchmarks van ComputerBase zou ik concluderen dat de HD7970 een betere vooruitgang qua performance door drivers heeft weten te realiseren dan de GTX680. :9

[ Voor 62% gewijzigd door Indy91 op 12-02-2013 22:43 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
leuk om te zien dat de hd5770 inderdaad nu een stuk sneller is dan de 4870 wat ik toch ongeveer al voorspelde bij de release van de hd5770 die toen toch tegenviel.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Anoniem: 245699 schreef op dinsdag 12 februari 2013 @ 18:49:
Laten we wel wezen, AMD heeft in een jaar tijd enorm aan driverwinst gewonnen en de prijs flink laten zakken... Bij introductie was de HD7970 lang niet zo interessant als dat ie nu is. (~100-150,- goedkoper en 10-20(?)% sneller geworden door driverontwikkeling)
Hij was nog steeds een klap sneller dan de GTX580 ook bij introductie. En toen was de GTX580 ook nog 400 euro in de winkel. Qua prijsstelling zaten ze helemaal goed als je het vergeleek met nVidia. Niet in vergelijking met de HD69xx maar dat zij AMD ook. We hebben de prijs afgestemd op de linup van nVidia.
tomcatha schreef op dinsdag 12 februari 2013 @ 19:05:
maar de 680 is ook een stuk sneller geworden door driver ontwikkeling.
Is er ergens een nieuwe benchmark die beide vergelijkt met hoe ze er nu voor staan?
Helaas worden kaarten zelden opnieuw getest. Soms wordt dat wel gedaan. Maar dan niet altijd met de nieuwste beta drivers van de concurrent. Het zou best eens interessant zijn om alles opnieuw te testen.
Werelds schreef op dinsdag 12 februari 2013 @ 19:45:
Mja ik weet ook wel dat Springstof een groene bril heeft, neemt niet weg dat onzin uit zijn duim hier niet thuis hoort en gewoon gecorrigeerd dient te worden :)

@ tomcatha: de 680 is helemaal niet veel sneller geworden. Veel van de zogenaamde performance increases zijn gebaseerd op situaties zonder AA volgens mij, want ik heb geen donder gemerkt. Ook met FC3 waar ze met 310.70 maar liefst 38% performance winst claimden merkte ik er geen drol van. En ik heb echt geen CPU bottleneck of iets dergelijks. Daar moet ik dus ook wel bij vermelden dat ik als het even kan geen PPAA gebruik (maakt me niet uit of het FXAA of MLAA is, ik wil ze allebei niet - alleen SMAA wil ik wel overwegen), altijd MSAA.

Sterker nog, momenteel is AMD verreweg de betere van de twee qua drivers, voor zover het single GPU betreft. Grote performance winsten, geen stabiliteits problemen; ik heb .70 terug moeten draaien omdat andere games ineens crashten als een malle.
Dat is wel interessant. De winst van de HD79xx heb ik wel echt kunnen merken. Jammer voor de nVidia mensen dat de claims niet echt in praktijk terug te zien zijn. Ik zou best eens een nieuwe test willen zien van beide kaarten met de nieuwste drivers.
tomcatha schreef op dinsdag 12 februari 2013 @ 23:30:
leuk om te zien dat de hd5770 inderdaad nu een stuk sneller is dan de 4870 wat ik toch ongeveer al voorspelde bij de release van de hd5770 die toen toch tegenviel.
In het begin was dat wel anders ja toen was de HD4870 duidelijk sneller.
Edit: Nu nog steeds. BF3 misschien niet. Maar in Dirt kan de 5770 niet in de buurt komen van de HD4870 1GB. Hij verslaat bij HWI de 6850 zelfs. De HD4890 ook die zit vlak onder de HD5850. Beetje aparte resultaten. Mja het is HWI..... Misschien hebben ze DX11 en DX10 door elkaar getest?

[ Voor 4% gewijzigd door Astennu op 13-02-2013 09:30 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Het probleem is trouwens wel vaak dat ze de oude kaarten in dat soort reviews vaak niet opnieuw testen. Ze nemen die resultaten over van oude reviews. En testen de nieuwe kaarten dan alleen opnieuw. (het zal niet altijd zo zijn maar ik heb het aak genoeg gezien)

Dat geeft soms een vertekend beeld van de oudere kaarten omdat die dan niet de meest recente drivers gebruiken. Daarnaast vind ik Hardwareinfo niet echt een geweldige site. Computer base, HardOCP, Anandtech en Xbitlabs zijn veel beter. En er zijn er nog wel een paar.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Astennu schreef op woensdag 13 februari 2013 @ 09:27:
Dat geeft soms een vertekend beeld van de oudere kaarten omdat die dan niet de meest recente drivers gebruiken. Daarnaast vind ik Hardwareinfo niet echt een geweldige site. Computer base, HardOCP, Anandtech en Xbitlabs zijn veel beter.
Nog ééntje dan: Vergelijkende cijfers Xbit Labs
Voor zowel de nVidia GTX680 als de AMD HD7970 heeft men gebruikt gemaakt van de performance (beta)drivers van november 2012.

Van de 8 geteste games@1920x1080 0xAA en 8xAA:
  • Metro2033, SniperElite, SleepingDogs, HitmanAbsolution: 4x win voor HD7970
  • Crysis2, BF3: 2x gelijkspel tussen HD7970 en GTX680
  • Shogun2: 0xAA win voor HD7970, 8xAA win voor GTX680
  • F1 2012: 0xAA win voor GTX680, 8xAA win voor HD7970
Samengevat:
Van de 8 geteste games op XbitLabs zijn er 4 games waarbij de HD7970 de snelste is.
In de overige 4 games zijn de HD7970 en GTX680 gemiddeld genomen gelijkwaardig aan elkaar.

Zowel Hardware.info, als ComputerBase als XbitLabs laten het duidelijke beeld zien dat HD7970, één jaar na introductie, een stuk sneller is geworden door de drivers.
Ik denk dat we in zijn algemeenheid wel kunnen stellen dat op dit moment de HD7970 gemiddeld genomen sneller is dan de GTX680.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Indy91 schreef op woensdag 13 februari 2013 @ 11:17:
[...]

Nog ééntje dan: Vergelijkende cijfers Xbit Labs
Voor zowel de nVidia GTX680 als de AMD HD7970 heeft men gebruikt gemaakt van de performance (beta)drivers van november 2012.
....
de 7970 gebruik in metro wel 112 watt meer dan de gtx680. Dat is op zijn minst significant te noemen. Wanneer men idle 2d gebruik als nulwaarde hanteerd (ik weet dat het niet zo is, maar stel, aangezien dit in praktijk situaties wel het geval is), verbruik t de 7970 meer dan 50% meer stroom dan de GTX 680
Afbeeldingslocatie: http://www.xbitlabs.com/images/graphics/geforce-gtx-660-roundup/zpw-xbt.png

Voor mij zou dit betekenen dat een GTX 680 duidelijk de betere kaart is, omdat ik waarde hecht fps/watt waar de GTX 680 dus tientallen procenten beter scoort.

[ Voor 15% gewijzigd door eL_Jay op 13-02-2013 11:34 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
eL_Jay schreef op woensdag 13 februari 2013 @ 11:28:
[...]

de 7970 gebruik in metro wel 112 watt meer dan de gtx680. Dat is op zijn minst significant te noemen. Wanneer men idle 2d gebruik als nulwaarde hanteerd (ik weet dat het niet zo is, maar stel, aangezien dit in praktijk situaties wel het geval is), verbruik t de 7970 meer dan 50% meer stroom dan de GTX 680
Neen, zo kun je het niet stellen.
Je kunt wel stellen dat de HD7970 in stressed situatie 27% meer stroom verbruikt dan de GTX680.
Voor mij zou dit betekenen dat een GTX 680 duidelijk de betere kaart is, omdat ik waarde hecht fps/watt waar de GTX 680 dus tientallen procenten beter scoort.
Als fps/watt voor jou het belangrijkste is dan is de GTX680 voor jou duidelijk de betere kaart.

Voor de meeste review sites geldt echter: óf de snelste GPU óf beste price/performance. En bij deze criteria is de HD7970 duidelijk de betere kaart. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • A87
  • Registratie: Oktober 2006
  • Niet online

A87

Ik had ook een GTX 680 maar vind de 7970 een betere 99th percentile hebben, draait vloeiender imo. Toch iets waar niemand eigenlijk naar kijkt


Hopelijk komen ze dan nog met een Antwoord bij AMD, 8970 oid die stukke sneller wordt dan 7970, maarja zal wel een tijdje duren, wel balen want die 7970 is best oud

[ Voor 117% gewijzigd door A87 op 13-02-2013 11:57 ]

https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
A87 schreef op woensdag 13 februari 2013 @ 11:52:
Ik had ook een GTX 680 maar vind de 7970 een veeel betere 99th percentile hebben, draait vloeiender imo.

Hopelijk komen ze dan nog met een Antwoord bij AMD
Dat verschilt per configuratie en is geen peil op te trekken.
Met mijn huidige setup loopt Nvidia supersmooth en AMD schokt als een gek.
En bij het vorige systeem liep amd vloeiender.
Je weet pas welke het beste is voor jouw systeem als je beide kampen getest hebt op dat specifieke systeem.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Astennu schreef op woensdag 13 februari 2013 @ 09:22:
[...]
Helaas worden kaarten zelden opnieuw getest. Soms wordt dat wel gedaan. Maar dan niet altijd met de nieuwste beta drivers van de concurrent. Het zou best eens interessant zijn om alles opnieuw te testen.
Je kunt een AMD kaart ook niet met nVidia drivers gaan lopen testen, en vice versa :P
Indy91 schreef op woensdag 13 februari 2013 @ 11:49:
[...]

Neen, zo kun je het niet stellen.
Je kunt wel stellen dat de HD7970 in stressed situatie 27% meer stroom verbruikt dan de GTX680.
Dat kun je ook niet stellen: 522 / 410 geeft dan wel ~1,27 als antwoord, maar daarbij gaat het om het totaalverbruik van het systeem. Het systeem met een HD 7970 erin verbruikt in Metro 2033 27% meer dan met een GTX 680. Aan de hand van deze grafiek kun je alleen zeggen dat een HD 7970 stressed 112 Watt meer verbruikt en zelfs dan ben je nog niet nauwkeurig (hetgeen je echt kunt zeggen is dat het systeem dus 112 Watt of 27% meer verbruikt). Als je echt iets wilt zeggen over de procentuele verschillen tussen beide kaarten zal het verbruik direct vanaf de kaarten gemeten moeten worden, dat is hier niet gedaan.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
3XPER7 schreef op woensdag 13 februari 2013 @ 12:03:
[...]
Dat kun je ook niet stellen: 522 / 410 geeft dan wel ~1,27 als antwoord, maar daarbij gaat het om het totaalverbruik van het systeem. Het systeem met een HD 7970 erin verbruikt in Metro 2033 27% meer dan met een GTX 680.
Je hebt natuurlijk gelijk...my bad. :$

Het méérverbruik van de HD7970 boven de GTX680 zal idd eerder rond het percentage liggen wat eL_Jay al eerder aangaf (50%).

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Ik game veel, gemiddeld 4 uur in-game time per dag haal ik wel. Er vanuit gaande dat ik geen V-sync aan heb staan is de jaarlijkse meerprijs aan energie voor de 7970 is dan 36 euro

(112w *4 *365=163520 watt
Volgens mij is duizend watt 1 kilowatt/KwH?? 164*0,22cent per kwh)


Nu geeft de gemiddelde high-end koper daar wellicht geen zak om, maar ik probeer daar wel rekening mee te houden bij mijn aanschaf.
Ik hoop dan ook dat wanneer de volgende generatie eindelijk komt dat een 8870 on par is met de huidige 7970ghz qua game-prestaties, met het verbruik van een 7850/7870.

(dat is wat me nu tegenhoud een tahiti te kopen, het prestatieverschil van mijn 6850 met een 7870 vind ik onvoldoende)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het is natuurlijk wel zo dat je moet kijken naar het gemiddelde verbruik in games. Dat de piek bij de HD7970 stukken hoger ligt komt door nVidia's boost welke een hoger verbruik gewoon niet toelaat dan wordt de kaart ondergeklokt. Maar dat is niet van belang je moet immers naar het vermiddelde game verbruik kijken daar gaat het immers om en niet op een piek van één seconde in Furmark.

Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_average.gif
Afbeeldingslocatie: http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_680/images/power_peak.gif
• Average: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen).
• Peak: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Highest single reading during the test.
http://www.techpowerup.co...A/GeForce_GTX_680/25.html

En waar is nu het grote voordeel van de GTX 680?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
was/is het ook niet zo dat veel amd kaarten overvolted zijn?

Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
tomcatha schreef op woensdag 13 februari 2013 @ 16:49:
was/is het ook niet zo dat veel amd kaarten overvolted zijn?
Klopt helemaal en met de 600 serie van Nvidia is dat helaas niet mogelijk :'(

Acties:
  • 0 Henk 'm!

Anoniem: 59888

eL_Jay schreef op woensdag 13 februari 2013 @ 16:20:
Ik game veel, gemiddeld 4 uur in-game time per dag haal ik wel. Er vanuit gaande dat ik geen V-sync aan heb staan is de jaarlijkse meerprijs aan energie voor de 7970 is dan 36 euro

[...]
Nu geeft de gemiddelde high-end koper daar wellicht geen zak om, maar ik probeer daar wel rekening mee te houden bij mijn aanschaf.
Dat snap ik niet helemaal. Uiteraard is het jouw keuze, maar als je high-end koopt en regelmatig upgrade geef je gemiddeld per jaar een paar honderd euro uit, zo niet meer. Wat maakt die 36 euro aan energiekosten dan nog uit?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Indy91 schreef op woensdag 13 februari 2013 @ 11:17:
[...]

Nog ééntje dan: Vergelijkende cijfers Xbit Labs
Voor zowel de nVidia GTX680 als de AMD HD7970 heeft men gebruikt gemaakt van de performance (beta)drivers van november 2012.

Van de 8 geteste games@1920x1080 0xAA en 8xAA:
  • Metro2033, SniperElite, SleepingDogs, HitmanAbsolution: 4x win voor HD7970
  • Crysis2, BF3: 2x gelijkspel tussen HD7970 en GTX680
  • Shogun2: 0xAA win voor HD7970, 8xAA win voor GTX680
  • F1 2012: 0xAA win voor GTX680, 8xAA win voor HD7970
Samengevat:
Van de 8 geteste games op XbitLabs zijn er 4 games waarbij de HD7970 de snelste is.
In de overige 4 games zijn de HD7970 en GTX680 gemiddeld genomen gelijkwaardig aan elkaar.

Zowel Hardware.info, als ComputerBase als XbitLabs laten het duidelijke beeld zien dat HD7970, één jaar na introductie, een stuk sneller is geworden door de drivers.
Ik denk dat we in zijn algemeenheid wel kunnen stellen dat op dit moment de HD7970 gemiddeld genomen sneller is dan de GTX680.
Dat geloof ik meteen GCN is een veel nieuwere architectuur waar nog veel geoptimaliseerd kan worden. Bij nVidia is Kepler de verbeterde versie van Fermi. Dus veel dingen zijn al geoptimaliseerd maar niet alles.

Eigenlijk moet je ook de HD7970 non GHz mee nemen in de vergelijking. En dan de GTX680 launch review er bij pakken en de nieuwste drivers 13.2 beta en 310.xx.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 18:57

XanderDrake

Build the future!

AMD's ex-CEO Hector Ruiz heeft een boek uit gegeven over AMDs gevecht met Intel.

Interressant detail:
There are also insights into other developments during Ruiz’s tenure. “Slingshot,” for example, states that Nvidia had been AMD’s first preference to buy to add graphics-chip expertise, a possibility Ruiz says foundered on high price and the requirement that Nvidia’s chief take over leadership of AMD. (An Nvidia spokesman declined comment)
Jensen is ook echt een manneke he ;)

Zou nu alles anders zijn gegaan als AMD toch op zijn eerste gedachten bleef?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
XanderDrake schreef op vrijdag 15 februari 2013 @ 12:05:
AMD's ex-CEO Hector Ruiz heeft een boek uit gegeven over AMDs gevecht met Intel.

Interressant detail:
[...]


Jensen is ook echt een manneke he ;)

Zou nu alles anders zijn gegaan als AMD toch op zijn eerste gedachten bleef?
Ik las het ja. Wist alleen niet dat dat de eis van nVidia was. Verbaast me opzich niets. Goed dat AMD het niet gedaan heeft en met ATi in zee is gegaan. De Cultuur van ATi past ook veel beter bij AMD als je het mij vraagt. Het is dat Intel gewoon zo sterk is maar in de GPU markt doet AMD het prima.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Huilen :(
http://nl.hardware.info/n...-geen-nieuwe-videokaarten
AMD bevestigd dat de 8xxx (m.u.v. OEM-rebrands) zeer waarschijnlijk niet meer dit jaar komen (anders Q4).
Ik twijfel of mijn 6850 nog een jaar gaat voldoen voor mij, en upgraden naar een 7870 (non-xt) vind ik onvoldoende upgrade. Aargh, toch maar snel een goede baan vinden en een Titan op de kop tikken :P
Anoniem: 59888 schreef op woensdag 13 februari 2013 @ 19:23:
[...]

Dat snap ik niet helemaal. Uiteraard is het jouw keuze, maar als je high-end koopt en regelmatig upgrade geef je gemiddeld per jaar een paar honderd euro uit, zo niet meer. Wat maakt die 36 euro aan energiekosten dan nog uit?
ik koop dan ook niet high-end, maar bang/buck en bang/watt en dat is toch vaak mid-range AMD qua GPU's.
Ik ben zo'n groen geitenwollen sokken type;)

Edit
Snorro schreef op zaterdag 16 februari 2013 @ 13:05:
[...]

Dan lijkt Nvidia me juist meer wat voor jou :+
Zo'n mooi voorzetje kon je niet laten gaan he ;)
Ik gun mijn centjes aan AMD, want zonder AMD heeft Intel het monopolie. En gezien dat CPU's de cutting edge zijn, zie ik daar niet snel een nieuwe speler komen. Ik ben wel hypocriet helaas, want ik heb een 2500k omdat die simpelweg beter is voor mij.
Regeneration schreef op zaterdag 16 februari 2013 @ 13:09:
[...]

Aan de ene kant snap ik het wel.

[...]

Haha, ik moet het nog doen met de HD 4770. :P
Ik snap wel waarom ze het doen, zeker vanuit Nvidia, maar dat maakt het niet leuk. Succes met je 4770 ;)
Wellicht de 7870xt dan maar kopen?(of non xt als je verbruik wel belangrijk vind)

[ Voor 70% gewijzigd door eL_Jay op 16-02-2013 20:09 ]


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 02-05 12:42
eL_Jay schreef op zaterdag 16 februari 2013 @ 12:41:
[...]

ik koop dan ook niet high-end, maar bang/buck en bang/watt en dat is toch vaak mid-range AMD qua GPU's.
Ik ben zo'n groen geitenwollen sokken type;)
Dan lijkt Nvidia me juist meer wat voor jou :+

Acties:
  • 0 Henk 'm!

  • Regeneration
  • Registratie: Februari 2006
  • Niet online
eL_Jay schreef op zaterdag 16 februari 2013 @ 12:41:
Huilen :(
http://nl.hardware.info/n...-geen-nieuwe-videokaarten
AMD bevestigd dat de 8xxx (m.u.v. OEM-rebrands) zeer waarschijnlijk niet meer dit jaar komen (anders Q4).
Aan de ene kant snap ik het wel. De releases volgden elkaar snel op. Met een cyclus van 2 jaar heeft AMD ook wat meer ontwikkeltijd per generatie. Aan de andere kant jammer, want ik wilde nu net gaan upgraden wanneer de 8000 serie uit zou komen. Wat ik verder niet helemaal snap is waarom OEM nu wel rebrands van de 8000 series krijgen terwijl er geen reguliere 8000 serie te koop is en dus geen duidelijke reden is voor rebrands.
Ik twijfel of mijn 6850 nog een jaar gaat voldoen voor mij
Haha, ik moet het nog doen met de HD 4770. :P

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
dat is omdat OEMS elke jaar weer wat nieuws willlen. Het is meer dat die het eisen van amd dan andersom.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

http://techreport.com/rev...lands-obscured-in-the-fog

[ Voor 4% gewijzigd door Help!!!! op 16-02-2013 14:44 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 02-05 12:42
tomcatha schreef op zaterdag 16 februari 2013 @ 13:23:
dat is omdat OEMS elke jaar weer wat nieuws willlen. Het is meer dat die het eisen van amd dan andersom.
Dat lijkt me duidelijk, maar ik snap zijn punt wel.
Ik zou denken dat OEMs dat normaal gesproken willen omdat het anders lijkt alsof ze een generatie achter lopen op de next gen (wat natuurlijk ook zo is). Maar nu er helemaal geen 8xxx (binnenkort) op de reguliere markt verkrijgbaar is, kan bij 'de onwetende consument' ook niet het beeld ontstaan dat er verouderde hardware in hun kant-en-klare bak zit.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Maar wat gaan OEM's dan over een jaar doen, als AMD wel met de HD 8000 serie komt? Stappen ze dan gewoon over naar "9000" en gebruiken ze daarvoor gewoon de modellen uit de HD 8000 serie of bieden ze dan nog een jaar "HD 8000" materiaal aan? Op een gegeven moment zullen de series toch weer samen moeten gaan lopen lijkt me..

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 22:12
Nee, maar er kan nu wel het beeld ontstaan dat de OEM's voorlopen voor de minder geinformeerde consument (ziet in het schap kaarten liggen als de HD7870 en de HD7950 voor 250 tot 350 euro, echt waar sommige retail shops vragen echt absurde prijzen voor videokaarten). En ziet daarna een "mooie" Packard bell (oid) machine met een HD8770 en denkt, mooi die is me toch een pak sneller dan die andere kaarten......

@3XPER7, dat weet uiteraard nog niemand, maar het kan maar zo zijn idd dat Q1 of Q2 van 2013 de OEM's weer een rebrand willen.

[ Voor 14% gewijzigd door Dennism op 16-02-2013 23:50 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
3XPER7 schreef op zaterdag 16 februari 2013 @ 23:48:
Maar wat gaan OEM's dan over een jaar doen, als AMD wel met de HD 8000 serie komt? Stappen ze dan gewoon over naar "9000" en gebruiken ze daarvoor gewoon de modellen uit de HD 8000 serie of bieden ze dan nog een jaar "HD 8000" materiaal aan? Op een gegeven moment zullen de series toch weer samen moeten gaan lopen lijkt me..
Zal liggen aan het aantal OEM HD8000 kaarten, als de hele serie gerebrand gaat worden dan wordt de volgde serie de HD9000 logischerwijs, gaat het om twee, drie kaartjes dan is er ruimte genoeg om de echte nieuwe kaarten HD8000 te noemen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
-The_Mask- schreef op zondag 17 februari 2013 @ 00:23:
[...]

Zal liggen aan het aantal OEM HD8000 kaarten, als de hele serie gerebrand gaat worden dan wordt de volgde serie de HD9000 logischerwijs, gaat het om twee, drie kaartjes dan is er ruimte genoeg om de echte nieuwe kaarten HD8000 te noemen.
Daar zal het inderdaad wel aan liggen, maar dan moet het qua naamgeving nog wel kunnen passen. Verstandig zou zijn als OEM's zich bezig houden in het sub-x7xx segment, waarbij ze eventueel de HD 7770 bijvoorbeeld rebranden naar 8670. Op die manier zou er in ieder geval geen onduidelijkheid kunnen ontstaan wanneer de losse nieuwe kaarten uiteindelijk ook in de schappen komen te liggen.

Als ze ook naar HD 87xx en HD 88xx gaan rebranden krijg je natuurlijk een wat lastiger verhaal, maar van dit alles zie ik niets verduidelijkt worden op HWI. Hoewel, als je dan dit ziet: AMD HD 8000 OEM specs (via TPU, zal wel oud nieuws zijn maar heb het dan even gemist).

[ Voor 14% gewijzigd door Fid3lity op 17-02-2013 02:00 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Om even in te haken op het hele "geen nieuwe chips" verhaal: wrong :P

Het is allemaal heel subtiel, maar als je alles even goed bekijkt zeggen ze alleen dat AMD geen chips in de 8000-naam gaat uitbrengen, er komen echter wel nieuwe desktop chips in de eerste helft van 2013 :)

Anandtech geeft dit al heel duidelijk aan voor de lower end (zie hier) maar ook als je leest hoe AMD reageerde op bepaalde dingen en wat hun antwoorden soms waren op andere sites, mag het duidelijk zijn dat ze weldegelijk iets gepland hebben. Ze schreeuwen het alleen, zoals gewoonlijk en in tegenstelling tot Nvidia, niet van de daken totdat ZIJ het tijd vinden (wat overigens wel al maart lijkt te zijn, gebaseerd op sommig commentaar van AMD) :)

Om het vanuit AMD's perspectief te verklaren waarom nieuwe chips (Sea Islands) toch in de 7000-serie passen: het is nog steeds dezelfde architectuur (GCN1), alleen net even een beetje getweakt.

Eerlijk gezegd ben ik het ergens wel met ze eens wat dat betreft. We wisten sowieso al dat we refreshes gingen krijgen van beide kanten (en jawel, GK110/Titan/Big Kepler valt daar ook onder), dus dit stuurt meteen een duidelijk signaal dat men geen magische sprongen moet verwachten. Daarnaast heeft de HD7000 serie inmiddels een sterke naam opgebouwd die ze blijkbaar willen behouden. Aan de andere kant wordt de HD7000 serie zo wel erg overbevolkt en krijg je een ontzettend messy line-up.

[ Voor 3% gewijzigd door Werelds op 17-02-2013 13:07 ]


Acties:
  • 0 Henk 'm!

  • calsonic
  • Registratie: Augustus 2012
  • Niet online
Werelds schreef op zondag 17 februari 2013 @ 13:04:
Om even in te haken op het hele "geen nieuwe chips" verhaal: wrong :P

Het is allemaal heel subtiel, maar als je alles even goed bekijkt zeggen ze alleen dat AMD geen chips in de 8000-naam gaat uitbrengen, er komen echter wel nieuwe desktop chips in de eerste helft van 2013 :)

Anandtech geeft dit al heel duidelijk aan voor de lower end (zie hier) maar ook als je leest hoe AMD reageerde op bepaalde dingen en wat hun antwoorden soms waren op andere sites, mag het duidelijk zijn dat ze weldegelijk iets gepland hebben. Ze schreeuwen het alleen, zoals gewoonlijk en in tegenstelling tot Nvidia, niet van de daken totdat ZIJ het tijd vinden (wat overigens wel al maart lijkt te zijn, gebaseerd op sommig commentaar van AMD) :)

Om het vanuit AMD's perspectief te verklaren waarom nieuwe chips (Sea Islands) toch in de 7000-serie passen: het is nog steeds dezelfde architectuur (GCN1), alleen net even een beetje getweakt.

Eerlijk gezegd ben ik het ergens wel met ze eens wat dat betreft. We wisten sowieso al dat we refreshes gingen krijgen van beide kanten (en jawel, GK110/Titan/Big Kepler valt daar ook onder), dus dit stuurt meteen een duidelijk signaal dat men geen magische sprongen moet verwachten. Daarnaast heeft de HD7000 serie inmiddels een sterke naam opgebouwd die ze blijkbaar willen behouden. Aan de andere kant wordt de HD7000 serie zo wel erg overbevolkt en krijg je een ontzettend messy line-up.
Ben het toch niet helemaal met je eens over de GK110 Titan.
Dat is namelijk geen refresh aangezien we hem nog niet eerder als Geforce hebben gehad.
Ja het klopt dat de chip zelf niet nieuw is en eerder dienst heeft gedaan in de Tesla maar als gamechip wordt hij dus wel voor het eerst gebruikt en is daarmee ook meteen de sterkste single gpu kaart.
Pagina: 1 2 ... 10 Laatste

Dit topic is gesloten.

Let op:
Het nieuwe deel is hier: CJ's Radeon Info & Nieuwsdiscussie - Deel 126