Is goedkoper om een bestaande PCB te gebruiken ipv een nieuw PCB te ontwerpen.
Anoniem: 304087
Jammer dat er zo weining komen dan, special item?Toettoetdaan schreef op woensdag 29 augustus 2012 @ 15:44:
[...]
Die Devil kaart van Powercolor komt in de eerste week van september.
De hoeveelheid bij kaarten als deze Devil 13 is erg klein, vaak worden er van kaarten van dit kaliber maar 500 a 1000 gemaakt.
Ben benieuwd hoe die het tegen de mars 3 gaat doen iig.
Dit is iets voor het ervaringen topic niet voor het nieuws topic. Zoek gewoon wat reviews en ervaringen op. Overclocken is geluk hebben dat je een kaart hebt met een goede chip. Je kunt goedkope refferenced kaartjes hebben die harder gaan dan een MSI Lightning. Maar over het algemeen hebben die Lightning kaarten betere GPU's maar ook daar moet je gewoon geluk hebben.kthxbye schreef op donderdag 30 augustus 2012 @ 02:02:
Hmm... Ik begin nu toch wel heel erg te twijfelen. Die Sapphire is gebouwd op een 7970 pcb en werkt met een 8+6 pins stroomaansluiting. Dan lijkt het me dat die toch net ff wat meer ruimte biedt om te overklokken dan die Gigabyte?
[...]
Zie ook:
http://www.overclock.net/...hread/11260#post_17357026
http://hardforum.com/showthread.php?t=1695577
Goed want de mars 3 zou 2x 7870 zijn. Die zit daarmee in een hele andere classe.Anoniem: 304087 schreef op donderdag 30 augustus 2012 @ 09:28:
[...]
Jammer dat er zo weining komen dan, special item?
Ben benieuwd hoe die het tegen de mars 3 gaat doen iig.
[ Voor 14% gewijzigd door Astennu op 30-08-2012 11:25 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De Mars 3 zou 2x GTX 680 worden, de nieuwe Ares zou 2x HD 7970 worden.
Eh nee, waarom zou Asus een dual HD7870 maken en geen HD7970?3XPER7 schreef op donderdag 30 augustus 2012 @ 11:38:
de nieuwe Ares zou 2x HD 7870 worden.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Typo-The_Mask- schreef op donderdag 30 augustus 2012 @ 12:53:
[...]
Eh nee, waarom zou Asus een dual HD7870 maken en geen HD7970?
Ja my bad had de namen door elkaar gehaald3XPER7 schreef op donderdag 30 augustus 2012 @ 11:38:
De Mars 3 zou 2x GTX 680 worden, de nieuwe Ares zou 2x HD 7970 worden.

Was een gerucht van een tijdje terug. Of het waar is is natuurlijk een ander verhaal.-The_Mask- schreef op donderdag 30 augustus 2012 @ 12:53:
[...]
Eh nee, waarom zou Asus een dual HD7870 maken en geen HD7970?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het was inderdaad een gerucht, TPU had ook al aangegeven dat ze van ASUS de bevestiging hadden dat er niet aan een dual Pitcairn werd gewerkt.
Ah oke duidelijk
2x 7970 lijkt me ook wat beter geschikt voor een Ares.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Raar dat AMD er niks mee doet, want die PowerColor gasten hebben toch wel een hele leuke kaart uitgebracht 
Zijn er al NL prijzen bekend ??
Zijn er al NL prijzen bekend ??
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Anoniem: 304087
Niet zo raar want fabriekenten kunnen makkelijker over de specs heen gaan.nero355 schreef op vrijdag 31 augustus 2012 @ 10:54:
Raar dat AMD er niks mee doet, want die PowerColor gasten hebben toch wel een hele leuke kaart uitgebracht
Zijn er al NL prijzen bekend ??
AMD komt zelf niet meer met een tegenstander voor de gtx690
Anoniem: 304087
Sleeping dogs had hier trouwens nog geen sli profiel voor de gtx690 (AMD game)Versteegrob schreef op vrijdag 31 augustus 2012 @ 07:41:
De eerste review van de 7990
http://www.hardwareheaven...-review-introduction.html
Maar zoals je ziet gaat ze gelijk op dus AMD zou sowieso niet mer een snellere kaart komen.
Hoe kan het dat nvidia in een aantal games een betere min fps heeft en een mindere max fps?
[ Voor 23% gewijzigd door Anoniem: 304087 op 31-08-2012 11:07 ]
Er zal ook nog altijd geen juiste driver zijn voor de 7990 hoorAnoniem: 304087 schreef op vrijdag 31 augustus 2012 @ 10:59:
[...]
Sleeping dogs had hier trouwens nog geen sli profiel voor de gtx690 (AMD game)
Maar zoals je ziet gaat ze gelijk op dus AMD zou sowieso niet mer een snellere kaart komen.
Hoe kan het dat nvidia in een aantal games een betere min fps heeft en een mindere max fps?
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Hoe zo niet zijn gewoon 2 hd7970's in cf. Je bent er geen aparte drivers voor nodig dunkt mij.
Maar goed, de kaart ziet er stoer uit geeft redelijke performance. Nadeel er komen maar weinig van en
ik denk dat hij ook wat duurder is dan de gtx680?
Maar goed, de kaart ziet er stoer uit geeft redelijke performance. Nadeel er komen maar weinig van en
ik denk dat hij ook wat duurder is dan de gtx680?
[ Voor 45% gewijzigd door Anoniem: 304087 op 31-08-2012 12:11 ]
Jah maar ik zie zussen de CAPs bv sleeping dogs er nog niet tussen zittenAnoniem: 304087 schreef op vrijdag 31 augustus 2012 @ 12:09:
Hoe zo niet zijn gewoon 2 hd7970's in cf. Je bent er geen aparte drivers voor nodig dunkt mij.
Maar goed, de kaart ziet er stoer uit geeft redelijke performance. Nadeel er komen maar weinig van en
ik denk dat hij ook wat duurder is dan de gtx680?
Maar hoe dan ook Diablo 3 en CS GO als benchmark game


De DEVIL is inderdaad een LE hij zou rond de 1000dollar van hand gaan had zo iets gelezen in de "rumors" een tijdje terug
Hoe dan ook
[ Voor 18% gewijzigd door yzx op 31-08-2012 12:15 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Sleeping dogs werkt al met cf vanaf dag 1 want het is een AMD game.
In de benchmarks is ook we te zien dat CF daar goed schaalt en sli nog niet werkt,
Persoonlijk vind ik de gtx690 er wel strakker uit zien echter is dat ook de betere keuze.
In de benchmarks is ook we te zien dat CF daar goed schaalt en sli nog niet werkt,
Persoonlijk vind ik de gtx690 er wel strakker uit zien echter is dat ook de betere keuze.
[ Voor 23% gewijzigd door Anoniem: 304087 op 31-08-2012 12:19 ]
Wat is je onderbouwing daarvoor? Je hebt maar 3 redenen om een GTX690/7990 te kopen.Anoniem: 304087 schreef op vrijdag 31 augustus 2012 @ 12:18:
Persoonlijk vind ik de gtx690 er wel strakker uit zien echter is dat ook de betere keuze.
- 3D/120hz.
- Tri-monitor.
- Als je echt geen idee hebt wat je met je geld moet en 200FPS op je 60Hz full HD monitor wilt.
- nVidia, maar verschil is heel nihil.
- AMD.
- No comment.
- Geen verschil.
- nVidia
- No comment.
- AMD.
- AMD.
- AMD.
- Geen verschil.
- AMD.
- No comment.
- Geen verschil.
- nVidia.
- No comment.
- nVidia.
- AMD heeft een klein dipje, maar over 't algemeen beter, dus ik ga voor "Geen verschil".
- No comment.
- AMD.
- AMD.
- AMD.
Als ik tussen die twee moest kiezen op basis van die review dan wist ik 't toch wel hoor, roodkleurig. Verbruik ligt overigens wel aardig hoger, maarja we weten inmiddels dat sommigen gebruik als niet-bestaand beschouwen toch? Inmiddels al lekker lang 2 680s waar Surround heerlijk mee draait, waardoor ik een kaart als dit ook wel aan de late kant vind, maar om op basis van deze review te stellen dat de GTX690 de betere looks heeft en betere kaart is? Knap.
Overigens wat een spellenlijst zoals ook yzx van mening was, echt waar.

[ Voor 4% gewijzigd door Paprika op 31-08-2012 14:59 ]
Anoniem: 304087
Ik doelde ook meer op als je zo'n kaart aan wil schaffen. Ben het er mee eens dat het tot 2500 resolutie niet nodig is zo'n dual gpu kaart. Het gaat me bij multimonitor niet zo zeer om wie de snelste is maar meer om de gameplay ervaring zoals microstuttering en bij lage fps. Looks staat hier kompleet buiten. En de prijs isPaprika schreef op vrijdag 31 augustus 2012 @ 14:55:
[...]
Wat is je onderbouwing daarvoor? Je hebt maar 3 redenen om een GTX690/7990 te kopen.Battlefield 3
- 3D/120hz.
- Tri-monitor.
- Als je echt geen idee hebt wat je met je geld moet en 200FPS op je 60Hz full HD monitor wilt.
Diablo 3
- nVidia, maar verschil is heel nihil.
- AMD.
- No comment.
DiRT Showdown
- Geen verschil.
- nVidia
- No comment.
CS GO
- AMD.
- AMD.
- AMD.
Star Wars: The Old Republic
- Geen verschil.
- AMD.
- No comment.
Max Payne 3
- Geen verschil.
- nVidia.
- No comment.
Sleeping Dogs
- nVidia.
- AMD heeft een klein dipje, maar over 't algemeen beter, dus ik ga voor "Geen verschil".
- No comment.
- AMD.
- AMD.
- AMD.
ook wel belangrijk
Mijn keuze is dan groen omdat ik voor gamplay kies. Verder ok vanweg de physx games en omdat de kaarten sterk genoeg zijn voor surround in dem meeste games.
[ Voor 12% gewijzigd door Anoniem: 304087 op 31-08-2012 15:26 ]
Anoniem: 245699
Review van TPU;
- http://www.techpowerup.co...ercolor/HD_7990_Devil_13/
(ook al is het exemplarisch)
EDIT; Dit is dan wel een meevaller;
- http://www.techpowerup.co...ercolor/HD_7990_Devil_13/
Dat is wel slordig voor een kaart van $1000,-Important: All data in this review was obtained after I repaired a major design error of the card. When I received it, the card ran extremely high temperatures, reaching beyond 100°C, causing instability and black screen hangs. The fan would also run at 100% almost instantly. This is caused by screws with integrated stop that resulted in too little mounting pressure between GPU and heatsink, clearly an engineering oversight. I added three metal washers on each screw by removing the screws, adding the washers and putting the screws back. The cooler was removed for this procedure, and thermal paste was replaced with a thin layer. Only this procedure enabled the card to run stable. The card was unusable out of the box.

EDIT; Dit is dan wel een meevaller;
Update: PowerColor just told us that they are working on the mounting issue and halted all shipments of production boards to investigate. No retail cards should be affected.
[ Voor 12% gewijzigd door Anoniem: 245699 op 04-09-2012 14:31 ]
Ik heb zoiets zelf gezien bij 2 exemplaren van de 6970 van MSI en dat gaf inderdaad veel instabiliteit issues

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Goed voor de werkgelegenheid in Azie, netzo als destijds met de HD6970, met zijn handmatige vijl akties om de cooler er op te krijgen nadat deze niet bleek te passen..
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Haha dat was best een leuke fout, doordat de koeler te groot was gebeurde er dit:sain onez schreef op dinsdag 04 september 2012 @ 16:30:
Goed voor de werkgelegenheid in Azie, netzo als destijds met de HD6970, met zijn handmatige vijl akties om de cooler er op te krijgen nadat deze niet bleek te passen..

Daarna hebben ze elke kaart die met die koeler geleverd werd met de hand bewerkt:

Het begint al weer tijd te worden voor geruchten rondom de HD8xxx serie
Ik vermoed dat het volgende een beetje uit de duim gezogen is maar om de discussie op gang te helpen:
En soms is het verschil nog groter: http://www.tweaktown.com/...in_crossfire/index13.html
Als je dan ook de architectuur nog efficienter maakt. zou 30-40% niet ondenkbaar zijn. Het probleem is wel dat Tahiti best groot is. Als je naar 2560 shaders gaat wordt de boel nog een stuk groter wat betekend dat de kaarten ook duurder zijn om te maken.
De front end van de HD7970 is in verhouding met de HD7870 gewoon wat zwak. Tesselation performance zou ook nog wel wat beter mogen dus daar zijn wel grote sprongen te maken.
Ik vind een 5 biljoen transistor chip wel interessant. Maar ik kan me voorstellen dat dit voor AMD niet echt ideaal is. Yields zijn slechter en de kosten zijn hoger. Daarnaast verbruiken grote chips ook meer.
Zo groot als de GT200 en de R600 zal het nog niet zijn. Maar het gaat wel weer die kant op. En dit is dus geen small die strategie meer. Persoonlijk vind ik CF en SLI ook te veel nadelen hebben. Dus ik ben zelf wel blij dat AMD hier weer een beetje van af gestapt is.
Maar over de specs: Ik denk dat 2560 shaders goed mogelijk zou zijn. Ik heb dit zelf ook wel eens geroepen. 384 bit mem lijkt me ook nog voldoende. Maar gewoon wat hoger geclockt geheugen (6 - 6,5 GHz). En daar naast lijkt het me ook wel wenselijk om wat meer ROP's te hebben. Zie ook 7870 VS 7970. Ik denk dat de 7970 gewoon niet alle shaders optimaal kan benutten.
Om van 2 naar 4 tesselation units te gaan lijkt me wat veel. 3 Lijkt me lastig qua verdeling in je core. Dus wellicht gewoon weer twee maar dan weer wat krachtiger om op die manier daar ook winst te boeken. En anders wel 4 tesselators. Want nu is de 7870 soms sneller als het aan komt op tesselation. Want die is op 1GHz geclockt en de standaard 7970 op 925 MHz.
Ik vermoed dat het volgende een beetje uit de duim gezogen is maar om de discussie op gang te helpen:
Als ze er een soort van dubbele Pitcairn van maken zit je tegen de 30% aan: http://www.tweaktown.com/...in_crossfire/index10.htmlFabless GPU and CPU designer, American company AMD is getting ready to launch its newest and most powerful GPU architecture this winter. The new GPU series will bear the codename “Sea Islands,” while the products will be branded Radeon 8000 Series.
Not much is known about the new architecture, but rumors say that the new GPU will have 5.1 billion transistors and will be built in TSMC’s well-known and popular 28nm manufacturing technology.
Considering the fact that the current GCN top-performing GPU has 4.3 billion transistors, a relatively small 18% increase in transistor count would be rather impressive if it yields a 40% performance improvement.
The number of transistors can’t increase too much, especially since the GPU is still made using 28nm bulk wafers and at roughly 410 millimeter die size, the Venus GPU is already big enough.
The internal configuration of the architecture is supposed to be comprised of 2560 stream processors, 160 texture units (TMUs), 32 or 48 ROP units (ROPs) and the same 384-bit memory bus.
AMD’s new flagship is likely to maintain the GHz-like frequencies that are usually achieved by the current GCN processors.
Not moving to a smaller manufacturing process does not mean that AMD will end up with a hot chip. In fact, six months from now, TSMC’s 28nm manufacturing process will basically be more than 1 year old and will yield even better results.
On the other hand, AMD will do its best to achieve a lower current leakage and, overall, a more efficient architecture.
En soms is het verschil nog groter: http://www.tweaktown.com/...in_crossfire/index13.html
Als je dan ook de architectuur nog efficienter maakt. zou 30-40% niet ondenkbaar zijn. Het probleem is wel dat Tahiti best groot is. Als je naar 2560 shaders gaat wordt de boel nog een stuk groter wat betekend dat de kaarten ook duurder zijn om te maken.
De front end van de HD7970 is in verhouding met de HD7870 gewoon wat zwak. Tesselation performance zou ook nog wel wat beter mogen dus daar zijn wel grote sprongen te maken.
Ik vind een 5 biljoen transistor chip wel interessant. Maar ik kan me voorstellen dat dit voor AMD niet echt ideaal is. Yields zijn slechter en de kosten zijn hoger. Daarnaast verbruiken grote chips ook meer.
Zo groot als de GT200 en de R600 zal het nog niet zijn. Maar het gaat wel weer die kant op. En dit is dus geen small die strategie meer. Persoonlijk vind ik CF en SLI ook te veel nadelen hebben. Dus ik ben zelf wel blij dat AMD hier weer een beetje van af gestapt is.
Maar over de specs: Ik denk dat 2560 shaders goed mogelijk zou zijn. Ik heb dit zelf ook wel eens geroepen. 384 bit mem lijkt me ook nog voldoende. Maar gewoon wat hoger geclockt geheugen (6 - 6,5 GHz). En daar naast lijkt het me ook wel wenselijk om wat meer ROP's te hebben. Zie ook 7870 VS 7970. Ik denk dat de 7970 gewoon niet alle shaders optimaal kan benutten.
Om van 2 naar 4 tesselation units te gaan lijkt me wat veel. 3 Lijkt me lastig qua verdeling in je core. Dus wellicht gewoon weer twee maar dan weer wat krachtiger om op die manier daar ook winst te boeken. En anders wel 4 tesselators. Want nu is de 7870 soms sneller als het aan komt op tesselation. Want die is op 1GHz geclockt en de standaard 7970 op 925 MHz.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
5 billion, voordat we videokaarten met 5 biljoen transistors zien zijn wij heel wat ouder.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dat zijn natuurlijk "short scale" Billions. Wikipedia: Billion-The_Mask- schreef op maandag 10 september 2012 @ 11:47:
5 billion, voordat we videokaarten met 5 biljoen transistors zien zijn wij heel wat ouder.
Oftewel 5.1 Miljard.
Anoniem: 245699
Mask refereert naar de 'biljoen', die Astennu per ongeluk in z'n verhaal noemt. Dit moet in het Nederlands natuurlijk miljard zijn.
Ja klopt ik had billion in mijn hooft en het verkeerd vertaald
het moet inderdaad Miljard zijn.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zo te zien gaat nVidia een price-drop toepassen op de GTX 660 Ti om meer te concurreren met de goedkope HD 7950.
Ein-de-lijk is er weer eens een price war op handen. Typisch dat ik nét mijn GTX 670 heb gekocht
Ein-de-lijk is er weer eens een price war op handen. Typisch dat ik nét mijn GTX 670 heb gekocht
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Alweer? Nog maar even wachten dan.
Maar hoe komen ze aan die euro prijzen?
Vaak zakken prijzen al voor de aankondiging, dus misschien zijn de huidige prijzen al de nieuwe prijzen.
Maar hoe komen ze aan die euro prijzen?
Vaak zakken prijzen al voor de aankondiging, dus misschien zijn de huidige prijzen al de nieuwe prijzen.
[ Voor 78% gewijzigd door Olaf van der Spek op 14-09-2012 08:47 ]
Verwacht jij dat soort prijzen? Lijkt me wat extreem.spNk schreef op vrijdag 14 september 2012 @ 08:42:
€230,- voor een 7950 (BE) lijkt mij echt een goede deal
Verder zie ik precies nul 7950 BE's in de pricewatch staan. Waar zijn ze?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
pricewatch: XFX Radeon HD7950 Black Edition Double Dissipation
Hier kun je klagen: AMD Radeon niet in AMD categorie
6950 zat ook rond de 230 euro, dus het zou op zich kunnen toch?
Hier kun je klagen: AMD Radeon niet in AMD categorie
6950 zat ook rond de 230 euro, dus het zou op zich kunnen toch?
[ Voor 11% gewijzigd door Olaf van der Spek op 14-09-2012 09:03 ]
Ooh ok. Ik dacht dat die dingen rond de Ghz zouden zitten.
Op wat voor tijdsspanne was dat?6950 zat ook rond de 230 euro, dus het zou op zich kunnen toch?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Ik denk trouwens dat het gerucht stinkt.
1. GPU serie heet volgens het gerucht Sea Islands en dat is onzin. Dit komt voort uit een AMD Engineer of zo die ten tijde van de ontwikkeling van de HD7xxx serie stopte bij AMD en dit benoemde in zijn CV, naast Northern en Southern Islands. Wat hij bedoelde met Sea Islands was echter dat hij aan de gehele serie gewerkt had, dus ook potentieel aan de HD8xxx serie en hoger. Sea Islands is dus een verzamelnaam van meerdere GPU-generaties, waaronder de Northern en Southern Islands vallen en de kans is groot dat de GPU serie welke in de HD8xxx te vinden zal zijn ook te maken zal hebben met een groepje eilanden. Dus Sea Islands is niet specifiek de HD8xxx.
2. Als de GPU serie dan Sea Islands zou heten, wat ik als onwaarschijnlijk acht gezien bovenstaande, waarom heet een GPU dan Venus, wat een planeet is? Er is wel een eilandje van te vinden op google, maar dit is geen onderdeel van een groepje eilanden.
3. 2560 Shaders lijkt me ook wat veel, zeker omdat de HD7970 chip al zo groot
4. 40% prestatie winst, net zoveel als de vorige keer toen AMD de HD7xxx serie uit bracht.
Het zou dus wel kunnen, maar het stinkt mij net iets teveel om het gerucht als plausibel aan te nemen.
1. GPU serie heet volgens het gerucht Sea Islands en dat is onzin. Dit komt voort uit een AMD Engineer of zo die ten tijde van de ontwikkeling van de HD7xxx serie stopte bij AMD en dit benoemde in zijn CV, naast Northern en Southern Islands. Wat hij bedoelde met Sea Islands was echter dat hij aan de gehele serie gewerkt had, dus ook potentieel aan de HD8xxx serie en hoger. Sea Islands is dus een verzamelnaam van meerdere GPU-generaties, waaronder de Northern en Southern Islands vallen en de kans is groot dat de GPU serie welke in de HD8xxx te vinden zal zijn ook te maken zal hebben met een groepje eilanden. Dus Sea Islands is niet specifiek de HD8xxx.
2. Als de GPU serie dan Sea Islands zou heten, wat ik als onwaarschijnlijk acht gezien bovenstaande, waarom heet een GPU dan Venus, wat een planeet is? Er is wel een eilandje van te vinden op google, maar dit is geen onderdeel van een groepje eilanden.
3. 2560 Shaders lijkt me ook wat veel, zeker omdat de HD7970 chip al zo groot
4. 40% prestatie winst, net zoveel als de vorige keer toen AMD de HD7xxx serie uit bracht.
Het zou dus wel kunnen, maar het stinkt mij net iets teveel om het gerucht als plausibel aan te nemen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Op newegg lijken de prijzen wel al gezakt, of zijn die prijzen altijd lager?
hd7850
http://www.newegg.com/Pro...aspx?Item=N82E16814121623
$219.99
pricewatch: Asus HD7850-DC2-2GD5
€192.99 = $249,15
hd7870
http://www.newegg.com/Pro...=Gigabyte%20GV-R787OC-2GD
$259.99
pricewatch: Gigabyte GV-R787OC-2GD
€230,50 = $297,58
hd7950
http://www.newegg.com/Pro...aspx?Item=N82E16814121489
$359.99
pricewatch: Asus Radeon HD7950 DirectCU II Top
€314,50 = $406,02
[edit]
verek... btw vergeten mee te tellen...

hd7850
http://www.newegg.com/Pro...aspx?Item=N82E16814121623
$219.99
pricewatch: Asus HD7850-DC2-2GD5
€192.99 = $249,15
hd7870
http://www.newegg.com/Pro...=Gigabyte%20GV-R787OC-2GD
$259.99
pricewatch: Gigabyte GV-R787OC-2GD
€230,50 = $297,58
hd7950
http://www.newegg.com/Pro...aspx?Item=N82E16814121489
$359.99
pricewatch: Asus Radeon HD7950 DirectCU II Top
€314,50 = $406,02
[edit]
verek... btw vergeten mee te tellen...

Anoniem: 251563
We hadden dit al eens uitgezocht - naar het schijnt zijn al die codenamen weldegelijk eilandjes, en ook nog eens van hetzelfde land, namelijk Canada. Echt maffe eiland namen hebben ze daar. Maar het blijven dus wel eilanden.Darkasantion schreef op vrijdag 14 september 2012 @ 09:22:
2. Als de GPU serie dan Sea Islands zou heten, wat ik als onwaarschijnlijk acht gezien bovenstaande, waarom heet een GPU dan Venus, wat een planeet is? Er is wel een eilandje van te vinden op google, maar dit is geen onderdeel van een groepje eilanden.
Overigens, Charlie had het eerst heel de tijd over "CI", waarvan hij zei dat het voor Central Islands stond. Hij bleef hierbij, ook toen het Sea Islands gebeuren opdook. Maar zou het dan niet ook, om de speculation spectacles maar even op te zetten, Canadian Islands kunnen zijn?
Edit: Lijkt toch echt Sea Islands te zijn, volgens AMD's eigen roadmap:
http://www.anandtech.com/...pugpuapu-roadmap-revealed
[ Voor 8% gewijzigd door Anoniem: 251563 op 14-09-2012 21:41 ]
Charlie had toch Canary Islands geopperd?
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat is correct.NitroX infinity schreef op vrijdag 14 september 2012 @ 22:41:
Charlie had toch Canary Islands geopperd?

Anoniem: 251563
Oh okee, excuus
Maar als dat zo zou zijn dan kloppen de eiland namen dus zeker niet.
Nog meer prijsdalingen, nu voor de hele HD 7000 serie
Hele schone zaak dit. Alleen met de prijs van de HD 7970 vanilla ben ik het niet eens. De GTX 670 is dan nog de een betere deal.
Hele schone zaak dit. Alleen met de prijs van de HD 7970 vanilla ben ik het niet eens. De GTX 670 is dan nog de een betere deal.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Anoniem: 245699
Hoezo? De HD7970 is toch zeker zo snel als de GTX670, zo niet marginaal sneller en niet echt duurder.XanderDrake schreef op zaterdag 15 september 2012 @ 12:19:
Nog meer prijsdalingen, nu voor de hele HD 7000 serie
Hele schone zaak dit. Alleen met de prijs van de HD 7970 vanilla ben ik het niet eens. De GTX 670 is dan nog de een betere deal.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
75% sneller met een lager verbruik, zonder die-shrink? 27% groter, en toch 20% goedkoper? Lijkt me allemaal erg optimistisch.
Ik hoop het van harte.
Sowieso is de titel van dat artikel natuurlijk onzin. Geschatte specs zijn geen gelekte specs.
Ik hoop het van harte.
Sowieso is de titel van dat artikel natuurlijk onzin. Geschatte specs zijn geen gelekte specs.
[ Voor 24% gewijzigd door bwerg op 16-09-2012 15:48 ]
Heeft geen speciale krachten en is daar erg boos over.
Ditbwerg schreef op zondag 16 september 2012 @ 15:46:
75% sneller met een lager verbruik, zonder die-shrink? 27% groter, en toch 20% goedkoper? Lijkt me allemaal erg optimistisch.
Ik hoop het van harte.
Sowieso is de titel van dat artikel natuurlijk onzin. Geschatte specs zijn geen gelekte specs.

Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Wat een onzin. Een of andere Japanse site slingert geruchten de wereld in en wordt door videocardz geloofd omdat ze drie maanden voor de launch van Tahiti hebben gelinkt naar een andere site die het shaderaantal van de HD 7970 goed had. Verder, 21% meer transistors, 27% groter die en 9% lager TDP op hetzelfde productieproces? Alsof ze het zelf geloven. Over dingen als de MSRP en het precieze TDP zijn bij AMD nog lang geen beslissingen genomen. Onzin, lariekoek, bullshit.
Yeah weer meer onzin van HWI, hier zaten we net op te wachten....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Sneller bij lager verbruik kan prima, groter, maar toch goedkoper net zo goed. Het eerste hangt sterk af van het ontwerp, het tweede van yields+price-per-wafer, waarbij yields hoger kunnen liggen door ontwerp-veranderingen. Maar goed, dat betekent natuurlijk bij verre nog niet dat het geschrevene klopt, want 75% sneller bij een ~27% die-increase, zeer onwaarschijnlijk inderdaad.
Adviesprijzen... De 7870 is al lang geen $350 meer.bwerg schreef op zondag 16 september 2012 @ 15:46:
en toch 20% goedkoper? Lijkt me allemaal erg optimistisch.
Flops he, dat is wat anders dan echte performance. Met 10% hogere klok en 40% meer shaders zit je al een heel eind richting die 75%.dahakon schreef op zondag 16 september 2012 @ 17:35:
Maar goed, dat betekent natuurlijk bij verre nog niet dat het geschrevene klopt, want 75% sneller bij een ~27% die-increase, zeer onwaarschijnlijk inderdaad.
[ Voor 47% gewijzigd door Olaf van der Spek op 16-09-2012 17:40 ]
En bijna de helft meer shaders bij een lager stroomverbruik zonder shrink?
Zo zuinig is GCN momenteel niet, dus het zou kunnen. Blijft natuurlijk allemaal zinloze speculatie.
[ Voor 31% gewijzigd door Olaf van der Spek op 16-09-2012 17:51 ]
Lezen? Ik gaf duidelijk aan dat gegeven info is zeer onwaarschijnlijk, maar dat een grotere chip best wel eens zuiniger kan zijn en ook goedkoper.TomasH schreef op zondag 16 september 2012 @ 17:44:
En bijna de helft meer shaders bij een lager stroomverbruik zonder shrink?
Klopt maar dat zouden ze echt nog wel kunnen verbeteren. Echter is dit plaatje wel heel roos kleurig. Alles bij elkaar lijkt het me heeeeel onwaarschijnlijk. Maar extra prestaties zonder grotere die of hogere clocks zie ik echt wel gebeuren. Lager verbruik met dezelfde die space ook.Olaf van der Spek schreef op zondag 16 september 2012 @ 17:49:
Zo zuinig is GCN momenteel niet, dus het zou kunnen. Blijft natuurlijk allemaal zinloze speculatie.
Maar ik ben heel erg benieuwd wat AMD er van gaat maken. Ik denk dat er nog veel te tweaken valt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
GNC niet zuinig?
De 77xx en 78xx series zijn de zuiniger en sneller dan hun concurrenten. Hoe kan je dan GNC niet zuinig noemen? (en zee zijn dan nog kleiner dan hun concurrenten ook nog).
GNC als architectuur is zowat het beste dat er op dit moment beschikbaar is, zowal kwa performance als kwa zuinigheid.
De 77xx en 78xx series zijn de zuiniger en sneller dan hun concurrenten. Hoe kan je dan GNC niet zuinig noemen? (en zee zijn dan nog kleiner dan hun concurrenten ook nog).
GNC als architectuur is zowat het beste dat er op dit moment beschikbaar is, zowal kwa performance als kwa zuinigheid.
de reden waarom GCN niet zuinig lijkt is omdat het ook veel aan compute zaken heeft. De huidige nvidia chips zijn typisch genoeg veel minder snel qua gpgpu taken.
Anoniem: 172410
winwiz schreef op zondag 16 september 2012 @ 15:37:
Next Gen: Groter, sneller en toch goedkoper?
http://nl.hardware.info/n...hd-8870-en-hd-8850-gelekt
Dat helpt de geloofwaardigheid ook niet echt.zo’n dertig procent sneller als
G N wat? Het is GCN.Devpartner schreef op maandag 17 september 2012 @ 17:58:
GNC niet zuinig?
De 77xx en 78xx series zijn de zuiniger en sneller dan hun concurrenten. Hoe kan je dan GNC niet zuinig noemen? (en zee zijn dan nog kleiner dan hun concurrenten ook nog).
Heb je een bron?
Je negeert trouwens de 7900 serie.
http://www.anandtech.com/...orce-gtx-660-ti-review/18


[ Voor 26% gewijzigd door Olaf van der Spek op 17-09-2012 18:05 ]
Kijk bijvoorbeeld na de HD7870 en GTX 660, de HD7870 heeft een betere performance/watt, alleen de HD7970 heeft dat niet door GPGPU zaken.Olaf van der Spek schreef op maandag 17 september 2012 @ 18:04:
[...]
G N wat? Het is GCN.
Heb je een bron?
De GTX 680 vergelijken met de HD7970 is een ander verhaal, maar de GTX 680 is dan ook slecht in GPGPU.
http://www.techpowerup.co...gabyte/GTX_660_OC/28.html
[ Voor 25% gewijzigd door -The_Mask- op 17-09-2012 18:15 . Reden: juiste linkje ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bedoel je de 660 Ti? Kan de 660 non-Ti niet vinden.-The_Mask- schreef op maandag 17 september 2012 @ 18:06:
[...]
Kijk bijvoorbeeld na de HD7870 en GTX 660, de HD7870 heeft een betere performance/watt, alleen de HD7970 heeft dat niet door GPGPU zaken.
Ik wilde al zeggen... De 7950 is er ook nog. Wat is er eigenlijk zo anders aan de 7900? Zijn de shaders krachtiger waardoor ze meer energie vreten?De GTX 680 vergelijken met de HD7970 is een ander verhaal,
[ Voor 12% gewijzigd door Olaf van der Spek op 17-09-2012 18:19 ]
Anoniem: 172410
Is dat overigens een gegeven, de release in januari? Ik zit tegen een nieuwe videokaart aan en het kan interessant zijn dat nog af te wachten, al is het maar om de prijsdalingen van de andere kaarten.
Nee, het is zinloze speculatie.Anoniem: 172410 schreef op maandag 17 september 2012 @ 18:14:
Is dat overigens een gegeven, de release in januari? Ik zit tegen een nieuwe videokaart aan en het kan interessant zijn dat nog af te wachten, al is het maar om de prijsdalingen van de andere kaarten.
Nee, verkeerde linkje.Olaf van der Spek schreef op maandag 17 september 2012 @ 18:13:
[...]
Bedoel je de 660 Ti? Kan de 660 non-Ti niet vinden.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Double precision voor floating points pakt volgens mij erg veel omdat de shaders iets meer moeten kunnen. Daar stond ooit een artikel van online (Anandtech?).Olaf van der Spek schreef op maandag 17 september 2012 @ 18:13:
[...]
Bedoel je de 660 Ti? Kan de 660 non-Ti niet vinden.
[...]
Ik wilde al zeggen... De 7950 is er ook nog. Wat is er eigenlijk zo anders aan de 7900? Zijn de shaders krachtiger waardoor ze meer energie vreten?
De HD79xx zijn in ieder geval zuiniger dan de GTX570/GTX580, die kaarten zijn ook beter met GPGPU (in vergelijking tot de GTX670/GTX680) daar vond niemand het erg dat ze iets meer gebruikten.
7800 heeft 1/16 FP64 performance, 7900 heeft 1/4 (van FP32), maar als gamer heb je daar niks aan.
http://www.anandtech.com/...ding-out-southern-islands
http://www.anandtech.com/...ding-out-southern-islands
[ Voor 38% gewijzigd door Olaf van der Spek op 17-09-2012 19:54 ]
Anoniem: 172410
Jammer, maar tegelijk ook mooi. Dan hoef ik daar geen rekening mee te houden.Olaf van der Spek schreef op maandag 17 september 2012 @ 18:17:
Nee, het is zinloze speculatie.
Is er verder wel iets bekend?
Paar probleempjes:Olaf van der Spek schreef op maandag 17 september 2012 @ 18:04:
[...]
G N wat? Het is GCN.
Heb je een bron?
Je negeert trouwens de 7900 serie.
http://www.anandtech.com/...orce-gtx-660-ti-review/18
[afbeelding]
[afbeelding]
de review van anand gebruikt een testmodel van AMD waarbij het voltage hoger staat dan beschikbaar op de markt.
beter voorbeeld is hier (en veel vollediger en enkel gpu etc etc en ook nota bene een vrij slechte GHz editie)

De 680 en 7970 vergelijken is unfair omdat de 7970 gewoon 500x sneller is in gpu dan de 680.. wat ook bij performance en dus efficientie hoort.
Elke versie 77xx, 78xx en 79xx zijn onderdeel van de nieuwe architectuur. Die architectuur is gewoon effecient in hetgeen waarvoor het ontworpen is. (er bestaat geen efficientere architectuur die zowel in games als in gpgpu eenzaam aan de leiding staat).
Kun je ze nog efficienter maken voor gaming? tuurlijk als je iets verliest op een ander terrein... maar dat maakt het niet efficienter, gewoon meer eenzijdig.
Ze testen daar 100e modellen, de kaarten die niet gerievewed zijn (niet gekleurd) zijn de standaard kaarten. Voor bepaalde modellen moet je op die modellen gaan zoeken.
average power consumption -> We chose Crysis 2 as a standard test representing typical 3D gaming usage because it offers the following: very high power draw; high repeatability; is a current game that is supported on all cards because of its DirectX 9 roots; drivers are actively tested and optimized for it; supports all multi-GPU configurations; test runs in a relatively short time and renders a non-static scene with variable complexity.
•Average: Crysis 2 at 1920x1200, Extreme profile, representing a typical gaming power draw. Average of all readings (12 per second) while the benchmark was rendering (no title/loading screen).
edit: owja en natuurlijk www.techpowerup.com als source.
edit3: het maakt uit omdat de reference testmodel van AMD op 1.25V boost loopt terwijl de beschikbare modellen op een normaal voltage loopt. De reden waarom je zuinigere kaarten vindt die verder overgelocked zijn.

@ 1080 MHz
[ Voor 51% gewijzigd door Devpartner op 17-09-2012 21:18 ]
Welk testmodel?Devpartner schreef op maandag 17 september 2012 @ 21:05:
de review van anand gebruikt een testmodel van AMD waarbij het voltage hoger staat dan beschikbaar op de markt.
Hoezo unfair? Als gamer boeit GPGPU mij niet.De 680 en 7970 vergelijken is unfair omdat de 7970 gewoon 500x sneller is in gpu dan de 680.. wat ook bij performance en dus efficientie hoort.
Ik mis trouwens de performance grafiek die bij die power grafiek hoort.
Die supergrote TPU grafieken zijn niet echt overzichtelijk trouwens.
[ Voor 13% gewijzigd door Olaf van der Spek op 17-09-2012 21:41 ]
De HD77xx en de HD78xx doen het inderdaad nog best netjes. Maar de HD79xx niet zo ten opzichte van de GTX670 en GTX680. Maar goed de AMD chips zijn groter doordat ze ook geschikt zijn voor Compute taken. En dat is bij nVidia niet meer het geval. En daardoor hebben ze een voordeel qua verbruik en die size.Devpartner schreef op maandag 17 september 2012 @ 17:58:
GNC niet zuinig?
De 77xx en 78xx series zijn de zuiniger en sneller dan hun concurrenten. Hoe kan je dan GNC niet zuinig noemen? (en zee zijn dan nog kleiner dan hun concurrenten ook nog).
GNC als architectuur is zowat het beste dat er op dit moment beschikbaar is, zowal kwa performance als kwa zuinigheid.
Nadeel is dat GPGPU niet snel is op een GTX6xx kaart. Maar helaas is er maar weinig software die daar gebruik van kan maken. Dus op dit moment is dat niet zo interessant.
Ik blijf er wel bij dat bij resoluties boven de 1080p de HD79xx kaarten interessanter worden. Vooral bij 2560x1600 en hoger.
In het verleden claimde zo veel mensen dat AMD slecht was omdat zij niet zoiets als CUDA hadden en dat compute power heel belangrijk was en dat je dus voor nVidia moest gaan. Maar het blijkt maar weer dat dat gewoon onzin was. AMD Had in de tijd van de HD48xx en HD58xx gewoon kickass kaarten die het nVidia erg moeilijk maakte.Olaf van der Spek schreef op maandag 17 september 2012 @ 21:08:
[...]
Welk testmodel?
[...]
Hoezo unfair? Als gamer boeit GPGPU mij niet.
Ik mis trouwens de performance grafiek die bij die power grafiek hoort.
Die supergrote TPU grafieken zijn niet echt overzichtelijk trouwens.
[ Voor 40% gewijzigd door Astennu op 18-09-2012 08:34 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zouden alle 7950's geen boost krijgen met een base clock van 850 mhz? Zie er nog weinig van terug in de PW.
Het ging over de het vergelijken van de architectuur en dan is GCN best wel heel goed. Tahiti heeft alleen veel GPGPU wat de concurrent in de GK104 niet heeft. Kijk je dan naar de GK106 en Pitcairn dan heb je een eerlijkere vergelijking. En dan zie je ook dat de performance per watt van Pitcairn gewoon beter is, terwijl die wel meer transistors heeft. Best wel netjes, nVidia is immers ook nog een half jaar later met zijn tegenhanger.Olaf van der Spek schreef op maandag 17 september 2012 @ 21:08:
Hoezo unfair? Als gamer boeit GPGPU mij niet.
Ik mis trouwens de performance grafiek die bij die power grafiek hoort.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Right, maar daar heb je niks aan als je meer game-performance wil dan een 7870 biedt (en CF geen optie is).
Gelukkig is die doelgroep heel erg groot, not. Daarnaast is de HD79xx serie zo slecht nog niet als je puur voor game-performance gaat, hoge resolutie en zo.
Nu vraag ik me alleen af of de 8xxx serie van AMD dan ook minder GPGPU power gaat bevatten om het "gat" te dichten met nVidia.
Ik snap alleen niet (als leek) waarom een kaart sneller in games kan zijn, maar minder krachtig in GPGPU kan zijn, betekend dat dat ook dat ze minder goed in CUDA en OpelCL zijn (en physics?)
Ik snap alleen niet (als leek) waarom een kaart sneller in games kan zijn, maar minder krachtig in GPGPU kan zijn, betekend dat dat ook dat ze minder goed in CUDA en OpelCL zijn (en physics?)
Wenn ist das Nunstruck git und Slotermeyer? Ja!... Beiherhund das Oder die Flipperwaldt gersput! The Hornets of Hades have descended upon me
Anoniem: 251563
Ik weet het ook niet helemaal, maar volgens mij kun je in GPGPU taken toch wat "appartere" code verwachten, zoals met branches, en threads die heel verschillend zijn of meer dependencies hebben enzo. Alleen al de investering qua transistors die nodig is om daar redelijkerwijs mee om te gaan (door slim the schedulen, latencies niet al te lang te laten worden etc.) zorgt ervoor dat er weer minder transistorbudget over is voor bijvoorbeeld simpelweg grotere aantallen shaders. Hetzelfde kan je zeggen over energieverbruik, ook wat dat betreft zijn de voorzieningen niet gratis.
Wat je bij Kepler bijvoorbeeld zag was dat ze shaders in veel grotere groepen samenvoegden dan voorheen. Hierdoor is er minder "overhead", maar van GPGPU programmas wordt dan wel gevraagd dat ze veel meer parallel zijn, en minder van de genoemde gekkigheden hebben. Het verminderen van de overhead zou Kepler net wat efficienter hebben kunnen gemaakt (hoewel ik eigenlijk denk dat de smallere bus hier ook een behoorlijke bijdrage aan gaf, misschien wel in grotere mate).
Wat je bij Kepler bijvoorbeeld zag was dat ze shaders in veel grotere groepen samenvoegden dan voorheen. Hierdoor is er minder "overhead", maar van GPGPU programmas wordt dan wel gevraagd dat ze veel meer parallel zijn, en minder van de genoemde gekkigheden hebben. Het verminderen van de overhead zou Kepler net wat efficienter hebben kunnen gemaakt (hoewel ik eigenlijk denk dat de smallere bus hier ook een behoorlijke bijdrage aan gaf, misschien wel in grotere mate).
Nee om twee redenen, het wordt steeds belangrijker en de ontwikkeling is een paar jaar terug al begonnen, dus je kunt het niet een jaar/half jaar van te voren nog veranderen.MeNTaL_TO schreef op dinsdag 18 september 2012 @ 23:28:
Nu vraag ik me alleen af of de 8xxx serie van AMD dan ook minder GPGPU power gaat bevatten om het "gat" te dichten met nVidia.
De enige reden dat nVidia nu minder GPGPU power heeft in hun snelste videokaart is waarschijnlijk dat ze hun GK100 niet konden launchen door te veel problemen en aangezien de GK104 het zo goed deed was het natuurlijk ook niet direct nodig. Waardoor dus al maanden geruchten gaan dat de GK100 door die redenen is geschrapt en er 'straks' een GK110 komt. Welke als high-end GeForce, Quadro en Tesla kan fungeren en dan kan de GK114 de "mainstream" lijn bestrijken.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik vermoed eerder het tegenovergestelde. AMD heeft in het verleden niet veel GPGPU focus gehad. Om nu naar 1 generatie het roer om te gooien lijkt me niet verstandig. Daarndaast is de HD8xxx waarschijnlijk al klaar. Ze werken 3-4 jaar aan dat soort chips. Ik vermoed dat het een sterk geoptimaliseerde GCN architectuur wordt. Met meer prestaties per mm2.MeNTaL_TO schreef op dinsdag 18 september 2012 @ 23:28:
Nu vraag ik me alleen af of de 8xxx serie van AMD dan ook minder GPGPU power gaat bevatten om het "gat" te dichten met nVidia.
Ik snap alleen niet (als leek) waarom een kaart sneller in games kan zijn, maar minder krachtig in GPGPU kan zijn, betekend dat dat ook dat ze minder goed in CUDA en OpelCL zijn (en physics?)
Kepler is gewoon een geoptimaliseerde Fermi maar dan - het GPGPU gedeelte waardoor hij heel klein werd. Big Kepler zou ook een GPGPU chip moeten zijn alleen hoor je daar niets meer over.
Daarnaast wil AMD GPU en CPU steeds verder integreren en samen laten werken. En GCN helpt daar bij. Het is nu nog wat vroeg maar als GPU's flexibeler worden en makkelijker aan te spreken zijn en dan ook nog eens sneller berekeningen kunnen uitvoeren dan CPU's dan zullen software ontwikkelaars wel moeite gaan doen en zul je meer software krijgen die er gebruik van maakt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met GCN gooide ze anders na 1 generatie ook al het roer om. We zullen het zien, ik hoop voor AMD dat de Nvidia weer voor kunnen blijven, van Intel winnen ze het gewoon niet (niet zo gek, de R&D budget van Intel is hoger dan de omzet van AMD)Astennu schreef op woensdag 19 september 2012 @ 08:03:
[...]
Ik vermoed eerder het tegenovergestelde. AMD heeft in het verleden niet veel GPGPU focus gehad. Om nu naar 1 generatie het roer om te gooien lijkt me niet verstandig. Daarndaast is de HD8xxx waarschijnlijk al klaar. Ze werken 3-4 jaar aan dat soort chips. Ik vermoed dat het een sterk geoptimaliseerde GCN architectuur wordt. Met meer prestaties per mm2.
Kepler is gewoon een geoptimaliseerde Fermi maar dan - het GPGPU gedeelte waardoor hij heel klein werd. Big Kepler zou ook een GPGPU chip moeten zijn alleen hoor je daar niets meer over.
Daarnaast wil AMD GPU en CPU steeds verder integreren en samen laten werken. En GCN helpt daar bij. Het is nu nog wat vroeg maar als GPU's flexibeler worden en makkelijker aan te spreken zijn en dan ook nog eens sneller berekeningen kunnen uitvoeren dan CPU's dan zullen software ontwikkelaars wel moeite gaan doen en zul je meer software krijgen die er gebruik van maakt.
Wenn ist das Nunstruck git und Slotermeyer? Ja!... Beiherhund das Oder die Flipperwaldt gersput! The Hornets of Hades have descended upon me
Het gaat niet alleen over gpgpu. Directcompute en andere zijn ook belangrijk. De laatste games gebruiken vrij veel directcompute om bepaalde zaken te berekenen/ en daar kan je al zien dat AMD mid -end meekomt met de huidige Nvidia high end.
Dit gaan ze dus niet bij de 8xxx serie verwaarlozen. Van de 8xxx serie verwacht ik vooral meer compute orientatied aanpassingen door optimalizaties van caches/sheduling/intercommunicatie. Dit gaat dus vooral compute performance en tesselation verbeteren met als sideaffect de extra gameperformance. (verwacht eigenlijk veel minder focus op gaming).
Voor de huidige 79xx waarvan de scaling van de cu cores enorm afvlakt is het mss crucialer om de deze aanpassingen door te voeren zodat ze gewoon veel betere schaling hebben dan dat je er nog veel extra cu's tegenaan smijt. Denk dat een betere front-end bij de 79xx serie nog wel >10% performance winst kan leveren zonder een sterke die size groei. (maar dat is dan wel met extra verbruik bij dezelfde voltages).
Dit gaan ze dus niet bij de 8xxx serie verwaarlozen. Van de 8xxx serie verwacht ik vooral meer compute orientatied aanpassingen door optimalizaties van caches/sheduling/intercommunicatie. Dit gaat dus vooral compute performance en tesselation verbeteren met als sideaffect de extra gameperformance. (verwacht eigenlijk veel minder focus op gaming).
Voor de huidige 79xx waarvan de scaling van de cu cores enorm afvlakt is het mss crucialer om de deze aanpassingen door te voeren zodat ze gewoon veel betere schaling hebben dan dat je er nog veel extra cu's tegenaan smijt. Denk dat een betere front-end bij de 79xx serie nog wel >10% performance winst kan leveren zonder een sterke die size groei. (maar dat is dan wel met extra verbruik bij dezelfde voltages).
Anoniem: 304087
In direct compute is nvidia anders ook niet slecht. AMD komt met zijn mid end helemaal niet bij nvidia's high end in de buurt in die games, behalve dan de AMD games. In de laatste games is nvidia soms nog behoorlijk sneller. En het is ook heel game afhankelijk.
Ik hoop verder niet dat de één de ander te veel voor blijft. Krijg je lekkere prijzen door als het wel zo zou zijn.
Over de GK110 is nvidia weer heel stil zoals bij de gk104. Ik denk dat nvidia hier weer heel stil over blijft tot amd weer met iets komt, of tot vlak voor de release. Je moet ook niet te veel vrij geven want daar kunnen de
concurenten gebruik van maken. Wat nu te vinden is is dan ook genoeg om met elkaar over te speculeren.
Ik hoop verder niet dat de één de ander te veel voor blijft. Krijg je lekkere prijzen door als het wel zo zou zijn.
Over de GK110 is nvidia weer heel stil zoals bij de gk104. Ik denk dat nvidia hier weer heel stil over blijft tot amd weer met iets komt, of tot vlak voor de release. Je moet ook niet te veel vrij geven want daar kunnen de
concurenten gebruik van maken. Wat nu te vinden is is dan ook genoeg om met elkaar over te speculeren.
[ Voor 65% gewijzigd door Anoniem: 304087 op 19-09-2012 17:52 ]
AMD gaat nVidia, als ze met de HD8xxx als dezelfde voorruitsprong qua GPGPU computing maken, een koekje van eigen deeg geven.
Anoniem: 304087
Lekkere speculatie maxmad. Daar kun je momenteel nog niets feitelijks over zeggen.
Echter hoop ik het wel als AMD fan. Nvidia heeft nu de gk110 k20 klaar en worden al verscheept,
Volgens mij word dat de snelste gpu op gpgpu gebied.
Maar goed vind gpgpu niet zo belangrijk, ook nooit gevonden ook. Pas als het standaard in game word gebruikt en voor de normale consument dan word het een ander verhaal.
Echter hoop ik het wel als AMD fan. Nvidia heeft nu de gk110 k20 klaar en worden al verscheept,
Volgens mij word dat de snelste gpu op gpgpu gebied.
Maar goed vind gpgpu niet zo belangrijk, ook nooit gevonden ook. Pas als het standaard in game word gebruikt en voor de normale consument dan word het een ander verhaal.
[ Voor 130% gewijzigd door Anoniem: 304087 op 19-09-2012 18:22 ]
Maar PhysX vind je wel belangrijk en is geen standaard of verre van standaard?Anoniem: 304087 schreef op woensdag 19 september 2012 @ 18:08:
Maar goed vind gpgpu niet zo belangrijk, ook nooit gevonden ook. Pas als het standaard in game word gebruikt en voor de normale consument dan word het een ander verhaal.
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Tja, zo lang het in games zit die ik speel dan kom ik er niet onderuit. Borderlands 2yzx schreef op woensdag 19 september 2012 @ 18:28:
[...]
Maar PhysX vind je wel belangrijk en is geen standaard of verre van standaard?
is nu bvb uit dat wil ik graag zo mooi mogelijk hebben tijdens het spelen, je kunt zeggen dat het voor mij persoonlijk wel belangrijk is. Dat zou ook voor gpgpu zo worden als ik er zelf gebruik van zou maken.
[ Voor 7% gewijzigd door Anoniem: 304087 op 19-09-2012 18:34 ]
Als borderlands er uit zag als m inecraft zou ik het nog spelenAnoniem: 304087 schreef op woensdag 19 september 2012 @ 18:33:
[...]
Tja, zo lang het in games zit die ik speel dan kom ik er niet onderuit. Borderlands 2
is nu bvb uit dat wil ik graag zo mooi mogelijk hebben tijdens het spelen, je kunt zeggen dat het voor mij persoonlijk wel belangrijk is.

Man man graphics mensjes dees dagen
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 304087
Klopt het moet allemaal zo mooi mogelijk. Maar dat was vroeger ook al zo.yzx schreef op woensdag 19 september 2012 @ 18:34:
[...]
Als borderlands er uit zag als m inecraft zou ik het nog spelen![]()
Man man graphics mensjes dees dagen
Het is niet omdat een spel dat ergens directcompute gebruikt sneller bij nvidia dat dit komt door die directcompute.
Ga maar na:
Civ5 comute test -> 7870 > 680.
Voor het spel in het totaal 680 >> 7870.
Wil dat zeggen dat de 680 beter is in compute? nope.. gewoon de achterstand in compute niet genoeg is om het spel te kelderen in performance.
trouwens welke laatste games?
Ga maar na:
Civ5 comute test -> 7870 > 680.
Voor het spel in het totaal 680 >> 7870.
Wil dat zeggen dat de 680 beter is in compute? nope.. gewoon de achterstand in compute niet genoeg is om het spel te kelderen in performance.
trouwens welke laatste games?
Is CiV 5 niet een game die altijd zeer goed op Nvidia heeft gewerkt?
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Heb je zijn post wel gelezen? Hij probeert duidelijk te maken dat Direct Compute belangrijker wordt in games en dat AMD met dingen zoals texture decompressie beter is. Het kan vast niet kwaad als een level een stuk sneller inlaad hierdoor. Misschien gaan game developers er ook een keer over denken om bijvoorbeeld fluid simulation te gebruiken voor een realistische waterval, iets wat we nu nog niet in games hebben.Anoniem: 304087 schreef op woensdag 19 september 2012 @ 17:46:
In direct compute is nvidia anders ook niet slecht. AMD komt met zijn mid end helemaal niet bij nvidia's high end in de buurt in die games, behalve dan de AMD games. In de laatste games is nvidia soms nog behoorlijk sneller. En het is ook heel game afhankelijk.
Ik hoop verder niet dat de één de ander te veel voor blijft. Krijg je lekkere prijzen door als het wel zo zou zijn.
Over de GK110 is nvidia weer heel stil zoals bij de gk104. Ik denk dat nvidia hier weer heel stil over blijft tot amd weer met iets komt, of tot vlak voor de release. Je moet ook niet te veel vrij geven want daar kunnen de
concurenten gebruik van maken. Wat nu te vinden is is dan ook genoeg om met elkaar over te speculeren.
Waarom we hier weer uitkomen snap ik niet, de discussie ging erover waarom de highend GPU's van AMD minder zuinig zijn in vergelijking met de midend. Dat gpgpu hier de schuldige van is is wel duidelijk, dit zag je ook bij de GTX580/GTX480 terug.


De rest staat hier:
http://www.anandtech.com/...-out-the-kepler-family/14
Deels wel. Ik snapte VLIW4 ook niet zo goed. Het is inderdaad maar twee generaties gebruikt. In de HD69xx serie en in de Trinity APU's. Maar tenopzichte van VLIW5 was dit een kleinere stap dan GCN.MeNTaL_TO schreef op woensdag 19 september 2012 @ 14:44:
[...]
Met GCN gooide ze anders na 1 generatie ook al het roer om. We zullen het zien, ik hoop voor AMD dat de Nvidia weer voor kunnen blijven, van Intel winnen ze het gewoon niet (niet zo gek, de R&D budget van Intel is hoger dan de omzet van AMD)
En dat van dat R&D budget kan ook zo maar kloppen. Dat is ook het grote probleem. AMD heeft een wonder nodig om te kunnen blijven concurreren met intel. Het is al bijna een wonder dat ze het qua CPU's nog zo goed doen. Ze hebben veel minder geld en toch kunnen ze producten op de markt zetten die interessant zijn.
Dat denk ik niet. Compute gaat wel iets krachtiger worden maar ik gok niet zo veel. Daarnaast is GK110 ook een GPGPU monster. En die zal ook veel verbeteringen gekregen hebben tenopzichte van Fermi.madmaxnl schreef op woensdag 19 september 2012 @ 18:05:
AMD gaat nVidia, als ze met de HD8xxx als dezelfde voorruitsprong qua GPGPU computing maken, een koekje van eigen deeg geven.
Dan nog zou je er tegen moeten zijn en er voor moeten zijn dat de open Physics implementaties gebruiken die op alle hardware werken. zoals DX compute daar kun je ook physics mee doen.Anoniem: 304087 schreef op woensdag 19 september 2012 @ 18:33:
[...]
Tja, zo lang het in games zit die ik speel dan kom ik er niet onderuit. Borderlands 2
is nu bvb uit dat wil ik graag zo mooi mogelijk hebben tijdens het spelen, je kunt zeggen dat het voor mij persoonlijk wel belangrijk is. Dat zou ook voor gpgpu zo worden als ik er zelf gebruik van zou maken.
Persoonlijk vind ik Physics te weinig toevoegen. Ook in BL2. De effecten zijn zwaar overkill n iet eens mooi meer zo overdreven. En ik heb ook niet CUDA physics effects gezien die soepel liepen en vergelijkbaar mooi waren (maar dan niet zo overdreven) en dat was gewoon CPU physics.
Niet mee eens. SC2 op low zou ik echt niet willen High of Ultra en anders niet. Het oog wil ook wat.yzx schreef op woensdag 19 september 2012 @ 18:34:
[...]
Als borderlands er uit zag als m inecraft zou ik het nog spelen![]()
Man man graphics mensjes dees dagen
Ik gebruikte bij Minecraft ook 256x256 texturepacks om het er een beetje uit te laten zien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anandtech geeft trouwens aan dat die GK106 2mm groter is als Pitcrain. Hier kun je zien hoe efficient Pitcrain is. Waar de Tahiti groter is dan GK104 en gelijkwaardig presteert met een hoger verbruik is dat verschil tussen GK106 en Pitcrain aanzienlijk kleiner.
Qua performance zijn ze +- gelijk en heeft de 7870 zelf een klein voordeel. En qua max verbruik met OCCT is het verbruik van de 7870 8 watt hoger. In games iets van 20-30.
Als AMD deze performance per mm2 verder kan verbeteren en dat kan upscalen naar HD79xx en straks dus HD89xx formaat kan de HD8970 een hele leuke boost krijgen tegen over zijn voorganger.
Qua performance zijn ze +- gelijk en heeft de 7870 zelf een klein voordeel. En qua max verbruik met OCCT is het verbruik van de 7870 8 watt hoger. In games iets van 20-30.
Als AMD deze performance per mm2 verder kan verbeteren en dat kan upscalen naar HD79xx en straks dus HD89xx formaat kan de HD8970 een hele leuke boost krijgen tegen over zijn voorganger.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
Je hebt indd gelijk. Ik weet nog wel dat er werd gezegt werd hier, of ontkend dat de grote van de gpu en verbruik niets met gpgpu te maken had. Ik vertelde toen echter dat het zo is om dat deze kaarten ook voor de prof, markt gebruikt moeten worden allleen dan onder een andere naam en drivers/software, en dat mede door gpgpu de gpu zo groot is en meer verbruikt. Was overgens al weer een jaar of 2 trug in het nvidia topic.Sp3ci3s8472 schreef op donderdag 20 september 2012 @ 00:15:
[...]
Heb je zijn post wel gelezen? Hij probeert duidelijk te maken dat Direct Compute belangrijker wordt in games en dat AMD met dingen zoals texture decompressie beter is. Het kan vast niet kwaad als een level een stuk sneller inlaad hierdoor. Misschien gaan game developers er ook een keer over denken om bijvoorbeeld fluid simulation te gebruiken voor een realistische waterval, iets wat we nu nog niet in games hebben.
Waarom we hier weer uitkomen snap ik niet, de discussie ging erover waarom de highend GPU's van AMD minder zuinig zijn in vergelijking met de midend. Dat gpgpu hier de schuldige van is is wel duidelijk, dit zag je ook bij de GTX580/GTX480 terug.
[afbeelding]
[afbeelding]
De rest staat hier:
http://www.anandtech.com/...-out-the-kepler-family/14
Maar om dat we hier weer op uit komen, dat komt omdat gezegt werkd dat AMD's mid end daar beter presteerd dan nvidia's high end, en dat is niet waar overal. En dan er nog bij, aals het in meer games terug komt dan zijn we ook al weer generaties verder.
Hier boven ik ben er opzich ook wel tegen, gewoon omdat mensen met AMD dit niet kunnen gebruiken. Echter speel ik zelf wel de games en ik krijg het op een videokaart dus maak ik daar wel gebruik van.
[ Voor 12% gewijzigd door Anoniem: 304087 op 20-09-2012 09:28 ]
Je spreekt jezelf weer geweldig tegen.Anoniem: 304087 schreef op donderdag 20 september 2012 @ 09:03:
[...]
Ik weet nog wel dat er werd gezegt werd hier, of ontkend dat de grote van de gpu en verbruik niets met gpgpu te maken had. Ik vertelde toen echter dat het zo is om dat deze kaarten ook voor de prof, markt gebruikt moeten worden allleen dan onder een andere naam en drivers/software, en dat mede door gpgpu de gpu zo groot is en meer verbruikt. Was overgens al weer een jaar of 2 trug in het nvidia topic.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Omdat ik gelijk heb spreek ik mezelf tegen, het moet moet niet gekker worden met jou
Nope, dat is niet waar, de grote heeft te maken met al die rotzooi van gpgpu wat er in moet. Dat werd hier eerder ontkent in tijd dat de gtx580 uit was net. Maar dat was puur omdat ik het zij en dan is het nooit goed
voor de AMD fans waaronder ik zelf.
Nope, dat is niet waar, de grote heeft te maken met al die rotzooi van gpgpu wat er in moet. Dat werd hier eerder ontkent in tijd dat de gtx580 uit was net. Maar dat was puur omdat ik het zij en dan is het nooit goed
voor de AMD fans waaronder ik zelf.
[ Voor 132% gewijzigd door Anoniem: 304087 op 20-09-2012 11:07 ]
Jouw posts zijn vaak gewoon zo ongelooflijk onduidelijk dat het lijkt alsof er discussie gevoerd wordt met een vrouw. Get it together en maak eens wat duidelijke posts met een duidelijk punt, dan hoeven we niet week in week uit weer van dit soort situaties mee te maken..Anoniem: 304087 schreef op donderdag 20 september 2012 @ 10:56:
Omdat ik gelijk heb spreek ik mezelf tegen, het moet moet niet gekker worden met jou![]()
Nope, dat is niet waar, de grote heeft te maken met al die rotzooi van gpgpu wat er in moet. Dat werd hier eerder ontkent in tijd dat de gtx580 uit was net. Maar dat was puur omdat ik het zij en dan is het nooit goed
voor de AMD fans waaronder ik zelf.
3XPER7 schreef op donderdag 20 september 2012 @ 12:06:
[...]
Jouw posts zijn vaak gewoon zo ongelooflijk onduidelijk dat het lijkt alsof er discussie gevoerd wordt met een vrouw. Get it together en maak eens wat duidelijke posts met een duidelijk punt, dan hoeven we niet week in week uit weer van dit soort situaties mee te maken..
Nee, dat werd gezegd omdat GF100/GF110 zo'n gigantisch grote chip is/was in verhouding. Tuurlijk heeft de toevoeging van GPGPU ondersteuning invloed op de grootte en verbruik. Maar niet in de mate waarin het bij Fermi gebeurde. Je weet toch dat Fermi (GF100) een dikke 55% groter is dan Cypress (5870) he? Die 55% is echt niet allemaal GPGPU, dat was gewoon onkunde.Anoniem: 304087 schreef op donderdag 20 september 2012 @ 10:56:
Omdat ik gelijk heb spreek ik mezelf tegen, het moet moet niet gekker worden met jou![]()
Nope, dat is niet waar, de grote heeft te maken met al die rotzooi van gpgpu wat er in moet. Dat werd hier eerder ontkent in tijd dat de gtx580 uit was net. Maar dat was puur omdat ik het zij en dan is het nooit goed
voor de AMD fans waaronder ik zelf.
Het verschil is nu toch een stukje minder
[ Voor 3% gewijzigd door Werelds op 20-09-2012 13:14 ]
Anoniem: 304087
Die post was gewoon duidelijk genoeg.3XPER7 schreef op donderdag 20 september 2012 @ 12:06:
[...]
Jouw posts zijn vaak gewoon zo ongelooflijk onduidelijk dat het lijkt alsof er discussie gevoerd wordt met een vrouw. Get it together en maak eens wat duidelijke posts met een duidelijk punt, dan hoeven we niet week in week uit weer van dit soort situaties mee te maken..
Maar goed dat je zo moeilijk dingen kan begijpen is jullie probleem. En
dan er nog bij ga ik er niet meer moeite voor doen, dat moet ik al genoeg doen.
Fermi één had ook één grote lek van stroom. Bij die kaart klopte het ook indd niet naar verhouding.Werelds schreef op donderdag 20 september 2012 @ 13:09:
[...]
Nee, dat werd gezegd omdat GF100/GF110 zo'n gigantisch grote chip is/was in verhouding. Tuurlijk heeft de toevoeging van GPGPU ondersteuning invloed op de grootte en verbruik. Maar niet in de mate waarin het bij Fermi gebeurde. Je weet toch dat Fermi (GF100) een dikke 55% groter is dan Cypress (5870) he? Die 55% is echt niet allemaal GPGPU, dat was gewoon onkunde.
Het verschil is nu toch een stukje minder
Fermi twee is weer een heel ander verhaal.
Ja wat een wijven niet, te erg gewoon.
Vaak altijd maar op één en de zelfde an in gaan, als of het zo bedoeld is.
[ Voor 51% gewijzigd door Anoniem: 304087 op 20-09-2012 13:38 ]
Wat, omdat hij ~9mm^2 kleiner is? Verbruik zat ook niet veel in hoor.Anoniem: 304087 schreef op donderdag 20 september 2012 @ 13:25:
Fermi twee is weer een heel ander verhaal.
Sea Islands kende wel al. Maar kende we Volcanic Islands en Pirate Islands al?
http://vr-zone.com/articl...gpus-get-names/17154.html
Alhoewel ik de namen van de chips niet echt belangrijk vind...
http://vr-zone.com/articl...gpus-get-names/17154.html
Alhoewel ik de namen van de chips niet echt belangrijk vind...
Dit topic is gesloten.
Let op:
Hou het aub on-topic, dit is een AMD Radeon info & nieuwsdiscussietopic en dus NIET een AMD vs nVidia bashtopic. Tolerantie voor onzinnige ver-pis-vergelijkingen zal erg laag zijn. Kom dus met nieuwe info, ga niet een 1001-keer gevoerde discussie nog eens voeren.
Hou het aub on-topic, dit is een AMD Radeon info & nieuwsdiscussietopic en dus NIET een AMD vs nVidia bashtopic. Tolerantie voor onzinnige ver-pis-vergelijkingen zal erg laag zijn. Kom dus met nieuwe info, ga niet een 1001-keer gevoerde discussie nog eens voeren.