CJ's Radeon Info & Nieuwsdiscussie - Deel 124 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 19 20 Laatste
Acties:
  • 95.083 views

Onderwerpen


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Werelds schreef op donderdag 20 september 2012 @ 13:51:
[...]

Wat, omdat hij ~9mm^2 kleiner is? Verbruik zat ook niet veel in hoor.
Furmark+GPU-z? Toen trok die opeens 350 watt i.p.v. 250watt.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat was een foute weergave, ik heb dat zelf er nooit uit kunnen trekken ook niet met die unlock.
Bij mij trok de stock kaart ongeveer 244watt max en kon daar alleen over heen komen met een overklock,
Maar dit dis niet zo gek, hij was ook niet zuinig te noemen zoals alle high en kaarten. maar was toch wel
weer het snelste op dat moment met 1 gpu.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Zeker wel. Niet van mij zelf maar wel tot mijn beschikking :>

[ Voor 72% gewijzigd door Anoniem: 304087 op 21-09-2012 08:44 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
madmaxnl schreef op donderdag 20 september 2012 @ 18:38:
Furmark+GPU-z? Toen trok die opeens 350 watt i.p.v. 250watt.
350W? Je zit er toch nog een dikke 100 naast hoor :D

Met Furmark (wat overigens totaal niet realistisch is) trok GF100/480 (GTX 480) zo'n 470W, GF110/480 (GTX 570) "slechts" 440. GF110/512 (GTX 580) zit daar nog wel een 20W boven. In games ligt het maximum iets anders, daar ligt GF110 redelijk ruim onder GF100, maar nog steeds boven die 350W; ik meen zo'n 360W voor GF110/480 en zo'n 380W voor GF110/512. GF100/480 zat nog steeds ruim boven de 400W.

@ Lupp: jij kunt het stroomverbruik helemaal niet meten; of heb jij daadwerkelijk de apparatuur om te meten wat er door het PCI-E slot en de PCI-E stekkers loopt? Jouw 244W is in elk geval onzin, dat haal je gewoon uit de Wikipedia tabel want dat is het officiële TDP van GF110. Elke site met een beetje apparatuur meldde dat zelfs GF110 ruim over de 350 heen schoot, dus jouw statement dat je "ongeveer 244W max" haalde neem ik toch met een vrachtwagen zout. Dan wil ik je meet opstelling toch eens zien.

GF110 was efficiënter, maar nog steeds een zware verbruiker. TDP's zijn leuk en aardig, maar Nvidia en AMD geven dit allebei op een andere manier aan (bij Nvidia is het "typical use", bij AMD klopt het aardig met het maximale gebruik), dus daar hebben we niets aan :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

allemaal onzin

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Net zoals jullie :9 met altijd maar anti nvidia praat en pro amd praat.
Valt gewoon op bij iedereen, alleen ik zeg er een keer wat van. En dat begint echt de strot uit te hangen
bij sommigen. Tja niet gepast hier maar er word ook zo tegen mij gedaan en daar word nooit een keer wat
van gezegt, dan doe ik het zelf maar.

[ Voor 138% gewijzigd door Anoniem: 304087 op 21-09-2012 09:19 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Excuseer? Jij bent degene die met een grote mond beweert dat wij het allemaal fout hebben en leugens verkopen. Zelf wat bewijs leveren, ho maar. En niks van dat gejank over "anti-Nvidia" of "pro-AMD" (of andersom), ik heb zelf ook een Nvidia kaart. Doet niets af aan het feit dat Fermi gewoon een gigantische misser was en is en hoogstwaarschijnlijk was GK100 ook zo'n misbaksel als GF100. Ik vrees dus ook wel een beetje voor GK100 eerlijk gezegd.

Dus, bij deze:
http://www.xbitlabs.com/a...rce-gtx-480_13.html#sect0

En om hier even duidelijk in te zijn: als jij aan de metingen van Xbit durft te twijfelen dan mag je toch in een hoekje gaan zitten. Zij meten het verbruik aan het slot en de stekkers in plaats van het te "berekenen" door een verschil te trekken. GF100: 477W.

Nu, voor wat makkelijke vergelijkingen:
http://www.anandtech.com/bench/GPU11/233

- GF100 zit op 479W, heel netjes in de buurt van wat het daadwerkelijk is dus; mag zelfs onder foutmarge gerekend worden i.v.m. verschillende systemen
- GF110 zit op 446W en 490W voor 570/580 respectievelijk
- Cayman zit op 361W - dat is nog steeds niet het TDP van 375W dat hij mee heeft gekregen

Schakelen we naar Crysis in plaats van Furmark:
- GF100 zit op 421W
- GF110 zit op 361W en 389W voor 570/580 respectievelijk
- Cayman zit op 340W


Dus nee, mijn statement dat Nvidia's TDP's onzin zijn klopt gewoon. Ik zie ook niet in waar jij op 244W kan blijven steken; je zult toch echt wat bewijs moeten leveren om die grote mond bij te staan, aangezien ik nog nergens zo'n laag cijfer heb gezien, zeker niet met Furmark. Helaas heeft Xbit hun test suite aangepast na de 480, helaas zijn hun cijfers niet meer zo nuttig; ze testen nu op 1600x1200 in Crysis en daar hebben deze chips geen moeite mee. Maar zelfs dan nog komen zowel GF110 als GF100 boven jouw 244W uit en zitten ze nog steeds ruim boven zelfs een 5970.


Ik wacht met smart op foto's van de apparatuur die je "tot je beschikking" hebt, alsmede de benchmark. Totdat je dat doet is het een broodje aap verhaal.

[ Voor 4% gewijzigd door Werelds op 21-09-2012 09:38 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Hehe ik ben niet de eenige met een grote mond, ik reageer zo juist omdat ik een grote mond toegeworpen krijg. Verder komen sommigen gewoon altijd pro AMD over en anti nvidia en daar kun je dan gewoon niets tegen zeggen wat wel gewoon klopt, daar door ga ik ook maar onzin verkopen omdat ik er kriegel van word
omdat er altijd op mij word in gegaan, maar ik gebruik momenteel testosteron dus daar kan het ook aan liggen. Er hoeft maar één ding te gebeuren dat ik niet meer oftopic ga en dat is dat anderen niet zeggen van maar jij dit en jij dat, die persoonlijk aankomen zeg maar want dat hoord gewoon niet en dat maakt mij gewoon heel erg kwaard tussen mijn oren.

[ Voor 22% gewijzigd door Anoniem: 304087 op 21-09-2012 09:48 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Werelds schreef op vrijdag 21 september 2012 @ 09:37:
Nu, voor wat makkelijke vergelijkingen:
http://www.anandtech.com/bench/GPU11/233

- GF100 zit op 479W, heel netjes in de buurt van wat het daadwerkelijk is dus; mag zelfs onder foutmarge gerekend worden i.v.m. verschillende systemen
- GF110 zit op 446W en 490W voor 570/580 respectievelijk
- Cayman zit op 361W - dat is nog steeds niet het TDP van 375W dat hij mee heeft gekregen
Even voor de duidelijkheid: de Anandtech Bench heeft het over totaal systeemvermogen he :)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat is ook het probleem. Daar moet echt een paar honderd watt van af.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Excuseer, dat had ik over het hoofd gezien, dan zit Anand toch vies mis. De cijfers van Xbit kloppen echter wel gewoon, hun test opstelling stijgt ver boven alle anderen uit.

En Lupp, dat is allemaal leuk en aardig, maar niemand heeft je hier persoonlijk aangevallen; het enige wat gezegd is dat je eens met bronnen moet komen, want dat doe je nog steeds niet. Dat gaat al heel lang zo en dat is pas echt vervelend.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik heb het ook niet over nu en ook niet over jou maar anderen, wil geen namen noemen.
Maar dat zie je wel als je terug kijkt en in andete topics. Verder kom ik regelmatig met bronnen of probeer ik achter een bron te komen. Maar goed dat word genegeerd

[ Voor 11% gewijzigd door Anoniem: 304087 op 21-09-2012 10:00 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Anoniem: 304087 schreef op vrijdag 21 september 2012 @ 09:58:
Ik heb het ook niet over nu en ook niet over jou maar anderen, wil geen namen noemen.
Maar dat zie je wel als je terug kijkt en in andete topics. Verder kom ik regelmatig met bronnen of probeer ik achter een bron te komen. Maar goed dat word genegeerd
Anoniem: 304087 schreef op donderdag 20 september 2012 @ 13:14:
[...]


Ja eingelijk wel omdat hier vaak beweerd werd dat het beter op een cpu zou lopen.
Ik daag je uit om met posts te komen die dat beweren.

>> Dat heb je vervolgens niet gedaan en als je er echt zo zeker van was had je zulke posts makkelijk kunnen vinden.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Zoek lekker zelf op hier op het forum, ik heb gezegd dat ik daar geen tijd voor had.
Maar omdat je het nu er toch weer bij haald zal ik het nog op zoeken ook.

Edit

Laat maar mij oudere posts zijn al lang verwijderd van die andere profiel.
We kunnen dus wel zoeken maar je zal het niet terug kunnen vinden denk ik?

Ik snap verder ok niet waarom je dit vraagt hier in het amd topic, waar we het helemaal niet daar over hadden.

[ Voor 46% gewijzigd door Anoniem: 304087 op 21-09-2012 10:18 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Anoniem: 304087 schreef op vrijdag 21 september 2012 @ 10:10:

Ik snap verder ok niet waarom je dit vraagt hier in het amd topic, waar we het helemaal niet daar over hadden.
Anoniem: 304087 schreef op vrijdag 21 september 2012 @ 09:58:
Ik heb het ook niet over nu en ook niet over jou maar anderen, wil geen namen noemen.
Maar dat zie je wel als je terug kijkt en in andete topics. Verder kom ik regelmatig met bronnen of probeer ik achter een bron te komen. Maar goed dat word genegeerd
Daarom dus.. Ik dacht, laat ik het dan niet negeren en hem de kans geven met een bron te komen.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Vraag even mijn oude gegevens op van mijn oudere acount, daa rmoet het tussen staan,
onder luppie geloof ik.

Verder kom ik regelmatig met bronnen, maar die worden nu gewoon genegeerd

[ Voor 26% gewijzigd door Anoniem: 304087 op 21-09-2012 10:35 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Anoniem: 304087 schreef op vrijdag 21 september 2012 @ 10:34:
Vraag even mijn oude gegevens op van mijn oudere acount, daa rmoet het tussen staan,
onder luppie geloof ik.

Verder kom ik regelmatig met bronnen, maar die worden nu gewoon genegeerd
Het gaat mij er vervolgens om dat jij stellig volhoudt dat het "hier vaak beweerd werd dat PhysX beter op een CPU zou lopen" en dat je vervolgens, na de vraag om bronnen, zegt dat je uit jouw post historie van je vorige account niets meer kunt vinden. Oftewel, eigenlijk zeg je: "hier vaak door mij op een ander account beweerd werd dat PhysX beter op een CPU zou lopen".. Vervolgens kom je hier aanzetten met die bewering als een feit waarvan je zelf uiteindelijk de enige bron lijkt te zijn.

Leg mij dan nu eens uit.. How does that make sense? 8)7

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Moeten we verder oftopic gaan? Of moet je mijn pin nummer ook nog hebben.
Tweakers heeft ook een PM in het systeem zitten waar dit soort geprekken eingelijk horen want het is mij wat te persoonlijk zo, omdat iedereen het kan lezen. Kreeg net al een mail van iemand die zij dat ik er niet zo op in moet gaan want dat is toch hun bedoeling, en dat via facebook

[ Voor 75% gewijzigd door Anoniem: 304087 op 21-09-2012 10:58 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
offtopic:
Jongens kap eens met deze onzin, ik lees dit topic graag onder het genot van een bakje koffie, maar hij smaakt toch niet zo lekker als ik door pagina's van dit soort post's moet spitten....

Dit viel me even op: En ik quote het maar even van 3XPER7 omdat ik het in dit topic niet kan vinden in de post's van Lupp...
3XPER7 schreef op vrijdag 21 september 2012 @ 10:45:
[...]

Het gaat mij er vervolgens om dat jij stellig volhoudt dat het "hier vaak beweerd werd dat PhysX beter op een CPU zou lopen" ...
Ik meen mij te herinner dat ik dat hier weleens beweert heb, natuurlijk met veel meer context en wat genuanceerder. Denk aan: 'PhysX zou op de CPU net zo snel kunnen lopen'

Goed ik voel me dus geroepen om dat even toe te lichten, we hebben het hier wel over 2008~2010 toen PhysX en GPGPU nog in de kinderschoenen stond, toen havok nog niet van Intel was en Ageia net was overgenomen door nVidia. Het argument 'nVidia is een betere keus want PhysX' kwam net op en ik -als ATI 4800 bezitter- was het daar natuurlijk niet zo mee eens.

Destijds gooide Charlie met mooie teksten als:
If they didn’t go out of their way, the 2-4x speed increase by using a GPU for PhysX would be somewhere between half as fast and about equal to a modern CPU. Even if you use numbers that are generous to Nvidia, PhysX would be SLOWER ON THE GPU IN EVERY CASE. To top it off, there is NO technical reason for Nvidia to use x87, SSE is faster in every case we could find.
Bron: http://semiaccurate.com/2...efully-hobbles-physx-cpu/

Dat was naar aanleiding van dit onderzoek door David Kanter op: http://www.realworldtech.com/physx87/
In zijn conclusie schijf David:
For example, Westmere sports 6 cores, and using two cores for physics could easily yield a 2X performance gain. Combined with the benefits of vectorized SSE over x87, it is easy to see how a proper multi-core implementation using 2-3 cores could match the gains of PhysX on a GPU.
Bron: http://www.realworldtech.com/physx87/5/

Het bleek dus dat nVidia op de PC expres gebruik maakte van het verouderde X87 instructie set om op die manier het verschil met een PhysX GPU groter te maken, ook was PhysX op de CPU standaard single-threaded. En vanuit die berichtgeving zijn er genoeg mensen die het er over eens zijn dat GPU PhysX niet zoveel voordelen brengt. Natuurlijk lopen we inmiddels tegen 2013 aan en zijn zowel de GPU's als de drivers/libraries stukken verbeterd, maar nog steeds zou je kunnen beweren dat het voor games niet nodig is om PhysX op de GPU te doen. (Hoewel dat nu lastiger is te onderbouwen)

Kom op jongens zo moeilijk is het niet om een bron te vinden, zelfs tweakers heeft er een bericht over geschreven: nieuws: 'PhysX-berekeningen op cpu traag door slechte optimalisatie'

Helaas zijn er nooit echt goede nVidia PhysX alternatieven gekomen, maar gezien de volgende generatie consoles op AMD GPU's gaat draaien zal het vroeg of laat wel op een andere manier worden opgevangen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://www.hardware.fr/ar...7/consommation-bruit.html

Een van de beste, zoniet de beste reviewsite wanneer het op verbruik aan komt, want net als Xbitlabs gebruiken ze een speciaal geprepareerd moederbord en alles. Daarbij is duidelijk dat de GTX580 meer dan 300 Watt kan verbruiken. Ik hoop dat dit de discussie eindelijk kan laten ophouden, opdat we over zaken kunnen praten als:

Wat voor voordelen de Nintendo Wii U kan halen uit AMD's GPU's. (Ja, ik noem maar wat)

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-04 22:30

deraco96

Altijd.

Ik moest het even controleren, dit is inderdaad het AMD-nieuwstopic. Waarom gaat het dan over oudere nVidia-kaarten? Compleet belachelijk toch? (Niet dat ik verstand heb van videokaarten maar dit soort topics zijn leuk om te lezen als er ontopic wordt gepraat)

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • 0 Henk 'm!

Anoniem: 245699

dahakon schreef op vrijdag 21 september 2012 @ 18:03:
http://www.hardware.fr/ar...7/consommation-bruit.html

Een van de beste, zoniet de beste reviewsite wanneer het op verbruik aan komt, want net als Xbitlabs gebruiken ze een speciaal geprepareerd moederbord en alles. Daarbij is duidelijk dat de GTX580 meer dan 300 Watt kan verbruiken. Ik hoop dat dit de discussie eindelijk kan laten ophouden, opdat we over zaken kunnen praten als:
Nog één toevoeging dan; http://www.techpowerup.co...rottling-using-GPU-Z.html ;)

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Ik las laatst wat geruchten op Fud, maar wanneer verwachten jullie de 8 serie ? word dat nog voor kerst ?

btw, de startpost afbeeldingen werken niet :o

[ Voor 0% gewijzigd door Hekking op 23-09-2012 10:10 . Reden: typo ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

nvm dp

[ Voor 93% gewijzigd door Hekking op 23-09-2012 10:10 ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
op dit moment is er erg weinig bekend over de nieuwe serie en er zijn ook geen nieuwe geruchten dat er wat aankomt.
Meestal heb je een redelijke stroom van geruchten ongeveer een maand of 2 voor release.
Het zou altijd nog kunnen dat we nog voor kerst/vlak rond kerst wat krijgen maar de cyclus van AMD is meestal net iets meer dan een jaar.

Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Nu online

dion_b

Moderator Harde Waren

say Baah

Modbreak:Hou het aub on-topic, dit is een AMD Radeon info & nieuwsdiscussietopic en dus NIET een AMD vs nVidia bashtopic. Tolerantie voor onzinnige ver-pis-vergelijkingen zal erg laag zijn. Kom dus met nieuwe info, ga niet een 1001-keer gevoerde discussie nog eens voeren.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Hekking schreef op zondag 23 september 2012 @ 10:09:
Ik las laatst wat geruchten op Fud, maar wanneer verwachten jullie de 8 serie ? word dat nog voor kerst ?

btw, de startpost afbeeldingen werken niet :o
AMD kwam de afgelopen twee generaties in januari met nieuwe kaarten. Dus ik verwacht dat dat deze keer ook weer zo zal zijn. En ik verwacht dat de HD89xx het eerste zal zijn. Een aankondiging of paper launch zou Eind dec nog wel kunnen. En als ze erg voor liggen op schema misschien wel een hard launch in december.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 251563

Hmm, volgens mij kwam de HD 6000 serie een stuk eerder uit hoor, in de herfst al, met Barts. :) Ook deze keer hoeven ze niet naar een nieuw process, en de architectuur zal ook wel niet zo volledig op de schop zijn gegaan als met GCN. Hoewel ik er eigenlijk geen rekening mee hou, zou het me ook weer niet verbazen als de HD8000 serie dit jaar nog wordt gelaunched (en dan niet een paper launch).

Btw: In de alpha kit voor de volgende Xbox zit waarschijnlijk een MSI HD 6870 of HD 6950. Zie hier en verder: http://forum.beyond3d.com...read.php?t=31379&page=580

Dus kans zit er (zoals verwacht) dik in dat AMD ook de volgende Xbox heeft gescoord. :) Geruchten hadden het er al langer over dat de uiteindelijke Xbox GPU tussen de HD 7770 en HD 7850 zou zitten, dat lijkt dus te kloppen (hoewel nog niets zeker is etc.).

[ Voor 42% gewijzigd door Anoniem: 251563 op 24-09-2012 22:04 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Anoniem: 251563 schreef op maandag 24 september 2012 @ 21:49:
Hmm, volgens mij kwam de HD 6000 serie een stuk eerder uit hoor, in de herfst al, met Barts. :) Ook deze keer hoeven ze niet naar een nieuw process, en de architectuur zal ook wel niet zo volledig op de schop zijn gegaan als met GCN. Hoewel ik er eigenlijk geen rekening mee hou, zou het me ook weer niet verbazen als de HD8000 serie dit jaar nog wordt gelaunched (en dan niet een paper launch).

Btw: In de alpha kit voor de volgende Xbox zit waarschijnlijk een MSI HD 6870 of HD 6950. Zie hier en verder: http://forum.beyond3d.com...read.php?t=31379&page=580

Dus kans zit er (zoals verwacht) dik in dat AMD ook de volgende Xbox heeft gescoord. :) Geruchten hadden het er al langer over dat de uiteindelijke Xbox GPU tussen de HD 7770 en HD 7850 zou zitten, dat lijkt dus te kloppen (hoewel nog niets zeker is etc.).
Het zou inderdaad kunnen. Zoals je zegt het wordt een refresh. Waarschijnlijk GCN v1.5. Na een grondige evalluatie hebben ze vast dingen gevonden waar ze snel wat aan kunnen verbeteren die een leuke winst geven. Dit soort dingen hebben we wel vaker gezien. Het productie process zal ook hetzelfde zijn dus ze weten wat ze kunnen verwachten.

Ik zou het zeker niet erg vinden als hij in nov/dec in de winkel ligt :) Maar ik durf er niet op te hopen.

HD6870/HD6950 in de Xbox 720 def kit :| dat is serieuze power. Eerst hadden ze het nog over een 6670 achtige GPU maar dit is toch even heel wat anders. HD77xx performance in een console zou erg nice zijn. Daar kun je al hele leuke dingen mee doen!

Nu is het wel zo dat in de tijd van de Xbox 360 en de PS3 de GPU's net zo krachtig waren als de chips die op dat moment voor de desktops beschikbaar waren. En dan heb ik het over de high end kaarten. De Xenos C1 kon zelfs meer qua feature set in vergelijking met wat de PC kon. Dus ik denk niet dat ze met een HD77xx achtige GPU ze weer zo veel jaar vooruit kunnen. Dan wordt de achterstand ten opzichte van de pc toch wel een heel stuk groter dan nu.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dabelg
  • Registratie: Juli 2005
  • Laatst online: 17-06 11:14
wacht maar tot ze full DX 11 kunnen gaan op consoles. + rechtstreeks programmeren voor de hardware. Belooft weer leuk te worden, de nieuwe consoles. Hoop maar dat ze backwards compatible worden maar dat ziet er goed uit als ze terug AMD gekozen hebben :p

Mijn iRacing profiel / YouTube / Twitch.TV


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Astennu schreef op dinsdag 25 september 2012 @ 07:51:
HD6870/HD6950 in de Xbox 720 def kit :| dat is serieuze power. Eerst hadden ze het nog over een 6670 achtige GPU maar dit is toch even heel wat anders. HD77xx performance in een console zou erg nice zijn. Daar kun je al hele leuke dingen mee doen!
Als het waar is is het leuk, maar ik zou het met een korrel zout nemen. We hebben al verschillende GPU's de revue zien passeren betreffende de volgende Xbox (HD 6670, Trinity) dus waarom zou deze wel kloppen?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Astennu schreef op maandag 24 september 2012 @ 08:02:
[...]


AMD kwam de afgelopen twee generaties in januari met nieuwe kaarten. Dus ik verwacht dat dat deze keer ook weer zo zal zijn. En ik verwacht dat de HD89xx het eerste zal zijn. Een aankondiging of paper launch zou Eind dec nog wel kunnen. En als ze erg voor liggen op schema misschien wel een hard launch in december.
Ik had onlangs ergens gelezen dat de 88xx serie dit keer volgens mij als eerste komt (Q1 '13)
Ha kijk ik heb de bron :) http://nl.hardware.info/n...omstplannen-onder-de-loep
Q1 '13 staat er overigens niet in maar dat had ik ergens anders vandaan.

88xx meer performance per watt, lagere prijs, cant wait :)
Mijn 6850oc voldoet nog prima maar een 8850 lust ik wel :9~

Acties:
  • 0 Henk 'm!

Anoniem: 245699

Die bron is alles behalve echt betrouwbaar. Er zijn genoeg zaken om vraagtekens bij te zetten, dus dit zijn nog echt geen zekerheden. We zullen rustig moeten afwachten tot er wat meer info komt.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Afbeeldingslocatie: http://assets.vr-zone.net/17154/AMD_Radeon_HD8870_HD8850.png
Bijna 1 Tflop verschil lijkt me ook wel erg veel gezien het verschil in TDP en klok snelheid...

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Klopt, was ook al eens op hwi gepost, het zijn meer speculaties dan een feit.
Wat eerder in de buurt komt is 25% prestatie winsten avg en 25% zuiniger en dat zijn geen
verkeerde cijvers lijkt mij?

[ Voor 44% gewijzigd door Anoniem: 304087 op 25-09-2012 12:11 ]


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Waarop baseer je dat? Nooit geleerd dat alleen de uitkomst van een som opschrijven niet voldoende is? ;)

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-06 20:13

RuddyMysterious

a smorgasbord of waywardness


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Olaf van der Spek schreef op dinsdag 25 september 2012 @ 13:00:
Waarop baseer je dat? Nooit geleerd dat alleen de uitkomst van een som opschrijven niet voldoende is? ;)
Nergens op maar bedoel er mee dat dat wel makkelijker haalbaar is dan nog grotere verschillen die positief uitvallen.

HD8970 en HD8950 eind juni 2013 op computex


While AMD might struggle to match Intel’s tick-tock on the CPU side of life, the old ATi graphics team has no such difficulty in pushing out next-generation GPUs. We have spoken with our sources in the Far East and discovered AMD’s launch plans for the Radeon 8000 series. KitGuru orders a bowl of ‘meat with noodles’ and chews the cud.
http://www.kitguru.net/co...50-launch-plans-revealed/
KitGuru says: With the price cuts ahead of nVidia’s 660 launch, AMD is competitive right now. Unless something changes with the Jen Hsun team, there’s no real pressure on AMD to change. What this market really needs is new consoles to be launches, so the default resolution/image quality for games increases substantially – and the same for desktop LED monitors.

[ Voor 23% gewijzigd door Anoniem: 304087 op 25-09-2012 16:27 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 304087 schreef op dinsdag 25 september 2012 @ 16:25:
[...]

Nergens op maar bedoel er mee dat dat wel makkelijker haalbaar is dan nog grotere verschillen die positief uitvallen.
25% performancewinst met 25% lager TDP is 56% meer prestaties per watt, dat lijkt me alsnog totaal onrealistisch op hetzelfde proces en met dezelfde architectuur. Vergelijk bijvoorbeeld eens de prestaties per watt van de HD5000-serie en de HD6000 serie. Dat komt bij lange na niet bij 56% in de buurt. Ik zou al reuze blij zijn met 20% verbetering, en ik verwacht eigenlijk minder. Maar wie weet hoeveel rek er nog zit in GCN.

Wat wordt er trouwens bedoeld in dat artikel op kitguru met "With Microsoft effectively killing off the DirectX programme"? Heb ik iets gemist?

offtopic:
@DevilsProphet: Dat is geen pleonasme, een indirecte bron kan ook.

[ Voor 21% gewijzigd door bwerg op 25-09-2012 16:50 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 18-05 13:08
Het is zelfs 66.66% meer per watt (1.25/0.75)

Acties:
  • 0 Henk 'm!

  • FreezeXJ
  • Registratie: Mei 2006
  • Laatst online: 15:48

FreezeXJ

DPC-Crew

Mooooh!

Ik zie TDP gewoon op hetzelfde blijven, dus 25% snelheidswinst it is. Nog steeds niet slecht voor een refresh, maar het vreet wel silicium, waardoor het weer onhandig is voor de winstgevendheid.

"It needs but one foe to breed a war, not two, master Warden. And those who have not swords can still die upon them" - Eowyn


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Yields zijn beter geworden en men hoeft tegen die tijd geen prestige prijs meer te betalen voor 28nm. Alhoewel er nu nog altijd schaarste is...

[ Voor 54% gewijzigd door madmaxnl op 25-09-2012 17:43 ]


Acties:
  • 0 Henk 'm!

Anoniem: 251563

XanderDrake schreef op dinsdag 25 september 2012 @ 08:57:
[...]
Als het waar is is het leuk, maar ik zou het met een korrel zout nemen. We hebben al verschillende GPU's de revue zien passeren betreffende de volgende Xbox (HD 6670, Trinity) dus waarom zou deze wel kloppen?
Klopt, altijd skeptisch blijven met dit soort berichten. Moet wel zeggen dat het in dit geval gaat om fotos van een vrij bijzonder systeem, eenzelfde als al eerder te zien was toen iemand zo'n alpha kit wilde verkopen. Mogelijk was het niet de bedoeling dat men erachter kon komen wat voor grafische kaart er in zit (dat ging aan de hand van de positie van schroefjes e.d.). Daarentegen kan de kaart bijvoorbeeld lagere standaard kloks hebben, dus ook al weten we de kaart van de dev kit, dan nog is het lastig wat over de Xbox 720 te zeggen.
spNk schreef op dinsdag 25 september 2012 @ 12:09:
Bijna 1 Tflop verschil lijkt me ook wel erg veel gezien het verschil in TDP en klok snelheid...
Die tabel klopt sowieso niet. De HD 7870 doet 2560 GFLOPS, niet 2250, waardoor het verschil al omlaag gaat naar 53%. Daarnaast zijn de percentages verkeerd berekend, want voor DP (waar ze wel het goede aantal GFLOPS hebben gevonden) is het verschil uiteraard ook 53% voor de hypothetische HD 8870, en niet 60%. Het verschil in texture fill rate verschil is met hun eigen nummers 54%, niet 65%. Het lijkt er dus op dat iemand de toekomstige kaarten extreem goed wil doen lijken, misschien om een hype te stoken of zo. In elk geval is er niet echt basis om dit te vertrouwen.
bwerg schreef op dinsdag 25 september 2012 @ 16:42:
[...]

Wat wordt er trouwens bedoeld in dat artikel op kitguru met "With Microsoft effectively killing off the DirectX programme"? Heb ik iets gemist?
Volgens mij is Kitguru wel vaker wat speculatief. Er zijn volgens mij wel wat interviews geweest waarbij de nadelen van een "tussenlaag" als DirectX besproken worden, misschien dat ze het daar van hebben. Een zo'n interview was overigens van iemand van AMD, als ik het me goed herinner.

[ Voor 48% gewijzigd door Anoniem: 251563 op 25-09-2012 20:56 ]


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 11-06 16:39

yzx

madmaxnl schreef op dinsdag 25 september 2012 @ 17:43:
Yields zijn beter geworden en men hoeft tegen die tijd geen prestige prijs meer te betalen voor 28nm. Alhoewel er nu nog altijd schaarste is...
First come first serve toch, was met de 7xxx ook zo

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 251563 schreef op dinsdag 25 september 2012 @ 20:21:

Volgens mij is Kitguru wel vaker wat speculatief.
Zo zijn ze volgens mij een aantal jaren geleden bekend geworden. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
is iets zoals directx juist niet vooral handiger voor kleinere developers?
Grote developers hebben natuurlijk de mogelijkheid om meer tijd/geld te stoppen in een spel waardoor ze zo er wel echt meer uit kunnen halen maar voor een kleine dev lijkt me dit vooral duur.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Als je het hebt over gewoon de tussenlaag eruit slopen en direct de hardware aanspreken: Ja, dat is praktisch onmogelijk om dat voor verschillende videokaarten uberhaupt werkend te krijgen, laat staan te optimaliseren. Ik ben dan ook benieuwd naar het alternatief want zonder dat is de stelling "het moet weg want het kost performance" natuurlijk een lege stelling.

Heeft geen speciale krachten en is daar erg boos over.


  • DrBreakalot
  • Registratie: Oktober 2010
  • Laatst online: 11-06 23:00
Als de tussenlaag eruit wordt gesloopt zullen ontwikkelaars effectief hetzelfde moeten doen voor pc's als voor consoles, en daar zullen de games niet goedkoper van gaan worden.
Mocht Microsoft al stoppen met de ontwikkeling van DirectX, dan stapt iedereen toch over op OpenGL?

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Is het al bekend of de pricewatch: Powercolor Radeon HD 7990 ooit nog in de winkels gaat verschijnen dit jaar :?
Beetje stil rondom zo'n snelle kaart :|

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Anoniem: 304087

Daar zijn oom maar een paar van gemaakt. Word geen standaard kaart iig.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Wilco1e schreef op woensdag 26 september 2012 @ 01:18:
Als de tussenlaag eruit wordt gesloopt zullen ontwikkelaars effectief hetzelfde moeten doen voor pc's als voor consoles, en daar zullen de games niet goedkoper van gaan worden.
Mocht Microsoft al stoppen met de ontwikkeling van DirectX, dan stapt iedereen toch over op OpenGL?
Ik vraag me af waar men deze wijsheid vandaan haalt. De PS360 hebben ook gewoon een API er tussen zitten, je kan en mag daar ook niet zomaar alles doen. Nadeel aan DirectX is echter dat er onder D3D nóg een aantal lagen zitten en dat is waar het performance kost (even afgezien van het feit dat ook wat meer security en dergelijke nodig is op een PC; dingen waar consoles zich minder druk om hoeven te maken). De API laag van de PS360 zit dichter bij de hardware, maar is weldegelijk aanwezig. Overigens geldt dit ook voor de Wii / Wii U en alle andere platforms natuurlijk.

[ Voor 8% gewijzigd door Werelds op 26-09-2012 11:17 ]


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Anoniem: 304087 schreef op woensdag 26 september 2012 @ 10:32:
Daar zijn oom maar een paar van gemaakt. Word geen standaard kaart iig.
Dat weet ik, maar de laatste berichten waren dat er het een en ander mis was met de koeling/mount ervan en gelukkig geen eene kaart met dat probleem in de winkel terecht was gekomen.

Mijn vraag is dus of er een "tekoop datum" bekend is of wat dan ook ??

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Anoniem: 251563

Hier is het interview waar ik het over had, voor de geinteresseerden:

http://www.bit-tech.net/h.../16/farewell-to-directx/1

Overigens heeft AMD later nogmaals bevestigd DirectX volledig te zullen blijven ondersteunen.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 21:41
Werelds schreef op woensdag 26 september 2012 @ 11:16:
[...]

Ik vraag me af waar men deze wijsheid vandaan haalt. De PS360 hebben ook gewoon een API er tussen zitten, je kan en mag daar ook niet zomaar alles doen. Nadeel aan DirectX is echter dat er onder D3D nóg een aantal lagen zitten en dat is waar het performance kost (even afgezien van het feit dat ook wat meer security en dergelijke nodig is op een PC; dingen waar consoles zich minder druk om hoeven te maken). De API laag van de PS360 zit dichter bij de hardware, maar is weldegelijk aanwezig. Overigens geldt dit ook voor de Wii / Wii U en alle andere platforms natuurlijk.
Snap dit ook niet helemaal, buiten dat de meeste games nog altijd in C++ worden geschreven (met stukjes C voor zeer specifieke hardware controle), hebben ze allemaal libraries geschreven door de producent (Microsoft/Nintendo/Sony). Dan krijg je ook nog scripting languages voor bv de AI (LUA bv) en ook die snoepen nog altijd aan de performance. En als je dan ook nog eens kijkt naar bv de UE3, waarin heel veel eigenlijk gedaan wordt in scripting languages, maar toch gewoon soepel draait op consoles...

Leuke PPT over GoW overigens:
http://www.cs.princeton.edu/~dpw/popl/06/Tim-POPL.ppt

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Anoniem: 251563 schreef op woensdag 26 september 2012 @ 12:56:
Hier is het interview waar ik het over had, voor de geinteresseerden:

http://www.bit-tech.net/h.../16/farewell-to-directx/1

Overigens heeft AMD later nogmaals bevestigd DirectX volledig te zullen blijven ondersteunen.
Een interessant stuk om te lezen. Ik wist niet dat die bottelnek van DX zo groot was.
En het idee voor een soort van virtualisatie laag om het probleem van het direct programeren van verschillende architecturen kan een mooie tussen oplossing zijn.

Want wat er voor consoles gedaan wordt gaat natuurlijk niet voor pc's. Elke twee jaar en met een beetje peg een jaar is er een nieuwe architectuur die net even wat anders werkt en dan moet je je hele game engine aanpassen. Dat zal dan eerst meer uniform moeten worden. Maar dan krijg je misschien het probleem dat je de innovaties qua hardware tegen gaat houden.

Dus ik ben benieuwd hoe ze dit in de toekomst gaan doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
DirectX is het probleem in elk geval niet, het is alle shit eronder en dat heeft meer te maken met hoe een PC werkt en wat hij kan, dan iets anders. Direct de hardware aanspreken is iets waar zelfs Carmack van heeft toegegeven dat het gewoon dom is. Hij had dat gedaan in Tech 3 en achteraf bleek dat toch even wat grove compatibility problemen te geven (in z'n keynote van vorig jaar had hij het er over; een van z'n weinige goede keynotes ook in de afgelopen jaren). Zelfs op consoles kan dit ook gewoon gebeuren, aangezien een nieuwere revisie van een console net zo goed net iets anders in elkaar kan steken. Daarom zitten er die API's bovenop, die zorgen dat je zulke dingen kunt vermijden.

Wat wel zo is, is dat voor de consoles de API's afgeleid zijn van OpenGL, dat iets meer vrijheid biedt dan D3D wat betreft uitbreidingen - dat is dan ook het enige dat OpenGL nog echt als voordeel heeft, de extensies. Sterker nog, als ik de PS3 neem, is de API gebaseerd op OpenGL ES (zelfde als op je smartphone, hoera) en Nvidia's CG (een shader taal). De compiler van die laatste kotst OpenGL of D3D routines uit op de PC. In feite is het werken op de PS3 niet zo heel erg verschillend van werken in OpenGL met wat Nvidia extensies. Pas als je onder die API's kijkt zie je dat alles veel directer naar de hardware gaat, er zitten gewoon minder lagen onder :)

  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 31-01 17:11
AMD (en Nvidia) zal echt Directx niet laten vallen. Alle game-engines zouden herschreven moeten worden, met aparte AMD, Nvidia en Intel versies. Een nachtmerrie! Ik denk wel dat ze Directx12 een stuk efficienter zullen maken, wat misschien wel nodig is als ze de next-generation consolegames naar de PC willen porten.

Wat betreft die HD8xxx rumors; ik verwacht niet veel meer dan de 5870->6970 verbetering als ze het TDP gelijk willen houden. Ik denk meer aan een 8870 die even snel is als de 7950, en een 8970 even snel als een overklokte GTX680/7970GE.

R7 5700X, 16GB DDR4-3200, RTX 3070


  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
VSA100_victim schreef op woensdag 26 september 2012 @ 14:43:
AMD (en Nvidia) zal echt Directx niet laten vallen. Alle game-engines zouden herschreven moeten worden, met aparte AMD, Nvidia en Intel versies. Een nachtmerrie! Ik denk wel dat ze Directx12 een stuk efficienter zullen maken, wat misschien wel nodig is als ze de next-generation consolegames naar de PC willen porten.

Wat betreft die HD8xxx rumors; ik verwacht niet veel meer dan de 5870->6970 verbetering als ze het TDP gelijk willen houden. Ik denk meer aan een 8870 die even snel is als de 7950, en een 8970 even snel als een overklokte GTX680/7970GE.
De 5870 > 6970 verbetering was wel heel klein. En de 6970 had ook meer GPGPU focus. Ik weet niet of ze bij de refresh van GCN de focus weer op GPGPU hebben liggen (zou wel kunnen) Maar inderdaad veel meer dan 10-20% extra prestaties binnen het zelfde TDP is gewoon onwaarschijnlijk. Maar ik denk wel dat er aan GCN en het maken van chips op 28nm veel te verbeteren valt. Beide waren nieuw. Als je kijkt naar de HD4770 en vervolgens naar de HD6970. En dan kijkt naar de performance per watt per MM2 dan hebben ze toch mooie dingen gedaan en allemaal hetzelfde 40nm proces.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op donderdag 27 september 2012 @ 09:19:
Als je kijkt naar de HD4770 en vervolgens naar de HD6970. En dan kijkt naar de performance per watt per MM2 dan hebben ze toch mooie dingen gedaan en allemaal hetzelfde 40nm proces.
Wat? Performance/W/mm2?
Heb je daar cijfers van?

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Olaf van der Spek schreef op donderdag 27 september 2012 @ 09:53:
[...]

Wat? Performance/W/mm2?
Heb je daar cijfers van?
HD4770: http://www.techpowerup.com/reviews/ATI/HD_4770/28.html
40,5% / 62watt / 137mm²

HD6970: http://www.techpowerup.co...IS/Radeon_HD_6970/29.html
100% / 157watt / 389mm²

Conclusie:
Laten we even de HD4770 naar 100% liften:
100% / 153watt / 338mm²

De HD6970 legt het dus af tegen de HD4770. Wat natuurlijk logisch is, kijk bijvoorbeeld naar het aantal extra geheugen chips wat alleen al het het verbruik verschil verklaart, daarna naar de geheugenbus wat de die grote al kan verklaren dat zijn pas twee dingen die anders zijn en dan hebben we het nog niet eens over de nieuwe VLIW4 argitectuur. Laat staan de positionering.

Note: De relatieve performance van de HD4770 naar de HD6970 is berekend met behulp van http://www.techpowerup.com/reviews/HIS/HD_5770/30.html daar staat dat de HD4770 75% is van een HD5770 wat weer 54% is van een HD6970. Dat geeft als resultaat dat een HD4770 40,5% is van een HD6970.

Het lijkt me interessanter om de HD4770 met de HD6870 te vergelijken gezien er met de HD6970 minder op verbruik is gelet en meer op GPGPU én omdat beide kaarten de VLIW5 architectuur gebruiken. Dan krijgen we deze vergelijking:

HD4770
49% / 62watt / 137mm²

HD6870: http://www.techpowerup.co...IS/Radeon_HD_6870/29.html
100% / 108watt / 255mm²

Dan even de HD4770 naar 100% liften:
100% / 126,5watt / 279,5mm²

Conclusie #2:
Je zou dus kunnen zeggen dat tegen de 20% prestatie winst op hetzelfde proces prima mogelijk is.

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Hoe dan ook, voor mensen zoals ik die voornamelijk kijken naar performance per watt, breken er mooie tijden aan :)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Astennu schreef op donderdag 27 september 2012 @ 09:19:
En de 6970 had ook meer GPGPU focus.
Denk dat je een beetje in de war bent, dat is de 7970 ;)

Cayman was weliswaar VLIW4 in plaats van VLIW5, maar dat maakte hem niet meer GPGPU gericht dan Cypress; dat was met name om ervoor te zorgen dat de SP's beter gebruikt werden, want met Cypress bleek dat er gemiddeld maar 3-4 van de 5 ALU's gebruikt werden. Bij de VLIW4 uitvoering lieten ze de 5e ALU/SFU vallen en werden er 3 ALU's ingezet als SFU wanneer nodig, in plaats van dat dubbele register :)

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Performance per watt valt dan nog erg tegen. Maar als je hier naar kijkt:

http://www.techpowerup.com/reviews/ATI/HD_4770/12.html
en
http://www.techpowerup.co...IS/Radeon_HD_6970/16.html

En dan naar 1680x1050 en hoger. Dan zie je toch wel grotere verschillen. Bij 1280x1024 kom je denk ik dicht bij jou resultaat. Maar voor die resolutie is een 69xx niet gemaakt. Die kan zijn power dan niet kwijt.
Maar hetzelfde geld voor de 4770 die weer kan stikken op wat hogere resoluties bv door te weinig geheugen. En dat is wel iets wat begint te spelen vanaf 1280x1024. Dus het blijft gewoon een moeilijke vergelijking.

Far Cry 2
1280x1024 2x AA
HD4770 = 0,373 FPS per mm2 & 0,8242 FPS per watt
HD6970 = 0,481 FPS per mm2 & 0,7815 FPS per watt

1680x1050 4x AA
HD4770 = 0,1869 FPS per mm2 & 0,4129 FPS per watt
HD6970 = 0.3788 FPS per mm2 & 0,6153 FPS per watt

Dus het ligt ook heel erg aan de resolutie en welk spel je test.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Werelds schreef op donderdag 27 september 2012 @ 11:47:
[...]

Denk dat je een beetje in de war bent, dat is de 7970 ;)

Cayman was weliswaar VLIW4 in plaats van VLIW5, maar dat maakte hem niet meer GPGPU gericht dan Cypress; dat was met name om ervoor te zorgen dat de SP's beter gebruikt werden, want met Cypress bleek dat er gemiddeld maar 3-4 van de 5 ALU's gebruikt werden. Bij de VLIW4 uitvoering lieten ze de 5e ALU/SFU vallen en werden er 3 ALU's ingezet als SFU wanneer nodig, in plaats van dat dubbele register :)
Nee AMD heeft in de 69xx extra GPGPU dingen toegevoegd die de HD58xx serie helemaal niet had. Dat stond buiten de overgang van VLIW5 naar VLIW4. (ik moet wel toegeven dat dit lang niet zo veel is als nu naar GCN maar ze hadden toen ook behoorlijk wat dingen aangepast op GPGPU gebied).

Daarnaast is het niet zo simpel als jij zegt. Bij VLIW5 had je 4 kleine alu's en 1 hele dikke (klein als in konden simpelere bewerkingen doen) Waar dit bij VLIW4 4 medium alu's zijn die samen een moeilijke bewerking kunnen doen (of dat combineren zo werkte weet ik niet 100% zeker maar is op anandtech terug te vinden)

[ Voor 6% gewijzigd door Astennu op 27-09-2012 12:10 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Werelds schreef op donderdag 27 september 2012 @ 11:47:
[...]

Denk dat je een beetje in de war bent, dat is de 7970 ;)

Cayman was weliswaar VLIW4 in plaats van VLIW5, maar dat maakte hem niet meer GPGPU gericht dan Cypress; dat was met name om ervoor te zorgen dat de SP's beter gebruikt werden, want met Cypress bleek dat er gemiddeld maar 3-4 van de 5 ALU's gebruikt werden. Bij de VLIW4 uitvoering lieten ze de 5e ALU/SFU vallen en werden er 3 ALU's ingezet als SFU wanneer nodig, in plaats van dat dubbele register :)
Je hebt helemaal gelijk, ik was ook even in de war :P VLIW4 was een opstapje naar CGN dus vandaar de verwarring.
Astennu schreef op donderdag 27 september 2012 @ 11:53:
[...]


Performance per watt valt dan nog erg tegen. Maar als je hier naar kijkt:

http://www.techpowerup.com/reviews/ATI/HD_4770/12.html
en
http://www.techpowerup.co...IS/Radeon_HD_6970/16.html

En dan naar 1680x1050 en hoger. Dan zie je toch wel grotere verschillen. Bij 1280x1024 kom je denk ik dicht bij jou resultaat. Maar voor die resolutie is een 69xx niet gemaakt. Die kan zijn power dan niet kwijt.
Maar hetzelfde geld voor de 4770 die weer kan stikken op wat hogere resoluties bv door te weinig geheugen. En dat is wel iets wat begint te spelen vanaf 1280x1024. Dus het blijft gewoon een moeilijke vergelijking.

Far Cry 2
1280x1024 2x AA
HD4770 = 0,373 FPS per mm2 & 0,8242 FPS per watt
HD6970 = 0,481 FPS per mm2 & 0,7815 FPS per watt

1680x1050 4x AA
HD4770 = 0,1869 FPS per mm2 & 0,4129 FPS per watt
HD6970 = 0.3788 FPS per mm2 & 0,6153 FPS per watt

Dus het ligt ook heel erg aan de resolutie en welk spel je test.
Tja, ik heb maar even het gemiddelde van alles gebruikt, want er zijn veel benchmarks die niet lineair schalen.
Maar de wat zwaardere games halen inderdaad veel meer winst uit de nieuwe chips, zekers als er DX10/11 functionaliteit bij komt kijken.

[ Voor 48% gewijzigd door Toettoetdaan op 27-09-2012 12:02 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Snap ik ook heel goed voor het totaal plaatje. Maar je hebt ook veel games die bottelneks hebben en dan de 6970 lang niet vol belasten en de 4770 wel. Daarom heb ik het even zo gegaan want anders kun je natuurlijk weinig zeggen over de performance per mm2 als niet alles van die chip benut wordt.

Maar ik denk dat er dus nog best wat mogelijkheden zijn om extra prestaties te vinden. TDP nog hoger maken dan de 7970GE lijkt me geen optie. Dus dat zal het budget zijn. Dus nu is het te vraag hoeveel kunnen ze verbeteren.

De core grote maken door meer units te plaatsen en vervolgens de clocks omlaag te doen is een manier om meer prestatie te krijgen zonder hoger verbruik. Want als je het voltage verhoogt is dat geen lineaire stijging qua verbruik. De stap van 1.4 naar 1.5v is bv een grotere stap qua verbruik dan van 0.9 naar 1.0v. wel even afhankelijk van de architectuur maar over het algemeen heb je dan met extra lekstroom (wat weer gecooled moet worden) te maken wat daarnaast schalen de clocks bij hogere voltages minder goed dus de clockspeed winst die je dan haalt is ook gering. Bij het eerste voorbeeld krijg je er misschien 100 MHz bij waar dit bij het 2e voorbeeld misschien 50 MHz is.
Ik heb dit bij het overclocken van video kaarten en cpu's vaak genoeg gezien.

Nadeel van een grotere core zijn de productie kosten en hoe complex een chip is om te ontwerpen. Daarnaast kun je ook nog veel optimaliseren qua ontwerp gewoon bepaalde dingen net wat anders doen waardoor de clocks omhoog kunnen zonder hogere voltages of zelfs met lagere voltages wat het verbruik ook weer tengoede komt. Terwijl je dezelfde architectuur hebt (Dit zijn eigenlijk die steppings die je vooral bij cpu's ziet. Kleine veranderingen. Vaak geen nieuwe features maar ze clocken hoger. En dat maakt dan weer nieuwe product modellen mogelijk. Bij GPU's komt het ook wel voor maar minder)

En dan kun je ook nog een efficiëntere architectuur maken. Een heel mooi voorbeeld is de overgang van HD3870 naar HD4870. Die nieuwe shaders waren veel compacter waardoor je veel meer power per MM2 kreeg. Bij de overgang van HD2900 naar HD3870 hadden ze ook al het een en ander verandert maar dat kwam ook een heel groot deel door de die shrink daarnaast was de 3870 niet sneller maar alleen kleiner dan zijn voorganger waar het bij de HD48xx echt de architectuur was die het em deed en zorgde dat hij veel sneller was dan zijn voorganger.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • VSA100_victim
  • Registratie: Juli 2010
  • Laatst online: 31-01 17:11
Astennu schreef op donderdag 27 september 2012 @ 12:20:
...daarnaast was de 3870 niet sneller maar alleen kleiner dan zijn voorganger waar het bij de HD48xx echt de architectuur was die het em deed en zorgde dat hij veel sneller was dan zijn voorganger.
Ja, maar hij slurpte gelijk veel meer stroom: vooral in idle! (Nou kwam dat wel doordat in idle het VRAM gewoon op volle snelheid bleef draaien, maar dat deed de 3870 ook)

R7 5700X, 16GB DDR4-3200, RTX 3070


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Astennu schreef op donderdag 27 september 2012 @ 11:55:
Nee AMD heeft in de 69xx extra GPGPU dingen toegevoegd die de HD58xx serie helemaal niet had. Dat stond buiten de overgang van VLIW5 naar VLIW4. (ik moet wel toegeven dat dit lang niet zo veel is als nu naar GCN maar ze hadden toen ook behoorlijk wat dingen aangepast op GPGPU gebied).

Daarnaast is het niet zo simpel als jij zegt. Bij VLIW5 had je 4 kleine alu's en 1 hele dikke (klein als in konden simpelere bewerkingen doen) Waar dit bij VLIW4 4 medium alu's zijn die samen een moeilijke bewerking kunnen doen (of dat combineren zo werkte weet ik niet 100% zeker maar is op anandtech terug te vinden)
In VLIW5 had je 4 pure ALU's en 1 ALU/SFU (en een branch unit). In VLIW4 hebben ze die speciale ALU/SFU laten vallen en wordt de SFU functie overgenomen door slechts 3 van de 4 ALU's wanneer nodig. Het zijn verder nog steeds grofweg dezelfde ALU's; ze zijn in Cayman inderdaad iets groter om het gemis van die SFU op te vangen. Met name voor de scheduler heeft dit gevolgen gehad; bepaalde dingen die voorheen op de SFU werden gegooid, moeten nu gecombineerd uitgevoerd worden.

Als extra gevolg van de shift naar VLIW4 betekende dat ook ook wel dat GPGPU iets vooruit ging, maar dat was niet het doel. Dat kwam gewoon simpelweg doordat (zoals ik al zei) in VLIW5 maar 3-4 ALU's werden gebruikt. Met VLIW4 worden gewoon de beschikbare SP's beter benut en is er niet 20% "idle". Ook was er een OpenCL extensie (asynchronous dispatch IIRC, stukje virtualisatie - en volgens mij was dit niet bruikbaar via DirectCompute), maar het doel van Cayman waren niet GPGPU verbeteringen, dat waren min of meer kleine extra's.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
VSA100_victim schreef op donderdag 27 september 2012 @ 12:30:
[...]

Ja, maar hij slurpte gelijk veel meer stroom: vooral in idle! (Nou kwam dat wel doordat in idle het VRAM gewoon op volle snelheid bleef draaien, maar dat deed de 3870 ook)
Ja dat kwam echt door dat GDDR5. Dat hebben ze bij de HD58xx gefixt. Maar als je nu gaat kijken naar games van vandaag de dag zit er wel een gigantisch verschil in qua performance.
En qua verbruik kun je dan misschien beter de HD4850 vergelijken met GDDR3 echter was die GPU gebottelnekt door het tragere geheugen. De 4870 had ook veel meer baad bij 1024mb ram dan de 4850. Die eerste had soms tot meer dan 25% prestatie winst tov het 512mb model.
Werelds schreef op donderdag 27 september 2012 @ 12:40:
[...]

In VLIW5 had je 4 pure ALU's en 1 ALU/SFU (en een branch unit). In VLIW4 hebben ze die speciale ALU/SFU laten vallen en wordt de SFU functie overgenomen door slechts 3 van de 4 ALU's wanneer nodig. Het zijn verder nog steeds grofweg dezelfde ALU's; ze zijn in Cayman inderdaad iets groter om het gemis van die SFU op te vangen. Met name voor de scheduler heeft dit gevolgen gehad; bepaalde dingen die voorheen op de SFU werden gegooid, moeten nu gecombineerd uitgevoerd worden.

Als extra gevolg van de shift naar VLIW4 betekende dat ook ook wel dat GPGPU iets vooruit ging, maar dat was niet het doel. Dat kwam gewoon simpelweg doordat (zoals ik al zei) in VLIW5 maar 3-4 ALU's werden gebruikt. Met VLIW4 worden gewoon de beschikbare SP's beter benut en is er niet 20% "idle". Ook was er een OpenCL extensie (asynchronous dispatch IIRC, stukje virtualisatie - en volgens mij was dit niet bruikbaar via DirectCompute), maar het doel van Cayman waren niet GPGPU verbeteringen, dat waren min of meer kleine extra's.
Dat zou best kunnen. Ik vraag me ook nog steeds een beetje af wat het doel was van VLIW4. Ze hadden ook gewoon een echte opvolger van de VLIW5 5870 kunnen maken met extra shaders. Want een jaar later zouden ze al overgaan op GCN. En ze hebben VLIW alleen voor de Highend HD69xx kaarten gebruikt en de Trinity APU's. Dat is wel heel weinig voor een architectuur. Er is niet eens een volledige lineup geweest.

[ Voor 48% gewijzigd door Astennu op 27-09-2012 12:56 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het is ondertussen al twee jaar geleden dat CJ van ons heen is gegaan...

[ Voor 4% gewijzigd door madmaxnl op 04-10-2012 00:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
madmaxnl schreef op donderdag 04 oktober 2012 @ 00:31:
Het is ondertussen al twee jaar geleden dat CJ van ons heen is gegaan...
:'(
De tijd gaat snel.... Het is nog steeds een groot gemis.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

Ja... wordt dat ergens herdacht?

Nogthans is hier een goede plek :'(

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Astennu schreef op donderdag 27 september 2012 @ 12:53:
Dat zou best kunnen. Ik vraag me ook nog steeds een beetje af wat het doel was van VLIW4. Ze hadden ook gewoon een echte opvolger van de VLIW5 5870 kunnen maken met extra shaders. Want een jaar later zouden ze al overgaan op GCN. En ze hebben VLIW alleen voor de Highend HD69xx kaarten gebruikt en de Trinity APU's. Dat is wel heel weinig voor een architectuur. Er is niet eens een volledige lineup geweest.
Een VLIW5 voortzetting had hen in het high-end segment in de problemen gebracht; ze zouden inderdaad meer shaders nodig gehad hebben. Hadden ze wel kunnen doen, maar ik gok er op dat dit goedkoper was. Het was dan ook geen nieuwe architectuur; de shader architectuur was wel anders, maar van bovenaf gezien is de rest van Cayman toch heel duidelijk een voortzetting van Cypress :)


En ik weet vrij zeker dat het feit dat we hem nog steeds niet zijn vergeten (en dat hoogstwaarschijnlijk ook nooit zullen doen) het eerbetoon is dat CJ gewild zou hebben. Het topic loopt nog steeds, we hebben nog steeds lekkere discussies en we proberen zo diep mogelijk op nieuwtjes in te gaan :)

Hij zou ook echt genoten hebben van de veranderingen die Tahiti met zich mee bracht; ik mis nu wel echt z'n posts met nog wat diepere informatie, informatie waar hij toch zo zo'n bronnen voor had :(

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Astennu schreef op donderdag 27 september 2012 @ 12:53:
[...]


Dat zou best kunnen. Ik vraag me ook nog steeds een beetje af wat het doel was van VLIW4. Ze hadden ook gewoon een echte opvolger van de VLIW5 5870 kunnen maken met extra shaders. Want een jaar later zouden ze al overgaan op GCN. En ze hebben VLIW alleen voor de Highend HD69xx kaarten gebruikt en de Trinity APU's. Dat is wel heel weinig voor een architectuur. Er is niet eens een volledige lineup geweest.
Zoals ik het destijds begreep was het zo:
Origineel wouden ze niet voor een VLIW4 chip gaan, ze hebben hiervoor gekozen omdat ze GCN(1e tape-out) al erg ver ontwikkeld hadden, maar het 32/28nm procedé waar deze voor bedoeld was nog niet beschikbaar was. Om dat een GCN verzie op 40nm te groot zou zijn, zijn ze uitgeweken naar een tussen oplossing tussen VLIW5 en GCN.

Maar het zou ook kunnen dat VLIW4 echt een tussen stap was voor één generatie, naar dat ze uiteindelijk alleen de high-end chip hebben terug geschaald van 32nm naar 40nm.

Het was in de tijd dat TSMC onverwacht het 32nm procedé annuleerde:
http://semiaccurate.com/2...at-amds-northern-islands/
http://semiaccurate.com/2...ed-amds-northern-islands/
madmaxnl schreef op donderdag 04 oktober 2012 @ 00:31:
Het is ondertussen al twee jaar geleden dat CJ van ons heen is gegaan...
Nog steeds missen we zijn input hier ;(
Gelukkig bestaat dit topic nog, we zouden met zijn alleen moeten proberen zijn niveau in kennis en behulpzaamheid te benaderen.

[ Voor 12% gewijzigd door Toettoetdaan op 04-10-2012 10:47 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

@ hierboven. Zeker! Rest in peace CJ. :'( !!

Af en toe was ie ook wel irritant maar mis zijn bijdragen zeer. :'(
Tijd gaat helaas zo snel voorbij....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Toettoetdaan schreef op donderdag 04 oktober 2012 @ 10:44:
[...]

Zoals ik het destijds begreep was het zo:
Origineel wouden ze niet voor een VLIW4 chip gaan, ze hebben hiervoor gekozen omdat ze GCN(1e tape-out) al erg ver ontwikkeld hadden, maar het 32/28nm procedé waar deze voor bedoeld was nog niet beschikbaar was. Om dat een GCN verzie op 40nm te groot zou zijn, zijn ze uitgeweken naar een tussen oplossing tussen VLIW5 en GCN.

Maar het zou ook kunnen dat VLIW4 echt een tussen stap was voor één generatie, naar dat ze uiteindelijk alleen de high-end chip hebben terug geschaald van 32nm naar 40nm.

Het was in de tijd dat TSMC onverwacht het 32nm procedé annuleerde:
http://semiaccurate.com/2...at-amds-northern-islands/
http://semiaccurate.com/2...ed-amds-northern-islands/


[...]

Nog steeds missen we zijn input hier ;(
Gelukkig bestaat dit topic nog, we zouden met zijn alleen moeten proberen zijn niveau in kennis en behulpzaamheid te benaderen.
Dat weet ik allemaal. Ik vraag me inderdaad alleen af of hij echt als een 32nm high end chip bedoelt was. Het kan zo maar zijn dat de andere VLIW4 chips niet door gegaan zijn door dat TSMC 32nm afgekapt heeft. Daar had ik even niet direct over na gedacht. Maar dat zou het kunnen zijn. VLIW4 op 40nm vs VLIW5 op 40nm heeft niet veel voordelen qua die space. Dus low end kaarten zouden dan niet veel sneller worden zonder dat de chips groter zouden worden en het verbruik omhoog zou gaan. Wellicht daarom niet interessant genoeg?

Daarvoor in de plaats hebben we wel Barts gekregen. Wat een duidelijk geoptimaliseerde varriant van Cypress was. Veel beter in balans waardoor de shader power enz beter benut kon worden. Als ze die tech opgeschaald hadden naar iets van 22xx shaders had je ook wel iets leuks gehad :P
Werelds schreef op donderdag 04 oktober 2012 @ 10:00:
[...]
En ik weet vrij zeker dat het feit dat we hem nog steeds niet zijn vergeten (en dat hoogstwaarschijnlijk ook nooit zullen doen) het eerbetoon is dat CJ gewild zou hebben. Het topic loopt nog steeds, we hebben nog steeds lekkere discussies en we proberen zo diep mogelijk op nieuwtjes in te gaan :)

Hij zou ook echt genoten hebben van de veranderingen die Tahiti met zich mee bracht; ik mis nu wel echt z'n posts met nog wat diepere informatie, informatie waar hij toch zo zo'n bronnen voor had :(
Helemaal mee eens! Het topic is er nog steeds en nog in leven. We hebben het nog steeds dezelfde soort discussies. Ik denk dat hij dat wel mooi zou vinden. En dat hij daar blij mee zou zijn.

Dus we moeten denk ik vooral zo door gaan maar dan wel op een nette manier zonder de flamewars en trolls die ook wel eens voorbij gekomen zijn.

[ Voor 6% gewijzigd door Astennu op 04-10-2012 11:35 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

PowerColor brengt nog een Radeon HD 7990 uit.
http://www.powercolor.com/Global/News.asp?id=1167

Bruut geweld aan gpu power. Ik vind deze kaart er ook erg mooi uit zien en
ben zeer nieuwschierig naar de prestaties.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 19:43
Anoniem: 304087 schreef op donderdag 04 oktober 2012 @ 13:07:
PowerColor brengt nog een Radeon HD 7990 uit.
http://www.powercolor.com/Global/News.asp?id=1167

Bruut geweld aan gpu power. Ik vind deze kaart er ook erg mooi uit zien en
ben zeer nieuwschierig naar de prestaties.
Zo te zien dezelfde cooler. Grote kans dat het PCB ook hetzelfde is.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

Radeon HD 7850 and HD 7770 Prices Could React to GTX 650 Ti Launch

Although not across the board, retailers are reportedly fine-tuning prices of Radeon HD 7850 and HD 7770, in anticipation of NVIDIA's upcoming GeForce GTX 650 Ti. Prices of the two SKUs could be re-adjusted to match or beat the price-performance ratio of GTX 650 Ti. According to a report, prices of Radeon HD 7850 1 GB could go down to US $159, Radeon HD 7850 2 GB to $189, and Radeon HD 7770 GHz Edition to $119. It's quite possible that the launch price of GeForce GTX 650 Ti could be in the range of $139 to $149.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-06 20:13

RuddyMysterious

a smorgasbord of waywardness

Des te ergerlijker als ik kijk hoe duur die kaarten nog verkocht worden in .be, godver!

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
DevilsProphet schreef op vrijdag 05 oktober 2012 @ 16:17:
Des te ergerlijker als ik kijk hoe duur die kaarten nog verkocht worden in .be, godver!
Hoewel mijn niet helemaal duidelijk is waar je op doelt, staat er toch echt in de tekst dat de prijzen aangepast zouden kunnen worden als reactie op de introductie van de GTX650Ti. Er staat dus niet dat dat al gebeurt is en dat de shops nog even achterblijven om een grotere marge te pakken.

En al zou dat zo zijn, dan nog is dit niet de plek om je scheldwoorden achter te laten.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-06 20:13

RuddyMysterious

a smorgasbord of waywardness

Toettoetdaan schreef op vrijdag 05 oktober 2012 @ 16:25:
Hoewel mijn niet helemaal duidelijk is waar je op doelt, staat er toch echt in de tekst dat de prijzen aangepast zouden kunnen worden als reactie op de introductie van de GTX650Ti. Er staat dus niet dat dat al gebeurt is en dat de shops nog even achterblijven om een grotere marge te pakken.

En al zou dat zo zijn, dan nog is dit niet de plek om je scheldwoorden achter te laten.
Waar ik op doel is dat de prijzen in .be de eerste ronde van vermindering blijkbaar hebben gemist. Scheelt momenteel gauw 30%, en dat is veel. Als er dan weer een prijsslachting wordt aangekondigd, dan wekt dat bittere gevoelens op, in zoverre dat ik mij daar niet te veel van wil aantrekken natuurlijk.

En als verpropering van mijn woorden van daarjuist: nou, moe! Beter? ;)

Goed, we zullen afwachten of ze hier gaan volgen met de daling der prijzen. Zo niet zal menig groothandelaar eerstdaags wakker worden met een paardenhoofd in zijn bed.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
DevilsProphet schreef op vrijdag 05 oktober 2012 @ 16:42:
[...]

Waar ik op doel is dat de prijzen in .be de eerste ronde van vermindering blijkbaar hebben gemist.
Wat hebben we aan dat soort gejammer?

Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 11-06 16:39

yzx

DevilsProphet schreef op vrijdag 05 oktober 2012 @ 16:42:
[...]

Waar ik op doel is dat de prijzen in .be de eerste ronde van vermindering blijkbaar hebben gemist. Scheelt momenteel gauw 30%, en dat is veel. Als er dan weer een prijsslachting wordt aangekondigd, dan wekt dat bittere gevoelens op, in zoverre dat ik mij daar niet te veel van wil aantrekken natuurlijk.

En als verpropering van mijn woorden van daarjuist: nou, moe! Beter? ;)

Goed, we zullen afwachten of ze hier gaan volgen met de daling der prijzen. Zo niet zal menig groothandelaar eerstdaags wakker worden met een paardenhoofd in zijn bed.
No offence

Maar ik woon in Belgie zelf en al me PC hardware komt ofwel uit Nederland of Duitsland omdat die prijzen hier gewoon gestoord zijn

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
8xxx serie zou nog wel eens tegen gaan vallen als Charlie's bronnen kloppen, wat meestal het geval is.
http://semiaccurate.com/2...test-on-amds-sea-islands/

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Charlie zijn bronnen kloppen inderdaad bijna altijd, behalve als hij kritisch is over nVidia. Dan is hij opeens bevooroordeeld en geïndoctrineerd.

Enfin, dit ziet er dus niet goed uit.

[ Voor 5% gewijzigd door madmaxnl op 11-10-2012 21:14 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik vond het grappig hoe charlie zei dat de nieuwe nvidias beter zouden zijn dan de nieuwe atis maar dit is best wel genegeerd door de fanboys.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
ik vond het grappig hoe charlie zei dat de nieuwe nvidias zwaar onder maats zouden zijn maar dit is best wel genegeerd door de fanboys.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

madmaxnl schreef op donderdag 11 oktober 2012 @ 21:14:
Charlie zijn bronnen kloppen inderdaad bijna altijd, behalve als hij kritisch is over nVidia. Dan is hij opeens bevooroordeeld en geïndoctrineerd.

Enfin, dit ziet er dus niet goed uit.
Ben ik het niet mee eens. Sommige dingen kloppen wel maar sommige dingen ook niet.
Veel negatieve dingen over nvidia kloppen gewoon., vind het alleen bizar dat hij ook positief kan zijn.

Link blijft helaas weer eens hangen.
tomcatha schreef op donderdag 11 oktober 2012 @ 21:29:
ik vond het grappig hoe charlie zei dat de nieuwe nvidias beter zouden zijn dan de nieuwe atis maar dit is best wel genegeerd door de fanboys.
Dus Charlie is in eens een Nvidia fanboy geworden. :+

[ Voor 26% gewijzigd door Anoniem: 304087 op 12-10-2012 12:49 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
madmaxnl schreef op donderdag 11 oktober 2012 @ 22:19:
ik vond het grappig hoe charlie zei dat de nieuwe nvidias zwaar onder maats zouden zijn maar dit is best wel genegeerd door de fanboys.
Mwa, ook hier zegt hij dat GK104 een prima product is: http://semiaccurate.com/2...ng-on-with-nvidias-gk114/

Verder lijkt het dus saai te worden tot maart 2013 en zelfs dan schijnt het saai te worden als beide fabrikanten 15% prestatie winst beloven...

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Niemand zegt ook dat het geen goed product is, enkel een fanboy om te flamen of trollen maar dat zijn dan ook geen nieuws berichten. Wel apart dat het onderwerp over nvidia hier van start is gegaan :+

[ Voor 20% gewijzigd door Anoniem: 304087 op 13-10-2012 10:24 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Anoniem: 304087 schreef op vrijdag 12 oktober 2012 @ 15:36:
Niemand zegt ook dat het geen goed product is, enkel een fanboy om te flamen of trollen maar dat zijn dan ook geen nieuws berichten. Wel aprat dat het onderwerp over nvidia hier van start is gegaan :+
Welk onderwerp? Dat Charlie soms zijn voorkeur uit voor een bepaalde fabrikant of dat de volgende generatie GPU's nog steeds 28nm zijn? Dat lijkt me allemaal wel triviaal. ;)

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 16:30
Dit is een minder leuk verhaal....... http://nl.hardware.info/n...verbruik-videokaarten-aan

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik doelde op voorgaande berichten zoals over de GF100 e.d.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Lees commentaar #5 even.

Zou leuk zijn. De HD7700's die niet aan energie/efficiëntie-eisen voldoen. :P

[ Voor 10% gewijzigd door bwerg op 13-10-2012 12:58 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Jorn1986
  • Registratie: Mei 2004
  • Laatst online: 21:24
spNk schreef op donderdag 11 oktober 2012 @ 20:58:
8xxx serie zou nog wel eens tegen gaan vallen als Charlie's bronnen kloppen, wat meestal het geval is.
http://semiaccurate.com/2...test-on-amds-sea-islands/
Tsjah als dat waar is, maar 30% sneller, dan vindt ik dat eigenlijk nog helemaal niet zo gek, afgaande op dit artikel: Achtergrond: het huwelijk tussen GPU en CPU. Er wordt namelijk onder andere tegen het volgende aan gelopen volgens het artikel:
-Powerwall (koelingsproblemen bij te hoge clocks)
-Memory wall (bij multi-core CPU's, maar in GPU's heb je een gelijkwaardig probleem: steeds meer data van GPU naar geheugen en vice-versa, dus steeds bredere databussen nodig: wanneer komt een 512-bit geheugenbus als ''standaard'' uit? En zo ja: hoe hoog wordt het bijbehorende energieverbruik?)
-Parellelle workloads: niet iedere instructieset kan zo makkelijk omgezet worden naar parallele code, maar dit is meer een probleem van instructiesets van de CPU uitvoeren op de GPU.

En verder: momenteel is het (voor zover de nieuwsberichten hier uitsluitsel over geven) een kwestie van productieproblemen: steeds kleiner wordende transistortjes (<28nm) vergt een steeds nauwkeuriger productieproces, waarbij ook steeds meer fout kan gaan en je mogelijk NIET zoveel chips uit een wafer kan halen, als je zou willen.
Het gevolg is dus dat de prijs omhoog blijft gaan, ondanks dat velen het liefst weer een nieuwe snellere GPU van een volgende generatie wilt dat ~350 euro kost, zoals de HD5870 ooit was rond september 2009 toen ze uitkwamen.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
De redactie bij tweakers zit weer te slapen :(
http://nl.hardware.info/n...verbruik-videokaarten-aan

Winwiz was me voor ;)
Slecht nieuws voor diegene die graag de dikste van de dikste GPU willen hebben.
Persoonlijk ben ik meer van performance/watt performance/euro, maar ik ben benieuwd hoe AMD en Nvidia hierop gaan inspelen:S

jammer van de tegenvallende geruchten van de 8xxx serie. Wellicht dan toch maar een gtx 760 halen ipv een 8870

[ Voor 17% gewijzigd door eL_Jay op 13-10-2012 12:14 ]

Pagina: 1 ... 19 20 Laatste

Dit topic is gesloten.

Let op:
Hou het aub on-topic, dit is een AMD Radeon info & nieuwsdiscussietopic en dus NIET een AMD vs nVidia bashtopic. Tolerantie voor onzinnige ver-pis-vergelijkingen zal erg laag zijn. Kom dus met nieuwe info, ga niet een 1001-keer gevoerde discussie nog eens voeren.