CJ's Radeon Info & Nieuwsdiscussie - Deel 123 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 9 ... 11 Laatste
Acties:
  • 47.664 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
DevilsProphet schreef op dinsdag 24 januari 2012 @ 12:51:
[...]

In het tabelletje gaat de CPU onder load van 73°C bij de referentiekoeler naar 78°C bij het gebruik van de DCU II TOP koeler. In beide situaties is de load dus gelijk (of zou moeten zijn), het verschil is louter te wijten aan het feit dat de referentiekoeler zijn warmte naar buiten blaast. Of ik moest fout zitten en dan sla ik hier even een mal figuur.
Volgens mij heb je gelijk, ik had beter naar de tabel kunnen kijken dan naar de plaatjes. Nu moeten we dus nog een benchmark hebben met: 2x reference, 2x non-reference, reference boven & non-reference onder en non-reference boven en reference onder. :p

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op dinsdag 24 januari 2012 @ 18:28:
Hangt af van de Q&A en die hangt weer af van de launchprijs van Pitcairn. Het is echter wel een leuk punt voor discussie ;)
De prijzen van de 6950 zijn de laatste maanden alleen maar gestegen. Wat echte concurrentie op dat prijsniveau zou wel fijn zijn.

Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Laatst online: 00:35
Anoniem: 245699 schreef op dinsdag 24 januari 2012 @ 22:09:
[...]
Kan het heel anders lopen impliceerde in mijn ogen dat ie verwacht dat de HD7870 wél echt wat sneller gaat zijn dan de HD6970. Voor het gemak maakte ik daar 15% van. Om vervolgens uit te leggen dat dit moeilijk te plaatsen zou zijn in het verloop van de serie van AMD. Mijn conclusie is dus dat ook al zit er GCN in de HD7870, dan nog kan ie niet echt veel sneller zijn dan de HD6970.
Niet helemaal duidelijk van mijn kant misschien.
Ik doelde erop dat een verbeterde 6970 waarschijnlijk 5-10% sneller zou worden, maar nu het GCN wordt kan het net zo goed langzamer (of nog sneller) zijn.
madmaxnl schreef op dinsdag 24 januari 2012 @ 21:46:
[...]
Ze zijn van 2,64 miljard transistors naar 4,31 miljard transistors gegaan, dat is een toenamen van meer dan 60% terwijl de prestatie bijlange na niet in verhouding is met toenamen van de transistors. Hadden ze beter twee Cayman chips aan elkaar kunnen plakken, DX11.1 toevoegen en op 28nm bakken.

Enfin, het ziet er naar uit dat ze een flink pak slaag gaan krijgen. Charlie zegt dat AMD pak slaag krijgt en nVidia zegt dat AMD een pak slaag krijgt. Instant pak slaag ;)
De 7970 is pakweg 40% sneller dan de 6970, toch wel aanzienlijk.
En ja, niet alle extra transistors zijn gebruikt voor meer game performance.


Wat ik meer uit het artikel haal over Nvidia is dat ze verwacht hadden dat de 7970 sneller zou zijn en ze geen kaart eerder uitbrengen omdat ze niet aan die verwachtte performance konden voldoen.
Nu de 7970 niet het übermonster is wat ze dachtten kunnen ze wel een kaart uitbrengen (die misschien sneller is), maar dat betekent niet gelijk dat ie de vloer gaat aanvegen met de 7970 (wat iedereen nu opeens denkt).

Dat zeggen ze ook niet, het enige wat er staat is dat de 7970 niet aan hun verwachtingen voldoet.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Olaf van der Spek schreef op dinsdag 24 januari 2012 @ 23:38:
[...]

De prijzen van de 6950 zijn de laatste maanden alleen maar gestegen. Wat echte concurrentie op dat prijsniveau zou wel fijn zijn.
GTX560Ti en GTX560Ti-448 dan?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Olaf van der Spek schreef op dinsdag 24 januari 2012 @ 23:38:
[...]

De prijzen van de 6950 zijn de laatste maanden alleen maar gestegen. Wat echte concurrentie op dat prijsniveau zou wel fijn zijn.
Komt waarschijnlijk doordat de euro duurder is geworden t.o.v. de dollar. Duurt altijd even voordat de stijging terug is te zien bij prijzen van producten.

[ Voor 10% gewijzigd door madmaxnl op 24-01-2012 23:56 ]


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Olaf van der Spek schreef op dinsdag 24 januari 2012 @ 23:38:
[...]

De prijzen van de 6950 zijn de laatste maanden alleen maar gestegen. Wat echte concurrentie op dat prijsniveau zou wel fijn zijn.
Heeft niks met ontbreken van concurrentie te maken, maar met toeleveranciers die duurder moeten inkopen...
Wat dat betreft is de concurrentie juist vrij sterk in dat segment, want een GTX560 Ti core 448 voor ~255,- is toch echt helemaal zo gek niet. Bijna GTX570 performance voor maar 20,- meer dan een HD6950 2gb, das best oké.

[ Voor 23% gewijzigd door Anoniem: 245699 op 25-01-2012 01:29 ]


Acties:
  • 0 Henk 'm!

  • priemt
  • Registratie: December 2007
  • Niet online
Hier wat benches van de 7950:

http://forums.overclockers.co.uk/showthread.php?t=18366789

Deel van de conclusie:
"Overall the 7950 is great value for money, against an overclocked GTX 580 3GB the 7950 when overclocked is faster in benchmarks and its overclocked game performance should be at least on par with an overclocked GTX 580 3GB gaming performance, so as the card cost less than a 580 3GB, the 7950 is good value."
(ze hebben het over £350 Inc. VAT)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
priemt schreef op woensdag 25 januari 2012 @ 11:47:
Hier wat benches van de 7950:

http://forums.overclockers.co.uk/showthread.php?t=18366789

Deel van de conclusie:
[...]

(ze hebben het over £350 Inc. VAT)
Niet slecht. Ik zag wel iets opmerkelijks:
Hi there

Right some odd Heaven results here:-

7950 @ 925MHz / 5500MHz = 1504 points
7950 on 7970 BIOS @ 925MHz / 5500MHz = 1545 points
7970 @ Stock (925/5500) = 1584 points

So even though according to GPU-Z the shaders are not unlocking, flashing to the Asus 7970 BIOS is definetely giving a performance boost, though its not quite at genuine 7970 performance levels, kind of like half way from the results.

So either some shaders are unlocking or the 7970 BIOS is making other improvements, maybe memory timings etc. which is giving the boost.

Still flashing the BIOS is so easy anyway and it would appear the 7970 BIOS is giving some performance enhancement even when clock speeds are identical.
Ik ben benieuwd of MSI meteen met een TFIII versie op de markt komt :P dan ga ik er wel een testen vs mijn 7970.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Non-OC is hij dus trager dan een GTX 580?
A very impressive card indeed, with a price point in the region £350 Inc. VAT that matches GTX 580 1.5GB pricing and this card matches one for performance but has two bonuses.

[ Voor 30% gewijzigd door Olaf van der Spek op 25-01-2012 12:18 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Olaf van der Spek schreef op woensdag 25 januari 2012 @ 12:13:
[...]

Non-OC is hij dus trager dan een GTX 580?
Ze hebben niet op dezelfde settings getest. Daarnaast alleen heaven gedraaid. En de 580GTX was zwaar overclocked. Dus je kunt het niet goed vergelijken. Beide overclocked is de 7950 duidelijk sneller.

[ Voor 13% gewijzigd door Astennu op 25-01-2012 12:19 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Heeft iedereen er de vorige x nu echt overheen gelezen?
Paprika in "CJ's Radeon Info & Nieuwsdiscussie - Deel 123"
Ik vond dat stuk met 500 kaarten juist zo leuk.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Paprika schreef op woensdag 25 januari 2012 @ 12:41:
Heeft iedereen er de vorige x nu echt overheen gelezen?
Paprika in "CJ's Radeon Info & Nieuwsdiscussie - Deel 123"
Ik vond dat stuk met 500 kaarten juist zo leuk.
Blijkbaar xD nu weet ik wel de OC clocks :) met de Asus bios gaat hij waarschijnlijk harder door het hogere voltage van de 7970.
500 kaarten is niet mis nee. Ik ben benieuwd welke merken en welke coolers we de 31e zullen zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • priemt
  • Registratie: December 2007
  • Niet online
My bad, Vipeax... dubbelop idd.
Ik zou toch zweren dat er een postdate stond van de 25ste (vandaag), vandaar...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
madmaxnl schreef op dinsdag 24 januari 2012 @ 21:11:
Cayman@28nm=Pitcairn ??? Ze kunnen het slechts Cayman@28nm noemen, lol.

Ik vind het namelijk nogal raar dat AMD VLWI4 nu al overboord gooit. Het zal ze namelijk best wel wat geld hebben gekost om van VLWI5 naar VLWI4 te geraken.
Misschien vonden ze het relatief tegen vallen wat de prestatie winst was. Want je hebt te maken met performance die size. (ik zeg niet dat het zo is maar het zou kunnen)
Ik dacht dat Trinity apu's wel een VLIW4 zouden krijgen. Dus in dat geval wordt het nog wel ingezet.

[ Voor 4% gewijzigd door Astennu op 25-01-2012 13:33 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
priemt schreef op woensdag 25 januari 2012 @ 13:12:
My bad, Vipeax dubbelop idd.
Ik zou toch zweren dat er een postdate stond van de 25ste (vandaag), vandaar...
Dubbele posts maakt niet uit. Reden waarom die 500 zo belangrijk is, is dat wat betreft die winkel ze 10x zoveel 7950s zullen hebben bij de launch dan ten tijde van de 7970. Niet genoeg voorbeelden voor een conclusie, maar wel voor de hoop op.... :P

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

nieuws: 'Xbox 720 krijgt gpu op basis van AMD Radeon HD 6670'

AMD Console design win, en ze hebben ook al de WiiU.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Ik hoor daar al langer geruchten over. Al twijfel ik sterk over die Turks chip. Lijkt mij veel te veroudert voor een next gen console die 2013 pas komt. In dat opzicht wat Xenos C1 zijn tijd extreem ver vooruit. Zo iets was er niet eens voor de desktop.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Astennu schreef op woensdag 25 januari 2012 @ 14:41:
[...]


Ik hoor daar al langer geruchten over. Al twijfel ik sterk over die Turks chip. Lijkt mij veel te veroudert voor een next gen console die 2013 pas komt. In dat opzicht wat Xenos C1 zijn tijd extreem ver vooruit. Zo iets was er niet eens voor de desktop.
Vind ik zelf ook maar je moet ook kijken naar de kosten. Turks is super cheap en is al veel krachtiger dan Xenos. Turks zou makkelijk alles op Full-HD kunnen draaien dus dat is het probleem niet zo.

Turks is 118mm2 op 28nm zou die nog maar 58mm2 groot zijn. De TDP van een HD6670 is 66Watt. Barts zou op 28nm 126mm2 groot zijn. Als ik MS was geweest voor een Barts chip gekozen. Enfin, misschien heeft AMD ook alvast een contract voor GlobalFoundries binnen weten te slepen en hebben ze wellicht voor Turks gekozen i.v.m. productie capaciteiten, maar dat lijkt me sterk.

Het kan natuurlijk ook nog gekker. HD6670 kan ook wijzen op Trinity. M.a.w. de Xbox720 krijgt een -custom- Trinity APU.

[ Voor 5% gewijzigd door Edmin op 25-01-2012 14:52 . Reden: MS, thank you ]


Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 23:27
madmaxnl schreef op woensdag 25 januari 2012 @ 14:48:
[...]


Vind ik zelf ook maar je moet ook kijken naar de kosten. Turks is super cheap en is al veel krachtiger dan Xenos. Turks zou makkelijk alles op Full-HD kunnen draaien dus dat is het probleem niet zo.

Turks is 118mm2 op 28nm zou die nog maar 58mm2 groot zijn. De TDP van een HD6670 is 66Watt. Barts zou op 28nm 126mm2 groot zijn. Als ik M$ was geweest voor een Barts chip gekozen. Enfin, misschien heeft AMD ook alvast een contract voor GlobalFoundries binnen weten te slepen en hebben ze wellicht voor Turks gekozen i.v.m. productie capaciteiten, maar dat lijkt me sterk.
ik denk dat ze bij MS wel weten waar ze mee bezig zijn. De 360 kan op dit moment al hele mooie beelden op het scherm toveren en voor Full-HD is dit waarschijnlijk voldoende. Wat de volgende Xbox gaat brengen is nu nog even afwachten wat de standarden tegen die tijd zijn. Wie weet heeft iedereen wel een 4k2k TV thuis hangen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
ArgantosNL schreef op woensdag 25 januari 2012 @ 14:56:
Wie weet heeft iedereen wel een 4k2k TV thuis hangen.
Gezien nu veel mensen full HD hebben en ze daar niet aan voldoen met de huidige consoles, lijkt het me sterk dat ze met zo'n resoluties wel rekening gaan houden. Overigens heb je voor dat soort resoluties minimaal een HD7XXX nodig :P.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
ArgantosNL schreef op woensdag 25 januari 2012 @ 14:56:
[...]

ik denk dat ze bij MS wel weten waar ze mee bezig zijn. De 360 kan op dit moment al hele mooie beelden op het scherm toveren en voor Full-HD is dit waarschijnlijk voldoende.
Full-HD kan de Xbox360 uitzenden, maar er is v.z.i.w. geen enkele game die op Full-HD lekker loopt. Alle games lopen maximaal op de HD-ready resolutie, 720p(1280x720). 1080p is een factor 2,25 meer pixels dan 720p.

[ Voor 12% gewijzigd door madmaxnl op 25-01-2012 15:04 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
madmaxnl schreef op woensdag 25 januari 2012 @ 14:48:
[...]


Vind ik zelf ook maar je moet ook kijken naar de kosten. Turks is super cheap en is al veel krachtiger dan Xenos. Turks zou makkelijk alles op Full-HD kunnen draaien dus dat is het probleem niet zo.

Turks is 118mm2 op 28nm zou die nog maar 58mm2 groot zijn. De TDP van een HD6670 is 66Watt. Barts zou op 28nm 126mm2 groot zijn. Als ik M[mbr]S[/] was geweest voor een Barts chip gekozen. Enfin, misschien heeft AMD ook alvast een contract voor GlobalFoundries binnen weten te slepen en hebben ze wellicht voor Turks gekozen i.v.m. productie capaciteiten, maar dat lijkt me sterk.

Het kan natuurlijk ook nog gekker. HD6670 kan ook wijzen op Trinity. M.a.w. de Xbox720 krijgt een -custom- Trinity APU.
We hebben het wel over de NEXT GEN console. Waar de 360 baanbrekend was met de Xenos. Ben je dat met een Barts GPU nog steeds niet laat staan turks.
Het zou mij niet verbazen als er toch een GCN chip of iets in die richting in zit.

Die console moet weer 10 jaar mee he. We hebben het niet over een chippie wat maar 3 jaar mee moet. Nee we moeten weer 10 jaar wachten op een opvolger.

Volgens meerdere bronnen hebben ze IBM weer gevraagd om het CPU gedeelte te regelen en te bakken. Dus een Power PC chip.
ArgantosNL schreef op woensdag 25 januari 2012 @ 14:56:
[...]

ik denk dat ze bij MS wel weten waar ze mee bezig zijn. De 360 kan op dit moment al hele mooie beelden op het scherm toveren en voor Full-HD is dit waarschijnlijk voldoende. Wat de volgende Xbox gaat brengen is nu nog even afwachten wat de standarden tegen die tijd zijn. Wie weet heeft iedereen wel een 4k2k TV thuis hangen.
We gaan wel naar 4K toe. Het zal nog wel even duren voordat dat echt doorbreekt maar zoals ik al zij zo'n console gaat bijna 10 jaar mee. Tegen die tijd is 4K2 misschien wat 1080P nu is. Het heeft ook erg lang geduurd voordat 1080p echt door is gebroken en dat alle tv's midrange het hebben.
Paprika schreef op woensdag 25 januari 2012 @ 14:58:
[...]

Gezien nu veel mensen full HD hebben en ze daar niet aan voldoen met de huidige consoles, lijkt het me sterk dat ze met zo'n resoluties wel rekening gaan houden. Overigens heb je voor dat soort resoluties minimaal een HD7XXX nodig :P.
Ze kunnen bij games kiezen tussen 720p of 1080p. De veel zijn volgens mij voor 720p gemaakt. Ik hoop toch wel dat ze een beetje in de toekomst kijken als ze een product maken wat 10 jaar mee moet gaan.
madmaxnl schreef op woensdag 25 januari 2012 @ 15:02:
[...]


Full-HD kan de Xbox360 uitzenden, maar er is v.z.i.w. geen enkele game die op Full-HD lekker loopt.
Ze zijn er volgens mij wel maar het zijn er niet veel. Dat zal ook wel tekenkosten gegaan zijn van details.
Anyway. De Xenox C1 was veel complexer. En krachtiger voor die tijd. Daarnaast had je dat speciale stukje geheugen wat NEC maakte wat kon zorgen voor Free AA. En dan zou je in de nieuwe 360 een na genoeg Low midrange Turks gputje gebruiken 8)7 dan faalt dat ding na 2-3 jaar al weer.

De C1 was serieus snel voor zijn tijd. Toen die uit kwam was de X800 XT de snelste kaart. Ik denk dat C1 qua performance daar heel dicht op zat. Hij had in ieder geval veel meer features (C1 had bepaalde features die later in DX9c en DX10 uitkwamen voor desktop kaarten. En had bv al een tesselation unit) en was door universal shaders flexibeler.

[ Voor 14% gewijzigd door Astennu op 25-01-2012 15:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 31-05 00:05
Is er nou niemand die er bij stil staat dat het tegenwoordig gewoon niet meer mogelijk is om een high-end GPU in een console in te bouwen?

Toen de xbox 360 ontwikkeld werd verbruikten de High-end videokaarten maar de helft van wat ze nu doen en zelfs toen had MS al problemen met de warmte ontwikkeling bij de eerste revisies van de xbox 360.
Ik denk eerlijk gezegd dus dat een high-end GPU gewoon geen optie meer is, zelfs een 6870 verbruikt al meer dan een hele xbox 360 slim.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Als een HD7870 (bijvoorbeeld) maar 100W slurpt, is dat natuurlijk best te doen.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Redblader schreef op woensdag 25 januari 2012 @ 15:09:
Is er nou niemand die er bij stil staat dat het tegenwoordig gewoon niet meer mogelijk is om een high-end GPU in een console in te bouwen?

Toen de xbox 360 ontwikkeld werd verbruikten de High-end videokaarten maar de helft van wat ze nu doen en zelfs toen had MS al problemen met de warmte ontwikkeling bij de eerste revisies van de xbox 360.
Ik denk eerlijk gezegd dus dat een high-end GPU gewoon geen optie meer is, zelfs een 6870 verbruikt al meer dan een hele xbox 360 slim.
Een oude Xbox zat volgens mij rond de 180-190 watt. Dat is gelijk aan een High performance Gaming laptop. En ik denk dat je zo iets in het begin ook weer mag verwachten. Dat is ongeveer ook wat een PS3 in het begin nodig had. En je kunt prima een High end gpu gebruiken met next gen technieken.

Inderdaad niet meer zoals toen. Maar die kaarten zijn nu ook meer enthusiast market geworden. Zo iets als Barts is nog wel te doen als je op de clockspeeds let. Zeker met 28nm. Barts op 28nm zou een erg mooi voorbeeld zijn. Die maken ze dan op 28nm dan dan zit het verbruik al aanzienlijk lager.

En ik de jaren die daar na komen gaan ze naar 22nm en 14nm.
Format-C schreef op woensdag 25 januari 2012 @ 15:13:
Als een HD7870 (bijvoorbeeld) maar 100W slurpt, is dat natuurlijk best te doen.
Misschien ietsjes minder. Als het totaal inderdaad maar rond de 190 max zit.
3XPER7 schreef op woensdag 25 januari 2012 @ 15:15:
[...]


Ik zou er niet op rekenen ;)

Afijn, in theorie zou een HD6770 / HD5770 @ 28nm wel iets leuks neer kunnen zetten qua verbruik en performance, maar misschien kijken ze wel extra naar kosten en hebben ze liever iets wat ik 40nm nog acceptabel betaalbaar is.
6770 is al aanzienlijk beter dan een turks chippie.
Tja als de Xbox 720 een soort van WII wordt laat ik em links liggen. Ik vind het prima 400 euro voor een console te betalen als de GFX maar mooi is. Als het er niet uit ziet hoef ik het niet heb ik er ook geen lol van. Dan heb ik liever me extreem dure pc met super mooie GFX.

De 360 koste ook aardig wat bij launch. Inmiddels niet meer door alle die shrinks. Maar die had mooiere GFX dan PC's van die tijd en de 2 jaren daar na. Toen pas haalde de pc de 360 en dan ook amper. Je moest wel een pc van meer dan 1200 euro hebben.

[ Voor 32% gewijzigd door Astennu op 25-01-2012 15:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Format-C schreef op woensdag 25 januari 2012 @ 15:13:
Als een HD7870 (bijvoorbeeld) maar 100W slurpt, is dat natuurlijk best te doen.
Ik zou er niet op rekenen ;)

Afijn, in theorie zou een HD6770 / HD5770 @ 28nm wel iets leuks neer kunnen zetten qua verbruik en performance, maar misschien kijken ze wel extra naar kosten en hebben ze liever iets wat ik 40nm nog acceptabel betaalbaar is.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Op beide consoles is het aantal AAA games dat native 1080p doet letterlijk op 1 hand te tellen. Het is in 99% van de gevallen upscaling. Volgens mij is het zo goed als beperkt tot Virtua Tennis 3, Fifa Street 3 en Sacred 2 (en een aantal demo's op de PS3, waarvan retail vervolgens wel weer <720p is :7). Voor de rest zijn de enige native 1080p games PSN titels of dingen zoals God of War 1/2 op de PS3 (wat dus PS2 games zijn - die mogen ook wel 1080p kunnen draaien).

En zelfs met 720p hebben ze vervolgens nog moeite in sommige games.

Acties:
  • 0 Henk 'm!

  • ArgantosNL
  • Registratie: Maart 2010
  • Laatst online: 23:27
Paprika schreef op woensdag 25 januari 2012 @ 14:58:
[...]

Gezien nu veel mensen full HD hebben en ze daar niet aan voldoen met de huidige consoles, lijkt het me sterk dat ze met zo'n resoluties wel rekening gaan houden. Overigens heb je voor dat soort resoluties minimaal een HD7XXX nodig :P.
met volgende xbox bedoelde ik de opvolger van de 720. Maar voor Full-HD kunnen we met een HD6670 wel vooruit lijkt mij.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Werelds schreef op woensdag 25 januari 2012 @ 15:19:
En zelfs met 720p hebben ze vervolgens nog moeite in sommige games.
Sterker nog, de meeste 360 games draaien helemaal niet op 720p. Ze draaien op een lagere resolutie die door de 360 upscaled wordt naar 720p. Als je dan een 1080p TV hebt upscaled die het nog eens een keer naar 1080p. Daar wordt het allemaal niet mooier van, maar 360 games hebben door de beperkte hoeveelheid geheugen en opslagruimte op de DVD over het algemeen ook textures op een vrij lage resolutie, dus het valt niet zo op.

Hoe dan ook, de huidige generatie consoles is niet krachtig genoeg om met de huidige graphics 720p te halen, laat staan 1080p. De volgende generatie moet dus een bak sneller zijn (en meer geheugen hebben) om dat voor elkaar te krijgen. 4k Kun je echt vergeten, dat zal niet eerder dan de generatie daarna zijn.

Een 6670 lijkt mij nogal traag voor een console die in 2013 uit moet komen, maar het stroomverbruik van een high-end gpu is wel een probleem. Maar, het budget (financieel) is wel beperkter dan bij de 360. Toendertijd konden er nog honderden miljoenen in r&d voor de nieuwe console gestoken worden, in deze crisisjaren kunnen zowel Microsoft als Sony zich dat niet meer veroorloven.

Het zou mij niet verbazen als de x720/PS3 de eerste generatie consoles wordt die op het moment dat ze uitkomen al trager zijn dan de high-end PC's van dat moment. Ik hoop maar van niet, dan zouden de graphics op de PC over een paar jaar nog veel erger beperkt worden door de hardware van consoles dan nu het geval is. :X

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

madmaxnl schreef op dinsdag 24 januari 2012 @ 23:55:
[...]


Komt waarschijnlijk doordat de euro duurder is geworden t.o.v. de dollar. Duurt altijd even voordat de stijging terug is te zien bij prijzen van producten.
Ik neem aan dat je het omgekeerde bedoelt?

Dat de euro minder waard is geworden tov de dollar? De euro is minder waard, wat inhoudt dat we meer moeten betalen voor producten die we in dollars betalen:

Afbeeldingslocatie: http://tweakers.net/ext/f/k5s4K1rnrUDPddYhjVb9iBfC/full.png

Hoe het ook zei; wat je bedoelde is duidelijk, en dat klopt. Dat duurt ff.

[ Voor 6% gewijzigd door Format-C op 25-01-2012 16:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • fynrd1
  • Registratie: November 2009
  • Laatst online: 22-05 06:58

fynrd1

Fooled by Randomness

Format-C schreef op woensdag 25 januari 2012 @ 16:59:
[...]

Ik neem aan dat je het omgekeerde bedoelt?

Dat de euro minder waard is geworden tov de dollar? De euro is minder waard, wat inhoudt dat we meer moeten betalen voor producten die we in dollars betalen:

[afbeelding]

Hoe het ook zei; wat je bedoelde is duidelijk, en dat klopt. Dat duurt ff.
En dan ook nog rekening houden met inflatie van de dollar... Wordt wat de komende jaren.. :(

||| F1-aeroblog || Battlelog |||


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Dat met name. Momenteel zitten beide consoles al een jaar of 5 helemaal vol.

Overigens moeten we niet naar "Xenos 2.0" kijken alsof het een desktop chip is. Xenos mag dan wel een R520 basis hebben met wat R600 features, qua performance kun je het niet vergelijken. Alles is op elkaar afgestemd; voor sommige dingen zijn ook speciale stukjes hardware beschikbaar. Zo heeft de 360 bijvoorbeeld twee dies (parent + daughter) - de daughter die bestaat hierbij uit de ROPs en 10MB EDRAM. De bandbreedte tussen deze en de graphics die is maar liefst 32GB/s; naar het RAM toe is dat maar 22,4 - tussen EDRAM en ROPs is er zelfs 256GB/s (het probleem is alleen dat het dus maar 10 MB is - daar krijg je 1080p/4xAA niet eens in gepropt). Gevolg is dat je het RAM alleen hoeft te gebruiken voor (relatief) statische read-only data (textures, bijvoorbeeld). Daarnaast zit de southbridge bijvoorbeeld niet tussen de CPU en GPU, waardoor je daar ook weer wat mogelijkheden hebt. In elke console zie je dat er dingen zijn die "wij" niet hebben, of dat er dingen elders worden gedaan dan in de GPU.

Dat is waarom een 360 krachtiger is dan een mid-end PC uit die tijd, maar toch goedkoper. Het ding is echter gemaakt zonder enige toekomst visie, er zijn op enkele punten bespaard waar men juist niet had moeten besparen.

Ik wacht wel fijn af, want als AMD weer een Xenos neerzet kan het allemaal nog wel eens anders uitpakken; Xenos is simpelweg niet te vergelijken met welke desktop chip dan ook. Er zitten elementen van R520 in, er zitten dingen in die ook in R600 (en latere chips) terug kwamen - maar in z'n geheel is het een heel uniek beest :P
Sterker nog, sommige dingen in de 360 zouden zelfs nu op de desktop nog geweldig zijn; het is alleen jammer dat we op de PC met veel te veel diversiteit zitten en zoiets als EDRAM nooit zou werken.


Disclaimer: het bovenstaande geldt even goed voor de PS3 met z'n RSX, ook daar zijn zulke geinigheden uitgehaald.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

AMD 12.1 WHQL:

http://forums.guru3d.com/...php?p=4229311&postcount=1

Geen 7970 support... :| En het is een driver die dezelfde is als die van 5 december, maar dan WHQL. :|

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Zanac-ex
  • Registratie: Februari 2011
  • Laatst online: 23:55
Werelds schreef op woensdag 25 januari 2012 @ 17:29:
[...]


Sterker nog, sommige dingen in de 360 zouden zelfs nu op de desktop nog geweldig zijn; het is alleen jammer dat we op de PC met veel te veel diversiteit zitten en zoiets als EDRAM nooit zou werken.
Bitboys anyone? De EDRAM pioneers zaten heel dichtbij een PC product dat kwa specs superieur was aan de concurentie.

http://www.graphicshardware.org/previous/www_1999/presentations/glaze3d.pdf

Originally, Glaze3D was designed as a high-end chip with 9 MB of embedded DRAM on a 512-bit internal bus. Running at 150 MHz, the original Glaze3D would have provided a fill-rate of 600 Mpixels/sec with dual texturing. Having developed environmental bump mapping, this was an included feature, as was the support for multi-chip solutions.

Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:29

Nox

Noxiuz

Format-C schreef op woensdag 25 januari 2012 @ 16:59:
[...]

Ik neem aan dat je het omgekeerde bedoelt?

Dat de euro minder waard is geworden tov de dollar? De euro is minder waard, wat inhoudt dat we meer moeten betalen voor producten die we in dollars betalen:

[afbeelding]

Hoe het ook zei; wat je bedoelde is duidelijk, en dat klopt. Dat duurt ff.
En dan nog te bedenken dat de euro wel eens 1,60 dollar waard was. Is eventjes een 7970 voor 400 euro ipv 485 euro ;)

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Format-C schreef op woensdag 25 januari 2012 @ 18:04:
AMD 12.1 WHQL:

http://forums.guru3d.com/...php?p=4229311&postcount=1

Geen 7970 support... :| En het is een driver die dezelfde is als die van 5 december, maar dan WHQL. :|
Geen 7970 support huh?? 8)7

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
De WHQL drivers komen toch altijd een maand later dan de normale drivers?

Acties:
  • 0 Henk 'm!

  • Relief2009
  • Registratie: December 2009
  • Laatst online: 24-06-2024
Ik vind dat mensen nogal overdrijven. Ja de consoles zijn verouderd en ze draaien allemaal niet op 1080P maar ik vind het niveau van graphics zoals de Uncharted serie indrukwekkend voor hardware uit 2005-2006. De 6670 mag dan verouderd zijn tegenover huidige pc kaarten, maar door verregaande optimalisatie zul je straks op de nieuwe xbox mooiere spellen kunnen spellen dan wat op pc mogelijk is in dezelfde periode.

We kunnen wel over specs praten, maar waar het om draait straks is in hoeverre ontwikkelaars gebruik kunnen maken van de rauwe kracht van een videokaart. Voor pc-spellen is dit helaas beperkt itt consoles waar op laag niveau gecodeerd wordt. We kunnen wel van alles roepen, maar de feiten zijn dat ondanks onze snellere kaarten de consoles straks een stuk mooier beeld zullen kunnen toveren.
Format-C schreef op woensdag 25 januari 2012 @ 18:04:
AMD 12.1 WHQL:

http://forums.guru3d.com/...php?p=4229311&postcount=1

Geen 7970 support... :| En het is een driver die dezelfde is als die van 5 december, maar dan WHQL. :|
12.1 is veels te vroeg voor de 7000-serie. Ik gok dat ze pas met de release van de 7950 volledige support voor de 7000-serie willen introduceren.

12.3 preview waarschijnlijk?

[ Voor 30% gewijzigd door Relief2009 op 25-01-2012 23:31 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik vind zelf ook een chip of 6670 basis erg aan de lage kant. Er kan zeker toch wat beters uitkomen op 28nm basis dan dat?
Toen de 360 uitkwam was de 8800gtx al uit en die was wel 40% sneller en die vebruikte ook veel met 175 watt. Er van uit gaand dat een console gpu ongeveer 100watt maximaal mag gebruiken en we gaan kijken naar de laatste generatie 40nm chips.(de xbox gpu zal waarschijnlijk ook een van de laatste chips op 28nm zijn) komen uit op ongeveer 6750-6770 niveau. Vergelijkbaar zal toch wel mogelijk zijn?

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Relief2009 schreef op woensdag 25 januari 2012 @ 23:23:
Ik vind dat mensen nogal overdrijven. Ja de consoles zijn verouderd en ze draaien allemaal niet op 1080P maar ik vind het niveau van graphics zoals de Uncharted serie indrukwekkend voor hardware uit 2005-2006. De 6670 mag dan verouderd zijn tegenover huidige pc kaarten, maar door verregaande optimalisatie zul je straks op de nieuwe xbox mooiere spellen kunnen spellen dan wat op pc mogelijk is in dezelfde periode.

We kunnen wel over specs praten, maar waar het om draait straks is in hoeverre ontwikkelaars gebruik kunnen maken van de rauwe kracht van een videokaart. Voor pc-spellen is dit helaas beperkt itt consoles waar op laag niveau gecodeerd wordt. We kunnen wel van alles roepen, maar de feiten zijn dat ondanks onze snellere kaarten de consoles straks een stuk mooier beeld zullen kunnen toveren.
Zo simpel is het helaas niet. Optimalisaties op de console kunnen een hoop goed maken, maar het duurt jaren voordat je daarmee het onderste uit de kan kunt halen: dat is de reden dat de graphics op de console in de loop der jaren beter worden, op dezelfde hardware. Dat betekent dat als de volgende generatie uitkomt het verschil in optimalisatie tussen de console en de PC vrij klein zal zijn. Toen de 360 werd gelanceerd was de Xenos sneller dan de snelste high-end PC graka's die op dat moment te krijgen waren. In combinatie met de (toen nog) beperkte optimalisaties zorgde dat er voor dat 360 games er meteen al goed uit zagen.

Met een console-GPU waarvan het ontwerp bij de launch twee jaar oud is red je dat niet, dan heb je optimalisaties nodig om de PC bij te kunnen benen. In de loop der jaren zullen de optimalisaties beter worden, maar de betere hardware op de PC zal het verschil groter en groter maken. Gezien het feit dat veel games van de console naar de PC geport worden en de graphics daarbij niet of nauwelijks verbeterd worden is dat een situatie waar ik niet op zit te wachten.

Maar om heel eerlijk te zijn zou me dat enorm verbazen, de budgetten zijn dan wel beperkt maar twee jaar oud is wel heel erg. Ik denk eerder aan een custom design waarbij de r&d van de 6000 serie de basis heeft gevormd. Daarnaast zou ik voor de release eerder op voorjaar 2013 gokken. Maar goed, dat is echt koffiedik kijken, dus vooral niet te veel waarde aan hechten. ;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Format-C schreef op woensdag 25 januari 2012 @ 18:04:
AMD 12.1 WHQL:

http://forums.guru3d.com/...php?p=4229311&postcount=1

Geen 7970 support... :| En het is een driver die dezelfde is als die van 5 december, maar dan WHQL. :|
Mja dat wist je dan al want de 12.1 had geen HD79xx support. Dus had dan ook niet verwacht dat dit er ineens wel in zou zitten bij de WHQL versie. Dat zal bij 12.2 wel zijn.Ik hoop dat AMD voorlopig nieuwe RC drivers op de site blijft zetten.
Het duurt 3 maanden voordat een driver WHQL is. Daarnaast had de 12.1 preview al geen support. Dus waarom de WHQL wel?
Er staat bij de site van AMD dat HD7900 users nog steeds de RC drivers moeten gebruiken. Ze zijn deze keer dus later met WHQL drivers.
Relief2009 schreef op woensdag 25 januari 2012 @ 23:23:
Ik vind dat mensen nogal overdrijven. Ja de consoles zijn verouderd en ze draaien allemaal niet op 1080P maar ik vind het niveau van graphics zoals de Uncharted serie indrukwekkend voor hardware uit 2005-2006. De 6670 mag dan verouderd zijn tegenover huidige pc kaarten, maar door verregaande optimalisatie zul je straks op de nieuwe xbox mooiere spellen kunnen spellen dan wat op pc mogelijk is in dezelfde periode.

We kunnen wel over specs praten, maar waar het om draait straks is in hoeverre ontwikkelaars gebruik kunnen maken van de rauwe kracht van een videokaart. Voor pc-spellen is dit helaas beperkt itt consoles waar op laag niveau gecodeerd wordt. We kunnen wel van alles roepen, maar de feiten zijn dat ondanks onze snellere kaarten de consoles straks een stuk mooier beeld zullen kunnen toveren.


[...]


12.1 is veels te vroeg voor de 7000-serie. Ik gok dat ze pas met de release van de 7950 volledige support voor de 7000-serie willen introduceren.

12.3 preview waarschijnlijk?
Ja klopt die GFX is indrukwekkend maar wat je vergeet is dat de Xbox 360 uit 2003 toen de tijd een state of the art GPU had. Waar de 6670 dat op dit moment echt niet is. en ook nooit geweest is.
tomcatha schreef op woensdag 25 januari 2012 @ 23:59:
Ik vind zelf ook een chip of 6670 basis erg aan de lage kant. Er kan zeker toch wat beters uitkomen op 28nm basis dan dat?
Toen de 360 uitkwam was de 8800gtx al uit en die was wel 40% sneller en die vebruikte ook veel met 175 watt. Er van uit gaand dat een console gpu ongeveer 100watt maximaal mag gebruiken en we gaan kijken naar de laatste generatie 40nm chips.(de xbox gpu zal waarschijnlijk ook een van de laatste chips op 28nm zijn) komen uit op ongeveer 6750-6770 niveau. Vergelijkbaar zal toch wel mogelijk zijn?
Laten we er maar over op houden want straks komt er wel een HD7xxx vergelijkbare chip met GCN in te zitten. Dit zijn allemaal maar geruchten. Zodra die eerste samples voor defs worden uitgeleverd weten we mogelijk meer. En dat zou pas eind dit jaar gebeuren.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Astennu schreef op donderdag 26 januari 2012 @ 07:50:
[...]


Mja dat wist je dan al want de 12.1 had geen HD79xx support. Dus had dan ook niet verwacht dat dit er ineens wel in zou zitten bij de WHQL versie. Dat zal bij 12.2 wel zijn.Ik hoop dat AMD voorlopig nieuwe RC drivers op de site blijft zetten.
12.2 previews ondersteunen HD7970 ook niet...

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Format-C schreef op donderdag 26 januari 2012 @ 08:15:
[...]

12.2 previews ondersteunen HD7970 ook niet...
Klopt staat ook in diezelfde post van mij. Ietsjes lager. Ze zijn deze keer aanzienlijk later met de WHQL drivers. Ik vraag me af waardoor dat gekomen is. Bij de 6970 waren die er volgens mij meteen. (er waren toen al drivers met 6970 support als ik me niet vergis maar ik kan er ook helemaal naast zitten).

Persoonlijk maakt het mij niet veel uit met de 04 jan drivers heb ik zelf geen problemen gehad. heb gister de 19 jan drivers geïnstalleerd (die RC11's). Wat meer performance vind ik natuurlijk nooit erg :P

[ Voor 19% gewijzigd door Astennu op 26-01-2012 08:37 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Anoniem: 59888 schreef op donderdag 26 januari 2012 @ 04:24:
[...]

Zo simpel is het helaas niet. Optimalisaties op de console kunnen een hoop goed maken, maar het duurt jaren voordat je daarmee het onderste uit de kan kunt halen: dat is de reden dat de graphics op de console in de loop der jaren beter worden, op dezelfde hardware. Dat betekent dat als de volgende generatie uitkomt het verschil in optimalisatie tussen de console en de PC vrij klein zal zijn. Toen de 360 werd gelanceerd was de Xenos sneller dan de snelste high-end PC graka's die op dat moment te krijgen waren. In combinatie met de (toen nog) beperkte optimalisaties zorgde dat er voor dat 360 games er meteen al goed uit zagen.

Met een console-GPU waarvan het ontwerp bij de launch twee jaar oud is red je dat niet, dan heb je optimalisaties nodig om de PC bij te kunnen benen. In de loop der jaren zullen de optimalisaties beter worden, maar de betere hardware op de PC zal het verschil groter en groter maken. Gezien het feit dat veel games van de console naar de PC geport worden en de graphics daarbij niet of nauwelijks verbeterd worden is dat een situatie waar ik niet op zit te wachten.

Maar om heel eerlijk te zijn zou me dat enorm verbazen, de budgetten zijn dan wel beperkt maar twee jaar oud is wel heel erg. Ik denk eerder aan een custom design waarbij de r&d van de 6000 serie de basis heeft gevormd. Daarnaast zou ik voor de release eerder op voorjaar 2013 gokken. Maar goed, dat is echt koffiedik kijken, dus vooral niet te veel waarde aan hechten. ;)
Ze zullen er wel een (goeie) reden voor hebben lijkt me.. Anders, why should we care? ^^ PC-gaming #ftw he :Y

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
3XPER7 schreef op donderdag 26 januari 2012 @ 10:14:
[...]


Ze zullen er wel een (goeie) reden voor hebben lijkt me.. Anders, why should we care? ^^ PC-gaming #ftw he :Y
Op dit moment is er nog niets zeker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:29

Nox

Noxiuz

Even een feilloze crosspost uit mobo's en procs maar hoort toch echt hier thuis :P

Iemand enig idee hoe de befaamde Kepler het gaat doen tegenover een 7950/7970? Op sommige sites weet je de fanboys en dwangneurotische optimisten amper te onderscheiden van rationele reaguurders, zoals hier op SA:
http://semiaccurate.com/2...dia-keplergk104-price-is/
Nvidia world iconWe hear that Nvidia (NASDAQ:NVDA) has sent out Kepler pricing to AIBs in the far east, or will once the New Year party dies down. A few green-tinged moles, we think it’s the New Year’s celebratory hair dye, tell SemiAccurate that the initial Kepler/GK104 cards will be priced around the $299 mark. This should tell you quite a bit about how large the silicon is, but not necessarily what it will be marketed as.

There are two caveats to this number that you should be aware of. First, this is the initial round of pricing, and as we know, they do change, volume, yields etc. Second, it could well be a red herring to try and crater AMD 79xx sales, even given the number of sources that gave us the same number. Lets see how long it takes for the echo chamber to ‘independently confirm’ this one.S|A
Persoonlijk ga ik me enorm kut voelen als ik straks begin februari een 7950 voor 375-400 euro op de kop tik en hij nog geen 2 maanden later onder de 300 euro knalt. Maar ik weet natuurlijk niet wat er van die nvidia terecht komt. Met de GTX580 waren ze erg concurrerend bijvoorbeeld.

In het verleden behaalde resultaten waren op prestatie/watt overigens minder goed, daar scoren veel nvidia's erg slecht. Zag laatst een mooie grafiek met aan de top 5 alleen AMD's.

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

@ Astennu

Ik vind het gewoon vreemd dat men die ondersteuning niet bied voor een kaart die ze dus wel uit hebben gebracht.
Ik was er gewoon verbaast over, verder wil ik ook geen flame war starten maar vraag me gewoon af of dit bij de concurrent ook zo gaat of niet.
Persoonlijk ga ik me enorm kut voelen als ik straks begin februari een 7950 voor 375-400 euro op de kop tik en hij nog geen 2 maanden later onder de 300 euro knalt. Maar ik weet natuurlijk niet wat er van die nvidia terecht komt. Met de GTX580 waren ze erg concurrerend bijvoorbeeld.
Welkom in de hardware wereld, helaas komt dit wel vaker voor, heb dat ook ooit mee gemaakt ten tijde van de 8800 serie van NVIDIA, en dat was even pijnlijk maar goed dit hoort er wel bij.
En de GTX 580 erg concurrerend, ja kwa pure prestaties was hij goed maar kwa prijs/prestatie tov de concurrentie?
Ben zelf ook enorm benieuwd naar wat ze gaan neer zetten met de aankomende serie.

[ Voor 57% gewijzigd door pino85 op 26-01-2012 10:32 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

Eigenlijk komt het erop neer dat WHQL drivers van AMD waardeloos zijn, omdat ze maanden oud zijn.

Als je de beste drivers wilt hebben, moet je dus zowieso niet de WHQL's hebben, want die lopen vreselijk achter de feiten aan.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Ik snap niet waarom mensen zo ongelovig zijn dat een HD6670 voldoende prestaties zou leveren. Niet vergeten dat:
1) de huidige top-end GPU's telkens meer en meer zijn beginnen verbruiken, ver buiten de strakke lijnen die voor een console qua verbruik worden getrokken.
2) die chip zoveel maal sterker is dan de huidige grafische chip, dus het is wel degelijk een vooruitgang.
3) de vereisten van een console veel lager zijn dan van de huidige top-end pc's, en niet omdat er meer uit consolehardware te persen valt, maar omdat een consolegebruiker sneller de graphics "mooi" vindt en dat daarom op een console FullHD met bij elke game grafische settings lager dan maximum en al zeker zonder een shitload aan AA en andere mooimakende zooi die GPU al gauw voldoende prestaties weet te leveren.

Mij lijkt het gebruik van de HD6670 in de nieuwe xbox dus aannemelijk, behalve misschien dat ze verouderde architectuur plannen te gebruiken. Een nieuwere architectuur bezit waarschijnlijk meer potentieel. Alhoewel een VLIW5 GPU met het oog op backwards compatibility wel een goeie keus zou kunnen zijn, aangezien die op laag niveau compatibel zou kunnen zijn met de huidige xbox en dus xbox 360 games, en wie weet krijgen de bestaande games een patch om op de nieuwe xbox te kunnen draaien met hogere settings zodat de speler eindelijk the full monty te zien krijgt.

Maar soit, ik geef toe dat ik er weinig diepgaande kennis over bezit, en dit is dus puur gemijmer.

Acties:
  • 0 Henk 'm!

  • Nox
  • Registratie: Maart 2004
  • Laatst online: 00:29

Nox

Noxiuz

Of je nou met je sufferd op 1 armlengte (50/60cm?) of 3-5 meter op 1080p zit maakt heel wat uit :)

Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Format-C schreef op donderdag 26 januari 2012 @ 10:38:
Eigenlijk komt het erop neer dat WHQL drivers van AMD waardeloos zijn, omdat ze maanden oud zijn.
Zelfde geldt voor nVidia hoor. Het duurt gewoon een poosje voor een WHQL rond is en dan zijn er al weer nieuwe verbeteringen. Bij nVidia moet je toch ook de beta drivers hebben voor de laatste optinalisaties? Ik snap eerlijk gezegd niet waarom er wederom over drivers gezanikt moet worden..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
NoxiuZ schreef op donderdag 26 januari 2012 @ 10:21:
Even een feilloze crosspost uit mobo's en procs maar hoort toch echt hier thuis :P

Iemand enig idee hoe de befaamde Kepler het gaat doen tegenover een 7950/7970? Op sommige sites weet je de fanboys en dwangneurotische optimisten amper te onderscheiden van rationele reaguurders, zoals hier op SA:
http://semiaccurate.com/2...dia-keplergk104-price-is/


[...]


Persoonlijk ga ik me enorm kut voelen als ik straks begin februari een 7950 voor 375-400 euro op de kop tik en hij nog geen 2 maanden later onder de 300 euro knalt. Maar ik weet natuurlijk niet wat er van die nvidia terecht komt. Met de GTX580 waren ze erg concurrerend bijvoorbeeld.

In het verleden behaalde resultaten waren op prestatie/watt overigens minder goed, daar scoren veel nvidia's erg slecht. Zag laatst een mooie grafiek met aan de top 5 alleen AMD's.
GTX480 anyone? super duur en in no time 150-200 euro goedkoper. Dit heet volgens mij gewoon markt werking. Als nVidia de prijzen van zijn GTX580 nu ineens met 100 euro om laag doet. Zal de 7970 ook goedkoper worden.

Dit is altijd zo geweest,. Jaren terug kon een kaart ook ineens 50-100 euro goedkoper worden. Het gebeurd niet dagelijks maar het kwam zeker wel eens voor. Soms waren er meerdere stappen van 20-30 euro die in een half jaar kwamen.
pino85 schreef op donderdag 26 januari 2012 @ 10:29:
@ Astennu

Ik vind het gewoon vreemd dat men die ondersteuning niet bied voor een kaart die ze dus wel uit hebben gebracht.
Ik was er gewoon verbaast over, verder wil ik ook geen flame war starten maar vraag me gewoon af of dit bij de concurrent ook zo gaat of niet.


[...]


Welkom in de hardware wereld, helaas komt dit wel vaker voor, heb dat ook ooit mee gemaakt ten tijde van de 8800 serie van NVIDIA, en dat was even pijnlijk maar goed dit hoort er wel bij.
En de GTX 580 erg concurrerend, ja kwa pure prestaties was hij goed maar kwa prijs/prestatie tov de concurrentie?
Ben zelf ook enorm benieuwd naar wat ze gaan neer zetten met de aankomende serie.
Volgens mij is dat bij nVidia niet anders. In het verleden heeft AMD in ieder geval regelmatig WHQL bij launch gehad. Maar ook een aantal keer niet. De afgelopen keren (met HD48xx, HD58xx en de HD69xx hadden ze ze volgens mij wel. Al weet ik het bij de 6970 niet zeker meer.
Format-C schreef op donderdag 26 januari 2012 @ 10:38:
Eigenlijk komt het erop neer dat WHQL drivers van AMD waardeloos zijn, omdat ze maanden oud zijn.

Als je de beste drivers wilt hebben, moet je dus zowieso niet de WHQL's hebben, want die lopen vreselijk achter de feiten aan.
Ligt er aan wat je belangrijker vind. Ik vind elk half jaar een nieuwe WHQL ook niet acceptabel zoals nVidia dat doet. Dan moet je het de hele tijd met Beta drivers doen. En die WHQL certificatie ligt aan microsoft. Ik weet ook niet zeker of dat momenteel nog steeds 3 maanden is. Eerst was dat zo.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Astennu schreef op donderdag 26 januari 2012 @ 11:00:
[...]
GTX480 anyone? super duur en in no time 150-200 euro goedkoper. Dit heet volgens mij gewoon markt werking. Als nVidia de prijzen van zijn GTX580 nu ineens met 100 euro om laag doet. Zal de 7970 ook goedkoper worden.
Heh? De 480 is toch echt totdat AMD met Barts en zij zelf met GF110 kwamen gewoon boven de 450 blijven hangen hoor; de 570 lanceerde dan ook *ruim* onder de MSRP van de 480.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Ik denk dat Astennu de GTX280 bedoelde.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Werelds schreef op donderdag 26 januari 2012 @ 11:18:
[...]

Heh? De 480 is toch echt totdat AMD met Barts en zij zelf met GF110 kwamen gewoon boven de 450 blijven hangen hoor; de 570 lanceerde dan ook *ruim* onder de MSRP van de 480.
Volgens mij is hij in het begin gewoon voor een record prijs verkocht maar daar na pas snel gedropt (echt vlak na launch). Maar ik kan het verkeerd onthouden hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Of niet.... Al zou je verhaal gewoon kloppen als je daar de GTX280 gebruikt :P.

[ Voor 81% gewijzigd door Paprika op 26-01-2012 11:21 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Nee ik had wel echt de GTX480 in me hooft maar zoals ik al zij kan het verkeerd onthouden hebben/dingen door elkaar gooien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Format-C schreef op donderdag 26 januari 2012 @ 08:15:
[...]

12.2 previews ondersteunen HD7970 ook niet...
Ga er dan maar vanuit dat ze de GCN geoptimaliseerde driver's pas komen als de HD7800 of het eerste kepler producten verschijnen.
Als een release dichtbij is houden beide fabrikanten wel vaker wat performance updates achter de hand, op die manier kommen de kaarten dan net wat beter dan verwacht bij de reviews uit de bus :)

Ook is GCN een nieuwe architectuur waar ze nog veel tijd aan moeten besteden voordat ze die volledig kunnen benutten, iemand van AMD had gezegd dat het ze nog wel tot de zomer zou kosten voordat ze zover zouden zijn.
Tevens zou een groot gedeelte van het driver team al sinds Q4 aan GCN ondersteuning werken en daardoor zouden game specifieke driver updates wat minder snel de deur uit komen, maar een echt goede bron heb ik daar niet van.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 23:38
DevilsProphet schreef op donderdag 26 januari 2012 @ 10:38:
Ik snap niet waarom mensen zo ongelovig zijn dat een HD6670 voldoende prestaties zou leveren. Niet vergeten dat:
Tja, ze zullen het echt wel weten bij Microsoft.

Toch is de keuze wel opvallend. In het artikel van T.net staat dat de nieuwe implementatie 6x sneller zou zijn dan de oude Xenos chip. Dat is wel opvallend, want de introductie van de Xbox 360 was in november 2005. In Q4 2013 is dat 8 jaar geleden en volgens Moore's law, zou de rekenkracht in die periode met zo een factor 8 moeten zijn toegenomen. Als je uitgaat van House's 18 maanden, dan kom je zelfs rond een factor 18.

Xbox neemt dus afscheid van Moore's law. Dat kan betekenen dat MS ervan uitgaat dat het nieuwe platform minder lang zal bestaan dan Xbox 360. Het zou ook kunnen betekenen dat MS ervan uitgaat dat de games zelf een equivalent van Moore's law niet kunnen volgen; dat het onmogelijk wordt games nog heel veel gedetailleerder te maken zonder dat bijvoorbeeld het personeelsbestand buitensporig wordt.

Een derde optie is dat MS zich een verbruikslimiet heeft opgelegd uit overweging van milieuvriendelijkheid of koeling. Gezien de industrie lijkt dit niet voor de hand te liggen. Een vierde optie is trouwens een misrekening. Iedereen maakt ze natuurlijk, maar ik denk niet dat MS zich hierin misrekend zal hebben...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 31-05 00:05
Helixes schreef op donderdag 26 januari 2012 @ 13:56:
[...]


Tja, ze zullen het echt wel weten bij Microsoft.

Toch is de keuze wel opvallend. In het artikel van T.net staat dat de nieuwe implementatie 6x sneller zou zijn dan de oude Xenos chip. Dat is wel opvallend, want de introductie van de Xbox 360 was in november 2005. In Q4 2013 is dat 8 jaar geleden en volgens Moore's law, zou de rekenkracht in die periode met zo een factor 8 moeten zijn toegenomen. Als je uitgaat van House's 18 maanden, dan kom je zelfs rond een factor 18.

Xbox neemt dus afscheid van Moore's law. Dat kan betekenen dat MS ervan uitgaat dat het nieuwe platform minder lang zal bestaan dan Xbox 360. Het zou ook kunnen betekenen dat MS ervan uitgaat dat de games zelf een equivalent van Moore's law niet kunnen volgen; dat het onmogelijk wordt games nog heel veel gedetailleerder te maken zonder dat bijvoorbeeld het personeelsbestand buitensporig wordt.

Een derde optie is dat MS zich een verbruikslimiet heeft opgelegd uit overweging van milieuvriendelijkheid of koeling. Gezien de industrie lijkt dit niet voor de hand te liggen. Een vierde optie is trouwens een misrekening. Iedereen maakt ze natuurlijk, maar ik denk niet dat MS zich hierin misrekend zal hebben...
Volgens dit nieuwsbericht op tweakers mikt Microsoft zelf wel op 8x zo snel nieuws: 'Nieuwe Xbox bevat blu-ray en Kinect 2'

Maar goed er is nog niks zeker, er zijn ook genoeg geruchten dat er toch een GPU gebaseerd op de 7xxx-serie in gaat komen, het duurt nog wel even voordat de console uitkomt dus er kan nog genoeg veranderen.
In ieder geval wel positief voor AMD dat ze nog steeds zulke grote klanten hebben zoals Microsoft en Nintendo, er worden toch altijd vele miljoenen van die consoles verkocht. :)

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
6670 is toch ook 7670? :+

Tja hoeveel moet een xbox sneller, stel ze willen gewoon 1080p en kinect ondersteunen en voor de rest niets nieuws of beters.

De huidige top games zijn 720p bij 30FPS.
720p = 921600 pixels
1080p = 2073600 pixels
Dus voor de resolutie moet deze GPU 225% van de huidige GPU zijn, om dan ook nog 60FPS te halen kom je uit op 550%.

Met 8x beter heb je zelf nog wat extra over, en kun je toch er voor kiezen je systeem zo goedkoop mogelijk te produceren.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Toettoetdaan schreef op donderdag 26 januari 2012 @ 14:29:
6670 is toch ook 7670? :+

Tja hoeveel moet een xbox sneller, stel ze willen gewoon 1080p en kinect ondersteunen en voor de rest niets nieuws of beters.

De huidige top games zijn 720p bij 30FPS.
720p = 921600 pixels
1080p = 2073600 pixels
Dus voor de resolutie moet deze GPU 225% sneller zijn, om dan ook nog 60FPS te halen kom je uit op 550%.

Met 8x beter heb je zelf nog wat extra over, en kun je toch er voor kiezen je systeem zo goedkoop mogelijk te produceren.
Daar worden je games alleen niet mooier van..

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Toettoetdaan schreef op donderdag 26 januari 2012 @ 14:29:
Dus voor de resolutie moet deze GPU 225% sneller zijn, om dan ook nog 60FPS te halen kom je uit op 550%.
Nee, hij moet 2,25x zo snel (125% sneller) zijn voor 1080p30 en dus 4,5x zo snel voor 1080p60. Blijkbaar is basisrekenen hier ook een probleem...

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 16-05 09:20
Olaf van der Spek schreef op donderdag 26 januari 2012 @ 14:33:
[...]

Nee, hij moet 2,25x zo snel zijn voor 1080p30 en dus 4,5x zo snel voor 1080p60. Blijkbaar is basisrekenen hier ook een probleem...
Ow sorry hoor, doet het pijn?

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 01:01
Helixes schreef op donderdag 26 januari 2012 @ 13:56:
[...]
In Q4 2013 is dat 8 jaar geleden en volgens Moore's law, zou de rekenkracht in die periode met zo een factor 8 moeten zijn toegenomen. Als je uitgaat van House's 18 maanden, dan kom je zelfs rond een factor 18.
Nee, Moore's Law stelt dat het aantal transistoren elke 12 tot 18 maanden verdubbeld. Dat heeft niets met de rekenkracht van een chip te maken.

Overigens krijg ik het gevoel dat een boel tweakers hier het volgende maar half lezen;
nieuws: 'Xbox 720 krijgt gpu op basis van AMD Radeon HD 6670'
Het gaat dus om een chip die gebaseerd is op Turks XT. Turks XT zelf, wordt dus niet gebruikt.

Brainfart;
Mocht Turks XT wel worden gebruikt dan heb je 2 mogelijkheden;
1) De chip wordt op 28nm gebakken en ook de desktop variant van de HD7670 zal deze chip bevatten (immers, dezelfde chip op 2 verschillende procedés produceren is onzinnig) (en jaj! die kaart wil ik wel :P) of;
2) De chip zal gewoon op 40nm worden geproduceerd.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Edit:

http://www.provantage.com...r797d5-3gd-b~7GIG90LV.htm

nvm vorige pagina stond ie al :P!

[ Voor 150% gewijzigd door pino85 op 26-01-2012 14:49 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Die link is al vaker verschenen. Hij stond OA ook al op Techpowerup. En dat artikel was gelinkt in dit topic.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
NitroX infinity schreef op donderdag 26 januari 2012 @ 14:45:
[...]

Brainfart;
Mocht Turks XT wel worden gebruikt dan heb je 2 mogelijkheden;
1) De chip wordt op 28nm gebakken en ook de desktop variant van de HD7670 zal deze chip bevatten (immers, dezelfde chip op 2 verschillende procedés produceren is onzinnig) (en jaj! die kaart wil ik wel :P) of;
2) De chip zal gewoon op 40nm worden geproduceerd.
Turks XT TDP (40nm) ligt op 66W volgens AMD, test van G3D wijst uit dat de kaart zo'n 90W zou verbruiken in Furmark. Op 28nm is 'ie weliswaar zuiniger, maar ook net wat duurder..

Ik zie trouwens liever / eerder dat de HD5770 / HD6770 op 28nm wordt gegooid en de naam HD7670 krijgt, daar de HD7700 ook GCN zou worden..

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
3XPER7 schreef op donderdag 26 januari 2012 @ 14:56:
[...]


Turks XT TDP (40nm) ligt op 66W volgens AMD, test van G3D wijst uit dat de kaart zo'n 90W zou verbruiken in Furmark. Op 28nm is 'ie weliswaar zuiniger, maar ook net wat duurder..

Ik zie trouwens liever / eerder dat de HD5770 / HD6770 op 28nm wordt gegooid en de naam HD7670 krijgt, daar de HD7700 ook GCN zou worden..
Ja inderdaad. OF een soort van afgeslankte Barts. Aangezien Barts net als Turks een geoptimaliseerde versie van Cypress is. Ze halen daar toch nette performance terwijl er veel minder shaders in zitten. Dus als ze dan iets van 720 shaders pakken of 960 maar dan native. Heb je toch een kleine die met veel performance.
Ik vraag me ook af hoeveel video geheugen ze er in gaan zetten. Volgens mij heeft de Xbox 360 maar iets van 128 of 256 mb.

Edit:
The console features 512 MB of GDDR3 RAM clocked at 700 MHz with an effective transmission rate of 1.4 GHz on a 128-bit bus. The memory is shared by the CPU and the GPU via the unified memory architecture. This memory is produced by either Samsung or Qimonda.

The Xbox 360 has an extensive amount of bandwidth in comparison to its competition;[4] however this statistic includes the eDRAM logic to memory bandwidth, and not internal CPU bandwidths. The eDRAM internal logic to its internal memory bandwidth is 256 Gb/s. The high bandwidth is used primarily for z-buffering, alpha blending, and antialiasing; it saves time and space on the GPU die. Between the eDRAM die and the GPU, data is transferred at 32 GB/s.[5] The memory interface bus has a bandwidth of 22.40 GB/s and the southbridge a bandwidth of 500 MB/s.
Valt dus nog mee. Maar het is wel shared met de CPU. Daarnaast hebben ze ook nog 10 MB EDRAM.
Ik ben benieuwd wat ze hier gaan gebruiken. GDDR5 is niet echt zuinig wel lekker snel. Maar misschien zijn de NB en SB nu anders waardoor dat geheugen niet voor de CPU te gebruiken is. Het kan ook zijn dat ze het nu wel opsplitsen in los geheugen voor de CPU (DDR3 of zo) en dan los geheugen voor de GPU (GDDR5).

[ Voor 41% gewijzigd door Astennu op 26-01-2012 15:07 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Astennu schreef op donderdag 26 januari 2012 @ 15:01:
[...]


Ja inderdaad. OF een soort van afgeslankte Barts. Aangezien Barts net als Turks een geoptimaliseerde versie van Cypress is. Ze halen daar toch nette performance terwijl er veel minder shaders in zitten. Dus als ze dan iets van 720 shaders pakken of 960 maar dan native. Heb je toch een kleine die met veel performance.
Maar ook de kans dat 'ie qua performance te dicht op Cape Verde gaat zitten.. Het zou natuurlijk wel kunnen, maar dan moeten ze het goed aanpakken. Een Barts die aanpassen kost -lijkt mij- ook weer geld, meer geld dan gewoon Juniper op 28nm gooien en wellicht de clocks iets omhoog zetten.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 23:38
NitroX infinity schreef op donderdag 26 januari 2012 @ 14:45:
[...]

Nee, Moore's Law stelt dat het aantal transistoren elke 12 tot 18 maanden verdubbeld. Dat heeft niets met de rekenkracht van een chip te maken.
Moore's wet gaat inderdaad over verdubbeling van het aantal transistoren per chip, maar ging in zijn originele theorie uit van 24 maanden. Zijn collega House scherpte die, gebaseerd op zijn persoonlijke observaties, aan tot 18 maanden. Omdat een toename van trasistors niet automatisch leidt tot verhoging van de rekenkracht, heb je daar wel een punt - hoewel er natuurlijk wel een sterke correlatie tussen de twee zal bestaan, zeker in een sterk parallel operende chip zoals een GPU.


We drijven af...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 17:17
Past perfect binnen het verhaal van chips hoor ;)

Moore zei ~24 maanden voor een verdubbeling van het aantal transistors dat relatief goedkoop samengeperst kunnen worden (lees: zonder plotselinge dubbele kosten).
House (mannetje van Intel, niet M.D. :+ ) echter zei dat elke ~18 maanden chip performance zou verdubbelen; deels door de wet van Moore, deels door betere transistors. Ook dit klopt wel grotendeels, hoewel wij dat niet altijd terug zien op de manier waarop wij dat willen ;)

Zijn twee aparte beweringen, waarbij de 2e de 1e deels mee neemt :)

[ Voor 10% gewijzigd door Werelds op 26-01-2012 16:11 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
3XPER7 schreef op donderdag 26 januari 2012 @ 14:56:
[...]


Turks XT TDP (40nm) ligt op 66W volgens AMD, test van G3D wijst uit dat de kaart zo'n 90W zou verbruiken in Furmark. Op 28nm is 'ie weliswaar zuiniger, maar ook net wat duurder..
Guru3D kan het niet meten en 90W is ook te veel voor een PCI-e slot wat maar 75W max 'kan' leveren.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
-The_Mask- schreef op donderdag 26 januari 2012 @ 17:19:
[...]

Guru3D kan het niet meten en 90W is ook te veel voor een PCI-e slot wat maar 75W max 'kan' leveren.
In dit geval was het Geeks3D ;)

[ Voor 13% gewijzigd door Fid3lity op 26-01-2012 17:41 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Ik snap niet dat mensen niet inzien dat een console die bij de launch trager is dan de snelste high-end PC's van dat moment een trendbreuk is. Je kunt er geen conclusies aan verbinden, maar verbazingwekkend is het wel. Dat is dus de reden dat ik twijfel aan een Xenos 2 op basis van een 6670.

Ik heb het geloof ik al vaker gezegd, als je workarounds zoals het inperken van de FOV en het verlagen van de resolutie toe moet gaan passen ben je niet meer aan het optimaliseren, dan ben je noodgrepen toe aan het passen om überhaupt acceptabele framerates te halen (o.a. COD MW3 doet dit). De hardware van de huidige generatie consoles vormt een enorme beperking voor developers waar ze maar al te graag vanaf willen. Het idee dat de huidige hardware goed genoeg is, komt van de marketingafdelingen van Microsoft en Sony die de verkoop van de huidige generatie niet in willen zien storten in afwachting van de volgende.

En dan is er natuurlijk ook nog zoiets als concurrentie. Als Microsoft een GPU gebruikt die "goed genoeg" is en Sony wel het onderste uit de kan haalt dan wint Sony de slag bij de volgende generatie, dat willen ze absoluut niet (en omgekeerd ook niet natuurlijk). Met andere woorden, beide bedrijven hebben er alle belang bij een zo snel mogelijke console als eerste op de markt te kunnen zetten tegen een redelijke prijs. Bij de huidige generatie lukte dit Microsoft beter dan Sony, de grote vraag is hoe dat bij de aankomende generatie zal gaan.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Anoniem: 59888 schreef op donderdag 26 januari 2012 @ 18:26:
Ik snap niet dat mensen niet inzien dat een console die bij de launch trager is dan de snelste high-end PC's van dat moment een trendbreuk is.
Er is anders ook een trendbreuk met de hardware van vroeger: de belachelijk hoge verbruikcijfers. Waar is de tijd dat je een computer had die niet meer dan 150W trok? En een GPU die om en bij de 50W verbruikt? Nu is de top-end al even tegen de grens van 300W aan het schurken, dat lijkt mij niet direct comfortabel in een kleine plastieken doos te steken zoals de huidige consoles momenteel zijn. Maar goed, ze zullen er waarschijnlijk wel iets op vinden.

edit: Trouwens, de tijd dat betere hardware een significant grote meerwaarde bood is ook voorbij. Nu koopt iemand een grafische kaart van €300 ipv €150 omdat die 8xAA aan kan op maximum settings ipv 2xAA en high settings. Big whoop, eigenlijk pure luxe, terwijl je vroeger echt een betere grafische kaart moest kopen om meer aan te kunnen dan 800x600 met alles op minimum en een framerate van 20fps. De ontwikkeling is zijn eigen nood voorbijgestreefd, en wij worden telkens harder in de watten gelegd, enkel maar omdat ze willen blijven verkopen. Goed voor ons, maar ze komen stilaan dicht bij het verzadigingspunt. Daarom dat ik het niet nodig vind dat de next gen consoles de huidige pc's hardwarematig moeten kunnen aftroeven. Een beetje zoals de les die de Wii ons geleerd heeft, eigenlijk. Maar dan minder extreem, want het mag best wel mooi zijn, maar het moet niet nodeloos duur, complex en veelverbruikend worden om net wat extra gras te zien wapperen op een afstand van 500 meter ipv 100 meter.

[ Voor 42% gewijzigd door RuddyMysterious op 26-01-2012 19:49 ]


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 23:38
Salland wil weer als eerste van de partij zijn

Ik geloof niet dat ik die koeler eerder voorbij had zien komen. De GPU frequentie komt iig niet overeen met de poolse site die de afbeelding eerder toonde; zij geven 900 Mhz/ Het zal een typfout zijn...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Helixes schreef op donderdag 26 januari 2012 @ 20:04:
Salland wil weer als eerste van de partij zijn

Ik geloof niet dat ik die koeler eerder voorbij had zien komen. De GPU frequentie komt iig niet overeen met de poolse site die de afbeelding eerder toonde; zij geven 900 Mhz/ Het zal een typfout zijn...
Er zit dan wel een betere koeler op, maar voor dat geld zou ik de 65 euro erbij leggen voor een 7970

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
er word hier gepraat over weinig verschil tussen mid end en very high end. Ik ben voor de grap maar eens een oude launch review van de geforce 4200ti gaan opzoeken. De beeld is eigenlijk vrij vergelijkbaar met die van nu. De 4200 was wel een beetje sneller dan de highend van de generatie ervoor maar ik geef de gpgpu gedoe daarvoor de schuld. Als gpu's nu nog steeds voor de 100% voor de gaming zouden gaan zou je dit soort beelden denk ik nog steeds zien.
zie:
Afbeeldingslocatie: http://techreport.com/r.x/geforce4-ti4200/giants-1600.gif
Afbeeldingslocatie: http://techreport.com/r.x/geforce4-ti4200/ssam-1600.gif
Afbeeldingslocatie: http://techreport.com/r.x/geforce4-ti4200/comanche-1600.gif

Is er trouwens ook geen trend qua verbruik van de consoles? Ik geloof niet dat de ps3 even veel gebruikte als de ps2. Volgens dit: http://www.sust-it.net/energy_saving.php?id=71 gebruikt de ps3 eigenlijk even veel als een desktop met een redelijke gpu. De xbox360 had veel lagere vebruik maar die had door zijn ontwerp wel vaker last van overhitting dan de ps3.
Ik denk dat als we deze lijn doortrekken dat we zeker consoles kunnen verwachten in de 200-300 watt als ms en sony doorgaan met hun huidige strategie.
Er is echter wel een redelijke kans dat ze niet verder gaan met de huidige strategie en voor lagere end chips etc gaan gebruiken. Ze zien echter ook dat er uiteindelijk veel meer games werden verkocht op de ps3 en de xbox360 omdat deze krachtiger waren. De kans is dan ook reël denk ik dat we iets gaan zien dat tussen in feite een wiiu en een echter volle kracht ps4/xbox720 zit.

Uiteindelijk zijn er mogelijk voor beide maar je ziet toch ook dat de laatste tijd initatief weer terug aan het glijden is naar PC als platform. de xbox en de ps hebben dat zo lang kunnen uitstellen door de beleid van vooral MS maar als ze een minder grote stap zetten dan zal de initatief sneller weer bij de PC als platform komen.

Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 23:38
Als je kijkt naar hun methodologie, dan is hun conclusie duidelijk verkeerd.

Ten eerste gebruiken ze een testbed met een Core i7 960. Hoewel Furmark niet heel zwaar is op de CPU, zal een i7 op het 1366 platform toch een ander verbruik hebben dan bij het draaien van de Furmark stresstest. Hiervoor compenseren ze evenwel niet.

Ten tweede gebruiken ze een Corsair AX1200, een 1200 W voeding dus, en gaan ervan uit dat deze een efficiëntie heeft van 90%. Uit het testraport van Plugload blijkt dat de voeding een efficiëntie heeft van 88% bij 20% belasting, ofwel 240W. Dat zal bij de gekozen meetpunten alleen maar minder zijn.

Ik denk dat we mogen aannemen dat het getal dat door Geeks3D genoemd wordt niet accuraat is. Laten we dus terugkeren naar de aanname dat AMD dichter bij het TDP zit in hun beweringen :)

[ Voor 3% gewijzigd door Helixes op 27-01-2012 10:26 ]

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 23:19
hd-7970-double-dissipation-review @HWI

Volgens Koen is er geen probleem met de VRM's deze zijn goed gekoeld.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
mdcobra schreef op vrijdag 27 januari 2012 @ 14:58:
hd-7970-double-dissipation-review @HWI

Volgens Koen is er geen probleem met de VRM's deze zijn goed gekoeld 8)7
Tweakers.net zou een pre-final sample hebben gekregen waarbij het koelblokje dus niet op de VRM's zat.

Acties:
  • 0 Henk 'm!

Anoniem: 245699

mdcobra schreef op vrijdag 27 januari 2012 @ 14:58:
hd-7970-double-dissipation-review @HWI

Volgens Koen is er geen probleem met de VRM's deze zijn goed gekoeld 8)7
Kan je heel lollig om doen, maar;

"Zoals gezegd, die hebben we niet gevonden. Maar nogmaals; de buren hadden een pre-productie prototype, het exemplaar dat wij hebben getest is hoe 'ie daadwerkelijk in de winkel ligt."

En wie zegt dat ze bij die site die die hoge VRM temps aantoonde vond ook niet een pre-productie model hadden?

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 23:19
Geen handige smiley gebruikt, sorry! Deze verklaring lijkt plausibel.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Zoals gezegd, die hebben we niet gevonden.
En dat is hoe precies getest? Dat lijkt me nogal handig om te weten.
Laat maar, al gevonden.

[ Voor 35% gewijzigd door Paprika op 27-01-2012 15:13 ]


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Paprika schreef op vrijdag 27 januari 2012 @ 15:12:
[...]

En dat is hoe precies getest? Dat lijkt me nogal handig om te weten.
Door te kijken of d'r een blokkie op zit? :+ 8)7

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Zucht, tijd voor een officieel "GPU review"-certificaat, waarbij je aan bepaalde voorwaarden moet doen, waaronder een thermal image camera (niet meter, die laten de lezer nog niets zien).

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Paprika schreef op vrijdag 27 januari 2012 @ 15:19:
Zucht, tijd voor een officieel "GPU review"-certificaat, waarbij je aan bepaalde voorwaarden moet doen, waaronder een thermal image camera (niet meter, die laten de lezer nog niets zien).
Beetje overdreven vind je niet?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Dat was ironisch bedoelt om Marc aan te sporen dergelijke plaatjes te posten bij reviews van Tweakers. :P

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Paprika schreef op vrijdag 27 januari 2012 @ 15:29:
Dat was ironisch bedoelt om Marc aan te sporen dergelijke plaatjes te posten bij reviews van Tweakers. :P
Dus het was zogezegd ironisch bedoeld, maar eigenlijk niet. :+

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
:+, jij snapt hem.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 16-05 22:50
Ik had begrepen dat Marc dat sowieso al van plan was :Y

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Hij 'wil' dat inderdaad gaan doen. Nu nog even een nette brief naar AMD (in dit geval eigenlijk de verschillende merken i.v.m. non-reference koelers) sturen dat ze toch echt een kaart (liever vele kaarten :D) naar ze toe moeten sturen, omdat we dergelijke plaatjes bij de release willen zien, zeker met al die non-reference modellen van de HD7950.

[ Voor 17% gewijzigd door Paprika op 27-01-2012 16:22 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 30-05 21:29
Heerlijke dubbel post voor een AnandTech artikel over de 7970:
http://www.anandtech.com/...dth-overclocking-and-msaa

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Ik zag em net toen ik op anandtech keek :)
Dat stukje over die PCI-E 3.0 bandbreedte is in ieder geval interessant. Bij sommige games heb je toch echt 8x nodig om de performance behoorlijk te laten zakken. Meestal is 4x genoeg maar bij sommige games heb je toch behoorlijk winst van 8x:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph5458/43817.png

PCI-E 2.0 16x is dus nog wel genoeg. Maar 2.0 8x kan dus hier en daar een bottelnek vormen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Tomas Hochstenbach
  • Registratie: Januari 2009
  • Laatst online: 01-06 06:56

Tomas Hochstenbach

Redacteur componenten

Sapphire AMD Radeon HD 7950 foto's

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-up-575x256.jpg

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-front-575x267.jpg

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-back-575x275.jpg

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-power-connectors-575x178.jpg

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-display-connectors-575x208.jpg

Afbeeldingslocatie: http://www.bouweenpc.nl/wp-content/uploads/2012/01/AMD-Radeon-HD-7950-PCB-575x232.jpg

Bron

Nu gelekt: Sapphire (2x), PowerColor, XFX, Gigabyte. Volgens mij zijn ze niet erg voorzichtig met de HD 7950.
Pagina: 1 ... 9 ... 11 Laatste

Dit topic is gesloten.