CJ's Radeon Nieuwsdiscussietopic - Deel 122 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 ... 31 Laatste
Acties:
  • 135.074 views

Onderwerpen


Acties:
  • 0 Henk 'm!

Verwijderd

yzx schreef op donderdag 01 december 2011 @ 10:06:
[...]


Game developers zijn 'lui' want voor xbox en ps3 een game maken is makkelijker dan te beginnen vanaf de pc. En vooral goedkoper.

Kijk maar naar PC only games die zien er meestal goed uit en de specs die je nodig hebt daarvoor kosten ook geld kijkmaar naar Crysis of The Witcher 2 etc
Klopt je zegt het al het heeft vrij weinig met nvidia te maken. Tenzij het een gamemaker is die met nvidia nauw samen werkt. Maar gelukkig werken de meeste zamen met AMD en nvidia.
Het probleem is eerder dat gamemakers niet hun engine willen upgraden want dat kost weer een nieuwe engine of omgegooide engine. Daar gaat wel wat tijd in zitten en dx11 kwam er aan en daarom was het ook nie echt nodig en waard om al die engines te veranderen, dit kun je wel na gaan want het is gewoon onlogisch.

[ Voor 3% gewijzigd door Verwijderd op 01-12-2011 10:22 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Het probleem was veel simpeler, Nvidia had geen DX10.1 kaarten.

Als game ontwikkelaar ga je geen geld investeren in iets waar maar een kleine groep van de markt gebruik van kan maken. (Buiten dat TWIMTBP games geen DX10.1 mochten ondersteunen)


Wat meer AMD gerelateerd: Dit is een best interessante artikel
Radeon HD 7000 Revealed: AMD to Mix GCN with VLIW4 & VLIW5 Architectures
http://www.brightsideofne...-vliw5-architectures.aspx

Acties:
  • 0 Henk 'm!

  • Haay
  • Registratie: Augustus 2001
  • Laatst online: 14:51
Uit bovenstaande vind ik dit stukje vooral ERG prettig:
If you compare the VLIW4-based HD 6900 and the upcoming HD 7800 series, there isn't much difference between the two. According to our sources, HD 7800 "Pitcairn" is a 28nm die shrink of the popular HD 6900 "Cayman" GPU with minor performance adjustments. This will bring quite a compute power into the price sensitive $199-$249 bracket and we expect a lot of headaches for NVIDIA in that respect.
Zelfs 1-op-1 naar Euro omgezet wil ik GRAAG een HD 7870 voor ~ €250 aanschaffen! :9~

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
@hierboven, HD6970 performance met minder verbruik en die prijs is er goed ja! :9~
AMD kept the unified clock concept and given that Radeon HD 7970 is based on fully configured "Tahiti XT" GPU, 2048 cores (32 Compute Units) operate at 1GHz clock. 3GB of GDDR5 memory operates in Quad Data Rate mode i.e. 1.37GHz ODR ("effective 5.5GHz"). This results with record video memory bandwidth for a single GPU - 264GB/s.

The HD7950 is based on "Tahiti Pro" and packs 30 Compute Units for 1920 cores operating at 900MHz. The number of ROPs decreased to 60, while Texture units naturally reduced to 120 (as every CU connects to 2 ROPs and 4 TMUs). Our sources did not disclose if the memory controller is still 384-bit or a 256-bit one, but the memory clock was decreased to 1.25GHz, i.e. the same clock as previous gen models. Should 384-bit controller stay, the clock should be good for 240GB/s of bandwidth.

Both products are expected to be released on CES 2012 in Las Vegas, NV, occupying the $349-449 price bracket. Those additional gigabytes of memory (and processing cores) will certainly cost a lot of $$$.

As far as the dual-GPU "New Zealand", 6GB GDDR5 is expected to be clocked on the same level as the HD6990/7970, meaning you will be getting full performance out of the dual-GPU part.

Unlike HD7950 and HD7970, Radeon HD 7990 will debut in March 2012 and the target price is the same as the original price of its predecessor - $699.
Laat de specificatie tabellen maar komen! :D Ik weet niet of dit allemaal klopt, maar het is wel bijzonder veel informatie :)

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

If you compare the VLIW4-based HD 6900 and the upcoming HD 7800 series, there isn't much difference between the two. According to our sources, HD 7800 "Pitcairn" is a 28nm die shrink of the popular HD 6900 "Cayman" GPU with minor performance adjustments
Dat is goed nieuws maar ik ging er toch van uit dat er geen * minor* performance increase zou plaatsvinden.
Maar ach aan andere kant de 7800 serie is niet de high end serie dus wat zeur ik ook ! want de huidige 6900 serie is wel high end. :)

[ Voor 45% gewijzigd door pino85 op 01-12-2011 12:22 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 15:59
Verwijderd schreef op donderdag 01 december 2011 @ 09:19:
Nvidia heeft niet alle game makers in handen dus dat in wel onzin.
De schuld ligt eerder bij de game makers die niet hun dx willen upgraden.
Het is wel heel makkelijk om te zeggen dat het door een gpu bedrijf komt.
Toettoetdaan schreef op donderdag 01 december 2011 @ 10:46:
Het probleem was veel simpeler, Nvidia had geen DX10.1 kaarten.

Als game ontwikkelaar ga je geen geld investeren in iets waar maar een kleine groep van de markt gebruik van kan maken. (Buiten dat TWIMTBP games geen DX10.1 mochten ondersteunen)

Dit. Ik kan je hele nieuwsberichten gaan linken als je wilt, maar het komt erop neer dat nVidia geen DX10.1 ondersteunde en dus ging niemand er gebruik van maken.

Afbeeldingslocatie: http://puu.sh/9HjL

De snelste kaart die DX10.1 heeft gekregen is niet eens een fatsoendelijke kaart:
Afbeeldingslocatie: http://static.techspot.com/articles-info/223/bench/Crysis_01.png

De eerste G80s van nVidia kwamen er rond deze periode van het jaar, in 2006.
Pas 2 jaar later(!) kwamen ze, ook laat in het jaar (december), met de eerste DX10.1 kaarten en dit waren OEM kaarten voor Dells etc.
Toen had AMD al de 5-serie gereleased en dus kwam nVidia aanzetten met de eerste DX10.1 kaarten terwijl AMD al DX11 had.
Verwijderd schreef op donderdag 01 december 2011 @ 10:21:
Daar gaat wel wat tijd in zitten en dx11 kwam er aan en daarom was het ook nie echt nodig en waard om al die engines te veranderen, dit kun je wel na gaan want het is gewoon onlogisch.
nVidia kwam pas 2.5 jaar later met DX11 kaarten (gezien vanaf het moment dat AMD DX10.1 ondersteunde), AMD zelf 2 jaar later en dus was het helemaal niet zo kort dag.

[ Voor 27% gewijzigd door Paprika op 01-12-2011 13:10 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Inderdaad moeten er wat alarmbellen gaan rinkelen: de gegevens lijken dezelfde te zijn als die bij het originele XDR2 verhaal horen, minus XDR2 dan (http://www.nordichardware...d-xdr2-rambus-memory.html). Het is goed mogelijk dat hun "bronnen" het dus uiteindelijk daarvan hebben overgenomen...

Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op donderdag 01 december 2011 @ 12:58:
nVidia kwam pas 2.5 jaar later met DX11 kaarten (gezien vanaf het moment dat AMD DX10.1 ondersteunde), AMD zelf 2 jaar later en dus was het helemaal niet zo kort dag.
Laten we ook niet vergeten dat de r600 al tesselation-ondersteuning aan boord had, de chip was er dan lang niet krachtig genoeg voor (de g80 ook niet) maar de techniek was er al.
AMD heeft bij de rv670 veel features uit de r600 gesloopt welke (beknopt gezegd) door toedoen van nVidia uit de dx10 set zijn gehaald.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op donderdag 01 december 2011 @ 16:45:
[...]


Inderdaad moeten er wat alarmbellen gaan rinkelen: de gegevens lijken dezelfde te zijn als die bij het originele XDR2 verhaal horen, minus XDR2 dan (http://www.nordichardware...d-xdr2-rambus-memory.html). Het is goed mogelijk dat hun "bronnen" het dus uiteindelijk daarvan hebben overgenomen...
Jammer maar helaas, je heb een heel goed punt.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op donderdag 01 december 2011 @ 17:29:
Laten we ook niet vergeten dat de r600 al tesselation-ondersteuning aan boord had, de chip was er dan lang niet krachtig genoeg voor (de g80 ook niet) maar de techniek was er al.
AMD heeft bij de rv670 veel features uit de r600 gesloopt welke (beknopt gezegd) door toedoen van nVidia uit de dx10 set zijn gehaald.
De tesselation die terug te vinden is in de R600 is niet te vergelijken met de tesselation van DX11. Stellen dat de kaart niet sterk genoeg zou zijn is dan ook niet correct. Tesselation werd via een aparte module afgewerkt, waarvoor specifieke tesselation-code geschreven kon worden. Overigens zit diezelfde tesselator ook gewoon in de RV670, maar ook in de Xbox360 GPU (Xenos) bijvoorbeeld. Het is de doorontwikkeling van Truform, wat ooit in de 8000 serie zat.

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 12-09 09:59
Verwijderd schreef op donderdag 01 december 2011 @ 16:45:
[...]


Inderdaad moeten er wat alarmbellen gaan rinkelen: de gegevens lijken dezelfde te zijn als die bij het originele XDR2 verhaal horen, minus XDR2 dan (http://www.nordichardware...d-xdr2-rambus-memory.html). Het is goed mogelijk dat hun "bronnen" het dus uiteindelijk daarvan hebben overgenomen...
Ja die specs lijken mij niet plausibel, ook heb ik mijn twijfels bij de 384bit geheugenbus. Het ziet er allemaal nogal gefantaseerd uit :P

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 15:59
dahakon schreef op donderdag 01 december 2011 @ 19:31:
Het is de doorontwikkeling van Truform, wat ooit in de 8000 serie zat.
Welke nooit door DirectX werd geaceepteerd. :/
Maar in dit geval werd er gewoon een statement de lucht ingegooid met een geheel fout argument, verdere voorbeelden hadden geen toegevoegde waarde voor hetgeen ik wilde duidelijk maken.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat het geen x2 RAM heeft maakt eigenlijk ook niet zo heel veel uit. Door RAM veel meer extra snelheid op het scherm (op het gebied van gamen doel ik dan want dat is hiero het meest besproken) dat doe je beter door de shaders en streamprocessors toe te voegen en dat ziet er goed uit. Ik kan niet wachten tot ik de prestaties mag zien van de nieuwe high end kaarten.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Het spijt me zeer, maar ik kan geen touw vastknopen aan je post? Lees hem zelf eens terug aub.

Wat probeer je te zeggen?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
RT @Format-C: Het spijt me zeer, maar ik kan geen touw vastknopen aan je post? Lees hem zelf eens terug aub.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

3XPER7 schreef op vrijdag 02 december 2011 @ 07:51:
RT @Format-C: Het spijt me zeer, maar ik kan geen touw vastknopen aan je post? Lees hem zelf eens terug aub.
:? Ehm.... Ja? En jij probeert te zeggen? :?

[ Voor 8% gewijzigd door Format-C op 02-12-2011 07:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Format-C schreef op vrijdag 02 december 2011 @ 07:58:
[...]

:? Ehm.... Ja? En jij probeert te zeggen? :?
Dezelfde mening hebben anno 2011 :? :+ #Twitter weet je wel?

[ Voor 4% gewijzigd door Fid3lity op 02-12-2011 08:01 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Nee. (Weet ik echt niet) Moest eerst op google zoeken wat RT was nadat jij zei dat het met Twitter te maken had. Edit; ik vind twitter een belachelijk fenomeen zonder toegevoegde waarde, maar goed, kan aan mij liggen, en is voor iedereen anders. Er zijn miljoenen mensen die er wel iets mee hebben... :+ Maaaaar, wel weer wat "geleerd".

:)

[ Voor 62% gewijzigd door Format-C op 02-12-2011 08:10 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Oke.. 'nuff said weer :9

Acties:
  • 0 Henk 'm!

Verwijderd

Waar hebben jullie het eigenlijk over?
Als je niet eens begrijpt wat ik er neer zet zeg dat dan dan zal ik het overtypen en anders verwoorden. En niet zo dom doen als dat het is want dat is gewoon achterlijk bezig zijn ;)

[ Voor 75% gewijzigd door Verwijderd op 02-12-2011 09:21 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op vrijdag 02 december 2011 @ 09:04:
Waar hebben jullie het eigenlijk over?
Als je niet eens begrijpt wat ik er neer zet zeg dat dan dan zal ik het overtypen en anders verwoorden. En niet zo dom doen als dat het is want dat is gewoon achterlijk bezig zijn ;)
Ik begrijp gewoon niet wat je hier probeert te zeggen:
Door RAM veel meer extra snelheid op het scherm (op het gebied van gamen doel ik dan want dat is hiero het meest besroken) dat doe je beter door de shaders en streamprocessors toe te voegen en dat ziet er goed uit.
En daarom vraag ik je: wat probeer je te zeggen?

Je kan nu direct wel gaan lopen blaten over dom doen en achterlijk bezig zijn, maar dat slaat werkelijk nergens op. Querulant heet dat.
:Y

[ Voor 17% gewijzigd door Format-C op 02-12-2011 11:13 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Wat Tweaker wilde zeggen is dat het niet erg is dat ze de geheugen grootte/bandbreedte niet verdubbelen, ze kunnen meer winnen op andere vlakken. Heeft hij ook gelijk in, maar het is ook een open deur voor ons natuurlijk :)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ja, maar je kunt niet oneindig spu's toe blijven voegen en denken dat daarmee de kous af is. Waarom heeft AMD gDDR5 zo gepushed als er genoeg bandbreedte is? Waarom quad data rate geheugen, als het oude dual data rate genoeg is? Omdat met het sneller worden van de GPU's ook de honger naar bandbreedte toe blijft nemen. Dat is, zoals ik de dingen lees, de reden waarom mensen niet begrijpen wat Tweaker. bedoelt.

Acties:
  • 0 Henk 'm!

Verwijderd

Format-c ik doelde die post na jou'n post niet op jou'n post direct na mij.
Klopt werelds, ik heb het er ook zonder spel fouten neer gezet want gebruik daar chrome voor.
Deze geeft geen fouten weer in mijn tekst.

[ Voor 48% gewijzigd door Verwijderd op 02-12-2011 11:09 ]


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Verwijderd schreef op vrijdag 02 december 2011 @ 11:04:
Format-c ik doelde die post na jou'n post niet op jou'n post direct na mij.
Klopt werelds, ik heb het er ook zonder spel fouten neer gezet want gebruik daar chrome voor.
Deze geeft geen fouten weer in mijn tekst.
Ha, maar chrome weet niet of je woorden vergeet neer te zetten in je zin ;), Ik ben ook dyslectisch maar door het posten op forums als deze is het wel een hoop verbeterd. :)

Nu maakt het misschien niet zoveel uit dat ze geen dubbele bandbreedte hebben, maar ze moeten natuurlijk wel naar de toekomst blijven kijken.
Tot zover ik weet is er nog geen GDDR6, en het schijnt dat de engineers van ATI/AMD weigeren met Rambus te werken.
(de eigenaar van XDR, ze lopen nogal te vervelen met licentie's. Daardoor hebben ze veel respect verloren)

Uiteindelijk zullen fabrikanten de handen ineenslaan om GDDR6 te ontwikkelen die waarschijnlijk wat XDR achtige eigenschappen gaat adopteren.
(Als het goed is zijn ze al bezig met GDDR6, maar ik kan er niets over vinden)
Afbeeldingslocatie: http://pc.watch.impress.co.jp/img/pcw/docs/319/593/ph09.jpg

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De toekomst kan best nog wel eens stacked memory zijn. Dan heb je geen extreem hoge snelheden nodig, de conplexiteit van een grote bus valt weg omdat het al verwerkt wordt in het stapeltje geheugen (dus geen lading traces nodig) en het bespaart ook nog eens ruimte.

Volgens mij was het plaatje hier ook al eens voorbij gekomen, van een HD8K (volgens de tags van de bron) met stacked memory. Als ik thuis ben zal ik, mocht dat nodig zijn, de link nog wel even opzoeken.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Qua stroomverbruik zou Tahiti nog wel eens verassend uit de bus kunnen komen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 15:59
Als je nu in het grijs een + of - zou neerzetten. :+

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
dahakon schreef op vrijdag 02 december 2011 @ 13:36:
De toekomst kan best nog wel eens stacked memory zijn. Dan heb je geen extreem hoge snelheden nodig, de conplexiteit van een grote bus valt weg omdat het al verwerkt wordt in het stapeltje geheugen (dus geen lading traces nodig) en het bespaart ook nog eens ruimte.

Volgens mij was het plaatje hier ook al eens voorbij gekomen, van een HD8K (volgens de tags van de bron) met stacked memory. Als ik thuis ben zal ik, mocht dat nodig zijn, de link nog wel even opzoeken.
Stacked memory is vooral interessant voor ingebedde applicaties, bv smartphones, om plaats uit te sparen. Ik zie ze niet snel in hi-end oplossingen gebruikt worden, ze produceren teveel warmte.

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Verwijderd schreef op vrijdag 02 december 2011 @ 11:04:
Format-c ik doelde die post na jou'n post niet op jou'n post direct na mij.
Klopt werelds, ik heb het er ook zonder spel fouten neer gezet want gebruik daar chrome voor.
Deze geeft geen fouten weer in mijn tekst.
Zonder fouten maar je typt wel jou'n? :+
oeLangOetan schreef op vrijdag 02 december 2011 @ 14:04:
[...]


Stacked memory is vooral interessant voor ingebedde applicaties, bv smartphones, om plaats uit te sparen. Ik zie ze niet snel in hi-end oplossingen gebruikt worden, ze produceren teveel warmte.
Dus warmteproductie zou wel een probleem zijn in high-end oplossingen met flinke koeling maar niet in smartphones met een body van ~9 mm dik :?

[ Voor 39% gewijzigd door Fid3lity op 02-12-2011 14:06 ]


Acties:
  • 0 Henk 'm!

  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 08-09 11:33
oeLangOetan schreef op vrijdag 02 december 2011 @ 14:04:
[...]


Stacked memory is vooral interessant voor ingebedde applicaties, bv smartphones, om plaats uit te sparen. Ik zie ze niet snel in hi-end oplossingen gebruikt worden, ze produceren teveel warmte.
denk dat hij hybrid memory cube bedoelt

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

neliz schreef op vrijdag 02 december 2011 @ 13:50:
Qua stroomverbruik zou Tahiti nog wel eens verassend uit de bus kunnen komen.
Enlighten us with your wisdom, wat is je verwachting?

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
3XPER7 schreef op vrijdag 02 december 2011 @ 14:04:
Dus warmteproductie zou wel een probleem zijn in high-end oplossingen met flinke koeling maar niet in smartphones met een body van ~9 mm dik :?
Warmte is bij smartphones meestal geen probleem. Hi-end ram chips verbruiken een paar grootte ordes meer energie.
bladerash schreef op vrijdag 02 december 2011 @ 14:05:
[...]
denk dat hij hybrid memory cube bedoelt
Ah dat, ik denk dat dat nog in de ontwikkelfase zit, even wachten dus (wie herinnert zich zram?)

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

pino85 schreef op vrijdag 02 december 2011 @ 14:29:
[...]


Enlighten us with your wisdom, wat is je verwachting?
niet hoger dan wat we nu hebben :)

denk niveautje 560 ofzo.

[ Voor 16% gewijzigd door neliz op 02-12-2011 14:59 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op vrijdag 02 december 2011 @ 14:04:
Dus warmteproductie zou wel een probleem zijn in high-end oplossingen met flinke koeling maar niet in smartphones met een body van ~9 mm dik :?
Yep. Smartphones hebben geen voedingen van 500+ W. :p

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
neliz schreef op vrijdag 02 december 2011 @ 14:35:
[...]


niet hoger dan wat we nu hebben :)

denk niveautje 560 ofzo.
Dat zou zeker erg netjes zijn dan, de 6xxx-serie verbruikt nu eigenlijk iets teveel naar mijn mening (komt natuurlijk ook doordat 32nm werd gecanceled maar goed).

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:25:
[...]

Yep. Smartphones hebben geen voedingen van 500+ W. :p
Je argument is niet geldig ;)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Want?
Wat er niet in gaat, komt er ook niet uit. Smartphones gaan zuinig met energie om. Laag energieverbruik -> lage warmteproductie.

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:42:
[...]

Want?
Wat er niet in gaat, komt er ook niet uit. Smartphones gaan zuinig met energie om. Laag energieverbruik -> lage warmteproductie.
Met een voeding die 500W zou kunnen leveren gaat er ook geen 500W in, een voeding levert alleen wat er gevraagd wordt. ;)
De efficiëntie van de voeding zou hooguit bagger zijn omdat er zo weinig van word gevraagd maar het ligt toch echt meer aan de onderdelen dan aan de voeding hoeveel een systeem verbruikt.

[ Voor 25% gewijzigd door Redblader op 02-12-2011 15:52 ]


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

neliz schreef op vrijdag 02 december 2011 @ 14:35:
[...]


niet hoger dan wat we nu hebben :)

denk niveautje 560 ofzo.
Als dat zo gaat zijn is dat wel zeker netjes te noemen, al kijk ik ook niet op paar watt verbruik maar minder /gelijkwaardig verbruik en betere prestaties zijn natuurlijk van harte welkom!

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
pino85 schreef op vrijdag 02 december 2011 @ 15:56:
[...]


Als dat zo gaat zijn is dat wel zeker netjes te noemen, al kijk ik ook niet op paar watt verbruik maar minder /gelijkwaardig verbruik en betere prestaties zijn natuurlijk van harte welkom!
Minder verbruik betekent alleen ook minder warmte en minder warmte betekent ook potentieel stiller of beter overclockbaar. :D

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Redblader schreef op vrijdag 02 december 2011 @ 15:50:
Met een voeding die 500W zou kunnen leveren gaat er ook geen 500W in, een voeding levert alleen wat er gevraagd wordt. ;)
De efficiëntie van de voeding zou hooguit bagger zijn omdat er zo weinig van word gevraagd maar het ligt toch echt meer aan de onderdelen dan aan de voeding hoeveel een systeem verbruikt.
Dat is het punt niet. Je koopt (meestal) geen 500 W voeding als je maar 200 W nodig hebt.
Het punt is dus, dat het totale verbruik (en dus de warmteproductie) aardig hoog ligt.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Redblader schreef op vrijdag 02 december 2011 @ 15:57:
[...]


Minder verbruik betekent alleen ook minder warmte en minder warmte betekent ook potentieel stiller of beter overclockbaar. :D
Hihi inderdaad, had ik ook niet eens aan gedacht maar dat zal hoop ik inderdaad zo gaan zijn, vooral het overclock punt! :o
offtopic:
laat maar komen die 7950 1.5gb

[ Voor 5% gewijzigd door pino85 op 02-12-2011 16:14 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:59:
[...]

Dat is het punt niet. Je koopt (meestal) geen 500 W voeding als je maar 200 W nodig hebt.
Het punt is dus, dat het totale verbruik (en dus de warmteproductie) aardig hoog ligt.
Blijf het een aparte redenering vinden maar goed ik snap wel wat je bedoelt. :+

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

pino85 schreef op vrijdag 02 december 2011 @ 16:01:
Hihi inderdaad, had ik ook niet eens aan gedacht maar dat zal hoop ik inderdaad zo gaan zijn, vooral het overclock punt! :o
offtopic:
laat maar komen die 7950 1.5gb
1.5GB is een beetje weinig ;)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
bladerash schreef op vrijdag 02 december 2011 @ 14:05:
[...]

denk dat hij hybrid memory cube bedoelt
Nee, ik zei stacked en bedoel dus stacked. Hoe dan ook HD8k is nog een jaar+ weg, dus wat ze precies gaan doen, blijft momenteel onduidelijk, maar ondertussen zijn we weg van de discussie of XDR2 nodig zou zijn over GDDR5 etc.

http://semiaccurate.com/2...e-prototype-gpu-pictured/
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:25:
[...]

Yep. Smartphones hebben geen voedingen van 500+ W. :p
Een goed werkende batterij in een smartphone gaat bij gebruik al gauw richting de 40 graden. Een slechte batterij tot aan explosie-punt :) Daar zit nog steeds geen 500Watt voeding bij.

[ Voor 12% gewijzigd door dahakon op 02-12-2011 16:39 ]


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

neliz schreef op vrijdag 02 december 2011 @ 16:27:
[...]


1.5GB is een beetje weinig ;)
Oh en ik denken dat die ook in 1.5gb zal komen :+
Maar dat is dus niet?

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Totaal niet logisch immers, een HD6950 heeft 2GB en de opvolger gaat 1,5GB krijgen? Kan wel zijn dat fabrikanten later met zo'n kaart komen maar AMD niet.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

-The_Mask- schreef op vrijdag 02 december 2011 @ 16:37:
Totaal niet logisch immers, een HD6950 heeft 2GB en de opvolger gaat 1,5GB krijgen? Kan wel zijn dat fabrikanten later met zo'n kaart komen maar AMD niet.
Ohh ik dacht dat er bij de 6950 ook 1Gb varianten waren , door de fabrikanten gelanceerd dan, daar doelde ik ook meer op.
Ach meer dan 1.5gb heb ik absoluut niet nodig.. op full hd, maar goed als er bij de lancering enkel 2GB beschikbaar is tja dan is het niet anders ;)

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
oeLangOetan schreef op vrijdag 02 december 2011 @ 14:04:
[...]


Stacked memory is vooral interessant voor ingebedde applicaties, bv smartphones, om plaats uit te sparen. Ik zie ze niet snel in hi-end oplossingen gebruikt worden, ze produceren teveel warmte.
3XPER7 schreef op vrijdag 02 december 2011 @ 14:04:
[...]


Dus warmteproductie zou wel een probleem zijn in high-end oplossingen met flinke koeling maar niet in smartphones met een body van ~9 mm dik :?
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:25:
[...]

Yep. Smartphones hebben geen voedingen van 500+ W. :p
Smartphones hebben geen 500+W voeding, een redelijk systeem heeft dat wel. Toch zou wegens warmteontwikkeling, en dus hoger verbruik, stacked memory wel in smartphones gebruikt kunnen worden met maar marginale koeling maar niet op high-end videokaarten met een flinke ventilator erop?

Volgens mij draaide je de boel een beetje om, of ik begrijp het echt verkeerd.. Het staat er een beetje krom ;)

[ Voor 10% gewijzigd door Fid3lity op 02-12-2011 16:42 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
pino85 schreef op vrijdag 02 december 2011 @ 16:39:
[...]


Ohh ik dacht dat er bij de 6950 ook 1Gb varianten waren , door de fabrikanten gelanceerd dan, daar doelde ik ook meer op.
Ach meer dan 1.5gb heb ik absoluut niet nodig.. op full hd, maar goed als er bij de lancering enkel 2GB beschikbaar is tja dan is het niet anders ;)
1Gb videokaarten is al een tijd geleden, de HD3850 was denk ik één van de laatsten, 1,5gb kan niet eens. :>

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Met een 384-bit bus weer wel dus. De een claimt dat HD7970 daarover zal beschikken, de ander claimt weer van niet. Het is alsof we HD6870 aan het bespreken zijn en of deze vliw-5 of vliw-4 zal hebben :)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Ik had het over 1,5gb niet 1,5GB. :p
Maar 1,5GB kan in principe ook met een 256bit bus.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
-The_Mask- schreef op vrijdag 02 december 2011 @ 16:51:
Ik had het over 1,5gb niet 1,5GB. :p
Moeten we dan niet ook maar over GiB's gaan praten, of de komma omwisselen voor een punt? Als we echt correct willen gaan doen :P

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
dahakon schreef op vrijdag 02 december 2011 @ 16:58:
Moeten we dan niet ook maar over GiB's gaan praten, of de komma omwisselen voor een punt? Als we echt correct willen gaan doen :P
In Nederland gebruiken we toch gewoon komma's?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

dahakon schreef op vrijdag 02 december 2011 @ 16:58:
[...]


Moeten we dan niet ook maar over GiB's gaan praten, of de komma omwisselen voor een punt? Als we echt correct willen gaan doen :P
ChristerEricson Christer Ericson
@
.@rygorous I don't care who supports them; "Kibi", "Mebi", "Gibi" are joke unit names that have no place in society or science!
inderdaad, GB is voor mij duidelijk, GiB niet :)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
En de gb was ook wel duidelijk door de context, dus 5 posts met onzin (waaronder die van mij natuurlijk) om niets, maar goed.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Olaf van der Spek schreef op vrijdag 02 december 2011 @ 15:59:
Dat is het punt niet. Je koopt (meestal) geen 500 W voeding als je maar 200 W nodig hebt.
Ah, net wel! Als ik mensen een budget-gamePC samenstel, dan koppel ik dat aan een 380W of 430W voeding, en dan zitten ze direct met de vraag: "Heeey, is da ni veel te weinig?", waarop ik dan zeg: "Uw systeem zal in het uiterste geval maar 250W verbruiken, dus een sterkere voeding is niet nodig. Meer marge betekent wel meer ruimte om uit te breiden of om hem onder full load nog steeds stil te hebben, natuurlijk. Aan u de keus.", en dan: "Ok, doe maar een 700W minstens.", waarop ik: *facepalm*

Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
DevilsProphet schreef op vrijdag 02 december 2011 @ 17:27:
[...]

Ah, net wel! Als ik mensen een budget-gamePC samenstel, dan koppel ik dat aan een 380W of 430W voeding, en dan zitten ze direct met de vraag: "Heeey, is da ni veel te weinig?", waarop ik dan zeg: "Uw systeem zal in het uiterste geval maar 250W verbruiken, dus een sterkere voeding is niet nodig. Meer marge betekent wel meer ruimte om uit te breiden of om hem onder full load nog steeds stil te hebben, natuurlijk. Aan u de keus.", en dan: "Ok, doe maar een 700W minstens.", waarop ik: *facepalm*
En dan natuurlijk een ''700W'' voeding van 3 tientjes willen kopen omdat ze denken meer watts = beter O-)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op vrijdag 02 december 2011 @ 16:41:
Volgens mij draaide je de boel een beetje om, of ik begrijp het echt verkeerd.. Het staat er een beetje krom ;)
Het punt is dat smartphones zuinig zijn. Dus ook weinig warmte ontwikkelen. Dus heb je niet zo snel een probleem met koeling.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 17:49:
[...]

Het punt is dat smartphones zuinig zijn. Dus ook weinig warmte ontwikkelen. Dus heb je niet zo snel een probleem met koeling.
Smartphones zijn niet zuinig, de onderdelen erin zijn zuinig en gemaakt om zonder koeling te kunnen werken.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Toettoetdaan schreef op vrijdag 02 december 2011 @ 17:55:
[...]

Smartphones zijn niet zuinig, de onderdelen erin zijn zuinig en gemaakt om zonder koeling te kunnen werken.
Wat is het verschil?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
In principe is er momenteel al 512-bit LoVo DDR2 in de vorm van stacked memory. Bij een 1066MHz geeft dat je ruwweg de bandbreedte gelijk aan een HD5770. Natuurlijk bij verre niet genoeg voor een high-end kaart. Het zou echter prima toepasbaar zijn in laptop GPU's en midrange kaarten.

Maar goed, AMD heeft ook GDDR5 zitten pushen om het klaar te krijgen voor de HD4870. Wie weet wat ze nu aan het pushen zijn op het gebied van stacked memory? Een LoVo versie van GDDR5 in 512-bit stack zou een mogenlijkheid zijn om tot de benodigde bandbreedte te komen. Of het een haalbare oplossing is, zou ik echter niet durven zeggen. Een jaar is in ieder geval niet lang om iets dergelijks voor elkaar te krijgen, dus of ze moeten al een behoorlijk tijdje bezig zijn, of ze moeten een bestaande techniek gebruiken (waarbij ik de 'beste' variant al hierboven heb genoemd).

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Olaf van der Spek schreef op vrijdag 02 december 2011 @ 17:49:
[...]

Het punt is dat smartphones zuinig zijn. Dus ook weinig warmte ontwikkelen. Dus heb je niet zo snel een probleem met koeling.
Dan kom ik weer: waarom zou stacked memory dan wel een probleem opleveren op videokaarten?

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
3XPER7 schreef op vrijdag 02 december 2011 @ 19:09:
Dan kom ik weer: waarom zou stacked memory dan wel een probleem opleveren op videokaarten?
Daar is de performance / power tradeoff anders. Meer nadruk op performance, minder op power.
Ik zeg trouwens niet dat het inderdaad een probleem is. Ik zeg alleen dat je memory in smartphones niet zomaar kunt vergelijken met memory op videokaarten.

[ Voor 28% gewijzigd door Olaf van der Spek op 02-12-2011 20:25 ]


Acties:
  • 0 Henk 'm!

  • yzx
  • Registratie: Januari 2011
  • Laatst online: 10-09 13:50

yzx

Olaf van der Spek schreef op vrijdag 02 december 2011 @ 17:49:
[...]

Het punt is dat smartphones zuinig zijn. Dus ook weinig warmte ontwikkelen. Dus heb je niet zo snel een probleem met koeling.
Mijn GSM wordt toch warm genoeg na wat internetten/gamen

Hey, waar is Perry? III Hoezo Mentos verslaving ? III


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Mijn mobiel (SGS) wordt ook aardig warm bij gamen enz. dan vreet hij ook batterij.

Maar On topic.

Waarom heb ik het vermoeden dat HD 8K tegenover 7K hetzelfde wordt als HD 6K tegenover 5K?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als ik die specs op BSN bekijk had ik toch zo iets van :|
Ik ben erg benieuwd hoe die CPU's gaan presteren als je het vergelijkt met de Cayman GPU's. Er zitten heel veel vector units in een CU en mijn vraag is kunnen ze die allemaal optimaal benutten. De aansturing gaat nu wel anders maar dan is het nog steeds de vraag hoe dat gaat werken.

VLIW4 is net wat efficiënter gebleken dan VLIW5 hopelijk dus de HD78xx kaarten zullen best aardige performance hebben. Maar we hebben al een jaar lang geen grote performance boosts gehad. De stap van 5xxx naar 6xxx heeft maar 15-20% opgeleverd. Waar je normaal bij een nieuwe generatie tegen de 80% aan zit.

Ik hoop dat de HD79xx dat deze keer weer kan doen. Het verschil tussen een 6870 en een 6970 is nu maar 25-30%. Ik hoop zelf dat de stap 7870 naar 7970 wat groter zal zijn. Eerder 50% dat zou betekenen dat we tegen de 80% boost aan zitten tov de 6970.(er van uit gaande dat de 7870 iets sneller zal zijn dan de 6970. Ze hadden het over en 28nm cayman shrink met optimalisaties en mogelijk iets hogere clocks)

Cant wait how this all will turn out :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Het gaat om de benadering,
In smartphones is geen ruimte voor koeling dus worden de onderdelen geminimaliseerd en ontwikkeld tot/op een niveau dat er geen koeling nodig is waardoor smartphones relatief zuinig zijn.

Het is niet: Een smartphone is zuinig, waardoor de onderdelen erin geen koeling nodig hebben.
Anders zeg je eigenlijk dat als je een GXT590 in een smartphone stopt dat hij dan ineens zuinig is ;)

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
Astennu schreef op vrijdag 02 december 2011 @ 21:22:
VLIW4 is net wat efficiënter gebleken dan VLIW5 hopelijk dus de HD78xx kaarten zullen best aardige performance hebben. Maar we hebben al een jaar lang geen grote performance boosts gehad. De stap van 5xxx naar 6xxx heeft maar 15-20% opgeleverd. Waar je normaal bij een nieuwe generatie tegen de 80% aan zit.
Geen process shrink (tussen 5 en 6) -> weinig performance winst.
Toettoetdaan schreef op zaterdag 03 december 2011 @ 01:17:
Het gaat om de benadering,
In smartphones is geen ruimte voor koeling dus worden de onderdelen geminimaliseerd en ontwikkeld tot/op een niveau dat er geen koeling nodig is waardoor smartphones relatief zuinig zijn.
Volgens mij is beschikbare energie (accu) een groter probleem dan koeling hoor.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Mobiele telefoons hebben overigens helemaal geen stacked memory nodig. Ten eerste gebruiken ze over het algemeen niet meer dan 1GB aan RAM op dit moment, en ten tweede is de geheugenbus momenteel niet breder dan 64-bit. Stacked memory heeft juist als voordeel dat je een bredere bus krijgt zonder alle rotzooi van traces door een duur PCB.

Al met al kan ik me geen enkele mobiele telefoon bedenken die een 512-bit brede geheugenbus implementeert. Dus dergelijk stacked geheugen zal een ander doeleinde moeten hebben dan mobiele telefoons en tablets.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Olaf van der Spek schreef op zaterdag 03 december 2011 @ 02:05:
[...]

Geen process shrink (tussen 5 en 6) -> weinig performance winst.

[...]

Volgens mij is beschikbare energie (accu) een groter probleem dan koeling hoor.
Dat weet ik. Maar dan nog het hoeft ook geen garantie te zijn dat we nu wel een 80% boost zullen zien tov de 6xxx serie.
Zeker niet in een tijd waar stroom verbruik steeds belangrijker wordt. En het feit dat nu 3 generaties op 40nm hebben gehad. Misschien is er meer 80% tov de HD5xxx.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Nou, niet echt drie volledige generaties he..

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 12:46

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

ATi was altijd pure powah terwijl AMD altijd het over de bang for buck boeg gooit, ik hoop niet dat we hetzelfde zien als in hun cpu divisie, dus met een hoop bombarie introduceren en achteraf valt het (altijd/meestal) tegen, het lijkt nvidia wel.. ;)

(no throll intented) ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
3XPER7 schreef op zaterdag 03 december 2011 @ 11:00:
Nou, niet echt drie volledige generaties he..
Nee oke geen volledige generaties. Aangezien de RV740 (HD4770) de enige kaart in die serie was op 40nm. Maar normaal gaan een productie proces minder lang mee.
sain onez schreef op zaterdag 03 december 2011 @ 11:40:
ATi was altijd pure powah terwijl AMD altijd het over de bang for buck boeg gooit, ik hoop niet dat we hetzelfde zien als in hun cpu divisie, dus met een hoop bombarie introduceren en achteraf valt het (altijd/meestal) tegen, het lijkt nvidia wel.. ;)

(no throll intented) ;)
Er is een heel ander team verantwoordelijk voor de GPU's. Die smal Die strategie was al door ATi ingezet toen de overname gedaan werd. Het ontwerpen van een GPU neemt namelijk iets van 3 jaar in beslag.
Maar een nieuwe architectuur is altijd een risico. Zie ook de Geforce FX en de HD2xxx serie. Dat was nou niet je van het.

[ Voor 53% gewijzigd door Astennu op 03-12-2011 12:06 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 07-06 11:39
Astennu schreef op zaterdag 03 december 2011 @ 12:04:
[...]


Nee oke geen volledige generaties. Aangezien de RV740 (HD4770) de enige kaart in die serie was op 40nm. Maar normaal gaan een productie proces minder lang mee.
Hier kan ik het alleen maar mee eens zijn.. ;)

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 15:56

superwashandje

grofheid alom

toch denk ik dat het steeds langer gaat duren voordat we weer over kunnen naar een nieuw kleiner process. het is sowieso al goed te merken; waar het eerst ongeveer een half jaartje duurde voor "updates" zijn de nieuwste kaarten alweer een jaar oud ongeveer.
ook zijn er volgens mij steeds meer en langer problemen bij het opstarten van nieuwe processes nu we wel bij de grens van de fysieke mogelijkheden aan beginnen te komen.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Daar lijkt het wel op, zelfs intel met zijn tick-tock strategie lijkt er moeite mee te krijgen.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
normaal zijn er toch ongeveer 2 generaties op 1 node? Alhoewel dat minder geworden is sinds Nvidia overging op een gigantische die.(g80)

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Well, als ze bij 16 nm aankomen (dacht ik). Dan kunnen we leuke dingen verwachten :) dan gaat stroom mogelijk onbekende dingen doen.

Acties:
  • 0 Henk 'm!

  • Sinester
  • Registratie: Januari 2006
  • Laatst online: 03-07 11:52

Sinester

Game Guru

1Gb videokaarten is al een tijd geleden, de HD3850 was denk ik één van de laatsten
AMD heeft toch gewoon zelf de 6950 1GB geïntroduceerd? als concurrent op de 560 van nVidia
1.5GB is een beetje weinig
Weinig voor wat? me huidige kaart heeft 1GB, en heb nooit het gevoel gekregen dat het te weinig was (speel op Full HD)
Volgens mij melden de reviews het zelfde

Hello there


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 16:47
DCG909 schreef op zaterdag 03 december 2011 @ 15:00:
Well, als ze bij 16 nm aankomen (dacht ik). Dan kunnen we leuke dingen verwachten :) dan gaat stroom mogelijk onbekende dingen doen.
Tja, we kunnen natuurlijk nog sowieso zo'n jaar of 5 vooruit voor zover het die nodes betreft.

Maar dat trucje is eindig. Het is van alle kanten een beetje koffiedik om te zeggen waar het ophoudt, de meeste stemmen die ik hoor zeggen "onder de 20 nm". Ergens ligt die muur. En naarmate we die gaan benaderen, worden de effecten van een node verkleining kleiner.

Ik ben zelf wel erg nieuwsgierig of we dan een soort endgame scenario krijgen - of toch eerder een geheel nieuwe weg inslaan. Wat zou ik graag een kristallen bolletje hebben...

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Sinester schreef op zaterdag 03 december 2011 @ 15:41:
[...]

AMD heeft toch gewoon zelf de 6950 1GB geïntroduceerd? als concurrent op de 560 van nVidia
Hij had het over de 1GB v.s. 1Gb (Gigabit) en dat is al besproken, dat is het inhoudelijk reageren dus niet waard. :P

@neliz, en toch is giga- fout, door die instelling kunnen HDD-fabrikanten misbruik van je maken. :P

[ Voor 14% gewijzigd door bwerg op 03-12-2011 16:04 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Klopt, ik wist niet dat er hier enkele schoolmeesters/mierenneukers rondliepen( is als grap bedoelt zeg ik er even bij) maar zo leer je weer wat bij he :9

[ Voor 16% gewijzigd door pino85 op 03-12-2011 16:01 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Ik draai nu nog met een HD5850 en wil eigenlijk een andere kaart. Daarom hoop ik ook dat de 7970 een heel stuk sneller is dan wat ik nu heb. Nu nog een HD6970 of GTX580 kopen zie ik niet echt zitten. Afgezien van de prijs vind ik het verschil niet groot genoeg met mijn huidige kaart. Als ik naar de specs van de 7870 kijk gaat dat ook niet echt opschieten, hoewel ik de benchmarks natuurlijk nog moet zien.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Sinester schreef op zaterdag 03 december 2011 @ 15:41:
Weinig voor wat? me huidige kaart heeft 1GB, en heb nooit het gevoel gekregen dat het te weinig was (speel op Full HD)
Volgens mij melden de reviews het zelfde
Het was een hint dat het een 3GB kaart wordt ;) (of iig meer dan 1,5GB)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Hoe zeker is die 384bits geheugencontroller ?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Charlie heeft het als 'het nieuwigheidje' in 1 van zijn artikelen gepost en dat doet hij meestal niet zomaar. Maar goed, dat is nog geen garantie. Als de 2048 SPU waarheid zijn, is het echter wel de gemakkelijkste manier om voldoende bandbreedte te krijgen voor die kaart.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op zaterdag 03 december 2011 @ 17:53:
Charlie heeft het als 'het nieuwigheidje' in 1 van zijn artikelen gepost en dat doet hij meestal niet zomaar. Maar goed, dat is nog geen garantie. Als de 2048 SPU waarheid zijn, is het echter wel de gemakkelijkste manier om voldoende bandbreedte te krijgen voor die kaart.
Hebben kaarten nu bandbreedte tekort ? Volgens mij is uit tests gebleken dat het verhogen van de geheugenclocksnelheid een minieme performance verhoging met zich mee brengt. Terwijl de kosten van de PCB, geheugen en CPU t.g.v. een 384bits geheugencontroller onevenredig hoog worden t.o.v. de performance toenamen die dit met zich meebrengt.

Enige voordeel dat ik zie in een 384bits geheugencontroller is dat er nu 3GB op één kaart gesoldeerd kan worden. Met een 256bits geheugencontroller is dit namelijk 2GB of 4GB. Waarbij 2GB te weinig kan zijn in sommige gevallen, maar waarbij 4GB weer veel te veel is. 3GB is precies goed. Alhoewel voor een singel GPU kaart 2GB meer dan genoeg is. Alleen voor CF met Eyefinity zie ik 3GB tot zijn recht komen.

Voor deze niche markt van CF+Eyefinity kunnen ze in mijn ogen ook gewoon een 256bits geheugencontroller houden en er gewoon 4GB geheugen op solderen. Nu worden alle kaarten namelijk onnodig duur door een 384bits geheugencontroller terwijl het geen tot bijna geen performance verhoging met zich mee brengt.

[ Voor 33% gewijzigd door madmaxnl op 03-12-2011 18:36 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

bwerg schreef op zaterdag 03 december 2011 @ 15:56:
[...]

@neliz, en toch is giga- fout, door die instelling kunnen HDD-fabrikanten misbruik van je maken. :P
giga is goed, giga is 1024 x mega, dat HD fabrikanten een nep giga gebruiken is iets heel anders, meer wasmiddelmarketing.

daarom heeft niemand problemen met de Giga's in Windows bijvoorbeeld.

[ Voor 9% gewijzigd door neliz op 03-12-2011 19:05 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op zaterdag 03 december 2011 @ 18:33:
Hebben kaarten nu bandbreedte tekort ? Volgens mij is uit tests gebleken dat het verhogen van de geheugenclocksnelheid een minieme performance verhoging met zich mee brengt. Terwijl de kosten van de PCB, geheugen en CPU t.g.v. een 384bits geheugencontroller onevenredig hoog worden t.o.v. de performance toenamen die dit met zich meebrengt.
Mwa, als de SPU's met 25% toenemen en de clocksnelheid van het geheugen niet al te veel omhoog kan (als het uberhaupt omhoog gaat), kan het best zijn dat je wel bij een bandbreedte tekort aankomt. We weten inderdaad dat het verhogen van de geheugensnelheid weinig deed bij 6970. Maar weten we ook wanneer de prestaties van de 6970 opeens inkakken bij lagere geheugensnelheden? Er zal wel een redelijke balans zijn in de kaart.

Maar met 25% meer SPU's, zou je toch minimaal 20% meer geheugenbandbreedte willen hebben (tenzij ze wederom een behoorlijke efficientie-slag hebben geslagen), waarmee het geheugen al op 1600MHz/6400MHz zou moeten draaien. Ik weet niet of dergelijk geheugen in productie-hoeveelheden beschikbaar is.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

neliz schreef op zaterdag 03 december 2011 @ 19:04:
[...]


giga is goed, giga is 1024 x mega, dat HD fabrikanten een nep giga gebruiken is iets heel anders, meer wasmiddelmarketing.

daarom heeft niemand problemen met de Giga's in Windows bijvoorbeeld.
Volgens mn BiNaS is giga echt 1000 keer mega. HDD fabrikanten verkopen een schijf van 1TB gewoon met een biljoen bytes aan ruimte. Dat ze dit met werkgeheugen anders doen is puur omdat adresseren op iets anders dan een macht van 2 veel inefficiënter is dan op een macht van 2.

[ Voor 13% gewijzigd door dcm360 op 03-12-2011 19:41 ]


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 16:47
madmaxnl schreef op zaterdag 03 december 2011 @ 18:33:
Enige voordeel dat ik zie in een 384bits geheugencontroller is dat er nu 3GB op één kaart gesoldeerd kan worden. Met een 256bits geheugencontroller is dit namelijk 2GB of 4GB. Waarbij 2GB te weinig kan zijn in sommige gevallen, maar waarbij 4GB weer veel te veel is. 3GB is precies goed. Alhoewel voor een singel GPU kaart 2GB meer dan genoeg is. Alleen voor CF met Eyefinity zie ik 3GB tot zijn recht komen.

Voor deze niche markt van CF+Eyefinity kunnen ze in mijn ogen ook gewoon een 256bits geheugencontroller houden en er gewoon 4GB geheugen op solderen. Nu worden alle kaarten namelijk onnodig duur door een 384bits geheugencontroller terwijl het geen tot bijna geen performance verhoging met zich mee brengt.
Goeie analyse, maar ik denk niet dat we daar de reden moeten zoeken.

Ik denk dat we hier kijken naar echte, onvervalste nummerfetishisme, het soort dat je hier ook nog wel eens treft. Meer is nu eenmaal beter. There is no substitute for cubic inch.

Eigenlijk vermoed ik dat ATi gezwicht is voor de verleiding van marketing. Ik vrees dat nog steeds maar een beperkt percentage van de mensen werkelijk de reviews leest. Of, wanneer ze dat wel doen, daar de belangrijke informatie uit kunnen filteren.

nVidia heeft 384 bits. Wij ook.


* waar ik ATi zei, bedoelde ik AMD. Ik zet 3 jokers in, stop de tijd >.<

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Helixes schreef op zaterdag 03 december 2011 @ 20:16:
* waar ik ATi zei, bedoelde ik AMD. Ik zet 3 jokers in, stop de tijd >.<
_/-\o_

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
@Helixes.

Als ik het goed heb hebben CAD programma's ook baad bij meer geheugen en ik gebruik ook CAD programma's dus ik vind 3 Gb niet zo slecht :9

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
FirePro kaarten zijn bedoeld voor CAD. Op FirePro kaarten zit dan ook meer geheugen dan normaal.
ATI FirePro™ V9800 Professional Graphics met 4GB.
Van deze kaart had de 'consumenten versie' slechts 1GB en in de Eyefinity Edition 2GB. Deze kaart kennen wij als de HD5870.

[ Voor 33% gewijzigd door madmaxnl op 03-12-2011 22:24 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

neliz schreef op vrijdag 02 december 2011 @ 17:08:
inderdaad, GB is voor mij duidelijk, GiB niet :)
Hey, dat de informatici destijds een loopje wilden nemen met het bestaande prefixenstelsel (dat van het SI dan nog!), daar wil ik de gevolgen niet van moeten dragen. GiB IT IS! Voor mijn part althans.

Dat informatici alles baseren op een 2-delig stelsel ipv een 10-delig, mij goed, maar dan moeten ze daar maar ook in verdergaan, inclusief het uitdrukken van hoeveelheden. Even bestaande SI-prefixen hijacken voor hun eigen meug, dat past niet.

Het leuke is dat hardeschijffabrikanten zijn teruggevallen op de SI-prefixen, omdat die een iets minder zwaar vergrotend effect hebben, en dus meer gigs per miljarden bytes kunnen verkopen. Een marketingmove, maar in sé wel de juiste.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Nou, ben benieuwd wat we vandaag te horen krijgen uit Londen...

Radeon HD 7000 to be presented in London on December 5th

[ Voor 60% gewijzigd door Format-C op 05-12-2011 08:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Me2 ben vooral benieuwd naar specs en een eventuele launch date :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Ik ben vooral benieuwd hoe deze series het tegen de concurent gaat doen met hun nieuwe serie.
Pagina: 1 ... 10 ... 31 Laatste

Dit topic is gesloten.