Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
In iedergeval hebben we te weinig informatie om een goed oordeel hierover te geven.
Verwijderd
Ik zou er niet op rekenen. Die informatie kwam eigenlijk "uit het niets", en is deels sowieso foutief (een laptop variant is als desktop variant neergezet). Daarnaast heeft Charlie al gezegd dat het niet gaat gebeuren.Hyperz schreef op zaterdag 15 oktober 2011 @ 23:46:
Is er nu eigenlijk al enige zekerheid rondom dat XDR2 geheugen voor de 79xx series? Ik lees namelijk overal tegenstrijdige claims. De ene site zeg welles, de andere nietes. Heeft AMD zelf hier al info of hints over vrijgegeven?
De rest van de informatie kan (in mijn ogen) ook onwaarschijnlijk worden genoemd: er wordt gezegd dat de HD7970 maar liefst 2048 shaders zal hebben, maar de volgende generatie architectuur gaat van VLIW4 af stappen, waardoor shaders waarschijnlijk wat meer ruimte in gaan nemen (maar daarentegen veel beter benut zullen worden). Daarnaast zou het TDP 190W zijn, terwijl die van de HD6970 250W is. Het doet allemaal wat aan als een "wish list"...
[ Voor 3% gewijzigd door Verwijderd op 16-10-2011 21:42 ]
Van zo'n kaart moet je natuurlijk ook niet raar opkijken als ie een beetje herrie maakt...spNk schreef op zondag 16 oktober 2011 @ 18:52:
En ik denk dat die reden is dat er nogal wat mensen geklaagd hebben over eerdere koelers (6990...)
Het process is wel veel kleiner, dus de TPD zou heel misschien nog wel kunnen kloppen (kan ook veel hoger wordenVerwijderd schreef op zondag 16 oktober 2011 @ 21:21:
[...]
Ik zou er niet op rekenen. Die informatie kwam eigenlijk "uit het niets", en is deels sowieso foutief (een laptop variant is als desktop variant neergezet). Daarnaast heeft Charlie al gezegd dat het niet gaat gebeuren.
De rest van de informatie kan (in mijn ogen) ook onwaarschijnlijk worden genoemd: er wordt gezegd dat de HD7970 maar liefst 2048 shaders zal hebben, maar de volgende generatie architectuur gaat van VLIW4 af stappen, waardoor shaders waarschijnlijk wat meer ruimte in gaan nemen (maar daarentegen veel beter benut zullen worden). Daarnaast zou het TDP 190W zijn, terwijl die van de HD6970 250W is. Het doet allemaal wat aan als een "wish list"...
Ben ik met je eens, maar nvidia laat zien dat het ook anders kan.Naluh! schreef op zondag 16 oktober 2011 @ 22:16:
[...]
Van zo'n kaart moet je natuurlijk ook niet raar opkijken als ie een beetje herrie maakt...
klopt, die branden gewoon door XDspNk schreef op maandag 17 oktober 2011 @ 13:36:
[...]
Ben ik met je eens, maar nvidia laat zien dat het ook anders kan.
Wil je nu graag een nieuwe architectuur kopen zal je gelijk het topmodel moeten kiezen, maar een performance kaart scheelt snel een hoop geld tov de enthusiastkaarten.
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Verwijderd
Misschien willen ze wat meer TDP budget hebben voor GCN? Kan zijn dat ze problemen met het in een notebook TDP proppen van die architectuur willen voorkomen (wellicht is het downscalen van GCN niet zo eenvoudig), en daar een extra generatie de tijd voor nemen. En aangezien ze notebook chips op de kleinere (budget, mainstream) kaarten baseren zullen die in dat geval ook VLIW4 moeten zijn.
Of, misschien willen ze problemen met Crossfire met Trinity voorkomen, en dus notebook chips op dezelfde architectuur (VLIW4) laten werken.
Wel wat jammer als je veel GPGPU workloads op je notebook wil doen idd.
Even geGoogled... Volgens deze chart moet een HD7850 ongeveer even snel, of misschien ietsje sneller zijn dan een HD6950. En de HD7870 weer iets sneller dan de HD6970.
[ Voor 37% gewijzigd door Haay op 18-10-2011 15:46 ]
Zag je met de 5-serie en de 6-serie. Meer van hetzelfde in dezelfde verpakking. Ik denk dat ik nog maar even wacht en in januari ofzo een PD met SI combi ga kopen. Natuurlijk kan je blijven wachten maar ik verwacht wel veel van de nieuwe architectuur.
Met name het makkelijker over kunnen nemen van meerdere programmeertalen dedicated door GCN, kunnen ontwikkelaars veel sneller beginnen met het renderen van webpages en weet ik veel wat voor ongein door de GPU:
AMD's Graphics Core Next Preview: AMD's New GPU, Architected For Compute:
In terms of base features the biggest change will be that GCN will implement the underlying features necessary to support C++ and other advanced languages. As a result GCN will be adding support for pointers, virtual functions, exception support, and even recursion. These underlying features mean that developers will not need to “step down” from higher languages to C to write code for the GPU, allowing them to more easily program for the GPU and CPU within the same application. For end-users the benefit won’t be immediate, but eventually it will allow for more complex and useful programs to be GPU accelerated.
[ Voor 8% gewijzigd door Nox op 18-10-2011 16:15 ]
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Zelfde verhaal met de huidige serie eigenlijk. HD69xx VLIW-4, alles er beneden VLIW-5. Twee verschillende technieken in 1 serie. Ze zullen er vast goede redenen voor hebben.NoxiuZ schreef op dinsdag 18 oktober 2011 @ 01:09:
Wel vreemd dat er 2 technieken worden gebruikt, VLIW-4 en GCN in dezelfde serie. Is het niet makkelijker om kleinere en minder hoog geklokte chips op dezelfde architectuur te maken met wat minder performance en de hoger geklokte chips met meer shaders enz. te maken voor de snellere kaarten?
Wil je nu graag een nieuwe architectuur kopen zal je gelijk het topmodel moeten kiezen, maar een performance kaart scheelt snel een hoop geld tov de enthusiastkaarten.
En die nieuwe koeling, ziet er goed uit. Ik weet alleen niet of dat een manier is van warmtetransport zoals heatpipes of afvoer. In geval van transport zal er nog steeds ergens een heatsink van koper/alu moeten komen en die kunnen amper efficiënter. Zo te zien is dat wel het geval, maar we zullen zien.
Heatpipes hadden daar ook last van maar daar is de capitulaire werking voor uitgevonden ontdekt.DCG909 schreef op zaterdag 15 oktober 2011 @ 14:45:
één probleem voor AMD, de tekening laat het systeem zien als het ligt (als in op een vlak oppervlak, met de chip onderop). Sommige kasten "liggen" met het mobo paralel aan de grond, dan gaat de vlieger voor zo'n "water" kamer slecht op.
Andere kasten staan gewoon, dan zit de vloeistof bij het koelvlak en de stoom bij de GPU....
Lijkt mij dus niet echt effectief.
[ Voor 27% gewijzigd door Nox op 18-10-2011 17:38 ]
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Mensen die het weten zullen het niet zeggen mensen die het niet weten die lullen maar wat, dus een goed antwoord zal je niet krijgen.Haay schreef op dinsdag 18 oktober 2011 @ 15:22:
Hoe zit het nou precies met de HD7870 en HD7850 gpu's ? Zijn dat refreshes van de HD6970 en HD6950 respectievelijk, maar op een kleinere die-size en met lager stroomverbruik, maar vergelijkbare prestaties?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
capitulaire werking? of capillaire werking?NoxiuZ schreef op dinsdag 18 oktober 2011 @ 17:36:
Heatpipes hadden daar ook last van maar daar is de capitulaire werking voor uitgevonden ontdekt.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Die laatstesuperwashandje schreef op dinsdag 18 oktober 2011 @ 19:04:
[...]
capitulaire werking? of capillaire werking?
@ 7850/7870 kaarten;
Er is toch bekend dat die ook VLIW-4 architectuur gebruiken? Lijkt mij min of meer een die-shrink en wat optimalisaties van de 69xx serie.
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Maar net als BD houdt AMD alles nog vrij geheim. Releasedates enzo zal wel maar inhoudelijk lijkt het allemaal goed dicht te zitten.
Overlever van KampeerMeet 4.1
"Als David Attenborough een film van jou zou moeten maken zou hij het moeilijk krijgen." - TDW
Zecht niet dat hij dan ook niets op een HD69xx kaart doet. Bij eyefinity reso's is er toen wel wat verschil gemeten. Maar niets schrikbarends. Niet zoals bij de stap van 512 naar 1GB.madmaxnl schreef op maandag 26 september 2011 @ 03:06:XFX Radeon HD 6870 2 GByte: Lohnt sich mehr Grafikspeicher?
Conclusie 2GB doet niks.
Wel opmerkelijk een HD6990 sloopt een GTX590. Hij is gewoon sneller, goedkoper, zuiniger en stabieler
Ik kwam deze tegen:
wel grappig hoeveel sneller de X1800 en de X1950 zijn dan de toemalige concurent de 7900GTX. Eerst maakte het niet veel verschil tussen een X1900 XT en die kaart. Maar nu wordt hij gewoon kompleet aan de kant geblazen. Zelfs de X1800 XT verslaat em dik!
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik hoop dat ik niet de enige ben als ik nu zeg: "snap 'um nietAstennu schreef op woensdag 19 oktober 2011 @ 00:19:
[...]
Ik kwam deze tegen:
wel grappig hoeveel sneller de X1800 en de X1950 zijn dan de toemalige concurent de 7900GTX. Eerst maakte het niet veel verschil tussen een X1900 XT en die kaart. Maar nu wordt hij gewoon kompleet aan de kant geblazen. Zelfs de X1800 XT verslaat em dik!
Wat valt er niet aan te snappen? Waar de X1900 XT en de 7900 GTX vroeger even duur en +- even snel waren is de X1900 XT nu 3x zo snel. Al zullen de meeste gamers al wel nieuwere hardware hebben.3XPER7 schreef op woensdag 19 oktober 2011 @ 00:29:
[...]
Ik hoop dat ik niet de enige ben als ik nu zeg: "snap 'um niet"
Ik heb een tijd terug nog even tijdelijk op een X1900 XTX games gespeeld. Liep nog best aardig ook. Vergelijkbaar met midrange kaarten van nu.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
In welke benchmarks?Astennu schreef op woensdag 19 oktober 2011 @ 00:19:
Maar nu wordt hij gewoon kompleet aan de kant geblazen. Zelfs de X1800 XT verslaat em dik!
Dat is voor mijn tijdAstennu schreef op woensdag 19 oktober 2011 @ 00:53:
[...]
Wat valt er niet aan te snappen? Waar de X1900 XT en de 7900 GTX vroeger even duur en +- even snel waren is de X1900 XT nu 3x zo snel. Al zullen de meeste gamers al wel nieuwere hardware hebben.
Verwijderd
Misschien is het wat onduidelijk hoe een kaart sneller kan worden? Is het door drivers, of doordat nieuwere games beter op de ATI kaarten draaien?Astennu schreef op woensdag 19 oktober 2011 @ 00:53:
[...]
Wat valt er niet aan te snappen? Waar de X1900 XT en de 7900 GTX vroeger even duur en +- even snel waren is de X1900 XT nu 3x zo snel. Al zullen de meeste gamers al wel nieuwere hardware hebben.
Ik heb een tijd terug nog even tijdelijk op een X1900 XTX games gespeeld. Liep nog best aardig ook. Vergelijkbaar met midrange kaarten van nu.
[ Voor 14% gewijzigd door RuddyMysterious op 19-10-2011 10:05 ]
Edit:
Point being, denk ik, is dat iets dat vandaag overkill lijkt en geen nut geeft (2GB vram) morgen wel het verschil kan maken tussen speelbaar en niet speelbaar. Wanneer de meeste kaarten meer dan 1GB vram hebben zal je blij zijn dat je een tijdje geleden die 2GB kaart kocht voor een paar tientjes meer i.p.v. het 1GB model.
[ Voor 40% gewijzigd door Hyperz op 19-10-2011 10:18 ]
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Ik denk dat Astennu dit artikel bedoelt:
http://www.computerbase.d...ion/#abschnitt_einleitung
ATI ging er indertijd van uit dat toekomstige software meer shaderintensief zou zijn. De X1800/X1900-serie hadden daarom een hogere verhouding pixel-/textureshaders dan Nvidia.Verwijderd schreef op woensdag 19 oktober 2011 @ 09:39:
[...]
Misschien is het wat onduidelijk hoe een kaart sneller kan worden? Is het door drivers, of doordat nieuwere games beter op de ATI kaarten draaien?
[ Voor 42% gewijzigd door Daaaaf op 19-10-2011 13:08 ]
Verwijderd
Ik heb op het moment 2 HD 6950's in mijn pc. Nu krijg ik het niet voor elkaar om deze in CF te laten lopen. Ik de de CF bridge bevestigd, maar in het ccc menu (catalyst control center) komt de optie crossfire niet tevoorschijn. Verder staat er bij grafische hardware dat er een primaire en uitgeschakelde adaptor is. Iemand een idee hoe ik deze kan inschakelen en de crossfire functie kan inschakelen?
Succes!
AMD HD6XXX ervaringen - Deel 3
[ Voor 23% gewijzigd door pino85 op 19-10-2011 17:26 ]
Liefhebber van Tweakers
De architectuur in dit geval niet de drivers. Die shaders die ATi daar gebruikte waren hun tijd vooruit. Net als bij de R300.Verwijderd schreef op woensdag 19 oktober 2011 @ 09:39:
[...]
Misschien is het wat onduidelijk hoe een kaart sneller kan worden? Is het door drivers, of doordat nieuwere games beter op de ATI kaarten draaien?
Ja inderdaad. Maar ik snap ook wat hij bedoelt. Ze laten tegenwoordig niet meer zien welke dingen ze getest hebbenDaaaaf schreef op woensdag 19 oktober 2011 @ 11:46:
[...]
Ik denk dat Astennu dit artikel bedoelt:
http://www.computerbase.d...ion/#abschnitt_einleitung
[...]
ATI ging er indertijd van uit dat toekomstige software meer shaderintensief zou zijn. De X1800/X1900-serie hadden daarom een hogere verhouding pixel-/textureshaders dan Nvidia.
Spiele ab 2005
Bei den Spielen haben wir auf zwei wichtige Kriterien geachtet. Die erste Voraussetzung war die Nutzung des Shader-Model 3.0, das von allen getesteten Grafikkarten unterstützt wird. Ermöglicht ein Titel DirectX 10 oder gar DirectX 11 (und damit das SM4.0/SM4.1 oder gar SM5.0), haben wir die API auf den vollen DirectX-9-Standard limitiert. Die zweite Voraussetzung für die Aufnahme in diesen Test war: die Spiele müssen zu ihrer Zeit grafiklastig gewesen sein.
Die neuesten zwei Sprösslinge stammen aus diesem Jahr und es handelt sich um die Titel „Dirt 3“ sowie „The Witcher 2“. Aus dem Jahre 2010 kommt einzig und alleine „Mass Effect 2“, das mit der Unreal Engine 3 ausgestattet ist.
Das Jahr 2009 wird von gleich zwei Spielen repräsentiert: Dem beliebten First-Person-Shooter „Call of Duty: Modern Warfare 2“ sowie dem Action-/Flugspiel „H.A.W.X.“. Für das Jahr 2008 springt dann wieder nur ein Titel in die Bresche: Race Driver Grid, das wie Dirt 3 die Ego-Engine nutzt, jedoch eine deutlich ältere Variante.
Gleich drei Spiele aus dem Jahr 2007 haben es in den Testparcours geschafft: Es handelt sich um die First-Person-Shooter „Bioshock“, „Half-Life 2: Episode 2“ sowie den etwas unbekannten, optisch damals aber sehr guten Titel „Jericho“.
Genauso oft ist das Jahr 2006 vertreten, wobei zwei Spiele dem Strategie- und eines dem Adventure-Genre entspricht. „Company of Heroes“, „Spellforce 2“ und „Oblivion“ halten die Fahne für 2006 hoch. Die ältesten Spiele stammen aus 2005 und es handelt sich um die First-Person-Shooter „F.E.A.R.“ sowie „Serious Sam 2“.
[ Voor 91% gewijzigd door Astennu op 20-10-2011 01:06 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zag 'm voorbij komen inderdaad, moet wel zeggen dat ik hier (behalve wellicht betere koeling) niet zo veel potentie in zie als de recente HD6870X2.
De gamers op hogere resolutie zullen dit kunnen gebruiken niet? omwille van de 2gb VRAM tenzij ze er 1gb op zetten3XPER7 schreef op maandag 24 oktober 2011 @ 17:59:
[...]
Zag 'm voorbij komen inderdaad, moet wel zeggen dat ik hier (behalve wellicht betere koeling) niet zo veel potentie in zie als de recente HD6870X2.
* yzx gaat het artikel eens lezen
Kun je beter een 6870x2 kopen
[ Voor 4% gewijzigd door yzx op 24-10-2011 18:38 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Enne, hoe ga je nu tegen mijn quote in precies?yzx schreef op maandag 24 oktober 2011 @ 18:03:
[...]
De gamers op hogere resolutie zullen dit kunnen gebruiken niet omwille van de 2gb VRAM tenzij ze er 1gb op zetten
* yzx gaat het artikel eens lezen
Kun je beter een 6870x2 kopen
Het door geschrapte deeltje3XPER7 schreef op maandag 24 oktober 2011 @ 18:05:
[...]
Enne, hoe ga je nu tegen mijn quote in precies?
mijn bak 33ers is leeg
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Dan nog, de prijs van dit custom model zal, zeker door de waarschijnlijk betere koeling, best in de buurt kunnen komen van een HD6990. Dan is laatstgenoemde op performance gebied wellicht net de betere keuze (maar luidruchtiger)
Je bak wutmijn bak 33ers is leeg![]()
111!!!!!!
Zal wss aangaan op de prijs hoe dit zal verkopen3XPER7 schreef op maandag 24 oktober 2011 @ 18:55:
[...]
Dan nog, de prijs van dit custom model zal, zeker door de waarschijnlijk betere koeling, best in de buurt kunnen komen van een HD6990. Dan is laatstgenoemde op performance gebied wellicht net de betere keuze (maar luidruchtiger)
Jupiler[...]
Je bak wut![]()
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Dus je hebt nu geen reden meer om belabberd te quoten en scheef te reageren
Moet je toch bezighouden3XPER7 schreef op maandag 24 oktober 2011 @ 19:33:
[...]
Dus je hebt nu geen reden meer om belabberd te quoten en scheef te reageren![]()
Edit: Leuk dat de 7xxx al vermeld word in de nieuwe drivers, zou dit een goed teken zijn dat ze dit jaar nog uit gaan komen?
[ Voor 59% gewijzigd door yzx op 24-10-2011 19:47 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
hoogstwaarschijnlijk niet, als je ziet dat TSMC nu pas zoetjesaan met massaproductie startyzx schreef op maandag 24 oktober 2011 @ 19:35:
[...]
Moet je toch bezighouden![]()
Edit: Leuk dat de 7xxx al vermeld word in de nieuwe drivers, zou dit een goed teken zijn dat ze dit jaar nog uit gaan komen?
ook zou er dan toch al een aankondiging moeten gekomen zijn
Die hebben samen minder shaders beschikbaar. Dus ik zou dat niet zo stellen. Het zal van de prijs/prestatie verhouding afhangen.yzx schreef op maandag 24 oktober 2011 @ 18:03:
[...]
De gamers op hogere resolutie zullen dit kunnen gebruiken niet? omwille van de 2gb VRAM tenzij ze er 1gb op zetten
* yzx gaat het artikel eens lezen
Kun je beter een 6870x2 kopen
Ik vermoed zelf dat we pas in Q1 2012 iets nieuws gaan zien. Ik hoop dat we niet nog langer dan Q1 moeten wachten op een opvolger van de HD69xx. Ik heb nu wel weer een keer zin in een echte performance boost van +- 80% ipv 10-15%. (mja dat is allemaal met dank aan TSMC voor het schrappen van 32nm en het niet op orde krijgen van 28nm).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik verwacht dus een redelijke stap voorwaards in performance vanwege het overslaan van de 32nm node. 50%?Astennu schreef op dinsdag 25 oktober 2011 @ 12:36:
(mja dat is allemaal met dank aan TSMC voor het schrappen van 32nm en het niet op orde krijgen van 28nm).
Jij niet?
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
GF heeft het ook niet echt allemaal op orde, toch?Astennu schreef op dinsdag 25 oktober 2011 @ 12:36:
Ik vermoed zelf dat we pas in Q1 2012 iets nieuws gaan zien. Ik hoop dat we niet nog langer dan Q1 moeten (mja dat is allemaal met dank aan TSMC voor het schrappen van 32nm en het niet op orde krijgen van 28nm).
Ik heb ook hoge verwachtingen van 79xx. en ik verwacht dat deze wel uit zullen komen
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Kijk voor de lol hier eens na:


Bron
Zo geweldig goed zijn ze dus ook weer niet in GPGPU
In deze test wordt de VLIW5 architectuur volledig benut waardoor de kaarten aan hun maximale theoretische performance zitten.
GTX480 1345GFlops(FMA)
GTX295 1788GFlops(MADD)
GTX280 933GFlops(MADD)
HD5970 4640GFlops(MADD)
HD4870x2 2400GFlops(MADD)
HD4870 1200GFlops(MADD)
Verschil tussen GTX480 en HD5970 in GFlops is een factor 3,4. Precies deze factor is ook het verschil in performance. Je kunt zien dat dual GPU gewoon werkt(HD4870x2 en GTX280 t.o.v GTX295) dus men heeft met de GTX480 al vooruitgang geboekt op GPGPU niveau. Zie hiervoor het verschil tussen GTX295 en GTX480.
[ Voor 42% gewijzigd door madmaxnl op 25-10-2011 22:59 ]
Daarnaast weet ik ook dat GFlops of welke andere theoretische indicatie van performance niet alles zeggend is:
madmaxnl in "[Algemeen] AMD nieuwsdiscussie topic - deel 33" Vandaag nog gezegd.
[ Voor 3% gewijzigd door madmaxnl op 25-10-2011 23:04 ]
Ik verwacht 80% tov de huidige Generatie. zoals we dat normaal meestal zagen bij die shrinks + nieuwe architecturen. Maar ik verwacht niet meer dan het dubbele doordat 32nm wordt overgeslagen. Eerder dat het verbruik wat gaat zakken ondanks dat de performance toeneemt.XanderDrake schreef op dinsdag 25 oktober 2011 @ 13:31:
[...]
Ik verwacht dus een redelijke stap voorwaards in performance vanwege het overslaan van de 32nm node. 50%?
Jij niet?
28nm weet ik niet. 32nm is in ieder geval een zooitjeOlaf van der Spek schreef op dinsdag 25 oktober 2011 @ 14:29:
[...]
GF heeft het ook niet echt allemaal op orde, toch?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://semiaccurate.com/2...e-prototype-gpu-pictured/AMD (NYSE:AMD) has some top secret prototype GPUs floating, and SemiAccurate managed to get a picture of one. With that, here is an upcoming, but not soon, AMD GPU that we won’t name, along with an interposer and stacked memory. No more details or legs get broken. Enjoy.S|A

Een extra level cache? Of is dit een verkleinde uitvoering van gewoon geheugen?
[ Voor 6% gewijzigd door Toettoetdaan op 28-10-2011 00:07 ]
http://forum.beyond3d.com...d.php?t=59176&page=12#839
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat zou heel goed kunnen, het gebruik van een interposer heeft als groot voordeel dat je PCB er simpeler van wordt.NitroX infinity schreef op vrijdag 28 oktober 2011 @ 00:22:
Op Beyond3D denken ze dat het een console-part is.
http://forum.beyond3d.com...d.php?t=59176&page=12#839

Met de huidige grafische kaarten wordt het aantal lagen PCB sterk bepaalt door de bit-bandbrete die je voor je memory wilt hebben. (meer bit = meer PCB lagen = duurder, en complexer)
Door deze verbindingen te verplaatsen naar een interposer wordt de printplaat een stuk goedkoper, wat natuurlijk interessant is voor console makers.
Eerdere geruchten zouden melden dat er voor console's een RV770 achtige chip zou worden ontwikkeld, met de huidige beschikbare techniek kunnen die vier chipjes op de interposer samen voor een nette 1GB aan VRAM zorgen.
Een (op het oog) kleine GPU + 1GB 256-bit GDDR5 in een materiaal kosten besparende opstelling, dat lijkt me goud voor een console.
Die geruchten voor een RV770 achtige chip waren geloof ik van de nieuwe WII. Ik verwacht van de nieuwe Xbox op PS toch wel iets meer power dan dat.Toettoetdaan schreef op vrijdag 28 oktober 2011 @ 02:26:
[...]
Dat zou heel goed kunnen, het gebruik van een interposer heeft als groot voordeel dat je PCB er simpeler van wordt.
[afbeelding]
Met de huidige grafische kaarten wordt het aantal lagen PCB sterk bepaalt door de bit-bandbrete die je voor je memory wilt hebben. (meer bit = meer PCB lagen = duurder, en complexer)
Door deze verbindingen te verplaatsen naar een interposer wordt de printplaat een stuk goedkoper, wat natuurlijk interessant is voor console makers.
Eerdere geruchten zouden melden dat er voor console's een RV770 achtige chip zou worden ontwikkeld, met de huidige beschikbare techniek kunnen die vier chipjes op de interposer samen voor een nette 1GB aan VRAM zorgen.
Een (op het oog) kleine GPU + 1GB 256-bit GDDR5 in een materiaal kosten besparende opstelling, dat lijkt me goud voor een console.
De Xenons was toen de tijd zijn tijd ver vooruit. Gebruikte al unified shaders waar de desktop chips dat veel later pas kregen. De generatie kaarten er na hadden pas dezelfde power als Xenos. Echter waren de games niet zo goed geoptimaliseerd.
Ik verwacht wellicht niet zo'n grote chip als Cayman of de GF100b in een console. Maar wel iets wat qua tech veel modener is. En minimaal DX11 achtige capabilities heeft. Misschien zelfs 11.1. En dan meer iets van het formaat Barts.
Maar het is wel mooi dat ze zo veel op een package kunnen plakken. Is misschien ook nog wel interessant voor laptops en tablets?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Waarom wordt dat niet toegepast in normale videokaarten?Toettoetdaan schreef op vrijdag 28 oktober 2011 @ 02:26:
Een (op het oog) kleine GPU + 1GB 256-bit GDDR5 in een materiaal kosten besparende opstelling, dat lijkt me goud voor een console.
Waarom zou validatie meer kosten?dahakon schreef op vrijdag 28 oktober 2011 @ 21:51:
Omdat het qua ruimte bij een videokaart bepaald niet nodig is en de kosten van validatie/controle aanzienlijk omhoog gaan, zeker als de hoeveelheid geheugen op de stack groeit.
[ Voor 93% gewijzigd door Fid3lity op 29-10-2011 11:56 ]
Eens even kijken. We hebben het volgende om te valideren:Olaf van der Spek schreef op zaterdag 29 oktober 2011 @ 00:03:
Waarom zou validatie meer kosten?
Normale situatie: Een GPU-chip
Nieuwe situatie: Een GPU-chip, de interposer, alle lagen van het stacked memory (dat kunnen er al gauw een stuk of 8 lagen zijn).
Nee, dat zou inderdaad de kosten niet verhogen...
PCB en memory worden niet gevalideerd?dahakon schreef op zaterdag 29 oktober 2011 @ 09:02:
Normale situatie: Een GPU-chip
Met uitzondering van het reference-design aan het begin van de launch, levert AMD over het algemeen alleen de GPU, niet het hele pakket. Daarnaast is 8 losse chips controleren en degene die stuk is vervangen gemakkelijker dan 8 lagen controleren en dan een oplossing zien te vinden als een laag stuk is of minder goed werkt.Olaf van der Spek schreef op zaterdag 29 oktober 2011 @ 13:40:
[...]
PCB en memory worden niet gevalideerd?
Maar consumenten kopen hele videokaarten, geen losse GPUs. Dus of validatiekosten nou bij AMD of bij bijvoorbeeld Asus liggen maakt IMO niet zo heel veel uit.dahakon schreef op zaterdag 29 oktober 2011 @ 14:25:
Met uitzondering van het reference-design aan het begin van de launch, levert AMD over het algemeen alleen de GPU, niet het hele pakket. Daarnaast is 8 losse chips controleren en degene die stuk is vervangen gemakkelijker dan 8 lagen controleren en dan een oplossing zien te vinden als een laag stuk is of minder goed werkt.


Het meest opvallende in dit bericht(even vertalen) is de suggestie dat de HD77xx een schoorsteen veger wordt.
Hij beweert dat de HD7770 een HD6770 met een BIOS update wordt.
Of dat de HD77xx een halve HD69xx wordt.
Dat eerste lijkt me vreemd, want de HD6770 is eigenlijk een ge-rebrande HD5770 voor OEM's.
Het tweede is wel ergens aannemelijk, de 28nm capaciteit is echt niet genoeg om een hele serie de deur uit te doen en ze zullen allicht nog een voorraad aan chips hebben liggen.
Even een persoonlijk verzoekje; of we niet onnodig veel het r-woord willen aanhalen zonder daar verder wat mee bij te dragen.
Dank u
Zeker kaarten als de GTX570 en 580 hebben er baat bij, de brede bus van die kaarten zorgt voor een hoop ellende tijdens de PCB ontwikkeling.Olaf van der Spek schreef op vrijdag 28 oktober 2011 @ 21:41:
[...]
Waarom wordt dat niet toegepast in normale videokaarten?
Maar de techniek is nog iets nieuw, en waarschijnlijk nog niet zo heel veel voordeliger dan de huidige techniek, tenzij je het natuurlijk in massaproductie neemt.
Daarom denk ik dat we dit als eerst gaan tegenkomen in console's aangezien die in een veel grotere oplagen verkocht worden dan grafische kaarten van een enkel type.
(even kort door de bocht genomen en zonder in te gaan op de voordelen en nadelen van deze techniek)
Als op een gegeven moment de techniek goedkoper wordt dan komt het vanzelf in andere apparaten.
Maar ik denk niet dat ze Juniper nog een keer gaan gebruiken. Die kans is gewoon erg klein.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
En als ze dat wel gaan doen is de chip gewoon erg klein-The_Mask- schreef op zaterdag 29 oktober 2011 @ 19:41:
Maar ik denk niet dat ze Juniper nog een keer gaan gebruiken. Die kans is gewoon erg klein.
Ik vraag me af voor ze voor 28nm weer met een hele range aan videokaarten komen van low tot high-end. De HD6450 t/m HD6670 kunnen alleen nog in oudere systemen worden gestopt, sinds de introductie van de Llano hebben ze eigenlijk geen bestaansrecht meer. Hybrid-Xfire voor de desktop wordt ook niet goed door de consument ontvangen. Die kiezen liever voor een snellere kaart ala HD6770 en up. Zodra trinity er is met 30% meer performance dan Llano hebben ze deze instap gpu's helemaal niet meer nodig. Dan blijven er eigenlijk nog maar 3 modellen over.. De opvolgers van juniper, barts & caymann waarmee ze de launch dan zullen beginnen met de kleinste chip.Toettoetdaan schreef op zaterdag 29 oktober 2011 @ 18:49:
Dat eerste lijkt me vreemd, want de HD6770 is eigenlijk een ge-rebrande HD5770 voor OEM's.
Het tweede is wel ergens aannemelijk, de 28nm capaciteit is echt niet genoeg om een hele serie de deur uit te doen en ze zullen allicht nog een voorraad aan chips hebben liggen.
Verwijderd
Van een conference call samenvatting (http://www.marketwatch.co...rter-results-2011-10-27):Astennu schreef op dinsdag 25 oktober 2011 @ 12:36:
[...]
Die hebben samen minder shaders beschikbaar. Dus ik zou dat niet zo stellen. Het zal van de prijs/prestatie verhouding afhangen.
Ik vermoed zelf dat we pas in Q1 2012 iets nieuws gaan zien. Ik hoop dat we niet nog langer dan Q1 moeten wachten op een opvolger van de HD69xx. Ik heb nu wel weer een keer zin in een echte performance boost van +- 80% ipv 10-15%. (mja dat is allemaal met dank aan TSMC voor het schrappen van 32nm en het niet op orde krijgen van 28nm).
Hoeveel, en wat voor chip blijft natuurlijk de vraag.AMD's next-generation family of high-performance graphics cards is expected to ship for revenue later this year.
Dat is natuurlijk onzin he. Ten eerste is alles onder de HD6670 nog altijd vlotter en beter ondersteund dan wat Intel dan ook brengt met zijn HD2000/HD3000. De HD6670 is nog altijd wel duidelijk sneller dan wat er in de snelste Llano zit (A8-3800/3850). Daarnaast is het een extreme boost ten opzichte van Intels GPU. Bovendien worden dezelfde chips ook in laptops gebruikt, zij het de varianten die aanzienlijk minder verbruiken. Ook daar geven ze veel extra prestaties ten opzichte van wat Intel kan leveren.bladerash schreef op zondag 30 oktober 2011 @ 01:42:
Ik vraag me af voor ze voor 28nm weer met een hele range aan videokaarten komen van low tot high-end. De HD6450 t/m HD6670 kunnen alleen nog in oudere systemen worden gestopt, sinds de introductie van de Llano hebben ze eigenlijk geen bestaansrecht meer.
Pardon? Heb je een survey gehouden op wetenschappelijk niveau om te achterhalen wat 'de consument' vindt? Daarnaast werkt Dual Graphics, zoals de gebruikte term nu is, ook op laptops, waarbij in moderne games nog wel leuke boosts ontvangen kunnen worden.Hybrid-Xfire voor de desktop wordt ook niet goed door de consument ontvangen. Die kiezen liever voor een snellere kaart ala HD6770 en up.
De instap GPU's zullen gewoonweg weer iets sneller moeten worden. De vraag is alleen, hoeveel sneller is werkelijk nodig. De HD6450 zal waarschijnlijk nog altijd mee kunnen komen met IvyBridge's snelste GPU, maar dan met betere renderkwaliteit en veel betere driverondersteuning. Maak een HD7450 die wat sneller loopt, met 192 SPU's en IvyBridge is in 1 klap weer helemaal niets. Dit zal vooral bij laptops van belang zijn, maar ook voor instap desktops kan het weldegelijk uitmaken. De prestaties van de HD7670 ten opzichte van de HD6670 zal ongetwijfeld ook wel omhoog gaan, waardoor het wederom een prima product zal zijn in Intel-desktops, of gecombineerd met Trinity, met Dual Graphics ingeschakeld. Daarnaast zal de chip goed gebruikt kunnen worden in Intel laptops, omdat de chip vele malen sterker is dan wat Intel biedt, zodat je een fatsoenlijke laptop krijgt.Zodra trinity er is met 30% meer performance dan Llano hebben ze deze instap gpu's helemaal niet meer nodig. Dan blijven er eigenlijk nog maar 3 modellen over.. De opvolgers van juniper, barts & caymann waarmee ze de launch dan zullen beginnen met de kleinste chip.
Wel sneller, maar niet veel sneller. Trinity gaat het gat nog meer dichten. Tegenwoordig hebben intel GPU's ook al prestatieniveau's van een HD5450 en de ivy bridge presteert vergelijkbaar met een 6450??.. Mensen die niet gamen of alleen sims 3 spelen hebben daar genoeg aan terwijl mensen die wel gamen niet genoeg hebben aan een HD6670. De doelgroep die nog wel zo'n losse gpu zou willen hebben is gewoon erg klein. Dat zijn alleen nog de mensen die willen gamen, maar niet het budget hebben voor een HD6770 en up. Voor deze groep is echter de trinity gemaakt waar je ook een cpu ingebakken bij krijgt. En dus veel goedkoper dan een oplossing met IB + HD6670.dahakon schreef op zondag 30 oktober 2011 @ 07:49:
Dat is natuurlijk onzin he. Ten eerste is alles onder de HD6670 nog altijd vlotter en beter ondersteund dan wat Intel dan ook brengt met zijn HD2000/HD3000. De HD6670 is nog altijd wel duidelijk sneller dan wat er in de snelste Llano zit (A8-3800/3850). Daarnaast is het een extreme boost ten opzichte van Intels GPU. Bovendien worden dezelfde chips ook in laptops gebruikt, zij het de varianten die aanzienlijk minder verbruiken. Ook daar geven ze veel extra prestaties ten opzichte van wat Intel kan leveren.
http://store.steampowered.com/hwsurvey/videocard/Pardon? Heb je een survey gehouden op wetenschappelijk niveau om te achterhalen wat 'de consument' vindt? Daarnaast werkt Dual Graphics, zoals de gebruikte term nu is, ook op laptops, waarbij in moderne games nog wel leuke boosts ontvangen kunnen worden.
De HD5770 is met 16% de meest populaire DX11 videokaart. Daarnaast zie je ook dat HD6970, HD6950, HD6870 en HD6850 vrij hoog staan. De HD6700 series staat met 0,39% ook binnen de lijst. Echter geen HD6670 en lager te bekennen. De oudere HD5670, HD5570, HD5550 en zelfs HD5470 en HD5450 staan nog op de lijst. Dat bewijst dat HD6670 en lager sinds introductie van APU's niet meer zo populair is als dat het ooit was.
En ja steam is representatief voor de markt want het dekt 50-70% van alle games verkopen. Mensen die niet gamen hebben geen steam, maar die kopen ook geen losse videokaart.
Zo'n HD7450 zal dus echt niet verkopen. Wil je betere gpu, dan ga je voor trinity. Game je niet, dan is Ivybridge beter. Een IvyBridge combineren met een HD7450 is belachelijk. Diehard gamer, dan >HD6770.De instap GPU's zullen gewoonweg weer iets sneller moeten worden. De vraag is alleen, hoeveel sneller is werkelijk nodig. De HD6450 zal waarschijnlijk nog altijd mee kunnen komen met IvyBridge's snelste GPU, maar dan met betere renderkwaliteit en veel betere driverondersteuning. Maak een HD7450 die wat sneller loopt, met 192 SPU's en IvyBridge is in 1 klap weer helemaal niets. Dit zal vooral bij laptops van belang zijn, maar ook voor instap desktops kan het weldegelijk uitmaken. De prestaties van de HD7670 ten opzichte van de HD6670 zal ongetwijfeld ook wel omhoog gaan, waardoor het wederom een prima product zal zijn in Intel-desktops, of gecombineerd met Trinity, met Dual Graphics ingeschakeld. Daarnaast zal de chip goed gebruikt kunnen worden in Intel laptops, omdat de chip vele malen sterker is dan wat Intel biedt, zodat je een fatsoenlijke laptop krijgt.
Maar je hebt gelijk, voor laptops zal het wel uitmaken qua stroomverbruik. Op dat vlak weet ik ook niet wat ze gaan doen, maar voor desktop heeft het geen nut. Maarja, genoeg hierover.. We zullen over een paar maanden wel zien wat ze doen.
De HD6670 is ongeveer 40% sneller dan de snelste fGPU van Llano. Trinity zal ongeveer 30% sneller zijn dan Llano (volgens de slide). Dat houdt dus al wat ruimte over voor HD6670, maar denk je niet dat een HD7670 sneller zal gaan zijn dan een HD6670? Zelfs als het maar met ~25% omhoog gaat, dan nog heb je weer een behoorlijk gat naar Trinity toe.bladerash schreef op zondag 30 oktober 2011 @ 12:42:
Wel sneller, maar niet veel sneller. Trinity gaat het gat nog meer dichten.
In sommige gevallen kan een SB GPU een HD5450 bijhouden. In sommige gevallen ook weer niet. Ten allen tijde gaat het gepaard met zwaar lagere IQ/renderkwaliteit. De meest positieve verwachting aangaande IB die ik gezien heb, is dat de GPU ongeveer 60% sneller zal zijn dan die van SB. Daarmee zal het dus niet echt heel erg goed kunnen concurreren met de HD6450. Het wordt nog minder, wanneer een HD7450 sneller zal zijn dan de HD6450. Wederom krijgen we ook weer te maken met IQ/renderkwaliteit.Tegenwoordig hebben intel GPU's ook al prestatieniveau's van een HD5450 en de ivy bridge presteert vergelijkbaar met een 6450??.. Mensen die niet gamen of alleen sims 3 spelen hebben daar genoeg aan terwijl mensen die wel gamen niet genoeg hebben aan een HD6670. De doelgroep die nog wel zo'n losse gpu zou willen hebben is gewoon erg klein. Dat zijn alleen nog de mensen die willen gamen, maar niet het budget hebben voor een HD6770 en up. Voor deze groep is echter de trinity gemaakt waar je ook een cpu ingebakken bij krijgt. En dus veel goedkoper dan een oplossing met IB + HD6670.
Stellen dat de HD6670 niet genoeg is voor gamen is ook een beetje een wilde uitweg om je gelijk te halen. Met een HD6670 kun je prima op lager dan 1080P gamen, maar zelfs op 1080P kun je nog het gros van de games spelen, als je niet de hoogste beeldkwaliteit nastreeft.
Steam is nimmer representatief voor de markt, ongeacht hoeveel dekking het heeft aangaande de verkopen. Heb jij ooit een survey gehad over je hardware? Ik nooit, met al mijn verschillende systemen. Steamstats geeft een indicatie, niets meer dan dat.http://store.steampowered.com/hwsurvey/videocard/
En ja steam is representatief voor de markt want het dekt 50-70% van alle games verkopen. Mensen die niet gamen hebben geen steam, maar die kopen ook geen losse videokaart.
Mocht je er toch aan vast willen blijven houden, kijk dan ook eens naar gebruikte resolutie's. Meer dan 50% gebruikt een resolutie van 1680x1050 of lager... Nee, om met steamstats aan te komen als bewijs voor een pleidooi, is niet het beste wat je kunt doen. Bovendien zeggen statistieken niets over hoe tevreden iemand is met een bepaalde opstelling.
Je zou dus ook kunnen zeggen dat een HD6450 nooit zou verkopen. Toch zijn er 55 SB-laptops die een dergelijke GPU aan boort hebben. Als we de traagste nVidia GPU er bij pakken, komen we op een totaal van 98 laptops met een low end discrete kaart.Zo'n HD7450 zal dus echt niet verkopen. Wil je betere gpu, dan ga je voor trinity. Game je niet, dan is Ivybridge beter. Een IvyBridge combineren met een HD7450 is belachelijk. Diehard gamer, dan >HD6770.
Maar je hebt gelijk, voor laptops zal het wel uitmaken qua stroomverbruik. Op dat vlak weet ik ook niet wat ze gaan doen, maar voor desktop heeft het geen nut. Maarja, genoeg hierover.. We zullen over een paar maanden wel zien wat ze doen.
http://tweakers.net/price..._NZKpNXPQ8X3ki4Uq08YQY_wA
Er zijn zelfs nog SB desktop systemen te vinden met low end discrete kaarten, 22 stuk in de pricewatch, met AMD en nVidia bij elkaar. Daarvan zijn er 6 met een HD5450/5470. Bedenk ook dat Bulldozer straks alleen nog maar GPU-loze chipsets heeft, waar dus ook een videokaart bij in moet.
Dus of een IB combineren met een HD7450 (waarvan jij nog niet eens de performance weet) belachelijk is, dat is nog maar de vraag. Op desktop gebied is het misschien iets minder logisch, maar diezelfde chip zit ook in laptops, waar het nog heel gebruikelijk lijkt te zijn om de IGP van Intel te vervangen voor een discrete GPU.
Verder ben ik een DIE-HARD gamer, maar ik heb geen behoefte aan een HD6770 of sneller. Dat is mij de prijs niet waard.
Ik ben benieuwd of dat dan de opvolger van de HD69xx is kan ook voor de HD68xx zijn. Maar kom maar op ik kan het niet erg vindenVerwijderd schreef op zondag 30 oktober 2011 @ 03:28:
[...]
Van een conference call samenvatting (http://www.marketwatch.co...rter-results-2011-10-27):
[...]
Hoeveel, en wat voor chip blijft natuurlijk de vraag.
[ Voor 20% gewijzigd door Astennu op 30-10-2011 16:00 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als het volgens de geruchten de lombok XT wordt met 768 VLIW4 shaders. Dan heb je al een chip op het prestatieniveau van de juniper XT. Voor de desktop, waarschijnlijk de één van de laagst haalbare markt. Binning niet meegenomen, zie je bij gpu designs meestal een factor van ongeveer 2 aan shaders per keer je hoger of lager klimt op de ladder met de kleinste chips en caymann een uitzondering daarop.
redwood 400 --> juniper 800 --> cypress 1600.
De snelste Trinity zit waarschijnlijk al op ~2x lager dan lombok. Een hele team erop uit sturen om iets ertussen in te ontwikkelen lijkt me niet heel rendabel.
Volgens mij scant steam je pc gewoon, ik heb nooit survey van ze gehad. En toch hebben ze die data..
De mensen die 1650x1050 gamen, misschien komt dat doordat er nog een overgrote deel op oudere hardware zitten? 64% zit nog op DX10 hardware en die gamen inderdaad voornamelijk op 1650x1050. Een indicatie is goed genoeg en steam geeft inderdaad een indicatie dat er meer >HD6700 bezitters zijn dan <HD6670 bezitters. Daarentegen zijn er wel redelijk aantal <HD5670 bezitters. Dat impliceert dat deze kaarten voor de introductie van APU's in veel grotere getallen werden verkocht dan na de introductie van APU's. Sorry, maar iets anders kan ik er ook niet van maken.
Wellicht dat het voor de laptops er iets anders uitziet, maar ook daar geldt dat trinity voldoet voor de kleine gamers. Willen ze wat meer, dan kan de mobiele gamers markt net zo goed beginnen met een ondergeklokte lombok LE in dual-graphics mode indien er ook een trinity in zit. Stroomverbruik zou op het niveau van een HD6530M moeten zitten.
De beperkte productiecapaciteit van TSMC zou er ook toe moeten leiden dat AMD alleen de chips zal laten produceren waar ze de meeste winst van verwachten. De sweetpot en dat is waarschijnlijk voornamelijk de shrink van caymann maar begint bij het prestatieniveau van de HD6700 series.
In de vele discussies die ik heb gevoerd aangaande Steamstats, is altijd naar voren gekomen dat je een survey voor je neus krijgt als ze je systeem-info willen hebben voor de statistieken. Aannemen dat ze jouw data hebben, omdat je nooit een dergelijke survey hebt gezien, is dus ook incorrect. Aannemen dat iedereen met een 1680x1050 resolutie of lager ook automagisch geen DX11 hardware heeft, is ook geschoold op niets dan je eigen aannames. Die informatie hebben we nu eenmaal niet en je kunt ze niet zomaar even uit die staatjes trekken, daar er geen verbindingen gelegd worden.bladerash schreef op zondag 30 oktober 2011 @ 16:15:
Volgens mij scant steam je pc gewoon, ik heb nooit survey van ze gehad. En toch hebben ze die data..
De HD5670 is een jaar langer beschikbaar dan de HD6670, iets wat je ook mee moet nemen in je uitgangspunt van percentuele aanwezigheid. Zeker omdat de verkoop van de HD5670 echt niet direct gestopt is bij het lanceren van de HD6670. Sterker nog, zelfs nu is er nog altijd een lading HD5670's te verkrijgen, voor over het algemeen lagere prijzen dan de HD6670.
In zijn algemeen is mijn punt dat je erg gemakkelijk conclusies trekt zonder alles in ogenschouw te nemen.
Misschien, maar dat wil nog niet zeggen dat APUs de oorzaak zijn.bladerash schreef op zondag 30 oktober 2011 @ 16:15:
Dat impliceert dat deze kaarten voor de introductie van APU's in veel grotere getallen werden verkocht dan na de introductie van APU's. Sorry, maar iets anders kan ik er ook niet van maken.
Waarom leg je woorden in me mond? Heb ik gezegd dat iedereen die op 1680x1050 of lager automatisch geen DX11 hardware heeft?dahakon schreef op zondag 30 oktober 2011 @ 16:30:
Aannemen dat iedereen met een 1680x1050 resolutie of lager ook automagisch geen DX11 hardware heeft, is ook geschoold op niets dan je eigen aannames. Die informatie hebben we nu eenmaal niet en je kunt ze niet zomaar even uit die staatjes trekken, daar er geen verbindingen gelegd worden.
Wat ik zei was ''64% zit nog op DX10 hardware en die gamen inderdaad voornamelijk op 1650x1050.''
Dat lijkt me niet eens zo'n gekke conclusie voor nVidia 9800 GTX, 8800 GTX, 9600GT bezitters ect..
En niet andersom aub.
Als alle mensen zoogdieren zijn, zijn ook niet alle zoogdieren mensen.
Hier kan je niet mee komen want je hebt ook nog de HD6700 series en die is niet langer aanwezig en duurder, toch verkoopt het beter gezien de stats. Alles daarboven verkoopt ook beter dan HD6670 en onder volgens de stats.De HD5670 is een jaar langer beschikbaar dan de HD6670, iets wat je ook mee moet nemen in je uitgangspunt van percentuele aanwezigheid. Zeker omdat de verkoop van de HD5670 echt niet direct gestopt is bij het lanceren van de HD6670. Sterker nog, zelfs nu is er nog altijd een lading HD5670's te verkrijgen, voor over het algemeen lagere prijzen dan de HD6670.
Gezien het feit dat je nu alleen nog maar met drogredenen strooit en als statistieken jou niet aanstaan negeer je ze gewoon alsof ze niet bestaan, heeft het geen zin om verder met jou in discussie te gaan.
Dat de HD67xx wel opduikt en de HD6670 niet, is op zich ook niet zo vreemd. Dezelfde videokaart is onder de noemer HD57xx namelijk 1 van de populairste DX11 kaarten, nog steeds. Niet zo gek dus dat de hernoemde kaart dan ook eerder opduikt. Dat betekent nog niet dat een HD6670 niet verkoopt. Ook percentages zijn er niet uit af te lezen.
Maar goed, nogmaals Steamstats zijn leuk, er zijn tot op zekere hoogte trends mee te bezien, maar wegens totaal gebrek aan significantie, kun je er geen absolute conclusies uit trekken.
Ik denk dat de HD7670 over de HD6790 heen gaat en dus 'dicht' tegen de HD6850 aan zit.bladerash schreef op zondag 30 oktober 2011 @ 16:15:
De HD7670 is slechts een benaming..
Als het volgens de geruchten de lombok XT wordt met 768 VLIW4 shaders. Dan heb je al een chip op het prestatieniveau van de juniper XT. Voor de desktop, waarschijnlijk de één van de laagst haalbare markt. Binning niet meegenomen, zie je bij gpu designs meestal een factor van ongeveer 2 aan shaders per keer je hoger of lager klimt op de ladder met de kleinste chips en caymann een uitzondering daarop.
redwood 400 --> juniper 800 --> cypress 1600.
De snelste Trinity zit waarschijnlijk al op ~2x lager dan lombok. Een hele team erop uit sturen om iets ertussen in te ontwikkelen lijkt me niet heel rendabel.
[ Voor 5% gewijzigd door madmaxnl op 30-10-2011 18:45 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
1680x1050 en lager omdat ze niet op full-hd kunnen gamen, daar komt nog bij de mensen die wel fhd scherm hebben en de settings een tandje terug moeten schroeven vanwege oudere hardware.dahakon schreef op zondag 30 oktober 2011 @ 17:48:
Goed, ik heb het woordje voornamelijk niet gebruikt. Nog steeds is je conclusie niet wetenschappelijk, maar slechts je persoonlijke interpretatie geponeerd als 'feit'. Zoals je het stelt, deelt de 64% die nog met DX10 hardware zit, namelijk voornamelijk de ~17% aan 1680x1050 schermen die er zijn (volgens steamstats). Maar goed, ook ik weet dat je dat niet bedoelde.
Ik ben er nog steeds van overtuigd dat steam gewoon gebruikersgegevens automatisch verzameld. Wellicht met toestemming van de gebruiker wat ergens in de algemene voorwaarde staan wat ik nooit heb gelezen, welke je kunt blokkeren. Ik gebruik het inmiddels al een jaar en heb nooit een digitale enquete als popup gekregen van steam om mn hardware gegevens in te vullen. Steam weet echter wel wanneer ik een oudere versie van catalyst heb en vraagt me elke maand om m'n gpu driver te updaten, dus dat programma scant wel degelijk m'n pc. Ze zijn iig minder nobel dan dat http://store.steampowered.com/hwsurvey laat overkomen. Je geeft ze 1x toestemming bij het installeren en ze verzamelen maandelijks data over je.
Om te stellen dat Llano en snellere IGP's van intel helemaal geen impact hebben op verkoop van budget videokaarten kan gewoon niet. Waar je voorheen aan het overwegen was om een Athlon 2 250 te kopen met een HD5450 wordt nu gewoon een Llano. De vraag naar budget videokaarten moet hoe dan ook zijn afgenomen sinds de komst van Llano omdat deze hetzelfde kan bieden voor een lagere totaalprijs. Bij het presenteren van de kwartaalcijfers werd er ook aangekaart hoe goed de fusions het deden. Een apu build die het zonder hybrid-Xfire doet is één minder verkochte videokaart.
Een GTX285 lijkt me anders toch best wel sterk genoeg voor 1080P, evenals een HD4870X2 bijvoorbeeld.bladerash schreef op zondag 30 oktober 2011 @ 19:43:
1680x1050 en lager omdat ze niet op full-hd kunnen gamen, daar komt nog bij de mensen die wel fhd scherm hebben en de settings een tandje terug moeten schroeven vanwege oudere hardware.
http://forums.steamgames.com/forums/showthread.php?t=1841473Ik ben er nog steeds van overtuigd dat steam gewoon gebruikersgegevens automatisch verzameld.
Al een jaar zonder pop-up. Dus al een jaar hebben ze niet naar jouw systeem geinformeerd. Ze hebben mij in 8 jaar nog nooit naar mijn systeem gevraagd. Het feit dat je er van overtuigd bent, zonder dat je met bewijzen komt, zegt iets over de manier van conclusies trekken. Dat ze bij voorbaat een lijst met software en hardware in je steam-client hebben verzameld, zegt nog steeds niets.
Ik zal niet zeggen dat de APU's geen invloed hebben, maar dat is heel wat anders dan zeggen dat een bepaalde lijn gelijk geheel overbodig is. Hoeveel invloed het heeft, daar heeft alleen AMD exacte cijfers van en ik daag te betwijfelen dat ze gebruik zullen maken van Steamstats.Om te stellen dat Llano en snellere IGP's van intel helemaal geen impact hebben op verkoop van budget videokaarten kan gewoon niet. Waar je voorheen aan het overwegen was om een Athlon 2 250 te kopen met een HD5450 wordt nu gewoon een Llano. De vraag naar budget videokaarten moet hoe dan ook zijn afgenomen sinds de komst van Llano omdat deze hetzelfde kan bieden voor een lagere totaalprijs. Bij het presenteren van de kwartaalcijfers werd er ook aangekaart hoe goed de fusions het deden. Een apu build die het zonder hybrid-Xfire doet is één minder verkochte videokaart.
Om verder nog wat rare dingen uit steamstats naar voren te brengen:
AMD CPU's 27.63% aandeel. Waren Core2 en beide Core i's niet veel beter voor gaming? Waarom heeft AMD dan zo'n groot aandeel, helemaal wanneer je het vergelijkt met werkelijk aandeel.
Intels Express 4 series videokaarten, een hoger percentage dan een GTX470. Maar je kunt toch niet gamen met die Intel IGP? Waarom zo'n hoge score?
Verwijderd
Ach ja, het is één van de weinige kaarten die al jaren geleden met meer-dan-8-bpc output adverteerde, en dat ook mogelijk maakte. Bij Ati's / AMD's schijnt het vooralsnog alleen met hack te werken, of wanneer je je kaart naar een firepro softmod (ook een hack dus).Olaf van der Spek schreef op zondag 30 oktober 2011 @ 19:23:
Apart dat de kaarten nog steeds te koop zijn: http://tweakers.net/pricewatch/cat/526/matrox.html
Ik zou groot voorstander zijn van meer-dan-8-bpc output, liefst zelfs vrij kiesbaar tot aan 16 bpc (48 bit totaal) als het ff kan
Systemen met die IGP maar wel met een dedicated videokaart? Of zou dat niet mogelijk kunnen zijn wegens uitschakeling in systeembeheer oid?dahakon schreef op zondag 30 oktober 2011 @ 20:30:
[...]
Intels Express 4 series videokaarten, een hoger percentage dan een GTX470. Maar je kunt toch niet gamen met die Intel IGP? Waarom zo'n hoge score?
Steam herkent de primaire videokaart, verder niets, als je naar de verzamelde data kijkt in je steam client.3XPER7 schreef op zondag 30 oktober 2011 @ 20:51:
Systemen met die IGP maar wel met een dedicated videokaart? Of zou dat niet mogelijk kunnen zijn wegens uitschakeling in systeembeheer oid?
Ikzelf heb in de tijd dat ik steam gebruik (en dat is praktisch sinds launch van HL2 maar toen deden ze nog niet aan gegevens verzamelen vzviw) iets van 3 of 4 keer een popup gekregen met de vraag of ze gegevens door mochten sturen. Je kon inzien welke gegevens dat waren en als je het gedaan had kon je geloof ik ook de resultaten bekijken.bladerash schreef op zondag 30 oktober 2011 @ 19:43:
Ik ben er nog steeds van overtuigd dat steam gewoon gebruikersgegevens automatisch verzameld. Wellicht met toestemming van de gebruiker wat ergens in de algemene voorwaarde staan wat ik nooit heb gelezen, welke je kunt blokkeren. Ik gebruik het inmiddels al een jaar en heb nooit een digitale enquete als popup gekregen van steam om mn hardware gegevens in te vullen. Steam weet echter wel wanneer ik een oudere versie van catalyst heb en vraagt me elke maand om m'n gpu driver te updaten, dus dat programma scant wel degelijk m'n pc. Ze zijn iig minder nobel dan dat http://store.steampowered.com/hwsurvey laat overkomen. Je geeft ze 1x toestemming bij het installeren en ze verzamelen maandelijks data over je.
Dat van die catalystversie, dat controleert hij lokaal en stuurt hij volgens mij niet door zonder die popup.
Als je nu al ziet dat een bepaalde lijn terug loopt en verwacht dat het in de toekomst nog verder terug loopt door een betere substitutie, wat doe je er dan mee?dahakon schreef op zondag 30 oktober 2011 @ 20:30:
Ik zal niet zeggen dat de APU's geen invloed hebben, maar dat is heel wat anders dan zeggen dat een bepaalde lijn gelijk geheel overbodig is. Hoeveel invloed het heeft, daar heeft alleen AMD exacte cijfers van en ik daag te betwijfelen dat ze gebruik zullen maken van Steamstats.
Om verder nog wat rare dingen uit steamstats naar voren te brengen:
AMD CPU's 27.63% aandeel. Waren Core2 en beide Core i's niet veel beter voor gaming? Waarom heeft AMD dan zo'n groot aandeel, helemaal wanneer je het vergelijkt met werkelijk aandeel.
Intels Express 4 series videokaarten, een hoger percentage dan een GTX470. Maar je kunt toch niet gamen met die Intel IGP? Waarom zo'n hoge score?
Het ''werkelijke'' AMD aandeel wat elke keer gepresenteerd wordt vertelt over de verkopen in die ene periode waar het over gaat. Ze weten alleen hoeveel processoren er in dat jaar/kwartaal is verkocht en hoeveel % van intel/AMD. Hoeveel oude Athlon 64 of Pentium 4 er nog draaien, dat wordt niet meegenomen in het ''werkelijke'' aandeel want dat weten ze ook niet. Die oudere systemen komen wel weer terug in steam survey.
Er zijn zat OEM computers met Intel igp op desk/laptop die steam geïnstalleerd hebben staan. Gamen kunnen ze ook wel, zij het op 1280x1024 met minimale instellingen.
Gewoon maken in een mindere oplage voor de mensen die ze wel willen? Afgedankte high-end pc's wil ik nog wel eens promoveren tot server/htpc, en dan is het toch handig als je zon kaartje in de pc kan zetten als die geen IGP of APU heeft.bladerash schreef op zondag 30 oktober 2011 @ 22:16:
[...]
Als je nu al ziet dat een bepaalde lijn terug loopt en verwacht dat het in de toekomst nog verder terug loopt door een betere substitutie, wat doe je er dan mee?
Daarnaast kosten low-end kaarten ook bijna niet om te maken. De chip is vaak gereduceerde versie van een (eerder) topmodel of is zelfs een hoger model die voor een klein deel mislukt was.
[ Voor 15% gewijzigd door dcm360 op 31-10-2011 00:41 ]
Waarom dat?Verwijderd schreef op zondag 30 oktober 2011 @ 20:34:
Ik zou groot voorstander zijn van meer-dan-8-bpc output, liefst zelfs vrij kiesbaar tot aan 16 bpc (48 bit totaal) als het ff kan
Dit topic is gesloten.
![]()
