CJ's Radeon Nieuwsdiscussietopic - Deel 121 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 21 Laatste
Acties:
  • 124.883 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Mede-auteurs:
  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10

Fid3lity

header

Welkom in CJ's Radeon Nieuwsdiscussietopic, het topic met de laatste nieuwtjes op het gebied van 3D-videokaarten van de ATI Graphics Division van AMD. Lees, om het hier gezellig te houden, wel even onderstaande regels door voordat je in het topic post. :)

Technische vragen of problemen? Bezoek de AMD Game forums!
change
  • 24 Oktober 2010: HD6800 toegevoegd na release.
  • 9 April 2010: Southern Islands geruchten toegevoegd.
  • 5 Maart 2010: Getting ready to experience to power of 6.
  • 24 December 2009: Getting ready for 2010
  • 10 September 2009: Getting ready for dominATion day
regels

Ja, ook dit topic heeft regels! In dit topic dienen alleen nieuwsfeiten en geruchten gepost en besproken te worden over AMD Radeons. Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic, vul het Catalyst Crew Feedback Form in of vraag het op het AMD Game forum! Post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!
Ook voor advies over de aankoop van een nieuwe videokaart kun je hier niet terecht. Lees daarvoor [BBG aanschaf] Videokaarten

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • Flamen & Trollen
  • Basic questions. In dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd dmv de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


inhoud
geschiedenis

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70
  • RV670/R680: Deel 71-85
  • RV770/R700: Deel 86-104
  • Evergreen: Deel 105-117
  • Northern Islands: Deel 117+

[rml]01[/rml] [rml]02[/rml] [rml]03[/rml] [rml]04[/rml] [rml]05[/rml] [rml]06[/rml] [rml]07[/rml] [rml]08[/rml] [rml]09[/rml] [rml]10[/rml]
[rml]11[/rml] 12 [rml]13[/rml] [rml]14[/rml] [rml]15[/rml] [rml]16[/rml] [rml]17[/rml] [rml]18[/rml] [rml]19[/rml] [rml]20[/rml]
[rml]21[/rml] [rml]22[/rml] [rml]23[/rml] [rml]24[/rml] [rml]25[/rml] [rml]26[/rml] [rml]27[/rml] [rml]28[/rml] [rml]29[/rml] [rml]30[/rml]
[rml]31[/rml] [rml]32[/rml] [rml]33[/rml] [rml]34[/rml] [rml]35[/rml] [rml]36[/rml] [rml]37[/rml] [rml]38[/rml] [rml]39[/rml] [rml]40[/rml]
41 42 43 44 45 46 47 48 49 50
51 52 53 54 55 56 57 58 59 60
61 62 63 64 65 6667 68 69 70
71 72 73 74 75 76 77 78 79 80
81 82 83 84 85 86 87 88 89 90
91 92 93 94 95 96 97 98 99 100
101 102 103104 105 106 107 108 109 110
111 112 113 114 115 116 117 118 119 120



HD5000

Op 23 September 2009 lanceerde AMD de HD5800 Serie uit de Evergreen DX11 generatie. Deze serie gebruikt de Cypress GPU (voorheen bekend als RV870). Dit is een "single die GPU" dus geen MCM oplossing zoals sommigen misschien verwacht hadden.

De Cypress GPU is gebruikt in een aantal varianten:

- HD5970
- HD5870
- HD5870 Eyefinity(6) Edition
- HD5850
- HD5830

Afbeeldingslocatie: http://img42.imageshack.us/img42/9303/atitopichd587001.jpg


Met de uitrol van deze generatie liep AMD ruim voor op de concurrentie en waren ze ongeveer zes maanden lang de enige leverancier van Dx11 gpu's. De populariteit van deze kaarten nam ongekende vormen aan en de vraag was dan ook enorm. Helaas voor de consument betekende dat al snel stijgende prijzen en slechte verkrijgbaarheid. AMD kon de productie van deze kaarten namelijk niet eenvoudig opschoeven. De reden hiervoor lag in het nieuwe 40nm productieproces. De gpu's werden namelijk geproduceerd door TSMC en dat bedrijf had moeite om de kwaliteit van het productieproces op deze node hoog te houden, wat teleurstellende yields ten gevolg had. Het zou maanden duren voordat dit opgelost werd.
Ondertussen werden er nog een drietal kleinere gpu's op dit productieproces uitgebracht om de lagere segmenten te bedienen. Juniper werd ingezet op de HD5770 en HD5750, Redwood op de mainstram HD5670, HD5570 en HD5550 en Cedar was de low-end variant die op de HD5450 werd ingezet.

Met het uitbrengen van de op Cypress gebaseerde grafische kaarten werden naast hogere prestaties ook een aantal nieuwe features geïntroduceerd. De meest opvallende was EyeFinity. Mt deze techniek kun je drie schermen aan je videokaart koppelen om je zo helemaal te laten omgeven door de gamewereld.
Met een speciale Eyefinity Six Edition grafische kaart, loopt dat aantal zelfs op tot zes monitoren.
Afbeeldingslocatie: http://tweakers.net/ext/f/Q22eIzsIyrtpOFa9IRfqKhHk/full.png


HD6000

Bijna exact één jaar na de launch van de eerste Evergreen gpu's, verschenen op 22 oktober 2010 twee nieuwe videokaarten op de markt uit de nieuwe Northern Islands generatie. De HD6850 en HD6870 kaarten zijn voorzien van een Barts gpu. De kaarten werden warm ontvangen, maar zorgden ook voor enige verwarring. In tegenstelling tot wat de naamgeving doet vermoeden, vervangen deze kaarten namelijk niet de populaire HD5850 en HD5870 in het performance segment, maar nemen ze de hun markpositie in vlak boven het niveau waar de op Juniper gebaseerde HD5770 stond. De HD5000 generatie was op dat prijspunt namelijk zeer matig vertegenwoordigd. De HD5830 was niet instaat goed te concurreren met NVidia's GTX460. Maar waarom dan die vreemde type aanduiding? Onderstaande plaatje moet dat verduidelijken.

Afbeeldingslocatie: http://tweakers.net/ext/f/eNCBt8JYUA1yxapoF2kLOhKX/full.png

Zoals je ziet zal Juniper vorlopig in de line-up blijven staan. Aangezien AMD hier niet de concurrentie wil nadoen en de chip rebranden naar bijvoorbeeld HD6600, moest Barts wel een naam krijgen die de verkopen van de HD5770 niet zou schaden. Met een Barts als HD6770 kun je je voorstellen dat Juniper onverkocht op de schappen zou blijven liggen.

Ook technisch gezien is Barts een x8xx product. De die size is vergelijkbaar met die van een HD4800 en de geheugencontroller is 256-bits breed.


HD6870

Wat is Barts?
Eenvoudig gezegd is Barts een geoptimaliseerde Cypress gpu. AMD heeft hoog ingezet op efficiency van het design. Dat betekent meer performace per Watt, die size en.... per Euro. De nieuwe gpu kent twee verschijningsvormen: de Barts Pro (HD6850) en Barts XT (HD6870):

HD 6850 specs
  • Codenaam: Barts Pro
  • DirectX: 11

    - Shadermodel 5.0

    - Compute Shaders 5.0
  • Transistoren: ~1700M
  • Corespeed: 775Mhz
  • Memory speed: 1Ghz
  • Memory Interface: 256-bit GDDR5 / 4.0Gbps
  • Compute Power: 1.5 TFLOPs
  • Streamprocessing Units: 960 (192x5)
  • Texture Units: 48
  • Render Backends: 8 (x4 = 32 ROPs)
  • Idle Board Power: 19W
  • Load Board Power: 127W
  • Die size: 255mm2 (vergelijk Cypress: 334mm2)
HD 6870 specs
  • Codenaam: Barts XT
  • DirectX: 11

    - Shadermodel 5.0

    - Compute Shaders 5.0
  • Transistoren: ~1700M
  • Corespeed: 900Mhz
  • Memory speed: 1.05Ghz
  • Memory Interface: 256-bit GDDR5 / 4.2Gbps
  • Compute Power: 2.0 TFLOPs
  • Streamprocessing Units: 1120 (224x5)
  • Texture Units: 56
  • Render Backends: 8 (x4 = 32 ROPs)
  • Idle Board Power: 19W
  • Load Board Power: 151W
  • Die size: 255mm2 (vergelijk Cypress: 334mm2)
Barts new


Wat is er nieuw?
DisplayPort 1.2
AMD maakt al gebruik van DisplayPort aansluitingen op de HD5000 serie, ondanks dat er nog nauwelijks beeldschermen met dergelijke aansluitingen te koop waren. Nu die schermen langzamerhand beter verkrijgbaar worden, stapt AMD al over op de volgende generatie van die techniek; en weer zijn de beeldschermen met deze techniek niet verkrijgbaar. Daar heeft AMD echter een zeer goede reden voor.
DisplayPort 1.2 levert tweemaal zo veel bandbreedte (21,6Gbps) als de vorige generatie en daarmee ook twee maal de bandbreedte die een dual-link DVI aansluiting aankan. Dat betekent in de praktijk dat je met één aansluiting voldoende bandbreedte hebt om twee beeldschermen met 2560*1600 resolutie aan te sluiten of vier beeldschermen met 1920*1080 resolutie. En dat levert weer heel wat mogelijkheden op voor Eyefinity.

Eyefinity
Bij het verschijnen van Eyefinity waren veel sites lovend over de mate van immersion die de nieuwe techniek bracht. 'Een stap in de richting van het holodeck' was een veelgehoorde opmerking. Er was echter ook kritiek op met name de verplichting om beeldschermen met DisplayPort aansluitingen te moeten hebben. Had je dat niet, dan moest je met converters werken. Om maar meteen met de deur in huis te vallen: die verplichting ligt er nog steeds. De techniek is echter wel een stuk veelzijdiger geworden. Omdat DisplyPort data verstuurt in packages, zijn er twee nieuwe opties om schermen mee aan te sturen: de daisy chain en de hub. Beide aansluitmogelijkheden zijn weergegeven in onderstaande afbeelding.
DP daisy


In de onderste rij beeldschermen zie je een voorbeeld van de daisy chain. De eerste monitor wordt middels DP1.2 aangesloten op de videokaart. De tweede monitor wordt middels DP1.2 aangesloten op een uitgang op de eerste monitor en de derde monitor weer op een DP1.2 uitgang op monitor nummer twee.

De mogelijkheid om een hub te gebruiken is echter veel interessanter. Op korte termijn zullen er zogenaamde Multi-Stream Transport (MST) hubs te koop zijn die actief de ontvangen packets verdelen over de aan te sluiten monitoren, zoals je in bovenstaande plaatje op de bovenste rij kunt zien. Het grote voordeel is dat deze monitoren niet met een DP aansluitingen hoeven te zijn uitgerust. Je DVI monitor hoeft de deur dus niet uit.

Zoals gezegd biedt DP1.2 voldoende bandbreedte voor vier 1080p beeldschermen, dus kunnen er vier schermen op één hub worden aangesloten.
Eyefinity6

Bovenstaande situatie is mogelijk met slechts één enkele standaard videokaart. Er zal dus geen speciale Eyefinity Six Edition kaart vanuit AMD verschijnen, al staat het de board partners vrij om eigen varianten op de markt te zetten. Met één enkele MST hub kun je zes DVI beeldschermen aansluiten op je Barts videokaart.

Tenslotte is er nog de mogelijkheid om simultaan verschillende resoluties te gebruiken, wat ongetwijfeld het meest bruikbaar zal zijn in professionele omgevingen.
multi reso


hdmi 1.4a
De laatste incarnatie van de hdmi aansluiting is bekend geworden om de ondersteuning van stereoscopisch 3d op televisies, Blu-ray spelers en receivers en is nu ook aanwezig op de nieuwste Radeon videokaarten. In feite maakt deze technologie het mogelijk om voor elk oog een separate frame te tonen met een net iets andere kijkhoek. Uiteraard zijn voor het bekijken van driedimensionale content nog wel brillen en 120Hz monitoren nodig.
Open 3d


AMD heeft zijn 3d initiatief het merk HD3D meegegeven. Met dit open source initiatief gaat het de strijd aan met Nvidia's 3D Vision. Het grote voordeel van AMD's variant is dat er geen specifieke 'HD3D compliant' hardware voor vereist is. De techniek werkt op eender welke 3d monitor met een hdmi 1.4a aansluiting. Op het moment van schrijven zijn er nog maar weinig computerbeeldschermen met dergelijke aansluitingen, maar er komen steeds meer monitoren en televisies op de markt waar deze wel op aanwezig is.
Daarnaast kan de techniek overweg met zowel actieve shutter glasses, passieve gepolariseerde brillen alsook toekomstige oplossingen zonder brilletje. De reden hiervoor is dat het een softwarematige oplossing is. Wil je een 3d film bekijken, dan doe je dat middels een player als CyberLink’s PowerDVD 10 Ultra of Arcsoft’s TotalMedia Theatre 3. Wil je een 3d game spelen, dan maak je gebruik van de iZ3D of DDD Tridef driver.
Bezoek AMD's HD3D pagina voor meer informatie.
HD3D



performance
Hoe de performance is van de Radeons uit de HD6800 serie kan je vrij goed zien in de meeste reviews. Hieronder een performance rating overview:

HD6800 Series Launch ReviewsEén van de belangrijkste doelen van deze gpu is, zoals eerder gezegd, efficiency. Dat vertaalt zich in uitstekende verbruikscijfers, zowel in idle als onder load:
Afbeeldingslocatie: http://www.xbitlabs.com/images/video/radeon-hd6870-hd6850/hd6800_power.png
Idle verbruik HD6850 is waarschijnlijk een meetfout
Bron: Xbitlabs


IQ

AMD zou AMD niet zijn als ze bij de introductie van een nieuwe videokaart ook niet iets verbeterd hadden aan de beeldkwaliteit, oftewel Image Quality (IQ). Op het gebied van zowel anti-aliasing als texture filtering zijn er wat zaken veranderd.

Staploze, hoekonafhankelijke Anisotropische Filtering (AF)
Met de Evergreen architectuur introduceerde AMD ware hoekonafhankelijke AF. Toch waren kritische reviewers en eindgebruikers niet altijd even lovend over AMD's AF oplossing. Wat was er mis? Door een "bug" [quote Dave Baumann] was er in synthetische tests en een beperkt aantal games (met name Trackmania) een stappenverschil in de diepte te zien.
TM

Dat is in Northern Islands echter aangepast en AMD heeft dit met terugwerkende kracht via het Catalyst Control Panel ook toegepast op de HD4000 en HD5000 serie. Tevens zijn er kwaliteitsverbetering op de LOD waardes, wat zou moeten betekenen dat er geen of minder "texture crawl" zou moeten zijn.

CCC1

Na een standaardinstalltie staat de slider halverwege op "Quality". Dit zijn instellingen gelijk aan voorgaande Catalyst drivers (HD4000, HD5000) en volgens AMD van dezelfde of hogere kwaliteit dan Nvidia's instellingen. Zet je de slider echter op High Quality dan worden ALLE optimalisaties uitgezet; een optie die samen met hoekonafhankelijke AF, niet mogelijk is bij Nvidia.
Hieronder een lijst met effecten van de slider:
  • High Quality: Optimalisaties uit, hoogste beeldkwaliteit.
  • Quality: Triliniare filteroptimalisaties en AF sample optimalisatie. Beeldkwaliteit HD5000, geeft betere beeldkwaliteit op HD4000 kaarten. Goede beeldkwaliteit bedoeld voor iedereen die games speelt behalve de die-hard Tweakers.
  • Performance: aggressieve optimalisaties die licht ten koste gaan van de beeldkwaliteit, maar die wel performanceverhogend zijn.
Surface Format Optimization is een optimalisatie die alleen gebruikt wordt bij 16-bit Floating Point HDR berekeningen, dit aan of uitvinken zou geen effect moeten hebben op de beeldkwaliteit in games, dus raadt AMD het aan deze aan te laten staan.

Anti-Aliasing
Op het gebied van Anti-Aliasing is er één grote verandering: AMD biedt een oplossing die een paar generaties terug nog afgebrand werd. Zoals de meesten van jullie hopelijk weten was het ATI's idee met R600 om alle Anti-Aliasing via de shaders van de videokaart te laten lopen. Dit bleek achteraf niet het beste idee ter wereld, toen in sommige gevallen de oude generatie (X1950XTX) sneller bleek te zijn dan de nieuwe generatie (HD2900XT).
Echter, de tijden zijn veranderd en AMD's aanpak ook. In plaats van pure omzetting van Anti-Aliasing naar shadertaal biedt AMD nu een optie die Full-Screen Anti-Aliasing toestaat via de DirectCompute 5.0-taal (DirectCompute 5.0 is de DirectX 11 tegenhanger van OpenCL en NVIDIA's CUDA). Dit betekend dus dat MLAA een post-processing AA techniek is die onafhankelijk van de game draait, dus ook op games die geen AA ondersteunen, zoals games gebaseerd op de Unreal3 engine in DirectX 9 modes (BioShock, Batman: Arkham Asylum, etcetera).
Morphological AA (MLAA) biedt gebruikers de mogelijkheid om met minimaal prestatieverlies AA toe te passen op alle contrasterende objecten op het scherm. Dit is vergelijkbaar met NVIDIAs Coverage-Filtering Anti-Aliasing (CFAA) maar met één groot verschil. het prestatieverlies is met MLAA zó klein dat dit binnen de foutmarges van de benchmarkstatistieken valt; vergelijkbaar met het hedendaags gebruik van 16xAF op High Quality. Om het prestatieverlies te illustreren gebruiken we een game waar AA de meeste impact heeft op de framerates: StarCraft II.
MLAA-SC

Zoals je in bovenstaande benchmark kunt zien, is het prestatieverlies bij het gebruik van MLAA minimaal (minder dan 2.5%) ten opzichte van het gebruik van geen AA. 4xMulti Sampling AA zorgt al snel voor meer dan 50% prestatieverlies en 4x Super Sampling AA voor 60%. Nu is dit worst-case scenario voor MSAA en SSAA, maar het laat duidelijk zien dat AA vanaf nu "gratis" is op DirectX 11 Radeon kaarten. Let wel: DirectX 11 Radeon kaarten, want de code draait voorlopig alleen op DirectCompute 5 en niet Op DirectCompute 4 (HD4000). Overigens, MLAA werd eerder toegepast in Metro 2033 (als AAA) en wordt ook op de PS3 toegepast aangezien daar normale MSAA NVIDIA's "RSX" prestatie kost in tegenstelling tot ATI's Xenos.
MLAA kan aangezet worden door het vinkje voor Morphological AA aan te zetten in het CCC:
CCC2


Kwaliteit 0xAA 8xMLAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/wRuIdYde3QtjuTyxtdDyQHkA/full.png


Zoals je ziet lijkt dit verdacht veel op SSAA, maar dan zonder de eerder genoemde prestatieverliezen. Maar nu zul je denken: 'SSAA past soms AA toe op dingen die het niet zouden moeten hebben?' Dat klopt en daar heeft MLAA ook een klein beetje last van. Echter, door de manier van verwerken is het veel minder storend met MLAA dan met SSAA.
Hier een voorbeeld van text blurring:
1920x1200 8xMSAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/PvYDOFtKuQWi7oty6vkr5fR4/full.png
1920x1200 8xMLAA:
Afbeeldingslocatie: http://tweakers.net/ext/f/8hswwJcprKdjPWaKFQuNUrtb/full.png
Het is lang niet zo erg als de blurring bij de ouderwetse SSAA technieken en we kunnen ook niet zeggen dat het erg opvalt bij normaal gebruik.

Vergelijking MLAA & MSAA (afbeelding is 4x ingezoomd).
Company of Heroes: Online @ 1920x1200 8xMLAA 16xHQAF
Afbeeldingslocatie: http://tweakers.net/ext/f/a7uRe4Y3gCVoqqE1X6y8GWIC/full.png


Company of Heroes: Online @ 1920x1200 8xMSAA 16xHQAF
Afbeeldingslocatie: http://tweakers.net/ext/f/MXvX9GTUObJry3MXBQnBFALT/full.png

Wat eigenlijk direct opvalt bij de overgang van licht naar donker in de afbeeldingen is het minder aanwezig zijn van het "trapsgewijze" effect van Anti-Aliasing bij gebruik van MLAA.

Als laatste kunnen we melden dat de Wide- en Narrow-Tent AA modi uit CCC zullen gaan verdwijnen. Ze zijn nog wel te vinden in de huidige drivers (10.10a), maar ze zijn met de komst van MLAA misschien wel overbodig geworden.


mobile
AMD zal ook met een volledige Mobility Radeon DX11 lineup komen. De mobile Evergreen GPUs vallen onder de Manhattan noemer en bestaat uit 4 GPUs die op hun beurt weer verdeeld zijn in 12 SKUs. Elke GPU heeft de naam van een locatie op het eiland Manhattan. Alleen Lexington is nooit uitgebracht... dit is de mobiele Cypress variant. De reden waarom deze (nog) niet is uitgebracht? Misschien een te hoog stroomverbruik. Of misschien wacht AMD totdat NV een Fermi-based mobile GPU uitbrengt.

Manhattan Mobility Radeon
  • Lexington XT (cancelled, 1600 SP)
  • Lexington XGL
  • Lexington Pro
  • Broadway XT DDR5 -> HD5870, 128-bit, GDDR5, 45W-60W, P7200~
  • Broadway Pro -> HD5850, 128-bit, GDDR5, 30W-40W
  • Broadway LP -> HD5830, 128-bit, (G)DDR3, 29W
  • Madison Pro DDR5 -> HD5750*, GDDR5, 20-30W
  • Madison XT DDR3 -> HD5730*, (G)DDR3, 20-25W
  • Madison LP/Pro -> HD5650, 128-bit, (G)DDR3, 15-20W
  • Park XT -> HD5470, 12-15W
  • Park Pro -> HD5450, 10-12W
  • Park LP -> HD5430, <8W
Over de Vancouver serie is op het web inmiddels ook al het een en ander verschenen in de geruchtenmolen. Zo zou deze serie uit de volgende namen bestaan en onder de HD 6000 Serie vallen.
Vancouver Mobility Radeon:
  • Blackcomb
  • Granville (first)
  • Whistler
  • Capilano (first)
  • Seymour
  • Robson CE (first)
  • Robson LE
*naamgeving kan omgewisseld zijn

Afbeeldingslocatie: http://tweakers.net/ext/f/Uy4rgzGFc0XoWtmkogsL1JSm/full.png

De performance per watt is een stuk beter dan z'n voorganger van de M9x GPU en gemiddeld gezien ligt de performance op ongeveer 1,35x a 1,45x de vorige generatie uit de M9x series. Net zoals z'n dekstop broertjes is de Manhattan lineup gemaakt op het 40nm proces en ondersteunt het naast DX11 en EyeFinity ook technieken die speciaal bedoeld zijn voor mobile GPUs zoals PowerXpress, SG Switching, XGP support. Alle GPUs zijn pin-to-pin compatible met de vorige generatie dus niets staat een snelle uitrol in de weg.

Hieronder de positionering van de Mobility Radeon HD5000 Series door AMD:
HD5800 Series - Gaming Enthusiast Segment
HD5700 & HD5600 Series - Performance Segment
HD5470 & HD5450 - Mainstream Segment
HD5430 - Thin & Light Segment

De Mobility Radeon HD5870 (Broadway) is niet gebaseerd op Cypress, maar op Juniper. De GPU heeft 1.04 Miljard transistors en 800 Streamprocessors en kan gekoppeld worden aan GDDR5, GDDR3 en DDR3 geheugen. De Mobility Radeon 5700 en 5600 Series (Madison) zijn gebaseerd op Redwood en bevatten 400 streamprocessors in een GPU van 626 miljoen transistors. Ook deze GPU is geschikt voor GDDR5, GDDR3 en DDR3 geheugen. De 5400 Serie (Park) is gebaseerd op Cedar en bevat 80 streamprocessors in een GPU van 242M transistors. Deze budget GPU kan gekoppeld worden aan GDDR5, GDDR3, DDR3 en DDR2.

Ook de GPUs van Fusion krijgen namen. Waar voor mobile ski resorts in de buurt van Vancouver genomen zijn, krijgt Fusion de namen van ski resorts rond Colorado:
  • Loveland
  • Winterpark
  • Beavercreek

toekomst
Op korte termijn (eind 2010) staan gepland:
  • Refresh Evergreen, Oktober/November 2010
AMD heeft zich heel stil gehouden over de opvolgers van Evergreen. Nu Barts is verschenen, vallen er echter wel een aantal puzzelstukjes op hun plaats. De komende weken en maanden zullen we toch in ieder geval de release van de volgende gpu's kunnen verwachten:
  • Antilles (opvolger Hemlock 5970)
  • Cayman (opvolger Cypress 5870)
  • Barts (opvolger Juniper 5770)
  • Turks (opvolger Redwood 5670)
  • Caicos (opvolger Cedar 5450)
Op de langere termijn (H1 2011) staat volgens de meest recente Computex geruchtenmolen gepland:
  • Hecatoncheires, new architecture (?) 28nm
  • Southern Islands, refresh Evergreen (?) 28nm

gerucht


Gerucht: de high-end varianten van de komende lichting Mobility Radeon gpu's worden geleverd met 2GB GDDR.
Waarschijnlijkheidsfactor: 73.2%

Gerucht: de naam 'Mobility Radeon' gaat verdwijnen.
Waarschijnlijkheidsfactor: 100%

Gerucht: Antilles (HD6990) launch tijdens de CES 2011.
Waarschijnlijkheidsfactor: 70%

Gerucht: De HD7000 serie welke op 28nm gebakken en uit vier verschillende GPU's bestaat, zou eind volgend jaar al weer in de winkels liggen.
Waarschijnlijkheidsfactor: 50%, nieuwe geruchten wijzen op problemen bij TSMC.


links
logoAMD Exclusive Fabrikanten voor NederlandNon Exclusive Fabrikanten (zowel AMD als nVidia)ATi Tweak ToolsHandige LinksForumlinks


Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks, van deel 1 tot en met deel 116.
Rust zacht, Tweaker.
CJ
Condoleance topic voor CJ.

[ Voor 201% gewijzigd door -The_Mask- op 16-12-2010 14:08 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Volgende deel zal Cayman info bevatten, dus hoe meer je spamt hoe eerder het komt. :+

Pricewatch
• HD5750 1GB vanaf 95 euro
• HD5770 1GB vanaf 110 euro
• HD6850 1GB vanaf 160 euro
• HD5850 1GB vanaf 160 euro
• HD6870 1GB vanaf 210 euro
• HD5870 1GB vanaf 230 euro
• HD6950 2GB vanaf 260 euro
• HD6970 2GB vanaf 320 euro
• HD5970 2GB vanaf 400 euro

[ Voor 93% gewijzigd door -The_Mask- op 24-12-2010 17:56 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 287880

Dus de 6970 is ongeveer gelijk aan de GTX570. met de opmerking dat er in sommige spellen nog duidelijk problemen zijn met de drivers.

Als ze Barts gewoon op steroiden hadden gedaan, met een 384 bit bus hadden ze de GTX580 de grond in getrapt en had iedereen voor AMD gejuichd. Maar het was tijd voor een nieuwe architectuur en dus hebben we de 6970 zoals hij nu is. Mensen hadden verwacht dat de 6970 iets sneller zou zijn dan de GTX580 en dat is niet uitgekomen. Alle reviewers die klaarkwamen toen nvidia de clocks van hun chip iets wisten te verhogen ( aka GTX580 ) zijn nu niet erg enthousiast. AMD moet ervoor zorgen dat er nog eens gereviewed wordt met nieuwe drivers. Anders blijft deze eerste indruk hangen. Aan de andere kant heeft AMD een moeilijke en grote stap gemaakt door voor het eerst sinds R600 de R600 radicaal te veranderen.
Ik wacht lekker op de 28 nm kaarten.
O en het stroomverbruik is uiteraard triest. Misschien was laag geklokt GDDR5 met een 384 bit bus nog beter geweest.

Anyway, I called it. De 6970 moet beter zijn dan de gtx580 of mensen gaan zeuren. Nu mag AMD lekker op prijs concurreren tot 28 nm komt. Veel plezier AMD.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik vind de nieuwe HD69xx qua die size een grote faal.
50% groter dan de HD68xx maar niet eens in de buurt van 50% sneller...
Hij is zelfs 17% groter dan HD5870 en maar 5% sneller ofzo.

Zoals ik al zei het wordt tijd voor 28nm. De HD6xxx serie valt tegen als we het vergelijken met de HD4xxx serie en HD5xxx serie.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

Eigenlijk is het een beetje ontnuchterend, iedereen had gehoopt dat AMD nVidia zou platwalsen op de manier die meestal wordt gebruikt door nVidia: namelijk brutale single-chip prestaties boven alles, ten koste van kostprijs, verbruik en verkoopprijs. Als we echter even terugkijken in de geschiedenis, dan zien we dat ATI eigenlijk gewoon zijn eigen gangetje gaat, op dezelfde manier waarop het al enkele generaties bezig is.

We zijn zelf in de fout gegaan door meer te verlangen dan wat ATI ons tot nu toe al heeft gegeven. Zonder al dat gehype is de plaatsing van de HD6900 series in de markt vrij logisch: een deftige single chip die niet de spuigaten uitloopt op alle andere gebied dan prestaties, en dus gecombineerd kan worden tot een killer dual-gpu kaart.

Nu wil ik even aanhalen dat je daarop kan zeggen "Maar dat dachten wij helemaal niet! We dachten dat ATI zijn nieuwe reeks kon verwezenlijken op de ATI manier, maar met nVidia single-chip prestaties!", en dat is waar. Ik denk echter dat het hele gebeuren van een semi-nieuwe architectuur niet volkomen vlekkeloos is gelopen. De die-size van cayman is groter dan die van cypress, wat ruwweg duidt op de prestatiewinst die nu te zien is. Je zou bijna kunnen zeggen dat moesten ze een barts gemaakt hebben met dezelfde hoeveelheid shaders als de cayman, die even snel geweest zou zijn, en dat lijkt mij niet eens zo'n rare stelling. Kunnen we daaruit concluderen dat de 4D-aanpak ofwel niks beter is dan de 5D-aanpak, ofwel nog niet goed "werkt"?

Acties:
  • 0 Henk 'm!

  • Balkz
  • Registratie: Oktober 2002
  • Laatst online: 05-06-2023
Ik zie het probleem niet zo. De situatie is voor een groot deel gelijk aan die van 2 jaar geleden, waarbij de 4800 serie iets langzamer was dan de GeForce 200 serie maar tegelijkertijd ook betaalbaarder. Deze keer speelt het echter alleen op een wat hoger prijsniveau. De verwachtingen zullen wat opgeblazen zijn geweest omdat de 5800 serie een hele tijd geen concurrentie had en daardoor voor AMD's small-die strategie relatief sterk overkwam, terwijl dit ten tijde van de 2900 en 3800 serie omgekeerd was. Daarnaast was de die size van de Cypress ook al groter dan verwacht.

Dat, gekoppeld met de nogal sterke verhalen die zich de afgelopen tijd de ronde deden (de GTX 580 zou wel even met de grond gelijk gemaakt worden, 20% sneller geen probleem!) zal er wel toe hebben geleid dat mensen nu een beetje teleurgesteld zijn. Maar kom op, AMD heeft gewoon een solide stel kaarten op de markt gezet tegen zeer schappelijke prijzen. Ze hebben nooit geclaimd dat ze met de snelste single GPU kaart zouden komen en dat is eigenlijk het enige wat ze vandaag niet hebben gedaan.

Was nichts kostet, ist auch *NIX.


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Het mag dan wel tegenvallen maar laten we een aantal dingen niet vergeten:
-Die size 390 vs 550mm2
-Performance per watt nog steeds 10-15% beter dan de GTX580 (in het geval van de 6970)
-Nieuwe architectuur dus waarschijnlijk nog ruimte voor verbetering van de drivers
-Veel lagere prijs dan de GTX580

Performance verschil is nu een 15-20%. 10% extra met nieuwe drivers is heel goed mogelijk. Dus ja nu ziet het er wellicht niet helemaal uit zoals we verwacht hebben. Maar zoals de kaarten nu in de markt staan is het nog steeds erg goed. En in de toekomst wordt het mogelijk beter. GTX580 heeft zijn performance winsten via de drivers ook al gehad. En heeft ook baat gehad bij de optimalisaties van de GTX480.

Daarnaast zou ik geen 5870 kopen voor 240 als de 6950 270 euro is. In de meeste gevallen is de 6950 een stuk sneller. Soms net ietsjes trager. En met het oog op de toekomst en veel meer tesselation is de 6950 een veel betere keuze. Ook is de performance per watt een stuk beter. En het prijs verschil is nog geen 15% als ik uitga van de bovenstaande prijzen.

Dus het wordt door vele (voor mijn gevoel) wel heel erg gedramatiseerd.

[ Voor 120% gewijzigd door Astennu op 15-12-2010 14:36 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
DevilsProphet schreef op woensdag 15 december 2010 @ 14:15:
....

We zijn zelf in de fout gegaan door meer te verlangen dan wat ATI ons tot nu toe al heeft gegeven. Zonder al dat gehype is de plaatsing van de HD6900 series in de markt vrij logisch: een deftige single chip die niet de spuigaten uitloopt op alle andere gebied dan prestaties, en dus gecombineerd kan worden tot een killer dual-gpu kaart.

Nu wil ik even aanhalen dat je daarop kan zeggen "Maar dat dachten wij helemaal niet! We dachten dat ATI zijn nieuwe reeks kon verwezenlijken op de ATI manier, maar met nVidia single-chip prestaties!", en dat is waar. Ik denk echter dat het hele gebeuren van een semi-nieuwe architectuur niet volkomen vlekkeloos is gelopen. De die-size van cayman is groter dan die van cypress, wat ruwweg duidt op de prestatiewinst die nu te zien is. Je zou bijna kunnen zeggen dat moesten ze een barts gemaakt hebben met dezelfde hoeveelheid shaders als de cayman, die even snel geweest zou zijn, en dat lijkt mij niet eens zo'n rare stelling. Kunnen we daaruit concluderen dat de 4D-aanpak ofwel niks beter is dan de 5D-aanpak, ofwel nog niet goed "werkt"?
Dat laatste weerlegt een beetje je eerdere standpunt if u ask me.
Ik vind het toch wel aardig tegenvallen hoor. Vooral als je de HD5870 met de HD6950 gaat vergelijken, zijn héél vaak (heb meerdere reviews bekeken nu) on par met elkaar. Zijn absoluut wel een paar games waarbij de 6950 een stuk sneller is, maar die zijn op één hand te tellen. Dit doet toch vermoeden dat er idd. nog héél wat winst in de drivers zou kunnen liggen. Nu is enkel de vraag hoe snel ze dit eruit kunnen halen, wat dat betreft ben ik nog altijd niet zo onder de indruk van AMD's driverteam...
Wel héél benieuwd naar tests met de laatste drivers, tot nu toe nog niet tegengekomen helaas.

Acties:
  • 0 Henk 'm!

  • Masterkale1
  • Registratie: Augustus 2008
  • Laatst online: 12-04 21:24
Salland heeft de sapphire 6970 staan voor 321 euro .. Alleen meer dan 20 dagen levertijd

Speakers: Isophon 2x Cassiano`s D 2x FRC-C - 1x FRC-D - 5x top speakers Accuton . Sub: JL audio 113v2, Preamp:Datasat RS20i - Amp: Marantz 2 x MM8077 Cinemike bridged 5/7CH ch - Mediaplayer: Oppo upd-203 Cinemike - Beamer: JVC NX-9 cinemike


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:52
Voor 340 heb je een Sapphire morgen al in huis, de prijzen zijn dus best ok. Morgen maar eens kijken of de 2GB inderdaad helpt bij Eyefinity, want ik hem een aantal spellen waar de stap van 3x 1680x1050 naar 3x 1920x1200 over de 1GB lijkt te gaan en daardoor opeens 40 FPS (60 -> 20) of nog erger verdwijnt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
DevilsProphet schreef op woensdag 15 december 2010 @ 14:15:
Eigenlijk is het een beetje ontnuchterend, iedereen had gehoopt dat AMD nVidia zou platwalsen op de manier die meestal wordt gebruikt door nVidia: namelijk brutale single-chip prestaties boven alles, ten koste van kostprijs, verbruik en verkoopprijs. Als we echter even terugkijken in de geschiedenis, dan zien we dat ATI eigenlijk gewoon zijn eigen gangetje gaat, op dezelfde manier waarop het al enkele generaties bezig is.

We zijn zelf in de fout gegaan door meer te verlangen dan wat ATI ons tot nu toe al heeft gegeven. Zonder al dat gehype is de plaatsing van de HD6900 series in de markt vrij logisch: een deftige single chip die niet de spuigaten uitloopt op alle andere gebied dan prestaties, en dus gecombineerd kan worden tot een killer dual-gpu kaart.

Nu wil ik even aanhalen dat je daarop kan zeggen "Maar dat dachten wij helemaal niet! We dachten dat ATI zijn nieuwe reeks kon verwezenlijken op de ATI manier, maar met nVidia single-chip prestaties!", en dat is waar. Ik denk echter dat het hele gebeuren van een semi-nieuwe architectuur niet volkomen vlekkeloos is gelopen. De die-size van cayman is groter dan die van cypress, wat ruwweg duidt op de prestatiewinst die nu te zien is. Je zou bijna kunnen zeggen dat moesten ze een barts gemaakt hebben met dezelfde hoeveelheid shaders als de cayman, die even snel geweest zou zijn, en dat lijkt mij niet eens zo'n rare stelling. Kunnen we daaruit concluderen dat de 4D-aanpak ofwel niks beter is dan de 5D-aanpak, ofwel nog niet goed "werkt"?
Hij werkt nog niet optimaal. Maar hij is al wel beter dan de 5D in cypress. Je hebt namelijk minder shaders dus theoretisch een lagere peak performance. Maar in de meeste gevallen is hij gewoon sneller. Er zijn blijkbaar nog best wat games die shader heavy zijn en waar de 5D shaders in verhouding erg goed benut kunnen worden. Lees het artikel van anandtech maar eens daar leggen ze echt heel mooi uit waar dat 5D vandaan komt.

AMD wil nu een stap richting de toekomst zetten. Ze zien dat het aantal benutte shaders begint te dalen. Gemiddeld zaten ze nu op 3,4. Die 5D shaders komt uit de DX9 tijd waar voor Vertex bewerkingen 5 instructies per clock optimaal was. Bij DX10 zijn Pixel en Vertex units samen gevoegd. Dus het wordt steeds minder belangrijk om er pressies 5 te kunnen verwerken. Daarnaast zijn de nieuwe 4D shaders wel een experiment. Het kan best zijn dat ze in de 28nm opvolger wel 4D shaders hebben. Maar die weer heel anders gemaakt hebben. Nu is het namelijk zo dat voor bepaalde bewerkingen 3 units gecombineerd moeten worden. Waar je voorheen de grote alu van de 5D (4+1) gebruikte. Maar volgens AMD werd dit niet veel gebruikt. Als nu ineens blijkt dat dat toch een probleem is kan het zo maar zijn dat ze dat weer aanpassen.

Dus ik zou niet zo maar willen zeggen dat 4D minder efficiënt is. Nu misschien wel tov Barts. Maar vergeet de X1900 niet. Met zijn 3 dubbele Pixel units. Eerst niet super veel sneller dan de X1800 XT. En gelijk aan de 7900 GTX. Vandaag de dag 50-100% sneller dan de 7900 GTX. En het zou mij niet verbazen als hij meer dan 200% sneller is als die oude X1800 XT. 250% zou me ook niet verbazen.

En ik denk dat de winst met games die over 1 jaar uitkomen ook groter zullen zijn. Die gebruiken meer tesselation en minder diepe shaders. Dan zal de HD69xx het verschil tov zijn voorgangers pas kunnen laten zien.
Masterkale1 schreef op woensdag 15 december 2010 @ 14:30:
Salland heeft de sapphire 6970 staan voor 321 euro .. Alleen meer dan 20 dagen levertijd
Aub geloof salland niet. Je krijgt die kaart nooit..... Heb al zo vaak pre orders gedaan bij die shop. Nooit wat gekregen. Zeker niet als de prijzen relatie laag zijn. Elke keer was er weer uitstel en zou het nog maar 2 weken duren. Op een gegeven moment meer dan een half jaar zitten wachten nog steeds niets. Dat is niet een keer gebeurt maar een keer of 4. Dus alleen bestellen als het echt op voorraad is!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 376035

Ik zie ook het probleem niet zo, tenminste niet als het over de HD6950 gaat. Deze kost nu €20 meer dan een HD5870, maar omdat de 6950 net uit is, verwacht ik nog wel dat deze zal gaan dalen.
Nu is de 6950 zo'n 4% (iets meer) beter dan de 5870. Ook is er een lager verbruik, 2GB i.p.v. 1GB en de 5870 gaat EOL dus hieraan zal niet veel meet worden gedaan qua drivers (correct me if I'm wrong).

Ik verwacht dat het verschil binnen een redelijke tijd qua prijs nog wat lager wordt en het performanceverschil naar zo'n 10-15% gaat.

Dan heb je toch gewoon een hele waardige opvolger van de HD5870?

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
tripple- en quad-crossfire:
http://translate.google.c...n-configuratii-multi-card
})

edit: overigens zou ik HD6950 in CF wel zien zitten, maar dan moeten de prijzen wel naar circa €250 per kaart zakken.
CF schaling in 6xxx series is iig super! Beter dan SLI voor het eerst in de SLI/Crossfire geschiedenis :)

[ Voor 34% gewijzigd door Gurneyhck op 15-12-2010 15:34 ]


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Denk niet dat de prijzen gaan zakken, eerder stijgen. Zie ook in het verleden bij de 5xxx/6xxx serie.
Je kunt hem beter nu meteen halen dan over een paar weken. Was ook bij mijn 6850 voor 149,- paar dagen later waren ze 169,- en nu nog steeds

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

  • Aethertyd
  • Registratie: December 2009
  • Laatst online: 25-03 14:49
Is een 520 watt voeding genoeg voor de 6970?

Acties:
  • 0 Henk 'm!

  • Tankbuster
  • Registratie: April 2008
  • Laatst online: 21:07
Wat ik mij nou afvraag qua geluidsproductie, is de HD69xx serie nou erg luid? De HD6950 "maakt" bijvoorbeeld 50db aan geluid, maar zou iemand kunnen zeggen, hoeveel dat eigenlijk is?

Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
@ -Maskertje- : De geruchtenmolen mag nu wmb wel uit de TS. Alles wat bewezen is is toch wel terug te vinden in de reviews :>

Acties:
  • 0 Henk 'm!

Anoniem: 115433

Geluid is niet zo erg goed te meten in het geval je desktop onder het bureau staat. Stil is het nooit, verschilt ook nog eens per persoon sommige mensen vinden het gewoon weg super irritant en luisteren er naar of het wel echt stil is.

Het beste is als je een jong persoon bent en je ipod op gevaarlijk hoog heb staan zodat je vroeg "doof" raakt dan merk je er niet zoveel van :)

http://www.comairrotron.com/acoustic_noise.shtml

verschilt dus erg per persoon

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 21:27
Ligt er maar net aan hoe het gemeten is, wat voor kast je hebt, hoeveel geluid de rest van je systeem maakt en waar jij je pc hebt staan.

Edit: Ook wel leuk om te lezen:

AMD's Catalyst gets thumbs up from Microsoft

Drivers zijn iig geen excuus meer om géén AMD te kopen.

[ Voor 49% gewijzigd door spNk op 15-12-2010 16:05 ]


Acties:
  • 0 Henk 'm!

  • totalatool
  • Registratie: Februari 2010
  • Laatst online: 26-04 23:04
Ik ga denk ik over een maandje of twee eens bekijken of ik mijn 5870 wil vervangen door een 6970 of GTX570, of helemaal niet. Eerst maar eens wachten tot de rook opgetrokken is en alles wat meer uitgekristalliseerd is qua prijzen en benchmarks.

LEGO te koop


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
totalatool schreef op woensdag 15 december 2010 @ 16:11:
Ik ga denk ik over een maandje of twee eens bekijken of ik mijn 5870 wil vervangen door een 6970 of GTX570, of helemaal niet. Eerst maar eens wachten tot de rook opgetrokken is en alles wat meer uitgekristalliseerd is qua prijzen en benchmarks.
Tweede HD5870, overweeg het zelf ook wel. Maar de prijs is niet te rechtvaardigen om over te stappen vind ik...

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15:06

Darkasantion

Just keep swimming!

totalatool schreef op woensdag 15 december 2010 @ 16:11:
Ik ga denk ik over een maandje of twee eens bekijken of ik mijn 5870 wil vervangen door een 6970 of GTX570, of helemaal niet. Eerst maar eens wachten tot de rook opgetrokken is en alles wat meer uitgekristalliseerd is qua prijzen en benchmarks.
Same here, volgende zomer ga ik nieuwe PC kopen en dan maar eens bekijken of ik voor HD5870CF ga, of HD6970CF doe. Of dat ik gewoon dan nog even wacht totdat de HD7970(of HD7870) er is, die op 28nm komt, om zo een flinke boost te krijgen qua power vergeleken met de HD5870 en HD6970 want dan koop ik meteen 2 :+

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Rondje pricewatch:

Ik kijk alleen naar leverbaar binnen enkele dagen en Salland negeer ik want die leveren zelden uit.
Dit levert het volgende op in volgorde van snelheid excl. verzendkosten:

HD5970 €399 (Sapphire@Alternate)
GTX580 €474 (Point of View@4launch&Max-ict)
HD6970 €339 (club3d@alternate)
GTX570 €325 (Palit@afuture)
HD6950 €262 (XFX@afuture)
HD5870 €240 (XFX@azerty)

Conclusie: GTX580 valt af trager en duurder dan de HD5970.

6970 vs GTX570 = €15 verschil. 6970 is sneller
Wil je geld uitsparen ga je voor de 6950, is twee tientjes duurder dan de 5870 maar moet haast wel beter future-proof zijn.

Al bij al toch een leuke launch dus van AMD :) Komende uren zullen er nog wel wat prijzen bijkomen in de pricewatch, ik mis bijvoorbeeld nog de Sapphire HD6950.

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Nog een interessant stukje over de drivers, post van xtremesystems, van de reviewer van Hardware Canucks:
Most people seem to be dreaming in technicolor here. If you think that AMD released drivers to reviewers that wouldn't feature the full performance, you are sadly mistaken. This these hopes and dreams seem to happen with EVERY AMD and they NEVER come to pass.

The drivers given to the press (both 10.11 and 10.12 RC2) are "full speed" drivers, make no mistake about that.

Having used both, I can tell you that they are identical in performance other than a small increase in 3DMark 11 scores and a patch that fixes some random crashes I was having in F1 2010.

For all of you harping on the drivers used, I think that is in poor form simply because there won't be one lick of difference between the two packages in terms of overall single GPU in-game performance.
10.11 vs 10.12 maakt dus niet veel uit...

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
10.12RC2 is nog steeds niet de build die in het vorige deel werd genoemd toch? 8.801 of iets dergelijks.

@ Darkasantion: volgende zomer een 5870 kopen? :P

Acties:
  • 0 Henk 'm!

Anoniem: 376035

Dat is slecht nieuws... :(

Ik had toch wel verwacht dat die drivers iets zouden verbeteren.

[ Voor 56% gewijzigd door Anoniem: 376035 op 15-12-2010 16:22 ]


Acties:
  • 0 Henk 'm!

  • Melkaz
  • Registratie: Maart 2010
  • Laatst online: 28-04 22:49

Melkaz

Melkazar

Gurneyhck schreef op woensdag 15 december 2010 @ 16:15:
Rondje pricewatch:


Al bij al toch een leuke launch dus van AMD :) Komende uren zullen er nog wel wat prijzen bijkomen in de pricewatch, ik mis bijvoorbeeld nog de Sapphire HD6950.
ik heb een medewerker van cdromland gesproken:
Morgen verwachten wij de sapphire binnen, zal rond dezelfde prijs uitkomen.
Rond de prijs van de XFX 6950, € 269,00. Wat de concrete prijs wordt zullen we morgen weten.

PSN: Melkazar | Steam: Melkaz


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15:06

Darkasantion

Just keep swimming!

Werelds schreef op woensdag 15 december 2010 @ 16:22:
10.12RC2 is nog steeds niet de build die in het vorige deel werd genoemd toch? 8.801 of iets dergelijks.

@ Darkasantion: volgende zomer een 5870 kopen? :P
Denk het wel, erna dan overstappen op HD7970 CF:P Hoewel ik dan maar 1GB heb per GPU tot eind volgend jaar. Of is dat wel voldoende voor 1920x1200 :) ?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10
Darkasantion schreef op woensdag 15 december 2010 @ 16:33:
[...]

Denk het wel, erna dan overstappen op HD7970 CF:P Hoewel ik dan maar 1GB heb per GPU tot eind volgend jaar. Of is dat wel voldoende voor 1920x1200 :) ?
Dan is een enkele kaart al voldoende! :9 Ga eens Eyefinity draaien man! Da's een mooie tussentijdse upgrade :)

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Darkasantion schreef op woensdag 15 december 2010 @ 16:33:
[...]

Denk het wel, erna dan overstappen op HD7970 CF:P Hoewel ik dan maar 1GB heb per GPU tot eind volgend jaar. Of is dat wel voldoende voor 1920x1200 :) ?
Doelde eerder op het feit dat je dan waarschijnlijk geen 5870 meer vindt :P

Zit zelf nu op een enkele 460, en wil toch weer met m'n meerdere monitors gaan spelen, dus ik zit zelf nu echt te twijfelen of ik er en tweede 460 bij plak voor ~160, of dat ik hem verkoop en een kaaiman haal. 580 gaat sowieso niet gebeuren, die zit te scheef qua prijs. 570 misschien, maar ik moet straks eerst even wat Eyefinity/Surround benchmarks gaan zoeken :p

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 15:06

Darkasantion

Just keep swimming!

Werelds schreef op woensdag 15 december 2010 @ 16:39:
[...]

Doelde eerder op het feit dat je dan waarschijnlijk geen 5870 meer vindt :P

Zit zelf nu op een enkele 460, en wil toch weer met m'n meerdere monitors gaan spelen, dus ik zit zelf nu echt te twijfelen of ik er en tweede 460 bij plak voor ~160, of dat ik hem verkoop en een kaaiman haal. 580 gaat sowieso niet gebeuren, die zit te scheef qua prijs. 570 misschien, maar ik moet straks eerst even wat Eyefinity/Surround benchmarks gaan zoeken :p
Kijk tegen die tijd wel :) En anders gewoon 2e hands HD5870 op de kop tikken :P
Eyefinity kan helaas nog niet :(

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:52
Een enkele 6970 verbruikt en kost minder dan de nVidia alternatieven (als je nog geen GTX460 zou hebben en er dus maar 1 extra zou hoeven kopen).... Bij de 6970 kun je nog altijd naar X-fire gaan over een paar maanden, bij nVidia zit je al meteen op je max.

Zelf ben ik geen fan van dual GPU setups, dus tja. 5870 eruit, 6970 erin.

[ Voor 13% gewijzigd door Paprika op 15-12-2010 16:48 ]


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Gurneyhck schreef op woensdag 15 december 2010 @ 16:15:
Rondje pricewatch:

6970 vs GTX570 = €15 verschil. 6970 is sneller
Je, sneller bij resolutie 2560x1600. Bij 1920x1080(1200) is het gewoon gelijk en volgens hardwarecanucks heeft de GTX570 tot 1920x1200 zelfs een paar procent voorsprong... Tussen de GTX570 en HD6970 hangt het af welke reso je gamed. Speel je op 1920x1080 kan je net zo goed gaan voor een GTX570. Zit je op 2560x1600, dan is de HD6970 een betere keuze voor die kleine meerprijs.

HD6950 staat er idd wel gunstiger voor wegens ontbreken van directie concurrentie en een betere prijs/performance t.o.v. de HD6970

[ Voor 47% gewijzigd door Anoniem: 245699 op 15-12-2010 17:13 ]


Acties:
  • 0 Henk 'm!

  • V3g3ta
  • Registratie: September 2004
  • Laatst online: 10-04 15:10

V3g3ta

Fueled by Games!

Melkaz schreef op woensdag 15 december 2010 @ 16:32:
[...]
ik heb een medewerker van cdromland gesproken:
[...]
Rond de prijs van de XFX 6950, € 269,00. Wat de concrete prijs wordt zullen we morgen weten.
Alternate heeft ze op voorraad voor die prijs. De 6970 is daar nu €329, een uur nadat ik hem voor €339 heb gekocht... :/

PS5 DE, PS4 Pro, PS3 SS, PS VIta Slim PSN: BSGathena


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
V3g3ta schreef op woensdag 15 december 2010 @ 17:21:
[...]


Alternate heeft ze op voorraad voor die prijs. De 6970 is daar nu €329, een uur nadat ik hem voor €339 heb gekocht... :/
Annuleren die hap en de goedkopere bestellen, klaar.

Acties:
  • 0 Henk 'm!

  • Aethertyd
  • Registratie: December 2009
  • Laatst online: 25-03 14:49

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:03
na vannacht de eerste review te zien dacht ik fail, ik wijzig het nu maar in EPIC fail... vind het heel bijzonder hoe ze van zo'n goede 5800 serie naar zo'n matige 6900 serie gaan.,

en degenen die zeuren over het verbuik van NV: de gtx570 verbruikt ietsje meer maar is soms ook gewoon sneller. verder is deze beter overclockbaar en qua prijs aardig gelijk aan de 6970 en ook gewoon al leverbaar...

toch is er goed nieuws: ben nu NOG blijer met mijn 5870 :+

NV heeft het wat mij betreft beter gedaan en kwamen van een veel te hete gpu. is nu zuiniger en sneller dan zijn voorganger, en aangezien ze de snelste hebben is de prijs aardig gerechtvaardigd.

verder erg jammer om te lezen dat de prijzen ietsje hoger hadden moeten zijn, maar dat de presaties er net niet waren. is dit dan toch de reden geweest om met beeldkwalitiet in de drivers te gaan prutsen??

en wat de drivers betreft, dat wordt hier al jaren na een launch geroepen. maar ondanks dat bijvoorbeeld de 5800 serie wel steeds ietsje sneller werd, is de gtx480 naar mijn idee alleen maar verder uitgelopen door de tijd heen.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 27-04 13:01

pino85

Im just a Bird in the Sky

Het klopt dat de 5870 gebleken is een hele goede aankoop te zijn dat ben ik met je eens.

Echter epic fail dat vind ik niet, ja het valt wat tegen maar veel mensen hadden ook torenhoge verwachtingen maar we moeten niet vergeten dat de 5000 serie al een hele sterke serie was en op 40NM denk ik dat er op dit moment niet meer inzit, buiten enkele procenten die te halen zijn uit drivers.

Tevens is de stap die NVIDIA maakte van de 400 naar 500 serie kwa pure prestaties groter ook dit speelt mee bij mensen die nu vinden dat AMD tegen valt, tenminste zo kijk ik er tegen aan.

Ik vind het ook jammer maar epic fail nee dat is het absoluut niet te noemen, we hadden gewoon te hoge verwachtingen denk ik.
Ben zelf blij dat ik mijn 5870 nog niet verkocht heb en dit zal ik nu ook zeker niet gaan doen omdat ik er niets op vooruit zal gaan.

Laten we snel hopen dat men naar 28NM gaat zodat de echte(grote) vooruitgang er weer zal gaan komen.

[ Voor 9% gewijzigd door pino85 op 15-12-2010 17:54 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • V3g3ta
  • Registratie: September 2004
  • Laatst online: 10-04 15:10

V3g3ta

Fueled by Games!

PS5 DE, PS4 Pro, PS3 SS, PS VIta Slim PSN: BSGathena


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
meljor schreef op woensdag 15 december 2010 @ 17:44:
NV heeft het wat mij betreft beter gedaan en kwamen van een veel te hete gpu. is nu zuiniger en sneller dan zijn voorganger, en aangezien ze de snelste hebben is de prijs aardig gerechtvaardigd.
Sneller is die eigenlijk alleen maar door dat niks uitgeschakeld is en de hogere klok.
Enige waar je prestatie winst ziet en wat hier waarschijnlijk niet aan te wijten is, is Vantage.

Voor de rest is de zuiniger ook maar schijn (tuurlijk telt wel mee, maar is geen betere GPU) en komt dat waarschijnlijk allemaal door de betere koeler, lager temp = lager verbruik, draai je Furmark dan zie je het verbruik omhoog schieten tot 350 Watt, waar een GTX480 op 300 Watt blijft steken. De koeler houd de temp dan immers niet meer zo goed onder controle als bij games.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • totalatool
  • Registratie: Februari 2010
  • Laatst online: 26-04 23:04
-The_Mask- schreef op woensdag 15 december 2010 @ 17:56:
Voor de rest is de zuiniger ook maar schijn (tuurlijk telt wel mee, maar is geen betere GPU) en komt dat waarschijnlijk allemaal door de betere koeler, lager temp = lager verbruik, draai je Furmark dan zie je het verbruik omhoog schieten tot 350 Watt, waar een GTX480 op 300 Watt blijft steken. De koeler houd de temp dan immers niet meer zo goed onder controle als bij games.
Eh, wat is voor jou belangrijker: verbruik tijdens games of tijdens Furmark? :P

LEGO te koop


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52

Acties:
  • 0 Henk 'm!

Anoniem: 115433

Het idee is dat Nvidia furmark settings heeft check het review van guru3d.com die geeft al ook die zelfde hint.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:03
ik vind het gewoon ongelooflijk dat de 6870 met zijn 1120sp bijna de prestaties haalt van een 5870, en dat ze dan met een geheel nieuwe 4d architectuur komen met ruim 1500sp en dat de sprong dan niet groter is als dit...

natuurlijk was de hype groot, maar dat komt komt ook door NV omdat die al aardig vooruit ging dus gingen we er vanuit dat er bij amd wel meer winst te boeken viel (zeker na de 6870).

en natuurlijk was de hype hier flink gevoed: 1920sp, veel snellere 4d sp, ennuh... in welk spel was hij ook alweer 30-40% sneller dan de gtx580? _/-\o_

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 17:07:
[...]

Je, sneller bij resolutie 2560x1600. Bij 1920x1080(1200) is het gewoon gelijk en volgens hardwarecanucks heeft de GTX570 tot 1920x1200 zelfs een paar procent voorsprong... Tussen de GTX570 en HD6970 hangt het af welke reso je gamed. Speel je op 1920x1080 kan je net zo goed gaan voor een GTX570. Zit je op 2560x1600, dan is de HD6970 een betere keuze voor die kleine meerprijs.

HD6950 staat er idd wel gunstiger voor wegens ontbreken van directie concurrentie en een betere prijs/performance t.o.v. de HD6970
Doe mij maar ruim 700MB extra aan videomem voor die 15euro hoor _/-\o_
Ben je toch wat meer futureproof imho.
Anoniem: 115433 schreef op woensdag 15 december 2010 @ 18:05:
Het idee is dat Nvidia furmark settings heeft check het review van guru3d.com die geeft al ook die zelfde hint.
En ATi heeft geen powertune.... Furmark is bullshit om verbruik te gaan vergelijken. Je moet het vergelijken in games die je daadwerkelijk speelt.

Bij elk willekeurig autoblad gaan ze toch ook niet de nieuwste auto's testen op hun maximumsnelheid (200-300km/u) 8)7
Daar testen ze ook gewoon stadsverbruik & snelwegverbruik. Dus de situaties die je ook echt tegenkomt!

Acties:
  • 0 Henk 'm!

  • ABD
  • Registratie: Maart 2008
  • Laatst online: 22:12

ABD

-The_Mask- schreef op woensdag 15 december 2010 @ 17:56:
[...]

Sneller is die eigenlijk alleen maar door dat niks uitgeschakeld is en de hogere klok.
Enige waar je prestatie winst ziet en wat hier waarschijnlijk niet aan te wijten is, is Vantage.

Voor de rest is de zuiniger ook maar schijn (tuurlijk telt wel mee, maar is geen betere GPU) en komt dat waarschijnlijk allemaal door de betere koeler, lager temp = lager verbruik, draai je Furmark dan zie je het verbruik omhoog schieten tot 350 Watt, waar een GTX480 op 300 Watt blijft steken. De koeler houd de temp dan immers niet meer zo goed onder controle als bij games.
In dit segment staat verbruik lang niet op de eerste plaats, je gaat pure snelheid. Als de zuinigere chip verder over te clocken zou zijn,dan had je nog een punt gehad, maar die hete energieslurpers van Nvidia overclocken ook nog beter.

Ik ben ook niet zo blij met de uitslagen, maar ik ga niet zoeken naar argumenten. Soms moet je gewoon je verlies kunnen nemen. Misschien als de Fermi's over 2 jaar massaal uitvallen heb je een punt, maar eigenlijk dan niet eens, want dan is het tijd voor vervanging. De 6900 voldoet helaas niet aan de hype, gewoon mee leven.

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
ABD schreef op woensdag 15 december 2010 @ 18:23:
[...]


In dit segment staat verbruik lang niet op de eerste plaats, je gaat pure snelheid. Als de zuinigere chip verder over te clocken zou zijn,dan had je nog een punt gehad, maar die hete energieslurpers van Nvidia overclocken ook nog beter.
Eens wbt segment beoordeling. Maar hoe kom je erbij dat de kaarten van nVidia beter clocken?
Oprechte vraag, want ik heb nog geen echte OC test gezien van de nieuwe ATi's. Wat ik tot nu toe heb gezien is een paar kaarten die door CCC en powertune worden tegengehouden, maar dat zegt natuurlijk niets over OC-baarheid

Acties:
  • 0 Henk 'm!

  • Cobiwan
  • Registratie: Januari 2006
  • Niet online
ABD schreef op woensdag 15 december 2010 @ 18:23:
[...]
Misschien als de Fermi's over 2 jaar masaal uitvallen heb je een punt, maar eigenlijk dan niet eens, want dan is het tijd voor vervanging. De 6900 voldoet helaas niet aan de hype, gewoon mee leven.
Denk dat genoeg mensen er anders over denken. Of je wil gewoon je pc lang houden of bijvoorbeeld als je een nieuwe pc hebt de kaart houden in je oude...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Anoniem: 376035 schreef op woensdag 15 december 2010 @ 16:22:
Dat is slecht nieuws... :(

Ik had toch wel verwacht dat die drivers iets zouden verbeteren.
Nou ik niet echt. Nu kunnen ze pas echt data gaan verzamelen nu het spul vol op gebruikt wordt. Dit soort dingen kosten maanden niet een paar werken.
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 17:07:
[...]

Je, sneller bij resolutie 2560x1600. Bij 1920x1080(1200) is het gewoon gelijk en volgens hardwarecanucks heeft de GTX570 tot 1920x1200 zelfs een paar procent voorsprong... Tussen de GTX570 en HD6970 hangt het af welke reso je gamed. Speel je op 1920x1080 kan je net zo goed gaan voor een GTX570. Zit je op 2560x1600, dan is de HD6970 een betere keuze voor die kleine meerprijs.

HD6950 staat er idd wel gunstiger voor wegens ontbreken van directie concurrentie en een betere prijs/performance t.o.v. de HD6970
Mja kijk liever even naar goede review sites zoals Anandtech en HardOCP. Ik weet niet maar ik blijf die reviews van canucks gammel vinden. Al heb ik het bij meer reviews gezien dat hoe hoger de resolutie doet hoe beter de HD69xx kaarten het in verhouding gaan doen.
Is er een speciale rede waarom je die wilt? kaarten zijn namelijk identiek op de doos en stikkers na.
Anoniem: 115433 schreef op woensdag 15 december 2010 @ 18:05:
Het idee is dat Nvidia furmark settings heeft check het review van guru3d.com die geeft al ook die zelfde hint.
Doen ze ook. AMD doet het nu alleen over de hele lijn. Sterker nog ze geven je zelf controle als jij wilt dat je kaart geen 250 maar max 190 watt gebruikt stel je em daar op in en zorgt de de boel er voor dat hij er niet meer boven kwam. Als je dit in het verleden wou doen moest je de vsync gebruiken maar dat brengt weer nadelen mee als je geen tripple buffer hebt. Daarnaast kun je het TDP ook opschroeven naar 300 waardoor er wel meer verbruikt mag worden en Furmark performance ook omhoog gaat. Want die wordt bij een 6970 behoorlijk geknepen om binndn die 250 watt te blijven. Er zouden ook OC versies komen die veel hoger dan 300 watt mogen.


BTW over de prijzen. Er zouden wellicht ook nog 1GB modellen komen. Die zullen natuurlijk goedkoper zijn.

[ Voor 92% gewijzigd door Astennu op 15-12-2010 19:26 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Astennu schreef op woensdag 15 december 2010 @ 19:18:
[...]

Mja kijk liever even naar goede review sites zoals Anandtech en HardOCP. Ik weet niet maar ik blijf die reviews van canucks gammel vinden. Al heb ik het bij meer reviews gezien dat hoe hoger de resolutie doet hoe beter de HD69xx kaarten het in verhouding gaan doen.
Bij Anandtech zie je gewoon hetzelfde als bij Canucks, bij Computerbase is het al helemaal duidelijk. HardOCP is als enige site een uitzondering, maar dat komt omdat ik die review gewoon geen goed praktijk voorbeeld vind geven. Ik heb daar al elders dit over gezegd;
Normaal vind ik HardOCP wel een goede site, maar voor videokaarten zakken ze af. Kom op, ze testen 5 games alleen op 2560x1600... Daarbij is de uitkomst van Civilization V twijfelachtig als ik die vergelijk met Anandtech;
- http://images.anandtech.com/graphs/graph4061/34640.png
- http://hardocp.com/images...2337625zR9jST7GBp_4_7.gif

Daarbij kijkt HardOCP alleen naar 2560x1600 met hoge AA/AF, dat geeft natuurlijk alles behalve een reeël beeld van de praktijk waarbij het gros op 1920x1080 gamed.
Check ook de zeer uitgebreide review van Computerbase.de eens (13 games + 3dmark 11);
- http://www.computerbase.d...erformancerating_mit_aaaf
Daar zit de GTX570 de HD6970 op de hielen en is ie echt significant 5-10% sneller dan de HD6950. Alleen bij 2560x1600 8xAA/16xAF komt de HD6950 bovendrijven (dank u wel 2gb geheugen...) en laat dat nu precies de instellingen zijn waarop HardOCP test; geeft dus geen goed beeld!
Leuke review voor iemand die op 2560x1600 gamed, maar niet voor velen anderen (veruit de meesten dus...). Een goede review pakt meerdere resoluties. Voor zover mijn mening... ;)

[ Voor 4% gewijzigd door Anoniem: 245699 op 15-12-2010 19:35 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
totalatool schreef op woensdag 15 december 2010 @ 17:59:
[...]

Eh, wat is voor jou belangrijker: verbruik tijdens games of tijdens Furmark? :P
Zei ik ook, maar ging mij gewoon erom dat de GPU zelf geen betere performance/watt heeft zoals sommigen zeggen. (performance en verbruik is beide met zo'n 15% toegenomen) ;)
ABD schreef op woensdag 15 december 2010 @ 18:23:
[...]

Ik ben ook niet zo blij met de uitslagen, maar ik ga niet zoeken naar argumenten. Soms moet je gewoon je verlies kunnen nemen.
8)7 Ik maak de videokaarten/GPU niet hoor? Daarnaast gaf ik een feit en was het geen onzin of zo.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 19:27:
[...]

Bij Anandtech zie je gewoon hetzelfde als bij Canucks, bij Computerbase is het al helemaal duidelijk. HardOCP is als enige site een uitzondering, maar dat komt omdat ik die review gewoon geen goed praktijk voorbeeld vind geven. Ik heb daar al elders dit over gezegd;

[...]

Leuke review voor iemand die op 2560x1600 gamed, maar niet voor velen anderen (veruit de meesten dus...). Een goede review pakt meerdere resoluties. Voor zover mijn mening...
Hmm... ben het wel deels met je eens. Maar als er in game X op resolutie 1920x1200 al 100fps worden gehaald met bijvoorbeeld een HD5850 dan heb ik liever dat ze deze kaarten op hogere resoluties testen ookal speel ik daar zelf niet op. Het gaat er toch juist om wat deze kaarten doen in een game waar de instellingen zo hoog zijn dat ze met het gros van de videokaarten niet meer speelbaar zijn!?
Je koopt imho deze kaarten als je op hoge kwaliteit wilt gamen en dus de instellingen flink opschroeft. Als een game vloeiend draait bij mij op 1920x1200 dan gaat AA aan, draait ie met 4xAA goed, dan gaat de supersampling filter aan bijvoorbeeld.

Ik heb zelf dan ook liever dat ze alleen op 1920 en beyond testen (onder deze resolutie ben je toch goedkoper en net zo goed af met een andere kaart). En dan op die hoge resoluties proberen zo hoog mogelijke beeldkwaliteit te verkrijgen. Wat dat betreft zijn er weinig onderscheidende websites. Zou veel liever wat verschillende reviews zien, waarbij de één bijvoorbeeld dus ingaat op het gebruik van SuperSampling.

edit: hier zo een mooie rol voor tweakers.net kunnen liggen bijvoorbeeld ipv de 1000ste website te willen zijn met precies dezelfde benchmarkjes maar dan met een net even anders geclockte CPU.

[ Voor 5% gewijzigd door Gurneyhck op 15-12-2010 19:37 ]


Acties:
  • 0 Henk 'm!

Anoniem: 287880

Je maakt daar een goede opmerking. Games die 100 FPS+draaien op 2600 bij 1600 zouden niet meegewogen moeten worden in je oordeel. Het zijn de zware games ( en de minimum FPS ) waar het om gaat. Dat wordt in die grote performance summary van bijvoorbeeld techpowerup vergeten.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Kom maar op met die Antilles! 8) Dan moet dat de klapper maar worden.

Ik kijk in februari wel wat ik koop. Ben wel aan iets nieuws toe, maar koop geen kaart met immature drivers (zoals het nu lijkt). Die fout heb ik eerder gemaakt, en maak ik niet nog eens. Word ik gefrustreerd van. En ik ben geduldig geworden het laatste jaar. :*)

Ben benieuwd wat ze er nog uit kunnen halen met drivers. En dan maak ik over een weekje of 8 mijn keuze. :)

[ Voor 151% gewijzigd door Format-C op 15-12-2010 20:34 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Anoniem: 287880 schreef op woensdag 15 december 2010 @ 20:10:
Je maakt daar een goede opmerking. Games die 100 FPS+draaien op 2600 bij 1600 zouden niet meegewogen moeten worden in je oordeel. Het zijn de zware games ( en de minimum FPS ) waar het om gaat. Dat wordt in die grote performance summary van bijvoorbeeld techpowerup vergeten.
minimum fps is idd. een onderschat iets. Eigenlijk zouden ze vooral (of alleen maar) daar op moeten richten.
Format-C schreef op woensdag 15 december 2010 @ 20:24:

Edit; wat ik me wel afvraag? Waar zijn die 1920 sp's waar iedereen het eerst over had?
Dat schijnt een expres verkeerde leak te zijn geweest vanuit AMD om te kijken welke sources er lekken... Waarom ze dat dan met zulke lekker makende specs doen, geen idee :(

Acties:
  • 0 Henk 'm!

  • Hekking
  • Registratie: April 2006
  • Laatst online: 02-02-2020

Hekking

Can of whoopass

Format-C schreef op woensdag 15 december 2010 @ 20:24:
Edit; wat ik me wel afvraag? Waar zijn die 1920 sp's waar iedereen het eerst over had?
Ergens stof aan het happen in het 32 Nm plan schat ik zo ;)

Wat heb jij in de aanbieding starks in februari zei je ? :9

[ Voor 16% gewijzigd door Hekking op 15-12-2010 20:34 ]

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Gurneyhck schreef op woensdag 15 december 2010 @ 20:33:


Dat schijnt een expres verkeerde leak te zijn geweest vanuit AMD om te kijken welke sources er lekken... Waarom ze dat dan met zulke lekker makende specs doen, geen idee :(
Mja, ik had mijn post al ge-edit, maar je was me te vlug af. :P

Of zouden ze toch een deel hebben uitgeschakeld ivm stroomverbruik? Is er echt helemaal niets wat daarop zou kunnen wijzen? :)
Hekking schreef op woensdag 15 december 2010 @ 20:34:

Wat heb jij in de aanbieding starks in februari zei je ? :9
Mijn i7 is al weg. Verkocht. En alles wat erbij zat. In februari komt er weer een klapper op mijn computerkamer te staan als alles een beetje meezit.

[ Voor 26% gewijzigd door Format-C op 15-12-2010 20:39 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • karstnl
  • Registratie: Augustus 2009
  • Laatst online: 27-04 23:59
Gurneyhck schreef op woensdag 15 december 2010 @ 20:33:
[...]

minimum fps is idd. een onderschat iets. Eigenlijk zouden ze vooral (of alleen maar) daar op moeten richten.
Het gemiddelde noemen en de minimum fps, lijkt me wel voldoende inzicht geven.
[...]


Dat schijnt een expres verkeerde leak te zijn geweest vanuit AMD om te kijken welke sources er lekken... Waarom ze dat dan met zulke lekker makende specs doen, geen idee :(
Om mensen te laten wachten met hun investering in een videokaart ipv dat ze Nv kaart kochten. Al zou natuurlijk een deel daarvan nu nog steeds een Nv hebben gekocht maar dat terzijde.

[ Voor 9% gewijzigd door karstnl op 15-12-2010 20:37 ]


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23:32

edward2

Schieten op de beesten

Vooruitblik op dual Antilles dus, QCF schaalt voorlopig nog ruk, hoewel deze er wel uitspringt, positieve zin:
Afbeeldingslocatie: http://lab501.ro/wp-content/uploads/2010/12/WH-25601.jpg

Ben voor de rest matig onder de indruk. Had eigenlijk minimaal GTX580 perf. verwacht, maar dat kan nog komen, maar veel meer zal er niet bijkomen als ik de theoretische benchmarks van Xbit bekijk.
Zie daarin eigenlijk weinig schokkende verandering in shaderperf. en ook vwb de geometrie ligt het nog steeds onder het niveau van Fermi, mits de utilisatie natuurlijk al optimaal is(drivers?)

Anderzijds schaalt dual CF erg goed en heb je voor een dikke 600 (of wat minder als je de -50 neem) eur een powerhouse.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Anoniem: 245699

Gurneyhck schreef op woensdag 15 december 2010 @ 19:36:
[...]


Hmm... ben het wel deels met je eens. Maar als er in game X op resolutie 1920x1200 al 100fps worden gehaald met bijvoorbeeld een HD5850 dan heb ik liever dat ze deze kaarten op hogere resoluties testen ookal speel ik daar zelf niet op. Het gaat er toch juist om wat deze kaarten doen in een game waar de instellingen zo hoog zijn dat ze met het gros van de videokaarten niet meer speelbaar zijn!?
Je koopt imho deze kaarten als je op hoge kwaliteit wilt gamen en dus de instellingen flink opschroeft. Als een game vloeiend draait bij mij op 1920x1200 dan gaat AA aan, draait ie met 4xAA goed, dan gaat de supersampling filter aan bijvoorbeeld.
Ik snap wat je bedoeld, maar heb toch een andere mening. De huidige games (zeker DX11) krijgen de meeste single GPU kaarten op 1920x1200 incl AA en AF aardig op de knieën. Kijkend naar bijv. de games die Tweakers gebruikt zijn, is er maar eentje die gemiddeld net boven de 100fps komt en dat is bij COD:BO, maarja, dat is nou net een game waarbij je hogere fps wil hebben vanwege de multiplayer. Daarbij heb ik misschien wel per se de wens om Metro 2033 op Very High, AA/AF met +/- 45fps te spelen, dan heb ik toch zelfs op 1680x1050 toch echt een GTX580 nodig. Ik bedoel maar....
Ik heb niks aan een review waar alleen op 2560x1600 getest wordt omdat ik een dergelijke reso de komende 5 jaar zeer zeker toch niet ga gebruiken en daar zal ik echt niet de enige in zijn.
Maargoed, we snappen elkaar, maar hebben een iets andere mening, no problem! :)

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 23-04 10:52
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 21:26:
[...]

Ik snap wat je bedoeld, maar heb toch een andere mening. De huidige games (zeker DX11) krijgen de meeste single GPU kaarten op 1920x1200 incl AA en AF aardig op de knieën. Kijkend naar bijv. de games die Tweakers gebruikt zijn, is er maar eentje die gemiddeld net boven de 100fps komt en dat is bij COD:BO, maarja, dat is nou net een game waarbij je hogere fps wil hebben vanwege de multiplayer. Daarbij heb ik misschien wel per se de wens om Metro 2033 op Very High, AA/AF met +/- 45fps te spelen, dan heb ik toch zelfs op 1680x1050 toch echt een GTX580 nodig. Ik bedoel maar....
Ik heb niks aan een review waar alleen op 2560x1600 getest wordt omdat ik een dergelijke reso de komende 5 jaar zeer zeker toch niet ga gebruiken en daar zal ik echt niet de enige in zijn.
Maargoed, we snappen elkaar, maar hebben een iets andere mening, no problem! :)
Ben het ook zkr met je eens wbt Metro2033.
Maar ik vind dat als er stelselmatig in een bepaalde game al meer dan 80fps worden gehaald dan kun je die test wel uit je suite flikkeren want meer fps ga je toch niet merken. :)
Dus denk dat we er wel redelijk hetzelfde overdenken ;)

Acties:
  • 0 Henk 'm!

  • karstnl
  • Registratie: Augustus 2009
  • Laatst online: 27-04 23:59
Gurneyhck schreef op woensdag 15 december 2010 @ 21:46:
[...]


Ben het ook zkr met je eens wbt Metro2033.
Maar ik vind dat als er stelselmatig in een bepaalde game al meer dan 80fps worden gehaald dan kun je die test wel uit je suite flikkeren want meer fps ga je toch niet merken. :)
Dus denk dat we er wel redelijk hetzelfde overdenken ;)
Ben ik zeker met je eens, maar sommige games worden er nu eenmaal in gestopt vanwege hun populariteit. Bv. BO.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

Anoniem: 245699 schreef op woensdag 15 december 2010 @ 19:27:
Leuke review voor iemand die op 2560x1600 gamed, maar niet voor velen anderen (veruit de meesten dus...). Een goede review pakt meerdere resoluties. Voor zover mijn mening... ;)
Ik snap je punt eigenlijk niet, HardOCP neemt de resolutie en settings die de grens tussen speelbaar en onspeelbaar trekt. Alle settings daarboven zijn onspeelbaar bij die kaart, alle settings daaronder zijn zeker speelbaar.

Waarom zou je dan andere resoluties willen zien? Als die kaarten de monsterlijke resolutie van 2560x1600 aankunnen, dan kunnen ze alles daaronder zeker en vast aan, en met zwaardere settings zoals AA en AF. Of de ene kaart nu ineens wél 10% sneller is dan de andere bij deze lagere resolutie, wat zou dat uitmaken? Ze zijn beide snel genoeg, en dat is wat telt. Je zou misschien denken dat de verwachte prestaties voor toekomstige spellen vastgepind staat op de resoluties, dus omdat bijvoorbeeld de GTX570 in 1920x1200 relatief beter scoort dan de HD6950 dan op een hogere resolutie, dat die trend ook voortgezet wordt bij zwaardere games. Maar ik zou eerder denken dat zwaardere games net een zwaardere load zullen voorstellen, en die kan nu gesimuleerd worden door het gebruiken van een hogere resolutie.

Conclusie: HardOCP doet het eigenlijk helemaal zo onlogisch nog niet. Toch logischer dan het presenteren van een cijferdiarree waar je als leek makkelijk verkeerde conclusies uit kan trekken, aangezien weinigen hier bekend zijn met statistiek als wetenschap.

PS: het is gamet met een t, of games met een s, naargelang je het werkwoord gamen wilt vervoegen in het nederlands of in het engels. ;)

Acties:
  • 0 Henk 'm!

Anoniem: 245699

DevilsProphet schreef op woensdag 15 december 2010 @ 22:17:
[...]

Ik snap je punt eigenlijk niet, HardOCP neemt de resolutie en settings die de grens tussen speelbaar en onspeelbaar trekt. Alle settings daarboven zijn onspeelbaar bij die kaart, alle settings daaronder zijn zeker speelbaar.
Ik snap de aanpak van HardOCP wel, maar vind 'm gewoon niet handig en goed. Wie zijn zei om te bepalen dat 34fps gemiddeld goed genoeg is met minimale fps van ~20? Dat bepaal ik liever zelf... En als het bij hun niet hoog genoeg is, zetten ze de instellingen omlaag m.b.t. AA/AF terwijl de inpact van AA/AF bij de ene kaart heel anders is als bij de ander.
En dan nog, juist omdat de HD69xx over 2gb beschikt geeft dat een extra groot voordeel bij 2560x1600 en daarom trekt men daar mijn inziens een verkeerde conclusie, namelijk dat de HD6950 ongeveer gelijk presteert aan de GTX570 en de HD6970 een stuk sneller is;
If there is a real champion in this evaluation, it is the AMD Radeon HD 6950. AMD has set the MSRP at $299 for the 2GB Radeon HD 6950. 1GB models may even be cheaper. The least expensive GeForce GTX 570 is currently $349. That is a difference of $50. In all of our tests, the new Radeon HD 6950 either matched or beat the GeForce GTX 570.
.......
Looking at it this way, the HD 6970 blows the GTX 570 out of the water for a few bucks. Still the HD 6970 is AMD's flagship single-GPU video card
Als ik de kaarten wil kopen voor een resolutie van 1920x1080 is dit gewoon niet waar. Dat bwijzen zowat alle andere reviews. HardOCP doet nu voorkomen dat de GTX570 geen bestaansrecht heeft, terwijl dat voor velen bij 1920x1080 een prima alternatief kan zijn t.o.v. de HD6970.
Oja, een ander punt zijn de gekozen games, vind ik zeker geen goede selectie.
Maar ik zou eerder denken dat zwaardere games net een zwaardere load zullen voorstellen, en die kan nu gesimuleerd worden door het gebruiken van een hogere resolutie.
Ik weet niet hoe je dit ziet, maar daar heb ik een andere gedachte over. Resolutie verhogen simuleert niet direct een 'zwaardere' game.

Maar ik wilde dit bij m'n vorige post eigenlijk laten voor wat het is, maar dan doe ik het bij deze.

[ Voor 9% gewijzigd door Anoniem: 245699 op 15-12-2010 22:50 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Gurneyhck schreef op woensdag 15 december 2010 @ 18:16:
En ATi heeft geen powertune.... Furmark is bullshit om verbruik te gaan vergelijken. Je moet het vergelijken in games die je daadwerkelijk speelt.

Bij elk willekeurig autoblad gaan ze toch ook niet de nieuwste auto's testen op hun maximumsnelheid (200-300km/u) 8)7
Daar testen ze ook gewoon stadsverbruik & snelwegverbruik. Dus de situaties die je ook echt tegenkomt!
Het probleem is dus dat bij nVidia wordt door de driver wordt gekeken wat er aan het draaien is. Bij Furmark knijpt de driver de kaart dus af. Erg leuk, omdat je dan geen 350 Watt aan het verstoken bent. Maar er zijn ook power-virussen die feitenlijk hetzelfde kunnen doen als Furmark, maar wellicht niet in de drivers van nVidia zijn opgenomen als 'gevaarlijk'. Dan kan je GTX580 bij het menuscherm van de eerste uitbreiding van StarCraft II opeens weer 350 watt gaan lopen trekken, wat gevolgen kan hebben. Punt is dus dat bij nVidia het voor kan komen dat het dus ook in je doorsnee spellen kan voorkomen.

Bij de oplossing van AMD komt het verbruik gewoonweg niet over een hardwarematig ingestelde max, ongeacht welk powervirus je ook draait.

(En volgens mij richten de heren van Top Gear zich juist vooral op de topprestaties van auto's en zo min mogelijk op 'normaal gebruik' :P)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 22:44:
[...]
En dan nog, juist omdat de HD69xx over 2gb beschikt geeft dat een extra groot voordeel bij 2560x1600 en daarom trekt men daar mijn inziens een verkeerde conclusie, namelijk dat de HD6950 ongeveer gelijk presteert aan de GTX570 en de HD6970 een stuk sneller is;
Anoniem: 245699 schreef op woensdag 15 december 2010 @ 21:26:
Ik heb niks aan een review waar alleen op 2560x1600 getest wordt omdat ik een dergelijke reso de komende 5 jaar zeer zeker toch niet ga gebruiken en daar zal ik echt niet de enige in zijn.
Nou trek ik de conclusie dat je denkt dat de games de volgende 5 jaar niet zwaarder worden of dat jij die niet gaat spelen? ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 115433

Gurneyhck schreef op woensdag 15 december 2010 @ 18:16:

En ATi heeft geen powertune.... Furmark is bullshit om verbruik te gaan vergelijken. Je moet het vergelijken in games die je daadwerkelijk speelt.

Bij elk willekeurig autoblad gaan ze toch ook niet de nieuwste auto's testen op hun maximumsnelheid (200-300km/u) 8)7
Daar testen ze ook gewoon stadsverbruik & snelwegverbruik. Dus de situaties die je ook echt tegenkomt!
Er zijn ook zat mensen die hun kaart gebruiken voor SETI of dergelijke dingen. Ik vind furmark ook maar een onding zeg alleen dat Nvidia er een oplossing er voor heeft dus het al vaag is om met furmark te testen.

En iedereen speelt verschillende spelen, valt straks geen pijl op te trekken.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zijn er serieus mensen die de HD69xx kaarten goed vinden ? Ze zijn niet slecht en in vergelijking met nVidia zijn ze goed maar vergeleken met wat AMD kan is het niks.

HD68xx kaarten zijn in verhouding veel te goed, zelfs de oude HD58xx kaarten zijn wat dat betreft zelfs nog interresant. Dus met de 5xx serie heeft nVidia een grotere stap gemaakt(t.o.v. de vorige "generatie") dan AMD. Maar de stap van nVidia is te klein om het AMD moeilijk te maken.

De GTX580 is niet eens interresant als je naar de HD5970 kijkt.
Lager stroomverbruik, sneller en ook nog eens GOEDKOPER !!!

HD6970 kaarten zijn wel heel leuk voor CF en voor Eyefinity maar als single is het niet veel soeps.
Idem voor de HD6950 2GB kaarten behalve de HD6950 1GB kaarten die zijn wel weer leuk als single setup.

Ik ben het denk ik voor het eerst eens met MW1F :) Behalve het gedeelten waar hij nVidia prefereert ;)

[ Voor 6% gewijzigd door madmaxnl op 16-12-2010 00:05 ]


Anoniem: 115433

Sterker nog de 69XX serie is geweldig. Goedkoop en presteert redelijk tot goed.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op donderdag 16 december 2010 @ 00:02:
Zijn er serieus mensen die de HD69xx kaarten goed vinden ? Ze zijn niet slecht en in vergelijking met nVidia zijn ze goed maar vergeleken met wat AMD kan is het niks.
Qua prijs/prestatie/verbruik zijn ze nog steeds niet slecht. Als je niet kijkt met de verwachtingen van 1920SP's etc. zijn ze best aardig, al kan ik ze moeilijk topkaarten noemen. Maar ze zitten wat mij betreft te dicht in het segment waar AMD al harstikke goed zat, namelijk het segment HD6850-HD5870. Dat zie je ook aan de prijzen, elke 50 euro heb je weer een andere GPU. Wat dat betreft vind ik de nieuwe kaarten niet echt handig gepositioneerd en als ze gewoon een stap hoger hadden gezeten (dus ook qua prijs) had het wat mij betreft veel meer aan AMD's line-up toegevoegd. De HD6950 wat nu de HD6970 is en de HD6970 naast de GTX580, dat had gezien de die-size en het stroomverbruik ook prima gekund. Wat mij betreft focussen ze nu weer iets te veel op de sweet-spot strategie, voor die sweet spot hebben ze al topkaarten en zo hadden hun line-up wat meer bereik gehad. Dat gat tussen de HD6870 en HD6950 wordt dan echt nog niet gigantisch en daar mag dan een HD6870 OC-modelletje induiken of zo.

Ja, de HD6990 komt nog, dus dat kan natuurlijk nog de redding zijn wat dat betreft. Maar nu was de kans om ook op single-GPU weer kaarten te hebben die ten minste gelijkwaardig zijn qua pure prestaties als NVidia. Maar misschien zijn de verkopen in het high-end segment wel zo insignificant dat AMD zich er niet echt mee bezig houdt.

[ Voor 11% gewijzigd door bwerg op 16-12-2010 07:48 ]

Heeft geen speciale krachten en is daar erg boos over.


  • bladerash
  • Registratie: Mei 2005
  • Laatst online: 29-04 14:23
De reden dat die kaarten vertraagd zijn is niets minder dan een Epic Fail

  • Dooievriend
  • Registratie: Juni 2008
  • Niet online

Dooievriend

gitlab.com/JoD/exact

madmaxnl schreef op donderdag 16 december 2010 @ 00:02:
Zijn er serieus mensen die de HD69xx kaarten goed vinden ? Ze zijn niet slecht en in vergelijking met nVidia zijn ze goed maar vergeleken met wat AMD kan is het niks.
Puur objectief gezien zijn het uitstekende kaarten, met een technologisch betere architectuur dan nVidia (hogere prestatie/diesize, beter verbruik/prestatie), en een betere prijsstelling hoogstwaarschijnlijk (AMD kan de prijs verder later zakken dan nVidia, wat ze hopelijk ook zullen doen, niet vergeten dat dit launchprijzen zijn!). Dat veel mensen teleurgesteld zijn dat de gpu's niet zowel kleiner zijn in die size, én beter presteren qua performance, is begrijpelijk, maar volkomen subjectief. AMD's small die strategie is nu eenmaal om small die's te maken, en niet voor de prestatiekroon te gaan. Puur objectief zijn deze kaarten echt wel superieur aan die van nVidia, en waardige opvolgers van de HD5xxx serie. Dus ja, ik vind de HD69xx beter dan de nVidia GTX 5xx serie, die door veel mensen wél goed gevonden wordt. Ergo de HD69xx serie is uitstekend :p

'Mushrooming' is a marketing term that means feeding them sh*t and keeping them in the dark.


Anoniem: 245699

madmaxnl schreef op donderdag 16 december 2010 @ 00:02:
Ik ben het denk ik voor het eerst eens met MW1F :) Behalve het gedeelten waar hij nVidia prefereert ;)
Waar prefereer ik nVidia? Als ik op dit moment een videokaart zou kopen is het een kleine kans dat het er een van nVidia is... ;)
Vind alleen Cayman toch wat tegenvallen, had er gewoon meer van verwacht door alles er omheen. Ze hadden na de HD5870 15 maanden om eraan te werken, dan vind ik ~15-20% winst voor de HD6970 gewoon wat magertjes.

[ Voor 23% gewijzigd door Anoniem: 245699 op 16-12-2010 01:29 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 245699 schreef op donderdag 16 december 2010 @ 01:23:
[...]

Waar prefereer ik nVidia? Als ik op dit moment een videokaart zou kopen is het een kleine kans dat het er een van nVidia is... ;)
Vind alleen Cayman toch wat tegenvallen, had er gewoon meer van verwacht door alles er omheen. Ze hadden na de HD5870 15 maanden om eraan te werken, dan vind ik ~15-20% winst voor de HD6970 gewoon wat magertjes.
Ik houd jou nauw in de gaten :>

"De keuze nu is vrij simpel (zonder merk voorkeur), heb je een budget ~330-360,- en je gamed op 1920x1080, dan is de GTX570 nipt de betere keuze. Speel je op 2560x1600, dan is de HD6970 de betere keuze."

Ik denk dat als je op 1920x1080 gamed je toch echt beter voor een HD6950 1GB kunt gaan.
De 1GB versie is nog zuiniger dan de 2GB versie maar niet langzamer op een dergelijken resolutie.
Tevens kan de kaart makkelijk worden overgeclockt en is de kaart goedkoop.
Z'n 240 euro is heel normaal ook zullen drivers(alhoewel ik dat zelf niet denk) de kaart nog wel wat aantrekkelijker maken. Mocht je nu met het argument komen dat de 1GB versie van de HD6950 niet bestaat dan gaan we uit van de 2GB versie die 20 euro duurder is.

M.a.w. de GTX570 is een overbodige kaart zoals HardOCP ons wil doen geloven.

Ik denk dat we de 2GB versies als singel kaart sowieso niet moeten vergelijken met de GTX5xx kaarten.
Maar enkel moeten vergelijken als we iets met CF of Eyefinity doen want dan komt die 2GB pas tot zijn recht. M.a.w. de 1GB versies zullen aanzienlijk minder stroomverbruik dan de 2GB versies en het zal niks in performance uitmaken zolang je maar op of onder de 1920x1200 blijft.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 29-04 14:27
Xbit-labs review is ook online.

Vooral deze vond ik interessant:

http://www.xbitlabs.com/picture/?src=/images/video/radeon-hd6970-hd6950/charts/25_697vs687_big.png

http://www.xbitlabs.com/picture/?src=/images/video/radeon-hd6970-hd6950/charts/26_697vs687aa_big.png

Als je het mij vraagt is 1GB niet genoeg :P
Looks like Radeon HD 6970 outperforms Radeon HD 6870 on average by 26-31% without antialiasing, and by 27-45% with antialiasing. The very last diagram shows the benefits of having 2 GB of video memory onboard: in some games the performance difference between the two cards is truly impressive.

[ Voor 65% gewijzigd door Astennu op 16-12-2010 07:52 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Lord Maximus
  • Registratie: Oktober 1999
  • Laatst online: 16-04 16:06
madmaxnl schreef op donderdag 16 december 2010 @ 02:03:
[...]


Ik houd jou nauw in de gaten :>

Ik denk dat als je op 1920x1080 gamed je toch echt beter voor een HD6950 1GB kunt gaan.
De 1GB versie is nog zuiniger dan de 2GB versie maar niet langzamer op een dergelijken resolutie.
Tevens kan de kaart makkelijk worden overgeclockt en is de kaart goedkoop.
Z'n 240 euro is heel normaal ook zullen drivers(alhoewel ik dat zelf niet denk) de kaart nog wel wat aantrekkelijker maken. Mocht je nu met het argument komen dat de 1GB versie van de HD6950 niet bestaat dan gaan we uit van de 2GB versie die 20 euro duurder is.
Als je denkt dat 2GB VRAM niet veel nut heeft dan zou je eens door dit (duitstalige) topic heen moeten
lopen: http://www.computerbase.de/forum/showthread.php?t=636865 Daar zijn zeer veel games op verschillende resoluties getest. Als je het topic helemaal doorgaat kom je zat mooie voorbeelden tegen.

Met default settings en AA uit blijven de meeste oudere games onder de 1GB. Maar zodra je high settings icm 4xAA & 16 x AF gaat gebruiken gaan een flink aantal games al over de 1GB. Soms zelf al bij resoluties als 1680 x 1050.

een groot deel van de nieuwe DX11 games komen op 1920 x 1080 met 4xAA boven de 1GB uit.


Met slechts EUR 20,- verschil zou ik, zeker als je een kaart wilt die 2 - 3 jaar mee moet, niemand adviseren om nog een 1GB model te kiezen.

  • totalatool
  • Registratie: Februari 2010
  • Laatst online: 26-04 23:04
Laat ik nou juist gamen op 2560x1440 op m'n 16:9 Dell U2711. Ik ben dus vooral wel geïnteresseerd in de hoogste resoluties en de voordelen van meer RAM. Toch nog eens gaan zoeken naar vergelijkingen met m'n 5870 op die resoluties. :)

LEGO te koop


Anoniem: 58485

bladerash schreef op donderdag 16 december 2010 @ 00:24:
De reden dat die kaarten vertraagd zijn is niets minder dan een Epic Fail
Was het niet om wat componenten?

Overigens de powersave is puur om je VRM's te beschermen. En zoals AMD zelf al toevoegd kan je daar een maximum verbruik mee instellen (-20 tot 20+ % ). Wel handig om zo je PC lekker zuinig te tunen.

Ik vind de 6970 & 6950 eigenlijk helemaal niet zoveel tegenvallen. Hij is goedkoper, zuiniger en presteert tov de vorige generatie een stuk beter. Wat maakt het nou uit dat ie 10% onder de 580 ligt? Zolang je games het maar doen :Y)

De 580 wat oorspronkelijk een 490 had moeten zijn is een verbetering van de 480, maar voegt bijna niets toe.

  • totalatool
  • Registratie: Februari 2010
  • Laatst online: 26-04 23:04
Anoniem: 58485 schreef op donderdag 16 december 2010 @ 11:08:
Wat maakt het nou uit dat ie 10% onder de 580 ligt? Zolang je games het maar doen :Y)
En om nou anderhalf keer zoveel te betalen voor dat beetje meer snelheid?

LEGO te koop


  • Singular1ty
  • Registratie: September 2009
  • Laatst online: 14-04 21:03

Singular1ty

EV Evangelist

De reden dat die kaarten vertraagd zijn is niets minder dan een Epic Fail
O_o dat meeeeeeen je niet?! Jongens kijk nou, dit is toch drama?!

  • Sotmip
  • Registratie: Juni 2009
  • Laatst online: 20-03 23:58
Ik las ergens in dit draadje over de mogelijkheid van uitgeschakelde simds en ben ff gaan kijken naar hoe dat zich verhoudt tot die size.

Dit zal niet precies kloppen maar gaat om het idee,,

5870 334 mm^2 320 SIMD
6970 389 mm^2 384 SIMD

In een slide kwam naar voren dat de VLIW4 shaders 10% efficienter zijn t.o.v VLIW5 shaders.

384 * 0.9 = 345.6 (384 VLIW4 shaders zijn "even" groot als 345.6 VLIW5 shaders)
345.6 / 320 * 100% = 108% (het shader gedeelte is met 8% gegroeid op de die)

1920 / 4 * 0.9 = 432 (bij 1920 shaders zou dat evenveel ruimte innemen als 432 VLIW5 SIMD)
432 / 320 * 100% = 135% (het shader gedeelte op de die zou dan met 35% zijn gegroeid)

389 / 334 * 100% = 116.5% (total die size is met 16.5% gegroeid)

Conclusie(?):

Kans op 1920 shaders is 0.1%
AMD zet met haar 69xx serie (cayman) hoog in op gpgpu en heeft ong evenveel die-size (~8%) ervoor opgeofferd als voor extra SIMD units. (ervan uitgaande dat andere optimalisaties geen extra ruimte in hebben genomen)

BTW: vandaag of morgen krijg ik mijn 6950 :)

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 28-04 16:18
Zolang ze voor de rest maar niet uit elkaar vallen van ellende zoals m'n 8800 GTS ;)

  • Singular1ty
  • Registratie: September 2009
  • Laatst online: 14-04 21:03

Singular1ty

EV Evangelist

Ik vind het grappig dat niemand commentaar levert op het feit dat de 69xx serie gewoon met een monsterlijke productiefout op de markt is gebracht...

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Singular1ty schreef op donderdag 16 december 2010 @ 11:28:
[...]


O_o dat meeeeeeen je niet?! Jongens kijk nou, dit is toch drama?!
Als dit serieus is (ik heb niet heel dat topic doorgelezen), is het wel echt een EPIC fail :o

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 13-03 13:40
Singular1ty schreef op donderdag 16 december 2010 @ 13:12:
Ik vind het grappig dat niemand commentaar levert op het feit dat de 69xx serie gewoon met een monsterlijke productiefout op de markt is gebracht...
Hoezo? wat presteert er slechter?

Natuurlijk is het een PCB design fout, maar ze hebben de eerste batch met de hand gefixed, en de tweede zal een nieuwe revisie PCB ontwerp hebben.

Het is niet zo dat er slechte tin is gebruikt of dat het silicum de temperatuur verschillen niet aan kan ;)

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

Toettoetdaan schreef op donderdag 16 december 2010 @ 13:32:
Het is niet zo dat er slechte tin is gebruikt of dat het silicum de temperatuur verschillen niet aan kan ;)
OH SNAP ;)

De allergrootste jammerlijkheid bij de launch van de HD6900 is dat iedereen blijkbaar beter verwachtte. Hoe komen we op dat idee? Is het de HD6800 die ondanks zijn armzalige specificaties toch zeer goed kon meekomen met de HD5800 reeks en aldus hoge verwachtingen schiep voor de HD6900 reeks? Of is het omdat AMD informatie lekte waarin zou kunnen blijken dat de HD6900 kweet-ni-hoe geweldig zou zijn? Ligt het nu aan ons of aan AMD?

Want zoals eerder al aangehaald is het niet de bom die de HD4870 of de HD5870 was, maar dat lijkt mij ook vrij logisch omdat deze keer het aantal shaders _niet_ is verdubbeld (of zelfs meer) ten opzichte van de vorige generatie, zoals dat wél het geval was bij de vorige single-chip vlaggenschepen. Ook werd aangehaald dat het aantal shaders verder verhogen weinig zin had, empirisch waargenomen door gebruikers tijdens het vergelijken van de HD5850 en de HD5870 die opmerkten relatief weinig verschil te zien tussen gelijkgeklokte exemplaren van beide varianten. Dat zou er op kunnen duiden dat, jammergenoeg, de HD5870 al zo goed als tegen de perfectie aanschurkte, en dat de huidige architectuur op het 40nm proces dus zo goed als uitgepuurd is. Tijd om nieuwe horizonten op te zoeken dus. Als TSMC nu eens mee wilt doen, dan zou alles al beter lukken.

Einde van de recap.

Conclusie: ja de HD6900 is een "teleurstelling", maar bij wie ligt die fout nu eigenlijk? Bij ons of bij AMD?

Het is inderdaad zotjes dat een nieuwe generatie die in feite meer verschilt van de HD5870 dan de HD5870 van de HD4870 veel minder verbetering in prestaties met zich meebracht. Dus in dat opzicht kan je niet direct stellen dat het zoals de X1900 serie had moeten zijn, met de X1800 als de HD5800, waarbij de huidige HD6900 verkeerd benoemd is als een nieuwe generatie. Technisch gezien is de nieuwe reeks echt een nieuwe generatie, alleen kan je het amper merken aan de prestaties, toch als je bedenkt wat we ondertussen gewoon zijn van AMD. Nu is maar de vraag wat de HD6900 zou geworden zijn moest TSMC zijn nieuwer productieproces op schema hebben. Wél de killer waarop we allen hoopten? Of toch nog niet helemaal?

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 29-04 08:53

TGEN

Hmmmx_

DevilsProphet schreef op donderdag 16 december 2010 @ 13:52:De allergrootste jammerlijkheid bij de launch van de HD6900 is dat iedereen blijkbaar beter verwachtte. Hoe komen we op dat idee? Is het de HD6800 die ondanks zijn armzalige specificaties toch zeer goed kon meekomen met de HD5800 reeks en aldus hoge verwachtingen schiep voor de HD6900 reeks? Of is het omdat AMD informatie lekte waarin zou kunnen blijken dat de HD6900 kweet-ni-hoe geweldig zou zijn? Ligt het nu aan ons of aan AMD?
Tja, als je kijkt naar de verhouding tussen de HD5770 en HD5870, dan is het niet vreemd om iets vergelijkbaars te verwachten van de verhouding tussen de HD6870 en de HD6970. En dan is het inderdaad een teleurstelling.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 27-04 18:04

RuddyMysterious

a smorgasbord of waywardness

Ja maar, de mid-end HD6800 was infeite al veel beter dan de HD5700, dus zou de HD6900 onnoemelijk veel beter geweest moeten zijn om die kloof even groot te krijgen. Moet het nog altijd in perspectief blijven zien, zeker als je vergelijkt op prijzen. De prijzen van alle HD6000 kaarten zijn hoger dan de HD5000 kaarten van gelijke naamgeving (als je even de wijzigingen in naamgeving vergeet natuurlijk), wat wilt zeggen dat AMD zijn kaarten weer wat hoger op de markt aan het plaatsen is. Probleem is dat er blijkbaar een soort barrière is op het huidige productieproces, dus of je wilt of niet, het zal niet veel hoger kunnen dat wat de HD6900 nu aanbiedt, zonder te moeten afwijken van hun small-die strategie. En niet te vergeten, die strategie is ook de reden waarom we nu zoveel bang voor onze euros krijgen en waarom nVidia niet de hoeveelheid winst maakt die ze voor ogen hadden vanaf hun GTX200 reeks.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 21:27
Singular1ty schreef op donderdag 16 december 2010 @ 13:12:
Ik vind het grappig dat niemand commentaar levert op het feit dat de 69xx serie gewoon met een monsterlijke productiefout op de markt is gebracht...
Mja, is idd wel een beetje fail, maar het heeft niks met de chip te maken maar met het PCB of de koeler.
Makkelijk op te lossen met een andere revisie. Iig een stuk beter dan een kaart met houtschroeven of tin verbindingen welke na 2 jaar afkoelen en verwarmen breken. ;)

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
DevilsProphet schreef op donderdag 16 december 2010 @ 14:03:
Probleem is dat er blijkbaar een soort barrière is op het huidige productieproces,
Dat is vrij logisch toch? Performanceverbeteringen zijn normaal vooral een gevolg van een kleiner productieproces waardoor je dus meer transistorbudget hebt.
zonder te moeten afwijken van hun small-die strategie. En niet te vergeten, die strategie is ook de reden waarom we nu zoveel bang voor onze euros krijgen en waarom nVidia niet de hoeveelheid winst maakt die ze voor ogen hadden vanaf hun GTX200 reeks.
Cayman is niet meer small en het aantal transistors gaat aardig in de richting van nV's highend.

[ Voor 32% gewijzigd door Olaf van der Spek op 16-12-2010 15:16 ]


  • V3g3ta
  • Registratie: September 2004
  • Laatst online: 10-04 15:10

V3g3ta

Fueled by Games!

Hij is gearriveerd.

Afbeeldingslocatie: http://i51.tinypic.com/2igddzb.jpg
Afbeeldingslocatie: http://i53.tinypic.com/15rmyyx.jpg
Afbeeldingslocatie: http://i53.tinypic.com/34gapma.jpg
Afbeeldingslocatie: http://i53.tinypic.com/2dioays.jpg
Afbeeldingslocatie: http://i51.tinypic.com/28lc1a9.jpg

PS5 DE, PS4 Pro, PS3 SS, PS VIta Slim PSN: BSGathena


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
totalatool schreef op donderdag 16 december 2010 @ 11:02:
Laat ik nou juist gamen op 2560x1440 op m'n 16:9 Dell U2711. Ik ben dus vooral wel geïnteresseerd in de hoogste resoluties en de voordelen van meer RAM. Toch nog eens gaan zoeken naar vergelijkingen met m'n 5870 op die resoluties. :)
Een HD6970 is in dat geval meer dan 50% sneller dan de HD5870.
Tel daarbij de die size, kosten, stroomverbruik bij op dan valt het me toch tegen hoor. Stel nou dat die HD6970 ook nog eens maar 1GB geheugen zou hebben dan is het feest al helemaal voorbij. Maar welke *piep* gamed er nu met een HD6870 of HD5870 1GB op 2560x1600 ?
Lord Maximus schreef op donderdag 16 december 2010 @ 07:51:
[...]


Als je denkt dat 2GB VRAM niet veel nut heeft dan zou je eens door dit (duitstalige) topic heen moeten
lopen: http://www.computerbase.de/forum/showthread.php?t=636865 Daar zijn zeer veel games op verschillende resoluties getest. Als je het topic helemaal doorgaat kom je zat mooie voorbeelden tegen.

Met default settings en AA uit blijven de meeste oudere games onder de 1GB. Maar zodra je high settings icm 4xAA & 16 x AF gaat gebruiken gaan een flink aantal games al over de 1GB. Soms zelf al bij resoluties als 1680 x 1050.

een groot deel van de nieuwe DX11 games komen op 1920 x 1080 met 4xAA boven de 1GB uit.


Met slechts EUR 20,- verschil zou ik, zeker als je een kaart wilt die 2 - 3 jaar mee moet, niemand adviseren om nog een 1GB model te kiezen.
Ik zie geen game waar er over de 1GB wordt gegaan met 1920x1200 of 1680x1050. Daarbij verschilt het per GPU natuurlijk hoeveel geheugen er wordt gebruikt. Dus de stelling dat 1GB nu al te weinig zou zijn gaat imo alleen op in het geval van Eyefinity en CF...

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
madmaxnl schreef op donderdag 16 december 2010 @ 16:02:
Dus de stelling dat 1GB nu al te weinig zou zijn gaat imo alleen op in het geval van Eyefinity en CF...
Waarom CF? Eyefinity veranderd de resolutie, maar CF?

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:52
Met CF zou je meer AA kunnen doen, omdat je meer GPU power hebt, dan doe je dus meestal meer AA/AF en dan zou je over de 1GB kunnen gaan.

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 07-02 00:24
Singular1ty schreef op donderdag 16 december 2010 @ 13:12:
Ik vind het grappig dat niemand commentaar levert op het feit dat de 69xx serie gewoon met een monsterlijke productiefout op de markt is gebracht...
Onzin het ligt eerder aan de drivers want het team heeft veel moeite met de nieuwe architectuur.
Dat uitstel kwam echt niet door een tekort :')

Bij de GF100 van Nvidia ging na een tijdje de prestaties ook tientallen procenten omhoog door drivers.

[ Voor 3% gewijzigd door deregtx op 16-12-2010 17:10 ]


  • meljor
  • Registratie: November 2004
  • Laatst online: 23:03
zeker de plaatjes niet gezien?

  • Fid3lity
  • Registratie: November 2009
  • Laatst online: 13-04 20:10

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
deregtx schreef op donderdag 16 december 2010 @ 17:09:
[...]
Bij de GF100 van Nvidia ging na een tijdje de prestaties ook tientallen procenten omhoog door drivers.
Andersom de HD5870 is nogal wat ingelopen op de GTX480. Zoals al heel vaak is gezegd nVidia hun architectuur is veel minder afhankelijk van de drivers.

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/imagenormal/1292270590.png

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Olaf van der Spek schreef op donderdag 16 december 2010 @ 16:23:
[...]

Waarom CF? Eyefinity veranderd de resolutie, maar CF?
Omdat je in het geval van twee HD6970 in CF je twee GPUs hebt die effectief maar 2GB geheugen hebben.
Alles wordt namelijk dubbel ingeladen dus als GPU1 plaatje 1 in zijn geheugen zet krijgt GPU2 plaatje 1 ook in zijn geheugen. De plaatjes worden nu wel twee keer zo snel verwerkt door de GPU maar het geheugen zelf krijgt alles dubbel te verwerken dus dat schaalt niet mee.

Snap snap ?
Pagina: 1 2 ... 21 Laatste

Dit topic is gesloten.