Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
 

Welkom in het ATi Nieuwsdiscussie-topic, het topic met de laatste nieuwtjes op het gebied van 3D-videokaarten van de ATI Graphics Division van AMD. Lees, om het hier gezellig te houden, wel even onderstaande regels door voordat je in het topic post. :)

Technische vragen of problemen? Bezoek de AMD Game forums!
http://img296.imageshack.us/img296/9023/atitopicchangelogtk5.jpg
  • 10 September 2009: Getting ready for dominATion day

http://img206.imageshack.us/img206/9213/atitopictopicregelsjt2.jpg

Ja, ook dit topic heeft regels! In dit topic dienen alleen nieuwsfeiten en geruchten gepost en besproken te worden over ATI Radeons. Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic, vul het Catalyst Crew Feedback Form in of vraag het op het AMD Game forum! Post je probleem dus niet hier! Dit is namelijk niet het "Grote Radeon Problemen Topic"!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders. Ook goed verborgen trolls/flames zijn niet welkom!
  • Basic questions zoals "Welke kaart kan ik het beste kopen?", "Wat voor voeding heb ik nodig?", "Kan ik mijn *vul naam kaart in* modden naar een *vul naam andere kaart in*?", "Klopt mijn 3DMark score wel?", "Werkt CrossFire op een SLi mobo?", "Welke drivers kan ik het beste gebruiken?" etc. Je kent het wel... Gebruik de search-functie. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.


http://img362.imageshack.us/img362/2594/atitopicinhoudrz3.jpg
http://img528.imageshack.us/img528/6/atitopicgeschiedeniskl0.jpg

Oude informatie
Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en/of lees hun bijbehorende FAQs.
  • R420/R480: Deel 1 t/m Deel 20
  • R520/R580: Deel 20 t/m Deel 50
  • R600/RV630/RV610: Deel 51 tm Deel 70
  • RV670/R680: Deel 71-85
  • RV770/R700: Deel 86-104
  • Evergreen: Deel 105+



http://img36.imageshack.us/img36/2281/atitopicheaderhd5800ser.jpg

Op 23 September om 6:01 AM, Central European Summer Time verloopt de NDA op de HD5800 Serie. Vanaf dat moment mogen de reviews online komen van de nieuwste AMD videokaarten uit de Evergreen DX11 generatie. Deze serie is gebaseerd op de Cypress GPU die ook wel bekend staat als de RV870. De Cypress GPU zal aanvankelijk in 3 varianten gebruikt worden: de Radeon HD5870, Radeon HD5850 en de Radeon HD5870 Six. In November zullen deze kaarten een groter broertje krijgen in de vorm van de Hemlock GPU. Of deze HD5870X2 gaat heten of HD5970 is nog niet bekend. Op eerdere roadmaps stond namelijk ook een Radeon in de HD5900 serie vermeldt.



De DX11 generatie van AMD brengt een aantal nieuwigheden met zich mee waarop dit artikel verderop in zal gaan. Een kleine vergelijking met de HD4870 is op zich wel handig. Kijk en huiver naar de wijzigingen ten opzichte van de HD4870 die vorig jaar Juni gelanceerd werd:



Zoals je ziet in schema, lijkt Cypress erg veel op een dubbele RV770/RV790 met extra tweaks en DX11 functionaliteit. Om te beginnen zijn een aantal zaken verdubbeld in Cypress t.o.v. de RV770. Het aantal streamprocessors is van 800 naar 1600 gegaan. Het aantal texture units is van 40 naar 80 gegaan. Het aantal ROPs is verdubbeld van 16 naar 32.

Hieronder zie je Cypress in een blokkendiagram zoals je dat ook kent van de RV770:


Cypress Architecture


AMD noemt de shaderunits nu "Thread Processors". Elke thread processor bestaat uit 5 "Streamcores" (4 streamcores + 1 special function streamcore). Op een kloksnelheid van 850Mhz zorgen de 1600 streamcores van de HD5870 voor een theoretische computekracht van zo'n 2.72 Tflop Single Precision en 544 Gflop Double Precision. Dat is meer dan 2x zo veel als de HD4870 die 1.2 Tflop single precision en 240 Gflop double precision had. Daarnaast zijn de thread processors geschikt gemaakt (en geoptimaliseerd) voor DX11 en OpenCL. De HD5850 moet het doen met minder streamcores en texture units. Op de HD5850 zijn twee SIMD cores uitgeschakeld, waardoor deze kaart het moet doen met 1440 streamcores en 72 texture units. Ook is de kloksnelheid omlaag gegooid naar 725Mhz core en 1Ghz GDDR5 geheugen. De HD5850 behoudt echter wel de 256-bit memory interface net zoals z'n grotere broertje.

De GDDR5 Memory Interface is ook onder handen genomen. Hadden de vorige kaarten die gebruik maakten van GDDR5 nogal wat problemen met het terugklokken (er traden glitches op wanneer voltage en clockspeed van het GDDR5 geheugen aangepast werden), op Cypress is het geen enkel probleem meer. Hierdoor kan het ook in 2D mode flink omlaag geklokt worden zodat veel stroom bespaard wordt. Dit in samenwerking met een nieuwe versie van Powerplay zorgt er voor dat de HD5870 zo'n 27W verbruikt in idle toestand.


XFX HD5870


De HD5870 wordt gepositioneerd in het <$400 segment. Dit kan betekenen dat de kaart $399 gaat kosten, maar ook $329. Ga echter maar meer uit van het eerste dan van het laatste. De kaart die gepositioneerd wordt als <$400 kaart zal 1GB aan GDDR5 geklokt op 1.2Ghz aan boord hebben. Voor de 2GB versie zal waarschijnlijk een meerprijs van $50 betaald moeten worden. De HD5850 zal gepositioneerd worden als $299 kaart en zal vanaf het begin als 1GB variant te krijgen zijn. Wat zijn de Europese adviesprijzen? De HD5870 1GB krijgt een adviesprijs mee van €349-359, terwijl de HD5850 1GB een adviesprijs krijgt van €239.

Van de HD5870 komt naast de 1GB en 2GB varianten ook nog een derde variant uit, namelijk de kaart waarvan de naam "Trillian" al gelekt was. Dit is een HD5870 met zes Mini Displayport aansluitingen (waar o.a. Apple enorm gek op is). Deze kaart zal op de markt verschijnen als "ATI Radeon HD5870 Six". De HD5870 is er dankzij Eyefinity toe in staat om 6 monitoren aan te sturen met elk een resolutie van 2560x1600. Door de Eyefinity techniek kan de Radeon HD5870 dit omvormen tot 1 resolutie van 7680x4800. Zie het Eyefinity gedeelte voor meer informatie daarover. De HD5870 Six zal zoals het er nu naar uit ziet standaard voorzien zijn van 2GB.

Wat voor stroomaansluiting heb je nodig? Je hebt 2x een 6 pins nodig voor zowel de HD5870 als de HD5850. Voor de HD5870X2 heb je een 8 pins + 6 pins nodig. Hoe groot is de HD5870? Ongeveer even groot als de HD4870X2 maar een stuk lichter. Verbruikt de HD5870 echt zo weinig in idle toestand? Ja! Heb ik wel voldoende aan een halve exhaust? Ja, de hitte wordt netjes naar de halve uitlaat geleidt. Het staat je natuurlijk altijd vrij om third party coolers te installeren als je niet tevreden bent.

Hoe is de coolingsolution die gebruikt wordt? Het is stiller dan een HD4870X2 en HD4890 cooling en doet ook vrij goed z'n best. De mensen die zich zorgen maken over de halfe uitlaat... niet doen. De cooler doet goed z'n best om de boel koel te houden met minder geluid dan de vorige generatie coolers. De GPU is in idle toestand zo'n 40-45 graden, terwijl de cooler dan op 20% fanspeed draait. Wanneer de kaart onder load komt te staan, gaat de fanspeed naar 30% en loopt de temperatuur op naar zo'n 70-75 graden. Natuurlijk kan je zelf de fanspeed handmatig aanpassen via de drivers, maar hoger dan 50% heeft in principe weinig zin, terwijl de GPU dan niet erg veel koeler wordt. Zet je 'm hoger dan 50% dan kan je echter wel het geluid van een turbine verwachten.

MCM of niet? Nee. Geen MCM. Dat had je al lang kunnen zien aan de gelekte shots van de cooling-solution. Gewoon een native single chip oplossing dus!

AMD zegt over de performance het volgende:
- HD5870 > GTX295
- HD5850 > GTX285
Wat betreft Tflop computing power zie je een sprong van zo'n 250% in vergelijking met de HD4870.

Voor veel mensen zal echter de midrange interessanter zijn. De HD5770 en HD5750 zullen dit gebied beslaan. Deze zal performance bieden die te vergelijken is met de huidige HD4800 Serie, maar dan met ATI Eyefinity support en DX11. Deze kaarten zijn gebaseerd op Juniper en Juniper XT scoort volgens mijn bronnen zo'n P9500. De eerste geruchten wijzen er op dat de HD5770 zal beschikken over 800 streamprocessors net zoals de HD4850, HD4870 en HD4890. De HD5750 zou beschikken over 80 streamprocessors minder om uit te komen op 720 streamprocessors. Daaronder zit de Redwood range die om en nabij de P4600 scoort. Redwood brengt daarmee ongeveer de performance van 1.5x de RV730 die in de HD4650 en HD4670 gebruikt wordt. De verwachting is dat deze generatie zo'n 320-480 streamprocessors aan boord heeft. Hieronder hangt voor het laagste segment nog Cedar, die op zijn beurt weer 1.5x zo snel moet zijn als RV710 die in de HD4350 en HD4370 zit. Cedar maakt nog altijd gebruik van een 64-bit memory interface en zal onder de HD5400 serie uit komen.


Performance indicaties
Hier wat 'gelekte' informatie. Totdat de NDA vervalt is dit de enige aanwijzing die we hebben over de performance van de Cypress. Het is aan jezelf om te beslissen of je het wilt geloven of niet. ;)

Hemlock -> P21000~
Cypress XT -> P17000~
Cypress Pro -> P14000~
Juniper XT -> P9500~
Redwood -> P4600~
Cedar -> ??

http://img12.imageshack.us/img12/7236/atitopicheaderiq.jpg

AMD zou AMD niet zijn als ze bij de introductie van een nieuwe videokaart ook niet iets verbeterd hadden aan de beeldkwaliteit, oftewel Image Quality (IQ). Op het gebied van zowel anti-aliasing als texture filtering zijn er wat zaken veranderd.

Hoekonafhankelijke Anisotropic Filtering
De DX11 generatie van AMD brengt een sterk verbeterde anisotropic filtering tov de vorige generatie. Voorheen was alleen S3 de enige IHV die true angle independent AF wist te brengen in de Chrome serie, AMD probeert hetzelfde te bereiken met de DX11 generatie. De Evergreen generatie beschikt over een nieuw anisotropic filtering algoritme die de hoekafhankelijkheid volledig elimineert. Vanaf de R200 gebruikte ATI altijd een slimme AF methode die hoekafhankelijk werkte. De laatste jaren wist NV echter langs zij te komen wat betreft AF qualiteit en afgelopen zomer kwam S3 ineens met volledig hoekonafhankelijke S3 op hun budget-serie zonder noemenswaardige performancehit. AMD evenaart S3 nu door met een soortgelijk algoritme te komen, die wel dezelfde hoge performance heeft als de vorige default instelling (HQ AF). De beeldkwaliteit gaat dus omhoog ten opzichte van de vorige generatie zonder noemenswaardige performancehit.


Texture Filtering


The Return Of Supersampling
Verder brengt de Evergreen generatie ook de comeback van supersampling AA. De laatste keer dat we supersampling als optie hadden in de drivers, was in de Radeon 8500 die op de R200 gebaseerd was. Van oorsprong was het de bedoeling dat de Radeon 8500 gebruik zou maken van multisampling AA, maar aangezien de hardware het niet goed deed, schakelde men over naar supersampling AA. Dit koste veel meer aan performance, maar de IQ was wel hoger doordat naast de polygonen ook textures als shaders AA op zich toegepast kregen. De HD5800 brengt supersampling terug als optie in het Catalyst Control Center. De implementatie is gebaseerd op de supersampling algoritmes die al toegepast werden bij Adaptive Antialiasing. Theoretisch gezien zou dit waarschijnlijk kunnen betekenen dat ook oudere kaarten een update met supersampling kunnen krijgen via drivers. Of dit echt zo is en of dit ook gaat gebeuren heb ik nog niet bevestigd gezien. Supersampling AA werkt feilloos in alle AA modi, dus ook met CFAA modes.

Overigens werkt Supersampling AA via het CCC voorlopig alleen in DX9 games en OpenGL games. Voor DX10 en DX11 zal dit geimplementeerd moeten worden door de developer.

Doordat het aantal RBE's zijn verdubbeld in de HD5800 tov de HD4800, is het aantal pixels/clock ook omhoog gegaan. Hierdoor gebeurt alles dus twee keer zo snel en efficient als bij de vorige generatie. Dit is ook gelijk de reden waarom de performancehit met anti-aliasing kleiner is geworden en waardoor men bv met 4x AA bijna kan spreken van "Free 4x AA".



Wanneer verloopt de NDA embargo en mogen de reviews online komen? 23 September 6:01 AM, CEST. Op tijd naar bed dus op dinsdag en vroeg op. :+

http://img34.imageshack.us/img34/4639/atitopicheaderdx11games.jpg


Een DX11 kaart is leuk, maar het is leuker als je ook DX11 games hebt. De volgende games/engines zullen in ieder geval DX11 ondersteunen:

- Dirt 2 van Codemasters (December 2009)
- Battleforge van Electronic Arts (via een patchupdate, najaar 2009)
- Alien vs Predator van Rebellion (begin 2010)
- STALKER: Call of Pirpyat (herfst 2009)
- Frostbyte Engine 2 van DICE/EA (gebruikt in Battlefield: Bad Company 2)
- CryEngine 3 van Crytek
- Gamebryo Engine van Emergent (gebruikt in o.a. Fallout 3, Oblivion, Warhammer Online)
- Vision Engine van Trinigy
- Genghis Khan van Kylin
- Lord of the Rings Online van Turbine (begin 2010 via patch)
- Dungeons 'n Dragons Online: Eberron Unlimited van Turbine (begin 2010)

http://img268.imageshack.us/img268/9061/atitopicheadermobility.jpg
AMD zal ook met een volledige Mobility Radeon DX11 lineup komen. De mobile Evergreen GPUs vallen onder de Manhattan noemer en bestaat uit 3 GPUs die op hun beurt weer verdeeld zijn in 9 SKUs. Elke GPU heeft de naam van een locatie op het eiland Manhattan.
  • Broadway XT DDR5 -> HD5870, 256-bit, GDDR5, 45W-60W
  • Broadway Pro -> HD5850, 256-bit, GDDR5, 30W-40W
  • Broadway LP -> HD5830, 128-bit, (G)DDR3, 29W
  • Madison Pro DDR5 -> HD5750*, GDDR5, 20-30W
  • Madison XT DDR3 -> HD5730*, (G)DDR3, 20-25W
  • Madison LP/Pro -> HD5650, 128-bit, (G)DDR3, 15-20W
  • Park XT -> HD5470, 12-15W
  • Park Pro -> HD5450, 10-12W
  • Park LP -> HD5430, <8W
*naamgeving kan omgewisseld zijn

De performance per watt is een stuk beter dan z'n voorganger van de M9x GPU en gemiddeld gezien ligt de performance op ongeveer 1,35x a 1,45x de vorige generatie uit de M9x series. Net zoals z'n dekstop broertjes is de Manhattan lineup gemaakt op het 40nm proces en ondersteunt het naast DX11 en EyeFinity ook technieken die speciaal bedoeld zijn voor mobile GPUs zoals PowerXpress, SG Switching, XGP support. Alle GPUs zijn pin-to-pin compatible met de vorige generatie dus niets staat een snelle uitrol in de weg.

De productie van Broadway is in Augustus van start gegaan en massproduction volgt in Oktober. Ook de productie van Madison is in Augustus begonnen, maar deze zal z'n MP in November bereiken. Zowel de productie als massaproductie van Park zal in November van start gaan. Op oudere roadmaps stond de launch gepland voor Q2 2010, maar recente roadmaps met de voorgaande informatie duiden op een lancering eind 2009 dan wel begin 2010. Dit zou goed uitkomen aangezien Intel dan het Arrandale platform lanceert.



http://img193.imageshack.us/img193/371/atitopicheadereyefinity.jpg

ATi EyeFinity is een kreet die de meesten nu wel gehoord zullen hebben. Wat is het? Simpel gezegd is het AMD's manier om je PC ervaring te verrijken of je er nu games op speelt, bezig bent met multimedia of dat je de PC gebruikt voor professionele werkzaamheden. De laatste paar jaren is de performance van GPUs bijna jaarlijks verdubbeld. De applicaties (met name games) groeien echter niet op hetzelfde tempo mee wat betreft veeleisendheid. De meeste games kunnen prima op de huidige DX10.1 generatie gespeeld worden... dus wat doe je dan als je "power to spare" hebt? Je kan dan de eyecandy flink omhoog zetten...of je kan andere manieren zoeken om je game ervaring te verrijken. Welkom ATI Eyefinity!


DX11 Game Dirt 2 met ATi Eyefinity


Met de komst van de nieuwe DX11 GPUs van AMD, introduceert AMD z'n geavanceerde multiple-display technologie genaamd "ATI Eyefinity". De nieuwe GPUs zijn in staat om tot wel zes onafhankelijke display outputs aan te sturen. Hierdoor kan je dagelijkse productiviteit en multitasking ervaring enorm verrijkt worden dankzij een vergroting van je visuele werkplek. Teleconferencing wordt naar een nieuw niveau getild. Games worden intenser doordat je omringd kunt worden in je spelomgeving en omdat landschappen ineens een stuk ruimer en breder worden.



Door het gemak waarmee je ATI Eyefinity kan configureren en met name door de flexibiliteit van de mogelijke opstellingen, zal ATI Eyefinity een opleving brengen in multiple display gebruik. Zoals ze zelf zeggen... het brengt "surround-sight".


ATI Eyefinity: zes monitoren


ATI Eyefinity werkt onder Windows 7, Windows Vista en Linux. Bij de lancering van de HD5800 Serie zal Eyefinity echter nog niet onder CrossFire werken. Dit zal in de toekomst wel mogelijk zijn, maar de software is op dit moment nog niet gereed. ATI Eyefinity wordt vanaf Catalyst 9.10 officieel ondersteunt (driverversie 8.66).



Sommige mensen zullen roepen dat ze dan liever een 30" monitor hebben. Dat kan natuurlijk. Maar onthoudt... een 30" monitor kost je al gauw ruim €1500,- en daarnaast ben je beperkt tot een resolutie van 2560x1600. Voor dat geldt heb je al een HD5870 en drie 24" monitoren waarmee je op een resolutie kan spelen van 5700x1200... of met enige shop-moeite kan je zelfs 6 monitoren scoren om te spelen op een resolutie van 5700x2400 of zelfs meer. ATI Eyefinity op de HD5870 Six maakt het mogelijk om games te spelen tot een maximale resolutie van 7680x3200. Hoe dit werkt? Simpel gezegd, laten je videokaart en de drivers, Windows (en Linux) denken dat er een groot beeldscherm aan de videokaart is gekoppeld. Maar ook tussenliggende oplossingen zijn mogelijk, zoals:




Er zijn dus geen speciale drivers met bv profielen nodig om een game geschikt te maken voor Eyefinity. Wanneer een game de resoluties kan ondersteunen die Eyefinity biedt, dan werkt dit out-of-the-box op je Radeon HD5870. Gaat het ook werken op de huidige HD4800 generatie met Catalyst 9.10? Nee! Eyefinity is voorbehouden aan de HD5000 generatie!

Hoe zit het met de randen die je ziet tussen twee monitoren? Als je eenmaal bezig bent dan vallen de randen je echt minder snel op dan je zou denken. Maar verder is ook daar aan gedacht en wel op verschillende manieren. 1) AMD werkt nauw samen met Samsung om monitoren te brengen met smalle randen om je Eyefinity ervaring nog beter te maken. Houdt deze plek in de gaten voor aankondigingen van de nieuwe Samsung Eyefinity monitoren. 2) AMD heeft een zgn "bezel-management" in de drivers ingebakken (bezel = rand). De HD5870 rendert alle pixels op het scherm, maar bezel-management zorgt er voor dat datgene wat zich achter de randen bevindt, weg gesneden wordt. In tegenstelling tot TripleHead2Go van Matrox wordt het beeld dus niet 'ingekrompen' en is daarmee gelijk ook superieur aan TH2Go. Overigens is het nog afwachten of AMD dit bezel-management ook daadwerkelijk in de drivers gaat implementeren. Het lijkt er nu op dat het alleen in de Linux versie van Eyefinity is ingebakken en nog niet in de Windows versie.



Verder laat Linux ook op andere gebieden z'n tanden zien. Onder Windows moet je namelijk altijd een symmetrische opstelling gebruiken, terwijl onder Linux elk willekeurige opstelling mogelijk is. 4 landscape + 1 portrait onder Windows? No go! Onder Linux? Geen probleem!



http://img178.imageshack.us/img178/2354/atitopichd4800seriesspeos3.jpg

The Goods:
  • Codenaam: Cypress - RV870
  • DirectX: 11

    - Shadermodel 5.0

    - Compute Shaders 5.0
  • Transistoren: ~2100M
  • Memory Interface: 256-bit GDDR5
  • Corespeed: 850Mhz
  • Memory speed: 1.2Ghz
  • Unified Superscalar Shader Architecture
  • Streamprocessing Units: 1600 (320x5)
  • Compute Power: 2,72 Tflop (544 Glop Double Precision)
  • Texture Units: 80 (20x4)
  • Render Backends: 8 (x4 = 32 ROPs)
  • L1 tex cache bandwidth: 1TB/s
  • L1 to L2 cache bandwidth: 435GB/s
  • OpenCL optimised architecture
  • "Free 4x AA"
  • Single Cycle 8x MSAA
  • The return of Supersampling AA (@ AAA)
  • Improved Anisotropic Filtering (near perfect AF -> S3 quality)
  • Idle Board Power: 27W (reference HD4890: 60W)
  • Max Board Power: 187W (reference HD4890: 190W)
Deze lijst zal in principe pas weer uitgebreid worden wanneer de NDA's volledig vervallen zijn... of wanneer er weer informatie gelekt wordt.... Tot die tijd... enjoy deze ATI icons als zoethoudertje :+






http://img507.imageshack.us/img507/1893/atitopicreviewsv2kr6.jpg




Hieronder staan links naar de meeste HD5870 launch reviews. Voor zover er cijfers/scores/awards werden uigedeeld is dat er achter gezet. Tevens staat er specifiek bij vermeld wanneer er gebruik wordt gemaakt van de nieuwste reviewdrivers.

ATi EyeFinity Previews

http://img206.imageshack.us/img206/4117/atitopicfuturegpushk4.jpg
Op korte termijn staan gepland:

- HD5750 en HD5770




http://img381.imageshack.us/img381/7294/atitopicpricewatchv2lg7.jpg
Prijs positionering April 2009:
  • HD4870 X2 2GB GDDR5: $449 - €399
  • HD4850 X2 2GB GDDR3: $299 - €279
  • HD4890 1GB GDDR5: $239 - €209
  • HD4870 1GB GDDR5: $199 - €179
  • HD4870 512MB GDDR5: $149 - €149
  • HD4850 512MB GDDR3: $129 - €129
  • HD4770 512MB GDDR5: $99
  • HD4750 512MB DDR3: tba
  • HD4670 512MB GDDR3: $79 - €69
  • HD4650 512MB GDDR3: $69 - €59
  • HD4550 512MB GDDR3: $49 - €39
  • HD4350 512MB DDR2: $39 - €29
Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan tussentijds prijswijzigingen doorvoeren.


http://img110.imageshack.us/img110/4817/atitopicgeruchtenmolenvsv4.jpg
Gerucht: R800 komt in 2009 uit!
Waarheidsfactor: 100%

Gerucht: GT300 komt voor RV870 uit.
Waarheidsfactor: 10%
http://img255.imageshack.us/img255/5513/atitopiclinkscr8.jpg
http://img380.imageshack.us/img380/9673/atitopicpremiumgraphicsmq2.jpgATi Exclusive FabrikantenNon Exclusive Fabrikanten (zowel ATi als nVidia)ATi Tweak ToolsHandige LinksForumlinks



Veel zaken zijn gebaseerd op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd van harte welkom (via mail dan wel in het topic).

[Voor 255% gewijzigd door CJ op 22-09-2009 23:53]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Must Reads & Must Sees

De Geschiedenis van de Radeon uit deeltje 100. Een overzicht van alle highend GPUs die er uit gekomen zijn sinds de eerste Radeon. Wil je meer weten over de geschiedenis van ATI/AMD? Dan ben je hier aan het goede adres!



Game Developers over DirectX11


AMD: Are You Ready For What's Next?


Dirt 2: DirectX11 trailer


DX11 Games / Engines

  • Colin McRae: Dirt 2 (EGO Engine DX11 update)
  • Racedriver: GRID 2 (EGO Engine DX11 update)
  • F1 2010 (EGO Engine DX11 update)
  • Battleforge (via een update/xpac)
  • Gamebryo Engine van Emergent (DX11 update). Gamebryo wordt oa gebruikt in Fallout 3, Oblivion, Civ 4.
  • Alien vs Predator van Rebellion in 2010(?)
Operation Flashpoint 2 stond eerst ook in het lijstje, maar daarvan is inmiddels bekend dat deze bij launch geen DX11 ondersteuning zal hebben. Dit kan echter nog worden toegevoegd in een toekomstige patch.

[Voor 142% gewijzigd door CJ op 16-09-2009 01:54]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

ATi RADEON PRICEWATCH

  • HD4350 256MB GDDR2: €27 <
  • HD4350 512MB GDDR2: €35 <
  • HD4550 512MB GDDR3: €37 <
  • HD4650 512MB GDDR2: €34 < TIP
  • HD4650 1GB GDDR2: €49 <
  • HD4670 512MB GDDR3: €59 <
  • HD4670 1GB DDR3: €67 <
  • HD4730 512MB GDDR5: €75 NEW
  • HD4770 512MB GDDR5: €81 =
  • HD4790 512MB GDDR5:
  • HD4830 512MB GDDR3: €74 EOL
  • HD4830 1GB GDDR3: €95 EOL
  • HD4850 512MB GDDR3: €84 <
  • HD4850 1GB GDDR3: €103 <<
  • HD4870 512MB GDDR5: €109 <
  • HD4870 1GB GDDR5: €131 <
  • HD4890 1GB GDDR5: €160 <<
  • HD4890 Core: 1GHZ 1GB GDDR5: €193 >>>
  • HD4850X2 1GB GDDR3: €192 >>
  • HD4850X2 2GB GDDR3: €200 >
  • HD4870X2 2GB GDDR5: €300 >>

[Voor 99% gewijzigd door CJ op 11-09-2009 20:47]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Welkom in deel 105... please houdt de slowchat onder controle... ik heb niet echt veel zin om morgen gelijk al weer een nieuw topic aan te maken. :>

Belangrijkste laatste nieuwsposts uit 104:

Catalyst 9.9 http://game.amd.com/us-en/drivers_catalyst.aspx (in principe niet meer dan bugfixes)
HD5770 & HD5750 nieuws op VR-Zone: http://vr-zone.com/forums...uniper-le-is-hd-5750.html

[Voor 48% gewijzigd door CJ op 11-09-2009 20:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 15:12

Splinter Cell

AMD HD7850

CCC 9.9:



Waar zou dat over gaan. :P
Sommige mensen speculeren nog over een missend woord dat met de L zou moeten beginnen. Als je dan de beginletters van de vier woorden neemt, dan krijg je een ander woord.... Beetje ver gezocht wat mij betreft maar wel grappig gevonden. :+

Het is ook al een tijdje de sig van Dave Baumann op Beyond3D.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
offtopic:
Even een reply om te kunnen volgen

It takes two fools to argue.

Nog maar een keer voordat mensen hem missen. :+

Juniper XT is Radeon HD 5770 and Juniper LE is HD 5750




While all eyes are on the Radeon HD 5800 "Cypress" series, there is another series quietly brewing beneath AMD which NVIDIA should be really afraid of. It is targeted at the mainstream market which is no doubt the most important segment for both camps.

Juniper XT and LE will be officially named Radeon HD 5770 and Radeon HD 5750 respectively when launched. HD 5770 card is codenamed Countach while HD 5750 is codenamed Corvette and they both come with 1GB GDDR5 memories on 128-bit memory interface. Juniper will possess all the features of its higher end counterpart like 40nm, DX11, Eyefinity technology, ATI Stream, UVD2, GDDR5 and best of all, it is going to be very affordable.

One of the reason why AMD is not mass producing Radeon HD 4700 (RV740) series now is because HD 5700 series will be replacing it soon and will come one month after HD 5800 series. It will meet head on against the NVIDIA's D10P1 (GT215) series in October so expect a full fledge war then. With a performance target of 1.6x over the HD 4770 and 1.2x over the HD 4750, they are surely packed with enough power to pit against the NVIDIA's lineup. Pair them up and you will get a boost of 1.8x which is roughly the performance of a Cypress card.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Omnyakom1
  • Registratie: april 2009
  • Laatst online: 26-09 01:11
gaat hard :p

[Voor 16% gewijzigd door Omnyakom1 op 11-09-2009 21:18]


  • Axelfoley007
  • Registratie: juni 2007
  • Laatst online: 26-09 22:51
Met zoveel goed nieuws kan het ook niet anders *O* , hopelijk doen ze dat ook nog eens met de CPU afdeling.
Die 5700 serie is ook erg interessant, zeker omdat het dezelfde features heeft als de 5800.

Ik ben toch erg benieuwd met wat nVidia uiteindelijk gaat komen.

  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 08:55

Ed_L

Edmin
Nu de hoofdfeatures van de grote jongens al redelijk vorm krijgen, hoop ik dat er snel ook meer bekend is over Cedar.

  • Pyronick
  • Registratie: maart 2009
  • Laatst online: 24-09 16:47

Pyronick

Vorsprung durch gas geben.

Corvette, Countach... Ik dacht dat AMD Ferrari sponsorde?!?! 8)7

  • Naluh!
  • Registratie: juni 2003
  • Niet online
Die nieuwe generatie kaarten heeft natuurlijk geen tv-out meer :(

Specs


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 08:55

Ed_L

Edmin
Welkom in 2009? ;)

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 15:12

Splinter Cell

AMD HD7850

Naluh! schreef op vrijdag 11 september 2009 @ 21:55:
Die nieuwe generatie kaarten heeft natuurlijk geen tv-out meer :(
:P HD5870. Tja HMDI he.

  • peakaboo
  • Registratie: mei 2007
  • Niet online
Die nieuwe koeler van de 5870 is wel nice, in mijn case zal ie weer mooi shinen als waardige vervanger van de 4890 BE :+



[Voor 21% gewijzigd door peakaboo op 11-09-2009 22:04]

i9-9900k / Sapphire Nitro+ RX 5700 XT 8GB / Asus ROG Strix Z390-E / Corsair Vengeance RGB Pro 32GB DDR4 3200mhz / Crucial MX500 1TB / Samsung 840 Pro 256GB / Corsair HX750W / Fractal Design Define 7 Tempered Glass Dark Tint / LG 27GL850


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 15:12

Splinter Cell

AMD HD7850

Op Game.amd.com prijkt nu Battlefield Heroes van EA. Zal hier nog iets achter zitten? DX10.1/DX11?

Het is trouwens wel een nVidia game...

http://www.battlefieldheroes.com/frontpage/landingPage

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 17:28
With a performance target of 1.6x over the HD 4770 and 1.2x over the HD 4750,
Dus de 5770 presteerd 1.6 keer zo goed als de 4770 en de 5750 1.2 keer zo goed als de 4750?
Dat lijkt me een aardig groot verschil.

Mijn blog; Floating Points


  • psychoclown
  • Registratie: juli 2006
  • Laatst online: 26-09 22:29

psychoclown

Back in black

Splinter Cell schreef op vrijdag 11 september 2009 @ 22:19:
Op Game.amd.com prijkt nu Battlefield Heroes van EA. Zal hier nog iets achter zitten? DX10.1/DX11?

Het is trouwens wel een nVidia game...

http://www.battlefieldheroes.com/frontpage/landingPage
Bfh in Dx10.1/Dx11? Lijkt me heel onwaarschijnlijk, het is een gratis browser game met een cartoonlook en het nut van Dx10.1/Dx11 zou ik dan ook niet echt kunnen bedenken.

WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream


  • neliz
  • Registratie: oktober 1999
  • Laatst online: 24-01 15:32

neliz

GIGABYTE Man

edit: interview met Huddy weggehaald.
Splinter Cell schreef op vrijdag 11 september 2009 @ 22:19:
Op Game.amd.com prijkt nu Battlefield Heroes van EA. Zal hier nog iets achter zitten? DX10.1/DX11?
C&C:4 stond er ook, maar dat heeft klaarblijkelijk ook niets met DX11 te maken.

wait and see.

[Voor 68% gewijzigd door neliz op 11-09-2009 22:30]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Wel even goed linken, klik.
AMD beliefs: DirectX 11 Radeons pleasantly fast
Hij meent het 8)7

It takes two fools to argue.


  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 15:12

Splinter Cell

AMD HD7850

Hacku schreef op vrijdag 11 september 2009 @ 22:30:
[...]


Wel even goed linken, klik.


[...]


Hij meent het 8)7
Tevens al weer een oud bericht: Author: Carsten Spille (Jul 09, 2009)

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 24-01 15:32

neliz

GIGABYTE Man

Splinter Cell schreef op vrijdag 11 september 2009 @ 22:32:
[...]

Tevens al weer een oud bericht: Author: Carsten Spille (Jul 09, 2009)
HAd 'm al verwijderd voordat jullie erop commenten ;) Het ging Over Juniper en zijn opmerking dat dit een kaart was voor tussen de $100 en $250, dit voor de "pricing" berichten van de laatste paar dagen.

hkepc lijstje met mobility partnummers:

http://global.hkepc.com/4007
  • HD5700 "Madison"
    • HD5770 (Madison XT, GDDR5)
    • HD5750 (Madison PRO, GDDR5)
    • HD5730 (Madison LP, /G/DDR3)
  • HD5600 "Madison"
    • HD5650 (Madison LE, same GPU as 5700, deactivated SIMDs?)
  • HD5400 "Park" (64-bit, GDDR3/DDR3/DDR2)
    • HD5470 (Park XT)
    • HD5450 (Park PRO)
    • HD5430 (Park LP)
In principe het lijst van The Source, maar nu met de geliefde Radeon nummers.

[Voor 39% gewijzigd door neliz op 11-09-2009 22:41]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • d-generation-x
  • Registratie: december 2006
  • Laatst online: 13-12-2016
In de introductie staat het volgende: voor veel mensen zal echter de midrange interessanter zijn. De HD5770 en HD5750 zullen dit gebied beslaan. Ik d8 dat de HD 5850 en HD 5870 de midrange versie zou zijn, al hoewel ik de HD 5870 meer zie tussen de mid-range high-range. Voor mij is het onduidelijk in welke range ik het zou moeten zien en wat verschillen de de prestaties van de HD 5xxx series?

[Voor 18% gewijzigd door d-generation-x op 12-09-2009 00:29]


  • neliz
  • Registratie: oktober 1999
  • Laatst online: 24-01 15:32

neliz

GIGABYTE Man

Gelijk aan de Vision structuur
Vision (standaard) <HD56
Vision Premium HD57
Vision Ultimate HD58
Vision Black HD59

Vandaar ook de zwarte PCB's AMD wil "black" als krachtterm gebruiken voor hun CPU's en GPU's. zwart is goed...


zwart is drop!

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • outlandos
  • Registratie: november 2001
  • Laatst online: 26-09 17:33
Goede OP!

De HD 5870 2GB zal hier dan wel voor 399 Euro over de toonbank gaan vermoed ik! Even kijken of ik dat ervoor over heb, ik denk het wel! :9

  • Help!!!!
  • Registratie: juli 1999
  • Niet online
Als ik toch even een kritische kanttekening mag plaatsen....

Alhoewel ik enerzijds een warm gevoel krijg van de gelekte en vermeende specs van de 5870 heb ik anderzijds toch zoiets van, ok we hebben hier een "single" gpu kaart die ongeveer vergelijkbare prestaties krijgt als een 4870X2 maar dan met DX11, vebeterde en goede verbruiksprestaties en (licht?) verbeterde IQ tegen een prijs die vermoedelijk redelijk hoger ligt dan een 4870X2. (350 a 400 vs 300).
Daarmee vind ik de kaart toch relatief duur. De kaart die echt een meerwaarde qua prestaties gaat leveren (R800) tov iets wat al heel lang op de markt is (4870X2) zal ws nog aanmerkelijk duurder zijn dan de 5870 ( 500??).

Imo verlaat AMD daar toch de scherpe prijsstrategie die ze met de 4870 (en 4890) hebben ingezet.

Dus ja mooie kaart maar toch erg jammer dat de ouderwetse hoofdprijs weer redelijk uit de kast gehaald wordt.

ps:
eyefinitity waar we al 200 posts over praten vind ik een mooie ontwikkeling, kudo's voor AMD maar als gamer imo toch wel duidelijk nice to have en in de verste verte niet must have.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • peakaboo
  • Registratie: mei 2007
  • Niet online
Help!!!! schreef op zaterdag 12 september 2009 @ 03:47:
Als ik toch even een kritische kanttekening mag plaatsen....

Alhoewel ik enerzijds een warm gevoel krijg van de gelekte en vermeende specs van de 5870 heb ik anderzijds toch zoiets van, ok we hebben hier een "single" gpu kaart die ongeveer vergelijkbare prestaties krijgt als een 4870X2 maar dan met DX11, vebeterde en goede verbruiksprestaties en (licht?) verbeterde IQ tegen een prijs die vermoedelijk redelijk hoger ligt dan een 4870X2. (350 a 400 vs 300).
Daarmee vind ik de kaart toch relatief duur. De kaart die echt een meerwaarde qua prestaties gaat leveren (R800) tov iets wat al heel lang op de markt is (4870X2) zal ws nog aanmerkelijk duurder zijn dan de 5870 ( 500??).

Imo verlaat AMD daar toch de scherpe prijsstrategie die ze met de 4870 (en 4890) hebben ingezet.

Dus ja mooie kaart maar toch erg jammer dat de ouderwetse hoofdprijs weer redelijk uit de kast gehaald wordt.

ps:
eyefinitity waar we al 200 posts over praten vind ik een mooie ontwikkeling, kudo's voor AMD maar als gamer imo toch wel duidelijk nice to have en in de verste verte niet must have.
;) d:)b

i9-9900k / Sapphire Nitro+ RX 5700 XT 8GB / Asus ROG Strix Z390-E / Corsair Vengeance RGB Pro 32GB DDR4 3200mhz / Crucial MX500 1TB / Samsung 840 Pro 256GB / Corsair HX750W / Fractal Design Define 7 Tempered Glass Dark Tint / LG 27GL850


  • neliz
  • Registratie: oktober 1999
  • Laatst online: 24-01 15:32

neliz

GIGABYTE Man

Help!!!! schreef op zaterdag 12 september 2009 @ 03:47:
Als ik toch even een kritische kanttekening mag plaatsen....
Ik denk dat je te lage verwachtingen hebt van de 5870. Ik denk namelijk dat hij sneller is onder hogere werkdruk vooral omdat het geen CF kaart is

een 4870X2 krijgt nooit perfecte scaling en dat kun je in sommige gevallen wel van een 5870 verwachten. Best kans dat op ultra hoge resoluties de 5870 gewoon 30% sneller is. Laten we er uit gaan dat hij in het slechtste geval gelijk is aan een 4870X2 en in de betere gevallen gelijk aan een 4890CF setup.

Miss you CJ....:'( en nee... ik kan niet aan samples komen

Help!!!! schreef op zaterdag 12 september 2009 @ 03:47:
Dus ja mooie kaart maar toch erg jammer dat de ouderwetse hoofdprijs weer redelijk uit de kast gehaald wordt.
De ouderwetse hoofdprijs was vorig jaar Juni nog $649 voor een enkele GTX280, terwijl AMD daar toen op $299 ging zitten. Ze hadden ook nu de volle mep kunnen vragen voor de HD5870, want de performance is er naar.

Vergeet niet dat de situatie voor AMD veranderd is, niet alleen in financieel opzicht maar ook vooral het grafische landschap waarin AMD zich bevindt. Toen AMD vorig jaar de HD4870 op de markt zette, liepen ze al bijna twee jaar aan te hikken tegen een achterstand op NVIDIA die ze hadden opgelopen dankzij de G80 en later van allerlei G92 derivaten. Ze moesten dus mindshare en marketshare terugwinnen. Een snelle goedkope chip maken en die zeer aggressief prijzen (nl 117% goedkoper dan de concurrent, terwijl het performanceverschil slechts 10-20% was) was de juiste stap om te nemen. Dat was de reden van de scherpe prijsstrategie van AMD. Het is en blijft natuurlijk een bedrijf die winst wil maken.

Nu loopt AMD weer in op NVIDIA wat betreft marktaandeel, terwijl het ineens niet meer vanzelfsprekend is dat NVIDIA de snelste is. De komst van de RV790 heeft laten zien dat de architectuur van AMD best competitief kan zijn met zelfs een GTX285 wanneer dit geklokt is op de snelheden waarvoor hij eigenlijk gemaakt is. Voor veel minder geld is-ie sneller. Een 1Ghz HD4890 kon je op een gegeven moment kopen voor €170, terwijl de goedkoopste GTX285 nog altijd zo'n €100 euro duurder is. Het GPU landschap is dus dusdanig veranderd, dat AMD nu ook weer meer kan vragen voor z'n GPUs, maar toch nog steeds competitief geprijsd kan zijn. Ze geven niets voor niks weg en producten worden nog altijd geprijsd afhankelijk van de competitie en wat de markt er voor over heeft. Als de markt laat merken dat ze geen $399 over hebben voor de HD5870, dan zakt-ie heus wel in prijs.

De prijs van de GPU komt overigens wel redelijk overeen met de die-size. Het lijkt redelijk mee te schalen. Vorig jaar zette AMD een GPU van 256mm2 op de markt voor $299. Nu nog geen jaar later gaat deze over de toonbank voor iets meer dan $99. Dat is een daling van bijna 200% in 1 jaar. Blijkbaar verwachten mensen dat AMD een veel grotere GPU met nieuwe technieken aan boord van zo'n ~331mm2 (~30% groter) op een kleiner (nieuwe en dus duurder) productieproces voor datzelfde bedrag op de markt zet. Het had gekund, maar is gewoon niet realistisch. Het biedt wel een leuk vooruitzicht op wat je volgend jaar rond deze tijd voor de HD5870 gaat betalen.

De positionering klopt eigenlijk vrij goed. De HD4870X2 is langzamer en heeft nu een adviesprijs van $399. De HD5870 is sneller dan een HD4870X2 en kost hetzelfde (of misschien iets minder), maar brengt wel DX11, ATI EyeFinity en verbeterde IQ. Verder is-ie goedkoper en (vaak) ook sneller dan de snelste kaart van de concurrentie, de GTX295, terwijl het kleinere broertje van $299 sneller is dan de GTX285. En nu NVIDIA de eerst komende tijd geen vergelijkbare chip op de markt kan zetten, is dit de uitgelezen tijd om van dit momentum te profiteren.

Straks komt NVIDIA met een chip die ongeveer net zo groot is als de GT200b (weer rond de 576mm2). Ik hoop voor hen dat deze een flink stuk sneller is (minstens 2.5x zo snel als GTX280) en dat deze gauw op de markt komt (binnen 3-4 maanden), want als AMD bij de introductie van de GTX380 de prijzen verlaagt van hun veel kleinere GPU dan worden ze weer gedwongen om een grote dure chip voor veel minder te verkopen. Dat het je 1x overkomt... is leuk... maar twee keer op rij... is erg pijnlijk.

Ik snap dat je liever $299 betaalt dan $399, maar onthoudt... Een jaar geleden betaalden sommige mensen $649 voor de GTX280. Nu betalen mensen $399 voor performance van de HD5870 die 2x zo hoog ligt. Is dat een slechte ontwikkeling?

AMD zou er goed aan doen om de X2 zo lang mogelijk uit te stellen totdat NVIDIA performancecijfers van de GT300 heeft laten zien...en dan op dat moment de kaart te lanceren voor $499-$549 (afhankelijk van 2GB of 4GB model), terwijl de prijs van de HD5870 zakt naar $279-299. Maar goed, dat is wat ik persoonlijk zou doen vanuit strategisch oogpunt. En ik ben het management van AMD niet. :+

Edit: Lees ook dit uitgebreide informatieve verslag over ATI Eyefinity http://www.widescreengami...rum/viewtopic.php?t=16780

Edit 2:

X-Plane op Linux (inclusief Bezel-management, zie first post voor uitleg). CrossFire werkt dus nog niet met Eyefinity. De vier HD5870 Six kaarten die gebruikt werden om dit weer te geven renderen ieder een kwadrant van de game.

[Voor 5% gewijzigd door CJ op 12-09-2009 08:49]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • RnwY
  • Registratie: september 2007
  • Laatst online: 15-08 08:23
Wordt de HD5970, gebaseerd op de RV840, niet voor de X2 variant gelanceerd? Lijkt me logischer dan gelijk een X2 te produceren.

CJ heeft in deeltje 102 op d.d. 12 juli een speculatie gedaan wat naar mijn idee reëel is.. Als blijkt dat de HD5870 inderdaad bestaat uit twee keer een RV830, dan laat de X2 nog wel even op zich wachten.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
Ik vind die cooler van de HD5870 er wel degelijk uit zien. Ik kan me haast niet voorstellen dat deze veel meer herrie gaat maken als de HD4890 cooler. De mounting holes zien er hezelfde uit dus huidige after market coolers die een HD4890 BE kunnen coolen zullen dit beestje ook wel aan kunnen. Ik ben benieuwd wanneer die Twin Turbo Pro komt. Een Accelero Extreme voor de HD58xx mag ook :P Helaas is die er tot nu toe alleen voor de HD4870 X2 en bij nVidia voor de GT2xx serie.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • disco stu
  • Registratie: mei 2005
  • Laatst online: 04-08-2016
Ik moet vanuit technologisch oogpunt toch zeggen dat ik enigsinds teleurgesteld ben dat de 5870 geen MCM module is maar single-die. Alle inter-die communicatie blijkt dus nog altijd via CF te gaan, zoals naar alle waarschijnlijkheid bij de R800 zal zijn.

De heilige graal is nog altijd 2 (of meer) dies op MCM die zich gedragen als 1 GPU en waarbij de schaling quasi 100% is. En dat kan dan nog altijd in CF gezet worden met een 2de CPU van hetzelfde type.

  • anathema
  • Registratie: augustus 2006
  • Laatst online: 15:38
Ja het wordt hoog tijd om afscheid te nemen van AFR type Multi-GPU. Geheugen waarvan je maar de helft effectief kan gebruiken, dubbele specificaties maar geen dubbele prestaties, micro-stuttering bij wat lagere fps, zijn voor mij toch wel grote nadelen. Dan liever een grotere single die, ben blij dat de single HD5870 zo'n beest lijkt te gaan worden.

Maar waarschijnlijk zal het echt dual-core GPU gebeuren dus naar de volgende generatie worden doorgeschoven?

anathema


  • omgwtfbbq
  • Registratie: juli 2007
  • Laatst online: 12:57
http://en.expreview.com/2...s-revealed.html#more-5180

:>

Oh, en CCC 9.9 is uit... Weet niet of dat al in de vorige post stond?

http://game.amd.com/us-en/drivers_catalyst.aspx

[Voor 41% gewijzigd door omgwtfbbq op 12-09-2009 11:05]


  • Marc Rademaker
  • Registratie: juli 2007
  • Laatst online: 30-07 13:11
@ CJ:

"Ze moesten dus mindshare en marketshare terugwinnen. Een snelle goedkope chip maken en die zeer aggressief prijzen (nl 117% goedkoper dan de concurrent, terwijl het performanceverschil slechts 10-20% was) was de juiste stap om te nemen. Dat was de reden van de scherpe prijsstrategie van AMD. Het is en blijft natuurlijk een bedrijf die winst wil maken."

Je realiseert je dat de ontwikkeling van RV770 al ver voor de komst van G80 begonnen is( ja dat doe je vast wel :P) Het roer is eigenlijk omgegaan toen AMD ATI kocht. Een van de redenen dat AMD nu sneller is dan Nvidia, is Joe Macri. Een cpu-man die gpu's maakt :) Ik wil niet al mijn kaarten laten zien, daar kun je later nog veel meer over lezen. Met het spelletje tussen Nvidia en AMD lijkt zich hier en nu af te spelen, maar de planning van al hun producten ligt al jaren achter ons. Ze moeten continu maar hopen dat ze een goede zet gedaan hebben. Of nja, een educated guess, met wat bedrijfsspionage en zo erbij :P

De meeste mensen hebben echter geen idee hoe lang de ontwikkeling van gpu's duurt. Een gokje dus maar voor de meesten: wanneer begon AMD aan de ontwikkeling van RV740 *eerste 40nm-gpu*, die eigenlijk in de roadmap werd gepropt en dus niet echt op de planning stond.

[Voor 13% gewijzigd door Marc Rademaker op 12-09-2009 11:07]

Dit artikel laat anders al vrij goed zien wat er komt kijken bij de ontwikkeling van de RV770 wat begonnen is in 2005: The RV770 Story: Documenting the road to Success

Joe Macri is inderdaad een belangrijk persoon. Dat is hij altijd al geweest mede doordat hij de grote kracht is achter het ontwikkelen van verschillende GDDR standaards in de JEDEC commissie met als hoogtepunt nu natuurlijk GDDR5. Het was een gok die ze namen om jaren voordat GDDR5 helemaal klaar was, al een duidelijk besluit te nemen dat RV770 gebruik zou moeten maken van dit geheugen. Als dit vertraging had opgelopen dan had het plaatje er heel anders uit gezien. Ze hebben dus een enorm risico genomen wat gelukkig voor AMD goed heeft uitgepakt.

[Voor 11% gewijzigd door CJ op 12-09-2009 11:19]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • dahakon
  • Registratie: april 2002
  • Laatst online: 28-07 22:53
Marc Rademaker schreef op zaterdag 12 september 2009 @ 11:03:
De meeste mensen hebben echter geen idee hoe lang de ontwikkeling van gpu's duurt. Een gokje dus maar voor de meesten: wanneer begon AMD aan de ontwikkeling van RV740 *eerste 40nm-gpu*, die eigenlijk in de roadmap werd gepropt en dus niet echt op de planning stond.
Het lijkt me dat je een verschil moet maken in een geheel nieuw ontwerp (RV770/RV730) en een revamp van een dergelijk ontwerp (RV790/RV740). In basis is de ontwikkelingstijd van de laatste een stuk korter, aangezien je een bestaand basis-ontwerp hebt die enigsinds wordt aangepast.
De RV790 is niet veel meer dan een geoptimaliseerde RV770, waardoor er hogere clockspeeds mogelijk zijn en kleine andere tweaks die voor verbetering zorgen.
De RV740 lijkt niets meer dan een native versie van de binned HD4830 (of een soort van dual-RV730 met gelijkblijvende geheugenbus), die vooral bedoeld was om de problemen van het 40nm proces op te sporen.

In ieder geval zal de ontwikkelingstijd van beide chips lager geweest zijn dan de ~3 jaar die CJ claimt dat het duurt voor het ontwerp van een volledige ATI/AMD chip.
NVIDIA in de tegenaanval met PhysX als stokpaardje:
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
http://venturebeat.com/20...er-six-computer-displays/

En een Ruby DX11 demo van Lightstage (die ook Cinema 2.0 Ruby hebben gemaakt):

http://pc.watch.impress.c.../315/056/html/17.flv.html

[Voor 8% gewijzigd door CJ op 12-09-2009 11:30]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • The Flying Dutchman
  • Registratie: mei 2000
  • Laatst online: 21-09 13:11
disco stu schreef op zaterdag 12 september 2009 @ 10:11:
Ik moet vanuit technologisch oogpunt toch zeggen dat ik enigsinds teleurgesteld ben dat de 5870 geen MCM module is maar single-die. Alle inter-die communicatie blijkt dus nog altijd via CF te gaan, zoals naar alle waarschijnlijkheid bij de R800 zal zijn.

De heilige graal is nog altijd 2 (of meer) dies op MCM die zich gedragen als 1 GPU en waarbij de schaling quasi 100% is. En dat kan dan nog altijd in CF gezet worden met een 2de CPU van hetzelfde type.
Hoe kom je hier nou bij? Er zijn veel geruchten dat de 5870 twee gpu's op één die zijn. Wat IMHO een betere oplossing is dan een MCM package. Dit werkt dus hetzelfde als bij processors, die zijn ook samen op één die geplaatst en gebruiken geen MCM package. Een veel betere oplossing naar mijn mening. Zo kun je met meerdere cpu's op één die volgens mij veel gemakkelijker cache geheugen delen tussen twee cpu's. Voor gpu's zullen er zo ook wel voordelen zijn voor samen op een die ten opzichte van MCM. Daarnaast lijkt me dat één die goedkoper is dan twee dies en die samen op een MCM plaatsen.

The Flying Dutchman


  • Tomminightmare
  • Registratie: januari 2009
  • Laatst online: 09-09-2011
Astennu schreef op zaterdag 12 september 2009 @ 09:55:
Ik vind die cooler van de HD5870 er wel degelijk uit zien. Ik kan me haast niet voorstellen dat deze veel meer herrie gaat maken als de HD4890 cooler. De mounting holes zien er hezelfde uit dus huidige after market coolers die een HD4890 BE kunnen coolen zullen dit beestje ook wel aan kunnen. Ik ben benieuwd wanneer die Twin Turbo Pro komt. Een Accelero Extreme voor de HD58xx mag ook :P Helaas is die er tot nu toe alleen voor de HD4870 X2 en bij nVidia voor de GT2xx serie.
Zon accelero xtreme zou gaaf zijn maar een twin turbo of een s1 is eigenlijk al genoeg. Ik hoop dat de VRM's wat beter te koelen zijn dan bij de HD 4870.

[Voor 11% gewijzigd door Tomminightmare op 12-09-2009 11:36]


  • disco stu
  • Registratie: mei 2005
  • Laatst online: 04-08-2016
The Flying Dutchman schreef op zaterdag 12 september 2009 @ 11:28:
[...]


Hoe kom je hier nou bij? Er zijn veel geruchten dat de 5870 twee gpu's op één die zijn. Wat IMHO een betere oplossing is dan een MCM package. Dit werkt dus hetzelfde als bij processors, die zijn ook samen op één die geplaatst en gebruiken geen MCM package. Een veel betere oplossing naar mijn mening. Zo kun je met meerdere cpu's op één die volgens mij veel gemakkelijker cache geheugen delen tussen twee cpu's. Voor gpu's zullen er zo ook wel voordelen zijn voor samen op een die ten opzichte van MCM. Daarnaast lijkt me dat één die goedkoper is dan twee dies en die samen op een MCM plaatsen.
1) Hoe kleiner de die, hoe kleiner de kans op fouten, hoe hoger de yields.
2) Of ik moet door aliens ontvoerd zijn en valse herinneringen ingepland gekregen hebben maar het was toch de lange termijn strategie van AMD/ATI naar kleinere goedkope dies te gaan en daarvan meerdere modulair in zetten voor een grafische kaart i.t.t. nVidia die voor 1 grote performante en dure die gaat.
3) Hoe definieer je 2 GPU's op 1 die? Wat is het wezenlijke verschil tussen a) 1 GPU (wat betreft ontwerp) met 1600SP's en b) 2 GPUs van elk 800SP's op 1 die? Het is gewoon een andere vorm van parallellisatie en ik stel me dan de vraag wat a) aan voordeel oplevert ten aanzien van b). In beide gevallen zit je met een grotere die ten aanzien van c) 2 dies met elk 800SP's die samen 1 GPU vormen.

  • meljor
  • Registratie: november 2004
  • Laatst online: 28-10-2019
disco stu schreef op zaterdag 12 september 2009 @ 11:40:
[...]

1) Hoe kleiner de die, hoe kleiner de kans op fouten, hoe hoger de yields.
2) Of ik moet door aliens ontvoerd zijn en valse herinneringen ingepland gekregen hebben maar het was toch de lange termijn strategie van AMD/ATI naar kleinere goedkope dies te gaan en daarvan meerdere modulair in zetten voor een grafische kaart i.t.t. nVidia die voor 1 grote performante en dure die gaat.
3) Hoe definieer je 2 GPU's op 1 die? Wat is het wezenlijke verschil tussen a) 1 GPU (wat betreft ontwerp) met 1600SP's en b) 2 GPUs van elk 800SP's op 1 die? Het is gewoon een andere vorm van parallellisatie en ik stel me dan de vraag wat a) aan voordeel oplevert ten aanzien van b). In beide gevallen zit je met een grotere die ten aanzien van c) 2 dies met elk 800SP's die samen 1 GPU vormen.
je zegt het zelf al onder punt 1.

nvidia maakt 1 grote, terwijl amd dus (waarschijnlijk) 2 kleine maakt en dan SAMEN op 1 gpu zet. ze worden dus wel apart gemaakt met alle voordelen van dien.


grote voordeel is dan dus meerdere mogelijkheden met minder fabricage risico's/kosten,

bijvoorbeeld:

1 kreupele die op 1 gpu. (juniper pro?)
1 goede die op 1 gpu. (juniper xt?)
2 kreupele dies op 1 gpu (5850?)
2 goede die's op 1 gpu (5870?)
4 die's op 2 gpu's (5870 x2?)

voeg daar nog aan toe dat je 128bit en 256bit geheugencontroller kan gebruiken en je kan dus met 1 die heeeel veel combi's maken.

[Voor 16% gewijzigd door meljor op 12-09-2009 12:18]

1) Dat een kleinere die minder kans zou hebben op fouten en daardoor hogere yields zou hebben is niet per definitie waar. Naarmate de processen steeds kleiner worden en de chips relatief gezien steeds meer transistors bevatten, is het steeds moeilijker om fouten op te sporen. Er zijn inmiddels technieken op de markt waarmee je dit kan voorkomen... en waardoor je met een grotere die juist een betere yield zal hebben en ook nog eens een lagere temperatuur kan bereiken. Een van die technieken is een fault-tolerant design door meer zaken in te bakken dan eigenlijk nodig is (bv zgn "loze transistors" om hitte problemen te voorkomen of extra redundancy. Door beide zal de die-size iets groter worden dan had gehoeven).

2) AMD wijkt toch ook niet af van die stategie? Je krijgt HD4870X2 performance (of zelfs beter) maar hebt er slechts 1 GPU van ~330mm2 voor nodig ipv 2 GPUs van 256mm2, terwijl het stroomverbruik enorm naar beneden vliegt en je extra functies krijgt als DX11 en Eyefinity. NVIDIA komt straks met een GPU die vele malen groter is. Vergeet niet dat de Cypress ongeveer even groot is als de G92 GPU van nVidia, maar toch vele malen sneller is.

3) Het verschil tussen 2 GPUs op 1 die tov 1 single GPU lijkt me duidelijk... je hebt van alles dubbel... ook zaken die je helemaal niet dubbel hoeft te hebben... dubbele memory interface, dubbele display outputs, dubbele CFX Port, dubbele UVD engine... Bepaalde dingen zullen niet efficient samen werken tenzij er veel research in wordt gepompt... en daar is het nu nog even te vroeg voor. De complexiteit gaat onevenredig omhoog. Dan is het voordeliger, sneller en efficienter om met een single GPU oplossing te komen waar wel alle belangrijke zaken waar je performance mee kan winnen van de vorige generatie in verdubbeld is. Dus streamprocessors en TMUs. Erg simpel gezegd: Zie Cypress als een dubbele RV770 (of Juniper als je wilt) op 1 die met DX11 en veel tweaks zonder alle overbodige shit.

Op CPU gebied gaat AMD wel de MCM route op met de Magny Cours CPU terwijl ze vroeger altijd 'tegen' MCM waren en 'voor' native (quad)cores. Dus wie weet kunnen ze dezelfde technieken straks toepassen op GPUs door alles via een hypertransportlink aan elkaar te koppelen.

[Voor 6% gewijzigd door CJ op 12-09-2009 16:11]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Rutger Mulder
  • Registratie: april 2004
  • Laatst online: 16:48
Kun je dan niet die memory interface etc niet op een derde chip zetten en die dan verbinden met twee puur gpu cores op één die? Dan maak je alles ook niet dubbel en hoef je alleen defecte chips weg te gooien inplaats van hele gpu's met alles erop.

GA-EP45-DQ6 // E5450 @ 4 GHz // Thermalright HR-01 Plus // 2x 2GB Gskill PC8000 // gtx260 core216 // X-Fi ExtremeMusic // WD Raptor 150GB, WD GP 1x 1TB, 2x 2TB // Lian Li PC-A10B // Corsair HX650Watt // Dell 2407WFP // G15 + SS Sensei

Een derde chip...? Die chips moeten ook nog geproduceerd worden door bv een TSMC... dat kost ook nog redelijk wat.... GPUs zitten van zichzelf al heel erg modulair in elkaar waardoor het meer voordelen heeft om gewoon meer blokken in een GPU te stoppen dan voor multi-chip te gaan.

[Voor 41% gewijzigd door CJ op 12-09-2009 12:26]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Maar je zegt nu dus dat we een dualcore wel mogen vergeten en dat Chiphell (forum) het verkeerd heeft? ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • EdwardvGelder
  • Registratie: december 2007
  • Laatst online: 23-09 09:36
* Codenaam: Cypress - RV870
* Transistoren: ~2100M
* Memory Interface: 256-bit GDDR5
* Corespeed: 850Mhz
* Memory speed: 1.2Ghz
* Unified Superscalar Shader Architecture
* Streamprocessing Units: 1600 (320x5)
* Compute Power: 2,72 Tflop
* Texture Units: 80 (20x4)
* Idle Board Power: 27W
* Max Board Power: 187W

Ben ik nou dom/achterlijk of kan Cypress niet uit 2maal een RV840 bestaan?
Aangezien je dan 800 streamprocessors hebt(wat kan) maar in een hoeveelheid van 320*2,5
Of is dit gewoon mogelijk?

Systeem -> http://tweakers.net/gallery/243108/sys Powered by Ati/Amd Radeon 5870/Ph2 955@3,8ghz

-The_Mask- schreef op zaterdag 12 september 2009 @ 12:26:
Maar je zegt nu dus dat we een dualcore wel mogen vergeten en dat Chiphell (forum) het verkeerd heeft? ;)
Geen woorden in m'n mond stoppen aub. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Tomminightmare
  • Registratie: januari 2009
  • Laatst online: 09-09-2011
EdwardvGelder schreef op zaterdag 12 september 2009 @ 12:33:
* Codenaam: Cypress - RV870
* Transistoren: ~2100M
* Memory Interface: 256-bit GDDR5
* Corespeed: 850Mhz
* Memory speed: 1.2Ghz
* Unified Superscalar Shader Architecture
* Streamprocessing Units: 1600 (320x5)
* Compute Power: 2,72 Tflop
* Texture Units: 80 (20x4)
* Idle Board Power: 27W
* Max Board Power: 187W

Ben ik nou dom/achterlijk of kan Cypress niet uit 2maal een RV840 bestaan?
Aangezien je dan 800 streamprocessors hebt(wat kan) maar in een hoeveelheid van 320*2,5
Of is dit gewoon mogelijk?
Het is niet zo maar de verhoudingen zijn als volgt.
800 SP is verdeeld over tien SIMD cores met elk 16 clusters van 5 streamprocessoren. 4 van deze kunnen dotproducten,bitshifts, additie. De andere kan ook sinussen, complexere operaties. Ik weet niet meer hoeveel texture units elke SIMD core heeft.
Correct me if im wrong.
CJ schreef op zaterdag 12 september 2009 @ 12:37:
[...]


Geen woorden in m'n mond stoppen aub. ;)
Maar zo zeg je het wel. :p
Bepaalde dingen zullen niet efficient samen werken tenzij er veel research in wordt gepompt... en daar is het nu nog even te vroeg voor.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Marc Rademaker
  • Registratie: juli 2007
  • Laatst online: 30-07 13:11
CJ schreef op zaterdag 12 september 2009 @ 11:14:
Dit artikel laat anders al vrij goed zien wat er komt kijken bij de ontwikkeling van de RV770 wat begonnen is in 2005: The RV770 Story: Documenting the road to Success

Joe Macri is inderdaad een belangrijk persoon. Dat is hij altijd al geweest mede doordat hij de grote kracht is achter het ontwikkelen van verschillende GDDR standaards in de JEDEC commissie met als hoogtepunt nu natuurlijk GDDR5. Het was een gok die ze namen om jaren voordat GDDR5 helemaal klaar was, al een duidelijk besluit te nemen dat RV770 gebruik zou moeten maken van dit geheugen. Als dit vertraging had opgelopen dan had het plaatje er heel anders uit gezien. Ze hebben dus een enorm risico genomen wat gelukkig voor AMD goed heeft uitgepakt.
2005 is uiteraard ver voordat Nvidia G80 uitbracht. Dat bedoelde ik te zeggen. Top-artikel trouwens van AT :)

@ Dahakon, het ontwerpen van RV740 begon halverwege 2006. Drie jaar later kwam het uit. Er kwam veel en veel meer bij kijken dan een simpele revamp. Onderschat de transitie naar een nieuw procedé niet.

  • Coinstreet
  • Registratie: juni 2008
  • Laatst online: 14-06-2018
Nu ik de laatste paar posts van CJ een aantal keer goed gelezen heb, ben ik ervan overtuigd dat we dit gerucht aan de geruchtenmolen kunnen toevoegen: RV870, Cypress, is een single-gpu chip: 100%. ;)
Edit:single-gpu/single-core.

[Voor 9% gewijzigd door Coinstreet op 12-09-2009 14:41]

Thinking, Fast and Slow


  • Weiman
  • Registratie: september 2007
  • Laatst online: 21-09 14:04
True, maar wie zegt dat het geen dual-core chip is? ;)

  • EdwardvGelder
  • Registratie: december 2007
  • Laatst online: 23-09 09:36
Tomminightmare schreef op zaterdag 12 september 2009 @ 12:53:
[...]


Het is niet zo maar de verhoudingen zijn als volgt.
800 SP is verdeeld over tien SIMD cores met elk 16 clusters van 5 streamprocessoren. 4 van deze kunnen dotproducten,bitshifts, additie. De andere kan ook sinussen, complexere operaties. Ik weet niet meer hoeveel texture units elke SIMD core heeft.
Correct me if im wrong.
Ok, het zou dus wel mogelijk zijn?

Trouwens: nieuws: Acer brengt Ferrari-notebook op basis van AMD's Congo-platform uit

Hier een stukje uit het artikel: De laptop heeft een XGP-connector aan boord, die het mogelijk maakt om een externe grafische kaart aan te sluiten voor meer grafische kracht. :D _/-\o_ :9~ O+

Hopelijk komen er nog meer fabrikanten met zo'n aansluiting in de laptops dan heb je veel meer kans dat het mainstream wordt! Dan nog een laptop met de nieuwe laptop processors van Amd en mijn laptop is geboren :)
Thuis lekker de HD5870 1of2gb via xgp aansluiten en kunnen gamen en onderweg nog wel de portabiliteit hebben van een laptop, kan niet beter!

Systeem -> http://tweakers.net/gallery/243108/sys Powered by Ati/Amd Radeon 5870/Ph2 955@3,8ghz


  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 17-09 14:37

Xenomorphh

Soep met Ballen

Weiman schreef op zaterdag 12 september 2009 @ 14:19:
True, maar wie zegt dat het geen dual-core chip is? ;)
zeker maar dan vraag ik me eigenlijk af heb je dan ook dubbele shader units of blijven die gelijk alleen verdeelt over 2 cores ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • MrOleo
  • Registratie: augustus 2006
  • Laatst online: 17:10
Ik denk dat het hele cypress is 2x-830/840 verhaal net van de verkeerde kant wordt bekeken. Ik denk dat Ati/AMD de RV870 heeft ontworpen als zijnde de performance/basis chip van deze generatie, waarbij ze in gedachten hebben gehouden dat ze hiermee ook mainstream en budget segment moesten kunnen bestrijken.

De RV830/840 is dan zeg maar een Rv 870 met de helft eruit gesloopt (, met RV810 wellicht 1/4 RV870 en R800 = 2x RV870).
Dit is door verschillende bronnen "foutief" vertaalt als RV870 is dual RV830/840 mcm, terwijl het eerder RV830 = 1/2 RV870 is.

Dat is mijn 2 1/2 ct.

Xsiedit


  • disco stu
  • Registratie: mei 2005
  • Laatst online: 04-08-2016
Dus het hele zogenaamde "dual-core" verhaal heeft als enig voordeel dat alle onderdelen van de GPU dubbel zijn uitgevoerd. Als er dus een fout ergens zit in de die, kan die ene "core" waar de fout zit van de die uitgeschakeld worden en kan de andere core nog gebruikt worden 800SP GPU, zodat de chip alsnog verkocht kan worden.
Voor de rest heeft het "dual-core" verhaal geen enkel meerwaarde ten aanzien van een 1-core chip waarbij niet alle onderdelen dubbel/meervoudig zijn uitgevoerd.

Als ik het goed begrijp.

  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 17-09 14:37

Xenomorphh

Soep met Ballen

disco stu schreef op zaterdag 12 september 2009 @ 14:49:
Dus het hele zogenaamde "dual-core" verhaal heeft als enig voordeel dat alle onderdelen van de GPU dubbel zijn uitgevoerd. Als er dus een fout ergens zit in de die, kan die ene "core" waar de fout zit van de die uitgeschakeld worden en kan de andere core nog gebruikt worden 800SP GPU, zodat de chip alsnog verkocht kan worden.
Voor de rest heeft het "dual-core" verhaal geen enkel meerwaarde ten aanzien van een 1-core chip waarbij niet alle onderdelen dubbel/meervoudig zijn uitgevoerd.

Als ik het goed begrijp.
maar 2 cores met 1600SP is toch sowieso sneller dan 1 core met 1600SP?

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • disco stu
  • Registratie: mei 2005
  • Laatst online: 04-08-2016
Xenomorphh schreef op zaterdag 12 september 2009 @ 14:58:
maar 2 cores met 1600SP is toch sowieso sneller dan 1 core met 1600SP?
Wel ik zou niet weten waarom.

Als het toch zo is wil ik daar graag het fijna van weten.


Hm bedoel je nu 2 cores met elk 1600SP sneller dan 1 core met 1600SP -> ok in dat geval wel.

Of bedoel je 2 cores met elk 800SP resulterende in in totaal 1600SP sneller dan 1 core met 1600SP ->
Wel ik zou niet weten waarom.
Als het toch zo is wil ik daar graag het fijna van weten.

[Voor 34% gewijzigd door disco stu op 12-09-2009 15:05]


  • The Flying Dutchman
  • Registratie: mei 2000
  • Laatst online: 21-09 13:11
Ik weet niet echt wat ik hier nou uit moet halen:
CJ schreef op zaterdag 12 september 2009 @ 12:12:
1) Dat een kleinere die minder kans zou hebben op fouten en daardoor hogere yields zou hebben is niet per definitie waar. Naarmate de processen steeds kleiner worden en de chips relatief gezien steeds meer transistors bevatten, is het steeds moeilijker om fouten op te sporen. Er zijn inmiddels technieken op de markt waarmee je dit kan voorkomen... en waardoor je met een grotere die juist een betere yield zal hebben en ook nog eens een lagere temperatuur kan bereiken. Een van die technieken is een fault-tolerant design door meer zaken in te bakken dan eigenlijk nodig is (bv zgn "loze transistors" om hitte problemen te voorkomen of extra redundancy. Door beide zal de die-size iets groter worden dan had gehoeven).
Helemaal waar natuurlijk, maar als je deze technieken even buiten beschouwing laat blijft het wel zo dat een kleinere die zeer waarschijnlijk hogere yields behaald dan een grotere die. Dat mensen niet gaan denken dat nVidia straks betere yields haalt omdat ze een hele grote die hebben ;).
2) AMD wijkt toch ook niet af van die stategie? Je krijgt HD4870X2 performance (of zelfs beter) maar hebt er slechts 1 GPU van ~330mm2 voor nodig ipv 2 GPUs van 256mm2, terwijl het stroomverbruik enorm naar beneden vliegt en je extra functies krijgt als DX11 en Eyefinity. NVIDIA komt straks met een GPU die vele malen groter is. Vergeet niet dat de Cypress ongeveer even groot is als de G92 GPU van nVidia, maar toch vele malen sneller is.
Hier zeg je 1 GPU. De vraag is alleen... is deze ene GPU een dual core GPU? Het blijft nog steeds onduidelijk ;).
3) Het verschil tussen 2 GPUs op 1 die tov 1 single GPU lijkt me duidelijk... je hebt van alles dubbel... ook zaken die je helemaal niet dubbel hoeft te hebben... dubbele memory interface, dubbele display outputs,
Aha!
Dit lijkt een aanwijzing te zijn voor een dual GPU op één die. Want is het niet zo dat de eerste HD5870 kaarten die uitkomen allemaal 3 monitoren ondersteunen en dus 3 werkzame display outputs hebben? Een tijdje later zullen de HD5870's komen die 6 monitoren ondersteunen en dus 6 werkzame display outputs hebben. Kortom: het zou zo maar eens kunnen zijn dat we hier over 2 gpu's op één die praten die elk 3 display outputs hebben. Een reden voor uitstel van HD5870's die 6 displays ondersteunen zou misschien kunnen zijn dat AMD eerst voldoende werkzame chips moet verzamelen waarbij alle 6 display outputs werken.
... dubbele CFX Port, dubbele UVD engine... Bepaalde dingen zullen niet efficient samen werken tenzij er veel research in wordt gepompt... en daar is het nu nog even te vroeg voor.
Je noemt hier niet de streamprocessors... ik kan me voorstellen dat het wél relatief eenvoudig is om de streamprocessors samen te laten werken. Immers: een enkele gpu heeft al een hele hoop streamprocessors die allemaal parallel hun werk doen. Aangezien dit al parallel werkt, is het misschien niet heel erg ingewikkeld om dit stuk wel efficient te gebruiken in een dual-core gpu.
De complexiteit gaat onevenredig omhoog. Dan is het voordeliger, sneller en efficienter om met een single GPU oplossing te komen waar wel alle belangrijke zaken waar je performance mee kan winnen van de vorige generatie in verdubbeld is. Dus streamprocessors en TMUs. Zie Cypress als een dubbele RV770 (of Juniper als je wilt) op 1 die met DX11 en veel tweaks zonder alle overbodige shit.
Hier lijk je in eerste instantie toch vrij duidelijk te zeggen dat het om een single core GPU gaat. Hoewel je ook weer zegt dat je het moet zien als een dubbele RV770 of Juniper. Wat is het nou? Kortom... de vraag is dus eigenlijk een beetje... bevat RV770 nou de dubbele CFX Port, dubbele UVD engine, dubbele memory interface en dubbele display outputs (al dan niet met de helft uitgeschakeld)?
Op CPU gebied gaat AMD wel de MCM route op met de Magny Cours CPU terwijl ze vroeger altijd 'tegen' MCM waren en 'voor' native (quad)cores. Dus wie weet kunnen ze dezelfde technieken straks toepassen op GPUs door alles via een hypertransportlink aan elkaar te koppelen.
Dit zou wel eens een `moetje' kunnen zijn. AMD loopt behoorlijk achter op Intel op cpu gebied, in het verleden was AMD inderdaad altijd tegen MCM en voor de native (quad)cores. Maar waar heeft hen dat gebracht? AMD heeft ook aangegeven dat het misschien inderdaad wel een goed idee is om twee cores aan elkaar te plakken om zo sneller met een verdubbeling van het aantal cores te kunnen komen. Ik vermoed dat ze dat nu doen om weer enigzins in de buurt van Intel te kunnen komen.

Op GPU gebied ziet het er momenteel heel anders uit. AMD lijkt een hele mooie voorsprong op nVidia op te bouwen. Het is niet nodig om met een MCM oplossing te komen, AMD heeft de mogelijkheid om het gelijk `goed' te doen en hoeft geen `rare bokkesprongen' te maken om op performance gebied bij te komen.

Nu weet ik niet precies wat ervoor nodig is om twee dies aan elkaar te plaken op een MCM, maar het lijkt mij dat dit zijn eigen problemen ook weer kent:
Bij een MCM heb je drie dingen: 2x een gpu en 1x de MCM. Dit zal toch op de één of andere manier aan elkaar verbonden moeten worden op een manier waarbij de gpu's goed met elkaar samen kunnen werken. De verbinding moet een voldoende hoge capaciteit en snelheid hebben om efficient te kunnen zijn. Als je aan de andere kant 2 gpu's op één die hebt, dan is het één ding. Je hebt geen losse onderdelen die je vervolgens nog eens met elkaar moet verbinden. Dat lijkt me toch een groot voordeel van twee gpu's op één die ten opzichte van twee gpu's op een MCM.

Daarnaast vraag ik me af of de hypertransport link voldoende capaciteit biedt voor het verbinden van GPU's. De snelste hypertransport bus van het moment biedt 2 x 25.6 GB/s (dat is 25.6GB/s voor de ene kant op en 25.6GB/s voor de andere kant op). Dat betekend dus: als je het geheugen wilt delen tussen beide gpu's, dan val je terug van zo'n 150GB/s naar 25.6GB/s. Dat dit lang niet genoeg is hoef ik vast niet uit te leggen. Wellicht zijn hier wel oplossingen voor te verzinnen (ik denk even uit mijn leunstoel, geen flauw idee of dit in werkelijkheid tot de mogelijkheden behoort): beide gpu's hebben een eigen geheugenbus naar dezelfde geheugenpool. Dit betekend echter dat de gpu's van elkaar moeten weten waar ze mee bezig zijn, anders kan het voorkomen dat ze op hetzelfde moment proberen hetzelfde stuk geheugen te gebruiken. Hiervoor zou een hypertransportbus waarschijnlijk wel snel genoeg zijn (je hoeft dan alleen maar de boodschap over te brengen dat een bepaalde geheugenrange even niet beschikbaar is).

The Flying Dutchman


  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 17-09 14:37

Xenomorphh

Soep met Ballen

disco stu schreef op zaterdag 12 september 2009 @ 15:02:
[...]

Wel ik zou niet weten waarom.

Als het toch zo is wil ik daar graag het fijna van weten.


Hm bedoel je nu 2 cores met elk 1600SP sneller dan 1 core met 1600SP -> ok in dat geval wel.

Of bedoel je 2 cores met elk 800SP resulterende in in totaal 1600SP sneller dan 1 core met 1600SP ->
Wel ik zou niet weten waarom.
Als het toch zo is wil ik daar graag het fijna van weten.
2 cores met elk 800sp lijkt mij sneller dan 1 core met 1600 SP lijkt me beetje zelfde principe als een CPU.. een duo core 2ghz is ook sneller dan een single core 2 ghz of 4 ghz ligt er maar aan hoe je wil bekijken.. (afgaande op zelfde architectuur natuurlijk..)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • Weiman
  • Registratie: september 2007
  • Laatst online: 21-09 14:04
Het leuke aan een Dualcore GPU is dat het gewoon perfect schaalt.. gewoon SFR gebruiken, klaar. De textures hoeven maar één keer geprocessed te worden en in dezelfde gesharede memorypool gezet te worden. Perfecte schaling. CPU bottleneck, wasda?

  • Tyranium
  • Registratie: december 2003
  • Niet online

Tyranium

Ero-sennin

Xenomorphh schreef op zaterdag 12 september 2009 @ 15:44:
[...]


2 cores met elk 800sp lijkt mij sneller dan 1 core met 1600 SP lijkt me beetje zelfde principe als een CPU.. een duo core 2ghz is ook sneller dan een single core 2 ghz of 4 ghz ligt er maar aan hoe je wil bekijken.. (afgaande op zelfde architectuur natuurlijk..)
Nee, je vergelijking klopt niet, want SP's zijn iets heel anders dan bijv. de snelheid waarop zo'n GPU loopt. Wat jij nu zegt is dat 1 core langzamer is dan als je diezelfde core doormidden "snijdt". Zelfs als die 2 cores dan 100% efficiënt met elkaar samenwerking zijn ze nog steeds niet sneller dan 1.(mits het dezelfde architectuur is etc)

  • Coinstreet
  • Registratie: juni 2008
  • Laatst online: 14-06-2018
[quote]The Flying Dutchman schreef op zaterdag 12 september 2009 @ 15:34:

Hier lijk je in eerste instantie toch vrij duidelijk te zeggen dat het om een single core GPU gaat. Hoewel je ook weer zegt dat je het moet zien als een dubbele RV770 of Juniper. Wat is het nou? Kortom... de vraag is dus eigenlijk een beetje... bevat RV770 nou de dubbele CFX Port, dubbele UVD engine, dubbele memory interface en dubbele display outputs (al dan niet met de helft uitgeschakeld)?
[...]

De vraag is of RV770 een dubbele CFX port bevat? Hoe kom je daar ineens op? Ik volg je hier even niet. (Je bedoeld Cypress, rv870?)

Zoals ik het begrepen heb:
Stel je maakt een HD4870 op 40nm, aangenomen dat die wel rond de 150mm zal worden, dan prop je er alleen 800sp's bij en Tmu's, zit je rond de 300mm, dan extra functies enzo en je hebt de 5870.

Als CJ zegt dat je het kan zien als een dubbele juniper, moet je niet meteen denken 2 x een juniper core met alles erop op 1 die. Dat geeft hij ook aan dat dat nu nog even niet efficient is.

Thinking, Fast and Slow


  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 17-09 14:37

Xenomorphh

Soep met Ballen

Tyranium schreef op zaterdag 12 september 2009 @ 16:18:
[...]


Nee, je vergelijking klopt niet, want SP's zijn iets heel anders dan bijv. de snelheid waarop zo'n GPU loopt. Wat jij nu zegt is dat 1 core langzamer is dan als je diezelfde core doormidden "snijdt". Zelfs als die 2 cores dan 100% efficiënt met elkaar samenwerking zijn ze nog steeds niet sneller dan 1.(mits het dezelfde architectuur is etc)
ah ok thx ;) dacht dat 2 cores efficiënter waren :)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


  • glennvho
  • Registratie: mei 2009
  • Laatst online: 22-09 10:58
Zojuist is er een artikel verschenen op computerbase (Duits) met alle details en prijzen in € voor de hd5xxx serie: http://www.computerbase.d...atis_radeon_5000er_serie/

Lijkt mij toch geen € 400 zoals sommigen hier zeggen ;)

  • Naluh!
  • Registratie: juni 2003
  • Niet online
Het jaar waarin nog ik weet niet hoeveel mensen een TV in huis hebben die geen modernere ingang heeft dan Scart....

Erg jammer, misschien moet ik dan tóch maar weer voor een DX10.1 kaart gaan :')

Specs


  • Xenomorphh
  • Registratie: april 2009
  • Laatst online: 17-09 14:37

Xenomorphh

Soep met Ballen

glennvho schreef op zaterdag 12 september 2009 @ 16:41:
Zojuist is er een artikel verschenen op computerbase (Duits) met alle details en prijzen in € voor de hd5xxx serie: http://www.computerbase.d...atis_radeon_5000er_serie/

Lijkt mij toch geen € 400 zoals sommigen hier zeggen ;)
minder dan 275 euro klinkt te mooi om waar te zijn.. dan bestel ik er gelijk 2..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!

Waar staan de prijzen op die website in Euros dan? (ps: Duitsland is niet Nederland)
The Flying Dutchman schreef op zaterdag 12 september 2009 @ 15:34:
Aha!
Dit lijkt een aanwijzing te zijn voor een dual GPU op één die. Want is het niet zo dat de eerste HD5870 kaarten die uitkomen allemaal 3 monitoren ondersteunen en dus 3 werkzame display outputs hebben? Een tijdje later zullen de HD5870's komen die 6 monitoren ondersteunen en dus 6 werkzame display outputs hebben. Kortom: het zou zo maar eens kunnen zijn dat we hier over 2 gpu's op één die praten die elk 3 display outputs hebben. Een reden voor uitstel van HD5870's die 6 displays ondersteunen zou misschien kunnen zijn dat AMD eerst voldoende werkzame chips moet verzamelen waarbij alle 6 display outputs werken.
Helaas. Elke HD5870 GPU ondersteunt van huis uit 6 monitoren, alleen zullen de meeste fabrikanten slechts 3 outputs ondersteunen. Alleen de speciale versie met 6 mini displayport outputs (HD5870 Six) zal ook echt 6 monitoren kunnen aansturen.

Wil je bewijs? Alsjeblieft, de display engine van een enkele Cypress:








^^ HD5870 Six


^^ Aansluitmogelijkheden normale HD5870


^^ Aansluitmogelijkheden HD5870 Six
Je noemt hier niet de streamprocessors... ik kan me voorstellen dat het wél relatief eenvoudig is om de streamprocessors samen te laten werken. Immers: een enkele gpu heeft al een hele hoop streamprocessors die allemaal parallel hun werk doen. Aangezien dit al parallel werkt, is het misschien niet heel erg ingewikkeld om dit stuk wel efficient te gebruiken in een dual-core gpu.
Ik noem de streamprocessors niet omdat deze al wel goed samen kunnen werken en er dus niks overbodig is als je twee GPUs bij elkaar zet. Andere onderdelen kunnen echter wel overbodig zijn.
Hier lijk je in eerste instantie toch vrij duidelijk te zeggen dat het om een single core GPU gaat. Hoewel je ook weer zegt dat je het moet zien als een dubbele RV770 of Juniper. Wat is het nou? Kortom... de vraag is dus eigenlijk een beetje... bevat RV770 nou de dubbele CFX Port, dubbele UVD engine, dubbele memory interface en dubbele display outputs (al dan niet met de helft uitgeschakeld)?
Als ik zeg dat je iets op een bepaalde manier kan zien om het te versimpelen, wil dat niet zeggen dat het ook zo is.... Je kan het zien als... Het is een single-core GPU, maar in principe is elke GPU al multi-core al sinds de dagen van de R300 (of zelfs eerder). Daar werkte men in blokken van 4 pipelines, 4 TMUs, 64-bit MCs (en later heel even 32-bit) en werd dit in allerlei varianten geproduceerd. Later veranderden de pipelines natuurlijk in SIMDs en SPs van verschillende grotes, maar erg flexibel wat betreft inzet.

RV350 met 1 pipeline-blok=4 pipelines, 4 TMUs, 2x64-bit=128-bit
R300 met 2 pipeline-blokken=8 pipelines, 8 TMUs, 4x64-bit=256-bit
R420 met 4 pipeline-blokken=16 pipelines, 16 TMUs, 4x64-bit=256-bit
R520(R580) met 4 pipeline-blokken=16 pipelines (x3 shadereninges voor R580), 16 TMUs, 8x32-bit=256-bit
etc etc etc

Een R420 zou je dus eigenlijk ook kunnen zien als een native quadcore GPU aangezien het vier maal een RV350 is. Deze methodiek kan je ook toepassen op de huidige en aankomende serie. Modulair en dus gemakkelijk schaalbaar.
Nu weet ik niet precies wat ervoor nodig is om twee dies aan elkaar te plaken op een MCM, maar het lijkt mij dat dit zijn eigen problemen ook weer kent
AMD (of eigenlijk ATI) heeft de expertise in huis om prima werkende MCM GPUs te maken. Ze maken voor laptops al MCMs waarbij de GPU en memory-modules zich op dezelfde package bevinden. En de Xbox360 GPU is natuurlijk ook het ultieme voorbeeld van een MCM GPU, waarbij de dochter-die bijvoorbeeld alle ROPs in zich heeft zitten en 10MB embedded RAM. Ook hier moesten ze rekening houden met voldoende bandbreedte tussen de twee dies, maar ook tussen de twee dies en de rest van het systeem omdat de GPU hier ook nog eens als northbridge fungeert.





Om hier nog even op verder te gaan, ATI had 175 engineers ingezet op de ontwikkeling van de C1 (ook wel Xenos genaamd) in de Xbox360. Deze moesten met allerlei nieuwe technieken komen zoals Intelligent Memory en moest er van alles aan elkaar gekoppeld worden... zoals dat de GPU in het geheugen kan tappen van het systeem, maar ook dat de GPU kan praten met de daughterdie zonder dat de bandbreedte een beperking wordt.
glennvho schreef op zaterdag 12 september 2009 @ 16:41:
Zojuist is er een artikel verschenen op computerbase (Duits) met alle details en prijzen in € voor de hd5xxx serie: http://www.computerbase.d...atis_radeon_5000er_serie/

Lijkt mij toch geen € 400 zoals sommigen hier zeggen ;)
Er werd hier in dit topic gesproken over $400 en niet 400. Om de een of andere reden schijnen mensen dit gelijk te trekken. Wat Computerbase gedaan heeft is een conversie maken op basis van de huidige wisselkoers, immers $399 is ongeveer €275. We weten allemaal wel dat dit niet indicatief is voor de prijzen hier in Europa en dat dit vaak wat hoger zal liggen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

CJ, moet er bij die 275 euro niet al sowieso de BTW?

  • glennvho
  • Registratie: mei 2009
  • Laatst online: 22-09 10:58
vipeax schreef op zaterdag 12 september 2009 @ 16:55:
Waar staan de prijzen op die website in Euros dan? (ps: Duitsland is niet Nederland)
Nja, eerst stond er bij de de hd5850 en hd5870 ook een prijs in euro maar zoals CJ al zij zal dit waarschijnlijk gewoon omgerekend zijn volgens de wisselkoersen. Maar ik kan mij toch niet voorstellen dat ze voor een enkele hd5870 €400 zullen vragen.

  • Wes
  • Registratie: juli 2002
  • Niet online
Een discussie die hier in het verleden ook wel gevoerd is, is in hoeverre het zinnig is om bij GPU's over cores te spreken. Een klassieke CPU bestond uit 1 core die 1 taak tegelijk uit kon voeren, nieuwere processoren konden dat steeds sneller, en sneller, en sneller (gigahertzrace). Op een gegeven moment was de rek er uit en is men het in parallellisatie gaan zoeken om zodoende de prestaties nog op te kunnen schroeven, er kwamen dus CPU's met meerdere cores. Echter, een klassieke GPU bestaat al uit honderden c.q. duizenden rekeneenheden (streamprocessing units, texture units, etc. etc.) en gebruiken dus al veel meer parallellisatie dan CPU's ooit gedaan hebben. Van daaruit kun je dus ook niet echt spreken van een single of een dualcore GPU. Een GPU is meer een blokkendoos waar allerlei verschillende soorten blokken in zitten. Een snellere versie heeft dan meer streamprocessing units, maar bijv. nog steeds maar 1 UVD blokje omdat meerdere daarvan overbodig is. Zoals CJ ook al zei, als je twee GPU's daadwerkelijk als een dualcore aan elkaar zou plakken krijg je allerlei zaken dubbel waar dat helemaal niet nodig is, overbodig en onhandig dus.

Hoe dat dan met Cypress zit is even de vraag. Wat bijvoorbeeld zou kunnen is dat de basis voor het ontwerp de RV840 geweest is, en dat ze voor de RV870 simpelweg het ontwerp van de streamprocessing units van de RV840 gepakt hebben, en dat 2x op een die hebben gemikt, en dat daar dat hele dual core verhaal vandaan komt. Maar goed dat is pure speculatie, hoe het echt zit weet ik niet. Misschien dat dat na het aflopen van de NDA wat duidelijker wordt. :)

[Voor 14% gewijzigd door Wes op 12-09-2009 17:10. Reden: Het was anderen ook al opgevallen dat er geen europrijzen op glennvho's link staan]

Ik denk nog altijd dat het rond de prijs zal zitten waar ik het 10 september over had.
vipeax in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
HD5850 1GB $299 => €284,05
HD5870 1GB $349 => €331,55
HD5870 2GB $399 => €379,05

maar prijzen speculatie is geen nieuws dus ;).

[Voor 10% gewijzigd door Vipeax op 12-09-2009 17:09]


  • Dani86
  • Registratie: februari 2007
  • Laatst online: 15:14

Dani86

AeroGeek

Dat is wel duur $399 is 379EUR.

399 dollar is 274 euro. 274x1.19(btw) = 326 euro. En de dollar daalt ook nog de komende tijd. Met evt schaarste van de kaarten ga ik uit van 330-350 Euro per kaart. Toch wel een stuk duurder dan de 48xx.

Ryzen 5 3600 - 32GB RAM @ 3200 MHz - RX5600XT - Kingston a2000 500GB nvme


  • Phenomania
  • Registratie: december 2008
  • Laatst online: 18-05 21:42
*Alarm speculatie speculatie alarm* :P

De 2GB zal toch minimaal 350 kosten, maar ik ga ook uit van zoiets rond 380... Europa gooit er meestal wel wat bovenop ;)

i7 4770K @ 4,5 | Z87 Sabertooth | Kingston HyperX 16 GB DDR3-2400 | Asrock RX 5700 Challenger | Samsung 860 Evo 1TB | Corsair AX860i | Corsair H100i | Phanteks Enthoo Primo | Asus PB278Q 27" 2560x1440


  • Dani86
  • Registratie: februari 2007
  • Laatst online: 15:14

Dani86

AeroGeek

foutje

[Voor 98% gewijzigd door Dani86 op 12-09-2009 18:03]

Ryzen 5 3600 - 32GB RAM @ 3200 MHz - RX5600XT - Kingston a2000 500GB nvme


  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 25-09 21:25
Het enige interessante aan dat Duitse artikel, vind ik de vermelding van de HD5870X2 die enkele weken later zal verschijnen. Ik ga dan maar gemakshalve uit van eind oktober ;) en dat is dus dus niet ergens november/december zoals eerder in dit topic voorbij kwam.
Dani86 schreef op zaterdag 12 september 2009 @ 17:59:
Dat is wel duur $399 is 379EUR.

399 dollar is 274 euro. 274x1.19(btw) = 326 euro. En de dollar daalt ook nog de komende tijd. Met evt schaarste van de kaarten ga ik uit van 330-350 Euro per kaart. Toch wel een stuk duurder dan de 48xx.
Het zal voornamelijk afhangen van wat de concurrentie tussen de merken & winkels gaat doen.


Hier moeten wij het van hebben als consument wat betreft prijzen (zie de lage prijs in juni).... ;)

  • Marc Rademaker
  • Registratie: juli 2007
  • Laatst online: 30-07 13:11
Daar hebben we natuurlijk de Pricewatch voor hè, Vipeax ;)

Ja klopt, ik had toevallig de website van hardware.info open voor iets anders, mijn excuses... :$ O+ tweakers way more ;)

[Voor 41% gewijzigd door Vipeax op 12-09-2009 20:57]


  • Phenomania
  • Registratie: december 2008
  • Laatst online: 18-05 21:42
vipeax schreef op zaterdag 12 september 2009 @ 20:54:
Ja klopt, ik had toevallig de website van hardware.info open voor iets anders, mijn excuses... :$ O+ tweakers way more ;)
"toevallig" ja ja :P

Ben erg beniewd naar de afmeting van de HD5870x2... misschien maar overstappen naar een Nine Hundred Two ;)

i7 4770K @ 4,5 | Z87 Sabertooth | Kingston HyperX 16 GB DDR3-2400 | Asrock RX 5700 Challenger | Samsung 860 Evo 1TB | Corsair AX860i | Corsair H100i | Phanteks Enthoo Primo | Asus PB278Q 27" 2560x1440


  • Ed_L
  • Registratie: januari 2006
  • Laatst online: 08:55

Ed_L

Edmin
Naluh! schreef op zaterdag 12 september 2009 @ 16:43:
[...]

Het jaar waarin nog ik weet niet hoeveel mensen een TV in huis hebben die geen modernere ingang heeft dan Scart....
Tot op zekere hoogte is het vasthouden van oudere standaards natuurlijk prima, maar dankzij dat sort geneuzel zitten we nu nog met IDE, FDD en VGA aansluitingen. To name but a few.

  • neliz
  • Registratie: oktober 1999
  • Laatst online: 24-01 15:32

neliz

GIGABYTE Man

Ed_L schreef op zaterdag 12 september 2009 @ 22:41:
Tot op zekere hoogte is het vasthouden van oudere standaards natuurlijk prima, maar dankzij dat sort geneuzel zitten we nu nog met IDE, FDD en VGA aansluitingen. To name but a few.
Inderdaad, die non-adopters maken de economie kapot!

HD5870 SIX en een set nieuwe schermen te duur? -> http://www.frisia.nl/

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • SECURITEH
  • Registratie: februari 2008
  • Laatst online: 05:39

SECURITEH

Man of legend.

Ed_L schreef op zaterdag 12 september 2009 @ 22:41:
[...]

Tot op zekere hoogte is het vasthouden van oudere standaards natuurlijk prima, maar dankzij dat sort geneuzel zitten we nu nog met IDE, FDD en VGA aansluitingen. To name but a few.
Als een product voldoende is voor de gemiddelde consument is het onzin om het duurdere nieuwe alternatief te nemen...
Technische vooruitgang is niet slecht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • SirNobax
  • Registratie: mei 2007
  • Laatst online: 10:49
Ed_L schreef op zaterdag 12 september 2009 @ 22:41:
[...]
Tot op zekere hoogte is het vasthouden van oudere standaards natuurlijk prima, maar dankzij dat sort geneuzel zitten we nu nog met IDE, FDD en VGA aansluitingen. To name but a few.
offtopic:
Laatst heb ik een moederboard van Intel (het merk Intel dus, een mATX Q45 bordje) ingebouwd bij een kennis, deze had geen PS/2 aansluitingen, geen ATA-133 kabels en geen FDD aansluiting.
Buiten dat ik diegene tot tweemaal terug naar de computerwinkel kon sturen omdat hij een semi-antieke optische drive en toetsenbord had, kreeg ik wel een beetje een warm gevoel van binnen. d:)b

Hopelijk gaan binnenkort alle CRT monitoren/TV's dood, zijn we ook eindelijk van die analoge rommel af. :')

Pentaxiaan


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 25-10-2019
Wezz6400 schreef op zaterdag 12 september 2009 @ 17:07:
Zoals CJ ook al zei, als je twee GPU's daadwerkelijk als een dualcore aan elkaar zou plakken krijg je allerlei zaken dubbel waar dat helemaal niet nodig is, overbodig en onhandig dus.
Niet noodzakelijk, soms kan je niet anders, de plaatsing van de blokken tov elkaar is erg belangrijk en word een steeds groter probleem, dat is trouwens de hoofdreden dat CPUs momenteel multicore zijn.
Als de lithografie kleiner wordt wordt de snelheid van de signalen in de chip ook lager (lineair verband als ik het me goed herinner). Als je een chip op hoge snelheid wil laten werken beperk je de afstand die de signalen maximaal kunnen afleggen in 1 klokpuls dus moeten de blokken optimaal naast elkaar geplaatst worden, de timing van de signalen wordt zeer belangrijk. Het plaatsen van de blokken naast elkaar kan manueel (duur) gebeuren of door een grote cluster (goedkoop, minder goed) berekend worden. Het kan interessant zijn om een kleine manueel geoptimaliseerde core te maken die een volledig functionerende GPU is.
Een volledige lijn van GPU's opzetten wordt dan eenvoudige. Je kan bv. 5 cores naast elkaar zetten, verbinden met een bus, een geheugencontroller (met eventueel L2/3 cache) en een HW scheduler (en eventueel nog UVD etc). Het fysiek ontwerp van de core kan gekopieerd worden voor alle modellen (low end & high end).
Nu gaat het anders, voor elke chip is er een andere configuratie van shader-engine, TMU's, ROP's etc. die appart geöptimaliseerd (de chip layout & de productie) wordt, de chips hebben weinig fysieke gelijkenissen. Het voordeel van de huidige aanpak is een zeer flexibele architectuur maar je moet elk ontwerp apart optimaliseren.
Het voordeel van "mijn" aanpak is dat eens je een goed geoptimaliseerde core hebt zal hij maximaal hergebruikt worden, het optimalisatie werk wordt niet steeds opnieuw gedaan. Het nadeel is dat de TMU-shader engine-ROP configuratie/verhouding niet gewijzigd kan worden & wat redundantie. Met deze aanpak worden de risicos imho een stuk verkleint.

[Voor 15% gewijzigd door oeLangOetan op 12-09-2009 23:51. Reden: te snel verstuurd]


  • tomcatha
  • Registratie: oktober 2006
  • Laatst online: 21-07-2019
Is er een goede reden waarom ps2 moet verdwijnen? Is het duurder of iets dergelijks?

  • SirNobax
  • Registratie: mei 2007
  • Laatst online: 10:49
tomcatha schreef op zondag 13 september 2009 @ 00:22:
offtopic:
Is er een goede reden waarom ps2 moet verdwijnen? Is het duurder of iets dergelijks?
offtopic:
Mogelijke licentiekosten aan IBM (?), zwakke bouw (pinnentjes), geen plug en play, kosten inbouwen in chipset (ookal zijn deze minimaal), toetsenlimiet (?).

Maarja, dit is wel heel offtopic :>

Pentaxiaan


  • Wes
  • Registratie: juli 2002
  • Niet online
oeLangOetan schreef op zaterdag 12 september 2009 @ 23:38:
[...]

Niet noodzakelijk, soms kan je niet anders, de plaatsing van de blokken tov elkaar is erg belangrijk en word een steeds groter probleem, dat is trouwens de hoofdreden dat CPUs momenteel multicore zijn.
[...]
Aha! Dat wist ik niet, weer wat geleerd. :)

offtopic:
PS/2 hoeft niet persé te verdwijnen (anders was het al lang weg geweest) maar met de komst van USB is de aparte standaard voor muis/toetsenbord in principe overbodig. Blijkbaar zijn ze niet zo duur en ze nemen weinig ruimte in beslag dus zitten ze er nog.

  • Rutger Mulder
  • Registratie: april 2004
  • Laatst online: 16:48
oeLangOetan schreef op zaterdag 12 september 2009 @ 23:38:
[...]

Niet noodzakelijk, soms kan je niet anders, de plaatsing van de blokken tov elkaar is erg belangrijk en word een steeds groter probleem, dat is trouwens de hoofdreden dat CPUs momenteel multicore zijn.
Als de lithografie kleiner wordt wordt de snelheid van de signalen in de chip ook lager (lineair verband als ik het me goed herinner). Als je een chip op hoge snelheid wil laten werken beperk je de afstand die de signalen maximaal kunnen afleggen in 1 klokpuls dus moeten de blokken optimaal naast elkaar geplaatst worden, de timing van de signalen wordt zeer belangrijk. Het plaatsen van de blokken naast elkaar kan manueel (duur) gebeuren of door een grote cluster (goedkoop, minder goed) berekend worden. Het kan interessant zijn om een kleine manueel geoptimaliseerde core te maken die een volledig functionerende GPU is.
Een volledige lijn van GPU's opzetten wordt dan eenvoudige. Je kan bv. 5 cores naast elkaar zetten, verbinden met een bus, een geheugencontroller (met eventueel L2/3 cache) en een HW scheduler (en eventueel nog UVD etc). Het fysiek ontwerp van de core kan gekopieerd worden voor alle modellen (low end & high end).
Nu gaat het anders, voor elke chip is er een andere configuratie van shader-engine, TMU's, ROP's etc. die appart geöptimaliseerd (de chip layout & de productie) wordt, de chips hebben weinig fysieke gelijkenissen. Het voordeel van de huidige aanpak is een zeer flexibele architectuur maar je moet elk ontwerp apart optimaliseren.
Het voordeel van "mijn" aanpak is dat eens je een goed geoptimaliseerde core hebt zal hij maximaal hergebruikt worden, het optimalisatie werk wordt niet steeds opnieuw gedaan. Het nadeel is dat de TMU-shader engine-ROP configuratie/verhouding niet gewijzigd kan worden & wat redundantie. Met deze aanpak worden de risicos imho een stuk verkleint.
Daar doelde ik ook al op.

GA-EP45-DQ6 // E5450 @ 4 GHz // Thermalright HR-01 Plus // 2x 2GB Gskill PC8000 // gtx260 core216 // X-Fi ExtremeMusic // WD Raptor 150GB, WD GP 1x 1TB, 2x 2TB // Lian Li PC-A10B // Corsair HX650Watt // Dell 2407WFP // G15 + SS Sensei


  • TheMOD
  • Registratie: november 2008
  • Laatst online: 23-09 19:08
SirNobax schreef op zaterdag 12 september 2009 @ 23:23:
[...]

offtopic:
...

Hopelijk gaan binnenkort alle CRT monitoren/TV's dood, zijn we ook eindelijk van die analoge rommel af. :')
En mijn trouwe 22" beeldbuis dan? :'(
Phenomania schreef op zaterdag 12 september 2009 @ 21:25:
[...]


...

Ben erg beniewd naar de afmeting van de HD5870x2... misschien maar overstappen naar een Nine Hundred Two ;)
Maar stel dat de X2 langer dan 24cm wordt; gaan die dingen dan niet gewoon afbreken of zoiets? :9 Of kun je ze dan als plankje gebruiken? :P

  • Gurneyhck
  • Registratie: april 2002
  • Laatst online: 25-09 21:25
TheMasterofDome schreef op zondag 13 september 2009 @ 09:10:

[...]


Maar stel dat de X2 langer dan 24cm wordt; gaan die dingen dan niet gewoon afbreken of zoiets? :9 Of kun je ze dan als plankje gebruiken? :P
De HD5870 is net zo lang als de HD4870X2, maar weegt een stuk minder. Dus ik verwacht dat als de HD5870X2 langer wordt hij niet echt zwaarder wordt dan de HD4870X2, dus dat afbreken zal wel los lopen. Overigens heb je in echte grote kasten vaak modules waarop je het uiteinde van de videokaart kan laten steunen :*)

  • Splinter Cell
  • Registratie: november 2005
  • Laatst online: 15:12

Splinter Cell

AMD HD7850

Morgen dus de drivers voor de reviewers?

@Hacku: ik hoop dat je dan wat benchmark resultaten kunt laten doorschemeren. ;) Zoals bijvoorbeeld van Crysis :P
TheMasterofDome schreef op zondag 13 september 2009 @ 09:10:
[...]
Maar stel dat de X2 langer dan 24cm wordt; gaan die dingen dan niet gewoon afbreken of zoiets? :9 Of kun je ze dan als plankje gebruiken? :P
Maak je daar maar niet druk om... Zolang een GTX295 er nog aan kan blijven hangen dan zal de rest ook geen probleem zijn. ;)

  • XWB
  • Registratie: januari 2002
  • Niet online

XWB

Devver
Een GTX295 weegt zo zwaar nog niet, je bedoelt zolang een Asus Mars blijft hangen O-) Dat ding weegt 1,5kg.

It takes two fools to argue.


  • Phenomania
  • Registratie: december 2008
  • Laatst online: 18-05 21:42
Hacku schreef op zondag 13 september 2009 @ 12:30:
Een GTX295 weegt zo zwaar nog niet, je bedoelt zolang een Asus Mars blijft hangen O-) Dat ding weegt 1,5kg.
Als dat ding blijft hangen, dan hoef je je om een x2 geen zorgen te maken nee, wat een kliko zeg lol :P

i7 4770K @ 4,5 | Z87 Sabertooth | Kingston HyperX 16 GB DDR3-2400 | Asrock RX 5700 Challenger | Samsung 860 Evo 1TB | Corsair AX860i | Corsair H100i | Phanteks Enthoo Primo | Asus PB278Q 27" 2560x1440

Pagina: 1 2 3 ... 12 Laatste

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True