CJ's Radeon Info & Nieuwsdiscussie - Deel 128 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 8 ... 11 Laatste
Acties:
  • 41.863 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

SpankmasterC schreef op dinsdag 09 december 2014 @ 13:42:
[...]

Probeer anders een te spelen met GeDoSaTo, de Generic Down Sample Tool, http://blog.metaclassofnil.com/?tag=gedosato . Is een volledig softwarematige oplossing, werkt met alle kaarten. Helaas niet met alle games, moet wel DX9 zijn
Dank je, zat al een tijdje te zoeken naar deze. Was de naam vergeten }:O.

Hoe zit het dan met Nvidia en DSR, ik kan mij niet voorstellen dat alle oude kaarten ook al een betere scaler hebben. Het zou mij niet eens verbazen als Nvidia gewoon een software oplossing gebruikt.

Ik hoop dat AMD ook met meerdere opties komt.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 14:49:
[...]
Hoe zit het dan met Nvidia en DSR, ik kan mij niet voorstellen dat alle oude kaarten ook al een betere scalar hebben. Het zou mij niet eens verbazen als Nvidia gewoon een software oplossing gebruikt.
1) Het is 'scaler', niet 'scalar'. Een 'scalar' is een wiskundig begrip: http://en.wikipedia.org/wiki/Scalar_(mathematics)
2) Hoezo scaler? Het zijn 3d accelerators. Scalen/filteren van bitmaps is een triviale texture-operatie, die 3d accelerators al sinds de oertijd kunnen. Dus *zeker* een super-programmeerbare DX11-shader GPU.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 09 december 2014 @ 15:06:
[...]


1) Het is 'scaler', niet 'scalar'. Een 'scalar' is een wiskundig begrip: http://en.wikipedia.org/wiki/Scalar_(mathematics)
2) Hoezo scaler? Het zijn 3d accelerators. Scalen/filteren van bitmaps is een triviale texture-operatie, die 3d accelerators al sinds de oertijd kunnen. Dus *zeker* een super-programmeerbare DX11-shader GPU.
haarbal schreef op dinsdag 09 december 2014 @ 13:07:
De hardware scaler op de 290 kan het waarschijnlijk niet.

Maar goed, kan ook in software, in arma 2 / 3, battlefield 4 en vele andere games werkt het prima. Misschien wordt dit binnenkort toegevoegd.
Ik reageerde o.a. hierop, daarom was mijn reactie ook skeptisch opgesteld omdat ik het mij niet voor kon stellen dat die kaarten het niet kunnen. Lees voortaan eerst even de voorgaande reacties. (ja, dit gaat ook voor mij op).
Wat jij zegt over het schalen van plaatjes is logisch, natuurlijk doen videokaarten dit al lang veel sneller dan een cpu. Waar haarbal op doelde is waarschijnlijk een stukje gespecialiceerde (niet programmeerbare hardware). Nu weet ik niet of dit op grafische kaarten zit. Hij zou zo maar gelijk kunnen hebben want eerdere versies van Eyefinity konden ook niet overweg met elke resolutie en combinatie van beeldschermen. Eyefinity is hardwarematig en blijkbaar minder flexibel.

Dat ik scalar tik ipv scaler is jammer. Soms is mijn spelling niet goed ik draai dan dingen om weet niet of dit dyslexie is, ik probeer dit minimaal te houden door meerdere keren mijn post te lezen en/of het in de spelling checker te gooien :P.
Ik weet wat beide begrippen inhouden.

offtopic:
Fyi minder "vijandig" reageren kan geen kwaad. Zullen andere mensen je ook een stuk sneller serieus nemen. Iedereen maakt fouten, ik dus ook. Als ik dan elke keer zo'n post van jou mag verwachten, dat is de lol er al snel van af.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 09-12-2014 15:52 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op dinsdag 09 december 2014 @ 14:29:
De R9 285 heeft een nieuwere architectuur dus niet zo raar als die in dat opzich meer mogelijkheden heeft.
Misschien wel ja maar dit zou geen moeilijke technologie moeten zijn als ze het "later" ook op andere GPU's gaan voorzien, wat ik begrepen had. Het is dus zeer opvallend te noemen dat ze beslissen om een kaart die verre van indrukwekkend presteert om daar wel 4K UHD op te voorzien en bij de R9 290(X) niet.

Het toont misschien wel aan hoe snel ze de R9 390(X) willen gaan introduceren maar als day 1 buyer van een R9 290X ben ik een jaar na aankoop toch behoorlijk teleurgesteld:
- zeer minieme TrueAudio implementatie
- zeer beperkte voordelen Mantle tov. DX11
- VSR eigenlijk waardeloos (want max 3200x1800) *
- de meestgevraagde bugfixes zijn er sinds VANDAAG pas uit

Daar komen dan nog mijn persoonlijke pijnpunten bij:
- waardeloze reference cooler verplichtte me maanden te wachten of watercooling te plaatsen
- vervelende HDMI-DVI bug die sinds juni nog steeds niet opgelost is

Men kan wel stellen "ja maar AMD is ermee bezig". De R9 290-series is al meer dan een jaar vlot beschikbaar, als ze nu nog moeten beginnen met het volle potentieel eruit te halen. Nu stel ik niet dat Nvidia dit beter doet of iets dergelijks, ik wil hier zeker geen vergelijking maken, maar AMD (op zich) heeft in mijn ogen nog heel wat te goed qua beloftes.

Ik heb dus nog niets gehad aan Mantle of TrueAudio en binnenkort komt waarschijnlijk al de vervangende kaart uit. Nu komen ze met wat smoke and mirrors zoals video upscaling (sharpen filter :/ ), "performance improvements" die weinig in praktijk voorstellen en "Fluid Motion Video" wat enkel met BluRays in PowerDVD werkt, terwijl MadVR dit al een jaar doet met alle video files. Waar ik vroeger AMD nog regelmatig verdedigde als underdog, heb ik in 2014 gemerkt dat ze ook veel lege beloftes verkopen in de vorm van het onderbenutte Mantle of het nu al reeds vergeten TrueAudio.

* De meeste mensen met een R9 290X hebben minimaal een 1920x1080 scherm en waarschijnlijk zelfs nog wat hoger zoals een 2560x1440 (16:9) of 3440x1440 (21:9). Op die resoluties is 3200x1800 veel minder interessant aangezien je toch liefst een verdubbeling wilt.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Jammer dat je er zo over denkt.
Ik ben zelf heel tevreden over mijn R9 290X ook met refferenced cooler. Ja die mag heel wat stiller maar ikl heb hem heel lang gebruikt.

Pasta vervangen voltage wat lager en het was allemaal prima te doen. Ideaal is het inderdaad niet hopelijk gaan ze er in de toekomst veel betere coolers op zetten.

Ik ken de HDMI-DVI bug niet. Ik gebruik zelf alleen dual link DVI en Displayport.
En van echte bugs heb ik persoonlijk geen last gehad.f

Maar als je daar wel last van hebt kan ik me voorstellen dat je teleurgesteld bent.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 15:40:
[...]
Nu weet ik niet of dit op grafische kaarten zit.
HEEL lang geleden zat er speciale hardware in. In de tijd dat we nog geen 3d-acceleratie hadden. Toen kon je bv videos upscalen via overlays etc.
Maar overlay-support is al jaren geleden geschrapt in DirectX (als oude programma's het nog willen gebruiken, schakelt Windows tijdelijk Aero uit... en volgens mij krijg je dan een software-emulatie van die functionaliteit (een echte overlay is net als een sprite/hardware muiscursor: hij staat niet in het videogeheugen, maar wordt 'on the fly' naar de RAMDAC gestuurd, en ligt dan over het geheugen heen, op het scherm, vandaar de naam. Moderne hardware tekent gewoon een paar triangles met daarop een texture, en gebruikt alphablending/testing om het in videogeheugen over iets anders heen te renderen. He bent daarna wel het onderliggende kwijt in het geheugen, itt overlays/sprites/hardware muiscursors).

Op een gegeven moment was de 3d-acceleratie dusdanig snel en geavanceerd dat het geen nut meer had om nog specifieke bitmap-hardware geoptimaliseerd voor 2d in te bouwen. Sowieso draaien moderne GUIs compleet op Direct3D/OpenGL, dus ook vanuit de software-kant is het geen 2d meer.
In Aero is een window gewoon een rendertexture op twee triangles met een z-waarde.
Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 15:40:
Hij zou zo maar gelijk kunnen hebben want eerdere versies van Eyefinity konden ook niet overweg met elke resolutie en combinatie van beeldschermen. Eyefinity is hardwarematig en blijkbaar minder flexibel.
Eyefinity is niet hardwarematig (behalve dan het feit dat de videohardware daadwerkelijk zoveel schermen tegelijk moet kunnen aansturen).
Het is gewoon een driverfoefje. Probleem daarbij is dat 1 virtueel scherm in werkelijkheid 2 of meer fysieke rendertargets kunnen zijn, en dan is het wat lastiger om dat te gaan scalen en filteren.

Een ander probleem kan zijn dat bepaalde GPUs geen rendertargets boven een bepaalde grootte ondersteunen, dus stel dat de limiet 4096x4096 is... Als je dan in 2560x1600 zit oid, dan kun je dat niet op dubbele grootte renderen.
Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 15:40:
Dat ik scalar tik ipv scaler is jammer.
Ik heb 'scalar' de laaste dagen al veelvuldig langs zien komen in verschillende topics. Volgens mij was jij niet de enige, en mijn opmerking was ook meer algemeen bedoeld.

[ Voor 4% gewijzigd door Verwijderd op 09-12-2014 15:55 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Astennu schreef op dinsdag 09 december 2014 @ 15:52:
Maar als je daar wel last van hebt kan ik me voorstellen dat je teleurgesteld bent.
Ik sta nog niet op het punt hem te verkopen ofzo, zolang hij zijn werk doet, mag ik niet klagen. Het voordeel dat ik heb is dat ik momenteel nog geen te nieuwe games speel die driver updates nodig hebben om goed te functioneren, maar met GTA 5 en Dying Light onderweg, hoop ik dat de DVI-HDMI bug opgelost gaat zijn of ik moet een nieuw scherm of een andere GPU aanschaffen.

Mijn issue is vooral met de toegevoegde waarde die AMD in 11/2013 voorstelde, dat ik hier in de praktijk nog niets van heb gemerkt, zoals Mantle en TrueAudio. Destijds heb ik gekozen voor een R9 290X ipv. een GTX 780 omdat ik onder de indruk was van die "added value". En nu krijg je al helemaal een slag in het gezicht met beperkte VSR op de R9 290(X). Dan kan ik me al inbeelden hoe R9-295X2 eigenaars zich voelen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 09 december 2014 @ 15:52:
[...]


HEEL lang geleden zat er speciale hardware in. In de tijd dat we nog geen 3d-acceleratie hadden. Toen kon je bv videos upscalen via overlays etc.
Maar overlay-support is al jaren geleden geschrapt in DirectX (als oude programma's het nog willen gebruiken, schakelt Windows tijdelijk Aero uit... en volgens mij krijg je dan een software-emulatie van die functionaliteit (een echte overlay is net als een sprite/hardware muiscursor: hij staat niet in het videogeheugen, maar wordt 'on the fly' naar de RAMDAC gestuurd, en ligt dan over het geheugen heen, op het scherm, vandaar de naam. Moderne hardware tekent gewoon een paar triangles met daarop een texture, en gebruikt alphablending/testing om het in videogeheugen over iets anders heen te renderen. He bent daarna wel het onderliggende kwijt in het geheugen, itt overlays/sprites/hardware muiscursors).

Op een gegeven moment was de 3d-acceleratie dusdanig snel en geavanceerd dat het geen nut meer had om nog specifieke bitmap-hardware geoptimaliseerd voor 2d in te bouwen. Sowieso draaien moderne GUIs compleet op Direct3D/OpenGL, dus ook vanuit de software-kant is het geen 2d meer.
In Aero is een window gewoon een rendertexture op twee triangles met een z-waarde.


[...]


Eyefinity is niet hardwarematig (behalve dan het feit dat de videohardware daadwerkelijk zoveel schermen tegelijk moet kunnen aansturen).
Het is gewoon een driverfoefje. Probleem daarbij is dat 1 virtueel scherm in werkelijkheid 2 of meer fysieke rendertargets kunnen zijn, en dan is het wat lastiger om dat te gaan scalen en filteren.

Een ander probleem kan zijn dat bepaalde GPUs geen rendertargets boven een bepaalde grootte ondersteunen, dus stel dat de limiet 4096x4096 is... Als je dan in 2560x1600 zit oid, dan kun je dat niet op dubbele grootte renderen.


[...]


Ik heb 'scalar' de laaste dagen al veelvuldig langs zien komen in verschillende topics. Volgens mij was jij niet de enige, en mijn opmerking was ook meer algemeen bedoeld.
Inderdaad daarom vroeg ik dit mij dus af. Een stukje gespecialiceerde hardware is in de meeste gevallen gewoon sneller, tegenwoordig is dat niet meer nodig. Daarom vond ik het ook raar dat de "hardware scaler" van de 290 het niet zou kunnen.
Verbeter me maar als ik fout zit, maar een RAMDAC wordt tegenwoordig toch alleen nog maar voor VGA gebruikt. De digitale signalen maken hier geen gebruik meer van.
Jij hebt het dan denk ik over wat de ROP's doen. Deze zetten het laatste plaatje in elkaar en sturen het door.

De reden dat ik dacht dat Eyefinity hardwarematig is is door deze quote.
http://www.anandtech.com/show/2937/10
Carrell didn’t want anyone knowing about SunSpot, so he kept it off the Cypress PRS. Through some very clever maneuvering he managed to keep it off of the radar while engineering hammered out the PRS, and even managed to keep it off of the chopping block when the GPU was cut down in size. He knew that if anyone got wind of it, they’d ask him to kill it while the chip was being scaled down. To make matters worse, if anyone outside of a trusted few became aware of it - there was the chance that NVIDIA would have time to copy and implement the feature. It then became Carrell’s goal to keep SunSpot as quiet as possible.
Wat jij zegt klink inderdaad logisch. Vanuit de driver houdt je eigenlijk de games en andere applicaties voor de gek.

Ok, dan reageerde ik daar wat te persoonlijk op :P. Ik maak de fout als ik mijn tekst niet goed nalees, zal er in het vervolg op letten.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op dinsdag 09 december 2014 @ 16:08:
[...]

Ik sta nog niet op het punt hem te verkopen ofzo, zolang hij zijn werk doet, mag ik niet klagen. Het voordeel dat ik heb is dat ik momenteel nog geen te nieuwe games speel die driver updates nodig hebben om goed te functioneren, maar met GTA 5 en Dying Light onderweg, hoop ik dat de DVI-HDMI bug opgelost gaat zijn of ik moet een nieuw scherm of een andere GPU aanschaffen.

Mijn issue is vooral met de toegevoegde waarde die AMD in 11/2013 voorstelde, dat ik hier in de praktijk nog niets van heb gemerkt, zoals Mantle en TrueAudio. Destijds heb ik gekozen voor een R9 290X ipv. een GTX 780 omdat ik onder de indruk was van die "added value". En nu krijg je al helemaal een slag in het gezicht met beperkte VSR op de R9 290(X). Dan kan ik me al inbeelden hoe R9-295X2 eigenaars zich voelen.
Tja die added value is er nog steeds maar het was altijd afwachten hoeveel games het gingen ondersteunen. Turesound valt helaas tegen maar er zijn toch best wat games met Mantle support. Ik had niet verwacht dat het er zo veel zouden worden.

En qua prestaties heeft AMD vanaf het begin al gezegd dat het vooral veel winst op zou leveren voor mensen met trage CPU's. De meeste gamers hier draaien snelle Core i5 of I7 CPU's vaak zelfs overclocked. Dus de CPU bottelnek is dan aanzienlijk kleiner.

Ik weet niet of dat VSR ooit beslooft is. Kan het me niet herinneren. Ik zie het als een mooie extra die ik eerst niet eens had dus ook al is er geen 4K hjet is al een verbetering tov wat ik eerst kon

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 16:10:
[...]
Verbeter me maar als ik fout zit, maar een RAMDAC wordt tegenwoordig toch alleen nog maar voor VGA gebruikt. De digitale signalen maken hier geen gebruik meer van.
Jij hebt het dan denk ik over wat de ROP's doen. Deze zetten het laatste plaatje in elkaar en sturen het door.
Hum, een ROP is toch iets anders. Een ROP pakt de output van de pixel pipelines, en slaat ze op de juiste plek op in het 'raster'. Dit is ook waar vroeger bv alphablending werd toegepast, maar als ik me niet vergis, wordt dat op alle moderne GPUs tegenwoordig in de pixel pipeline zelf opgelost.

Een RAMDAC heb je inderdaad niet meer, als je het letterlijk neemt.
Het is namelijk letterlijk een RAM-DAC (Digital-to-analog converter), dus het stukje elektronica dat het videogeheugen vertaalt naar een analoog signaal (zoals VGA dus).
Maar je hebt nog wel een stukje elektronica dat iets vergelijkbaars doet, maar dan voor DVI/DisplayPort: het videogeheugen doorsturen naar de monitor. Het is nu alleen meer een soort netwerk-verbinding.

Normaal gesproken pakt de RAMDAC de pixels een voor een pixel uit het geheugen, en stuurt die op de juiste manier door naar de monitor.
Hoe een overlay/sprite/hardware mousecursor werkt is als volgt:
Er wordt zowel een pixel uit het geheugen gepakt, als een pixel uit de overlay. Wat simpele combinatie-logica voegt deze twee pixels dan samen (masking), en stuurt het resultaat door naar de RAMDAC.
Je ziet de overlay dus wel op je scherm, maar hij staat niet op die plek in het videogeheugen.

Dit kan nog steeds op exact dezelfde manier werken met digitale signalen.
Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 16:10:
De reden dat ik dacht dat Eyefinity hardwarematig is is door deze quote.
Ja, ik denk dus dat dat slaat op de support voor 3-6 monitors.
In die tijd hadden de meeste kaarten maar support voor 2-3 monitors. Ook nu nog zijn 6 monitors uitzonderlijk.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Sp3ci3s8472 schreef op dinsdag 09 december 2014 @ 16:10:
Verbeter me maar als ik fout zit, maar een RAMDAC wordt tegenwoordig toch alleen nog maar voor VGA gebruikt. De digitale signalen maken hier geen gebruik meer van.
Is inderdaad om een analoog signaal te kunnen tonen op een monitor zonder digitale ingangen. Daarom dus ook altijd beperkt tot 2 schermen, doordat men eigenlijk nooit meer dan 2 RAMDACs op een chip hebben geplaatst voor de normale consumer producten.
De reden dat ik dacht dat Eyefinity hardwarematig is is door deze quote.
http://www.anandtech.com/show/2937/10

[...]


Wat jij zegt klink inderdaad logisch. Vanuit de driver houdt je eigenlijk de games en andere applicaties voor de gek.

Ok, dan reageerde ik daar wat te persoonlijk op :P. Ik maak de fout als ik mijn tekst niet goed nalees, zal er in het vervolg op letten.
Je hebt ook gelijk. Er werd toentertijd duidelijk verteld dat Eyefinity deels hardware en deels software is. Als het puur software was geweest, dan had nVidia namelijk niet opeens in aller ijl een samengeraapte oplossing voordragen om ook maar 3 schermen te kunnen aansturen, door 2 kaarten in SLI in te zetten.

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Toch lijkt de huidige implementatie van VSR in ieder geval iets hardwarematigs te hebben, zo zegt ook de maker van GeDoSaTo:
Apparently they are using a hardware scaler instead of simply scaling in software, which also limits them to a fixed filtering type.
http://m.neogaf.com/showpost.php?p=142518445

Kwaliteit van GeDoSaTo kan dus ook beter zijn, gezien je daar bv betere filters toe kan passen op het downscalen

Ben benieuwd of AMD bij de komende update die VSR naar meer kaarten brengt ook verschillende filters gaat aanbieden

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
SpankmasterC schreef op dinsdag 09 december 2014 @ 18:18:
Toch lijkt de huidige implementatie van VSR in ieder geval iets hardwarematigs te hebben, zo zegt ook de maker van GeDoSaTo:

[...]

http://m.neogaf.com/showpost.php?p=142518445

Kwaliteit van GeDoSaTo kan dus ook beter zijn, gezien je daar bv betere filters toe kan passen op het downscalen

Ben benieuwd of AMD bij de komende update die VSR naar meer kaarten brengt ook verschillende filters gaat aanbieden
Mmmh. Ik ben benieuwd hoe dat in de toekomst gaat werken.
Ik heb nog even wat tests gedaan en het kan gewoon niet met mijn Dell 3008WFP (2560x1600)
Met de Dell 2405WFP (1920x1200) kan ik het wel aan zetten.

Bij mijn broer werkt het ook prima. Daar heb ik even een testje gedaan met Hero's of the Storm en daar van 1920x1080 naar 2560x1440 oversampeling gedaan maar dat ziet er inderdaad een stuk beter uit.

Jammer dat hij mijn 3008WFP niet ondersteunt hopelijk komt dat in de toekomst nog.

Edit:

Aha dit verklaart een hoop:

Beeldscherm
VSR resoluties

1920x1080 @ 60Hz
2560x1440
3200x1800
3840x2160 (alleen met R9 285)

1920x1200 @ 60Hz
2048x1535
2560x1600
3840x2400 (alleen met R9 285)

2560x1440 @ 60Hz
3200x1800

1920x1080 @ 120Hz
2048x1536 @ 120 Hz

Kortom 2560x1600 wordt helemaal niet ondersteund Ik zou het kunnen gebruiken als ik 2560x1440 ga draaien met 1:1 pixel mapping maar dan gebruik ik een deel van mijn scherm niet meer.

[ Voor 20% gewijzigd door Astennu op 09-12-2014 18:51 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:46
Het weer tijd voor een korreltje zout! Benchmarks!

Afbeeldingslocatie: http://wccftech.com/wp-content/uploads/2014/12/Nvidia-GM200-TItan-2-AMD-Fiji-.png

Afbeeldingslocatie: http://wccftech.com/wp-content/uploads/2014/12/Nvidia-GM200-TItan-2-AMD-Fiji-Bermuda.png

http://wccftech.com/nvidi...bermuda-390x-benchmarked/

http://wccftech.com/power...vidia-gtx-980-ti-bermuda/

[ Voor 33% gewijzigd door LongBowNL op 17-12-2014 23:30 ]


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:24
Afbeeldingslocatie: http://cdn2.wccftech.com/wp-content/uploads/2014/12/Nvidia-GM200-TItan-2-AMD-Fiji-Bermuda.png

Afbeeldingslocatie: http://cdn3.wccftech.com/wp-content/uploads/2014/12/Nvidia-GM200-TItan-2-AMD-Fiji-.png

Wel toevallig dat er twee nog niet uitgebrachte kaarten bij een persoon zijn terecht gekomen.

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Zelfs 4 nog niet eens aangekondigde videokaarten 8)7 . Een GM200 "cut-down" versie en de "Full versie". En een Bermuda XT (390X ?) en een Fiji XT (380X ?).

Goede contacten heeft hij dan binnen de GPU industrie 8)7 . Ik denk dat de lading zout die The_Mask hierboven poste nog zacht uitgedrukt is.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Zo iets dan?

Afbeeldingslocatie: http://www.chinadaily.com.cn/photo/images/attachement/jpg/site1/20100701/0022190dec450d96495202.jpg

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Zo te zien ook strobing, al noemen ze het "revolution eyes".

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

haarbal schreef op vrijdag 19 december 2014 @ 13:28:
Zo te zien ook strobing, al noemen ze het "revolution eyes".
Inderdaad. Hadden de G-Sync monitoren al ondersteuning voor dat (of lightboost/strobing etc)? Anders hebben ze voor de prijs meteen een betere monitor dan elke G-Sync monitor die al op de markt is :p.
Over de prijs is nog niks bekend, al zal hij niet goedkoop worden. De XL2720Z (Full HD, 27-inch TN) kost gemiddeld al zo’n 449 euro. Hopelijk weten we begin januari meer.
Dan moet de monitor wel net zoals zijn voorganger rond de 450 euro kosten :p.

In ieder geval mooi om te zien dat de adoptie van adaptive sync lekker loopt. Zal dus niet heel lang duren voor er meer schermen met adaptive sync zijn dan G-Sync. Indien G-Sync precies hetzelfde werkt, dan mag het van mij een snelle dood sterven.
In maart 2015 krijgt Samsungs UD590-lijn van 23,6"- en 28"-modellen FreeSync-ondersteuning, samen met de UE850-modellen met diagonalen van 23,6", 27" en 31,5". Uiteindelijk moeten alle uhd-beeldschermen van Samsung AMD's standaard ondersteunen. Dat maakten AMD en Samsung bekend tijdens AMD's Future of Compute-evenement in Singapore.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:01
Sp3ci3s8472 schreef op vrijdag 19 december 2014 @ 16:23:
Inderdaad. Hadden de G-Sync monitoren al ondersteuning voor dat (of lightboost/strobing etc)? Anders hebben ze voor de prijs meteen een betere monitor dan elke G-Sync monitor die al op de markt is :p.
De 144hz gsync schermen hebben dat ook + de 3d vision, ik denk dat het 60hz 4K scherm het niet heeft, 60 hz strobing is verschrikkelijk.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Ideaal die feature voor het terugklokken van de GPU bij een bepaald FPS. Ik kan niet wachten tot die feature zeg maar.

Ik draai op het moment met een crossfire setup van 2x 270's. Ik heb de core clocks teruggezet van 900Mhz naar 450MHz, en het geheugen van 1400 naar 1200 met een -10% powertune.

De FPS is met deze setting in BF3 nagenoeg (ook online) boven de 90. Harder hoeft niet, het maakt m'n kast alleen maar heter (de koeling is gewoon crap) en een hoop kabaal qua ventilatoren.

Was geen slechte investering, alles draait op Ultra op 1920x1080 perfect.

Acties:
  • 0 Henk 'm!

  • paragon
  • Registratie: April 2000
  • Laatst online: 23:11
Kan je dan gewoon niet beter geen crossfire gebruiken? Lijkt me zuiniger en beter voor je frametimes.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

En minder problemen met nieuwe of oude games.

Acties:
  • 0 Henk 'm!

Verwijderd

paragon schreef op zaterdag 20 december 2014 @ 10:45:
Kan je dan gewoon niet beter geen crossfire gebruiken? Lijkt me zuiniger en beter voor je frametimes.
BF3 draait uitstekend op crossfire.

Merk geen lag, geen spikes ofzo... draait gewoon vloeiend constant boven de 80FPS.

Zuiniger? Mweh. Een enkele kaart had al moeite op ultra / 1920x1080. It takes 2 :> Alle games in steam doen het prima.

Acties:
  • 0 Henk 'm!

  • paragon
  • Registratie: April 2000
  • Laatst online: 23:11
Dus 2 kaarten op halve snelheid lopen vloeiend op 80+ FPS en 1 kaart op volle snelheid is onspeelbaar? Goede schaling ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Het kan best dat 2 kaarten in CF underclocked zuiniger en sneller zijn dan een hoog geclockte kaart. Het verbruik schiet vanaf een bepaald punt omhoog ten opzichte van de prestaties. De meeste kaarten zitten ver van hun sweetspot af.

Een voorbeeld als ik mijn R9 290X kijk zie je het volgende:
Furmark 720P Windowed (+50% powertune anders gaat de kaart meteen knijpen en verbruikt hij stock 420 watt):
Idle: 79-82 watt
Stock: . 1.093v 1030-1250 MHz = 485 Watt - 144 FPS
UV: ..... 1.023v 1030-1250 MHz = 420 Watt - 144 FPS
UC UV: 0,959v 910-1250 MHz = 347 Watt - 134 FPS
UC UV: 0.922v 865-1250 MHz = 315 Watt - 128 FPS

Als je kijkt naar performance per watt zijn de UC UV settings erg in het voordeel. De UV houd in -56mv voor alle UV voltages. De verdere daling doet de GPU zelf omdat de clockspeed omlaag gaat bij de R9 290(X) kaarten het core voltage dan ook mee omlaag.

Het verschil tussen idle en load is dus de GPU, 1CPU core die full load draait en de fan's die harder gaan draien.

[ Voor 14% gewijzigd door Astennu op 20-12-2014 21:08 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

In een review van een single 290 vs crossfire 270's komt de crossfire setup in sommige games beter uit qua FPS en verbruik. Ik heb natuurlijk geen crossfire draaien om de boel onder te klokken, maar als 80FPS vs 150+ gewoon speelbaar is met minder verbruik, waarom niet?

Een single R270 haalt de 80 FPS volgens mij ook niet op ultra in BF3. Een crossfire setup daarintegen wel.

Zie het verbruik bijv met furmark ook http://www.ocaholic.ch/mo...m.php?itemid=1359&page=14
Power Consumption Load (FurMark)* Watts Index
AMD Radeon R9 290 421 129.54 %
AMD Radeon R9 270 CrossFire 325 100.00 %
*Entire system Less is better
En de FPS:
AMD Radeon R9 290 92.1
AMD Radeon R9 270 CrossFire 100.2
Dus ja, een crossfire setup lijkt in sommige games aantrekkelijker, draait prima en kan zuiniger zijn. De komst van driver-level de frames per seconde kunnen limiten, graag.

- Minder verbruik
- Minder warmte
- 80 vs 150 FPS merk je op een 60Hz monitor nagenoeg toch niet.

Stock is het verbruik van een crossfire setup ook 30% minder, en 3% langzamer. Wanneer ik de boel ook nog een 50% onderklok, wordt het helemaal interessant.
Maybe a look at power consumption is going to make things more interesting. In idle, the power consumption of our test system is 26 percent higher with two R9 270 compared to one R9 290 and under load conditions the story changes, as the single Radeon R9 290 graphics card burns 30 percent more power than two Radeon R9 270 graphics cards. So basically the CrossFire setup under load burns about 30 percent less power but is just about 3 percent slower. This is certainly an interesting bottom line in if you should already own a Radeon R9 270 card, adding another one to your system will make it quite quick for gaming.
Phuncz schreef op zondag 21 december 2014 @ 12:31:
FurMark is eigenlijk geen goede meter, het gaat de kaarten op een onrealistische manier load laten genereren. En tegenwoordig detecteren AMD en Nvidia drivers FurMark en laten de boel throttlen om zo juist een laag verbruik aan te tonen. Het verbruik in-game is veel belangrijk want dat zit dicht bij de realiteit. Tenzij je FurMark gebruikt om het huis te warmen :)
Ja en nee. Qua stresstest voor temperatuur en stabiliteit bij bijvoorbeeld overklokken, is furmark gewoon een must-have. Het test je kaart in een onmogelijke conditie. Als ik bijv een overklok in de winter uitvoer, toepas en blijkt dat het stabiel is, zal anders uitpakken wanneer de temperatuur in de zomer met 5 a 15 graden warmer is. Dan kan mijn overklok ineens niet meer stabiel uitpakken.

Stresstesten = altijd uitgaan van worst-case scenario. Zo zie ik het.

[ Voor 47% gewijzigd door Verwijderd op 21-12-2014 12:34 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

FurMark is eigenlijk geen goede meter, het gaat de kaarten op een onrealistische manier load laten genereren. En tegenwoordig detecteren AMD en Nvidia drivers FurMark en laten de boel throttlen om zo juist een laag verbruik aan te tonen. Het verbruik in-game is veel belangrijk want dat zit dicht bij de realiteit. Tenzij je FurMark gebruikt om het huis te warmen :)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zondag 21 december 2014 @ 12:27:
Ja en nee. Qua stresstest voor temperatuur en stabiliteit bij bijvoorbeeld overklokken, is furmark gewoon een must-have. Het test je kaart in een onmogelijke conditie. Als ik bijv een overklok in de winter uitvoer, toepas en blijkt dat het stabiel is, zal anders uitpakken wanneer de temperatuur in de zomer met 5 a 15 graden warmer is. Dan kan mijn overklok ineens niet meer stabiel uitpakken.

Stresstesten = altijd uitgaan van worst-case scenario. Zo zie ik het.
Dat was leuk en wel in 2012 voor de extreme overclockers, maar FurMark is niet meer relevant omdat het tegenwoordig gelimiteerd wordt zoals ik al zei. Probeer dan met Heaven Benchmark ofzo, dat wordt tenminste niet zwaarder gelimiteerd door de drivers dan een game.

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op zondag 21 december 2014 @ 12:53:
[...]

Dat was leuk en wel in 2012 voor de extreme overclockers, maar FurMark is niet meer relevant omdat het tegenwoordig gelimiteerd wordt zoals ik al zei. Probeer dan met Heaven Benchmark ofzo, dat wordt tenminste niet zwaarder gelimiteerd door de drivers dan een game.
Omdat het schade aan VRM's kan brengen ja. Daarom dat AMD op driver level de boel capped. Bij bitcoinmining vliegen kaarten met slecht ontworpen VRM's er ook snel uit. Die kunnen de 24/7 stress ook gewoon niet aan.

Op Pro oc niveau zet men gewoon zelf een VRM powerboard op een videokaart:

http://www.evga.com/Products/Product.aspx?pn=100-UC-0400-BR

En dat ziet er dan zo uit:

Afbeeldingslocatie: http://cdn.overclock.net/7/78/78a16924_grz2.jpeg

staat op gimmick lijst tesamen met een compressor :9

Videokaarten worden meestal ontworpen met een Average power consumption ipv Peak. In games zal je vaak nooit meer dan gemiddeld verbruik behalen. Met furmark trek je het ergste uit de chip en dus ook op de componenten. Ook mijn kaarten worden gloeiend heet (fan kickt pas in vanaf 80 a 90 graden) en warmt m'n hele kast onnodig op.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op zondag 21 december 2014 @ 12:53:
[...]

Dat was leuk en wel in 2012 voor de extreme overclockers, maar FurMark is niet meer relevant omdat het tegenwoordig gelimiteerd wordt zoals ik al zei. Probeer dan met Heaven Benchmark ofzo, dat wordt tenminste niet zwaarder gelimiteerd door de drivers dan een game.
Stock wel. Maar als je het prowertune percentage omhoog gooit kan je met een AMD kaart wel max power draw halen. Maar dan ga boven het TDP van de kaart uit. Je ziet ook dat de fps veel hoger wordt en dat de kaart wel op zijn max clockspeeds draait.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Verwijderd schreef op zondag 21 december 2014 @ 13:11:
Met furmark trek je het ergste uit de chip en dus ook op de componenten.
Dit klopt niet helemaal.

Simpel voorbeeldje: http://www.anandtech.com/...geforce-gtx-980-review/21

Dit is al jaren het geval en is ook volledig te verklaren. Furmark trekt helemaal niet alles uit de chip; wat Furmark wel doet is langdurig een relatief hoge load op de GPU zetten.

Games zoals Crysis 3 of BF4 hebben naast "normale" rendering taken ook nog een deel GPGPU workload. Met "normale" rendering taken krijg je nooit alle shaders aan het werk, zelfs niet met de relatief fijne loads die GPU's tegenwoordig kunnen verwerken (de schedulers zijn nu veel beter dan zelfs 3 jaar geleden). Ik heb met m'n laatste 4 GPU's (970, 770, 680, 6950) telkens probleemloos enkele uren Furmark kunnen laten draaien, terwijl vervolgens de hele handel er doodleuk uit klapte in met name Battlefield 3 en 4. Juist omdat A) Furmark softwarematig gelimiteerd wordt (let maar eens op je clocks tijdens Furmark) en B) games tegenwoordig juist een zwaardere load op de kaart kunnen zetten, mits jij de instellingen hoog genoeg zet om een CPU bottleneck te voorkomen. En op een VLIW5 kaart bijvoorbeeld is Furmark juist uitermate nutteloos, omdat je dan letterlijk 20% van de shaders niet aan het werk zet, omdat Furmark niet alle 5 de ALU's in een VLIW5 shader aan het werk krijgt; mining is een veel zwaardere test voor een VLIW5 chip (5870 dus bijvoorbeeld).

En ook voor de CPU en algemene systeem stabiliteit zul je niet genoeg hebben in Prime95. Met m'n i5-760 had ik er 24 uur Prime op zitten op 4.4 en dacht ik dat ik wel goed zat. Niet dus. Klapte er in BF3 gewoon keihard uit, moest toch nog iets meer voltage hebben. Dit heeft wederom te maken met hóe er getest wordt, Prime test simpelweg niet alle rekeneenheden die we tegenwoordig in processors hebben. En vooral Frostbite gebruikt daadwerkelijk elke extensie die ook maar enige vorm van verbetering op kan leveren. En dan heb ik het nog niet eens over bijvoorbeeld de virtualisatie extensies, die ook gevoelig zijn voor een onstabiele overklok.

Furmark en Prime zijn allebei handig om problemen met een hoog verbruik (en alles wat daarmee gepaard gaat) op lange duur te vinden, maar qua stabiliteit heb je aan allebei niet genoeg.

[ Voor 6% gewijzigd door Werelds op 21-12-2014 23:03 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als je furmark wilt gebruiken moet je wel Powertune persentages verhogen. Ik weet niet of dit bij nVidia ook kan.

Wat anandtech zegt is niet eerlijk. Ze zeggen midrange power draw top range performance. Met 92x MHz is dat niet waar. Dit is veel minder dan wat de kaart bij games zou doen. Ze zouden bij furmark naast het verbruik ook de FPS er bij moeten zetten dan zie je pas wat er gebeurd. Bij AMD knijpt hij dan ook erg. Een 290X komt dan onder de 900 MHz. Als hij goed warm wordt en je je max fan persentage ook niet verhoogt zakt hij zelfs richting de 800.

Daarnaast merk ik ook dat Furmark artifacts niet snel genoeg laat zien. In MWO zie ik bv wel artifacts en in furmark kan ik nog 50 MHz hoger zonder issues. Ik gebruik furmark zelf alleen nog maar om de cooling te testen want ik heb nog niets gevonden wat het verbruik zo ver opjaagt en dus de cooling zwaar belast.

[ Voor 21% gewijzigd door Astennu op 21-12-2014 23:32 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Dat klopt niet meer wat je zegt Werelds, de beperking is tegenwoordig niet meer softwarematig via de driver bij nVidia maar hardwarematig en via het BIOS, geld dus niet alleen voor Furmark en .exe renamen helpt ook niet meer. Maximale verbruik wordt dus ten aller tijde beperkt tegenwoordig.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Y Bij AMD min of meer ook. Maar je kan bij AMD in CCC Powertune wel bijsturen.
OEM's kunnen kiezen of ze Powertune 1.0 of 2.0 gebruiken. Sapphire gebruikt bv 1.0. Refferenced kaarten hebben 2.0

Die kaarten hebben een target temp en target fan speed. Die sapphire kaarten werken met een fan curve bij bepaalde temps. Al gebruiken ze wel de max temp zoals Powertune 2.0 dat doet. Als die kaarten 94c worden gaan ze throttelen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Furmark is dus ook nog wel steeds de zwaarste load en het hoogste verbruik in theorie, maar wordt daardoor ook het hardst afgekapt, waardoor het verbruik helemaal niet hoger is en op ongeveer dezelfde maximale waarde uitkomt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Voor cpu intel Burn test, krikt zo 10 graden extra op je cpu. Voor gpu test je altijd voor worst case scenarios, omdat je uiteindelijk een stabiele overklok wilt.

Het stroomverbruik van zo'n gpu met furmark gaat gerust 10 tot 20% omhoog, en stresst daardoor je vrms een stuk harder.

Afijn ; driver level fps Limiten, Yes please. :Y)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Furmark zegt helaas niets over stabiliteit ook al krijg je de kaart zo ver om max clocks te draaien en max power pull te doen. R9 290(X) kaarten laten daar niet snel genoeg artifacts zien. Alle GCN kaarten hebben daar volgens mij last van. Sommige games lopen vast op speeds waar furmark prima op draait.

Het is wel een goede cooler test daar gebruik ik hem voor.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

Astennu schreef op maandag 22 december 2014 @ 02:12:
Furmark zegt helaas niets over stabiliteit ook al krijg je de kaart zo ver om max clocks te draaien en max power pull te doen. R9 290(X) kaarten laten daar niet snel genoeg artifacts zien. Alle GCN kaarten hebben daar volgens mij last van. Sommige games lopen vast op speeds waar furmark prima op draait.

Het is wel een goede cooler test daar gebruik ik hem voor.
En anders zet je het ding 50Mhz omlaag, veel meer dan 3 FPS zal dat ook niet uitmaken :+
Die benchmarks geloof ik trouwens geen bal van, ik wacht nog wel een maar maanden op de echte resultaten.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Daar gaat het niet om. Het gaat er om dat furmark niet meer de stability test is. Ik gebruik er zelfs MWO voor daar zie ik als eerste artifacts.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Gebruik gewoon realistische scenario's die je systeem ook 100% belasten, zoals Heaven Benchmark en een video recode met bv. Handbrake, allebei gratis en gebruiken al wat meer extensies en technieken die FurMark en Prime95 niet doen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
-The_Mask- schreef op maandag 22 december 2014 @ 00:33:
Dat klopt niet meer wat je zegt Werelds, de beperking is tegenwoordig niet meer softwarematig via de driver bij nVidia maar hardwarematig en via het BIOS, geld dus niet alleen voor Furmark en .exe renamen helpt ook niet meer. Maximale verbruik wordt dus ten aller tijde beperkt tegenwoordig.
Oh dat klopt wel, maar dat betekent alsnog niet dat je het maximale uit de chip geperst krijg. Jij weet net zo goed als ik dat TDP !== verbruik en de beperking zit op het TDP, niet het verbruik. Niet alle componenten in een chip zijn even (in-)efficiënt, dus met een iets andere belasting kun je er toch meer doorheen jagen, zonder dat daarbij het TDP in negatieve zin verschuift. Dit komt weer neer op waarom ik zo'n hekel aan de term TDP heb, die bij Nvidia en AMD een verschillende betekenis heeft en helemaal geen harde indicatie voor verbruik is. Een 980 heeft een TDP van 165W, verbruikt makkelijk over de 200W; 780 Ti en 290X verbruiken allebei zo rond de 370W onder volle load, maar hebben een TDP van respectievelijk 250W en 290W; en die laatste trekt onder Furmark nooit meer dan 350W.

Ik heb het momenteel erg druk (vandaar ook dat ik niet erg actief ben momenteel), maar anders zou ik even kijken waar de muurmeter ligt om het te laten zien (PC heeft al zeker een week of 2 niet aangestaan :(). Probeer het zelf echter maar; je zult zien dat Furmark op veel lagere clocks met lager voltage draait dan bijvoorbeeld Heaven. Met m'n 970 was dat geloof ik maar liefst 160 MHz met 0.125V verschil - dat maakt behoorlijk uit voor het verbruik. Wat Furmark wel doet is veel meer druk op de MC zetten, wat één van (zoniet dé) minst inefficiënte delen van een moderne GPU is. Dat betekent dat er meer hitte van de MC af komt en het TDP dus sneller bereikt wordt - betekent echter niet dat het ding in z'n geheel ook meer of minder verbruikt.

Dit verschilt uiteraard ook sterk per GPU en shaders zijn inmiddels erg efficiënt, maar dat keerpunt bestaat al jaren en is er nog steeds. Nogmaals, VLIW5 is het perfecte voorbeeld hiervan. En juist met die idiote aantallen shaders die we nu hebben wordt het hele verhaal rondom TDP en verbruik steeds lastiger.

Acties:
  • 0 Henk 'm!
nVidia gebruikt voor de term TDP tegenwoordig het gemiddelde verbruik tijdens een zware game.

Maximale verbruik ligt dus idd wat hoger bij nVidia dan de TDP, maar een standaard GTX 980 verbruikt maximaal ongeveer 190W en dit verbruik geld voor zowel een game als Furmark of andere benchmark. De beperking is echt hardwarematig en geïmplementeerd in het bios.

Dat de kaart bij Furmark minder hoog klokt en een lagere spanning krijgt klopt ook, Furmark is namelijk in staat een veel hoger verbruik te creëren dan een game of andere benchmark kan. Wat er dus gebeurt is dat de videokaart meer moet ondervolten en onderklokken om nog binnen de 190W te blijven. Dat is dus ook wat je ziet, een lagere spanning en minder hoge kloksnelheid.

Voor de verbruikcijfers zie TPU: http://www.techpowerup.co...A/GeForce_GTX_980/24.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Klopt ik heb nu een GTX 980 draaien. Met een aangepaste bios (290 TDP ingesteld als je de 125% van afterburner gebruikt) heb ik het wel voor elkaar gekregen dat hij hogere clocks vast houd. Ik kan hem dan op 1450 MHz krijgen verbruik is dan 386 watt met een frame rate van 161. Maar standaard zit hij rond zijn max @ 320 watt. (225 watt TDP voor de kaart (180 x 1,25 = 225. De rest zal voor het systeem zelf zijn)

Werkt eigenlijk vergelijkbaar met powertune van AMD. Alleen bij nVidia moet je de bios aanpassen + afterbruner gebruiken. AMD laat je het TDP in CCC al naar +50% zetten. De kaart kan dan maximaal draaien.

Met alle aanpassingen die ik gedaan heb bij de 980 loopt hij bij furmark nog steeds tegen zijn TDP limiet aan hij haalt niet de maximale boost clock van 1500 MHz.

Maar die GTX 980 zitten iets boven het TDP wat door nVidia opgegeven is. Echter zijn ze nog steeds veel zuiniger dan de AMD kaarten.
Ik heb er een met refferenced cooler. Hij is zeker stiller dan de AMD R9 290(X) refferenced kaarten maar stil is hij zeker niet. Vooral met deze OC er op (ook met 225 watt TDP) Is hij duidelijk hoorbaar. De fan speed gaat daar dan ook naar de 70% in games die hem zwaar belasten. (echter is deze 70% wel stiller dan de 70% van AMD) Maar het is geen holy grail zoals sommige beweren.

R9 290(X) kaarten met goede aftermarket cooling zijn stiller. That said ben ik heel erg benieuwd naar de coolers die AMD gaat gebruiken voor de R9 390(X) serie.

[ Voor 30% gewijzigd door Astennu op 24-12-2014 01:30 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

http://www.bidnessetc.com...on-nvda-hit-by-gpu-suppl/

Advanced Micro Devices Inc. (AMD) And NVIDIA Corporation (NVDA) Hit By GPU Supply Delays

According to WCCFTech, AMD and NVIDIA 20nm and 16nm GPU supplies are slightly delayed


"On the other hand, AMD planned to release its 20nm R9 300 by March next year, but since the company is hit by delays, it is estimated that the delivery will be shifted to May 2015. The 20nm graphic card has been given the code name of Caribbean Islands by the company. As reported previously, AMD will be releasing both its 28nm and 20nm GPUs in 2015, but the latter might be released after the 28nm. AMD has also decided to go with 28nm for most of its line-up for GPUs and APUs."

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:24
AMD may roll-out GCN successor in 2016

Advanced Micro Devices may introduce its all-new graphics architecture in late 2015 and then ramp it up in 2016. At least, Mark Papermaster, chief technology officer of AMD, implied on such scenario this week.

Graphics architectures from ATI Technologies and Advanced Micro Devices live active life for about four years and sustain three or four iterations that improve performance and bring in new features. AMD’s graphics core next (GCN) architecture was introduced three years ago and next year it will be time for AMD to announce its successor. Apparently, it looks like this is exactly what the company wants to do. Next year AMD may reveal details about its new architecture and in 2016 it is expected to ramp it up.

“We are not taking the foot off the gas,” said Mr. Papermaster at Barclays global technology conference. You will see continued very, very strong graphics, we will have a refresh that you will see, that we will talk about later in 2015, that we are excited about.”

amd radeon artwork angle new AMD may roll out GCN successor in 2016

ATI introduced its first DirectX 9-class graphics architecture (code-named R300) in summer, 2002. The architecture evolved into R420 design in mid-2004 and then into R520 design in late-2005. Around the end of 2006 the company (which was then a part of AMD) unveiled the first details of its TeraScale architecture and launched the first DirectX 10-supporting TeraScale graphics processor (R600) in spring, 2007. The TeraScale survived four major iterations (R600, RV770, R800/Evergreen, R900/Cayman) and even gained DirectX 11 support in 2009. The GCN architecture, which powers current-generation Radeon graphics cards, was unveiled in August, 2011, and then made it to the market in early 2012. Since then, AMD introduced GCN 1.1 and GCN 1.2-compliant graphics processing units and it is expected that next year it will bring additional GCN GPUs to the market.

However, it looks like it is time to move on. The chief technology officer of AMD decided not to talk about graphics processors due in 2015, possibly because they are all based on the GCN architecture, but implied that a major update is coming. If the company follows its traditions, the AMD will first reveal details regarding the architecture, sometimes in 2015, and then will start mass production of actual GPUs in 2016.

amd radeon shop home component1 AMD may roll out GCN successor in 2016

Official spokespeople for AMD did not confirm or deny the company’s plans to roll-out the GCN successor any time soon, but given the fact that GCN will turn four in late 2015, it will be time for a major update. Moreover, in 2016 the arch-rival of AMD – Nvidia Corp. – is set to unleash its Pascal architecture that will bring major performance and feature-set advancements, therefore, AMD will have to respond somehow.

At present no details about post-GCN graphics architecture are known. However, expect it to support all the features that DirectX 12 application programming interface brings and some additional capabilities. Development of the post-GCN architecture started around 2010 – 2011, when Eric Demers was the chief technology officer of AMD’s graphics products group. After Mr. Demers left AMD in early 2012, AMD hired John Gustafson, a renowned expert in parallel and high-performance computing, who probably had an influence on the development of the architecture. Mr. Gustafson left AMD in 2013, so Raja Kodouri (who returned to AMD from Apple) took the development from where his predecessor left. Therefore, the new architecture will be inspired by three great graphics engineers. AMD’s 2016 graphics processing units are expected to be made using 14nm or 16nm FinFET process technologies at GlobalFoundries and/or Taiwan Semiconductor Manufacturing Co.

http://www.kitguru.net/co...ut-gcn-successor-in-2016/

Acties:
  • 0 Henk 'm!

  • roffeltjes
  • Registratie: Januari 2011
  • Laatst online: 15-09 18:18
Dat klinkt niet echt veelbelovend....Late 2015, dan gaan ze dus nog een jaar door met het huidge design :X

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Dat wil niet zeggen dat ze geen GCN 1.3 variant uit zouden kunnen brengen...

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Daar zat ik ook al aan te denken, de 285 is al uit, iets als een 285x of een 295(x) zou dan ook kunnen. Al lijkt die laatste uiteraard behoorlijk op de pricewatch: Sapphire R9 295X2 8GB

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:24
polli_ schreef op zaterdag 27 december 2014 @ 16:17:
AMD may roll-out GCN successor in 2016

Advanced Micro Devices may introduce its all-new graphics architecture in late 2015 and then ramp it up in 2016. At least, Mark Papermaster, chief technology officer of AMD, implied on such scenario this week.

Graphics architectures from ATI Technologies and Advanced Micro Devices live active life for about four years and sustain three or four iterations that improve performance and bring in new features. AMD’s graphics core next (GCN) architecture was introduced three years ago and next year it will be time for AMD to announce its successor. Apparently, it looks like this is exactly what the company wants to do. Next year AMD may reveal details about its new architecture and in 2016 it is expected to ramp it up.

“We are not taking the foot off the gas,” said Mr. Papermaster at Barclays global technology conference. You will see continued very, very strong graphics, we will have a refresh that you will see, that we will talk about later in 2015, that we are excited about.”

amd radeon artwork angle new AMD may roll out GCN successor in 2016

ATI introduced its first DirectX 9-class graphics architecture (code-named R300) in summer, 2002. The architecture evolved into R420 design in mid-2004 and then into R520 design in late-2005. Around the end of 2006 the company (which was then a part of AMD) unveiled the first details of its TeraScale architecture and launched the first DirectX 10-supporting TeraScale graphics processor (R600) in spring, 2007. The TeraScale survived four major iterations (R600, RV770, R800/Evergreen, R900/Cayman) and even gained DirectX 11 support in 2009. The GCN architecture, which powers current-generation Radeon graphics cards, was unveiled in August, 2011, and then made it to the market in early 2012. Since then, AMD introduced GCN 1.1 and GCN 1.2-compliant graphics processing units and it is expected that next year it will bring additional GCN GPUs to the market.

However, it looks like it is time to move on. The chief technology officer of AMD decided not to talk about graphics processors due in 2015, possibly because they are all based on the GCN architecture, but implied that a major update is coming. If the company follows its traditions, the AMD will first reveal details regarding the architecture, sometimes in 2015, and then will start mass production of actual GPUs in 2016.

amd radeon shop home component1 AMD may roll out GCN successor in 2016

Official spokespeople for AMD did not confirm or deny the company’s plans to roll-out the GCN successor any time soon, but given the fact that GCN will turn four in late 2015, it will be time for a major update. Moreover, in 2016 the arch-rival of AMD – Nvidia Corp. – is set to unleash its Pascal architecture that will bring major performance and feature-set advancements, therefore, AMD will have to respond somehow.

At present no details about post-GCN graphics architecture are known. However, expect it to support all the features that DirectX 12 application programming interface brings and some additional capabilities. Development of the post-GCN architecture started around 2010 – 2011, when Eric Demers was the chief technology officer of AMD’s graphics products group. After Mr. Demers left AMD in early 2012, AMD hired John Gustafson, a renowned expert in parallel and high-performance computing, who probably had an influence on the development of the architecture. Mr. Gustafson left AMD in 2013, so Raja Kodouri (who returned to AMD from Apple) took the development from where his predecessor left. Therefore, the new architecture will be inspired by three great graphics engineers. AMD’s 2016 graphics processing units are expected to be made using 14nm or 16nm FinFET process technologies at GlobalFoundries and/or Taiwan Semiconductor Manufacturing Co.

http://www.kitguru.net/co...ut-gcn-successor-in-2016/
Ik denk eerder dat er een GNC 2.0 komt en dat we daarna na een nieuwe nieuwe architectuur gaan.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
er komen altijd wel echt updates voor een architecteur die zo nieuw is.

Acties:
  • 0 Henk 'm!

Verwijderd

Het lijkt me heel sterk dat AMD het tot 2016 met de huidige GCN 1.2 architectuur uit zou willen zingen, daar is ook niet echt een reden voor.

Sowieso wil je een nieuwe architectuur liever niet meteen op een nieuwe node los laten. Een vrij logisch scenario zou dan zijn om in 2015 op een nieuwe node nog een laatste iteratie op GCN te doen (GCN 1.3) om vervolgens in 2016 op diezelfde node een nieuwe architectuur te introduceren. Die nieuwe node is vertraagd, maar midden 2015 kan denk ik ook nog wel. Het zal mij benieuwen.

[ Voor 9% gewijzigd door Verwijderd op 28-12-2014 02:48 ]


Acties:
  • 0 Henk 'm!

Verwijderd

My body/wallet is ready!

Laat die 390/390X maar komen :)!

X79 build met dual 390 of 390X:
#ProductPrijsSubtotaal
1Intel Core i7-4790K Boxed€ 314,-€ 314,-
1Asus Republic Of Gamers Z97 MAXIMUS VII RANGER€ 149,90€ 149,90
1Corsair Graphite 760T Arctic White€ 169,40€ 169,40
1Corsair Professional Individually sleeved (Type 3, Generation 2)€ 75,95€ 75,95
1Corsair Hydro H100i€ 99,99€ 99,99
1Corsair Air Series AF140 LED Quiet Edition Wit, 140mm€ 12,90€ 12,90
2Corsair Air Series SP120 High Static Pressure Witte led (Twin pack), 120mm€ 19,90€ 39,80
1Kingston HyperX Savage HX324C11SRK2/16€ 145,90€ 145,90
1Corsair HX1000i€ 191,95€ 191,95
1Samsung 850 EVO 500GB€ 222,95€ 222,95
Bekijk collectie
Importeer producten
Totaal€ 1.422,74


X99 build met dual 390 of 390X:
#ProductPrijsSubtotaal
1Intel Core i7-5820K Boxed€ 362,95€ 362,95
1MSI X99S SLI PLUS€ 192,95€ 192,95
1Corsair Graphite 760T Arctic White€ 169,40€ 169,40
1Corsair Professional Individually sleeved (Type 3, Generation 2)€ 75,95€ 75,95
1Corsair Hydro H100i€ 99,99€ 99,99
1Corsair Air Series AF140 LED Quiet Edition Wit, 140mm€ 12,90€ 12,90
2Corsair Air Series SP120 High Static Pressure Witte led (Twin pack), 120mm€ 19,90€ 39,80
1Corsair Vengeance LPX CMK16GX4M4A2400C14R€ 247,95€ 247,95
1Corsair HX1000i€ 191,95€ 191,95
1Samsung 850 EVO 500GB€ 222,95€ 222,95
Bekijk collectie
Importeer producten
Totaal€ 1.616,79



Vraag me af of kaarten zuiniger zijn geworden, dan kan ik paar maanden later misschien 3de bij proppen(met 1000W supply moet dat lukken, toch?) :9~

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Je gaat een systeem samenstellen op basis van een GPU, waarvan nog geen enkele, betrouwbare benchmarks zijn verschenen? Blijkbaar heb je wel heel veel vertrouwen in AMD...

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op zondag 28 december 2014 @ 02:46:
Het lijkt me heel sterk dat AMD het tot 2016 met de huidige GCN 1.2 architectuur uit zou willen zingen, daar is ook niet echt een reden voor.

Sowieso wil je een nieuwe architectuur liever niet meteen op een nieuwe node los laten. Een vrij logisch scenario zou dan zijn om in 2015 op een nieuwe node nog een laatste iteratie op GCN te doen (GCN 1.3) om vervolgens in 2016 op diezelfde node een nieuwe architectuur te introduceren. Die nieuwe node is vertraagd, maar midden 2015 kan denk ik ook nog wel. Het zal mij benieuwen.
Denk ik ook. Sowieso waren GCN 1.1 en 1.2 maar kleine updates. AMD heeft in het verleden met VLIW5 veel grotere aanpassingen gedaan. Zie bv de stap van de HD3870 naar de HD4870.
Ook de stap van de HD5870 en de HD6870 was veel groter (Cypress naar Barts)

Misschien dat ze voor GCN1.3 toch nog wat meer tweaken. Ze weten immers wat nVidia met de GTX970 en 980 kan. En hoe goed die preformance per watt is. Daarnaast kan nVidia makkelijk een hoger geclockte 980 uitbrengen als counter.

Ik ben nu met en 980 aan het testen. Maar die dingen lopen makkelijk 1450 MHz in mijn geval ook op veel lagere voltages dan stock. (standaard draaien ze 1130-1280 MHz boost afhankelijk van hoe goed de chip is)
Dus mocht het nodig zijn kan nVidia altijd een "Ultra" uitbrengen. En dan heb je de GK2xx nog.

Dus ik hoop echt dat AMD met iets moois gaat komen wat volgend jaar met de GK2xx kan concurreren.
Met wat grotere aanpassingen aan de GCN architectuur kun je denk ik een heel eind komen. Met GCN 1.2 zijn ze al wel goed op weg.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

ColinZ schreef op zondag 28 december 2014 @ 19:19:
Je gaat een systeem samenstellen op basis van een GPU, waarvan nog geen enkele, betrouwbare benchmarks zijn verschenen? Blijkbaar heb je wel heel veel vertrouwen in AMD...
390X>980 by far dat staat vast 8)7

En heb een AMD nodig voor Freesync die in maart uitkomt.

Misschien wacht ik nog eventjes op Skylake.... die komt zomer 2015. Anders moet ik het met een 4790K doen die dan al 1 jaar "ouderwets" is :+
Naast de execution units krijgen alle GPU's ondersteuning voor de HEVC/H.265 codec waarmee UHD-content hardwarematig afgespeeld kan worden. De maximale ondersteunde resolutie zou 4096 bij 2304 pixels bedragen met een verversingsfrequentie van 60 Hz en 24-bit mits gebruik wordt gemaakt van een DisplayPort-interface. HDMI 2.0 zal niet verder gaan dan 4096 bij 2160 pixels en 60 Hz, hetgeen ook voor UHD nog steeds ruim voldoende is. Vermoedelijk wordt DirectX 12 ook ondersteund, hoewel officieel de chips niet verder gaan dan DirectX 11.2 met OpenGL 5.0 en OpenCL 2.1.
4K 60HZ op integrated gpu's :o

[ Voor 46% gewijzigd door Verwijderd op 29-12-2014 16:29 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Bron ? 8)7

Zomer 2015 komen de Broadwell K CPU's, niet de Skylake K. Waarschijnlijk dus enkel de Core i3-5xxx en de i5-5xxx.

[ Voor 38% gewijzigd door Phuncz op 29-12-2014 16:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op maandag 29 december 2014 @ 16:35:
[...]

Bron ? 8)7

Zomer 2015 komen de Broadwell K CPU's, niet de Skylake K. Waarschijnlijk dus enkel de Core i3-5xxx en de i5-5xxx.
http://wccftech.com/amd-fiji-r9-390x-specs-leak/ ;)

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Leuke theorycrafting maar ik wil het uiteindelijke product eerst zien voor ik conclusies trek. Het benoemen als een feit gaat gewoon te ver.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Heb je toevallig het artikel zelf ook gelezen? (en dan vooral het laatste stukje tekst helemaal onderaan)
Dit is gewoon totaal giswerk en een gigantische clickbait van wccftech...

Acties:
  • 0 Henk 'm!

Verwijderd

ColinZ schreef op maandag 29 december 2014 @ 17:42:
[...]

Heb je toevallig het artikel zelf ook gelezen? (en dan vooral het laatste stukje tekst helemaal onderaan)
Dit is gewoon totaal giswerk en een gigantische clickbait van wccftech...
Ok nu kom jij over als een Nvidia-fanboy en ik als een AMD-fanboy, maar ik heb sinds kort mijn eerste AMD-kaart ooit (pricewatch: Sapphire R9 290 4GB GDDR5 OC TRI-X) en ik moet zelf zeggen: De extra problemen die je bij krijgt zijn het geld dat je bespaard niet waard. :P

Ik weet ook niet zeker of die specs waar zijn, maar iedereen hoopt van wel :9~
So we might actually see AMD introduce the R9 390X with both liquid and air cooled reference designs.
Hopelijk is dit ook waar, een 1 slot watergekoelde kaart zoals de ARES III zou wel nice zijn!

[ Voor 17% gewijzigd door Verwijderd op 29-12-2014 18:22 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op zondag 28 december 2014 @ 16:08:
My body/wallet is ready!

Laat die 390/390X maar komen :)!

X79 build met dual 390 of 390X:
#ProductPrijsSubtotaal
1Intel Core i7-4790K Boxed€ 314,-€ 314,-
1Asus Republic Of Gamers Z97 MAXIMUS VII RANGER€ 149,90€ 149,90
1Corsair Graphite 760T Arctic White€ 169,40€ 169,40
1Corsair Professional Individually sleeved (Type 3, Generation 2)€ 75,95€ 75,95
1Corsair Hydro H100i€ 99,99€ 99,99
1Corsair Air Series AF140 LED Quiet Edition Wit, 140mm€ 12,90€ 12,90
2Corsair Air Series SP120 High Static Pressure Witte led (Twin pack), 120mm€ 19,90€ 39,80
1Kingston HyperX Savage HX324C11SRK2/16€ 145,90€ 145,90
1Corsair HX1000i€ 191,95€ 191,95
1Samsung 850 EVO 500GB€ 222,95€ 222,95
Bekijk collectie
Importeer producten
Totaal€ 1.422,74


X99 build met dual 390 of 390X:
#ProductPrijsSubtotaal
1Intel Core i7-5820K Boxed€ 362,95€ 362,95
1MSI X99S SLI PLUS€ 192,95€ 192,95
1Corsair Graphite 760T Arctic White€ 169,40€ 169,40
1Corsair Professional Individually sleeved (Type 3, Generation 2)€ 75,95€ 75,95
1Corsair Hydro H100i€ 99,99€ 99,99
1Corsair Air Series AF140 LED Quiet Edition Wit, 140mm€ 12,90€ 12,90
2Corsair Air Series SP120 High Static Pressure Witte led (Twin pack), 120mm€ 19,90€ 39,80
1Corsair Vengeance LPX CMK16GX4M4A2400C14R€ 247,95€ 247,95
1Corsair HX1000i€ 191,95€ 191,95
1Samsung 850 EVO 500GB€ 222,95€ 222,95
Bekijk collectie
Importeer producten
Totaal€ 1.616,79



Vraag me af of kaarten zuiniger zijn geworden, dan kan ik paar maanden later misschien 3de bij proppen(met 1000W supply moet dat lukken, toch?) :9~
Je "X79 build" is toch echt een Z97 build :+

En als je voor X99 gaat doe dan tenminste gelijk een 5930K CPU ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Verwijderd schreef op maandag 29 december 2014 @ 18:15:
[...]
Maar ik heb sinds kort mijn eerste AMD-kaart ooit en ik moet zelf zeggen: De extra problemen die je bij krijgt zijn het geld dat je bespaard niet waard. :P
Alweer een Intel/Nvidia fanboy die het AMD topic loopt te trollen ? :O

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Verwijderd

enchion schreef op dinsdag 30 december 2014 @ 00:25:
[...]


Alweer een Intel/Nvidia fanboy die het AMD topic loopt te trollen ? :O
Kijk mijn inventaris maar :*)

En het ligt niet aan AMD maar aan Sapphire. Veel mensen hebben problemen gehad met een TRI-X.

[ Voor 17% gewijzigd door Verwijderd op 30-12-2014 01:34 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Welke problemen krijg je dan? Dat de Tri-X een lang monster is? Tja, had je kunnen weten.

Stroomverbruik en bijbehorende warmteproductie? Stroomverbruik is wat slordig, maar als je 300 euro kan missen voor een videokaart, kun je die paar euro extra stroom ook wel missen. En elke goede kast kan makkelijk de hitte van een R9 290 kwijt.

Driverproblemen zijn zó 2008, zeker met de Omega is volgens mij weinig mis, en zelf heb ik het geluk gehad nooit problemen te hebben met AMD drivers.

Volgens mij heb ik alle bekende troubles dan wel gehad.

Enfin, ik denk/hoop/verwacht dat GCN1.3/de 300 serie toch wel een leuke verrassing kan worden, al is de prijs/prestatie van de R9 280 en R9 290 verslaan moeilijk, AMD lijkt in dat opzicht vooral met zichzelf te concurreren.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

VasZaitsev schreef op dinsdag 30 december 2014 @ 01:40:
Welke problemen krijg je dan? Dat de Tri-X een lang monster is? Tja, had je kunnen weten.

Stroomverbruik en bijbehorende warmteproductie? Stroomverbruik is wat slordig, maar als je 300 euro kan missen voor een videokaart, kun je die paar euro extra stroom ook wel missen. En elke goede kast kan makkelijk de hitte van een R9 290 kwijt.

Driverproblemen zijn zó 2008, zeker met de Omega is volgens mij weinig mis, en zelf heb ik het geluk gehad nooit problemen te hebben met AMD drivers.

Volgens mij heb ik alle bekende troubles dan wel gehad.

Enfin, ik denk/hoop/verwacht dat GCN1.3/de 300 serie toch wel een leuke verrassing kan worden, al is de prijs/prestatie van de R9 280 en R9 290 verslaan moeilijk, AMD lijkt in dat opzicht vooral met zichzelf te concurreren.
Kijk maar :+
Sinds Omega drivers gaat het beter (1 jaar na release van R9 290)

Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
Omega geeft hier ook BSOD's AMD stelt teleur wat betreft drivers. 14.9 is gelukkig wel stabiel...

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

* RobinHood heeft ondertussen al 6 maanden zijn R9 290, een ex-reference XFX welke nooit problemen geeft.

Als je BSOD + willekeurige vidoekaart naam inramt, krijg je altijd een stapel hits, zegt nogal weinig.

Zijn er troubles met de R9 290, of met AMD videokaarten, zeker. Zijn er troubles met Nvidia's? Zeker.

BSOD R9 290 heeft bij mij, met google, 154k hits.
BSOD GTX970 heeft 138k hits.

Dat is pas slordig van Nvidia, na een paar maanden al bijna evenveel hits als de jaar oude R9 290 krijgen :+

[ Voor 23% gewijzigd door RobinHood op 30-12-2014 01:49 ]

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
VasZaitsev schreef op dinsdag 30 december 2014 @ 01:40:
Driverproblemen zijn zó 2008,.......
Blijkbaar niet...

Acties:
  • 0 Henk 'm!

Verwijderd

VasZaitsev schreef op dinsdag 30 december 2014 @ 01:46:
/me heeft ondertussen al 6 maanden zijn R9 290, een ex-reference XFX welke nooit problemen geeft.

Als je BSOD + willekeurige vidoekaart naam inramt, krijg je altijd een stapel hits, zegt nogal weinig.

Zijn er troubles met de R9 290, of met AMD videokaarten, zeker. Zijn er troubles met Nvidia's? Zeker.
Daarnaast ook last van throttles zonder enige reden ingame en van "Amd driver has stopped working and recovered" tijdens surfen.
Afbeeldingslocatie: http://i.imgur.com/ksYLW1m.jpg

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Het verbaast me elke keer hoe lang mensen zitten te klooien met een videokaart die overduidelijk brak is en nog garantie heeft : Terug naar de winkel met die zooi!

Het zijn videokaarten... die gaan weleens stuk... deal with... of nog beter : Laat de RMA van de winkel en fabrikant er lekker mee knoeien, terwijl jij lekker met een goed werkend exemplaar in je PC zit! :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

VasZaitsev schreef op dinsdag 30 december 2014 @ 01:46:
/me heeft ondertussen al 6 maanden zijn R9 290, een ex-reference XFX welke nooit problemen geeft.

Als je BSOD + willekeurige vidoekaart naam inramt, krijg je altijd een stapel hits, zegt nogal weinig.

Zijn er troubles met de R9 290, of met AMD videokaarten, zeker. Zijn er troubles met Nvidia's? Zeker.

BSOD R9 290 heeft bij mij, met google, 154k hits.
BSOD GTX970 heeft 138k hits.

Dat is pas slordig van Nvidia, na een paar maanden al bijna evenveel hits als de jaar oude R9 290 krijgen :+
Ik kijk gewoon wat beide kanten te bieden hebben en mijn ervaring, in de 4 jaar dat ik mijn GTS 450 had ik 0 BSOD's of driver crashed messages. Core clock bleef hele tijd op 830mhz zonder te throttlen. En gpu load deed gewoon zijn werk en bleef hele tijd op 100%.

Afbeeldingslocatie: http://assets.diylol.com/hfs/d98/50f/ce5/resized/x-x-everywhere-meme-generator-fanboys-fanboys-everywhere-e8c38b.jpg

Acties:
  • 0 Henk 'm!

Verwijderd

nero355 schreef op dinsdag 30 december 2014 @ 02:07:
Het verbaast me elke keer hoe lang mensen zitten te klooien met een videokaart die overduidelijk brak is en nog garantie heeft : Terug naar de winkel met die zooi!

Het zijn videokaarten... die gaan weleens stuk... deal with... of nog beter : Laat de RMA van de winkel en fabrikant er lekker mee knoeien, terwijl jij lekker met een goed werkend exemplaar in je PC zit! :P
Ik heb hem in augustus gekocht bij Alternate (omdat ze als enige gold voucher gaven, die trouwens nooit is aangekomen)


Alternate en RMA dat gaat gewoon niet, je zult je videokaart nooit meer terugzien. :'(

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op dinsdag 30 december 2014 @ 02:10:
Ik heb hem in augustus gekocht bij Alternate (omdat ze als enige gold voucher gaven, die trouwens nooit is aangekomen)


Alternate en RMA dat gaat gewoon niet, je zult je videokaart nooit meer terugzien. :'(
Oww... dat is lullig dan... veel succes nog mocht de kaart richting de RMA afdeling gaan : Been there, done that, didn't get a t-shirt :-( Ik heb zoveel RMA ellende gezien bij Alternate dat ik er nooit meer iets koop, tenzij het echt niet anders kan! :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

nero355 schreef op dinsdag 30 december 2014 @ 02:22:
[...]

Oww... dat is lullig dan... veel succes nog mocht de kaart richting de RMA afdeling gaan : Been there, done that, didn't get a t-shirt :-( Ik heb zoveel RMA ellende gezien bij Alternate dat ik er nooit meer iets koop, tenzij het echt niet anders kan! :+
Yep, eerste keer en nooit meer! "Azerty Master Race" _/-\o_
Hij hoeft niet echt RMA want hij werkt gewoon goed in meeste games. Zonet deed ik wat vanilla Skyrim en hij wou niet eens die 60FPS halen 8)7 GPU load was tussen 0 en 10%

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Verwijderd schreef op dinsdag 30 december 2014 @ 02:08:
[...]


Ik kijk gewoon wat beide kanten te bieden hebben en mijn ervaring, in de 4 jaar dat ik mijn GTS 450 had ik 0 BSOD's of driver crashed messages. Core clock bleef hele tijd op 830mhz zonder te throttlen. En gpu load deed gewoon zijn werk en bleef hele tijd op 100%.

[afbeelding]
En ik heb een 8600GT en een GTS250 kunnen weggooien omdat Nvidia waardeloos soldeer gebruikte, terwijl mijn HD5870 na jaren stevig gebruik nu trots in de kast mag staan, met als enige schade stickers die loslaten.

Mijn grootste probleem met een driver ooit was: CCC die na de installatie van een beta de kleurtemp. op ergens in de 5000 zette, waardoor mijn beeldscherm nogal rood was. Handmatig teruggezet en probleem was verholpen.

Ik noem jou geen Nvidia fanboy omdat je zegt dat AMD fouten maakt, noem mij dan geen AMD fanboy als ik zeg dat ik nooit problemen heb gehad in het rode kamp, en dat iedere fabrikant rotte appels heeft.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

VasZaitsev schreef op dinsdag 30 december 2014 @ 02:28:
[...]


En ik heb een 8600GT en een GTS250 kunnen weggooien omdat Nvidia waardeloos soldeer gebruikte, terwijl mijn HD5870 na jaren stevig gebruik nu trots in de kast mag staan, met als enige schade stickers die loslaten.

Mijn grootste probleem met een driver ooit was: CCC die na de installatie van een beta de kleurtemp. op ergens in de 5000 zette, waardoor mijn beeldscherm nogal rood was. Handmatig teruggezet en probleem was verholpen.

Ik noem jou geen Nvidia fanboy omdat je zegt dat AMD fouten maakt, noem mij dan geen AMD fanboy als ik zeg dat ik nooit problemen heb gehad in het rode kamp, en dat iedere fabrikant rotte appels heeft.
Alles is straks voorbij, ik ga gewoon een 390/390x kopen van "betrouwbare" merk zoals MSI/Asus :)
Laten we weer terug gaan naar leaks XD

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

MSI en Asus hebben anders ook wel zo hun problemen gehad, van MSI staat me nog iets bij van VRMs op een Nvidia kaart, Asus had volgens mij een brakke koeler op de R9 290 geschroefd.

Als je een beetje gaat graven, heeft ieder merk wel zo zijn problemen gehad.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

VasZaitsev schreef op dinsdag 30 december 2014 @ 02:28:
En ik heb een 8600GT en een GTS250 kunnen weggooien omdat Nvidia waardeloos soldeer gebruikte, terwijl mijn HD5870 na jaren stevig gebruik nu trots in de kast mag staan, met als enige schade stickers die loslaten.
4x 5870 hier met alle stickers er nog op 8)
Mijn grootste probleem met een driver ooit was: CCC die na de installatie van een beta de kleurtemp. op ergens in de 5000 zette, waardoor mijn beeldscherm nogal rood was. Handmatig teruggezet en probleem was verholpen.
6400K i.p.v. 6500 inderdaad, maar ik heb toch wel een paar keer flink op CCC zitten vloeken hoor!
Het oude ATI Control Panel was echt veeeeel beter _O_

Wat dat betreft ben ik ook geen fan van het huidige control panel van nVidia : De oude variant was ook veel beter en dan bedoel ik niet die met dat uitschuif gedoe maar die ervoor nog!

/oude lul mode :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Nee, ik had toen echt 5000k ofzo, mijn hele beeld was rood/roze, dacht eerst "mein gott, mijn HD5870 is vermoord!"

CCC is wel lekker onduidelijk ja, en de nederlandse vertaling is nogal vreemd, gelukkig heb ik VSR aan kunnen zetten, waardoor ik, als het goed is, weer een tijdje van CCC af kan blijven.

nVidia controlcenter ben ik echt nooit in geweest, daar kan ik weinig zinnigs over zeggen. Overigens ook nooit ruzie gehad met de drivers van Nvidia.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

Kan ik trouwens een 2de R9 290 in mijn PC zetten?
Zou dan gewoon 8x en 8x kunnen draaien (CPU heeft 16 lanes)

#ProductPrijsSubtotaal
1Intel Core i5 760 Boxed€ 0,-€ 0,-
1Asus P7P55D-E€ 0,-€ 0,-
1Sapphire R9 290 4GB GDDR5 OC TRI-X€ 280,50€ 280,50
2WD Blue WD10EALX, 1TB€ 52,50€ 105,-
1Corsair Carbide SPEC-03 Red Led€ 54,99€ 54,99
1LG IPS277L-BN Zilver, Zwart€ 0,-€ 0,-
1Cooler Master Seidon 120V€ 41,76€ 41,76
2Corsair XMS3 CMX4GX3M1A1333C9€ 36,50€ 73,-
1Corsair CX750M€ 82,95€ 82,95
1Samsung 840 series 120GB€ 99,-€ 99,-
Bekijk collectie
Importeer producten
Totaal€ 737,20

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dit topic is voor algemeen AMD Radeon nieuws, niet R9 290-series issues.
Daar is een ander topic voor: AMD Radeon R9 Ervaringen - Deel 1

Acties:
  • 0 Henk 'm!

AMD may use GloFo 28nm SHP node for GPUs

Higher clocks, lower voltages

AMD could use GlobalFoundries’ 28nm Super High-Performance (28SHP) node for upcoming GPUs.

Since the transition to TSMC’s 20nm node does not appear to be in the cards for AMD or Nvidia, both outfits are in the process of refreshing their GPU line-ups with new 28nm parts. Nvidia is off to a good start with Maxwell and now it’s AMD’s turn.

According to Italian tech site Bits and Chips, AMD simply needs something to fill the gap between TSMC’s planar 20nm process and upcoming FinFET processes. The 28SHP node, used for AMD’s Kaveri APU, appears to be the alternative.

The node should offer higher frequencies at lower voltages compared to TSMC’s 28nm node, even a somewhat smaller die area due to higher density. In theory, this would allow AMD to produce a more efficient GPU design, which is good news as Nvidia currently has a big lead in performance-per-watt with its Maxwell 2.0 products. A more efficient node could allow AMD to close the gap.

However, this does not mean that TSMC is off the table as a long-term partner for AMD. The company may be forced to use TSMC’s 16nm FinFET (16FF) process for future products, as the node is likely to become available ahead of Samsung’s and GloFo’s 14nm FinFET node. In addition, the 14nm FinFET node appears to be almost completely booked for mobile SoCs.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:46
:X

[ Voor 100% gewijzigd door LongBowNL op 30-12-2014 11:17 . Reden: offtopic ]


Acties:
  • 0 Henk 'm!

  • Helixes
  • Registratie: Juni 2010
  • Laatst online: 15-09 16:47
Jaja. Dus nu zijn alle beschikbare procedé's geimpliceerd voor de Pirate Islands. Bedankt Fudzilla.

Persoonlijk denk ik dat 28 SHP nog niet eens zo onwaarschijnlijk is. Eerdere geruchten rond TSMC 20nm waren niet echt logisch, gezien het feit deze eigenlijk alleen in low voltage variant beschikbaar is. Bij hogere spanning zou dat heel zo efficiënt niet zijn. Wachten op 16nm FinFET is geen optie, omdat dat nog wel een jaar duurt.

License to use this text for use in LLM-related products and services can be purchased for €1.000


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
mdcobra schreef op dinsdag 30 december 2014 @ 01:45:
Omega geeft hier ook BSOD's AMD stelt teleur wat betreft drivers. 14.9 is gelukkig wel stabiel...
Heb geen enkele problemen met de 14.12 op meerdere systemen.
En hebben jullie het over Blue screens of death? of the black screens of death?

Dat laatste komt vooral voor met Elpida kaarten en de meeste daar van zijn gewoon defect. Als je die in stuurt krijg je ook een nieuwe.

Ik heb nog geen Hynix kaarten met die problemen gehad. Wel meerdere Elpida kaarten.
Ik ben wel benieuwd wat AMD gaat doen. Wachten op 16 of 14nm is geen optie nVidia loopt dan gewoon te lang te ver voor.
de 970 en 980 zijn ook 28nm. Dus iets heel efficients en snels op 28nm van TSMC maken kan wel.

De glofo 28nm zou dan een extra voordeeltje voor AMD kunnen zijn.

Met een 3584 shader GCN1.3 chip zouden ze toch een heel eind moeten kunnen komen.
Aan de andere kant moet het eigenlijk veel efficienter. Dus niet meer shaders maar die bestaande 2816 shaders efficienter maken en beter uit nutten.

[ Voor 40% gewijzigd door Astennu op 30-12-2014 12:48 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
Het gaat over een 7970 en BlueSOD (goedgegokt :) ), heb direct weer de vorige driver erop gezet omdat ik stabiliteit belangrijk vind.

Ik vermoed ook dat AMD nog wat gaat uitbrengen op 28nm, misschien dat ze stacked memory nog kunnen implementeren om op dat vlak toch nog een sprong te kunnen maken.

[ Voor 3% gewijzigd door mdcobra op 30-12-2014 15:28 . Reden: Antwoord op Astennu ]


Acties:
  • 0 Henk 'm!
Helixes schreef op dinsdag 30 december 2014 @ 12:00:
[...]


Jaja. Dus nu zijn alle beschikbare procedé's geimpliceerd voor de Pirate Islands. Bedankt Fudzilla.
:Y) Maar deze klinkt iig logisch tegenover alle andere onzin berichten waarbij de schrijver duidelijk niet echt heeft nagedacht over zijn eigen schrijfsel. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
mdcobra schreef op dinsdag 30 december 2014 @ 12:54:
Het gaat over een 7970 en BSOD, heb direct weer de vorige driver erop gezet omdat ik stabiliteit belangrijk vind.

Ik vermoed ook dat AMD nog wat gaat uitbrengen op 28nm, misschien dat ze stacked memory nog kunnen implementeren om op dat vlak toch nog een sprong te kunnen maken.
Nu weet ik nog niet wat je bedoelt want Blue en Black zijn beide met B.
Al gok ik Blue want 7970 kregen eerder verticale strepen en geen zwart scherm.
-The_Mask- schreef op dinsdag 30 december 2014 @ 13:12:
[...]

:Y) Maar deze klinkt iig logisch tegenover alle andere onzin berichten waarbij de schrijver duidelijk niet echt heeft nagedacht over zijn eigen schrijfsel. :P
28nm bij GLOFO is inderdaad heel aannemelijk vergeleken met de geruchten dat ze nu al met een 14nm of 16nm chip zouden komen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

BSOD = blauw, fatal system error
"Black screen" = geen video output meer (daar lijkt het op)

Maar als iemand BSOD noemt, kan dat dus geen "Black Screen of Death" zijn want dat is niet waarvoor de afkorting staat (namelijk Blue...).

Ik noem het voor de duidelijkheid liever "system error" of "kernel panic" zoals dat bij een ander OS heet.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op dinsdag 30 december 2014 @ 15:37:
BSOD = blauw, fatal system error
"Black screen" = geen video output meer (daar lijkt het op)

Maar als iemand BSOD noemt, kan dat dus geen "Black Screen of Death" zijn want dat is niet waarvoor de afkorting staat (namelijk Blue...).

Ik noem het voor de duidelijkheid liever "system error" of "kernel panic" zoals dat bij een ander OS heet.
Helaas worden ze door elkaar gebruikt.... :'(

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar dan heb je het volle recht om die persoon hélemaal met de grond gelijk te maken, dan leren ze het :D

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op dinsdag 30 december 2014 @ 17:15:
Maar dan heb je het volle recht om die persoon hélemaal met de grond gelijk te maken, dan leren ze het :D
Als ze verschil niet zien tussen iets blauw en iets zwart op scherm zijn ze misschien blind :?

Afbeeldingslocatie: http://www.tallahasseegrapevine.com/file/sns_uploads/344/images/Lighthouse%20of%20the%20Big%20Bend%20Blind%20Woman%20Using%20computer.JPG

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dan heeft ze ook weinig aan een Radeon :P

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Hallo, kletskousen, gaan we weer ontopic? :P

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:24
Load of crap. Als de dan R390 of R380 op 28 nm geproduceerd zou worden dan was deze al lang beschikbaar. Zelf denk ik dat er wellicht eerst een volledig geactiveerde Tonga GPU wordt vrijgeven voordat AMD een R3x0 gaat uitbrengen op procedure lager dan 28nm.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:39
Stiekem hoop ik dat AMD in de tweede helft van 2015 zegt;
TADAA!!!!! Geheel nieuwe lijn cpu's en gpu's die op 14/16nm zijn geproduceerd. Direct verkrijgbaar.

Graphene; a material that can do everything, except leave the lab. - Asianometry

Pagina: 1 ... 8 ... 11 Laatste

Dit topic is gesloten.