Je zou hem toch liever eerst willen testen lijkt mij..PilatuS schreef op zondag 18 december 2011 @ 13:32:
[...]
Dan moet ik maar iets langer wachten. Niet echt zin om de kaart luchtgekoeld in de kast te plaatsen.
Ik stop kaarten altijd even in een andere PC om te zien of ze beeld geven en of Furmark 10 min stabiel is. Daarna zet ik het waterblok er op. Ik heb de afgelopen 5 jaar al mijn kaarten watergekoeld gehad, denk niet dat ik daar nog mee ga stoppen.3XPER7 schreef op zondag 18 december 2011 @ 13:38:
[...]
Je zou hem toch liever eerst willen testen lijkt mij..
[ Voor 14% gewijzigd door PilatuS op 18-12-2011 13:40 ]
Lijkt mij ook niet, ben benieuwdPilatuS schreef op zondag 18 december 2011 @ 13:39:
[...]
Ik stop kaarten altijd even in een andere PC om te zien of ze beeld geven en of Furmark 10 min stabiel is. Daarna zet ik het waterblok er op. Ik heb de afgelopen 5 jaar al mijn kaarten watergekoeld gehad, denk niet dat ik daar nog mee ga stoppen.
Deel 123 zal volgen na de lancering van SI wanneer de officiele specs ook bekend zijn. Ook zal de layout van het volgende deel anders zijn, zodat het voor mijn gevoel wat prettiger leest. Wacht maar af..
Plaatjes!


Eyefinity 2.0 klinkt leuk (custom resolutions). New bezelmanagement kan ik me niet veel bij voorstellen.


Eyefinity 2.0 klinkt leuk (custom resolutions). New bezelmanagement kan ik me niet veel bij voorstellen.
[ Voor 24% gewijzigd door Paprika op 18-12-2011 13:43 ]
Salland staat inderdaad bekend om dit soort PR stuntjes om publiciteit te ontvangen en de mensen die niet logisch nadenken of hoe dan ook de kaart als eerste willen ontvangen( wat Salland vaak als zodanig doet overkomen maar 9 van de 10x niet het geval is) en aangezien wij er al over praten hebben ze al bereikt wat ze willen bereiken.Astennu schreef op zondag 18 december 2011 @ 12:34:
[...]
Zou dat salland zijn..... neee vast niet.....die lui kunnen toch nooit leveren. Dus heeft helemaal geen nut om daar ook maar iets te bestellen. Die zijn bijna altijd als eerste maar leveren dan als laatste kaarten uit. Zeer slechte webshop.
Eerst maar even afwachten wat AMD voor een prijs neer zet daar na kan het zo zijn dat deze prijzen met meer dan 100 euro zakken.
Ik denk dat de prijs nog wel wat omlaag gaat net als jij dat denkt, maar hij zou zomaar 499 dollar/550 kunnen mee krijgen als advies prijs.
En hier in NL denk ik toch dat de prijs ook tussen de 450-500 euro zal terecht komen, ze hebben sowieso geen enkele concurrentie nu en AMD heeft in verhouding eigenlijk altijd een andere strategie moeten gebruiken en nu kunnen ze wel weer meer gaan cashen.. niet leuk voor ons maar wel goed voor het bedrijf AMD en ik gun het ze ook wel want ik heb jaren lang enkele generatie kaarten van lage prijzen mogen profiteren.
Of gaat NVIDIA nog iets uit de hoge hoed toveren waar niemand rekening mee heeft gehouden? ik denk het niet de komende maanden.
[ Voor 11% gewijzigd door pino85 op 18-12-2011 13:48 ]
Liefhebber van Tweakers
Na dat alle specs bekend zijn? Dat gaat nog wel even duren dus.... Als het alleen om Tahiti gaat, meeste is al bekend.3XPER7 schreef op zondag 18 december 2011 @ 13:42:
[...]
Deel 123 zal volgen na de lancering van SI wanneer de officiele specs ook bekend zijn. Ook zal de layout van het volgende deel anders zijn, zodat het voor mijn gevoel wat prettiger leest. Wacht maar af..![]()
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Correctie: nadat de eerste officiele specs gepubliceerd zijn-The_Mask- schreef op zondag 18 december 2011 @ 14:04:
[...]
Na dat alle specs bekend zijn? Dat gaat nog wel even duren dus.... Als het alleen om Tahiti gaat, meeste is al bekend.

Paprika schreef op zondag 18 december 2011 @ 13:42:
Plaatjes!
[afbeelding]
[afbeelding]
Eyefinity 2.0 klinkt leuk (custom resolutions). New bezelmanagement kan ik me niet veel bij voorstellen.


Dat bedoelen ze
Dat is vet. 
Meer plaatjes dan maar....


Die 2e.
Meer plaatjes dan maar....


Die 2e.
[ Voor 87% gewijzigd door Paprika op 18-12-2011 14:58 ]
Ik ben het eens met jullie, balen dat de 7970 zo duur wordt, maar wel terecht..
Ik weet nog wel dat ik in December 2003 een 9800XT kocht, die was ook 500 euro, maar wel de snelste toen!
Ik heb lang plezier gehad van dat ding ook..
Ik ga eerst eens kijken hoe de 7970 en de 7950 versie presteren in BF3(enige spel wat ik speel), en daarna hak ik de knoop wel door.. Voorlopig nog maar even verder met de 5850..
Ik weet nog wel dat ik in December 2003 een 9800XT kocht, die was ook 500 euro, maar wel de snelste toen!
Ik heb lang plezier gehad van dat ding ook..
Ik ga eerst eens kijken hoe de 7970 en de 7950 versie presteren in BF3(enige spel wat ik speel), en daarna hak ik de knoop wel door.. Voorlopig nog maar even verder met de 5850..
Die slides zijn, opzich, best wel bruut
Als ze straks nog uitkomen zonder dat NDA watermerk komen ze definitief in de TS van deel 123
hoppa, eyefinity word wat het altijd al had moeten zijn dus..topTomasH schreef op zondag 18 december 2011 @ 14:55:
[...]
[afbeelding]
[afbeelding]
Dat bedoelen ze.
alleen als ze het nou meteen goed hadden gedaan had ik mijn 24inch monitor niet weg hoeven doen
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Low power idle is fijn, hopelijk betekent dat ook low noise.
Geen idee wat je probeert te zeggen met notepad enzo.
Eerlijk? Misschien. Interessant/relevant? Nee. Wat is je punt nou eigenlijk?dahakon schreef op zondag 18 december 2011 @ 01:13:
[...]
GTX480 is ook niet echt meer te koop natuurlijk, maar als je nu HD7970 met GF110 wilt vergelijken, is een vergelijking van Cypress vs GF100 net zo eerlijk (en niet zo gunstig voor laatstgenoemde). Maar goed, het is beter op je onderstaande punt in te gaan.
De primaire toepassing van kaarten als de 7970 is toch gaming, of niet?Op zich is er niets mis met het kijken naar zaken als transistorcounts als je de efficiency van architecturen wilt vergelijken, maar dan kun je niet alleen maar naar games gaan zitten kijken, aangezien de architectuur (tegenwoordig in ieder geval) veel meer behelst dan het zo snel mogenlijk laten draaien van games. Je vergelijkt de efficiency van CPU's ook niet door alleen maar naar de snelheid van het openen van een tekst-documentje te kijken, om het even overdreven te stellen.
Geen idee wat je probeert te zeggen met notepad enzo.
Alsjeblieft3XPER7 schreef op zondag 18 december 2011 @ 15:48:
Die slides zijn, opzich, best wel bruutAls ze straks nog uitkomen zonder dat NDA watermerk komen ze definitief in de TS van deel 123
Je was me net voor ^^
Die vier chipjes suggereren 128 of 256-bit, ik ga voor 128
Idem. Nu ze dat GDDR5 nog iets verder hebben gekregen, denk ik dat 128-bit goed genoeg werkt. 256-bit, te duur, nVidia has its work cut out
Gezien de plaatsing van de fan

Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Is dat een engineering sample?
Nou zit er zoveel loze ruimte rechts op de kaart, waarom zetten ze daar dat groepje capacitors en resistors niet neer. Dan kan de heatsink een stuk groter en efficiënter zijn.
Nou zit er zoveel loze ruimte rechts op de kaart, waarom zetten ze daar dat groepje capacitors en resistors niet neer. Dan kan de heatsink een stuk groter en efficiënter zijn.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Anoniem: 59888
Die loze ruimte is inderdaad opvallend, maar een grotere heatsink is ook duurder. Dat lijkt me in het prijssegment van de HD7770 niet meteen een voordeel.
Daarnaast betwijfel ik of je e.e.a. zomaar kunt verplaatsen. Correct me if I'm wrong (ben geen expert op dit gebied), maar voor zover ik weet zitten links van de GPU vooral de uitgangscircuits, die kun je niet zomaar even naar de rechterkant verplaatsen.
Daarnaast betwijfel ik of je e.e.a. zomaar kunt verplaatsen. Correct me if I'm wrong (ben geen expert op dit gebied), maar voor zover ik weet zitten links van de GPU vooral de uitgangscircuits, die kun je niet zomaar even naar de rechterkant verplaatsen.
Ik heb naar mijn weten onlangs nog een foto van een kaart gezien waarbij de boel rechts zat. Volgens mij 1 van die overklok dingen van de GeForce 580 ofzo.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat je vergelijking GF110 vs HD7970 even oninteressant/irrelevant is. Vergelijk hem maar met Kepler, wanneer deze uitkomt.Olaf van der Spek schreef op zondag 18 december 2011 @ 16:40:
Eerlijk? Misschien. Interessant/relevant? Nee. Wat is je punt nou eigenlijk?
GCN is niet alleen voor gamen gemaakt. Videokaarten in het algemeen hebben bredere toepassingen gekregen de afgelopen jaren. Daar wordt de architectuur ook voor aangepast. Dus alleen voor gamen? Nee, niet echt.De primaire toepassing van kaarten als de 7970 is toch gaming, of niet?
Geen idee wat je probeert te zeggen met notepad enzo.
Zoals het nu is,lijkt me veel beter voor de warmte afvoer (mits het aan de achterkant alle warmte weggaat), zo hoef de warmte niet langs de chip te gaan en kan dus direct weg aan de achterkant.NitroX infinity schreef op zondag 18 december 2011 @ 17:50:
Is dat een engineering sample?
Nou zit er zoveel loze ruimte rechts op de kaart, waarom zetten ze daar dat groepje capacitors en resistors niet neer. Dan kan de heatsink een stuk groter en efficiënter zijn.
|2600k|Asus 290|
andere mogelijkheid is dat het goedkoper of beter is dat de vrm zo dicht mogelijk op de GPU zit.Bullus schreef op zondag 18 december 2011 @ 19:19:
[...]
Zoals het nu is,lijkt me veel beter voor de warmte afvoer (mits het aan de achterkant alle warmte weggaat), zo hoef de warmte niet langs de chip te gaan en kan dus direct weg aan de achterkant.
Het is gebruikelijk om de spanning regeling zo dicht mogelijk bij de spanningsbron te plaatsen in een printplaat ontwerp, De hoofdreden is hoe korter de sporen met veel spanning, des te kleiner de kans op storingen daarvan.NitroX infinity schreef op zondag 18 december 2011 @ 18:57:
Ik heb naar mijn weten onlangs nog een foto van een kaart gezien waarbij de boel rechts zat. Volgens mij 1 van die overklok dingen van de GeForce 580 ofzo.
Deze kaart heeft één PCI-e x6 aansluiting welke maximaal 75watt levert, en kan nog eens 75watt uit het PCI-e slot trekken.
De spanning aansluitingen van het PCI-e slot zitten aan de linker zijde dus vandaar dat het min of meer niet vreemd is om de spanning regeling aan die zijde van de kaart te plaatsen.
Indien de HD7750 onder de 75watt duikt zou het zelfs logisch zijn, dan kunnen ze de connector aan de rechterkant gewoon weglaten.


Dit wordt hier gebruikt om het bord van extra prik te voorzien, maar het is ook maar even om aan te geven waar de PCI-e lane's van de prik toevoer zitten
Bij kaarten die meer verbruiken, bv 225 of 300watt, kies je er voor om de 75watt van de PCI-e aansluiting naar die andere 150 of 225watt te geleiden. Om onnodige complexiteit en storingen te vermijden.
[ Voor 7% gewijzigd door Toettoetdaan op 18-12-2011 21:10 ]
Opzich best nice. Voor wat simpel 2e werk heb je natuurlijk maar een paar Alu's nodig. Dan kun je prima de rest van je chip uit zetten om extra stroom te besparen.Paprika schreef op zondag 18 december 2011 @ 14:56:
Dat is vet.
Meer plaatjes dan maar....![]()
[afbeelding]
[afbeelding]
Die 2e.
En natuurlijk een 2e,3e of 4e kaart in CF helemaal uit zeggen zodra er geen games gedraaid worden. Maar volgens mij doet AMD dat nu ook al met de HD6990 die 2e core staat na genoeg helemaal uit op de desktop.
Wellicht kan deze versie kaarten en cores nog verder uitschakelen.
[ Voor 4% gewijzigd door Astennu op 19-12-2011 00:39 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Volgens mij staat die 2e core van de 6990 alsnog 18W te vreten terwijl ie 'niks' doet, met minder dan 3W is dit dus een hele verbetering.
Nu de cpu's nog
Nu de cpu's nog
En is het niet ook zo dat men voorziet / graag wil dat ook games meer gebruik (gaan) maken van Directcompute / Cuda etc?dahakon schreef op zondag 18 december 2011 @ 19:03:
[...]
[...]
GCN is niet alleen voor gamen gemaakt. Videokaarten in het algemeen hebben bredere toepassingen gekregen de afgelopen jaren. Daar wordt de architectuur ook voor aangepast. Dus alleen voor gamen? Nee, niet echt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 100386
Ik denk dat we met zn alleen de focus op games los moeten laten. GPU's groeien meer en meer richting General Purpose gebruik (GPGPU). En de hoeveelheid software die van OpelCL gebruik maakt, of gaat maken, groeit snel. Over niet al te lange tijd zullen de games in de minderheid zijn qua gebruik van de ruwe kracht van GPU's.Help!!!! schreef op maandag 19 december 2011 @ 09:02:
[...]
En is het niet ook zo dat men voorziet / graag wil dat ook games meer gebruik (gaan) maken van Directcompute / Cuda etc?
[ Voor 0% gewijzigd door Anoniem: 100386 op 19-12-2011 10:59 . Reden: groepen -> groeien ]
Dat denk ik ook maar dan ben ik het er nog niet mee eensAnoniem: 100386 schreef op maandag 19 december 2011 @ 09:14:
[...]
Ik denk dat we met zn alleen de focus op games los moeten laten. GPU's groepen meer en meer richting General Purpose gebruik (GPGPU). En de hoeveelheid software die van OpelCL gebruik maakt, of gaat maken, groeit snel. Over niet al te lange tijd zullen de games in de minderheid zijn qua gebruik van de ruwe kracht van GPU's.
Dus ik denk dat een splitsing best handig zou zijn. Mja dat is waarschijnlijk te duur omdat je dan twee architecturen moet ontwikkelen. Een voor Gaming en een die beide kan.
Misschien wordt het tijd dat nVidia en AMD dev's gaan pushen om die GPGPU power te gaan gebruiken in games. Maar dan zal het probleem wel worden dat de architecturen te verschillend zijn en je dus twee code paths moet maken. Of je moet een compiler hebben met een taal waar beide op werken. OpenCL of Direct compute zouden hier uitkomt kunnen bieden.
Ik vind het anders gewoon zonde van al die transistors en al dat stroomverbruik voor iets wat door heel veel mensen niet gebruikt wordt.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
OpenCL werkt toch juist op zowel AMD als Intel, het is toch juist CUDA dat alleen op NVidia werkt en de ATI/AMD Stream SDK die alleen op Nvidia werkt? Verder werkt Direct Compute op alle kaarten die DirectX 11 ondersteunen dus ook dat werkt overal, hoewel OpenCL op dit moment veel populairder is geloof ik.
Edit: ik snapte je niet, je zegt juist dat OpenCL en DirectCompute oplossen dat er geen apparte code paden meer nodig zijn ipv te beweren dat hierdoor dat juist wel nodig is.
Edit: ik snapte je niet, je zegt juist dat OpenCL en DirectCompute oplossen dat er geen apparte code paden meer nodig zijn ipv te beweren dat hierdoor dat juist wel nodig is.

[ Voor 23% gewijzigd door roy-t op 19-12-2011 10:36 ]
OpenCL draait op bijna alles (zelfs op een CPU), DirectCompute werkt op alle videokaarten die aan een recente DirectX doen (en je moet een MS OS draaien), en CUDA draait 'slechts' op NVidia kaarten. Zoals hieruit op te maken is, is OpenCL het GPGPU platform dat je met dezelfde code praktisch overal aan de slag kan krijgen, terwijl beide concurrenten beperkingen hebben in de software of hardware.
Anoniem: 429466
Zijn er ook tests van cuda vs anders? Misschien laat dat wel zien waarom cuda er is en OCL?
AAA kijk http://www.streamcomputin...l-vs-cuda-misconceptions/
AAA kijk http://www.streamcomputin...l-vs-cuda-misconceptions/
[ Voor 36% gewijzigd door Anoniem: 429466 op 19-12-2011 11:00 ]
Het is weer mogelijk om op het artikel op StreamComputing commentaar te leveren; ik heb de automatische sluiting (ivm spam) verhoogd van 90 naar 200 dagen.
Niet alleen op Tweakers, maar op blogs wereldwijd zijn soortgelijke discussies heftig aan de gang - daarom leek het me interessant om deze meningen weer op 1 plek te krijgen. Dus als iemand over bijv. een week een samenvatting kan maken welke meningen er zijn met verwijzing naar deze discussie, dan weten ze in Rusland en Brazilië ook wat ze hier denken.
Niet alleen op Tweakers, maar op blogs wereldwijd zijn soortgelijke discussies heftig aan de gang - daarom leek het me interessant om deze meningen weer op 1 plek te krijgen. Dus als iemand over bijv. een week een samenvatting kan maken welke meningen er zijn met verwijzing naar deze discussie, dan weten ze in Rusland en Brazilië ook wat ze hier denken.
Algoritmes, maar dan supersnel uitgevoerd, dat is zeg maar mijn ding
Waarom zou dat je verbazen? wellicht is 28nm qua yields veel geschiker voor hogere clocks. Daarnaast is de architectuur ook erg belangrijk voor het behalen van dat soort clock speeds. Cayman en Cypress kunnen de 1 GHz ook halen met voltage verhogingen. En ook niet elke HD4890 deed 1 GHz. Ik heb er wel een gevonden toen de tijd maar dan moest je aardig wat extra prik geven.Paprika schreef op vrijdag 16 december 2011 @ 18:54:
Ik begreep waar je op doelde en het had ook wel gekunt lijkt me als de 7970 niet al standaard met zo'n hoge clocks zou komen. We hebben het nu immers over een kaart waarvan AMD nu al presentaties geeft dat ie 1GHz op de core makkelijk moet kunnen halen en welke standaard al behoorlijk hoog geklokt is. Bij de 4870 was het 750MHz stock en werd de 4890 gelaunched met 850MHz en een klein aantal versies die >950MHz liepen bij aankoop.
[...]
[afbeelding]
Bovenstaande samen met:
[afbeelding]
Zorgt ervoor dat het mij persoonlijk nogal zou verbazen om een dergelijke kaart te zien bij de 7-serie.
Nu weet ik niet of er nog enige (chronologische) logica zit in deze post.![]()
Dus het zou mij niets verbazen als de HD79xx serie wat makkelijker die 1GHz grens zal halen in vergelijking met de HD58xx en HD68xx. Zie ook nVidia's shaders die ver in de 1GHz clocken door de architectuur.
Of bedoelde je wat anders?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Als ik die afbeelding zo zie, hoop ik dat ze standaard al de CCC limieten verhoogt hebben naar bv 1.1GHz.

Scheeld alweer een hoop frustaties @launch, hoeven ze alleen nog de voltage aanpassing te "fixen".

Scheeld alweer een hoop frustaties @launch, hoeven ze alleen nog de voltage aanpassing te "fixen".
[ Voor 21% gewijzigd door Bullus op 19-12-2011 12:16 ]
|2600k|Asus 290|
Anoniem: 429466
Ik snap al die drama over de gpu klocks niet zo. Het zijn meer getalletjes die niet veel zeggen maar goed zal wel marketing zijn?
Omdat mensen graag OCen voor die betekenen die getalletjes veel.Anoniem: 429466 schreef op maandag 19 december 2011 @ 12:24:
Ik snap al die drama over de gpu klocks niet zo. Het zijn meer getalletjes die niet veel zeggen maar goed zal wel marketing zijn?
PreOC, van fabriek uit op kaarten etc
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Anoniem: 429466
Oké op die fiets. Ik zelf klock nooit de gpu over want dat heeft bij mij nooit echt veel geholpen vor extra fps winst. Je ziet de winsten vaak wel in benchmarks maar niet echt in game zelf met he tprogammatje msi afterburner of fraps.
Tja waarom overklokken mensen? Waarom kopen mensen een GTX580 in plaats van een HD6970?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Daar vergis je je dan in Tweaker. Als je maar een paar MHz overklokt zul je het niet zien, maar met name in shader-heavy games is core (en dus shader) overclocking best effectief. Door mijn 5870 van 850 naar 950 te tillen had ik plotseling 5 FPS meer in fatsoenlijke games (en dat was met een E8400). Hoeveel het uit maakt met m'n 6950 heb ik niet echt getest omdat ik er niet echt de tijd voor heb gehad (wil het wel weer serieus gaan doen met een eilandje
).
Veel belangrijker echter is dat je vaak ziet dat je minimum FPS veel meer omhoog schiet. Hoger minimum is veel belangrijker dan max of gemiddelde FPS; je FPS wordt veel stabieler en games voelen gewoon soepeler aan.
En natuurlijk omdat het kan, we zijn immers tweakers, toch?
Veel belangrijker echter is dat je vaak ziet dat je minimum FPS veel meer omhoog schiet. Hoger minimum is veel belangrijker dan max of gemiddelde FPS; je FPS wordt veel stabieler en games voelen gewoon soepeler aan.
En natuurlijk omdat het kan, we zijn immers tweakers, toch?
[ Voor 12% gewijzigd door Werelds op 19-12-2011 12:40 ]
Als je gratis 5%, 10% of zelfs meer uit een kaart kan halen, waarom dan niet ? Overklokken is leuk om te doen en je hebt er ook nog wat aan.En natuurlijk omdat het kan, we zijn immers tweakers, toch?
Wat je daarboven in het voorbeeld dus ziet is een overclock van ~27% op de core en ~10% op het geheugen resulterend in een winst van 11 FPS, of 25% van 44 FPS.
Let op! Dit betreft een 100% bewezen feit.
Nou gaat het hier wel om een nVidia kaart (foei Bullus!
) maar het principe is het hetzelfde.. Dus, ben je nog steeds van mening dat het de moeite niet waard is?
Let op! Dit betreft een 100% bewezen feit.
Nou gaat het hier wel om een nVidia kaart (foei Bullus!
[ Voor 12% gewijzigd door Fid3lity op 19-12-2011 12:58 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Betrouwbaarheid? Gemiddeld zie ik hier iig 45% sneller..
[ Voor 58% gewijzigd door Fid3lity op 19-12-2011 13:07 ]
Anoniem: 429466
Het kan de moeite waard zijn voor in games die niet zo'n lekkere min fps heeft. Echter doe ik het zelf nooit wat merk het verschil nooit. Misschien is dit verschil wel te merken met wat minder stekere kaarten.3XPER7 schreef op maandag 19 december 2011 @ 12:51:
Wat je daarboven in het voorbeeld dus ziet is een overclock van ~27% op de core en ~10% op het geheugen resulterend in een winst van 11 FPS, of 25% van 44 FPS.
Let op! Dit betreft een 100% bewezen feit.
Nou gaat het hier wel om een kaart (foei Bullus!) maar het principe is het hetzelfde.. Dus, ben je nog steeds van mening dat het de moeite niet waard is?
Post ik heel vaak pure onzin? (af en toe wel ja..)3XPER7 schreef op maandag 19 december 2011 @ 13:00:
Betrouwbaarheid? Gemiddeld zie ik hier iig 40% sneller..
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het is dat ik die slide er niet zo extreem fraai uit vind zien..neliz schreef op maandag 19 december 2011 @ 13:04:
[...]
Post ik heel vaak pure onzin? (af en toe wel ja..)
Ik heb 'em ook maar zo gekregen..3XPER7 schreef op maandag 19 december 2011 @ 13:05:
[...]
Het is dat ik die slide er niet zo extreem fraai uit vind zien..
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wat haat ik dit soort grafieken, in het eerste opzicht denk je waarden van 400% te zien, waar dit bij nadere inspectie slechts 160% is.
laat ze gewoon alles bij 0 beginnen of in iedergeval dat vreemde kriegel-lijntje onderaan zetten zodat het meteen duidelijk is dat er iets wegvalt....
Goed voor marketing want ik heb er 5 seconden langer naar gekeken en een "wauw-moment" gehad.
Echter verlies ik wel achting voor degene die zulke grafiekjes maken....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Voor echte GPGPU power wil je de kaart direct aansturen en niet met een API werken. Volgens mij was er laatst nog een artikel waar AMD zelf nog meldde dat ook gamemakers van de APIs af wilde en de GPU direct wilde aansturen.Astennu schreef op maandag 19 december 2011 @ 10:23:
[...]
Misschien wordt het tijd dat nVidia en AMD dev's gaan pushen om die GPGPU power te gaan gebruiken in games. Maar dan zal het probleem wel worden dat de architecturen te verschillend zijn en je dus twee code paths moet maken. Of je moet een compiler hebben met een taal waar beide op werken. OpenCL of Direct compute zouden hier uitkomt kunnen bieden.
Ik bedoelde inderdaad wat anders, namelijk een 4890 voor de 7 serie (dus iets tussen de 7970 en 7990 in, wat dan een 7980 ofzo moest worden.
Een single-GPU kaart die tussen de 7970 en 7990 in zit zie ik niet snel gebeuren.
[ Voor 3% gewijzigd door Paprika op 19-12-2011 13:26 ]
Vind wel jammer dat er niet vermeld word welke fps, min/avg/of max
Hopelijk is het de minimale fps
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Volgens mij mis ik nog de reso en AA/AF settings
|2600k|Asus 290|
Dat kon ik er echt niet uit lezenBullus schreef op maandag 19 december 2011 @ 13:28:
[...]
Volgens mij mis ik nog de reso en AA/AF settings

Mja dat is nou het 'fijne' aan dit soort leaks
[ Voor 18% gewijzigd door Fid3lity op 19-12-2011 13:32 ]
Vierde lijkt op Civ 5 ipv SC2. Ziet er goed uit, ben benieuwd naar de echte reviews - wellicht gaat m'n kaaiman fijn weg en neem ik er een eilandje voor in de plaats
Borderlands of BattleForge? Dat dacht ik.3XPER7 schreef op maandag 19 december 2011 @ 13:29:
[...]
Dat kon ik er echt niet uit lezenWeet niet eens of daar Borderlands en Starcraft II stond
Mja dat is nou het 'fijne' aan dit soort leaksd'r staan wat getallen maar er ontbreken verder nuttige gegevens ^^
Maakt niet uit, 7970 is sneller3XPER7 schreef op maandag 19 december 2011 @ 13:29:
[...]
Dat kon ik er echt niet uit lezenWeet niet eens of daar Borderlands en Starcraft II stond
Mja dat is nou het 'fijne' aan dit soort leaksd'r staan wat getallen maar er ontbreken verder nuttige gegevens ^^
Wie weet schrappen ze de naam 7990 en gaan ze weer terug naar 7970X2 (dan wordt het wel een volwaardige 7970 met zelfde clocks), dan is de mogelijkheid er wel.Paprika schreef op maandag 19 december 2011 @ 13:25:
[...]
Voor echte GPGPU power wil je de kaart direct aansturen en niet met een API werken. Volgens mij was er laatst nog een artikel waar AMD zelf nog meldde dat ook gamemakers van de APIs af wilde en de GPU direct wilde aansturen.
[...]
Ik bedoelde inderdaad wat anders, namelijk een 4890 voor de 7 serie (dus iets tussen de 7970 en 7990 in, wat dan een 7980 ofzo moest worden.Een 4870 was nog niet zo hoog geklokt (750MHz) en een kaart als de XFX 4890 Black Edition liep bv op 1000GHz bij default, dat is dan ook een increase van 33%. Als de 7970 al zo hoog begint (>900MHz), dan zie ik niet veel ruimte voor een 4890 versie van de 7 serie.
Een single-GPU kaart die tussen de 7970 en 7990 in zit zie ik niet snel gebeuren.
[ Voor 57% gewijzigd door Bullus op 19-12-2011 13:41 ]
|2600k|Asus 290|
Het is op alfabet dus is sowieso Civ 5Werelds schreef op maandag 19 december 2011 @ 13:32:
Vierde lijkt op Civ 5 ipv SC2.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik kwam inderdaad ook op BattleForge en Civlization 5 uit (niet dat het veel uitmaakt),


[ Voor 3% gewijzigd door Paprika op 19-12-2011 13:40 ]
Stalker: CoP en dan Shogun 2?-The_Mask- schreef op maandag 19 december 2011 @ 13:39:
[...]
Het is op alfabet dus is sowieso Civ 5
Maar doe allemaal maar even Ctrl + F5, heb mijn graph ook even aangepast..
[ Voor 13% gewijzigd door Fid3lity op 19-12-2011 13:43 ]
Even de discussie over welke games het zouden zijn a-side... Dit zou toch wel boven mijn verwachtingen (niet dat dat slecht is
) liggen.
* Fid3lity vind het zelf ook behoorlijk optimistisch.. Afijn, da's even afwachten dus..Paprika schreef op maandag 19 december 2011 @ 13:44:
Even de discussie over welke games het zouden zijn a-side... Dit zou toch wel boven mijn verwachtingen (niet dat dat slecht is) liggen.
Officieel is het S.T.A.L.K.E.R. ,dus . komt eerder dan de h waarschijnlijk.3XPER7 schreef op maandag 19 december 2011 @ 13:42:
[...]
Stalker: CoP en dan Shogun 2?het staat bij die eerste slide ook zo..
Maar doe allemaal maar even Ctrl + F5, heb mijn graph ook even aangepast..
|2600k|Asus 290|
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat was een beetje opgeblazen stukje. Het ging over een "ideale situatie". Maar zelf weten ze ook dat ze API's nodig hebben om hun games op diverse soorten hardware te laten werken. In een ideale situatie waarin iedereen dezelfde hardware heeft is een API niet nodig. Maar dit is helaas niet zo..Paprika schreef op maandag 19 december 2011 @ 13:25:
[...]
Voor echte GPGPU power wil je de kaart direct aansturen en niet met een API werken. Volgens mij was er laatst nog een artikel waar AMD zelf nog meldde dat ook gamemakers van de APIs af wilde en de GPU direct wilde aansturen.
[...]
Ik bedoelde inderdaad wat anders, namelijk een 4890 voor de 7 serie (dus iets tussen de 7970 en 7990 in, wat dan een 7980 ofzo moest worden.Een 4870 was nog niet zo hoog geklokt (750MHz) en een kaart als de XFX 4890 Black Edition liep bv op 1000GHz bij default, dat is dan ook een increase van 33%. Als de 7970 al zo hoog begint (>900MHz), dan zie ik niet veel ruimte voor een 4890 versie van de 7 serie.
Een single-GPU kaart die tussen de 7970 en 7990 in zit zie ik niet snel gebeuren.
Haha wel ultieme vorm van manipulatie. Door je grafiek bij 0,8 te laten beginnen lijkt de winst gigantisch. Maar als de grafiek vanaf 0 zou beginnen dan lijkt het stuk minder imposant.
[ Voor 14% gewijzigd door Relief2009 op 19-12-2011 13:58 ]
Anoniem: 429466
Wat jammer is is dat er geen bf3 bij zit. Veel mensen zullen dan echt gaan wachten gezien er niet veel games zijn waar een upgrade voor nodig is. Na de komst van BF3 zijn veel mensen bezig met upgraden.
[ Voor 16% gewijzigd door Anoniem: 429466 op 19-12-2011 13:54 ]
Officieel wel.. Maar als ze het zo niet in de slide zetten dan, ja, kunnen wij hier een discussie over gaan voerenBullus schreef op maandag 19 december 2011 @ 13:51:
[...]
Officieel is het S.T.A.L.K.E.R. ,dus . komt eerder dan de h waarschijnlijk.
Ik kan iig niet wachten om m'n 5870 te gaan vervangen..
Weet iemand trouwens hoelang de garantietermijn van de GPU fan is ? want volgens mij zijn de lagers gaar aan het worden.
Weet iemand trouwens hoelang de garantietermijn van de GPU fan is ? want volgens mij zijn de lagers gaar aan het worden.
Lies are obvious to read because the truth is already written
22e....Anoniem: 429466 schreef op maandag 19 december 2011 @ 13:53:
Wat jammer is is dat er geen bf3 bij zit. Veel mensen zullen dan echt gaan wachten gezien er niet veel games zijn waar een upgrade voor nodig is. Na de komst van BF3 zijn veel mensen bezig met upgraden.
Must be green for teen?Anoniem: 429466 schreef op maandag 19 december 2011 @ 13:50:
Ik hoop het want wil een waardige opvolger. Al zal et wel niet zo zijn.
Overigens hier nog wat plaatjes:










http://www.vipeax.nl/7970 voor de hele lijst, maar dit zijn de enige die hier nog niet zij geweest AFAIK.
[ Voor 14% gewijzigd door Paprika op 19-12-2011 13:58 ]
Anoniem: 429466
Ik ben geen fanboy dus kan ook prima met een rood voor volwassen. Al ga ik wel kijken of er een paar maand later nog wat sneller suit komt zo niet dan word het rood voor volwassen.
[ Voor 46% gewijzigd door Anoniem: 429466 op 19-12-2011 14:00 ]
Ik zeg zo'n 30% tot 40% sneller dan een 580 in BF3..Anoniem: 429466 schreef op maandag 19 december 2011 @ 13:53:
Wat jammer is is dat er geen bf3 bij zit. Veel mensen zullen dan echt gaan wachten gezien er niet veel games zijn waar een upgrade voor nodig is. Na de komst van BF3 zijn veel mensen bezig met upgraden.

Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 429466
Je hebt het zelf al wel gezien dus zal het wel zo zijn. Dat betekend een single gpu met alle toeters en bellen aan voor BF3 want er was nog geen kaart die dan niet zou stotteren.neliz schreef op maandag 19 december 2011 @ 14:01:
[...]
Ik zeg zo'n 30% tot 40% sneller dan een 580 in BF3..
Dat klinkt dan zeker weten niet verkeerdneliz schreef op maandag 19 december 2011 @ 14:01:
[...]
Ik zeg zo'n 30% tot 40% sneller dan een 580 in BF3..
Lies are obvious to read because the truth is already written
Ik heb het verschil altijd gemerkt. Tenzij ik oude games ging spelen. Maar ik had al een 1920x1200 monitor toen de meeste 1024x768 TFT's gebruikte. En nu 2560x1600 terwijl het meeste 1920x1080 is. En zeker als je dingen als AA en AF aan zet is het erg te merken.Anoniem: 429466 schreef op maandag 19 december 2011 @ 13:04:
[...]
Het kan de moeite waard zijn voor in games die niet zo'n lekkere min fps heeft. Echter doe ik het zelf nooit wat merk het verschil nooit. Misschien is dit verschil wel te merken met wat minder stekere kaarten.
Nu is het wel zo dat sommige het verschil tussen 40 en 60 fps amper merken. Maar voor mij is 40 fps een ramp.
Marketing Anyone?skoozie schreef op maandag 19 december 2011 @ 13:18:
[...]
Wat haat ik dit soort grafieken, in het eerste opzicht denk je waarden van 400% te zien, waar dit bij nadere inspectie slechts 160% is.
laat ze gewoon alles bij 0 beginnen of in iedergeval dat vreemde kriegel-lijntje onderaan zetten zodat het meteen duidelijk is dat er iets wegvalt....
Goed voor marketing want ik heb er 5 seconden langer naar gekeken en een "wauw-moment" gehad.
Echter verlies ik wel achting voor degene die zulke grafiekjes maken....
[ Voor 29% gewijzigd door Astennu op 19-12-2011 14:10 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verschil tussen 40 en 60 is goed te merken imo ( a.u.b. niet weer een hele discussie hierover), het is maar wat je gewend bent en waar je genoeg mee neemt denk ik zoAstennu schreef op maandag 19 december 2011 @ 14:09:
[...]
Ik heb het verschil altijd gemerkt. Tenzij ik oude games ging spelen. Maar ik had al een 1920x1200 monitor toen de meeste 1024x768 TFT's gebruikte. En nu 2560x1600 terwijl het meeste 1920x1080 is. En zeker als je dingen als AA en AF aan zet is het erg te merken.
Nu is het wel zo dat sommige het verschil tussen 40 en 60 fps amper merken. Maar voor mij is 40 fps een ramp.
Hier eigenlijk ook t liefst 60 fps met alles open maar dat werkt atm niet meer met m'n 5870 icm phenom II x4 955
Lies are obvious to read because the truth is already written
Het moge duidelijk zijn, als GTX580 eigenaar, ga ik zeker de HD7970 in de gaten houden. Momenteel behoor ik namelijk tot de groep die het vertikt om SLI of Crossfire te gaan draaien (zelfs als het goedkoper kan). Mede door het hele micro-stuttering verhaal, maar goed dat is een andere discussie...
Kort samengevat, mits in bijv BF3 een flinke verbetering te zien is, zal ik een aankoop overwegen. Al heb ik ~70fps minimaal op Ultra, dan ben ik al tevreden
Overigens ben ik wel heel erg benieuwd naar de lengte van de kaart, wellicht dat een nieuwe kast dan ook nog op het lijstje komt te staan
Kort samengevat, mits in bijv BF3 een flinke verbetering te zien is, zal ik een aankoop overwegen. Al heb ik ~70fps minimaal op Ultra, dan ben ik al tevreden
Overigens ben ik wel heel erg benieuwd naar de lengte van de kaart, wellicht dat een nieuwe kast dan ook nog op het lijstje komt te staan

I browse with Vivaldi
Slik, nu moet ik alweer gaan upgraden....
1,3-1,6 maal sneller dan de GTX580 in deze staat, (rauwe drivers bij een aangepaste architectuur) is veel belovend
1,3-1,6 maal sneller dan de GTX580 in deze staat, (rauwe drivers bij een aangepaste architectuur) is veel belovend
Niet op voorraad.
Gekeken naar de huidige plaatjes zou ik gewoon van de 6970 en 5870 hun lengtes uitgaan.rlkz schreef op maandag 19 december 2011 @ 14:14:
Overigens ben ik wel heel erg benieuwd naar de lengte van de kaart, wellicht dat een nieuwe kast dan ook nog op het lijstje komt te staan
Maar als je geen API gebruikt krijg je dus het probleem dat games of voor AMD of voor nVidia gemaakt worden. En op een andere kaart presteert het dan echt voor geen ene meter.Paprika schreef op maandag 19 december 2011 @ 13:25:
[...]
Voor echte GPGPU power wil je de kaart direct aansturen en niet met een API werken. Volgens mij was er laatst nog een artikel waar AMD zelf nog meldde dat ook gamemakers van de APIs af wilde en de GPU direct wilde aansturen.
[...]
Ik bedoelde inderdaad wat anders, namelijk een 4890 voor de 7 serie (dus iets tussen de 7970 en 7990 in, wat dan een 7980 ofzo moest worden.Een 4870 was nog niet zo hoog geklokt (750MHz) en een kaart als de XFX 4890 Black Edition liep bv op 1000GHz bij default, dat is dan ook een increase van 33%. Als de 7970 al zo hoog begint (>900MHz), dan zie ik niet veel ruimte voor een 4890 versie van de 7 serie.
Een single-GPU kaart die tussen de 7970 en 7990 in zit zie ik niet snel gebeuren.
Owh op die manier. de HD4890 was meer bedoelt voor wat extra druk op nVidia. En om de tijd een beetje de doden tot de volgende kaart.
Tot nu toe heeft AMD dat niet echt nodig gehad. Ze hadden wel een goed concurrerende lineup. Maar het zou opzich wel grappig zijn ja
Gewoon de garantie van je kaart. Soms is dat een jaar soms 3-5.David Regeling schreef op maandag 19 december 2011 @ 13:55:
Ik kan iig niet wachten om m'n 5870 te gaan vervangen..
Weet iemand trouwens hoelang de garantietermijn van de GPU fan is ? want volgens mij zijn de lagers gaar aan het worden.
Mmmh native 4K support met een kabel i like! Als ik mijn 3008WFP ga vervangen gaat het zeker een 4K scherm wordenPaprika schreef op maandag 19 december 2011 @ 13:58:
[...]
22e....
[...]
Must be green for teen?
Overigens hier nog wat plaatjes:
http://www.vipeax.nl/7970 voor de hele lijst, maar dit zijn de enige die hier nog niet zij geweest AFAIK.
Een ideaal kaartje voor 2560x1600 als dit waar isPaprika schreef op maandag 19 december 2011 @ 14:13:
Iemand bij XtremeSystems heeft zich de tijd genomen de settings te ontcijferen....
[afbeelding]
Inderdaad met een nieuwe architectuur is er meestal wel ruimte voor verbetering.edward2 schreef op maandag 19 december 2011 @ 14:19:
Slik, nu moet ik alweer gaan upgraden....
1,3-1,6 maal sneller dan de GTX580 in deze staat, (rauwe drivers bij een aangepaste architectuur) is veel belovend
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Veel 2560 x 1600 benchmarks. Hopelijk zijn de scores ook representatief voor 1920 x 1200, een toch iets gangbaardere resolutie.Paprika schreef op maandag 19 december 2011 @ 14:13:
Iemand bij XtremeSystems heeft zich de tijd genomen de settings te ontcijferen....
[afbeelding]
Paprika schreef op maandag 19 december 2011 @ 14:20:
[...]
Gekeken naar de huidige plaatjes zou ik gewoon van de 6970 en 5870 hun lengtes uitgaan.
6970 = 27.31cm
5870 = 28.19cm
Dan klopt dat dus wel ongeveer
Anoniem: 38733
Laat me raden: wel zonder msaa zeker? Het aanzetten van msaa in BF3 is namelijk echt een zorgenkindje voor Ati. Een relatief goedkope GTX560ti is dan zelfs vrijwel net zo snel als een 6970.neliz schreef op maandag 19 december 2011 @ 14:01:
[...]
Ik zeg zo'n 30% tot 40% sneller dan een 580 in BF3..
http://www.bit-tech.net/h...ld-3-technical-analysis/4
[ Voor 10% gewijzigd door Anoniem: 38733 op 19-12-2011 14:29 ]
M'n huidige kastPaprika schreef op maandag 19 december 2011 @ 14:22:
[...]
[...]
6970 = 27.31cm
5870 = 28.19cm
Dan klopt dat dus wel ongeveer


Kiele kiele, najah we zullen zien as Do
I browse with Vivaldi
Hee, Edward! Lang niet gezien! Alles goed?edward2 schreef op maandag 19 december 2011 @ 14:19:
Slik, nu moet ik alweer gaan upgraden....
1,3-1,6 maal sneller dan de GTX580 in deze staat, (rauwe drivers bij een aangepaste architectuur) is veel belovend
Ik zie trouwens in die slide waarin de Radeon een stuk sneller is vooral settings waar de GTX580 last heeft van een geheugen bottleneck. Dus ik ben benieuwd hoeveel het verschil op 1920x1200 met AA is.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Gewoon allemaal Eyefinity gaan draaien, dan hoef je je niet zo druk te maken over 20-24-inch resoluties
.
Bezelfinity? Mnee.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat zou mooi zijn!neliz schreef op maandag 19 december 2011 @ 14:01:
[...]
Ik zeg zo'n 30% tot 40% sneller dan een 580 in BF3..
Dat zou kunnen betekenen dat dat in BF3, ervan uitgaande dat de onderlinge performanceverschillen tussen de HD7970, HD7950 en de HD7870 hetzelfde liggen als de HD6970, HD6950 en de HD6870:
- HD7970 - 30 tot 40% sneller dan GTX580
- HD7950 - 10 tot 20% sneller dan GTX580
- HD7870 - tussen HD6970 en GTX580 performance
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Format-C schreef op maandag 19 december 2011 @ 14:28:
Bezelfinity? Mnee.....

Die slides lijken mij niet echt een reëel plaatje geven van de performance, een GTX580 heeft maar 1,5Gb geheugen. Ik speel BF3 met een 5850 1Gb en een vriend met een 5850 2Gb en hij heeft een betere framerate op high dan ik. Ik heb een snellere proc en meer ram..
Dus ik kan mij voorstellen dat het geheugen op 2560x1600 nog eerder een bottleneck is..
Dus ik kan mij voorstellen dat het geheugen op 2560x1600 nog eerder een bottleneck is..
Neej idd dat nooitFormat-C schreef op maandag 19 december 2011 @ 14:28:
Bezelfinity? Mnee.....
Computer nr 486 denk ik..
Dit topic is gesloten.