Goed argument. Zou de 7 serie niet de eerste kaarten zijn die dergelijke resoluties kunnen versturen?
AMD kan en doet hetzelfde.Olaf van der Spek schreef op donderdag 22 december 2011 @ 20:24:
[...]
Zou een die shrink van de 580 niet 260 mm2 worden? Clocks wat omhoog en je zit op 7970 performance.
Lijkt me niet, een shrink zelf kost ook geld en 28nm is niet zo heel erg veel goedkoper.Format-C schreef op donderdag 22 december 2011 @ 20:32:
Zou mooi zijn. Een geshrinkte GTX580 voor 250 a 300 euries.Ff opvoeren naar 975MHz, en hoppa.
BTW AMD had hetzelfde kunnen doen met Bulldozer een Phenom II had op 32nm beter geweest dan Bulldozer maar had wel een veel slechter toekomst perspectief.
tuurlijk doet je vga dat, wie anders? zet eens een screenshot zonder aa van 1600x1200 naar 800x600 en het lijkt wel of er 8x AA op staat..
maar hoe zit dat met de ramdac die zoals vipeax zegt maar tot bepaalde resos kan gaan?
maar hoe zit dat met de ramdac die zoals vipeax zegt maar tot bepaalde resos kan gaan?
[ Voor 24% gewijzigd door SAiN ONeZ op 22-12-2011 21:55 ]
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Misschien, maar 1920 x 1200 monitor ondersteunt geen 3840 x 2400 op de input.Paprika schreef op donderdag 22 december 2011 @ 21:49:
Goed argument. Zou de 7 serie niet de eerste kaarten zijn die dergelijke resoluties kunnen versturen?
Is dat zo? Dacht dat 7800 ook GCN werd?madmaxnl schreef op donderdag 22 december 2011 @ 21:54:
AMD kan en doet hetzelfde.
Ramwat? Je gebruikt toch geen analoge verbinding meer?sain onez schreef op donderdag 22 december 2011 @ 21:54:
maar hoe zit dat met de ramdac die zoals vipeax zegt maar tot bepaalde resos kan gaan?
[ Voor 45% gewijzigd door Olaf van der Spek op 22-12-2011 21:58 ]
Lees die links die ik gaf maar eens door. 
Het is erg ingewikkeld, maar je monitor zorgt uiteindelijk voor het scalen.
Het is erg ingewikkeld, maar je monitor zorgt uiteindelijk voor het scalen.
the display is tricked into a higher resolution which is broken down by the LCD to the native resolution
[ Voor 100% gewijzigd door Format-C op 22-12-2011 22:01 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat was mijn punt. Die bandbreedte zou er dan toch niet zijn?Olaf van der Spek schreef op donderdag 22 december 2011 @ 21:57:
[...]
Misschien, maar 1920 x 1200 monitor ondersteunt geen 3840 x 2400 op de input.
* Paprika is totally lost and confused.
Of we moeten ff wachten tot Edward2 langs komt. Ik stuur hem wel ff een DM.
Ik heb er wel eens discussies met hem over gehad. Ook over andere IQ settings trouwens. In het verleden tweakte ik (wij) qua IQ alles wat los en vast zat.
Daarom had ik ook altijd van die extreem snelle SLi en CFX setups.
Ik noem maar een voorbeeldje:
4x HQ multisampling AA met transparency AA icm 2x2 sparse grid supersampling.
4x HQ MSTRSSAA.
Edit; dat bedoel ik dus met wat ik gisteren zei; dat er achter NV Control Panel en in mindere mate CCC nog véél meer zit. En dat forceren zeeeer interessant kan zijn voor de IQ.
Edit; nog een kleine toevoeging; met CCC kan je ook veel instellen, mits de game van huis uit een AA setting heeft.
Ik heb er wel eens discussies met hem over gehad. Ook over andere IQ settings trouwens. In het verleden tweakte ik (wij) qua IQ alles wat los en vast zat.
Ik noem maar een voorbeeldje:
4x HQ multisampling AA met transparency AA icm 2x2 sparse grid supersampling.
4x HQ MSTRSSAA.
Edit; dat bedoel ik dus met wat ik gisteren zei; dat er achter NV Control Panel en in mindere mate CCC nog véél meer zit. En dat forceren zeeeer interessant kan zijn voor de IQ.
Edit; nog een kleine toevoeging; met CCC kan je ook veel instellen, mits de game van huis uit een AA setting heeft.
[ Voor 32% gewijzigd door Format-C op 22-12-2011 22:16 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
zo kon je met reg tweaks adaptive aa op de x1800XT forceren die eigenlijk niet voor die serie bedoelt was, en bf2 kwam er wel zo mooi uit te zien...
Dus wat betreft had ATi ook altijd leuke filter opties achter de hand waar je leuk me kon spelen, of de sm2b wat je in Farcry kon enablen, wat sm3.0 weinig vernieuwend maakte, zeker omdat de gf6 te weinig power had om dit mooi te demonsteren, maar we dwalen af..
Dus wat betreft had ATi ook altijd leuke filter opties achter de hand waar je leuk me kon spelen, of de sm2b wat je in Farcry kon enablen, wat sm3.0 weinig vernieuwend maakte, zeker omdat de gf6 te weinig power had om dit mooi te demonsteren, maar we dwalen af..
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Idd. Ik heb Edward een DM gestuurd, misschien dat hij heel kort even kan (en wil) zeggen wat downsampling precies is en hoe het werkt..sain onez schreef op donderdag 22 december 2011 @ 22:11:
maar wel dwalen af..
Sorry.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Zou ie neliz gekidnapped hebben toen ie met 2 reviewsamples in zijn fietstas het MSI gebouw verliet, en zijn ze nu samen aan het benchen?!
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Maar dan zou je toch met 2560x1600 die filter nooit kunnen gebruiken? Dat zou toch een technisch limiet zijn?
Of niet eens bij Full HD als je een single-link DVI kabel hebt....
[ Voor 22% gewijzigd door Paprika op 22-12-2011 22:15 ]
Ik wacht even af of Edward nog langskomt.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Even voor de duidelijkheid:
Het probleem zit mij niet in de werking, maar het feit dat er dus 2x zoveel data naar de monitor moet, terwijl de kabel die data niet aan kan.
Het probleem zit mij niet in de werking, maar het feit dat er dus 2x zoveel data naar de monitor moet, terwijl de kabel die data niet aan kan.
HDMI kan dat toch wel aan?
Edit; blijkbaar kan het wel, HIER doen ze het ook.
Edit; blijkbaar kan het wel, HIER doen ze het ook.
Benq BL2400PT über DVI angeschlossen @1920x1080 nativ
[ Voor 79% gewijzigd door Format-C op 22-12-2011 22:18 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
waarschijnlijk word het dus niet naar je monitor gestuurd maar gesampled on the fly en dan gecomprimeerd verzonden.. ( whatever that may be, maar het klinkt wel bruut
)
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Voorbeeldjes;
http://www.oc-burner.de/f.../2880x1620@1920x1080.html
http://www.oc-burner.de/f.../3840x2160@1920x1080.html
Neem dit toch maar ff door, if interested:
http://www.forum-3dcenter...n/showthread.php?t=454129
http://hardforum.com/showthread.php?t=1616639
http://www.oc-burner.de/f.../2880x1620@1920x1080.html
http://www.oc-burner.de/f.../3840x2160@1920x1080.html
Neem dit toch maar ff door, if interested:
http://www.forum-3dcenter...n/showthread.php?t=454129
http://hardforum.com/showthread.php?t=1616639
[ Voor 57% gewijzigd door Format-C op 22-12-2011 22:25 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
HDMI 1.4 is 4K × 2K, oftewel met geluk zou 2560x1600 dan nog net kunnen (x2 = 8.192.000).
[ Voor 3% gewijzigd door Paprika op 22-12-2011 23:00 ]
Als een resolutie verdubbelt, dan verviervoudigt het aantal pixels doorgaans, of ik moest mij vergissen?Paprika schreef op donderdag 22 december 2011 @ 22:19:
HDMI 1.4 is 4K × 2K, oftewel met geluk zou 2560x1600 dan nog net kunnen (x2 = 8.192.000).
Dat zijn doodnormale optimalisaties die bij élk populair nieuw spel voorkomen. En die maakt nVidia ook. Dat soort dingen gaan echt niet het hele beeld van de performance van een kaart veranderen....Help!!!! schreef op donderdag 22 december 2011 @ 19:51:
[...]
Dat heeft het tot op zekere hoogte natuurlijk wel.
Je moet jezelf uiteraard niet rijk rekenen, maar het is gewoon aannemelijk dat er binnen een acceptabele termijn winsten geboekt gaan worden. Bij BF3 schijnt er tov de reviewdrivers al weer 5% gepakt te zijn.
Zie boven...dahakon schreef op donderdag 22 december 2011 @ 19:10:
[...]
Speculeren is inderdaad niet het meest zinvolle. Wat zinniger is, is om de huidige situatie te pakken (snelste single GPU kaart die je (straks) kunt kopen en later, wanneer nVidia klaar is om hun performance kaart op de markt te brengen, de HD7970 als tegenhanger benchen met de drivers die dan beschikbaar zijn (iets wat helaas niet bij alle reviewers daadwerkelijk gedaan wordt). Op dat moment kun je vervolgens bepalen welke kaart het snelste is en eventueel kijken of HD7970 nog wat prestatietoename heeft mogen zien in bepaalde spellen.
Oh niet eens opgelet, maar uiteraard. Is handig als je beide richtingen doet. Dan wordt het al helemaal erg veel data.DevilsProphet schreef op donderdag 22 december 2011 @ 22:25:
[...]
Als een resolutie verdubbelt, dan verviervoudigt het aantal pixels doorgaans, of ik moest mij vergissen?

[ Voor 6% gewijzigd door Paprika op 22-12-2011 22:30 ]
Zestien megapixels, bitches! Daar is geen huidig bestaande schermverbinding tegen bestand. (of het moest zijn van wel)
Ik ben trouwens tevreden met de prestaties van de HD7970, zowel absoluut als vergeleken met het verbruik. De prijs is echter navenant de situatie: koning in single-GPU-land, dus dokken maar. Ochja, ik zal mijn HD4770 wel vervangen door een kaart die gelijkwaardig geprijsd is als toen, namelijk €105. Hopelijk geeft me dat voldoende verbetering. =)
Ik ben trouwens tevreden met de prestaties van de HD7970, zowel absoluut als vergeleken met het verbruik. De prijs is echter navenant de situatie: koning in single-GPU-land, dus dokken maar. Ochja, ik zal mijn HD4770 wel vervangen door een kaart die gelijkwaardig geprijsd is als toen, namelijk €105. Hopelijk geeft me dat voldoende verbetering. =)
Is dit niet gewoon FSAA/SSAA? Bij AMD en nV zijn ze toch ook niet gek?Paprika schreef op donderdag 22 december 2011 @ 22:19:
HDMI 1.4 is 4K × 2K, oftewel met geluk zou 2560x1600 dan nog net kunnen (x2 = 8.192.000).
ik ben zelf ook wat teleurgesteld... De performance increase over de gtx580 is toch minder dan wat de marketing slides deden vermoeden en ook niet eens een klein beetje. Zit toch wel best wel een stuk onder de 30% sneller dan wat ik gehoopt had en daarbij is ie ook nog te duur. Ik hoop dat er nog best wel wat meer uit komt met drivers, zoals het nu is, is deze kaart echt te duur voor me.
Maar ja er zal wel een price drop komen met de launch van de nieuwe nvidias. Ik heb toch dan pas geld voor een nieuwe desktop.
Maar ja er zal wel een price drop komen met de launch van de nieuwe nvidias. Ik heb toch dan pas geld voor een nieuwe desktop.
De verschillen van de review guide zijn er wel. Echter niet op de resoluties van de gemiddelde gamer (het zou me niets verbazen als het grootste gedeelte van de gamers nog niet eens full HD gebruikt). Zie ook de Eyefinity i.c.m. Crossfire review. Daar zien we een verschil van ~45%. Ik denk dat de meesten dan ook veel enthousiaster zouden zijn als de small-die prijzen er nog altijd waren (waarbij ze zichzelf in de voet schoten met bv de 5870), want ook dit maal is ie niet al te groot. De vraag is dan ook wie geef je de schuld: AMD, welke hun positie en mogelijkheden eindelijk benut... of nVidia welke nog geen 28nm lijn heeft laten zien? Laten we maar hopen dat nVidia maar in ieder geval niet te lang op zich laat wachten (note: hopen), want wij als consument hebben eigenlijk (bijna) altijd alleen maar profijt van hun concurrentie.
http://www.computerbase.d..._preisleistungverhaeltnistomcatha schreef op donderdag 22 december 2011 @ 23:49:
Zit toch wel best wel een stuk onder de 30% sneller dan wat ik gehoopt had en daarbij is ie ook nog te duur. Ik hoop dat er nog best wel wat meer uit komt met drivers, zoals het nu is, is deze kaart echt te duur voor me.
Onderaan de pagina staat prijs/prestatie en die is beter dan de GTX590 en gelijk met de GTX580 en HD6990.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
...en 20% slechter dan de kaart die hij opvolgt.
erutangiS
Is dat ooit anders geweest voor een high-end kaart dan? Meestal hoe sneller hoe slechter de prijs/prestatie. In het geval van de HD7970 tegenover de GTX580, GTX590 of HD6990 is dat dus niet het geval.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De verbeteringen die ons werden voorgespiegeld waren ten opzichte van een enkele 580 toch? Ook op 2560 x 1600 heb ik die 1,6x nergens gezien.Paprika schreef op vrijdag 23 december 2011 @ 00:11:
De verschillen van de review guide zijn er wel. Echter niet op de resoluties van de gemiddelde gamer (het zou me niets verbazen als het grootste gedeelte van de gamers nog niet eens full HD gebruikt). Zie ook de Eyefinity i.c.m. Crossfire review.
Tuurlijk wel. Het is alleen zoals ik al eerder zei... 10 vs 16 FPS.
Je bedoelt dit?

Je bedoelt dit?
[ Voor 59% gewijzigd door Paprika op 23-12-2011 01:02 ]
Zoiets ja. Vaag dat dat het verschil bij AT veel kleiner is: http://www.anandtech.com/...-radeon-hd-7970-review/19Paprika schreef op vrijdag 23 december 2011 @ 00:59:
Tuurlijk wel. Het is alleen zoals ik al eerder zei... 10 vs 16 FPS.
Je bedoelt dit?
Lies, damn lies en benchmarks?
[ Voor 4% gewijzigd door Olaf van der Spek op 23-12-2011 01:12 ]
Was ik ook al naar 't kijken (en vele andere reviews). Cherry-picked moment binnen een of andere benchmark waar de 7970 het beter deed lijkt me.
Overigens is er op de forums een (naar mijn mening) interessante discussie wat betreft performance waarbij de meesten denken dat de 7970s van de reviews Cherry-picked clockers zijn (dat zal ook wel) en dat AMD eigenlijk >1GHz had geplant, maar voor betere yields uiteindelijk teruggezakt is naar 925MHz. Goed leesvoer mocht je tijd hebben.... Je moet wel wat verder terug gaan voor het begin.
Iets met een 7980 of gehele refresh enzo.
Overigens is er op de forums een (naar mijn mening) interessante discussie wat betreft performance waarbij de meesten denken dat de 7970s van de reviews Cherry-picked clockers zijn (dat zal ook wel) en dat AMD eigenlijk >1GHz had geplant, maar voor betere yields uiteindelijk teruggezakt is naar 925MHz. Goed leesvoer mocht je tijd hebben.... Je moet wel wat verder terug gaan voor het begin.
Iets met een 7980 of gehele refresh enzo.
[ Voor 11% gewijzigd door Paprika op 23-12-2011 01:20 ]
Bron: http://forums.anandtech.c...p=32753217&postcount=1420
.
Interessant bericht dit. Ongeveer wat ik ook zei een paar paginas terug, maar dan wat uitgebreiderApoppin hasnt misinformed.
The 7970s the reviewers got were the cherry picked gems. Its the creme of the crop. With these chips the power draw under load isnt bad at all. But these are the gems. The 7970 can overclock like a beast with very impressive performance scaling. AMD has chosen to clock the 7970 at only 925mhz. Why such a mild speed? Power draw.
While the reviewers got the best gem chips, there is more to the story. AMD has plenty of chips that are power hungry. 925mhz isnt what they hoped for but it gives them the ability to have higher yields and more usable silicon. Its a way to make the most of what they have. But it doesnt end like so. The respins can improve the silicon and AMD will have more capable chips under the same tdp. This is the point.
AMD is making use of as many chips as possible from the silicon they already have. At the same time they are improving their node process. All this adds up to AMD having a more capable GPU just around the corner. Which means the 6970 will be a short lived chip. If all goes well, and the odds are in favor that AMD will be able to improve the silicon in very short order.
This doesnt make the 7970 bad, not at all. Their tessellation execution really impressed me. What it really means is AMD is playing a different kind of hand. We could easily be seeing AMD dropping a 7980 (or Wateva) before the yr is up. A fully improved chip that is more impressive may be just around the corner.
You may think its all good but AMD missed their goal. they made lemonade. I think they are very clever in their execution. Apoppin is telling, in a round about way, how it is. Whats goin on, behind the curtain: Its very possible AMD will be able to gain a lot from their re-spins and the 7970 be a very short lived stepping stone.
Ik wilde de luie mensen niet te veel voeren
, maar dat is inderdaad de discussie.
Deze is overigens ook wel belangrijk (ook een deel van die discussie):
En meteen weer moeten lachen om de link die hij post. Ik wist niet dat ie ook op Fudzilla terecht is gekomen.
Deze is overigens ook wel belangrijk (ook een deel van die discussie):
http://forums.anandtech.c...p=32751626&postcount=1359quote: RussianSensation;32751626He was 100% correct regarding the performance estimate. He never said it would only be 10-20% faster, he specifically said 25-30% faster over GTX580 (overall). In fact, that's true as Anandtech, Hardware Canucks, Computerbase and others have shown, this card is 25-30% faster on average than a GTX580, and that's including DirectX11 games too.
You keep saying this but no single review is showing this. It's about 33-41% faster than HD6970, depending on the source. But yet, you continue to magically round this up to 50%....
I just did a calculation of all the games at 1920x1200 from Anandtech, and HD7970 is only 37% faster over HD6970 in Anandtech's review (I dropped the unplayable BF3 4x MSAA performance and instead added the FXAA into my average). This is almost exactly the same that Hardware Canucks derived - 38%. I don't recall EVER a new ATI/AMD generation GPU being only 37% faster on average in newer games over the previous generation. Maybe 7800GTX 256mb over 6800 Ultra was this slow? And compared to a GTX580, "depending on the game being tested it’s anywhere between 5% and 35% faster than NVIDIA’s GeForce GTX 580, averaging 15% to 25% depending on the specific resolution in use."~ AnandTech's own review
The performance was nothing like this ridiculously exaggerated slide. Also, I read his 3 page preview and I don't recall him mentioning anything about the 10-20% figure. So all in all, apoppin's sources were more or less correct. On the power consumption front, its idle ZeroPower feature is very impressive but it consumes more power at load than HD6970 did, which is a step back for people who care about these things for high-end GPU. You can also make the argument that it isn't cool either since to get it 74-75*C, the fan is running louder than it is on HD6970 (which already isn't a quiet card at all).
The reference in regard to HD7970 being "like Fermi" is NOT to say that it's going to be have similar power consumption like GTX480 did. It means that HD7970 will be a hotter and louder version than the next iteration of HD7970-revision. This is what the comment meant of HD7970 being like Fermi - in another words a stop-gap card for AMD until the "real" HD7970 follows. The comment regarding poor yields was probably unjustified, however. We have no way of knowing if this will be true or not. If HD7970 goes out of stock for weeks, then it's probably fair to assume that yields are poor. For now, I think that statement was premature.
Either way, I think AMD should do an HD4890 style upgrade in 6-8 months and release a 1050-1100mhz version. Then, this card would really start to be more impressive.Based on Arkadrel's links, the card overclocked to 1165 mhz at Legit Reviews. This is amazing.
En meteen weer moeten lachen om de link die hij post. Ik wist niet dat ie ook op Fudzilla terecht is gekomen.
[ Voor 95% gewijzigd door Paprika op 23-12-2011 01:33 ]
Goh, dus als ik het goed heb kan die nieuwe 7970 BF3 niet op ultra settings draaien op mijn 1680x1050 scherm hé?
Ja dat kan ie misschien wel net, met framedrops enzo, maar het is het toch weer net niet!
Nou, dat wordt dus mooi geen 7970 voor mij dan!
Ja dat kan ie misschien wel net, met framedrops enzo, maar het is het toch weer net niet!
Nou, dat wordt dus mooi geen 7970 voor mij dan!
Nu ik die resultaten van legit reviews nog eens bekijk word ik toch wel weer erg enthousiast over de 7970. Op 1165/1625 is het echt een monster van een kaart. Vooral gezien het allemaal op stock voltage is gedaan.
Ik was eerst niet overweldigd door de reviews vanochtend, maar als al die 7970's zo goed klokken als die review exemplaren, dan zijn het toch wel hele mooie dingen
.
Ik was eerst niet overweldigd door de reviews vanochtend, maar als al die 7970's zo goed klokken als die review exemplaren, dan zijn het toch wel hele mooie dingen
En waar heb je dat vandaan?Jovas schreef op vrijdag 23 december 2011 @ 01:46:
Goh, dus als ik het goed heb kan die nieuwe 7970 BF3 niet op ultra settings draaien op mijn 1680x1050 scherm hé?
Ja dat kan ie misschien wel net, met framedrops enzo, maar het is het toch weer net niet!
Nou, dat wordt dus mooi geen 7970 voor mij dan!

Ik heb het gisteren aan W1zzard laten weten.3XPER7 schreef op donderdag 22 december 2011 @ 07:10:
[...]
Die tweede grafiek klopt niet hoor.. De HD5870 =/= HD5970 en laatstgenoemde is al helemaal niet langzamer dan de GTX480.(Laat staan een GTX560Ti
)
quote: W1zzardnot sure about those HD 5970 numbers, maybe CF didnt get enabled. I'll rebench.
quote: W1zzardanything wrong other than hd 5970 ? (which was running in single gpu mode it seems, rebenching that now)
Hij staat nu wel goed in de lijst.quote: W1zzardi rebenched the hd 5970 and uploaded new summary graphs with the corrected results
Paprika schreef op vrijdag 23 december 2011 @ 04:47:
[...]
Hij staat nu wel goed in de lijst.![]()
[afbeelding]
LOL. Een 7970 op 1680x1050?Jovas schreef op vrijdag 23 december 2011 @ 01:46:
Goh, dus als ik het goed heb kan die nieuwe 7970 BF3 niet op ultra settings draaien op mijn 1680x1050 scherm hé?
Ja dat kan ie misschien wel net, met framedrops enzo, maar het is het toch weer net niet!
Nou, dat wordt dus mooi geen 7970 voor mij dan!
Zowieso zonde!
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik had niet gelezen wat je paar pagina's terug zei maar interessant inderdaad!faust2016 schreef op vrijdag 23 december 2011 @ 01:29:
Bron: http://forums.anandtech.c...p=32753217&postcount=1420
[...]
Interessant bericht dit. Ongeveer wat ik ook zei een paar paginas terug, maar dan wat uitgebreider.
De vraag is alleen als er geen concurrentie is waarom zou AMD nu al een iets snellere kaart lanceren?
Ik zou hem bewaren en achter de hand houden of men verwacht dat NVIDIA toch sneller dan verwacht met een antwoord gaat komen?
[ Voor 11% gewijzigd door pino85 op 23-12-2011 08:22 ]
Liefhebber van Tweakers
Dat is ook wat "men" verwacht.
Een paar kleine optimalisaties, en de kloksnelheid een paar honderd Mhz omhoog. Over een maandje of 4 hebben ze beter silicon/ yields omdat het proces verbeterd is, en zal dat dus mogelijk zijn.
"Men" denkt dat AMD nu conservatief clockt om zoveel mogelijk werkende chips te hebben en te kunnen verkopen.
Een paar kleine optimalisaties, en de kloksnelheid een paar honderd Mhz omhoog. Over een maandje of 4 hebben ze beter silicon/ yields omdat het proces verbeterd is, en zal dat dus mogelijk zijn.
"Men" denkt dat AMD nu conservatief clockt om zoveel mogelijk werkende chips te hebben en te kunnen verkopen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ik vraag me even iets af. De kaarten van de reviewers klokken leuk over en geven een leuke boost. Opeens loopt een deel van de mensen te roepen dat AMD de kaart hoger had moeten klokken voor betere prestaties en omdat ze dat niet gedaan hebben, moeten de kaarten van de reviewers wel cherry-picked zijn. Nu laat ik even terzijde of dit laatste het geval is. Het punt wat mij irriteert is, dat men altijd halleluja zingt over de overklokbaarheid van nVidiakaarten en dat je zoveel meer kunt bereiken dan de standaard klok van de kaart. Waarom zou AMD daar niet van geleerd kunnen/mogen hebben? Waarom moet AMD tot op het gaatje gaan met de chips om het goed te doen? De logica ontgaat mij een beetje...
In het kort, roepen dat het cherrypicked kaarten zijn en dat retailproducten niet zo goed kunnen overklokken is natuurlijk ietwat prematuur. We zullen het later wel zien natuurlijk en als de kaarten niet gemakkelijk over de 1000MHz gaan, kan men dat tzt de marketingafdeling van AMD aanrekenen.
In het kort, roepen dat het cherrypicked kaarten zijn en dat retailproducten niet zo goed kunnen overklokken is natuurlijk ietwat prematuur. We zullen het later wel zien natuurlijk en als de kaarten niet gemakkelijk over de 1000MHz gaan, kan men dat tzt de marketingafdeling van AMD aanrekenen.
Heb je wel een punt, maar nVidia kaarten waren vooral vroege geliefder met het OC'endahakon schreef op vrijdag 23 december 2011 @ 09:07:
Ik vraag me even iets af. De kaarten van de reviewers klokken leuk over en geven een leuke boost. Opeens loopt een deel van de mensen te roepen dat AMD de kaart hoger had moeten klokken voor betere prestaties en omdat ze dat niet gedaan hebben, moeten de kaarten van de reviewers wel cherry-picked zijn. Nu laat ik even terzijde of dit laatste het geval is. Het punt wat mij irriteert is, dat men altijd halleluja zingt over de overklokbaarheid van nVidiakaarten en dat je zoveel meer kunt bereiken dan de standaard klok van de kaart. Waarom zou AMD daar niet van geleerd kunnen/mogen hebben? Waarom moet AMD tot op het gaatje gaan met de chips om het goed te doen? De logica ontgaat mij een beetje...
In het kort, roepen dat het cherrypicked kaarten zijn en dat retailproducten niet zo goed kunnen overklokken is natuurlijk ietwat prematuur. We zullen het later wel zien natuurlijk en als de kaarten niet gemakkelijk over de 1000MHz gaan, kan men dat tzt de marketingafdeling van AMD aanrekenen.
Dat is net als met de drivers, veel mensen vinden ATI/AMD drivers onderdoen voor nVidia drivers, terwijl het eigenlijk wel meevalt. Maar vroeger waren ze zo bagger dat dat nog steeds blijft hangen.
Het is waar dat de kaarten van die naar de reviewers zijn gestuurd door AMD met de hand zijn gecontroleerd, dus cherry-picked weten we niet, maar als er iets miss zou zijn met een kaart dan hebben ze die er als het goed is uit gehaald.
Toch zie ik her en der niet iedereen die +200MHz halen dus of ze ook op clockbaarheid geselecteerd zijn weet ik niet.
Het kan best zijn dat AMD expres die marge heeft overgehouden voor clockers en AIB's, zo kunnen we allemaal aan het PCB zien dat het niet moeilijk is om er een 8+8pin kaart van te maken, AIB's kunnen zo heel gemakkelijk met het reverence design een 'supper clocked edition' maken.
Maar aannemelijker is dat AMD een nieuwe architectuur op een nieuw procedé heeft waarvan je niet mag verwachten dat alles perfect is. En toch willen ze een zo hoog mogelijke yield halen omdat ze voorlopig toch niet voorbij gestreefd worden en dus erg veel kaarten moeten kunnen leveren.
Tja dat ligt aan nVidia. En als je het mij vraagt zijn hun er nog voorlopig niet klaar voor.pino85 schreef op donderdag 22 december 2011 @ 15:21:
Dat zou inderdaad zo maar kunnen mits die concurrentie er gaat komen door middel van oftewel prijsverlagingen maar beter zou het zijn dat NVIDIA niet al te lang nodig heeft voor men hun nieuwe serie introduceren zal.. maar daar is nog maar weinig over bekend.
Hier maar ook op hw.info valt het me echt op hoeveel mensen niet begrijpen waarom AMD deze advies prijs heeft gegeven, zo moeilijk is dat toch niet of heb ik dat nu?
Mensen kunnen het misschien wel berijpen maar willen gewoon die lagere prijs zien. Ze zijn nu boos dat ze meer moeten betalen wat imo onterecht is. Ze moeten namelijk niets. Als ze dat niet willen kunnen ze een HD6970 of HD6990 kopen.
Dat is waar. Maar ik denk dat ze daar niet genoeg op verdienen. Daarnaast kan het best dat ze dat nog steeds doen maar niet met hun topmodel. Misschien gebruiken ze daar ene HD78 of HD77 serie voor. En het kan ook gewoon zijn dat de prijzen in 1-2 maanden wel behoorlijk omlaag gaan.Help!!!! schreef op donderdag 22 december 2011 @ 15:22:
[...]
Vanuit dat oogpunt snap ik het ook wel. Echter door een scherpe(re) prijs te zetten kan AMD haar image van "veel bang for buck" verder verstevigen.
Dit is imho een belangrijke tool om meer zieltjes te winnen en een betere merkperceptie bij de koper te creeeren.
Imho is het nog altijd zo dat de massa vindt/denkt: nVidia> AMD.
De andere belangrijke tool is er nu eindelijk eens voor te gaan zorgen dat Triple A driver ondersteuning en IQ optie forcering in CCC eindelijk op hetzelfde of beter niveau dan nVidia komt.
Dat ben ik met je eens. Maar ik kan me ook voorstellen dat je daar niet veel winst mee maakt. En die eerste paar batches kaarten raak je toch wel kwijt. Het is nog steeds een bedrijf dat winst moet maken om te kunnen blijven concurreren tegen Intel en nVidia.
Tja ik weet het niet. Bij sommige nieuwe games schijnen er wel eens wat problemen te zijn. Zelf heb ik er nooit wat van gemerkt. Me pa heeft nu een laptop met GT540M maar ik vind die nVidia drivers zelf maar niets.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is logisch dat AMD niet tegen het absolute plafond aan gaat zitten qua kloksnelheid, aangezien dat inderdaad gewoon zelfmoord is voor yields. Ze moeten namelijk wel stabiliteit kunnen garanderen voor meerdere jaren. Maar het kan best zijn dat ze nog 50MHz sneller hadden gekunt zonder dat dit direct een negatieve impact op de yields zou hebben of het verbruik onevenredig omhoog zou laten gaan. De vraag is alleen of dit nodig is. ~40% sneller dan zijn voorganger, duidelijk een stuk sneller dan de snelste single-GPU van de concurrent (~25%). Dat mensen graag willen dat elke nieuwe generatie 100% meer performance geeft, is natuurlijk een heel ander verhaal. Die winsten worden gek genoeg nooit bij CPU's verwacht.
Daar is niks geks aan; dat is in het verleden ook nog nooit het geval geweest. Daar is 10% op zich aardig. Maar dat heeft ook te maken met het feit dat CPU bakkers, als het mogelijk is, een snellere versie van dezelfde CPU uitbrengen, waardoor de winst bij een nieuwe generatie minder groot lijkt. Zie bijvoorbeeld i5 2700K, i7 950, i7 960 enzovoorts.dahakon schreef op vrijdag 23 december 2011 @ 09:49:
Die winsten worden gek genoeg nooit bij CPU's verwacht.
Bij GPU's is veel meer snelheidwinst per generatie. Ook omdat ze niet bij elke 100Mhz verhoging een nieuw kaart"nummer" uitbrengen. Dan moeten ze ook veel teveel andere componenten op het PCB aanpassen, wat natuurlijk niet haalbaar is tov de winst die ze eruit halen.
100% is natuurlijk niet realistisch. 60% zou nog kunnen, maar dan moet alles meezitten en uitpakken zoals ze willen. Ik vind 40% op zich best aardig. Imho moet je ook kijken naar de snelheidswinst tov eigen laatste topmodel, en niet direkt naar de concurrent.
[ Voor 12% gewijzigd door Format-C op 23-12-2011 10:00 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
hoelang zat er tussen release van de HD4870 en de HD4890, mss dat ze daar op zitten te azen, daar lijkt het steeds meer op te gaan lijken..?!
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®
Pakweg 10 maanden. De duur kan echter van vele zaken afhangen.sain onez schreef op vrijdag 23 december 2011 @ 10:00:
hoelang zat er tussen release van de HD4870 en de HD4890, mss dat ze daar op zitten te azen, daar lijkt het steeds meer op te gaan lijken..?!
Dan hadden ze de 7970 misschien beter 7870 kunnen noemen... AMD werkte eerst van beneden naar boven, en nu weer andersom met nummering. Moet ook wel denk ik om het qua prijs te kunne maken. De 7800 vervangt straks de 6900 voor dezelfde prijs. Op deze manier kunnen ze 7900 met veel winst verkopen.sain onez schreef op vrijdag 23 december 2011 @ 10:00:
hoelang zat er tussen release van de HD4870 en de HD4890, mss dat ze daar op zitten te azen, daar lijkt het steeds meer op te gaan lijken..?!
Als ze 7900 voor 350 hadden weggezet, en 7950 voor bijv 250, dan moeten ze de 7800 veel te goedkoop van de hand doen.
Strategie it is.
Hoe ze een snellere 7970 straks willen gaan noemen is me dan een raadsel.
[ Voor 5% gewijzigd door Format-C op 23-12-2011 10:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
AMD moest ook ruimte maken voor de GPU's op hun APU's, vergeet dat niet. Llano heeft nu nog 6550's, maar het kan best dat met de veel sterkere Trinity GPU ze he naar de 76xx tillen. Het kan dan een beetje druk worden als daar ook nog mainstream GPU's worden verkocht in retail.
7980?Format-C schreef op vrijdag 23 december 2011 @ 10:04:
[...]
Hoe ze een snellere 7970 straks willen gaan noemen is me dan een raadsel.
Ik zie hier nog wel een situatie als met de 4890 ontstaan.
Destijds duurde dat 10 maanden, maar dat zal hier wel anders zijn.sain onez schreef op vrijdag 23 december 2011 @ 10:00:
hoelang zat er tussen release van de HD4870 en de HD4890, mss dat ze daar op zitten te azen, daar lijkt het steeds meer op te gaan lijken..?!
Gebruikelijk is om eerst de 'monster chip' te maken en daarna steeds een chipje kleiner uitbrengen, bij elke chip worden er bugs uit gehaald en optimalisaties doorgevoerd.
Op die manier wordt de kleinste chip (in dit geval de HD7700) het meeste kosten efficiënt, de meeste prestaties per mm² en het minste verbruik. (nVidia gaat het deze generatie andersom doen, maar dat is weer een ander verhaal.)
Die kennis kun je dan weer gebruiken om je 'monster chip' een upgrade te geven
Dus zodra de HD7700 in de schappen ligt kunnen we de eerste RV1090 geruchten verwachten
Áls deze komt, en als deze niet alleen voor de HD7990 wordt gebruikt.
Mits alle kaarten zo lekker clocken. Dan hebben ze deze keer de marge een stuk hoger aangehouden. Dan hadden ze inderdaad op 975 kunnen gaan zitten al had je dan een nog hoger verbruik gehad. Ze hadden ook 925 met een wat lagere v-gpu spanning kunnen gebruiken.dahakon schreef op vrijdag 23 december 2011 @ 09:49:
Het is logisch dat AMD niet tegen het absolute plafond aan gaat zitten qua kloksnelheid, aangezien dat inderdaad gewoon zelfmoord is voor yields. Ze moeten namelijk wel stabiliteit kunnen garanderen voor meerdere jaren. Maar het kan best zijn dat ze nog 50MHz sneller hadden gekunt zonder dat dit direct een negatieve impact op de yields zou hebben of het verbruik onevenredig omhoog zou laten gaan. De vraag is alleen of dit nodig is. ~40% sneller dan zijn voorganger, duidelijk een stuk sneller dan de snelste single-GPU van de concurrent (~25%). Dat mensen graag willen dat elke nieuwe generatie 100% meer performance geeft, is natuurlijk een heel ander verhaal. Die winsten worden gek genoeg nooit bij CPU's verwacht.
Als de concurrentie ook rustig aan doet is meer dan 40% niet nodig. Alleen in het verleden zaten we bij zo'n grote generatie sprong rond de 80%. Echter ging al het transistor budget dan ook op aan Game performance en nu gaat een heel groot deel naar GPGPU. waar je niet direct wat van terug ziet. Als je Civ V speelt wel maar in andere games nog niet.
Vergeet niet dat de HD4890 een andere chip gebruikte. De HD4870 gebruikte de RV770 de HD4890 de RV790. deze was bijna 10% groter door een extra ring die ze in de GPU aangebracht hadden. Daar door konden de clockspeeds aanzienlijk verhoogd worden.sain onez schreef op vrijdag 23 december 2011 @ 10:00:
hoelang zat er tussen release van de HD4870 en de HD4890, mss dat ze daar op zitten te azen, daar lijkt het steeds meer op te gaan lijken..?!
De RV770 haalde die 1GHz namelijk lang niet. Waar de RV790 dat wel kon. Dus dit is wel een andere situatie. Maar ze zouden best met een soort van RV790 kunnen komen.
Al vrees ik dat verbruik gewoon de grote rede is dat ze nu niet hoger clocken. Ik snap alleen niet waarom ze die marge niet gebruikt hebben om de voltages wat te laten zakken.
Dat klopt. Maar dat is de low end markt. Mainstream is in mijn ogen nu de HD67xx En misschien ook nog de HD66xx maar die zit dan echt aan de onderkant van de mainstream. En is ook net wat sneller dan het huidige APU geweld.dahakon schreef op vrijdag 23 december 2011 @ 10:09:
AMD moest ook ruimte maken voor de GPU's op hun APU's, vergeet dat niet. Llano heeft nu nog 6550's, maar het kan best dat met de veel sterkere Trinity GPU ze he naar de 76xx tillen. Het kan dan een beetje druk worden als daar ook nog mainstream GPU's worden verkocht in retail.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Kijk naar wat het effect is van het underclocken van een CPU tegenwoordig. Door de geavanceerde power management functies heeft dat nauwelijks meer nut. Misschien gaat dat voor GPU's ook wel op.Astennu schreef op vrijdag 23 december 2011 @ 10:25:
[...]
Al vrees ik dat verbruik gewoon de grote rede is dat ze nu niet hoger clocken. Ik snap alleen niet waarom ze die marge niet gebruikt hebben om de voltages wat te laten zakken.
Ik zou eerder willen stellen dat het core voltage conservatief hoog is.Format-C schreef op vrijdag 23 december 2011 @ 08:44:
Dat is ook wat "men" verwacht.
Een paar kleine optimalisaties, en de kloksnelheid een paar honderd Mhz omhoog. Over een maandje of 4 hebben ze beter silicon/ yields omdat het proces verbeterd is, en zal dat dus mogelijk zijn.
"Men" denkt dat AMD nu conservatief clockt om zoveel mogelijk werkende chips te hebben en te kunnen verkopen.
Ze klokken stock erg hoog maar verbruiken al net wat teveel waardoor de fan-regeling weer wat hoger ingeschaald moet worden dan de 6970 die ook al erg aanwezig is kwa geluid.
De AMD reference koelers heb ik persoonlijk nooit geweldig gevonden, dat type fan wat ze gebruiken maakt volgens mij sowieso een rauwer geluid dan een conventioneel model wat Nv gebruikt.
Kwa prijs en verbruik ben ik dus niet erg optimistisch al zal dat eerste met aankomende concurrentie wel aardig dalen
@ED_L
Undervolten maakt daarin tegen wel degelijk verschil en dat is hier in het hele eieren eten denk ik.
Dat stock voltage is zo hoog om de yields te maximaliseren. Het is gewoon de afweging die je maakt, helaas ligt de gulden middenweg schijnbaar bij dit verbruik en kun je straks met wat latere batches flink undervolten.
[ Voor 14% gewijzigd door Hekking op 23-12-2011 10:39 ]
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Kwa verbruik ben je niet optimistisch?
Liefhebber van Tweakers
HD66xx en HD67xx vormen samen simpelweg de mainstream, de eerste de onderkant, de tweede de bovenkant (al zullen er mensen zijn die HD6850 mainstream vinden). Trinity zou dan ook de onderkant van de mainstream moeten bedienen, goede prestaties voor een erg schappenlijk prijsje. Enfin, als Trinity HD76xxD gaat gebruiken voor de GPU, is het niet gek om bij de 77xx/78xx/79xx te blijven voor de nieuwe discrete kaarten.Astennu schreef op vrijdag 23 december 2011 @ 10:25:
Dat klopt. Maar dat is de low end markt. Mainstream is in mijn ogen nu de HD67xx En misschien ook nog de HD66xx maar die zit dan echt aan de onderkant van de mainstream. En is ook net wat sneller dan het huidige APU geweld.
Idle niet maar load heeft ook bij cpu's nog extreem veel nut. Bij video kaarten al helemaal. Op die manier hadden ze dezelfde performance kunnen hebben alleen dan niet dat 20watt hogere verbruik tov de HD6970.Edmin schreef op vrijdag 23 december 2011 @ 10:28:
[...]
Kijk naar wat het effect is van het underclocken van een CPU tegenwoordig. Door de geavanceerde power management functies heeft dat nauwelijks meer nut. Misschien gaat dat voor GPU's ook wel op.
De HD68xx serie zit duidelijk hoger. Ook als je kijkt naar de nVidia lineup zie je dat die hoger zitten dan de mid range. Waar de HD79xx High end is. en dual GPU Enthousiast.dahakon schreef op vrijdag 23 december 2011 @ 10:38:
[...]
HD66xx en HD67xx vormen samen simpelweg de mainstream, de eerste de onderkant, de tweede de bovenkant (al zullen er mensen zijn die HD6850 mainstream vinden). Trinity zou dan ook de onderkant van de mainstream moeten bedienen, goede prestaties voor een erg schappenlijk prijsje. Enfin, als Trinity HD76xxD gaat gebruiken voor de GPU, is het niet gek om bij de 77xx/78xx/79xx te blijven voor de nieuwe discrete kaarten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
In mindere mate niet nee, de laatste jaren gaan we stiekem steeds verder omhoog met het verbruik maar dat ligt gewoon allemaal aan de ontwikkeling op procedé en architectuur gebied.pino85 schreef op vrijdag 23 december 2011 @ 10:35:
Kwa verbruik ben je niet optimistisch?
Dat verloopt gewoon steeds moeilijker waardoor er kwa performance steeds minder grote sprongen gemaakt kunnen worden.
Mijn punt is vooral dat ze eens die koeler een andere fan moeten geven en dan net als de 4xxx niet zo agressief moeten koelen en zo de herrie wat binnen de perken houden.
Voor mij krijgt AMD op dat gebied langzaamaan een slechte naam
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Anoniem: 429466
Dat is gewoon meer dan genoeg om er al over heen te kunnen. Maar wil je dit zonder een nieuwe architectuur?Olaf van der Spek schreef op donderdag 22 december 2011 @ 20:24:
[...]
Zou een die shrink van de 580 niet 260 mm2 worden? Clocks wat omhoog en je zit op 7970 performance.
Nvidia kent hem al dus zou het makkelijk moeten kunnen. Srink, kleiner 3gb er op en boom je hebt een 7970 killer.
Ja, laten we alle chips even in de Goblin Item Shrinker gooien en we zijn klaar voor de nieuwe series GPU's... Helaas leven we in de werkelijke wereld en is er niet zoiets als even gemakkelijk de chip halveren in oppervlak.
Anoniem: 429466
Daar bij moet hij dan makkelijk op 1000mhz kunnen draaien gezien 900 sl met stock kan.
Maar ontopic. Ik eigenlijk graag geien dat deze kaar minimaal 50% sneller zou zijn dan de gtx580. Dit mer om persoonlijke redenen want ik wil van sli af.
Maar ontopic. Ik eigenlijk graag geien dat deze kaar minimaal 50% sneller zou zijn dan de gtx580. Dit mer om persoonlijke redenen want ik wil van sli af.
[ Voor 61% gewijzigd door Anoniem: 429466 op 23-12-2011 11:06 ]
Een 6990 is 8% sneller dan een 7970 http://www.computerbase.d...schnitt_leistung_mit_aaaf, sneller en geen slechtere prijs/prestatie.-The_Mask- schreef op vrijdag 23 december 2011 @ 00:42:
Is dat ooit anders geweest voor een high-end kaart dan? Meestal hoe sneller hoe slechter de prijs/prestatie. In het geval van de HD7970 tegenover de GTX580, GTX590 of HD6990 is dat dus niet het geval.
De 6970 (9 vanwege een hoger segment aldus ati,) was bij launch goedkoper dan de 5870 bij launch en sneller, dus ja het was de vorige generatie nog anders.
Ik vindt de vergelijking binnen het segment belangrijker dan die met een hoger segment waar de prijs/prestatie relatief slechter is, daarom vulde ik je selectieve informatie even aan. Maar goed deze vergelijkingen zijn sowieso niet handig, daar oudere generaties meestal worden afgeprijsd bij launch van een nieuwe generatie en daardoor een betere prijs/prestatie lijken te hebben.
erutangiS
Je ziet het net even te makkelijk Tweaker; een shrink laat niet zomaar hogere klok snelheden toe, zeker niet voor een chip die een moeizame geboorte heeft doorstaan 
Kijk maar naar G80 (90nm). Die kwam binnen op 612 MHz (8800 Ultra). Met G92a (65nm, 9800 GTX) kwamen ze tot 675; daar kreeg je dan nog G92b (55nm, 9800 GTX+) bovenop met 738. 126 MHz met twee shrinks waarbij je uiteindelijk van 90 naar 55 nm bent gegaan. Als het werkelijk zo makkelijk was als jij denkt hadden ze daar ook "makkelijk" 800 moeten halen - zeker gezien het feit dat G80 een prachtige chip was
Kijk maar naar G80 (90nm). Die kwam binnen op 612 MHz (8800 Ultra). Met G92a (65nm, 9800 GTX) kwamen ze tot 675; daar kreeg je dan nog G92b (55nm, 9800 GTX+) bovenop met 738. 126 MHz met twee shrinks waarbij je uiteindelijk van 90 naar 55 nm bent gegaan. Als het werkelijk zo makkelijk was als jij denkt hadden ze daar ook "makkelijk" 800 moeten halen - zeker gezien het feit dat G80 een prachtige chip was
[ Voor 4% gewijzigd door Werelds op 23-12-2011 11:13 ]
Anoniem: 429466
Maar de gtx580 doet al makkelijk over de 900 mhz. Dus dan zou het nog makkelijer moeten kunnen denk ik.
Ik zie het indd makkelijk omdat het ook makkelijk gaat met de gtx580
Ik zie het indd makkelijk omdat het ook makkelijk gaat met de gtx580
[ Voor 25% gewijzigd door Anoniem: 429466 op 23-12-2011 11:15 ]
Shrinken, en dan DX11.1 missen en nog altijd geen multimonitor setup ondersteunen. Om maar even wat te noemen.Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 10:51:
[...]
Dat is gewoon meer dan genoeg om er al over heen te kunnen. Maar wil je dit zonder een nieuwe architectuur?
Nvidia kent hem al dus zou het makkelijk moeten kunnen. Srink, kleiner 3gb er op en boom je hebt een 7970 killer.
Daarnaast hebben ze dan geen nieuwe architectuur. Tegen de tijd dat nVidia dan een nieuwe architectuur introduceert heeft AMD al een refresh van zijn nieuwe GCN architectuur op 28nm. nVidia heeft dan dus nul komma nul ervaring met zijn nieuwe architectuur terwijl AMD dan al een tweede generatie 28nm en GCN heeft. Drivers zijn dan al een heel stuk beter, 28nm ook en de architectuur heeft al enkele optimalisatie gehad. Wellicht dat we dan een HD3870 naar HD4870 situatie gaan zien.
HD3870 is 192mm2 en de HD4870 is 256mm2 zowel relatief als absoluut niet veel groter. Al helemaal niet als je kijkt naar de prestatie die het met zich mee brengt. De architectuur die gebruikt werd voor de HD3870 was nog nieuw net als het productie procedé waarop gebakken werd. De HD4870 daarentegen was een tweede generatie 55nm en 5VLIW architectuur(er van uitgaande dat de RV670 een die shrink van de R600 was met minimale aanpassingen).
Zoals ik al eerder heb gezegd voert AMD waarschijnlijk ook een shrink uit met zijn Cayman chip. Enige reden waarom ze dit niet zouden doen is omdat het dan te veel in het vaarwater van Tahiti komt. Ik zie AMD VLIW4 niet meteen overboord gooien. Beetje zonden van die investering, niet ?
Als je een HD7970 overclocked zit je daar heel dicht bij. Dan komt er 17-20% performance bij. De stock 7970 = 16% sneller dan een GTX580 super overclocked 860-1720- 4000 kaart.Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:00:
Daar bij moet hij dan makkelijk op 1000mhz kunnen draaien gezien 900 sl met stock kan.
Maar ontopic. Ik eigenlijk graag geien dat deze kaar minimaal 50% sneller zou zijn dan de gtx580. Dit mer om persoonlijke redenen want ik wil van sli af.
Er komen straks vast factory OC versies die 1000 draaien en misschien stock wel 1200 Core kunnen halen. Aangezien computerbase nu al in de 1100 core haalde met stock voltages is er vast meer mogelijk
Dual GPU vs Single Gpu = not the same.MrOleo schreef op vrijdag 23 december 2011 @ 11:06:
[...]
Een 6990 is 8% sneller dan een 7970 http://www.computerbase.d...schnitt_leistung_mit_aaaf, sneller en geen slechtere prijs/prestatie.![]()
De 6970 (9 vanwege een hoger segment aldus ati,) was bij launch goedkoper dan de 5870 bij launch en sneller, dus ja het was de vorige generatie nog anders.
Ik vindt de vergelijking binnen het segment belangrijker dan die met een hoger segment waar de prijs/prestatie relatief slechter is, daarom vulde ik je selectieve informatie even aan. Maar goed deze vergelijkingen zijn sowieso niet handig, daar oudere generaties meestal worden afgeprijsd bij launch van een nieuwe generatie en daardoor een betere prijs/prestatie lijken te hebben.
De prijs is afgestemd op de GTX580. En dat is imo terecht want dat was de snelste single GPU kaart die er op dat moment was.
[ Voor 48% gewijzigd door Astennu op 23-12-2011 11:17 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 429466
Ze kunnen er altijd nog een extra dvi aansluiting op zetten en wat veranderen dat er met 3 schermen kan worden gegamed. Dat oet makkelijk kunnen.madmaxnl schreef op vrijdag 23 december 2011 @ 11:15:
[...]
Shrinken, en dan DX11.1 missen en nog altijd geen multimonitor setup ondersteunen. Om maar even wat te noemen.
Daarnaast hebben ze dan geen nieuwe architectuur. Tegen de tijd dat nVidia dan een nieuwe architectuur introduceert heeft AMD al een refresh van zijn nieuwe GCN architectuur op 28nm. nVidia heeft dan dus nul komma nul ervaring met zijn nieuwe architectuur terwijl AMD dan al een tweede generatie 28nm en GCN heeft. Drivers zijn dan al een heel stuk beter, 28nm ook en de architectuur heeft al enkele optimalisatie gehad. Wellicht dat we dan een HD3870 naar HD4870 situatie gaan zien.
HD3870 is 192mm2 en de HD4870 is 256mm2 zowel relatief als absoluut niet veel groter. Al helemaal niet als je kijkt naar de prestatie die het met zich mee brengt. De architectuur die gebruikt werd voor de HD3870 was nog nieuw net als het productie procedé waarop gebakken werd. De HD4870 daarentegen was een tweede generatie 55nm en 5VLIW architectuur(er van uitgaande dat de RV670 een die shrink van de R600 was met minimale aanpassingen).
Zoals ik al eerder heb gezegd voert AMD waarschijnlijk ook een shrink uit met zijn Cayman chip. Enige reden waarom ze dit niet zouden doen is omdat het dan te veel in het vaarwater van Tahiti komt. Ik zie AMD VLIW4 niet meteen overboord gooien. Beetje zonden van die investering, niet ?
Kom je weer met feiten die helemaal niet waar zijn tot nu toe, Dat ze pas komen als amd weer wat nieuws heeft. Sorry maar je blijft daa rovr dromen wat niet zo is.
[ Voor 4% gewijzigd door Anoniem: 429466 op 23-12-2011 11:19 ]
Tweaker. Misschien eens soliciteren bij nvidia, al je goede ideeen, daar hebben ze vast nog niet aan gedacht!Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:17:
[...]
Ze kunnen er altijd nog een extra dvi aansluiting op zetten en wat veranderen dat er met 3 schermen kan worden gegamed. Dat oet makkelijk kunnen.
Dat zou kunnen, maar het is niet zo makkelijk als jij hier stelt.Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:17:
[...]
Ze kunnen er altijd nog een extra dvi aansluiting op zetten en wat veranderen dat er met 3 schermen kan worden gegamed. Dat oet makkelijk kunnen.
De huidige oplossing van nVidia is twee kaarten in SLI met wat software en klaar is kees.
Om het op één kaart werkend te krijgen moet er wat meer gebeuren dan alleen één extra connector en wat software.
Lees maar even: Preventing Espionage at AMD: How The Eyefinity Project Came to Be
So simpel is dat nietAnoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:17:
[...]
Ze kunnen er altijd nog een extra dvi aansluiting op zetten en wat veranderen dat er met 3 schermen kan worden gegamed. Dat oet makkelijk kunnen.
Zo iets als Eyefinity maak je niet zo maar dat moet je echt ontwikkelen. En aangezien nVidia dat niet zag aankomen lopen ze daar achter. Ze hebben een tijdelijke oplossing dat je met SLI wel 3 schermen kan. Maar dat is een softwarematige prut oplossing als je het vergelijkt met Eyefinity.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 429466
Dus het moet makkelijk kunnen op 1 kaart. Want dat moet via software volgens jou op te Lossen zijn.madmaxnl schreef op vrijdag 23 december 2011 @ 11:19:
[...]
Dat zou kunnen, maar het is niet zo makkelijk als jij hier stelt.
De huidige oplossing van nVidia is twee kaarten in SLI met wat software en klaar is kees.
Om het op één kaart werkend te krijgen moet er wat meer gebeuren dan alleen één extra connector en wat software.
Lees maar even: Preventing Espionage at AMD: How The Eyefinity Project Came to Be
Sterker nog fabriekanten hebben al nvidia kaarten gemaakt voor 3 monitoren op één kaart.
Ik denk dus dat dat makkelijk kan.
[ Voor 9% gewijzigd door Anoniem: 429466 op 23-12-2011 11:24 ]
Als dat zo zou zijn was het er al wel.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 429466
Die is er al alleen niet door nvidia, tenminste nog niet. Ik denk dat ze dit in de aankomende series goed gaan maken.
[ Voor 35% gewijzigd door Anoniem: 429466 op 23-12-2011 11:23 ]
Met de kant tekening dat deze kaarten cherry picked zijn, maar je hebt gelijk het geeft aan dat er meer in zit een heel stuk meer alleen de vraag is hoe het dan met het verbruik zal gaan.Astennu schreef op vrijdag 23 december 2011 @ 11:15:
[...]
Als je een HD7970 overclocked zit je daar heel dicht bij. Dan komt er 17-20% performance bij. De stock 7970 = 16% sneller dan een GTX580 super overclocked 860-1720- 4000 kaart.
Er komen straks vast factory OC versies die 1000 draaien en misschien stock wel 1200 Core kunnen halen. Aangezien computerbase nu al in de 1100 core haalde met stock voltages is er vast meer mogelijk
[...]
Dual GPU vs Single Gpu = not the same.
De prijs is afgestemd op de GTX580. En dat is imo terecht want dat was de snelste single GPU kaart die er op dat moment was.
Liefhebber van Tweakers
Enfin, even terug naar de hoofdvraag van vandaag.
Een GF114@28nm levensvatbaar ?
Voordelen:
1. Misschien sneller en kleiner dan Tahiti.
Nadelen:
1. Geen DX11.1, als ze er dit wel bij hebben geklust is de chip dus ook groter.
2. Geen Eyefinity tegenhanger.
3. Ze doen geen ervaring op met hun nieuwe architectuur.
4. PCI-e 3.0 ??? Is niet echt nodig, maar bij een dual GPU kaart met voor elke GPU 3GB gaan we denk ik wel verschillen zien. Zeker als je er twee in SLI zet.
5. Idle verbruik niet lager dan Tahiti.
Een GF114@28nm levensvatbaar ?
Voordelen:
1. Misschien sneller en kleiner dan Tahiti.
Nadelen:
1. Geen DX11.1, als ze er dit wel bij hebben geklust is de chip dus ook groter.
2. Geen Eyefinity tegenhanger.
3. Ze doen geen ervaring op met hun nieuwe architectuur.
4. PCI-e 3.0 ??? Is niet echt nodig, maar bij een dual GPU kaart met voor elke GPU 3GB gaan we denk ik wel verschillen zien. Zeker als je er twee in SLI zet.
5. Idle verbruik niet lager dan Tahiti.
[ Voor 6% gewijzigd door madmaxnl op 23-12-2011 11:27 ]
Er zijn imho niet echt veel nadelen. Maar een shrink zal er niet komen denk ik.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Naja ik ben als AMD fanboy bang van wel. Zou namelijk wel pijn doen als voordeel 1 uitkomt.
Ik denk dat hij wel levensvatbaar kan zijn inderdaad al is het maar een tussen oplossing tot ze met iets beters kunnen komen.
De vraag is dan ook het ontbreken van oa DX 11.1 in hoeverre gaat dit binnen pak hem beet 5 a 6 maanden echt een groot probleem opleveren?
Eyefinity vind ik( persoonlijk) geen groot probleem maar goed ik maak daar geen gebruik van.
PCi-e 3.0 is gewoon nog niet nodig, ook niet voor sli, het verschil zal imo zeer gering gaan zijn tov 2.0.
Ik hoop zelf dat NVIDIA deze kaart uitbrengt vanwege logische redenen oa concurrentie.. maar of ze het doen tja geen idee heb geen glazen bol helaas.. !
De vraag is dan ook het ontbreken van oa DX 11.1 in hoeverre gaat dit binnen pak hem beet 5 a 6 maanden echt een groot probleem opleveren?
Eyefinity vind ik( persoonlijk) geen groot probleem maar goed ik maak daar geen gebruik van.
PCi-e 3.0 is gewoon nog niet nodig, ook niet voor sli, het verschil zal imo zeer gering gaan zijn tov 2.0.
Ik hoop zelf dat NVIDIA deze kaart uitbrengt vanwege logische redenen oa concurrentie.. maar of ze het doen tja geen idee heb geen glazen bol helaas.. !
[ Voor 4% gewijzigd door pino85 op 23-12-2011 11:31 ]
Liefhebber van Tweakers
Anoniem: 429466
DX11.1 voegde toch niets toe volgens veel hier?madmaxnl schreef op vrijdag 23 december 2011 @ 11:26:
Enfin, even terug naar de hoofdvraag van vandaag.
Een GF114@28nm levensvatbaar ?
Voordelen:
1. Misschien sneller en kleiner dan Tahiti.
Nadelen:
1. Geen DX11.1, als ze er dit wel bij hebben geklust is de chip dus ook groter.
2. Geen Eyefinity tegenhanger.
3. Ze doen geen ervaring op met hun nieuwe architectuur.
4. PCI-e 3.0 ??? Is niet echt nodig, maar bij een dual GPU kaart met voor elke GPU 3GB gaan we denk ik wel verschillen zien. Zeker als je er twee in SLI zet.
5. Idle verbruik niet lager dan Tahiti.
Nv surround moet mogelijk zijn want dat is er al met 1 kaart
pcie 3.0 is niet nodig
idle gebruik kunnen ze ook minder maken.
Je zegt nu allemaal dingen die mogelijk kunnen.
Je mist enkel wat dingen die marketing waardg zijn.
Nvidia komt heel stilletjes met iets wacht maar af
7970 zal maar heel even de snelste single gpu kaart zijn. Ik weet naelijk iets wat ik niet kan delen.
[ Voor 15% gewijzigd door Anoniem: 429466 op 23-12-2011 11:34 ]
Die keuze maken ze dan bewust, dus moeten ze achteraf ook niet mekkeren. En het is afwachten wanneer de eerste dx11.1 game er is.
Een shrink, als die al mogelijk is, zou er imho alleen komen om tijd te winnen tot Kepler.
Als noodoplossing dus.
Edit: de 5 opgesomde nadelen vind iig niet wereldschokkende nadelen.
Een shrink, als die al mogelijk is, zou er imho alleen komen om tijd te winnen tot Kepler.
Als noodoplossing dus.
Edit: de 5 opgesomde nadelen vind iig niet wereldschokkende nadelen.
[ Voor 18% gewijzigd door Format-C op 23-12-2011 11:35 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een goede 5870 kwam je ook al over de 1 GHz mee. Die van mij deed dat. Had ik alleen een behoorlijke voltage sprong voor nodig vanaf 975. Een stock 5870 draait op 850 MHz bij 1.1625v; voor 975 op de core had ik geen extra prik nodig, echter voor 1000 moest ik plotseling naar 1.25v. Resultaat was uiteindelijk dat ik voor die 25 MHz een dikke 10 graden extra hitte moest verwerken. Hoewel een shrink ook op dat vlak helpt, is het niet alleen de gebruikte node die bepaalt hoe ver je je kaarten krijgt gekloktAnoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:14:
Maar de gtx580 doet al makkelijk over de 900 mhz. Dus dan zou het nog makkelijer moeten kunnen denk ik.
Ik zie het indd makkelijk omdat het ook makkelijk gaat met de gtx580
Zo ging het geheugen van m'n 5870 niet verder dan 1220, terwijl veel anderen voorbij 1250 gingen.
Wederom, was het maar zo makkelijk. Dacht je dat AMD gewoon voor de gein het gebruik van DP nodig heeft voor Eyefinity? Voor HDMI/DVI heb je een klok generator nodig (RAMDAC). Wil jij meer van die poorten aansturen, moet je meer klok generators hebben - en daar zit het grootste probleem. Kan zeker, maar makkelijk is anders; kost een berg, wast een beetjeAnoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:17:
[...]
Ze kunnen er altijd nog een extra dvi aansluiting op zetten en wat veranderen dat er met 3 schermen kan worden gegamed. Dat oet makkelijk kunnen.
Je ziet alles echt veel te makkelijk Tweaker, ze (AMD en NVIDIA) hebben niet voor niets hun chips zo lang in ontwikkeling. Er komt heel wat meer bij kijken dan "even kleiner maken, kloks wat omhoog, paar poortjes erbij". Kijk voor de grap eens naar de architectuur van AMD sinds Cypress, er zit voor Eyefinity gewoon speciaal speelgoed in hoor
Wat betreft DX11.1 overigens, grafisch voegt het geen ruk toe, maar vanwege Stereo3D kan ik het alleen maar toejuichen en vanwege 3D zal het ook niet zo'n stille dood als 10.1 sterven.
Wees dan ook helemaal stil in plaats van aandacht te trekken. We zullen zienAnoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:30:
[...]
7970 zal maar heel even de snelste single gpu kaart zijn. Ik weet naelijk iets wat ik niet kan delen.
[ Voor 6% gewijzigd door Werelds op 23-12-2011 11:36 ]
Anoniem: 429466
Maar er zijn al kaarten met meerdere schermen dus ik snap niet waarom het niet mogelijk is?
We zullen dat zeker gaan zien, geen twijvels over.
Kortom ik zie dingen die makkelijk mogelijk moeten zijn.
Daag jullie doen dit ook altijd dus waarom ik mij stil moeten houden?Werelds schreef op vrijdag 23 december 2011 @ 11:35:
Wees dan ook helemaal stil in plaats van aandacht te trekken. We zullen zien
We zullen dat zeker gaan zien, geen twijvels over.
Kortom ik zie dingen die makkelijk mogelijk moeten zijn.
[ Voor 72% gewijzigd door Anoniem: 429466 op 23-12-2011 11:40 ]
3D leeft niet echt. Dan moeten ze daar ook flink in investeren, maar das een andere discussie.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Deze? Een kaart die nog steeds niet te krijgen is (voor zover ik weet in ieder geval) en waarvan de 570 versie moeizaam te krijgen is via distributeurs, voor de mooie prijs van een eurotje of 430 (na toevoeging van BTW)? Waar je vervolgens ook nog monitors voor nodig hebt die op 50Hz kunnen draaien (wat erg veel monitors gewoon niet kunnen)? En je dan ook geen echt NVIDIA Surround hebt, maar een third party software (wederom) oplossing hebt?Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:36:
Maar er zijn al kaarten met meerdere schermen dus ik snap niet waarom het niet mogelijk is?
[...]
Daag jullie doen dit ook altijd dus waarom ik mij stil moeten houden?
We zullen dat zeker gaan zien, geen twijvels over.
Kortom ik zie dingen die makkelijk mogelijk moeten zijn.
Nogmaals, het is niet zo makkelijk als jij denkt.
Opzicht geen verkeerde gedachten gang, gooi er maar eens wat berekeningen tegen aan:Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 10:51:
[...]
Dat is gewoon meer dan genoeg om er al over heen te kunnen. Maar wil je dit zonder een nieuwe architectuur?
Nvidia kent hem al dus zou het makkelijk moeten kunnen. Srink, kleiner 3gb er op en boom je hebt een 7970 killer.
Ik zelf ga er vanuit dat de GK104 een schrink wordt van een GTX580 met de toevoeging van de kepler aanpassingen. Er is niet echt een bron die dat bevestigd, maar het zou wel logisch zijn.
Deze kaart zou dan de positie moeten vervangen van de GTX560 Ti ~ 170watt
De GTX580 is 520mm² en gespecificeerd op 250watt dus hij zou 32% minder moeten verbruiken.
TSMC's 40 naar 28nm verkleining zou een schaling van 1.8 opleveren en 40% minder verbruik of 40% meer clocks. Uit mijn hoofd
Een GTX660 zou dus 289mm² worden en nog 8% hoger geclocked kunnen worden dan de huidige GTX580.
Dat is exclusief de kepler aanpassingen en als ze AMD willen volgen moet er ook nog wel een extra beeldscherm controller in. Voor de gein maken we er dan 350mm² van.
Als alles goed zou gaan bij nVidia zou de GTX660 minder verbruiken en een klein beetje kleiner zijn dan een HD7970 terwijl hij vergelijkbare performance kan leveren.
Als ze daar dan ook een dual-chip kaart van maken volgen ze exact de strategie van AMD, en krijgen we een goede nek aan nek concurrentie
Dus in theorie, als alles perfect gaat kan een soort GTX580 schrink een killer kaart worden, zeker gezien nVidia werkt aan een bottom-up strategie zou dat ook het doel kunnen zijn, maar behaalde resultaten in het verleden zeggen dat dingen nooit perfect gaan en dat het weer puur afwachten wordt wat het resultaat is.
Want?Astennu schreef op vrijdag 23 december 2011 @ 09:49:
Me pa heeft nu een laptop met GT540M maar ik vind die nVidia drivers zelf maar niets.
nV gebruikt toch ook een blower fan? Ben het wel met je eens, ze mogen wel eens iets aan die geluidsproductie doen.Hekking schreef op vrijdag 23 december 2011 @ 10:29:
De AMD reference koelers heb ik persoonlijk nooit geweldig gevonden, dat type fan wat ze gebruiken maakt volgens mij sowieso een rauwer geluid dan een conventioneel model wat Nv gebruikt.
Wat is er mis met die architectuur (behalve misschien energieverbruik)?Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 10:51:
Dat is gewoon meer dan genoeg om er al over heen te kunnen. Maar wil je dit zonder een nieuwe architectuur?
Nvidia kent hem al dus zou het makkelijk moeten kunnen. Srink, kleiner 3gb er op en boom je hebt een 7970 killer.
Een RAMDAC is geen klokgenerator.Werelds schreef op vrijdag 23 december 2011 @ 11:35:
Voor HDMI/DVI heb je een klok generator nodig (RAMDAC).
[ Voor 83% gewijzigd door Olaf van der Spek op 23-12-2011 12:07 ]
Elke DX11 game kan gepatch worden naar DX11.1 als ze willen heet dat.Format-C schreef op vrijdag 23 december 2011 @ 11:31:
Die keuze maken ze dan bewust, dus moeten ze achteraf ook niet mekkeren. En het is afwachten wanneer de eerste dx11.1 game er is.
Een shrink, als die al mogelijk is, zou er imho alleen komen om tijd te winnen tot Kepler.
Als noodoplossing dus.
Edit: de 5 opgesomde nadelen vind iig niet wereldschokkende nadelen.
Om het topic maar weer richting AMD en Radeon's te sturen;
Over de benaming van een eventuele snellere HD7970; misschien noemen ze 'm gewoon HD7990 en gaan ze voor de dual chip kaarten weer de X2 toevoeging gebruiken?
Over de benaming van een eventuele snellere HD7970; misschien noemen ze 'm gewoon HD7990 en gaan ze voor de dual chip kaarten weer de X2 toevoeging gebruiken?
Graphene; a material that can do everything, except leave the lab. - Asianometry
Anoniem: 429466
Alleen doen game ontwikkelaars dat niet want dan snijden ze zichzelf in de vingers.madmaxnl schreef op vrijdag 23 december 2011 @ 11:52:
[...]
Elke DX11 game kan gepatch worden naar DX11.1 als ze willen heet dat.
Het moet eerst echt mainstream worden anders krijg je maar één of twee games.
Daar doen we het dus niet voor.
Over die drivers moet je niet te serieus nemen.Olaf van der Spek schreef op vrijdag 23 december 2011 @ 11:51:
[...]
Want?
[...]
nV gebruikt toch ook een blower fan? Ben het wel met je eens, ze mogen wel eens iets aan die geluidsproductie doen.
[ Voor 33% gewijzigd door Anoniem: 429466 op 23-12-2011 11:59 ]
Of ze geven ze een revisie nummering. zoals HD 7991 of HD7990 rev1NitroX infinity schreef op vrijdag 23 december 2011 @ 11:52:
Om het topic maar weer richting AMD en Radeon's te sturen;
Over de benaming van een eventuele snellere HD7970; misschien noemen ze 'm gewoon HD7990 en gaan ze voor de dual chip kaarten weer de X2 toevoeging gebruiken?
Ofwel gewoon gelijk bij hun cpu's de clocks een beetje verhogen maar de benaming behouden.
Ik zie een eventueel snellere HD7970 niet snel komen. Zeker niet zoals we het zagen bij de HD4870 en HD4890.
De HD4890 was namelijk een andere chip die licht getweaked was. Daarnaast vind ik het erg voorbarig om nu al te stellen dat de HD7970 kaarten goed overclocken. AMD kan ze hebben 'gecherry picked'.
AMD kan natuurlijk alle goede Tahiti chips op zij gaan leggen om vervolgens t.t.v. een nVidia launch met een HD7980 o.i.d. op de proppen te komen. Ik ben bang dat ze niet genoeg chips gaan kunnen verzamelen want ze moeten ook nog rekening houden met een mogelijke HD7990 waarop ook goede chips geplaatst zullen moeten worden.
De HD4890 was namelijk een andere chip die licht getweaked was. Daarnaast vind ik het erg voorbarig om nu al te stellen dat de HD7970 kaarten goed overclocken. AMD kan ze hebben 'gecherry picked'.
AMD kan natuurlijk alle goede Tahiti chips op zij gaan leggen om vervolgens t.t.v. een nVidia launch met een HD7980 o.i.d. op de proppen te komen. Ik ben bang dat ze niet genoeg chips gaan kunnen verzamelen want ze moeten ook nog rekening houden met een mogelijke HD7990 waarop ook goede chips geplaatst zullen moeten worden.
Een game kan zowel DX10, DX10.1, DX11 als DX11.1 zijn. Kijk naar BF3, die ondersteund DX10, DX10.1 en DX11 en wie weet in de toekomst ook wel DX11.1.Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 11:56:
[...]
Alleen doen gameontwikkelaars dat niet want dan sneiden ze zichzelf in de vingers.
Het moet eenst echt mainstream worden anders krijg je maar één of twee games.
Zoals nVidia doet met zijn GTX560 waarvan ondertussen al drie of vier varianten van zijn. Duidelijk is anders, lijkt me dus geen goed plan. Doe dan iets in de trant van HD7970XT(X).GuardMoony schreef op vrijdag 23 december 2011 @ 12:01:
[...]
Of ze geven ze een revisie nummering. zoals HD 7991 of HD7990 rev1
Ofwel gewoon gelijk bij hun cpu's de clocks een beetje verhogen maar de benaming behouden.
[ Voor 18% gewijzigd door madmaxnl op 23-12-2011 12:07 ]
Gewoon 7980 toch?madmaxnl schreef op vrijdag 23 december 2011 @ 12:04:
Zoals nVidia doet met zijn GTX560 waarvan ondertussen al drie of vier varianten van zijn. Duidelijk is anders, lijkt me dus geen goed plan. Doe dan iets in de trant van HD7970XT(X).
Weet je niet maar zou kunnen. Daarom zeg ik ook we moeten afwachten wat gebruikers straks qua OC ervaren. Maar in het verleden haalde de review kaarten lang niet zulke hoge clocks. (in %).pino85 schreef op vrijdag 23 december 2011 @ 11:24:
[...]
Met de kant tekening dat deze kaarten cherry picked zijn, maar je hebt gelijk het geeft aan dat er meer in zit een heel stuk meer alleen de vraag is hoe het dan met het verbruik zal gaan.
[ Voor 6% gewijzigd door Astennu op 23-12-2011 12:13 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Door alle reacties van Tweaker. zie ik het "Nieuwsdicussietopic" amper meer en is meer het "Geef commentaar op Tweaker. z'n brainfarts topic" .... nofi...
Doe nou even inhoudelijk en spui niet heel de tijd wat je "denkt" of wat je "gevoel" is.....
Daarom lees ik gewoon mee en spui niet alles wat er in me opkomt.
Ik zeg niet dat je er _niets_ van weet, je hebt plenty parate kennis.
Doe nou even inhoudelijk en spui niet heel de tijd wat je "denkt" of wat je "gevoel" is.....
Daarom lees ik gewoon mee en spui niet alles wat er in me opkomt.
Ik zeg niet dat je er _niets_ van weet, je hebt plenty parate kennis.
[ Voor 12% gewijzigd door Vandread op 23-12-2011 12:39 ]
+1Vandread schreef op vrijdag 23 december 2011 @ 12:36:
Door alle reacties van Tweaker. zie ik het "Nieuwsdicussietopic" amper meer en is meer het "Geef commentaar op Tweaker. z'n brainfarts topic" .... nofi...
Doe nou even inhoudelijk en spui niet heel de tijd wat je "denkt" of wat je "gevoel" is.....
Daarom lees ik gewoon mee en spui niet alles wat er in me opkomt.
Dit komt volgens mij ook omdat er veel tweakers emotioneel betrokken zijn bij de release van AMD kaarten.
Sig
Anoniem: 429466
Ik zou zeggen schop een modje ipv hier neer zetten hoe je er persoonlijk over denkt want dat heeft nog veel minder met deze dingen te maken.

+ Ik zeg dingen die met elkaar te maken hebben en zeer aan namelijk zijn. Ik vind het er wel bij passen hier.
+ Ik zeg dingen die met elkaar te maken hebben en zeer aan namelijk zijn. Ik vind het er wel bij passen hier.
[ Voor 94% gewijzigd door Anoniem: 429466 op 23-12-2011 12:45 ]
Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 12:40:
Ik zou zeggen schop een modje ipv hier neer zetten hoe je er persoonlijk over denkt want dat heeft nog veel minder met deze dingen te maken.![]()
+ Ik zeg dingen die met elkaar te maken hebben en zeer aan namelijk zijn. Ik vind het er wel bij passen hier.
En jou heb ik gisteren op duidelijke en vriendelijke manier gewezen op de manier van posten. En nog steeds zie ik dat je al je posts edit. Hou hier a.u.b. rekening mee.Anoniem: 429466 schreef op vrijdag 23 december 2011 @ 12:40:
Ik zou zeggen schop een modje ipv hier neer zetten hoe je er persoonlijk over denkt want dat heeft nog veel minder met deze dingen te maken.![]()
+ Ik zeg dingen die met elkaar te maken hebben en zeer aan namelijk zijn. Ik vind het er wel bij passen hier.
Professioneel Heftruck Syndroom
Dit topic is gesloten.