Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus
http://www.gamingheaven.net/video.php?feature=codemasters
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hoe is dit in het verleden geweest dan ? Zie ook: http://www.computerbase.d...rformancerating_qualitaetEdmin schreef op donderdag 10 december 2009 @ 15:44:
Waarom valt een gat van 44% mee, als het gat tussen dezelfde chips 20% bedraagt? Wat maakt dat nummertje de consument nou uit?
Even jouw redenatie volgend:
5670
40%
5750
20%
5770
44%
5850
20%
5870
Als ik naar de vraag kijk, dan is er zwaar behoefte aan een ~€175 kostende kaart die net wat sneller is dan een 4890.
Daar was het:
4670
47%
4830
28%
4850
14%
4870 512 MB
19%
4870 1GB
11%
4890
38%
4870 X2
Hier zijn de verschillen zelfs nog groter als je de 4670 met de 4850 zou vergelijken. Dan zou het verschil 85% zijn.
Ik heb even gekeken naar 1280x1024 4x AA omdat hier de 4670 ook getest werd. Dit is een klein beetje in het nadeel van de X2 en andere snelle kaarten.
Maar om een lang verhaal kort te maken. De verschillen waren in de vorige generaties groter. Zie ook X1650 VS X1900 zie ook HD2600 vs HD2900 dat zijn nog veel grotere verschillen dan die 44% waar we het nu over hebben. Dan hebben we het eerder over 100% of hoger. Dus als je het mij vraagt is er niets ergs. Opvulling zou leuker zijn voor de consument maar als je het mij vraagt niet noodzakelijk. Bij nVidia zie je ook dit soort verschillen al hebben ze door alle rebrands wel wat kleinere en gelijkmatige verschillen. Maar soms zijn de verschillen daar nog geen 10% en dat is dan ook niet echt noemswaardig.. En vergeleken met voorgaande lineups zijn de gaten nu al kleiner. Ik denk dat een soort van HD5770 Black op iets van 950 of 1000 MHz dat gat voldoende zou kunnen dichten. Een HD5830 op basis van Cypress zou zonde zijn van die cores.
[ Voor 28% gewijzigd door Astennu op 10-12-2009 17:28 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
end 2011Apoca schreef op donderdag 10 december 2009 @ 17:28:
Iemand enig idee wanneer we de HD5xxx range in de Apple computers terug gaan zien?
zucht, wat een antwoord

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Was een HD4830 dan ook zonde?Astennu schreef op donderdag 10 december 2009 @ 17:22:
Een HD5830 op basis van Cypress zou zonde zijn van die cores.
Hij kwam later en ging eerder weg, dus eerst konden ze de slechte GPU's op sparen waarna ze ze verkochten als HD4830's, toen de yields omhoog gingen verdween de HD4830 ook weer. Waarom zou dat nu niet kunnen?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Heeft geen speciale krachten en is daar erg boos over.
Ik had het over de mindere GPU's, degene die je dus niet als HD5850 of HD5870 kunt verkopen, maar alleen als HD5830 of weg kunt gooien.bwerg schreef op donderdag 10 december 2009 @ 19:49:
Nouja, nu zou het zonde zijn aangezien je ze liever verkoopt als HD5850/5870 maar zodra er geen tekort meer is aan die kaarten lijkt me het een prima oplossing.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 318799
De 5850 wordt al gebruikt als prullenbak, ik vraag me af of er wel genoeg chips zijn met meer defecten. Als het te weinig zijn worden ze waarschijnlijk stilletjes weggesluisd naar china. De hd4850 had geen uitgeschakelde delen en desondanks had de hd4830 een kort leven.-The_Mask- schreef op donderdag 10 december 2009 @ 19:54:
[...]
Ik had het over de mindere GPU's, degene die je dus niet als HD5850 of HD5870 kunt verkopen, maar alleen als HD5830 of weg kunt gooien.
Op de HD5770 wordt grof geld verdient. De kaart oogt als een midrange die je voor sub 90 euro kostprijs kan produceren. De geheugenchip zijn zelfs hetzelfde als op de 5750....bwerg schreef op donderdag 10 december 2009 @ 19:49:
Nouja, nu zou het zonde zijn aangezien je ze liever verkoopt als HD5850/5870 maar zodra er geen tekort meer is aan die kaarten lijkt me het een prima oplossing. Er is gewoon markt voor dus ze zouden wel gek zijn als ze het dan niet zouden doen. Anders kopen de potentiële klanten alleen maar de veel goedkopere HD5770 ofzo, terwijl je voor een HD5830 misschien 30-40$ meer kunt vangen.
ATi gebruikt de DX11 monopolie om zo diep mogelijk z'n zakken te vullen, en ik geef ze geen ongelijk, de CPU divisie heeft moeite genoeg om het hoofd boven water te houden.
Ik vind het ook wel prima eigenlijk, het is natuurlijk niet leuk voor onze portemonnee natuurlijk. Maar ik zou het wel mooi vinden als ze straks met de Ati winst Intel een flink pak voor hun broek geven!ATi gebruikt de DX11 monopolie om zo diep mogelijk z'n zakken te vullen, en ik geef ze geen ongelijk, de CPU divisie heeft moeite genoeg om het hoofd boven water te houden.
Opsich zou dat wel mooi zijn, niet omdat ik voor AMD ben, maar omdat de prijzen van Intel dan omlaag gaan, en het is ook goed voor de cpu technologie in het algemeen, Intel gaat dan weer opzoek naar een nog snellere, conclusie; die concurentie is alleen goed voor consumenten, de prijzen zullen dan dalen en de snellere cpu's komen waarschijnlijk ook sneller.TheMasterofDome schreef op donderdag 10 december 2009 @ 21:06:
[...]
Ik vind het ook wel prima eigenlijk, het is natuurlijk niet leuk voor onze portemonnee natuurlijk. Maar ik zou het wel mooi vinden als ze straks met de Ati winst Intel een flink pak voor hun broek geven!
Weet iemand trouwens nog iets over 5830 dan? 1200 shaders ofzoiets? Ik zou hem echt nemen als ie voor rond de 160-170 euro komt, maarja dan komt het probleem 30 euro extra een 5850

28nm o_0.. tis niet onlogisch om eerst ervaring op te doen met een nieuw productie procede voordat ze deze mass gaan produceren op de volgende generatie.. maar dit is niet geloofwaardig meer.
[ Voor 36% gewijzigd door bladerash op 11-12-2009 00:15 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Sapphire Solves Eyefinity Issue

Until now anyone wishing to use a 3rd display in Eyefinity mode on ATI 5000 series graphics cards had to use a DisplayPort screen. This was seen to be quite restrictive by end users as they essentially had to buy a new monitor but Sapphire has come to the rescue.
Now users can take advantage of resolutions up to 7680x1600 over 3 DVI enabled screens by installing the DisplayPort to DVI adapter which is an active powered device (USB power).
It will be interesting to see if Sapphire begin bundling this with their high end hardware in the future.
Hmmmm, er zijn al lang actieve displayport na DVI verloopjes en aangezien er geen prijs bij staat zie ik ook niet waarom dit nu veel beter is dan de andere verloopjes.defcon84 schreef op vrijdag 11 december 2009 @ 09:55:
Sapphire Solves Eyefinity Issue
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik ben er ook op aan het wachten...Apoca schreef op donderdag 10 december 2009 @ 17:28:
Iemand enig idee wanneer we de HD5xxx range in de Apple computers terug gaan zien?
Waarschijnlijk zullen ze vrij snel met een 5850/5870 komen voor de Mac Pro, maar zullen de iMacs en MBPs nog effe moeten wachten...
MBP + Arrandale + 5850m zou leuk zijn :-)
iPhone 12 | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD
Tja... ik zou zo 1,2,3 geen fatsoenlijk merk weten die de converters verkoopt en als je zo'n ding van Sapphire voor een redelijk bedrag kan kopen die zeker weten werkt dan is dat toch best fijn-The_Mask- schreef op vrijdag 11 december 2009 @ 10:11:Hmmmm, er zijn al lang actieve displayport na DVI verloopjes en aangezien er geen prijs bij staat zie ik ook niet waarom dit nu veel beter is dan de andere verloopjes.
Enige wat ik me afvraag : Kan je op de DVI kant ook nog eens een DVI>VGA converter zetten ?? Lijkt me ideaal
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Tuurlijk kon je daar ook nog een actief verloopje (kastje) op zetten die DVI (digitaal) omzet naar D-SUB/VGA (analoog)nero355 schreef op vrijdag 11 december 2009 @ 10:51:
Enige wat ik me afvraag : Kan je op de DVI kant ook nog eens een DVI>VGA converter zetten ?? Lijkt me ideaal
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dat lijkt me wel ja. De displaypoort-uitgang stuurt geen analoog videosignaal mee, zoals een DVI-output soms nog wel doet. Als je dat displaypoort-signaal omzet naar een DVI-signaal dan heb je niet automatisch ook een analoog signaal. Het DVI-signaal moet dan weer actief worden omgezet naar een analoog-signaal.nero355 schreef op vrijdag 11 december 2009 @ 15:46:
Moet die actief zijn ?? De Sapphire is toch al actief
Maar het lijkt me dat je ook wel kastjes (ebay misschien?) kunt vinden die van displaypoort direct naar analoog gaan.
Cat 10.1 nieuws
http://translate.google.c...10-vorgezogen&sl=de&tl=enGeloof er niets van dat de geheugenbandbreedte te laag zou zijn. Ok soms heb je er wel performance nadeel van, maar het verschil tussen de hd4850/70 is ook vaak klein als de core hetzelfde geklokt is (minimum fps).Astennu schreef op donderdag 10 december 2009 @ 07:52:
[...]
Waarom dat ? Het is ongeveer een halve 58xx best netjes dacht ik zo. 1200 shaders was veel te veel geweest. Dan had was die 128 Bit bus ook te klein geweest.
En kijk eens naar het verleden: X1600 vs X1800. Daar waren de performance verschillen wel wat groter dan nu.
Of HD2900 vs HD2600. 320 vs 120 shaders.
Trouwes beetje sneller geheugen erop had ook nog wel gekund
verder ben ik het wel met je eens, alleen de markt is nu iets anders. Imo concurrerren ze zichzelf nu weg, zou sneller een hd4890 kopen als een hd5750/70.
Maar jah nu hebben ze 2 nieuwe high end zoals ze al een tijdje doen en anders zouden het er 3 zijn.
Nukezone FTW

[ Voor 107% gewijzigd door KarlMarX op 13-12-2009 11:14 ]
Ging met mijn 5970 van 40fps naar tegen de 100+ Dus de patch werkte voor mij wel alleen vreemde is nu dat mijn ASUS oc software niet meer werkt. Hij herkent de kaart niet meer met starten van de software. En er zit ook geen OC optie in de CCC iemand enig idee hoe ik dit kan oplossen.
Had de kaart draaien op 900mhz en 1.2volt maar dat kan ik nu niet meer instellen.
|D3 Battletag: <SG>DarkAngelnl#2829| WOT DarkAngelnl
[ Voor 22% gewijzigd door Bullus op 11-12-2009 21:39 ]
|2600k|Asus 290|
Helaas ook al geprobeer maar dan nog het zelfde resultaat.Bullus schreef op vrijdag 11 december 2009 @ 21:33:
Asus software ff opnieuw installeren (uninstall/ install)
Heb nu te tool van msi Afterburner gedownload maar dan veranderd er niets met GPU-Z
Na de wijzigingen.
|D3 Battletag: <SG>DarkAngelnl#2829| WOT DarkAngelnl
Het ATi HD5XXX serie ervaringen topic - Deel 2
|2600k|Asus 290|
Dell en Apple bieden geloof ik goede converters aan. Zou echter wel mooi zijn als de prijzen door deze concurentie een beetje omlaag gaan want 100+ euro is voor mij toch echt te veel.nero355 schreef op vrijdag 11 december 2009 @ 10:51:
[...]
Tja... ik zou zo 1,2,3 geen fatsoenlijk merk weten die de converters verkoopt en als je zo'n ding van Sapphire voor een redelijk bedrag kan kopen die zeker weten werkt dan is dat toch best fijn
Enige wat ik me afvraag : Kan je op de DVI kant ook nog eens een DVI>VGA converter zetten ?? Lijkt me ideaal
Trouwens, ik heb nog een vraag over die wiki pagine. Ik zie er ook een 5990 op staan. Nu is er voor zo ver ik weet nog niets over deze kaart bekend? Wel valt het mij op dat deze 'sclechts' 2GB aan RAM zou bieden. Is de kans niet veel groter dat ze er 4GB (dus 2 actief) op zullen schroeven? Ja, dat klinkt op dit moment misschien totaal gestoord maar het is toch de beste videokaart ter wereld en ik vermoed zo dat GTA IV niet de enige game zal blijven die zulke absurde geheugeneisen stelt.
[ Voor 9% gewijzigd door i7x op 13-12-2009 10:01 ]
🦅 U.S. ETFs kopen in Europa? https://europoor.com/ 📈 ARKK, 📈 UPRO, 📈 TECL, 📈 QQQJ, ...
Hinweis: GTA IV stelt niet zulke grote geheugeneisen van je graka hoor. Ik draai ALLES op zn hoogst (Full HD) met mijn GTX 260 met 896MB ram.i7x schreef op zondag 13 december 2009 @ 10:00:
[...]
Dell en Apple bieden geloof ik goede converters aan. Zou echter wel mooi zijn als de prijzen door deze concurentie een beetje omlaag gaan want 100+ euro is voor mij toch echt te veel.
Trouwens, ik heb nog een vraag over die wiki pagine. Ik zie er ook een 5990 op staan. Nu is er voor zo ver ik weet nog niets over deze kaart bekend? Wel valt het mij op dat deze 'sclechts' 2GB aan RAM zou bieden. Is de kans niet veel groter dat ze er 4GB (dus 2 actief) op zullen schroeven? Ja, dat klinkt op dit moment misschien totaal gestoord maar het is toch de beste videokaart ter wereld en ik vermoed zo dat GTA IV niet de enige game zal blijven die zulke absurde geheugeneisen stelt.
ASUS lanceert 'CuCore' Radeon HD5770
Nu de Radeon HD5700 serie van AMD beter leverbaar begint te worden zullen verschillende partners met alternatieve versies van deze kaart op de markt komen. Onlangs zagen we al een aantal HD5770 kaarten met de koeler van de HD5750, maar ASUS durft nu ook echt een eigen uitvoering op de markt te brengen. Hun nieuwste creatie gaat door het leven als de EAH5770 CuCore/2DI/1GD5 en is voorzien van een waaiervormige koeler met een extra dikke koperen kern. Deze koperen kern op zich weegt omgerekend van troy ounces ongeveer 180 gram. Rondom de kern zitten de aluminium koelvinnen die daadwerkelijk de warmte van de GPU kunnen afgeven aan de omgeving.
Ook het PCB heeft wat aanpassingen ondergaan, want in plaats van twee CrossFire connectors vinden we er slechts één op dit model en waar het referentiemodel 2x DVI, HDMI en DisplayPort heeft beperkt ASUS zich bij deze 'CuCore' variant tot de meestgebruikte aansluitingen zoals VGA, DVI en HDMI. De printplaat van de kaart is voorzien van Japanse solid-cap condensators en een extra PEG6 stroomaansluiting zorgt voor een stabiele stroomtoevoer naar de kaart.
ASUS levert haar eigen Voltage Tweak applicatie bij de videokaart, waarmee overklokkers het voltage van de GPU kunnen opschroeven voor extra overklokpotentieel. De alternatieve CuCore HD5770 van ASUS werkt op de standaard klokfrequenties en staat op moment van schrijven al in onze prijsvergelijker voor prijzen vanaf 130 euro.





[ Voor 6% gewijzigd door Bullus op 13-12-2009 11:26 ]
|2600k|Asus 290|
Anoniem: 263922
En viewdistance op 100%?TheMasterofDome schreef op zondag 13 december 2009 @ 10:20:
[...]
Hinweis: GTA IV stelt niet zulke grote geheugeneisen van je graka hoor. Ik draai ALLES op zn hoogst (Full HD) met mijn GTX 260 met 896MB ram.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Op ebay zijn er zat converters te vinden voor vrij weinig euro's...i7x schreef op zondag 13 december 2009 @ 10:00:
[...]
Dell en Apple bieden geloof ik goede converters aan. Zou echter wel mooi zijn als de prijzen door deze concurentie een beetje omlaag gaan want 100+ euro is voor mij toch echt te veel.
Voorbeeldje: http://cgi.ebay.nl/Displa...rs_RL?hash=item5ad40b2dc5
10euro 11euro voor dp->hdmi...
Dus wordt hier niet overdreven moeilijk gedaan over die converters??
Anoniem: 126513
Het lijkt me wel dat dit kaartje op de markt komt om te overklokken. Omdat ze juist met Koper (Cu) Core adverteren. Vandaar mss ook besparingen in het PCB en connectors?Anoniem: 263922 schreef op zondag 13 december 2009 @ 11:56:
Aparte kaart die 5770 cucore, de core zit wel behoorlijk ver naar achteren, vraag me af wat daar het praktisch nut van is, ik weet ook niet waarom iemand deze kaart boven een reference design 5770 zou verkiezen, of hij zou natuurlijk stukken koeler moeten zijn, maar dat valt ook nog mee als je zo die koeling bekijkt.
Alleen van die analoge uitgang, dat snap ik niet, is een DVI -> Analoog adapter duur, of zit dat in de display uitgang chips? Mss hebben ze er op deze manier minder nodig of goedkopere chips in gebruik. De core lijkt idd erg ver naar achteren te zitten, hoewel ik denk ergens in het midden, iets naast de fan. Overigens een goed goedkoop systeem; koper, genoeg koelingsoppervlakte en een grote fan, werkt hier iig prima.
Tot nu toe is deze CuCore niet echt goedkoper dan de andere HD5770's, dus ik kan nu niks anders bedenken dan pro overklokken.
Die actieve adapter van Sapphire, dat zal in de toekomst gewoon op de kaart zitten, en dan kan men waarschijnlijk via één kabeltje 6 beeldschermen met maximale resolutie aansturen zoals o.a.. bij Matrox.
[ Voor 4% gewijzigd door Anoniem: 126513 op 13-12-2009 12:44 ]
En nu nog eentje die werkt. En laten die nou net 100,- kostenGurneyhck schreef op zondag 13 december 2009 @ 12:39:
[...]
11euro voor dp->hdmi...
Dus wordt hier niet overdreven moeilijk gedaan over die converters??
Heeft geen speciale krachten en is daar erg boos over.
Het moeten actieve converters zijn (dus met zo'n kastje). Verloopstukjes converten ook wel maar ze werken niet i.c.m. Eyefinity. Er is dus zeker nog wel rede om moeilijk over te doen. ^^Gurneyhck schreef op zondag 13 december 2009 @ 12:39:
[...]
Op ebay zijn er zat converters te vinden voor vrij weinig euro's...
Voorbeeldje: http://cgi.ebay.nl/Displa...rs_RL?hash=item5ad40b2dc5
10euro 11euro voor dp->hdmi...
Dus wordt hier niet overdreven moeilijk gedaan over die converters??
🦅 U.S. ETFs kopen in Europa? https://europoor.com/ 📈 ARKK, 📈 UPRO, 📈 TECL, 📈 QQQJ, ...
[ Voor 36% gewijzigd door Ultraman op 13-12-2009 17:30 ]
Volgens mij werken die nieuwste Cyberlink applicaties met zowel AMD als nVidia GPU acceleratie.Amdwarrior schreef op zondag 13 december 2009 @ 13:29:
Mensen is er ook een handig programma om video bestanden te converteren met behulp van gpu? Ati Avivo kom ik zelf op maar bijna nergens te downloaden en schijnt niet al te best kwaliteit te zijn. Ik heb een Radeon 3400 mobile
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Eyefinity met 3 schermen wordt dus niet ondersteund door deze kaart?Ook het PCB heeft wat aanpassingen ondergaan, want in plaats van twee CrossFire connectors vinden we er slechts één op dit model en waar het referentiemodel 2x DVI, HDMI en DisplayPort heeft beperkt ASUS zich bij deze 'CuCore' variant tot de meestgebruikte aansluitingen zoals VGA, DVI en HDMI.
En 3/4 way CF volgens mij ook niet.Depep schreef op zondag 13 december 2009 @ 15:00:
[...]
Eyefinity met 3 schermen wordt dus niet ondersteund door deze kaart?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 87% gewijzigd door Edmin op 14-12-2009 23:20 ]

Nu vraag ik mij af of de 5870 dezelfde specs heeft als de 4870 zodat ik mijn full cover waterblock daarop kan monteren. Iemand een idee?
Godfather Bodybuilding topic reeks
Dude, er is nèt een modbreak geweest.MrJ schreef op zondag 13 december 2009 @ 19:40:
Zojuist met 4870 gekilled tijdens het hobbyen door een afgebroken transistor en lekkende waterkoeling.
Nu vraag ik mij af of de 5870 dezelfde specs heeft als de 4870 zodat ik mijn full cover waterblock daarop kan monteren. Iemand een idee?
Mocht je het gemist hebben:
EnDit is een nieuwsdiscussietopic. Hier bespreken we nieuws en updates uit en over kamp ATi/AMD. Geen persoonlijke software/hardware probleempjes/vraagjes.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten.
Godfather Bodybuilding topic reeks
3/4 Way CFX wordt inderdaad niet ondersteunt.
Heb even nagevraagd bij AMD waarom en dit is het antwoord die ik kreeg. De standaard die AMD gesteld heeft was altijd dat alleen de top GPUs ondersteuning kregen voor meer dan 2 GPUs. Dat komt er min of meer op neer dat alleen de kaarten die gebruikt werden voor X2s (RV670, RV770, Cypress) ondersteuning hebben voor > 2 GPUs. Alles daaronder is gelimiteerd tot 2 GPUs.
Op de vraag waarom de mainstream kaarten dan tot nu toe toch altijd twee CFX gold fingers bevatten, vertelde men mij dat ze dit min of meer als een legacy ding er op hebben laten zitten. Maar er was eigenlijk al een tijd lang geen reden voor om dit te doen, omdat ze een tijd terug een software change hadden door gevoerd, waardoor je slechts 1 CFX bridge nodig hebt voor dual GPU gebruik.
Dus ja, de 5700 serie wordt beperkt tot 2 GPU en alleen GPUs die gebruikt worden in X2-varianten (dus de snelste GPUs zoals RV670, RV770, Cypress) krijgen ondersteuning voor meer dan 2 GPUs.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 263922
Daar heb je een punt, maar om daar een kaart speciaal voor te gaan ontwerpen lijkt mij niet echt een winstgevend product op te leveren, je kan iedere kaart immers overclocken.Anoniem: 126513 schreef op zondag 13 december 2009 @ 12:40:
[...]
Het lijkt me wel dat dit kaartje op de markt komt om te overklokken. Omdat ze juist met Koper (Cu) Core adverteren. Vandaar mss ook besparingen in het PCB en connectors?
Gigabyte heeft al langer kaarten met dikkere koperbanen, ik heb zelf een gtx260 (65nm 216core) die makkelijk op 750mhz core, 1250 mhz mem en 1500mhz shader loopt, en hij heeft nog wel wat headroom.
terugkomend op de 5770: de doorsnee consument zal zeker op het merk letten en de mooie doos van asus, waardoor de kaarten uiteindelijk toch een mooie marge halen
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Da's op zich al best een oud kaartje... Eerste vermelding in het ATI Nieuwsdiscussie Topic was in deeltje 102 in Juli... en een paar dagen later werd de eerste review al geplaatst:
(P)Review: http://en.hardspell.com/d...t.asp?id=6691&pageid=5263
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Nu wachten op de eerste videokaartbouwer die een dergelijke actieve DisplayPort-DVI adapter op het PCB van de videokaart gaat integreren.i7x schreef op zondag 13 december 2009 @ 12:43:
[...]
Het moeten actieve converters zijn (dus met zo'n kastje). Verloopstukjes converten ook wel maar ze werken niet i.c.m. Eyefinity. Er is dus zeker nog wel rede om moeilijk over te doen. ^^
Goud is geen geld
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://translate.google.n...re_details%2F&sl=de&tl=en
Hier worden bepaalde dingen wat beter bekeken. Zoals Windows 7 vs Vista, Crossfire Scaling, Blue ray playback en Efficency tov HD4890. Wel grappig dat op gehalveerde clocks de HD5870 maar 15% trager is. De core is dus op zich best efficiënt. De boost naar 850 MHz heeft 74% hogere prestaties. Niet echt slecht maar wellicht dat dit door nieuwe drivers nog gaat verbeteren.
Je ziet trouwens ook dat de memory bottelnek heel erg mee valt en eigenlijk niet aanwezig is. 1200 MHz is genoeg voor de RV870 core op 850 MHz. De boost van 1200 naar 1300 Mhz leverde maar 1% hogere performance op. Core oc van 850 naar 900 leverde een 3% boost op.
Ze hebben ook nog Core i7 3.83 Ghz vs Core 2 Quad op 4.0 Getest (Met HD5970 Kaart). I7 was wel iets in het voordeel maar niet heel veel. Over alle tests 4% sneller. Ondanks dat de clocks wel lager zijn. Als de i7 op 4.0 zou lopen zal het verschil wel naar 5-6% gaan. Maar nog niet schrikbarend. Het is ook een beetje afhankelijk van de games die je speelt. Maar dan nog 6% verschil is in mijn orgen niet genoeg om veel geld uit te geven. Om van een C2Q te upgraden naar een i7.
En nog even iets over de CF Scaling. Die ziet er goed uit. HD5770 doet het helemaal goed. En daarom denk ik ook dat HD5850 en HD5870 CF in sommige gevallen cpu limited zijn. De boost is dan maar 30% waar de 5770 dan nog steeds 70%+ scoort.
Maar opzich een leuke review om te lezen
Edit: Mogelijk een belangrijke DX11 titel ? :
http://warcraftcataclysm....m-getting-directx-11.htmlCataclysm getting Directx 11
Cataclysm getting DirectX 11 !! in a recent blog from Blizzard entertainment, the CEO Mike Morhaime has hinted that World of Warcraft Cataclysm may include DirectX 11 in their latest expansion pack for world of warcraft, in a brief Q&A session a media spokesman questioned Mike as to whether or not DirectX 11 will be included within this expansion, the response was certainly not short but after explaining how each version of warcraft has advanced graphically with each new release that DirectX 11 was a real possibility and should be ready in time, rumors going around the internet at the current time of writtng are stating that there will be 2 graphic options, one being standard (current graphics) and the other version to fully support DirectX 11. This should be quite interesting as most players of WOW are using basic computers as the current system requirements are not all that demanding, Mike did also make mention that times are evolving and it would be silly not to at least consider offering a DirectX 11 version of World of Warcraft Cataclysm.
We will keep you updated as more news comes to hand, but it shouldn’t be very long before an official announcement is made.
Ik vraag me af waarvoor ze DX11 dan gaan inzetten. Voor Performance of voor IQ. Het lijkt me eerlijk gezegd niet dat ze ook tesselation gaan toevoegen. Al zou dat wel heel mooi zijn. Maar ik denk dat het heel beperkt zal blijven. Als dit gerucht al klopt.
[ Voor 76% gewijzigd door Astennu op 14-12-2009 10:26 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Die HD4860 vind ik wel érg laat komen trouwens, maar ja, als het is om de oude voorraden op te ruimen dan is het van de slechtste keuzes nog altijd de beste.
Is wel zo maar toen het net uit kwam zag het er toch erg goed uit vergeleken met niet MMO's. En ze hebben regelmatig updates uitgevoerd waardoor het nog mooier werd.Jejking schreef op maandag 14 december 2009 @ 12:24:
World of Warcraft is sowieso geen ongelofelijk highend spel wat een superconfiguratie nodig heeft (het is een MMO). Trek je conclusies
Die HD4860 vind ik wel érg laat komen trouwens, maar ja, als het is om de oude voorraden op te ruimen dan is het van de slechtste keuzes nog altijd de beste.
Al lijkt het mij te veel werk om tesselation te implementeren in dat spel.
Edit: Volgens diezelfde site kon het nog tot Oktober 2010 duren voordat die uitbreiding uit kwam. Dat lijkt me wel heel erg lang. En dan snap ik wel dat ze DX11 inbouwen
[ Voor 20% gewijzigd door Astennu op 14-12-2009 13:13 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat je het niet teveel moet onderschatten : Die gasten doen weleens met 50 man of meer 1 grote aanval op een boss ofzoiets en dan krijgt zowel je CPU als GPU flink wat te verduren !! Combineer dat met de steeds groter wordende schermen en resoluties daarvan en je kan een PC best wel flink stressenJejking schreef op maandag 14 december 2009 @ 12:24:World of Warcraft is sowieso geen ongelofelijk highend spel wat een superconfiguratie nodig heeft (het is een MMO). Trek je conclusies
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Niet meer..... Dat was in de Original version. Dan had je 40 man. Maar met BC en WOTLK is het naar 25 gegaannero355 schreef op maandag 14 december 2009 @ 14:50:
[...]
Ik denk dat je het niet teveel moet onderschatten : Die gasten doen weleens met 50 man of meer 1 grote aanval op een boss ofzoiets en dan krijgt zowel je CPU als GPU flink wat te verduren !! Combineer dat met de steeds groter wordende schermen en resoluties daarvan en je kan een PC best wel flink stressen
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Zou wel een grote stap zijn, zoveel spelers..
Moet je zien hoe goed GTX285 SLi schaalt... HD5850 is maar 3% sneller op 1920 met 4xAA.Astennu schreef op maandag 14 december 2009 @ 07:40:
Computerbase heeft een 2e HD5870 review gepost:
Ook opvallend is dat 1 HD5870 maar liefst 24% sneller is dan 1 GTX285, maar dat HD5870 in CF maar 15% sneller is dan GTX285 SLi.
Hopen dat de cat 9.12's hier flinke verbeteringen laten zien.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
En ik vind dat WoW erg slecht schaalt met een High-end systeem. Dus het zou zeker welkom zijn als zij Dx11 zouden gaan gebruiken om de IQ en ook de prestatie te verhogen.Astennu schreef op maandag 14 december 2009 @ 15:21:
[...]
Niet meer..... Dat was in de Original version. Dan had je 40 man. Maar met BC en WOTLK is het naar 25 gegaantoen was er voor mij de lol ook af. Maar nog is het zwaar zelfs voor een high end systeem.
Als ik bijvoorbeeld naar de temperaturen van mijn HD5870 kijk tijdens het WoW'en wordt deze lang niet zo warm als in de Dirt 2 Demo, NFS Shift of andere spelletjes. CPU is een Q9550@3.88Ghz dus lijkt het me duidelijk dat het volledige potentieel niet wordt gebruikt door WoW. Ik had hier ook last van met mijn oude 7600GT, FPS was redelijk, temperatuur was lager dan normaal in vergelijking met andere games.
Dus wat meer prestatie met de IQ mogelijkheden van Dx11 zijn zeker welkom, zou WoW goed doen in mijn ogen
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
..of de snellere kaarten worden in grotere mate gelimiteerd door de CPURappieRappie schreef op maandag 14 december 2009 @ 15:33:
[...]
Moet je zien hoe goed GTX285 SLi schaalt... HD5850 is maar 3% sneller op 1920 met 4xAA.
Ook opvallend is dat 1 HD5870 maar liefst 24% sneller is dan 1 GTX285, maar dat HD5870 in CF maar 15% sneller is dan GTX285 SLi.
Hopen dat de cat 9.12's hier flinke verbeteringen laten zien.
Volgens mij gebruiken ze bij Computerbase nog steeds een C2Q voor het testen.
Klopt maar ze hebben iets verder ook met een i7 wat tests gedaan en dan zag je dat een i7 maar 6% sneller was. (i7 3.83 GHz ipv hun C2Q 4.0) Maar CPU limited is het zeker. In dat opzicht hadden ze beter 2560x1600 kunnen testen. Ik mis de 8x AA mode ook. Die worden wel in de andere reviews behandeld. Deze zoomt iets meer in op de rand zaken zoals performance met blue ray decoden en performance met Win7 ipv vista.Da_DvD schreef op maandag 14 december 2009 @ 16:25:
[...]
..of de snellere kaarten worden in grotere mate gelimiteerd door de CPU
Volgens mij gebruiken ze bij Computerbase nog steeds een C2Q voor het testen.
Zie ook http://www.computerbase.d...rformancerating_qualitaet
Verschil tussen de HD5870 en de GTX285 is daar 33% op 2560x1600. Nog niet super veel.... Maar al beter....
Maar als je kijkt naar de Stock HD4890 is het verschil ook niet super groot. Daar hebben we het ook over maar 50%. En met een HD4890 1GHz zit je ook rond de 35%.
Kijk dan ook even naar deze pagina: http://www.computerbase.d...ails/12/#abschnitt_part_1
HD5870 op 425-1950 vs HD4890 op 850-1950. Clockspeed scaling is ook niet 100%. Daar naast lijkt ook de efficiëntie is lager te liggen. Core kan wel twee keer zo veel data verwerken. Maar dan moet je em wel goed aankunnen sturen om dat te benutten. Ik vermoed dat hier nog wel wat winst te behalen valt.
[ Voor 62% gewijzigd door Astennu op 14-12-2009 16:49 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Oud sowieso en je zit in het verkeerde topic.winwiz schreef op maandag 14 december 2009 @ 16:57:
Real or not Real....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hoezo oud (het is van vandaag) en hoezo verkeerde topic.. Mogen we het bij ATi niet over de concurrentie hebben ten opzichte van onze eigen hardware?-The_Mask- schreef op maandag 14 december 2009 @ 17:03:
[...]
Oud sowieso en je zit in het verkeerde topic.
Hierboven wordt nog volop over scaling van CFX ten opzichte van SLI besproken...
[ Voor 11% gewijzigd door winwiz op 14-12-2009 17:09 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Geloof ik niks van. De GTX380 is volgens die sheet net zo snel (of sneller) als een 5970. Het gaat echt niet zo zijn dat de refresh van de HD5870 net zo snel gaat zijn als de HD5970. Hooguit 20% sneller dan de HD5870.StefanvanGelder schreef op maandag 14 december 2009 @ 17:13:
Ik denk dat de refresh van AMD over de GTX 380 heen gaat als dit waar is
Daar komt bij dat ik er geen drol van geloof dat die sheet waar is. Een keer zo snel als een GTX285? mnee, dat geloof ik niet. En als het wél zo is, doet nV goeie zaken.
[ Voor 18% gewijzigd door Format-C op 14-12-2009 17:22 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 59888
Tja, de engine van WoW is inmiddels vijf jaar oud, die kan nu eenmaal niet de graphics op je beeld toveren wat moderne games vandaag de dag kunnen. Je kunt die engine niet ineens omgooien. Bovendien is de gemiddelde WoW-speler tevreden met de graphics dus heeft Blizzard ook niet echt een reden om daar heel veel aandacht aan te besteden.Darkasantion schreef op maandag 14 december 2009 @ 15:54:
[...]
En ik vind dat WoW erg slecht schaalt met een High-end systeem. Dus het zou zeker welkom zijn als zij Dx11 zouden gaan gebruiken om de IQ en ook de prestatie te verhogen.
Als ik bijvoorbeeld naar de temperaturen van mijn HD5870 kijk tijdens het WoW'en wordt deze lang niet zo warm als in de Dirt 2 Demo, NFS Shift of andere spelletjes. CPU is een Q9550@3.88Ghz dus lijkt het me duidelijk dat het volledige potentieel niet wordt gebruikt door WoW. Ik had hier ook last van met mijn oude 7600GT, FPS was redelijk, temperatuur was lager dan normaal in vergelijking met andere games.
Dus wat meer prestatie met de IQ mogelijkheden van Dx11 zijn zeker welkom, zou WoW goed doen in mijn ogen
Nou eigenlijk niet, het stond twee dagen geleden al op Guru3D.
Dat kan toch prima in het topic waard het hoort en waar het ook allang staat?en hoezo verkeerde topic.. Mogen we het bij ATi niet over de concurrentie hebben ten opzichte van onze eigen hardware?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
uuhm opzich is het wel degelijk relevant in zijn context.-The_Mask- schreef op maandag 14 december 2009 @ 17:16:
[...]
Nou eigenlijk niet, het stond twee dagen geleden al op Guru3D.![]()
[...]
Dat kan toch prima in het topic waard het hoort en waar het ook allang staat?
Hij stelt de vraag Real or Not real?
Wij vanuit het ATI topic, kunnen dan ons oordeel spuwen over de scores die ATI in deze Bench neerzet.
Kloppen die wel? Zijn ze niet uit een hele dikke duim gezogen?
edit: en niet iedereen leest guru3d
[ Voor 3% gewijzigd door Meekoh op 14-12-2009 17:30 ]
Computer says no
Ik doel meer op een vorm van een 5890 of 5990RappieRappie schreef op maandag 14 december 2009 @ 17:15:
[...]
Geloof ik niks van. De GTX380 is volgens die sheet net zo snel (of sneller) als een 5970. Het gaat echt niet zo zijn dat de refresh van de HD5870 net zo snel gaat zijn als de HD5970. Hooguit 20% sneller dan de HD5870.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Ik denk dat de efficientie van de drivers nog wel wat omhoog kan inderdaad. Misschien dat ze dat bewaren tot Fermi uitkomtAstennu schreef op maandag 14 december 2009 @ 16:35:
[...]
Verschil tussen de HD5870 en de GTX285 is daar 33% op 2560x1600. Nog niet super veel.... Maar al beter....
Maar als je kijkt naar de Stock HD4890 is het verschil ook niet super groot. Daar hebben we het ook over maar 50%. En met een HD4890 1GHz zit je ook rond de 35%.
Daarnaast is het zwakke punt van die performanceratings dat er vaak een paar obscure games bijzitten die alleen voor nVidia's architectuur geoptimaliseerd zijn, of waarvoor ATi geen speciale driveroptimalisaties heeft uitgevoerd. En als de HD5xxx kaarten in die spellen niet noemenswaardig sneller zijn dan de GTX285, wordt hun gemiddelde performance flink omlaag getrokken.
Als die slide zou kloppen is de GTX380 110% sneller als een GTX285. Daar geloof ik niet in. Gezien de specs zou het Theoretisch moeten kunnen. Maar de HD5870 zou ook 2x zo snel moeten zijn en die haalt gemiddeld ook maar een 50% speed winst. Tot max iets in de 75%. Dus ik zou gokken op iets van 85% van de performance van een GTX285.RappieRappie schreef op maandag 14 december 2009 @ 17:15:
[...]
Geloof ik niks van. De GTX380 is volgens die sheet net zo snel (of sneller) als een 5970. Het gaat echt niet zo zijn dat de refresh van de HD5870 net zo snel gaat zijn als de HD5970. Hooguit 20% sneller dan de HD5870.
Daar komt bij dat ik er geen drol van geloof dat die sheet waar is. Een keer zo snel als een GTX285? mnee, dat geloof ik niet. En als het wél zo is, doet nV goeie zaken.
Als we er voor het gemak even van uit gaan dat de scores van de GTX285 kloppen zou ik op 129,5 komen. Vind ik nog hoog want dan hebben we het over een 40% boost tov een HD5870. Maar goed dat klinkt al geloofwaardiger.
[ Voor 14% gewijzigd door Astennu op 14-12-2009 18:53 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
En de naam van degene die dat heeft gepost zegt alles.madmaxnl schreef op maandag 14 december 2009 @ 19:08:
Die gelekte benches kloppen niet, de resultaten komen exact over een met Tomshardware benchmarks dus dat ruikt naar CTRL+C.
succesful_troll, dus jullie zijn allemaal getrolled.
als een gtx360 variant zoveel sneller zou worden dan een 5870 voor pak em beet dezelfde prijs dan wist ik het wel
ik ben bang dat de highend elkaar weinig zal ontlopen, puur vanwege het feit dat de schaling steeds minder wordt en de kaarten waarschijnlijk voorlopig weer iets te snel zullen zijn voor de rest van het systeem.
het nut ontgaat me langzamerhand ook een beetje: het is duidelijk dat spellen niet echt veel zwaarder worden (behalve slechte ports). mijn 4890 doet nog steeds ieder spel op 1920x1280 met 8xAA, zelfs shift nu het eindelijk supergoed loopt door de patch......vandaag Dirt 2 geinstalleerd en ook die loopt perfect op die settings!
natuurlijk wacht ik nog steeds op de betere verkrijgbaarheid van de 5870 en voor een nette prijs ga ik hem zeker halen maar dit wordt wel de allereerste ECHT zinloze upgrade in 15 jaar computerhobby! ik hoop dan ook de het beetje extra ''eye candy'' de moeite waard zal zijn.
[ Voor 80% gewijzigd door -The_Mask- op 14-12-2009 21:39 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als je het toch over oud nieuws hebt.......
neliz in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
[ Voor 18% gewijzigd door winwiz op 14-12-2009 21:37 ]
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Er zijn ook mensen die (nog steeds) crysis spelenmeljor schreef op maandag 14 december 2009 @ 20:48:
het nut ontgaat me langzamerhand ook een beetje: het is duidelijk dat spellen niet echt veel zwaarder worden (behalve slechte ports). mijn 4890 doet nog steeds ieder spel op 1920x1280 met 8xAA, zelfs shift nu het eindelijk supergoed loopt door de patch......vandaag Dirt 2 geinstalleerd en ook die loopt perfect op die settings!
DX11 en alle nieuwere features zijn natuurlijk sowieso reden tot nieuwe kaarten.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 263719
Dat zou met de 9.12 drivers een stuk beter moeten gaan. Zowel de HD4 en HD5 kregen met de 9.12 Beta driver een behoorlijke boost.bwerg schreef op maandag 14 december 2009 @ 21:37:
[...]
Er zijn ook mensen die (nog steeds) crysis spelen
DX11 en alle nieuwere features zijn natuurlijk sowieso reden tot nieuwe kaarten.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dacht dat het pas in cat. 10.1 kwam
http://news.ati-forum.de/...-7-januar-2010-vorgezogenAs we have learned from a trusted source, is the new future in the new year at the 7th Catalyst 10.1 Have been preferred to January 2010. The greatest change will be the opportunity where you can enable 3D representation in movies / videos, of which we have already been reported
Furthermore, should include the Catalyst 10.1 full OpenGL 3.2 support.
[ Voor 30% gewijzigd door Bullus op 15-12-2009 12:20 ]
|2600k|Asus 290|
Ik hoop dan ook dat ze ALT TAB bug fixen met OpenGL op Windows 7.
Ik kan met cs 1.6 niet eens alt tabben zonder zwart scherm te krijgen, maarja dit heb ik al sinds 9.10 dus..
Ik hoop het niet, want anders heeft AMD mij verkeerde info gegeven.Bullus schreef op dinsdag 15 december 2009 @ 12:10:
[...]
Dacht dat het pas in cat. 10.1 kwam
[...]
http://news.ati-forum.de/...-7-januar-2010-vorgezogen
[ Voor 67% gewijzigd door CJ op 15-12-2009 12:14 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dan zou ik even navraag doen bij AMDCJ schreef op dinsdag 15 december 2009 @ 12:13:
[...]
Ik hoop het niet, want anders heeft AMD mij verkeerde info gegeven.
|2600k|Asus 290|
Heb ik gedaan. Mijn eerste post over OpenGL 3.2 was dan ook geen speculatie maar bevestiging na controle bij AMD.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Oud nieuws, maar ze hebben het wel over notes die je nergens terug kunt vinden. Ben erg benieuwd.Splinter Cell schreef op dinsdag 15 december 2009 @ 12:16:
Oud nieuws stukje over driver 9.12:
http://translate.google.c...en&history_state0=&swap=1
zie verde:Just like nVidia skipped 2009 with the introduction of their next-gen graphics architecture, AMD is skipping 2010. However, while nVidia's GT300/Fermi GPU architecture slipped into 2010 due to problems in development - AMD decision to put 2010 on sidelines is "according to plan."
AMD's next-gen graphics is codenamed "Northern Islands" and the reason why ATI will not launch a new graphics architecture for the first time since 2006 [R600 was supposed to launch on September 8, 2006 - slipped to May 14, 2007] is the switch to GlobalFoundries.
Dirk Meyer, President and CEO of AMD at boring Abu Dhabi GP. Photo credit: ITP.netIn a recent interview with Middle-Eastern website ITP.Net President and CEO of AMD, Dirk Meyer explained bits'n'pieces of AMD's strategy "Next, we will insert graphics processors into Globalfoundries over the coming years, again to give them more volume and to give them more experience of servicing fab-less type customers, as ATI was historically fab-less."
http://www.brightsideofne...u-production-in-2011.aspx
Ten eerste: BSN brengt het nVidia nieuws net altijd wat Brighter.
Ten tweede: Naast dat de getoonde roadmap nogal wat oud is, laat de roadmap niet zien dat er géén refresh van de Cypress komt (ook 40nm en DX11).
Wat dat betreft waardeer ik de "nieuwtjes" Theo Valich hetzelfde als Fuad.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Ik denk dat Valich een refresh even niet beschouwt als een nieuwe kaart, maar een update. nVidia heeft zo ook een refresh aan zijn GTX2xx gegeven dit jaar, in de vorm van een GTX275 en een GTX295 (beide mogelijk omdat de GT200b chip wat meer ruimte gaf aan nVidia om met clocks en shaders/geheugenbus te klungelen.Indy91 schreef op dinsdag 15 december 2009 @ 18:43:
Ik weet het niet hoor met die Theo Valich.....
Ten eerste: BSN brengt het nVidia nieuws net altijd wat Brighter.
Ten tweede: Naast dat de getoonde roadmap nogal wat oud is, laat de roadmap niet zien dat er géén refresh van de Cypress komt (ook 40nm en DX11).
Wat dat betreft waardeer ik de "nieuwtjes" Theo Valich hetzelfde als Fuad.
Die refresh van AMD's HD5k serie zal wel komen. Of er een HD6k komt in 2010, zal de tijd ons leren.
Nou moet ik zeggen dat ik van de screenshots die ik tot nu toe gezien heb die vergelijkingen maken tussen DX10 en DX11 ik al die 'verbeteringen' echt niet zie, behalve waar het om tesselation gaat.bwerg schreef op maandag 14 december 2009 @ 21:37:
DX11 en alle nieuwere features zijn natuurlijk sowieso reden tot nieuwe kaarten.
Misschien eens je bril schoonmaken?Naluh! schreef op dinsdag 15 december 2009 @ 19:47:
[...]
Nou moet ik zeggen dat ik van de screenshots die ik tot nu toe gezien heb die vergelijkingen maken tussen DX10 en DX11 ik al die 'verbeteringen' echt niet zie, behalve waar het om tesselation gaat.
Zonder gekheid het zit hem in de details... en juist de combinatie met Tesselation, die moet je niet apart zien.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Edit: Heeft iemand zich versproken of heeft iemand wat typos gemaakt?
[ Voor 16% gewijzigd door CJ op 16-12-2009 09:57 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gekakel over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moeten wij toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!