Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 286793
Ja daar hoort het inderdaad-The_Mask- schreef op zaterdag 16 mei 2009 @ 09:11:
Je kan dus wel langzaam/in stapjes naar 870MHz, maar als je van stock naar 800MHz gaat dan werkt het niet?
Dan ligt het eerder aan het bios van de kaart of overdrive en niet dat de videokaart niet mee wil werken.
Maar dit hoort in het ATi ervaringen topic.
offtopic:
Deeltje 100 is ook al weer vol gaat snel
Maarja ik ben echt een complete noob op het gebied van overclocken (eerste gpu-oc ooit). Heb gewoon de guide van guru3d gebruikt maar dat hielp niet al te veel
Nou is GTA4 wel een erg zwaar spel volgens mij. Een HD4870 X2 is daar ook niet genoeg voor 1920x1200. Ik heb de HD4770 hier zelf gehad zit nu bij mijn broer in de pc en ik moet zeggen hij is erg snel. op 850-1100 heb je super performance. Maar als je het geheugen niet ver overclockt dan komt er niet veel uit. Deze kaart is echt memory bandwidth bottelneckt. Dus ik weet niet waar je dat op hebt draaien ? Je krijgt in ieder geval meer performance dan van een HD4850. Zeker als je een lekkere core hebt of nog beter geheugen. Sommige kunnen 900-1150+Anoniem: 286793 schreef op zaterdag 16 mei 2009 @ 08:50:
Ik heb hem al gedownload van techpowerup. Heb nu wel veel betere fps. 60 ipv 40 met de oude hd4770 drivers. Aan de ene kant toch een beetje spijt van mijn hd4770. Op 1280 x 1024 kun je nog geen aa draaien met gta 4. Ik had dat toch wel verwacht.
Overclocken wil hij ook voor geen meter. Met overdrive haal ik ook meteen de maximum resultaten. De memory wil absoluut niet hoger dan 870mhz. Als ik in 1 keer van 800 mhz naar 850 mhz ga crasht de boel al. Ik denk dat ik echt een slecht exemplaar heb.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
succes trouwens met het vinden van een 2e hands 4890 die goedkoper is dan nieuw
heb mijn 4890 toch maar gehouden maar verschillen met mn 4870 512mb op 1920x1200 zijn klein. koop een beter geprijsde 4870 1gb en je zit gebeiteld.....
Als je een goede HD4890 hebt die 950-1100 haalt heb je echt wel meer performancemeljor schreef op zaterdag 16 mei 2009 @ 10:54:
het enige wat bij mij hielp voor de prestaties van gta4 is videogeheugen. van de 4870 512mb naar de 4890 deed wonderen voor de resolutie in dat spel. verder loopt het in verhouding met IEDER ander spel gewoon bagger op elke kaart. zelfs crysis is een stuk beter en gta4 prestaties zijn dan ook NIET representatief voor wat een videokaart kan....
succes trouwens met het vinden van een 2e hands 4890 die goedkoper is dan nieuw![]()
heb mijn 4890 toch maar gehouden maar verschillen met mn 4870 512mb op 1920x1200 zijn klein. koop een beter geprijsde 4870 1gb en je zit gebeiteld.....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
maar geloof me, gameplay experience is hetzelfde en de settings ook. ik had een 512mb kaart maar een 4870 1gb is nog sneller en volgens mij de beste bang for buck kaart op hoge res.
dat wil niet zeggen dat de 4890 een verkeerde keus is...
Ik krijg hem namelijk niet meer stabiel op 950. Sommige games doet ie het leuk op 950 maar sommige games heeft hij liever 930 core. Toch wil ik graag 950 weer bereiken.
Misschien dat het met een volt aanpassing wel stabiel is. Mijn geheugen draait nu op 1000mhz maar dat vind ik eigenlijk te mager. Dat is namelijk ook maar 25mhz overclock..
| PS5 PSN: Hitting-Apex89
Je heb in iedergeval meer kans met een ander bios erin of met voltage verhogingen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
| PS5 PSN: Hitting-Apex89
HAWX geeft problemen met ATI-videokaarten, zodra AF wordt geforceerd met behulp van ATI CCC. Framerates halveren bijna. Heb dit gemerkt met de HD 4770 en de HD 4890. Kan iemand dit bevestigen? Nvidia schijnt hier geen last van te hebben. En met behulp van screenshots is er een duidelijk verschil te zien.
Overigens maakt het OS volgens mij ook niet uit, Vista of Win 7.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Gewone furmark is toch ook prima?
Ik doe gewoon wat er bij Guru3d staat:
First startup FurMark, disable full screen, select stability test, select 640x480, hit GO. This will stress the GPU 100%
Wat is trouwens maximale VRM outpunt Voltage? Want dat is namelijk het voltage dat je moet aanpassen bij Rivatuner. Hij staat volgens mij normaal op 1.3125 . Ik heb hem nu op 1.35 staan..
[ Voor 67% gewijzigd door Kuhr89 op 16-05-2009 23:20 ]
| PS5 PSN: Hitting-Apex89
Paar uurtjes draaien of tot dat je een crash krijgt?
Edit: zo idd.
[ Voor 4% gewijzigd door -The_Mask- op 16-05-2009 23:20 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
98 a 99 % load is toch genoeg?
[ Voor 12% gewijzigd door Kuhr89 op 16-05-2009 23:22 ]
| PS5 PSN: Hitting-Apex89
Ik pak altijd de max reso van me vga kaart. Geen AA aanzetten want dan wordt i minder zwaar belast. En de furmark exe renamen naar iets van crysis of zo. En dan een half uur of een uur laten lopen. Aangezien die load hoger is dan bij veel games.Kuhr89 schreef op zaterdag 16 mei 2009 @ 23:15:
Dus als hij Furmark stabiel is. Wanneer is hij stabiel? Hoelang draaien enzo?
Gewone furmark is toch ook prima?
Ik doe gewoon wat er bij Guru3d staat:
First startup FurMark, disable full screen, select stability test, select 640x480, hit GO. This will stress the GPU 100%
Wat is trouwens maximale VRM outpunt Voltage? Want dat is namelijk het voltage dat je moet aanpassen bij Rivatuner. Hij staat volgens mij normaal op 1.3125 . Ik heb hem nu op 1.35 staan..
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb al 2x een crash gehad. 1x op 1.3125V daarna op 1.3300V en nu ga ik testen op 1.35V.
Hij draaide na het voltage op 1.33V gezet te hebben al aanmerkelijk langer...
Ik ga nu gewoon draaien op mijn game resolutie 1680x1050.
Ik heb er Furmark12 van gemaakt, is dat prima?
[ Voor 7% gewijzigd door Kuhr89 op 17-05-2009 00:09 ]
| PS5 PSN: Hitting-Apex89
Lage resolutie kun je ook andere dingen doen terwijl je Furmark in de gaten houdt.Kuhr89 schreef op zondag 17 mei 2009 @ 00:09:
Je pakt dus gewoon de resolutie waarop je ook gamed? Leek mij ook wat logischer maarja.
Aan je load van 98/99% te zien wel.Ik heb al 2x een crash gehad. 1x op 1.3125V daarna op 1.3300V en nu ga ik testen op 1.35V.
Hij draaide na het voltage op 1.33V gezet te hebben al aanmerkelijk langer...
Ik ga nu gewoon draaien op mijn game resolutie 1680x1050.
Ik heb er Furmark12 van gemaakt, is dat prima?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ik zou er iets van crysis van maken. Aangezien de ATi drivers Furmark.exe afknijpen. Mijn HD4850 PWM raakt dan nog wel eens oververhit. Maar goed dat mag eigenlijk niet gebeuren. Maar mensen we dwalen een beetje af. Dit is meer voor het OC of Ervaringen topic.Kuhr89 schreef op zondag 17 mei 2009 @ 00:09:
Je pakt dus gewoon de resolutie waarop je ook gamed? Leek mij ook wat logischer maarja.
Ik heb al 2x een crash gehad. 1x op 1.3125V daarna op 1.3300V en nu ga ik testen op 1.35V.
Hij draaide na het voltage op 1.33V gezet te hebben al aanmerkelijk langer...
Ik ga nu gewoon draaien op mijn game resolutie 1680x1050.
Ik heb er Furmark12 van gemaakt, is dat prima?
[ Voor 5% gewijzigd door Astennu op 17-05-2009 00:13 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Daarnaast vind ik het echt een super kaart. op 940 en 1000Mhz is hij ook al snel genoeg voor de games die ik speel.. Maar mijn doel is gewoon 950/1100. Die 1ghz ga ik toch niet halen, dat weet ik al wel zeker.
Nog 1 vraag; Weten jullie tot hoe hoog het voltage kan gaan? Wanneer is het gevaarlijk?
| PS5 PSN: Hitting-Apex89
Met stock cooler zou ik niet hoger gaan dan 1.4-1.45v even de temps een beetje in de gaten houden. Stock is volgens mij 1.31 of 1.35v.Kuhr89 schreef op zondag 17 mei 2009 @ 00:17:
Ja sorry. Ik zal me stil houdenIig bedankt voor de hulp!
Daarnaast vind ik het echt een super kaart. op 940 en 1000Mhz is hij ook al snel genoeg voor de games die ik speel.. Maar mijn doel is gewoon 950/1100. Die 1ghz ga ik toch niet halen, dat weet ik al wel zeker.
Nog 1 vraag; Weten jullie tot hoe hoog het voltage kan gaan? Wanneer is het gevaarlijk?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bij 3500 seconden stop ik.
Hij draait nu op 1.35v 950Core en 1100mem. Stabiel. Nu vraag ik me alleen af of als ik dalijk rivatuner weer uitzet. Ik start mijn PC opnieuw op of hij dan automatisch weer die 1.35V pakt..
[ Voor 29% gewijzigd door Kuhr89 op 17-05-2009 01:14 ]
| PS5 PSN: Hitting-Apex89
Wordt het dan toch spannend wie eerder uitkomt dit jaar?According to our sources, nVidia got the silicon a while ago, meaning that the chip taped out between January and March. The silicon is A1, but neither of our sources wanted to confirm is this the final silicon or will nVidia be forced to tape out A2 silicon to get production-grade yields.
...
We saw how the board looks like and there are plenty of surprises coming to all the nay-sayers - expect world-wide hardware media going into a frenzy competition who will score the first picture of GT300 board. If not in the next couple of days, expect GT300 pictures coming online during Computex.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Nope dan staat hij op stock voltage. In jou geval moet je even je bios exporteren met ATiflash vanuit dos. Dan met RBE 1.20 even de bios aanpassen. Met RBE kun je de voltages gewoon instellen. En op die manier kun je dus zorgen dat hij in 3D mode altijd naar 1.35v ipv 1.31 gaat. 2D mode blijft dan wel mooi low voltage.Kuhr89 schreef op zondag 17 mei 2009 @ 00:23:
Stock is 1.31. Ik draai nu even op 1.35.. Het valt me op dat ik geen artifacts krijg maar dat hij gewoon een BSOD gaf bij de eerdere tests. fan is op 40% en de temps zijn gewoon redelijk. Core is 80/ mem 90/ shader 85. Gewoon niet te hoog en het blijft ook die temps.
Bij 3500 seconden stop ik.
Hij draait nu op 1.35v 950Core en 1100mem. Stabiel. Nu vraag ik me alleen af of als ik dalijk rivatuner weer uitzet. Ik start mijn PC opnieuw op of hij dan automatisch weer die 1.35V pakt..
[ Voor 52% gewijzigd door Astennu op 17-05-2009 10:38 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Aiii dat gaat even mijn kennis te buiten. Dat heb ik namelijk nog nooit gedaan. Het zou inderdaad wel erg fijn zijn. Hij start inderdaad op met 1.31v. ik zal eens even gaan inlezenAstennu schreef op zondag 17 mei 2009 @ 10:37:
[...]
Nope dan staat hij op stock voltage. In jou geval moet je even je bios exporteren met ATiflash vanuit dos. Dan met RBE 1.20 even de bios aanpassen. Met RBE kun je de voltages gewoon instellen. En op die manier kun je dus zorgen dat hij in 3D mode altijd naar 1.35v ipv 1.31 gaat. 2D mode blijft dan wel mooi low voltage.
Edit: Atiflash werkt niet onder Vista 64 bit. Ik krijg hem iig niet opgestart.
Edit 2: Ik heb de bios geexporteerd vanuit GPU-Z.
Ik kijk daarna in die RBE. Staat er fijn : YOU HAVE NOT CONNECTED ONE OF YOUR VIDEO CARD POWER CONNECTORS TO THE POWER SUPPLY. PLEASE REFER TO THE 'GETTING STARTED GUIDE' FOR PROPER HARDWARE INSTALLATION.
Ik dacht: wat een onzin. En dat is gelukkig ook. Ik heb maar 1x een PCI-E kabel in mijn voeding. Ik heb dus 1 molex omgezet naar een PCI-E misschien dat ie daarom zeurt.
[ Voor 29% gewijzigd door Kuhr89 op 17-05-2009 12:35 ]
| PS5 PSN: Hitting-Apex89
Oeh, nu onderschat je nVidia hoor. Of die GPU nu klein of groot is; zodra 'ie klaar is gooit nVidia hem in de markt. RV870 heeft - voor zover wij weten - nog geen tape-out bereikt.Eerst zien dan geloven. AMD heeft voorlopig al ween werkende 40nm chip. Echter is deze nog heel klein in vegelijking met wat de geruchten denken dat de GT300 gaat worden. Dus ik blijf er bij dat AMD met de RV870 een grotere kans heeft om als eerste met een DX11 kaart op de markt te komen. Aangezien de RV870 aanzienlijk kleiner zal zijn dan de GT300. Dus als de Yields dan tegenvallen is er meer kans van slagen.
Ik heb m'n geld staan op oktober / november dit jaar, en het is me inmiddels wel duidelijk dat RV870 augustus niet zal halen. Ergens eind Q3 (september) ten vroegste - eerder Q4 - dusja, dat wordt spannend.Wordt het dan toch spannend wie eerder uitkomt dit jaar?
Ik meen me toch echt te herinneren dat RV870 al een behoorlijke tijd geleden de tape-out bereikt had.. ergens begin dit jaar.Hacku schreef op zondag 17 mei 2009 @ 12:37:
[...]
Oeh, nu onderschat je nVidia hoor. Of die GPU nu klein of groot is; zodra 'ie klaar is gooit nVidia hem in de markt. RV870 heeft - voor zover wij weten - nog geen tape-out bereikt.
Daarnaast heeft AMD in hun laatste Conference Call duidelijk aangegeven dat ze in oktober DX11 gpu's te koop zullen hebben. Correspondeert ook met tape-out begin dit jaar.
[ Voor 19% gewijzigd door Da_DvD op 17-05-2009 12:47 ]
Ja, die heb ik zelf geschreven-The_Mask- schreef op zaterdag 16 mei 2009 @ 22:39:
Volgens mij stond dit ook al in de review van Tweakers.
Hm, daar is me niks van bekend, dan moet ik dat gemist hebben.Ik meen me toch echt te herinneren dat RV870 al een behoorlijke tijd geleden de tape-out bereikt had.. ergens begin dit jaar.
/edit
Ik ben even terug gegaan tot deel 95 maar kan niks over een RV870 tape-out vinden.
Oktober is nog altijd geen augustus zoals eerder gedacht werd, en als nVidia echt oktober haalt wordt het gewoonweg erg spannend wie de eerste wordtDaarnaast heeft AMD in hun laatste Conference Call duidelijk aangegeven dat ze in oktober DX11 gpu's te koop zullen hebben. Correspondeert ook met tape-out begin dit jaar.
[ Voor 8% gewijzigd door XWB op 17-05-2009 12:55 ]
Dit gaat veel te offtopic. PM me anders even. ATiflash is een dos progje draait niet onder windows. En GPU-Z exporteert maar de halve bios !! dus oppassen daar mee. Als je een bios export hebt van 64 KB is het fout hij moet iets van 128 zijn.Kuhr89 schreef op zondag 17 mei 2009 @ 12:23:
[...]
Aiii dat gaat even mijn kennis te buiten. Dat heb ik namelijk nog nooit gedaan. Het zou inderdaad wel erg fijn zijn. Hij start inderdaad op met 1.31v. ik zal eens even gaan inlezen
Edit: Atiflash werkt niet onder Vista 64 bit. Ik krijg hem iig niet opgestart.
Edit 2: Ik heb de bios geexporteerd vanuit GPU-Z.
Ik kijk daarna in die RBE. Staat er fijn : YOU HAVE NOT CONNECTED ONE OF YOUR VIDEO CARD POWER CONNECTORS TO THE POWER SUPPLY. PLEASE REFER TO THE 'GETTING STARTED GUIDE' FOR PROPER HARDWARE INSTALLATION.
Ik dacht: wat een onzin. En dat is gelukkig ook. Ik heb maar 1x een PCI-E kabel in mijn voeding. Ik heb dus 1 molex omgezet naar een PCI-E misschien dat ie daarom zeurt.
Maar PM even of vraag dit in het ATi OC/ervaringen topic.
De GT300 zo ver ik weet ook niet. Niets is officieel. Ik kan nu ook gaan roepen dat de RV970 zijn tapeout bereikt heeft als je snapt wat ik bedoel. Tenzij ATi en of nVidia het officieel naar buiten brengen zou ik het niet zo maar geloven. En ze zullen zo iets niet snel gaan melden. Dus het zijn altijd geruchten. En dit kan of kloppen of totale onzin zijn.Hacku schreef op zondag 17 mei 2009 @ 12:37:
[...]
Oeh, nu onderschat je nVidia hoor. Of die GPU nu klein of groot is; zodra 'ie klaar is gooit nVidia hem in de markt. RV870 heeft - voor zover wij weten - nog geen tape-out bereikt.
[...]
Ik heb m'n geld staan op oktober / november dit jaar, en het is me inmiddels wel duidelijk dat RV870 augustus niet zal halen. Ergens eind Q3 (september) ten vroegste - eerder Q4 - dusja, dat wordt spannend.
[ Voor 28% gewijzigd door Astennu op 17-05-2009 13:10 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ontopic:
Er is inderdaad niks gezegt over een tape-out. Die zou volgens mij zelfs pas in Juli worden uitgegeven. Tenminste dat is iets wat ik heb gehoort..
Het zou voor ATI een flinke domper zijn mocht dit waar zijn...
[ Voor 29% gewijzigd door Kuhr89 op 17-05-2009 13:11 ]
| PS5 PSN: Hitting-Apex89
Ik mag er eigenlijk nog niks over zeggen, maar dat onderschatten van nVidia...Hacku schreef op zondag 17 mei 2009 @ 12:37:
[...]
Oeh, nu onderschat je nVidia hoor. Of die GPU nu klein of groot is; zodra 'ie klaar is gooit nVidia hem in de markt. RV870 heeft - voor zover wij weten - nog geen tape-out bereikt.
[...]
Ik heb m'n geld staan op oktober / november dit jaar, en het is me inmiddels wel duidelijk dat RV870 augustus niet zal halen. Ergens eind Q3 (september) ten vroegste - eerder Q4 - dusja, dat wordt spannend.


En geloof de berichten over een tape-out van GT300 maar niet al te snel.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 286793
Ja ik zou zelf ook die memory wel omhoog willen gooien maar helaas gaat het niet zo makkelijk. Die vram van mij zuigt gewoon echt hard. Er zit zo'n saphire logo over heen voor wat meer koeling. Maar ik vraag me dus echt sterk af wat voor ram er onder dat logo zit. Maarja ik zal nog maar eens proberen te ocen.Astennu schreef op zaterdag 16 mei 2009 @ 10:32:
[...]
Nou is GTA4 wel een erg zwaar spel volgens mij. Een HD4870 X2 is daar ook niet genoeg voor 1920x1200. Ik heb de HD4770 hier zelf gehad zit nu bij mijn broer in de pc en ik moet zeggen hij is erg snel. op 850-1100 heb je super performance. Maar als je het geheugen niet ver overclockt dan komt er niet veel uit. Deze kaart is echt memory bandwidth bottelneckt. Dus ik weet niet waar je dat op hebt draaien ? Je krijgt in ieder geval meer performance dan van een HD4850. Zeker als je een lekkere core hebt of nog beter geheugen. Sommige kunnen 900-1150+
Edit± het is echt de ram. Die is zo verschrikkelijk slecht. En tja misschien als hij op 850/1100 draait is hij heel snel maar ik kan hier far cry 2 niet eens op veryhigh met 2 x aa spelen zonder dat hij schokt. Als je wilt gamen met hoge setting is de hd4770 niet helemaal aan te raden. Ook niet op 1280 x 1024 (waar ik dus op game

[ Voor 14% gewijzigd door Anoniem: 286793 op 17-05-2009 16:29 ]
Hij zegt volgens mij al weer iets te veel-The_Mask- schreef op zondag 17 mei 2009 @ 15:22:
Ja mag van mij wel meer vertellen hoor vind ik niet erg.
Je kunt het zo aan de rest van je kaart zien wat er onder die VRM heatsink zit. Bij mij was het in ieder geval een striped down version. Maar mem wou 1100 toch wel halen. En wat er aan VRM's op zit zegt niets over de overclockbaarheid van het geheugen. Mem is volgens mij 1 GHz rated. Enige wat je dan kan tegenhouden is de memory controller in de core. Probeer anders eerst eens core op 800 MHz en dan max mem speed zoeken. Dan iets omlaag en dan core max er bij zoeken. Zo heb ik het gedaan. Mem kan hier max 1125 lopen.Anoniem: 286793 schreef op zondag 17 mei 2009 @ 15:55:
[...]
Ja ik zou zelf ook die memory wel omhoog willen gooien maar helaas gaat het niet zo makkelijk. Die vram van mij zuigt gewoon echt hard. Er zit zo'n saphire logo over heen voor wat meer koeling. Maar ik vraag me dus echt sterk af wat voor ram er onder dat logo zit. Maarja ik zal nog maar eens proberen te ocen.
[ Voor 16% gewijzigd door Astennu op 17-05-2009 16:27 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik zie de stille hint wel.Astennu schreef op zondag 17 mei 2009 @ 16:25:
Hij zegt volgens mij al weer iets te veelLees zijn woorden nog maar eens goed.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bios modding is niet nodig. Met rivatuner en ATI Tray Tools kan het ook prima. Wanneer je met ATT de kaart automatisch laat overclocken, dan kan je ook een programma via ATT laten uitvoeren zoals rivatuner. Met de juiste commandline kan je de voltage dan verhogen.Astennu schreef op zondag 17 mei 2009 @ 10:37:
[...]
Nope dan staat hij op stock voltage. In jou geval moet je even je bios exporteren met ATiflash vanuit dos. Dan met RBE 1.20 even de bios aanpassen. Met RBE kun je de voltages gewoon instellen. En op die manier kun je dus zorgen dat hij in 3D mode altijd naar 1.35v ipv 1.31 gaat. 2D mode blijft dan wel mooi low voltage.
Anoniem: 286793
Dank je voor je advies. Kreeg hem nog steeds niet boven de 860mhz (memory). Daarna furmark uitgezet en kwam wel bij de 980 mhz mem en 800 mhz core op jouw manier! Helaas bij 990 mhz freeze, opnieuw opgestart en hij wou dit maal ook niet meer boven de 860mhz komen. Daarna nog een stuk of 5 keer geprobeerd en toen was de lol eraf.Astennu schreef op zondag 17 mei 2009 @ 16:25:
[...]
Hij zegt volgens mij al weer iets te veelLees zijn woorden nog maar eens goed.
[...]
Je kunt het zo aan de rest van je kaart zien wat er onder die VRM heatsink zit. Bij mij was het in ieder geval een striped down version. Maar mem wou 1100 toch wel halen. En wat er aan VRM's op zit zegt niets over de overclockbaarheid van het geheugen. Mem is volgens mij 1 GHz rated. Enige wat je dan kan tegenhouden is de memory controller in de core. Probeer anders eerst eens core op 800 MHz en dan max mem speed zoeken. Dan iets omlaag en dan core max er bij zoeken. Zo heb ik het gedaan. Mem kan hier max 1125 lopen.
Zolang een product niet geïntroduceerd is baseren we ons toch altijd op geruchten en goede bronnen?Niets is officieel.
Dan draait je kaart niet meer in 3D mode maar altijd 3D voltages en clocks. Dus heb je altijd een hoger verbruik. Daarom zoek ik gewoon de max en dan aardig wat omlaag zodat hij 24/7 stabiel is en dat bouw ik in een bios en klaar. Nooit meer gezeik.THE_FIREFOX schreef op zondag 17 mei 2009 @ 16:40:
[...]
Bios modding is niet nodig. Met rivatuner en ATI Tray Tools kan het ook prima. Wanneer je met ATT de kaart automatisch laat overclocken, dan kan je ook een programma via ATT laten uitvoeren zoals rivatuner. Met de juiste commandline kan je de voltage dan verhogen.
Zo te zien heb jij echt een peg gevalletje. Misschien even wachten op een HD4770 OC edition ? die zullen wel wat meer cherry picked spul er op hebben zitten. Of een mooie 2e hands HD4870 kopen.Anoniem: 286793 schreef op zondag 17 mei 2009 @ 17:32:
[...]
Dank je voor je advies. Kreeg hem nog steeds niet boven de 860mhz (memory). Daarna furmark uitgezet en kwam wel bij de 980 mhz mem en 800 mhz core op jouw manier! Helaas bij 990 mhz freeze, opnieuw opgestart en hij wou dit maal ook niet meer boven de 860mhz komen. Daarna nog een stuk of 5 keer geprobeerd en toen was de lol eraf.
True maar of deze nou to betrouwbaar isHacku schreef op zondag 17 mei 2009 @ 19:43:
[...]
Zolang een product niet geïntroduceerd is baseren we ons toch altijd op geruchten en goede bronnen?
[ Voor 26% gewijzigd door Astennu op 17-05-2009 19:52 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De vraag is in welke opzicht, uiteindelijke perfmance en/of kosten vs efficiëntie.CJ schreef op zondag 17 mei 2009 @ 15:20:
[...]
Ik mag er eigenlijk nog niks over zeggen, maar dat onderschatten van nVidia...ik kan je zeggen dat nVidia dit keer iemand heel erg onderschat heeft..... Soms is het kut als je niks meer mag zeggen.
Niet op voorraad.
Een heel ander opzicht dan wat je noemt.... en zeker ook niet onbelangrijk.edward2 schreef op zondag 17 mei 2009 @ 20:45:
[...]
De vraag is in welke opzicht, uiteindelijke perfmance en/of kosten vs efficiëntie.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
.... gissen naar iets dat CJ toch niet loslaat is nooit leuk
http://www.gtaforums.com/index.php?showtopic=411278
Dan doe je iets verkeerd en maak je geen (goed) gebruik van een 2D profiel. Ik zorg ervoor dat er altijd een 2D profiel word geladen wanneer ATT word gestart. Je kan het opgeven bij het aanmaken van een nieuwe profiel(load the selected profile at start up). Als ik daar lekker underclockt van de standaard 2D 500/900 naar 500/200, scheelt het aardig wat warmte.Astennu schreef op zondag 17 mei 2009 @ 19:51:
[...]
Dan draait je kaart niet meer in 3D mode maar altijd 3D voltages en clocks. Dus heb je altijd een hoger verbruik. Daarom zoek ik gewoon de max en dan aardig wat omlaag zodat hij 24/7 stabiel is en dat bouw ik in een bios en klaar. Nooit meer gezeik.
De temperatuur gaat dan van 75 graden naar een koelere 48~53 graden doordat alleen de geheugen een stuk langzamer loopt. De fan draait gewoon op de minimale snelheid (0%) en het werkt overigens prima met office en internet gebruik.
Bij het automatisch overclocken kan je opgeven welke 2D profiel na het afsluiten van de 3D applicaties word geladen. In het zelfde venster kan je ook dan opgeven welke applicaties ATT moet uitvoeren voor en na het automatisch overclocken (rivatuner bijvoorbeeld).
Dus hij blijf niet de hele tijd op de 3D voltages/clocks staan wat je beweerd en je kan het lekker laag clocken wanneer er geen 3D modus door ATT word gedetecteerd.
Anoniem: 263719
Ik denk dat het voor hem ook niet leuk is om het nog niet te mogen zeggenEdmin schreef op zondag 17 mei 2009 @ 21:24:
Een onboard co-processor die de OpenCL physics instructies afvangt?
.... gissen naar iets dat CJ toch niet loslaat is nooit leuk
Ik gok op introductie datum... CJ drukt zich iedere keer weer een beetje als er weer een gerucht opduikt dat het toch later wordt, dan zegt hij nietsCJ schreef op zondag 17 mei 2009 @ 20:53:
[...]
Een heel ander opzicht dan wat je noemt.... en zeker ook niet onbelangrijk.
Daarnaast ben ik heel benieuwd naar in hoeverre het multi gpu gebeuren zich weer ontwikkeld... zullen we dan eindelijk het gesharede geheugen voor gpu's zien (dit lijkt me toch de meest logische verklaring voor de dual shader engine term...).
The Flying Dutchman
Zodat bij CrossFireX niet in alle twee kaarten hetzelfde komt maar dat het 1 groot geheugen wordt.The Flying Dutchman schreef op zondag 17 mei 2009 @ 23:03:
.. zullen we dan eindelijk het gesharede geheugen voor gpu's zien (dit lijkt me toch de meest logische verklaring voor de dual shader engine term...).
Zou wel stoer zijn, maar verwacht het eigenlijk (nog) niet.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als je stil blijft staan, komt de hoek wel naar jou toe.
Misschien kunnen we voor deel 100 een uitzondering maken en doorgaan tot 1000?Ultraman schreef op zondag 17 mei 2009 @ 23:26:
Het zal vast al wel even opgevallen zijn, maar we zitten weer over de 500 posts![]()
Nee, ik vermoed dat het dan écht een duidelijk verschil is met CrossFireX en CrossFire op één kaart. Als je twee kaarten hebt dan is de communicatie daartussen te langzaam (vermoed ik) om het geheugen te delen. Dat kan dus alleen als beide gpu's zich op één pcb bevinden (tenminste: dat is mijn gok).-The_Mask- schreef op zondag 17 mei 2009 @ 23:09:
[...]
Zodat bij CrossFireX niet in alle twee kaarten hetzelfde komt maar dat het 1 groot geheugen wordt.
Zou wel stoer zijn, maar verwacht het eigenlijk (nog) niet.
The Flying Dutchman
Daar kan je idd wel eens gelijk in hebben.The Flying Dutchman schreef op zondag 17 mei 2009 @ 23:38:
[...]
Nee, ik vermoed dat het dan écht een duidelijk verschil is met CrossFireX en CrossFire op één kaart. Als je twee kaarten hebt dan is de communicatie daartussen te langzaam (vermoed ik) om het geheugen te delen. Dat kan dus alleen als beide gpu's zich op één pcb bevinden (tenminste: dat is mijn gok).
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
http://www.hardware.info/...eruchten_over_ATI_HD5870/
|2600k|Asus 290|
Denk je niet dat deze geruchten wellicht uit dit topic komen? CJ die laat doorschemeren dat nVidia AMD aan het onderschatten is en dat het niet op het gebied van performance of prijs is, maar op een ander heel belangrijk vlak.Bullus schreef op maandag 18 mei 2009 @ 12:26:
Hier wordt vertelt dat de 5870 rond juli al aankomt!
http://www.hardware.info/...eruchten_over_ATI_HD5870/
CJ heeft ook nog niet gereageerd nadat ik veronderstelde dat hij misschien wel de introductie datum bedoelde. Toeval?
The Flying Dutchman
AGP is still alive
En dan toch nog een AGP kaart wel geen HD 4770, maar een HD 4650...
Nieuwsbericht: Fudzilla
Specs: Gigabyte site
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

De meeste mensen deugen!
Anoniem: 134818
De AMD Athlon X2 6200+ (AM2) lijkt me snel zat. Een AMD Athlon X2 4400+ (de max op s.939) zou ook geen probleem mogen zijn.MikeyMan schreef op maandag 18 mei 2009 @ 13:52:
Vraag is alleen of je met een AGP moederbord en bijbehorende CPU wel volledig gebruik kunt maken van zo'n kaart...
Edit:
Reinman was me voor
[ Voor 6% gewijzigd door Indy91 op 18-05-2009 15:19 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
De snelste X2 voor S939 was de 2.4 GHz draaiende 4800+. Die is voor een HD4770 wat aan de krappe kant. Maar meer dan snel genoeg voor een HD4650. Dus een HD4770 zou een perfecte afsluiter zijn in mijn ogen. Met zo'n kaart zet je de rest gewoon lager en AA en AF aan want dat is iets wat de VGA kaart doet en niet de CPU.Indy91 schreef op maandag 18 mei 2009 @ 15:17:
[...]
De AMD Athlon X2 6200+ (AM2) lijkt me snel zat. Een AMD Athlon X2 4400+ (de max op s.939) zou ook geen probleem mogen zijn.
Edit:
Reinman was me voor
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar de 4770 is er dus niet voor AGP, maar een -veel- langzamere 4650. Het typenummer lijkt op een klein verschil, maar de 4770 is in sommige opstellingen wel drie keer zo snel. Een 4650 wordt echt niet gebottleneckt door een 4800+, bij een 4770 geloof ik dat al iets meer. Maar ik denk dat er van de volgende generatie gewoon weer een AGP kaart komt (zij het van nVidia of ATi) ... waarom:Astennu schreef op maandag 18 mei 2009 @ 17:34:
[...]
De snelste X2 voor S939 was de 2.4 GHz draaiende 4800+. Die is voor een HD4770 wat aan de krappe kant. Maar meer dan snel genoeg voor een HD4650. Dus een HD4770 zou een perfecte afsluiter zijn in mijn ogen. Met zo'n kaart zet je de rest gewoon lager en AA en AF aan want dat is iets wat de VGA kaart doet en niet de CPU.
- Publiciteit die het oplevert
- Weinig concurrentie voor een absoluut (relatief niet meer) gezien leuke markt (tienduizenden potentiële klanten zijn er nog steeds een plezant aantal als je de enige bent)
- Leuke marges; vaak zijn AGP kaarten duurder dan de PCI-E varianten en dat ligt echt niet aan de materialen of het slotje wat er onder op de kaart zit. Minder kaarten, meer marge - jammie.
Er komt er weer ééntje, let maar op
De meeste mensen deugen!
Of de marges voor een bedrijf als AMD er nou echt veel groter van worden betwijfel ik ook. Ten eerste hebben ze een speciale PCI-E -> AGP brigdechip nodig, die ook ergens verwerkt moet worden. Daarnaast is de afzetmarkt heel veel kleiner, waardoor de kosten van de logistiek stijgen. Je zult namelijk moeten onderzoeken waar je afzetmarkt is voor AGP-kaarten. Je schiet er namelijk weinig mee op als je je AGP kaarten naar europa stuurt, terwijl er juist in Zuid Amerika vraag naar is.
I knowCassius schreef op maandag 18 mei 2009 @ 18:51:
[...]
Maar de 4770 is er dus niet voor AGP, maar een -veel- langzamere 4650. Het typenummer lijkt op een klein verschil, maar de 4770 is in sommige opstellingen wel drie keer zo snel. Een 4650 wordt echt niet gebottleneckt door een 4800+, bij een 4770 geloof ik dat al iets meer. Maar ik denk dat er van de volgende generatie gewoon weer een AGP kaart komt (zij het van nVidia of ATi) ... waarom:
- Publiciteit die het oplevert
- Weinig concurrentie voor een absoluut (relatief niet meer) gezien leuke markt (tienduizenden potentiële klanten zijn er nog steeds een plezant aantal als je de enige bent)
- Leuke marges; vaak zijn AGP kaarten duurder dan de PCI-E varianten en dat ligt echt niet aan de materialen of het slotje wat er onder op de kaart zit. Minder kaarten, meer marge - jammie.
Er komt er weer ééntje, let maar op.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nou Catalyst 9.5er is nog steeds niet
Ik krijg bijna het vermoeden dat er iets mis was met de uitgelekte drivers , ook vreemd dat er na de RC van Win7 geen update is voor Win7 en Vista (of dat dit gewoon niet de juiste waren de uitgelekte 8.26 was het geloof ik, van 5 mei jl.)...Terwijl nieuwe drivers voor Win7 X64 toch wel wenselijk zijn
Ik denk dat we nog ff moeten wachten helaas, of laat ik het zo zeggen, ik wacht iig op de echte driver van Ati site zelf.
Weet iemand trouwens of en ik hoe ik het beeld fatsoenlijk krijg gecloned in Win7 x64 ?Aangezien er niets eens een Display Manager in CCC zit... Ik kan op dit moment geen films kijken...als ik het beeld clone (svhs) naar mijn tv dan verandert mijn beeldscherm resolutie mee naar 1024x768 en bovendien kan ik dan niet eens in fullscreen alleen op het secundaire scherm...
Is het echt een Win7 issue en dus gewoon (nog ff) wachten op nieuwe drivers ?
[ Voor 11% gewijzigd door StraightOn.NL op 18-05-2009 20:20 ]
Anoniem: 264799
Als je het beeld cloned dan zet je beide schermen op dezelfde resolutie, dat klopt, het is een kopie. Kan je ook extenden? En is fullscreen op je tv niet wat je wilt? Ik zie graag je reactie in het windows 7 ervaringentopic.StraightOn.NL schreef op maandag 18 mei 2009 @ 20:17:
[...]
.....
Weet iemand trouwens of en ik hoe ik het beeld fatsoenlijk krijg gecloned in Win7 x64 ?Aangezien er niets eens een Display Manager in CCC zit... Ik kan op dit moment geen films kijken...als ik het beeld clone (svhs) naar mijn tv dan verandert mijn beeldscherm resolutie mee naar 1024x768 en bovendien kan ik dan niet eens in fullscreen alleen op het secundaire scherm...
Is het echt een Win7 issue en dus gewoon (nog ff) wachten op nieuwe drivers ?
Ik heb er in het andere topic ook al een aantal posts over geschreven...zie hier:Anoniem: 264799 schreef op maandag 18 mei 2009 @ 20:46:
[...]
Als je het beeld cloned dan zet je beide schermen op dezelfde resolutie, dat klopt, het is een kopie. Kan je ook extenden? En is fullscreen op je tv niet wat je wilt? Ik zie graag je reactie in het windows 7 ervaringentopic.
StraightOn.NL in "[Windows 7] Ervaringen en discussies - D..."
Full screen op TV is juist wél wat ik wil..maar niet op de P ik wil dus tegelijkertijd op de monitor gewoon 1680x1050 en TV 1024 x 768...zoals dat ook gewoon in Windows XP kan via Display Manager en Theater mode (full screen op het secondary) ingesteld
In Win7 bestaat Display Manager helaas niet in CCC en moet ik het dus doen met de Windows optie's die alleen dupliceren (beide op 1024x768) en uitbreiden kent. Theater mode inschakelen in CCC kan wel, maar het werkt gewoonweg niet. Geen fullscreen op het secondary scherm
edit::
en waar blijft de officiele Catalyst 9.5 final toch
[ Voor 3% gewijzigd door StraightOn.NL op 18-05-2009 21:25 ]
Poeh dat is wel een heel erg doom scenario. Ik denk niet dat het zo erg zal worden. Maar het zet je wel aan het denken. Ik vraag me ook af of die GT300 DX11 gaan emuleren. Als ze dat echt gaan doen kan het echt helemaal fout gaan. En wat ze zeggen over de huidige ATi kaarten klopt wel. Die hebben veel meer er in zitten dan nu gebruikt wordt. Zie ook hoeveel moeite nVidia doet om DX10.1 tegen te houden. DX10.1 > DX11 is een niet al te grote stap.Blastpe schreef op maandag 18 mei 2009 @ 21:15:
Nog even over die GT300 tapeout: Charlie heeft zo zijn eigen kijk op de aankomende GT300 en RV870
Dus het ziet er weer eens wat beter uit voor AMD. Kunnen ze wel gebruiken want met CPU's gaat het niet echt super. PHII heeft wel wat goed gemaakt maar het is nog een lange weg. + straks komt intel gewoon met een 32nm I7 en 45nm LRB's er in om performance te boosten. Dan is het de vraag hoe ver AMD met GPGPU is voor een GPU core in de Buldozer K11 core.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Aardig artikel. Heb het snel doorgelezen, en niet echt goed gekeken of er echt grove fouten in zitten. Maar, ik vind het beter onderbouwd dan alles wat theo valich 'roept'. Als ook maar de helft waar is van wat charlie schrijft, ziet het er minder rooskleurig uit dan theo ons zou willen doen laten geloven.Blastpe schreef op maandag 18 mei 2009 @ 21:15:
Nog even over die GT300 tapeout: Charlie heeft zo zijn eigen kijk op de aankomende GT300 en RV870
Ik heb net die 9.5 gedownload, niet die van de officiele site.
Nu zit er volgens mij een bug in.
namelijk bij Overdrive. Als ik de clock wil verhogen dan doet hij dat gewoon niet. Het lijkt erop dat heel die functie gewoon niet werkt. Hij gaat meteen weer terug naar de stock clocks. Ook de fan kun je niet aanpassen. Misschien dat het daarom wat langer duurt dat de nieuwste drivers komen
Daarnaast zit er bij mij ook een Powerplay bug in. Hij schakelt niet naar 240Mhz..
Even deleten en dan maar weer 9.4
Edit:
Ik heb zojuist Ati catalyst verwijderd via de Catalyst installer. toen heb ik 9.4 er weer opgezet en ik heb nog steeds dezelfde problemen. Best raar toch?
Edit 2:
Ik weet niet wat mijn systeem in 1x heeft. Maar mijn Catalyst is echt verneukt.
Ik heb net Driver Sweeper gedraaid om alles weg te halen. Ik gebruik rivatuner maar die heb ik uit staan. ( misschien moet ik die eens verwijderen..)
Ik blijf hetzelfde probleem houden. Als ik Overdrive activeer dan wil ik bijvoorbeeld mijn fan op 40% laten draaien(noem maar iets) ik druk dan op Apply en dan doet hij vervolgens niks, dan moet ik weer opnieuw gaan kiezen dat ik het handmatig wil doen. Hetzelfde als met de clocks. Ik kan ze niet omhoog zetten, Als ik op Apply druk dan springt ie weer netjes terug op 850 Mhz... Daarnaast zie ik ook dat ik bij GPU-Z hij de heletijd op 850 draait en niet netjes op 240 terugclocked..
Ik heb laatst de Bios aangepast maar dat was alleen maximum voltage. Voor de rest is er niks veranderd dus daar kan het niet aan liggen.
Edit 3:
Ik ga dit even verplaatsen naar het Ervaringen topic.
Ik word hier een beetje ziek van!!
Ik heb catalyst geremoved, daarna met driver sweeper alle losse bestanden verwijderd. Daarna in Veilige modus nog eens driver sweeper gedraaid en overige troep verwijderd. Ik denk, nou dan zal alles wel weg zijn!
Ik installeer netjes 9.4. Het is de Vista 64 driver... van internet.
Ik open weer CCC en unlock Overdrive. Ik en ik kan gewoon weer niks. Hij springt bij de fan gewoon weer terug op niet handmatig. Ik kan de clockfrequentie gewoon niet veranderen. Kan het balkje wel verschuiven maar hij blijft niet staan. Daarnaast wat ik nog het ergste vindt is dat hij niet in 2d Modus gaat. Bij GPU-Z zegt hij dat hij heletijd op 850 mhz draait. Eerst draaide hij op 240mhz in 2d...
Hier wordt ik dus niet goed van. Ik weiger Windows opnieuw te installeren. Ik heb net alles er opstaan en draait alles perfect...
Lekker zown 9.5 update, waarschijnlijk was het ook gebeurt bij de official release...
Zou het toch aan mijn nieuwe bios liggen? Ik heb alleen de maximale voltage verhoogt naar 1.35v tov 1.31v verder helemaal niets....
Ik heb rivatuner al verwijderd, misschien dat die wat problemen gaf maar het helpt allemaal niet
[ Voor 92% gewijzigd door Kuhr89 op 19-05-2009 00:14 ]
| PS5 PSN: Hitting-Apex89
Dat zijn natuurlijk gemakkelijke, maar geheel ongebasseerde uitspraken. Zo zou je namelijk kunnen bedenken waarom de officiele drivers nog niet zijn uitgebracht en er alleen gelekte drivers te vinden zijn.Kuhr89 schreef op maandag 18 mei 2009 @ 23:03:
Lekker zown 9.5 update, waarschijnlijk was het ook gebeurt bij de official release...
Zou het toch aan mijn nieuwe bios liggen? Ik heb alleen de maximale voltage verhoogt naar 1.35v tov 1.31v verder helemaal niets....
Inderdaad. Als maar 1/4e klopt kan AMD al in de handjes klappen. Als alles klopt zitten we misschien tegen een nieuwe NV30 aan te kijken. Beetje wat er ook met de R600 gebeurde.Marc Rademaker schreef op maandag 18 mei 2009 @ 22:03:
[...]
Aardig artikel. Heb het snel doorgelezen, en niet echt goed gekeken of er echt grove fouten in zitten. Maar, ik vind het beter onderbouwd dan alles wat theo valich 'roept'. Als ook maar de helft waar is van wat charlie schrijft, ziet het er minder rooskleurig uit dan theo ons zou willen doen laten geloven.
[ Voor 61% gewijzigd door Astennu op 19-05-2009 08:27 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Naja in mijn Bios staat ook gewoon dat hij bij 2D gewoon moet underclocken maar dat doet hij gewoon niet. Hij herkent het niet om in 2d te gaan ofzo.. Ik zit alleen te twijfelen of ik toen mijn PC had geinstalleerd of ik toen de driver CD had gebruikt of ook van internet.Astennu schreef op dinsdag 19 mei 2009 @ 08:26:
Problemen met het niet over willen clocken met Overdrive had ik met 9.4 ook al. En soms doet hij het dan ineens weer wel. Maar goed i dont care maak toch altijd een bios waar alles vast in zit.
[...]
Inderdaad. Als maar 1/4e klopt kan AMD al in de handjes klappen. Als alles klopt zitten we misschien tegen een nieuwe NV30 aan te kijken. Beetje wat er ook met de R600 gebeurde.
Naja ik vind dit iig niet cool. Ik gebruik Rivatuner nu maar voor de Fan en de clocks..
| PS5 PSN: Hitting-Apex89
Tja met 9.4 moet het gewoon werken. Maar ik raad je echt aan om dit even in het ervaringen topic te bespreken en niet meer hier. Er worden nu iets te veel offtopic posts gemaakt en dat is niet te bedoeling.Kuhr89 schreef op dinsdag 19 mei 2009 @ 10:21:
[...]
Naja in mijn Bios staat ook gewoon dat hij bij 2D gewoon moet underclocken maar dat doet hij gewoon niet. Hij herkent het niet om in 2d te gaan ofzo.. Ik zit alleen te twijfelen of ik toen mijn PC had geinstalleerd of ik toen de driver CD had gebruikt of ook van internet.
Naja ik vind dit iig niet cool. Ik gebruik Rivatuner nu maar voor de Fan en de clocks..
Komt van FUD. Persoonlijk denk ik dat DirectX Compute en OpenCL zullen blijven bestaan en de invloed van CUDA veel minder gaat worden. DX en OpelGL support wordt toch al in kaarten gebakken dus DX Compute heb je dan in ieder geval al omdat dat onderdeel is van de DX standaard. Wat je voor open CL nodig hebt weet ik niet maar dat valt mogelijk ook nog wel mee. Voor CUDA lijkt me toch even wat meer nodig om dat te kunnen ondersteungen. En ik zie het niet snel gebeuren dat een ATiof Via CUDA support gaat inbakken in hun GPU's.Nvidia’s Cuda to coexist?
Nvidia’s CEO has been a vocal supporter of DirectX compute and Open CL, and Nvidia is the first company to have a beta driver for both.
ATI is walking in the right direction but we are sure that when it comes to a compute market, they are much behind Nvidia. DirectX Compute is the part of DirectX 11 and it should speed up computing of parallel operations on a PC and in a way is a big competition to Nvidia’s Cuda.
Microsoft has much bigger chance to establish a standard that can get accepted by the rest of the world and they did this ages ago with DirectX and late with Shader model language, a part of DirectX.
Jensen also claims that Nvidia supports Open CL, Apple's way of doing parallel chips, and since Apple buys a lot of MCP 79, Geforce 9400 / Ion chips, this technology might have a chance of its own.
Cuda, Open CL and DirectX compute will do many parallel things faster, especially video editing and some science stuff including Mathlab and in the mean time they will be able to do stuff with less power.
The question is which of the standards will be here in two years time?
[ Voor 12% gewijzigd door Astennu op 19-05-2009 10:48 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Natuurlijk gaat iedereen in dit topic ervan uit dat die 'iemand' die door nV onderschat wordt Ati/AMD is, maar ik lees in dat artikel van Charlie dat Larrabee ook eind 2009/begin 2010. Juist door de lage verwachtingen die ik zeker ook in dit topic bemerk aangaande Larrabee, denk ik dat CJ het wel eens hier over zou kunnen hebben.CJ schreef op zondag 17 mei 2009 @ 15:20:
[...]
Ik mag er eigenlijk nog niks over zeggen, maar dat onderschatten van nVidia...ik kan je zeggen dat nVidia dit keer iemand heel erg onderschat heeft..... Soms is het kut als je niks meer mag zeggen.
En geloof de berichten over een tape-out van GT300 maar niet al te snel.
Aan de andere kant zit CJ natuurlijk met zijn neus dichter op de Ati/AMD ontwikkelingen dan die van Intel en zou dus eerder hier scoops over hebben. De tijd zal het leren
Ik ben wel benieuwd wat LRB gaat doen. En of het wat wordt. Het zal daar echt van de drivers af gaan hangen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://www.computerbase.d.../bericht_ati_catalyst_95/
http://www.tweaktown.com/...river_analysis/index.html
En hier wordt bevestigd dat de drivers vandaag uit moeten komen:
http://www.rage3d.com/board/showthread.php?p=1335890612
Wat een verlies....
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 286793
Ik ben wel benieuwd maar ik ga denk ik toch wel met de rv870. LRB lijkt me vooral sterk in synthetische benchmarks en gpgpu-dingen. Maar het gaat denk ik niet zo heel geweldig lopen in games. En drivers zullen ook wel niet van de hoogste kwaliteit zijn.Astennu schreef op dinsdag 19 mei 2009 @ 12:01:
Het lijkt me sterk dat CJ het over intel heeft die mensen gaan verassen. Om dezelfde rede die je zelf ook al noemt.
Ik ben wel benieuwd wat LRB gaat doen. En of het wat wordt. Het zal daar echt van de drivers af gaan hangen.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Anoniem: 168987
Volgens mij zal intel er wel genoeg geld tegenaan gooien om te zorgen dat het degelijk werkt, en dat ze goede drivers hebben. Ik denk dat als intel met dit uitkomt, en het draait niet als behoren. Dat ze een gigantische klop krijgen. Dus ik denk niet dat intel dit risico zal nemen.Astennu schreef op dinsdag 19 mei 2009 @ 12:01:
Het lijkt me sterk dat CJ het over intel heeft die mensen gaan verassen. Om dezelfde rede die je zelf ook al noemt.
Ik ben wel benieuwd wat LRB gaat doen. En of het wat wordt. Het zal daar echt van de drivers af gaan hangen.
Overigens ben ik benieuwd wat dit gaat betekenen voor AMD en Nvidia ( markt aandeel ). Wie gaat inboeten als LRB goed bolt? Beiden? of 1 van de 2.
http://game.amd.com/us-en/drivers_catalyst.aspx
Nu nog even wachten, totdat deze releaselijst online staat:
http://www2.ati.com/relnotes/Catalyst_95_release_notes.pdf
[ Voor 6% gewijzigd door Splinter Cell op 19-05-2009 19:08 ]
Anoniem: 291245
Ik denk dat ik in de toekomst voor een 5850 ga, tenzij er andere interessante dingen voorbij komen.. Het begint toch wel heeeeeel erg te kriebelen bij mij hoor jongens...
Het zal allemaal wel tegelijk met W7 uit gaan komen i.v.m DX11 en financiële belangen. Je ziet nu steeds duidelijker dat soft en hardware fabrikanten steeds nauwer met elkaar samenwerken..
Juist wel, en een bedrijf als Intel heeft de resources om dat waar te maken, al zullen ze een deel van de knwo how aangetrokken hebben.Anoniem: 291245 schreef op dinsdag 19 mei 2009 @ 19:19:
LRB is toch helemaal niet gericht op gaming?
Ik denk dat ik in de toekomst voor een 5850 ga, tenzij er andere interessante dingen voorbij komen.. Het begint toch wel heeeeeel erg te kriebelen bij mij hoor jongens...
Het zal allemaal wel tegelijk met W7 uit gaan komen i.v.m DX11 en financiële belangen. Je ziet nu steeds duidelijker dat soft en hardware fabrikanten steeds nauwer met elkaar samenwerken..
Ik ben erg blij dat er een vermoedelijke concurrent bij komt in het perf. segment.
Het enige wat nog rest, is dat de GFX-progress in games weer gereanimeerd wordt.
Niet op voorraad.
Dit stukje over DX10 wist ik niet.Blastpe schreef op maandag 18 mei 2009 @ 21:15:
Nog even over die GT300 tapeout: Charlie heeft zo zijn eigen kijk op de aankomende GT300 en RV870
Kan iemand dat bevestigen?DX11 is a much funnier story. The DX10 feature list was quite long when it was first proposed. ATI dutifully worked with Microsoft to get it implemented, and did so with the HD2900. Nvidia stomped around like a petulant child and refused to support most of those features, and Microsoft stupidly capitulated and removed large tracts of DX10 functionality.
This had several effects, the most notable being that the now castrated DX10 was a pretty sad API, barely moving anything forward. It also meant that ATI spent a lot of silicon area implementing things that would never be used. DX10.1 put some of those back, but not the big ones.
Grootgebruiker van MS Word. Maar het wordt nooit perfect...
Oorspronkelijk zou Windows Vista als basis Windows Drivermodel 2.0 krijgen.... met als uitbreiding WDDM 2.1. Dit zou er o.a. voor zorgen dat multi-tasking op de GPU seamless gebeurde en veel zaken konden veel efficienter gemanaged worden door de GPU en het OS, waardoor de boel veel stabieler en sneller zou zijn. Dit kwam o.a. door de Advanced Scheduler die in WDDM2.0 zat. Je kan dan bv tegelijkertijd Folding@Home doen, terwijl tegelijkertijd een HD filmpje seamless zonder glitches op je scherm getoverd wordt, dit alles zonder dat de GPU stalled of de desktop er onder te lijden heeft.
Microsoft gooide de plannen voor WDDM2.0 echter in de ijskast en Vista werd geleverd met WDDM 1.0. Met DX11 en Win 7 gaan we naar WDDM 1.1, dus nog niet datgene wat WDDM 2.0 had kunnen brengen. Het vermoeden (eigenlijk meer een publiek geheim) is dat NV als een verwaand klein kind moord en brand begon te krijsen en dat MS daarvoor gezwicht is.
ATI was erg pissig over deze beslissing, want zij hadden binnen het ontwerp van de R6x0 generatie al gates toegewezen aan de pre-emption functies van WDDM2.0. Dus de R600 had veel ongebruikte functies aan boord.... transistoren die niet gebruikt werden.
Ooit afgevraagd hoe de RV670 zo'n 60M transistoren kleiner was dan de R600, maar toch volledig DX10.1 compliant was (die 256-bit memory interface bespaarde zo'n 200M transistoren)? Of hoe de RV635 ten opzichte van de RV630 kleiner was, terwijl die RV635 wel DX10.1 compliant was en RV630 niet? Ik heb dit nooit 100% bevestigd gekregen, maar het zou me niks verbazen als ATI in de refreshes al die WDDM2.0 functies er uit gesloopt heeft aangezien het toch voorlopig niet gebruikt zou worden. Niet in Windows 7, niet in DX11.
Overigens kan ik je zeggen dat het verhaal van Charlie dit keer voor de verandering wel eens erg dicht bij de waarheid zou kunnen liggen.
Voor meer informatie over hoe WDDM2.0 er eigenlijk uit had moeten zien en wat voor voordelen het bracht tov WDDM1.0 zie dit informatie PPT bestand: http://download.microsoft...cf47d23cd/PRI103_WH06.ppt
Het nieuwe topic komt trouwens in de loop van morgen.
[ Voor 12% gewijzigd door CJ op 20-05-2009 00:23 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Wat had die man van nvidia dan te vertellen tijdens die powerpoint presentatie? Leuk dat jullie met WDDM 2.0 bezig zijn en bla bla filmpje dit, decoden dat, maar ondertussen was de R&D afdeling van NV al bezig om de zaak te blokkeren?CJ schreef op woensdag 20 mei 2009 @ 00:20:
Dat verhaal klopt.
[....]
Overigens kan ik je zeggen dat het verhaal van Charlie dit keer voor de verandering wel eens erg dicht bij de waarheid zou kunnen liggen.
Voor meer informatie over hoe WDDM2.0 er eigenlijk uit had moeten zien en wat voor voordelen het bracht tov WDDM1.0 zie dit informatie PPT bestand: http://download.microsoft...cf47d23cd/PRI103_WH06.ppt
Het nieuwe topic komt trouwens in de loop van morgen.
Goud is geen geld
Kan iemand eens verifiëren dat ik niet de enige ben die dit probleem heeft?!
Display Manager zit gewoon helemaal niet meer in CCC, er zit wel in link hiernaartoe van het AVIVO tabblad, onder Theater Mode, maar die knop werkt niet en linkt nergens naar.
Theater mode werkt ook totaal niet...beeld dupliceren of uitbreiden in windows...ik krijg video met geen mogelijkheid fullscreen op de secundaire TV. *force TV-out helpt overigens ook niet...
Hoe het precies zit weet niemand officieel. Het kan zijn dat de G80/G92 generatie dit allemaal niet kon en dat nVidia dit voor een volgende generatie had willen bewaren.... en dus zou het ze niet uit komen wanneer WDDM2.0 een vast onderdeel zou worden van Vista. Ze flikken wel vaker van dit soort kunstjes.frankknopers schreef op woensdag 20 mei 2009 @ 01:25:
[...]
Wat had die man van nvidia dan te vertellen tijdens die powerpoint presentatie? Leuk dat jullie met WDDM 2.0 bezig zijn en bla bla filmpje dit, decoden dat, maar ondertussen was de R&D afdeling van NV al bezig om de zaak te blokkeren?
Wat wel zeker is, is dat WDDM2.0 gecancelled is op een moment dat ATI al ver in z'n ontwerpstadium zat van z'n eerste DX10 generatie en de extra stuff er bij de volgende revisie (de refresh) uit heeft gesloopt. Aan overbodige transistoren heeft niemand iets namelijk.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bij mij werkt de Display Manager knop gewoon, hij brengt mij naar de Display Manager tab.StraightOn.NL schreef op woensdag 20 mei 2009 @ 01:27:
Nou Catalyst 9.5 voor Win7 x64 is de Display Manager nog steeds niet gefixed, maar het staat ook niet eens bij de release notes als known isues...
Kan iemand eens verifiëren dat ik niet de enige ben die dit probleem heeft?!
Display Manager zit gewoon helemaal niet meer in CCC, er zit wel in link hiernaartoe van het AVIVO tabblad, onder Theater Mode, maar die knop werkt niet en linkt nergens naar.
Theater mode werkt ook totaal niet...beeld dupliceren of uitbreiden in windows...ik krijg video met geen mogelijkheid fullscreen op de secundaire TV. *force TV-out helpt overigens ook niet...
![]()
![]()
Heb jij het onderdeel Display Manager niet in de CCC panel staan?
Ik heb die namelijk wel standaard er in zitten.

Nope kijk maar...bij mij wordt Display Manager niet weer gegeven, en Force TV en Theater Mode werken ook NIET...voor alle duidelijkheid, heb ik wel gewoon beeld op mijn tv, maar dan via het Windows Beeldscherm Eigenschappen scherm / dupliceren / uitbreiden.SECURITEH schreef op woensdag 20 mei 2009 @ 02:08:
[...]
Bij mij werkt de Display Manager knop gewoon, hij brengt mij naar de Display Manager tab.
Heb jij het onderdeel Display Manager niet in de CCC panel staan?
Ik heb die namelijk wel standaard er in zitten.
[afbeelding]
(overigens lijkt die screenshot van jou wel erg op WinXP, waar mijn Display Manager ook gewoon werkt...Ik heb het hier over Win7 x64 7100)


[ Voor 8% gewijzigd door StraightOn.NL op 20-05-2009 09:40 . Reden: WinXP Screenshot? ]
In Win7 of andere OS'en? ?Hacku schreef op woensdag 20 mei 2009 @ 09:55:
Net even Catalyst 9.5 op 4890 en 4770 Crossfire systemen getest, bij allemaal staat de Display Manager er gewoon bij.
Dit topic is gesloten.
Hulde voor CJ met deel 100! :D
Denken we er aan om het netjes te houden? Dan komen we tot een topic waarin de topicwaarschuwing gebruikt kan gaan worden voor leuke dingen?