numbers to back that up please
Komt dit voornamelijk door OEM verkopen? of is het in de retail net zo erg?neliz schreef op vrijdag 02 juli 2010 @ 08:54:
[...]
Dan nog verkoopt nV meer 40nm producten dan AMD.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
crn's foute artikel over de winst in discrete graphics in Q1 2010: http://www.crn.com/hardware/225000002ArgantosNL schreef op vrijdag 02 juli 2010 @ 09:27:
numbers to back that up please
zelfs met Evergreen uit verloor AMD in Q1 nog marktaandeel. volgens mij is het integrated verhaal niet veel beter, vooral dankzij de Apple deal. misschien dat AMD's 800 serie en nieuwe Phenoms iets aan dat verhaal kunnen doen in Q2/Q3.NVIDIA'S SENIOR PR REPLIES:
Quote:
It looks like you based this thread on a story from CRN, which in itself was based on a story from Fudzilla.
Unfortunately, all of these stories are factually inaccurate.
We did not lose 8 points of market share in Q1. According to Mercury Research, NVIDIA actually gained marketshare in Q1, raising our discrete share from 57% to 58%. This despite the fact that AMD had the 5000 series in the market.
voornamelijk OEM. Fermi verkoopt ruk blijkbaar, maar ze hebben iets meer 40nm producten dan dat.Astennu schreef op vrijdag 02 juli 2010 @ 09:41:
[...]
Komt dit voornamelijk door OEM verkopen? of is het in de retail net zo erg?
[ Voor 13% gewijzigd door neliz op 02-07-2010 09:45 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Kortom oems geven niet om DX11 chips en gaan voor oude DX10.1 chips. Tja dan houd het snel op ja..... AMD moet duidelijk meer aan marketing gaan doen. Daar wint nVidia het nu gewoon op. Terwijk ze knake chips maken. Laat staan wat er gebeurt als ze nu weer de beste optie zouden hebben. Dan krijgt AMD zeer harde klappen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Idd, en dat is de rol van de eeuwige nummer twee.Astennu schreef op vrijdag 02 juli 2010 @ 10:13:
Kortom oems geven niet om DX11 chips en gaan voor oude DX10.1 chips. Tja dan houd het snel op ja..... AMD moet duidelijk meer aan marketing gaan doen. Daar wint nVidia het nu gewoon op. Terwijk ze knake chips maken. Laat staan wat er gebeurt als ze nu weer de beste optie zouden hebben. Dan krijgt AMD zeer harde klappen.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
tsja, wat wil je dan als er een tekort op mobile 5xxx GPU's is...
bron? eigen ervaringen, xps 16 die maar word uitgesteld, asus notebooks met HD58xx met belachelijke lange RMA procedures, en het feit dat elke fabrikant nu aan de HD5xxV zit. (check dell maar, elke notebook met een HD5xxx heeft een rebrand als basisoptie.)
bron? eigen ervaringen, xps 16 die maar word uitgesteld, asus notebooks met HD58xx met belachelijke lange RMA procedures, en het feit dat elke fabrikant nu aan de HD5xxV zit. (check dell maar, elke notebook met een HD5xxx heeft een rebrand als basisoptie.)
Toch zie ik bij bijv. Paradigit steeds meer laptops en dektops met een HD5000 kaart. Ik ieder geval vééél meer dan bij de 4000 serie.Astennu schreef op vrijdag 02 juli 2010 @ 10:13:
Kortom oems geven niet om DX11 chips en gaan voor oude DX10.1 chips. Tja dan houd het snel op ja..... AMD moet duidelijk meer aan marketing gaan doen. Daar wint nVidia het nu gewoon op. Terwijk ze knake chips maken. Laat staan wat er gebeurt als ze nu weer de beste optie zouden hebben. Dan krijgt AMD zeer harde klappen.
Jejking schreef op donderdag 01 juli 2010 @ 17:21:
Gatver. Dat soort tactieken heb ik echt een hekel aan
Verwijderd schreef op donderdag 01 juli 2010 @ 17:19:
Precies, eerst maar eens zien of nVidia dat spul allemaal wel verkocht krijgt. Ik heb er een hard hoofd in, het enige dat ze er dan aan hebben is dat ze het Ati lastiger maken. Ik weet niet of het bewuste opzet is, maar van dit soort praktijken hebben we nVidia zich eerder zien bedienen.
Wat zijn dit nu weer voor rare opmerkingen? Denken jullie nu echt dat NVIDIA capaciteit koopt om AMD dwars te zitten? Jullie zitten echt veel te veel in het bekrompen laten-we-alles-van-NVIDIA-negatief-inzien kamp, doe die rode bril eens even af!ArgantosNL schreef op donderdag 01 juli 2010 @ 17:15:
NV's enige kans om ATI wat tegen te houden. Dit gaat NV veel geld kosten, ze hebben dadelijk een hele grote voorraad die ze niet voor productie prijs kunnen verkopen. Op dit moment liggen er overal grote voorraaden, laten we hopen dat de volgende serie bij GF geproducteerd wordt dan zijn ze iets minder afhankelijk TSMC die heeft toch laatste tijd voor veel problemen gezorgt 32nm en nu weer productie cap tekort.

NVIDIA heeft gewoon eindelijk hun 40nm line-up af nu binnenkort de GF104 en straks GF106 en GF108 uit komen. Ze verwachten hier veel chips van te verkopen, dus plaatsen ze veel orders. TSMC heeft echter (ivm crisis) te weinig capaciteit om alle vraag naar 40nm te vervullen en heeft het beleid (altijd al gehad) om grote klanten (met name Qualcomm en NVIDIA) voorang te verlenen. AMD heeft dan pech, maar dat ligt niet aan NVIDIA maar aan TSMC. Nog een goede reden erbij waarom AMD naar GF moet overstappen.
Zoals ik al aangaf is NVIDIA een grotere klant, altijd ook al geweest. Bovendien wil TSMC er voor zorgen dat NVIDIA een goede vriend blijft nu er een nieuwe grote speler is op de markt (GF). Ze zijn als de dood dat een van hun grote klanten (op gebied van cutting-edge procedee's) overstapt naar de concurrent dus zullen ze van alles doen om NVIDIA binnen te houden.madmaxnl schreef op donderdag 01 juli 2010 @ 19:27:
Waarom zou TSMC de capaciteit niet eerlijk verdelen tussen ATI en nVidia ? Enige reden die ik kan bedenken is omdat nVidia met meer geld gooit dan ATI. nVidia krijgt zijn kaarten nu al niet verkocht terwijl de prijzen van ATI HD5xxx omhoog gaan en de nVIdia GTX4xx omlaaggaan. Als ze dan ook nog eens hun kaarten duurder gaan maken omdat de productie nog duurder wordt zie ik ze niet meer verkopen maar goed.
Veel capaciteit inkopen is erg leuk en aardig voor NV, maar je hebt er niks aan als de markt niet geinteresseerd is in je product. Aan de andere kant is te weinig capaciteit hebben ook niks, want de vraag van de markt naar die rode producten is erg hoog.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Sorry maar naar de eerste regel wist ik genoeg..... Dan draai je duidelijk niet lang genoeg mee in deze wereld. Want er zijn genoeg bewijzen van soortgelijke praktijken door zowel Intel als nVidia om concurrentie te dwarsbomen. Het is echt een ontzettend smerig spelletje wat daar gespeeld wordt.Snoitkever schreef op vrijdag 02 juli 2010 @ 14:32:
Heel verhaal
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
laat die markt nu voor 90% bestaan uit mensen die merktrouw zijn of niet weten wat ze kopen...CJ schreef op vrijdag 02 juli 2010 @ 14:58:
Veel capaciteit inkopen is erg leuk en aardig voor NV, maar je hebt er niks aan als de markt niet geinteresseerd is in je product. Aan de andere kant is te weinig capaciteit hebben ook niks, want de vraag van de markt naar die rode producten is erg hoog.
Ah kom, ga me nou geen even geen naieviteit verwijten om je eigen complottheorieen goed te praten. Dat doet mijn oma ook altijd wanneer ze verteld hoe iedereen in de wereld er op uit is om je geld uit de zak te kloppen: "ie komt er nog wol achter, a'j zo old bun as ik".Astennu schreef op vrijdag 02 juli 2010 @ 15:00:
[...]
Sorry maar naar de eerste regel wist ik genoeg..... Dan draai je duidelijk niet lang genoeg mee in deze wereld. Want er zijn genoeg bewijzen van soortgelijke praktijken door zowel Intel als nVidia om concurrentie te dwarsbomen. Het is echt een ontzettend smerig spelletje wat daar gespeeld wordt.
Als je als zakenman peperdure capaciteit gaat opkopen om er voor te zorgen dat je concurrent minder winst maakt terwijl je zelf met een enorm overschot aan onverkoopbare chips zit ben je niet goed bij je hoofd. Dan kan NVIDIA nog beter chips onder de kostprijs gaan verkopen, dat is nog goedkoper. Een bedrijf dat dergelijke tactieken daadwerkelijk gebruikt houdt het niet zo lang vol als NVIDIA het tot nu toe heeft volgehouden. Je kan NVIDIA van veel "minder koshere" tactieken beschuldigen, maar een idee als dit is gewoon belachelijk.
Bovendien, ooit gehoord van Occam's Razor? Wat is logischer, dat NVIDIA bakken met geld uitgeeft om er voor te zorgen dat AMD minder chips kan produceren dan eerst? Of dat NVIDIA een nieuwe productlijn heeft, veel verwacht te verkopen, en TSMC gewoon alle vraag niet aan kan?
Sure kerel wat jij zelf wil
Ik lees dit topic al heel wat jaren. En er is nogal wat voorbij gekomen wat inmiddels bewezen is. Mij zou het niets verbazen als dit zo is. Maar ik zal er verder niet meer op in gaan.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Omdat er een tekort aan capaciteit is HOEFT nvidia niet meer in te kopen dan ze kunnen verkopen om AMD dwars te zitten.
Ze krijgen, zoals ik het nu begrijp, van TSMC alle capaciteit die ze nodig denken te hebben en AMD heeft dan dus pech en zij krijgen minder dan dat ze nodig hebben.
Daar zijn geen complottheorieën voor nodig.
Ze krijgen, zoals ik het nu begrijp, van TSMC alle capaciteit die ze nodig denken te hebben en AMD heeft dan dus pech en zij krijgen minder dan dat ze nodig hebben.
Daar zijn geen complottheorieën voor nodig.
[ Voor 4% gewijzigd door daan! op 02-07-2010 15:53 ]
Precies, het is absoluut een win-win situatie voor NVIDIA en hoe dan ook een nare situatie voor AMD. Ik zie niet in waarom daar nu direct kwade opzet achter te zien zou moeten zijn, zeker niet as het het soort complottheorie-achtig gepraat is wat ik zonet al aanhaalde.daan! schreef op vrijdag 02 juli 2010 @ 15:51:
Omdat er een tekort aan capaciteit is HOEFT nvidia niet meer in te kopen dan ze kunnen verkopen om AMD dwars te zitten.
Ze krijgen, zoals ik het nu begrijp, van TSMC alle capaciteit die ze nodig denken te hebben en AMD heeft dan dus pech en zij krijgen minder dan dat ze nodig hebben.
Daar zijn geen complottheorieën voor nodig.
En dat verklaart waarom veel partners niet van hun Fermi videokaarten af kunnen komen, maar wel elke HD5800 serie kaart kunnen verkopen die ze aangeleverd krijgen?Verwijderd schreef op vrijdag 02 juli 2010 @ 15:10:
[...]
laat die markt nu voor 90% bestaan uit mensen die merktrouw zijn of niet weten wat ze kopen...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Mensen die hun kaart los kopen weten over het algemeen beter wat ze doen.CJ schreef op vrijdag 02 juli 2010 @ 16:01:
[...]
En dat verklaart waarom veel partners niet van hun Fermi videokaarten af kunnen komen, maar wel elke HD5800 serie kaart kunnen verkopen die ze aangeleverd krijgen?
Echter, mensen die een OEM PC kopen zijn ver uit in de meerderheid en snappen gemiddeld veel minder goed wat ze pressies in huis halen.
Zolang nVidia, om welke reden dan ook, een OEM favoriet is, zullen ze meer verkopen dan ATI.
De typische OEM-kaarten die in massa verkocht worden, zijn zo ongeveer de HD5670/5570 en lager. Laat nu net die kaarten pas in Q1 uitgekomen zijn. Pas daarna kunnen ze ook echt geplanned worden in systemen van OEMs. Dan zit je toch al gauw in Q2 of Q3 voordat ze in systemen zitten. Logisch dus dat marktaandeel pas vanaf dan kan veranderen, aangezien een groot deel daar te winnen is.
Voor de rest is het de vraag of nVidia inderdaad zoveel mogelijk capaciteit heeft opgekocht. Zelfs als ze dat hebben gedaan, is het maar de vraag of de markt op de chips zit te wachten die zij daarmee krijgen. Als nVidia wel de chips krijgt maar niet de verkopen, dan zit nVidia straks met een hele lading waardeloos silicium.
Voor de rest is het de vraag of nVidia inderdaad zoveel mogelijk capaciteit heeft opgekocht. Zelfs als ze dat hebben gedaan, is het maar de vraag of de markt op de chips zit te wachten die zij daarmee krijgen. Als nVidia wel de chips krijgt maar niet de verkopen, dan zit nVidia straks met een hele lading waardeloos silicium.
Verklaar het succes van de FX5200 bitte?SuperNull schreef op vrijdag 02 juli 2010 @ 18:45:
Mensen die hun kaart los kopen weten over het algemeen beter wat ze doen.
Kaarten worden gekocht omdat ze goedkoop zijn en mucho RAM hebben. oh. .als er nvidia op staat is het ook goed. (in het geval van low-end in ieder geval.) Hetzelfde geld voor het woord Pentium op een machine en Windows.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
alleen daarom al vond ik het zo'n vreemde keuze voor intel om de naamgeving pentium te gebruiken bij budget rotzooi
alsof ze erop uit zijn de consument zoveel mogelijk verkeerd voor te lichten.

alsof ze erop uit zijn de consument zoveel mogelijk verkeerd voor te lichten.
Heeft AMD verder geen andere faciliteit waar ze op 40nm kunnen bakken?daan! schreef op vrijdag 02 juli 2010 @ 15:51:
Omdat er een tekort aan capaciteit is HOEFT nvidia niet meer in te kopen dan ze kunnen verkopen om AMD dwars te zitten.
Ze krijgen, zoals ik het nu begrijp, van TSMC alle capaciteit die ze nodig denken te hebben en AMD heeft dan dus pech en zij krijgen minder dan dat ze nodig hebben.
Daar zijn geen complottheorieën voor nodig.
Daarnaast weten ze bij Nvidia meer dan ons misschien is de nieuwe 460 wel een flinke kaart om te concurreren met de 5830/5770 zowel in prijs en prestaties. En willen ze hier bij de launch een goede voorraad van hebben, het lijkt mij dan ook stug dat ze velen 470/480 kaarten bakken die bijna niet verkocht worden. Moet haast wel iets zeggen over de prestaties van de 460 als ze zoveel productiemogelijkheden van AMD wegsnoepen, toch? Het blijft toch het midden segment waar meer kaarten verkocht worden dan in het top segment zoals de 470/480.
En misschien iets van de 485 als deze eraan komt(naja komt, pas in de herfst

Ze lichten niemand verkeerd voor. Hun reeks heet Pentium dat mensen dat associëren met het high end pentium van een aantal jaar gelden is hun zorg intel maakt daar alleen maar gebruik van.Verwijderd schreef op vrijdag 02 juli 2010 @ 22:41:
alleen daarom al vond ik het zo'n vreemde keuze voor intel om de naamgeving pentium te gebruiken bij budget rotzooi![]()
alsof ze erop uit zijn de consument zoveel mogelijk verkeerd voor te lichten.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Mensen die er veel geld aan uit geven en een kaart los kopen, weten vaak beter wat ze doen.
Iemand dààr nog weer een tegenvoorbeeld van?

Heeft geen speciale krachten en is daar erg boos over.
Klik, een HD5770 1Gb is op alle vlakken beter dan een GTX260 en dat bewijzen reviews ook. Maar ach waarom niet een GTX260 pakken als die toch voldoetbwerg schreef op zaterdag 03 juli 2010 @ 09:53:
[...]
Mensen die er veel geld aan uit geven en een kaart los kopen, weten vaak beter wat ze doen.
Iemand dààr nog weer een tegenvoorbeeld van?
Frietjemet weet niet wat een framebuffer is, dus hij behoort ook niet tot de groep "goed geinformeerde gebruikers."madmaxnl schreef op zaterdag 03 juli 2010 @ 12:22:
Klik, een HD5770 1Gb is op alle vlakken beter dan een GTX260 en dat bewijzen reviews ook. Maar ach waarom niet een GTX260 pakken als die toch voldoetMaar dit is slechts mijn mening.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
ik weet ook niet wat een framebuffer is (heb wel zo'n vermoeden) maar ik reken me toch wel tot de groep "goed geïnformeerde gebruikers"
Oh, ik geloof graag dat losse kaart kopers slechte keuzes kunnen maken, maar ze behoren ieg tot de groep mensen die weten wat een vidcard uberhoupt doet. Dat kan je niet zeggen van alle OEM kopers.neliz schreef op vrijdag 02 juli 2010 @ 22:29:
Verklaar het succes van de FX5200 bitte?
Ach..... voor mij werd dat concept pas boeiend toen ik zelf met OpenGL begon te coden.neliz schreef op zaterdag 03 juli 2010 @ 12:36:
Frietjemet weet niet wat een framebuffer is, dus hij behoort ook niet tot de groep "goed geinformeerde gebruikers."
dahakon schreef op vrijdag 02 juli 2010 @ 19:20:
Voor de rest is het de vraag of nVidia inderdaad zoveel mogelijk capaciteit heeft opgekocht. Zelfs als ze dat hebben gedaan, is het maar de vraag of de markt op de chips zit te wachten die zij daarmee krijgen. Als nVidia wel de chips krijgt maar niet de verkopen, dan zit nVidia straks met een hele lading waardeloos silicium.
Ik zat hier nog eens even over na te denken, maar er is helemaal niet zoveel productiecapaciteit op 40nm. TSMC had begin dit jaar 80.000 wafer starts per kwartaal, eind van het jaar moet dat verdubbeld zijn. Stel nu dat je een chip hebt ten grote van een Cypress (334mm2). Laten we even uit gaan van een yield van 70% (positief blijven heSolid_Aapie schreef op vrijdag 02 juli 2010 @ 23:09:
[...]
Daarnaast weten ze bij Nvidia meer dan ons misschien is de nieuwe 460 wel een flinke kaart om te concurreren met de 5830/5770 zowel in prijs en prestaties. En willen ze hier bij de launch een goede voorraad van hebben, het lijkt mij dan ook stug dat ze velen 470/480 kaarten bakken die bijna niet verkocht worden. Moet haast wel iets zeggen over de prestaties van de 460 als ze zoveel productiemogelijkheden van AMD wegsnoepen, toch?
Stel dat NVIDIA 2.5 miljoen (niet heel veel, gezien de hoeveelheid AMD 40nm chips die tot nu toe al verkocht zijn) chips wil hebben in 1 kwartaal. Dan moeten ze dus al bijna 22.000 wafers gebruiken. Dat is meer dan een kwart van alle wafer starts van dat complete kwartaal, voor 1 specifieke chip van NVIDIA (die ook al hun GF100 chip wil laten maken). Reken dan ook even dat er ook nog andere klanten zijn voor het 40nm procedee van TSMC en je ziet al snel waarom de productiecapaciteit van AMD in het gedrang komt. Zeker als NVIDIA behalve hun nieuwe GF104 chip ook nog eens de kleinere GF106 en GF108 chips wil gaan maken. Ik vraag me serieus af of 160.000 wafer starts aan het eind van dit jaar wel voldoende is voor de wensen van de klanten van TSMC.
En jij bent vast wel zo vriendelijk dat je wilt uitleggen wat een framebuffer dan is, en waarom het ook maar iets met de keuze tussen GTX260 en 5770 te maken heeft.neliz schreef op zaterdag 03 juli 2010 @ 12:36:
[...]
Frietjemet weet niet wat een framebuffer is, dus hij behoort ook niet tot de groep "goed geinformeerde gebruikers."
Je kan ook te ver gaan.Snoitkever schreef op zaterdag 03 juli 2010 @ 21:05:
En jij bent vast wel zo vriendelijk dat je wilt uitleggen wat een framebuffer dan is, en waarom het ook maar iets met de keuze tussen GTX260 en 5770 te maken heeft.
[ Voor 29% gewijzigd door DaMarcus op 03-07-2010 22:54 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Mac HD5000 serie drivers: http://www.electronista.c...pro.to.get.new.gpus.soon/
[ Voor 77% gewijzigd door neliz op 04-07-2010 15:02 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Kijk, dat dacht ik dus al, je weet dus zelf niet eens waar je over praat als je denkt dat de framebuffer een stuk hardware op een videokaart is. En ondertussen uit de hoogte doen tegen anderen, beetje triest hoorneliz schreef op zaterdag 03 juli 2010 @ 23:00:
[...]
Sorry hoor, maar ik vind een framebuffer een essentieel stukje techniek. Hoe kun je jezelf een kenner noemen als je één van de belangrijkste videokaart componenten niet kunt benoemen.
Tevens, Mac HD5000 serie drivers: http://www.electronista.c...pro.to.get.new.gpus.soon/

Zal ik het dan maar even uitleggen? Een framebuffer is een door de game gereserveerd stukje geheugen in het (video)geheugen waar het huidige frame naar toe wordt gerenderd. De framebuffer is dus geen hardware en verschilt niet van andere gereserveerde stukken geheugen (bijvoorbeeld textures), behalve in hoe het gebruikt wordt door de game.
Hele simplistische uitleg, maar anders wordt het zo gauw hele pagina's tekst
Hij weet wel waar over die praat hoor...Snoitkever schreef op zaterdag 03 juli 2010 @ 23:22:
[...]
Kijk, dat dacht ik dus al, je weet dus zelf niet eens waar je over praat als je denkt dat de framebuffer een stuk hardware op een videokaart is. En ondertussen uit de hoogte doen tegen anderen, beetje triest hoor
Zal ik het dan maar even uitleggen? Een framebuffer is een door de game gereserveerd stukje geheugen in het (video)geheugen waar het huidige frame naar toe wordt gerenderd. De framebuffer is dus geen hardware en verschilt niet van andere gereserveerde stukken geheugen (bijvoorbeeld textures), behalve in hoe het gebruikt wordt door de game.
Hele simplistische uitleg, maar anders wordt het zo gauw hele pagina's tekst
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
wat een nooberij
[ Voor 102% gewijzigd door neliz op 04-07-2010 15:02 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat is de enige huidige betekenis van het woord framebuffer, zoals dit tegenwoordig gebruikt wordt door mensen die weten waar ze het over hebben. Framebuffer en videogeheugen betekenen namelijk 2 compleet verschillende dingen en die door elkaar gebruiken zou alleen maar verwarring veroorzaken.neliz schreef op zaterdag 03 juli 2010 @ 23:59:
[...]
Dat is een Virtual Framebuffer, de omschrijving die je volgens mij vind als je googled op "What is a framebuffer."
Maar die link verklaart niet waarom je de framebuffer grootte soms in de BIOS kunt instellen (integrated graphics.) Want zowel jij als die link zeggen dat de software het bepaald, waarom zou het dan in de BIOS staan? Is het dan misschien toch hardware gerelateerd?
Die link beschrijft de emulatie van de ouderwetse framebuffer functie, opslag pixelinformatie en het daarna doorzetten naar de RAMDAC voor output. Op elke videokaart moet een framebuffer zitten, hardwarematig of ge-emuleerd.
Omdat vroeger de Framebuffer een appart stuk hardware was (chip, memory en output) wordt bij huidige videokaart reviews het videogeheugen ook nog vaak de framebuffer genoemd aangezien het dezelfde functie dient.
20 jaar geleden werd de term inderdaad anders gebruikt, maar tegenwoordig gebruiken alleen mensen die de klok hebben horen luiden de term framebuffer nog als ze het hebben over videogeheugen. Videogeheugen is echter geen framebuffer, heeft niet dezelfde functie die de ouderwetse framebuffer had en hoewel het inderdaad de framebuffer bevat noemen we een auto ook geen "motor", ondanks het feit dat elke auto een motor bevat en nodig heeft.
De data in je framebuffer heeft helemaal niets te maken met tearing en V-sync. Tearing krijg je alleen als je V-Sync niet aan hebt staan en je framerate anders is dan de framerate van je monitor.neliz schreef op zaterdag 03 juli 2010 @ 23:59:
[...]
En nu de vraag waarom? Nou, de data op je framebuffer bepaalt uiteindelijk of je wel en geen tearing hebt en je moet V-Syncen of niet. vandaar de relevantie
Volgens mij kun je beter gewoon toegeven dat je fout zit jongen. Ik ben een programmeur in de gamesindustrie, ik weet waar ik over praat. Bij jou krijg ik het gevoel dat je de klok wel eens hebt horen luiden, maar de klepel toch niet helemaal weet te vinden. Op zich geen probleem natuurlijk, maar wel als je dan uit de hoogte gaat doen naar anderen.
[ Voor 3% gewijzigd door Snoitkever op 04-07-2010 00:42 ]
Meer nooberij
[ Voor 183% gewijzigd door neliz op 04-07-2010 15:02 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Daarvoor heeft men double buffering uitgevonden. Er zijn op elk moment 2 buffers, 1 waar naar toe gerenderd wordt en 1 die weergegeven wordt. Deze buffers wisselen steeds van taak zodat er altijd een compleet frame is dat getekend kan worden, ook als het renderen van het volgende frame nog niet helemaal klaar is.neliz schreef op zondag 04 juli 2010 @ 00:53:
En waar komen die frames vandaan? oh ja! Mijn monitor heeft geen framerate, die heeft een verversingsfrequentie en is voor vloeiende beeldopbouw afhankelijk van complete frames in het framebuffer.
Wait For Vertical Sync is handig wat dat betreft als je Display output al aan een nieuwe frame beginnen en deze nog niet helemaal opgebouwd is in je framebuffer. Volgens mij heeft V-Sync er dus wel degelijk mee te maken, maar ja, laat je niet afleiden door mijn programmeer ervaring.
Waar V-Sync nu komt kijken is het moment van wisselen. Als V-Sync niet aan staat wordt er van buffers gewisseld zo gauw het vorige frame klaar is. Als je game en je monitor beiden op 60 fps draaien merk je hier niets van. Stel dat je monitor echter halverwege het frame is als er wordt gewisseld, dan is de helft van het beeld dus uit het oude frame en de helft uit de nieuwe. Dit is tearing. Als je V-Sync aanzet wordt het wisselen van de buffers gesynchroniseerd met nieuwe frames op je monitor. Zo gauw de monitor van frame wisselt wordt er ook van buffers gewisseld. Zo zie je altijd een volledig frame. Probleem is echter dat als je game niet op tijd z'n frame af heeft, ook al is het een 10.000e van een seconde te laat, je een heel frame moet wachten tot de buffers opnieuw gewisseld kunnen worden. Als je GPU dus niet snel genoeg is kan je framerate meteen al halveren.
Oftewel, de data op je framebuffer heeft niets te maken met V-Sync of tearing. Snelheid van je GPU wel, maar alleen als je GPU "sneller" rendert dan je monitor aankan.
Goed, er zijn dus veel mensen die het woord verkeerd gebruiken. Niet heel onverwacht op zich, als je ook al ziet hoe wijdverspreid het misbruik van het woord "shader" is, maar ik had in ieder geval beter verwacht van AnandTech.neliz schreef op zondag 04 juli 2010 @ 00:53:
allemaal n00bs en leken inderdaad:
http://www.hardocp.com/ar..._gtx_470_480_sli_review/8
http://www.legitreviews.com/article/1258/1/
http://benchmarkreviews.c...d=72&limit=1&limitstart=3
http://hothardware.com/Ne...d-GTX-480-Graphics-Cards/
http://www.tomshardware.c...0-eyefinity6,2595-11.html
http://www.anandtech.com/print/3621
Als Anand Shimpi alleen de klok heeft horen luiden dan sta ik graag naast hem.
Als ik echter terug kijk naar je eerste bericht...
...vind ik het op z'n minst zwak te noemen dat je dus probeert iemand te kleineren met een verkeerd gebruikt woord dat in de verkeerde betekenis gelijk is aan "videogeheugen". Ik denk namelijk dat Frietjemet best wel weet wat videogeheugen is, terwijl jij zelf de verkeerde (maar kennelijk wel veel gebruikte) versie van het woord gebruikt. Wat maakt nu precies dat jij wel lid bent van de groep "goed geinformeerde gebruikers" en Frietjemet niet?neliz schreef op zaterdag 03 juli 2010 @ 12:36:
[...]
Frietjemet weet niet wat een framebuffer is, dus hij behoort ook niet tot de groep "goed geinformeerde gebruikers."
Ik wist niet dat aangeven dat je programmeur bent tegenwoordig al onder pochen valt, maar soit, als jij het in zo'n hoog aanzien plaatst moet jij dat weten.neliz schreef op zaterdag 03 juli 2010 @ 12:36:
Je hoeft niet te pochen hoor.
Tot nu toe ben ik niet overtuigd en je geeft me grotendeels gelijk in je posts, verder discussiëren via de DM.
neliz schreef op zondag 04 juli 2010 @ 00:53:
maar ja, laat je niet afleiden door mijn programmeer ervaring.
Als het zo moet, doe inderdaad maar over DM.Snoitkever schreef op zondag 04 juli 2010 @ 00:41:
Ik ben een programmeur in de gamesindustrie, ik weet waar ik over praat.
Heeft geen speciale krachten en is daar erg boos over.
&&Snoitkever schreef op zondag 04 juli 2010 @ 00:41:
Ik ben een programmeur in de gamesindustrie, ik weet waar ik over praat.
Excuses hiervoor. Na teruglezen van mijn post zie ik dat die toonzetting niet mijn bedoeling was en ik snap hoe mijn woorden zo de verkeerde lading krijgen. Ik wilde enkel aangeven waar mijn kennis en argumenten vandaan kwamen. Het was niet mijn bedoeling om zelf uit de hoogte te doen, dat zou een beetje hypocriet zijn. Excuses aan Neliz en de rest hiervoor.bwerg schreef op zondag 04 juli 2010 @ 11:11:
[...]
Als het zo moet, doe inderdaad maar over DM.Ik heb zeer weinig programmeer-ervaring maar ik weet ten minste hoe je fatsoenlijk een discussie kan houden.
Meer van hetzelfde hier, ik geef de zon en zijn ongoddelijke temperaturen deze dagen hiervoor de schuld!Snoitkever schreef op zondag 04 juli 2010 @ 12:37:
Excuses aan Neliz en de rest hiervoor.
posting /cleanup
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik dacht ook dat framebuffer hardware gelimiteerd was, maar ik kan me natuurlijk voorstellen dat bij geintergreerde GPU's het systeemgeheugen aangesproken kan worden en je dat kan instellen afhankelijk van de hoeveelheid RAM.
Maargoed, het blijft toch wat stiller dan verwacht rond de SI. Het zal dadelijk wel weer hand in hand gaan als de verbterde Fermi het licht ziet, dat is iig een strategisch moment, al kan je natuurlijk niet te lang wachten met je opvolger.
Maargoed, het blijft toch wat stiller dan verwacht rond de SI. Het zal dadelijk wel weer hand in hand gaan als de verbterde Fermi het licht ziet, dat is iig een strategisch moment, al kan je natuurlijk niet te lang wachten met je opvolger.
Niet op voorraad.
http://www.techpowerup.co...weak_Cooler_Air_Flow.htmlPowerColor Vortex HD 5770 Lets You Tweak Cooler Air Flow
PowerColor's upcoming mid-range graphics card, the Vortex HD 5770, is said to feature a new feature that gives the user greater control of the fan's airflow, beyond fan-speed control. The cooler lets the user to fine-tune the direction and sweep of the fan air-flow, by allowing extension of the fan frame. With these adjustments, users can fine-tune the cooler's efficiency by directing airflow to specific parts of the aluminum heatsink underneath. Depending on how the fan is protruded or tilted, the card could occupy 2 to 3 expansion slots
PowerColor komt dus met een kaart waarbij we zelf de richting van de fan kunnen bepalen, lijkt me een leuke gimmick, maar wat zou hier het praktisch nut van zijn?
http://www.hardware.info/...deon_HD_5830__Crossfire/1Gigabyte Radeon HD5830 in Crossfire
Onze buren van Hardware.info komen met een review over de HD5830 in crossfire, conclusie: Koop een HD5870, want de 5830 in crossfire is minder dan 15% sneller maar wel €175 duurder
Edit:
Na zelf ook even goed te kijken, 2x de Gigabyte HD5830 zit op ongeveer €420
Een Club 3D HD5870 zit op €350 (leverbaar). Dan is het verschil dus maar €70.
Als ik 350*1.15 doe kom ik uit op €402, dus al met al klopt de conclusie wel, maar de prijzen niet.
[ Voor 25% gewijzigd door michaelvt op 06-07-2010 10:51 ]
Slecht onderzoek gedaan naar prijzen pricewatch: Club3D HD 5870 1GB (CGAX-58724IDP) voor 400 euro heb je er al 2. de HD5870 is rond de 345 euro het goedkoopste dus dat scheel maar 60 euro. En dat prijs verschil is nog redelijk verantwoord.
En bij wat voor winkel inderdaad, maar je hebt gelijk
Vind zelf die 5830's toch alles behalve interessant om in crossfire te zetten, ben je dan niet beter af met een 5770 in crossfire vraag ik me af, volgens hw.info presteren die kaarten volgens hun benchmarks net iets beter gemiddeld gezien dan een enkele 5870 en kan je zo'n setup halen voor iets minder dan 300 euro
Vind zelf die 5830's toch alles behalve interessant om in crossfire te zetten, ben je dan niet beter af met een 5770 in crossfire vraag ik me af, volgens hw.info presteren die kaarten volgens hun benchmarks net iets beter gemiddeld gezien dan een enkele 5870 en kan je zo'n setup halen voor iets minder dan 300 euro
[ Voor 70% gewijzigd door pino85 op 06-07-2010 10:34 ]
Liefhebber van Tweakers
ik heb bij allebij de goedkoopste gepak. laat het gemiddelde van de hd5830 nou rond de 220 euro liggen en van de hd5870 rond de 370 euro. Om aan een verschil van 175 euro moet je 2 kopen voor ongeveer 270 per stuk uitgeven daar heb je een HD5850 voor 
edit:
Ik heb net snel de conclusie bekeken en de prijzen die hij noemt kloppen dus maar half. Hardware.info is nou niet echt betrouwbaar te noemen op prijs onderzoek. Voor een verschil van van 15% in preformance en iets meer dan 15% in prijs vind ik het wel oke.

edit:
Ik heb net snel de conclusie bekeken en de prijzen die hij noemt kloppen dus maar half. Hardware.info is nou niet echt betrouwbaar te noemen op prijs onderzoek. Voor een verschil van van 15% in preformance en iets meer dan 15% in prijs vind ik het wel oke.
[ Voor 34% gewijzigd door ArgantosNL op 06-07-2010 10:41 ]
Ik zeg een HD5850 en die overclocken of 2x5770. In verhouding is de 5770 veel beter. Performance verschil is relatief klein.michaelvt schreef op dinsdag 06 juli 2010 @ 09:42:
[...]
http://www.techpowerup.co...weak_Cooler_Air_Flow.html
PowerColor komt dus met een kaart waarbij we zelf de richting van de fan kunnen bepalen, lijkt me een leuke gimmick, maar wat zou hier het praktisch nut van zijn?
[...]
http://www.hardware.info/...deon_HD_5830__Crossfire/1
Onze buren van Hardware.info komen met een review over de HD5830 in crossfire, conclusie: Koop een HD5870, want de 5830 in crossfire is minder dan 15% sneller maar wel €175 duurder
Edit:
Na zelf ook even goed te kijken, 2x de Gigabyte HD5830 zit op ongeveer €420
Een Club 3D HD5870 zit op €350 (leverbaar). Dan is het verschil dus maar €70.
Als ik 350*1.15 doe kom ik uit op €402, dus al met al klopt de conclusie wel, maar de prijzen niet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
2 HD5770's in CFX zijn sneller dan 1 HD5870 of 1 HD5850. 
Edit; de HD5830 is een nutteloze kaart. Door de prijs. Al helemaal om in CFX te zetten. Nutteloos + nutteloos= waardeloos. Volgens mij was dat al sinds de launch bekend, en hadden meerdere reviews dat al uitgewezen.
Als je geen bezwaar tegen en CFX setup hebt kan je het beste 2 HD5770's pakken voor de beste price performance, en als je geen CFX wil is een (zwaar overklokte) HD5850 imho het beste.
Edit; de HD5830 is een nutteloze kaart. Door de prijs. Al helemaal om in CFX te zetten. Nutteloos + nutteloos= waardeloos. Volgens mij was dat al sinds de launch bekend, en hadden meerdere reviews dat al uitgewezen.
Als je geen bezwaar tegen en CFX setup hebt kan je het beste 2 HD5770's pakken voor de beste price performance, en als je geen CFX wil is een (zwaar overklokte) HD5850 imho het beste.
[ Voor 83% gewijzigd door Format-C op 07-07-2010 09:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Volgens mij is de 5830 helemaal niet zo'n slechte kaart, maar is de prijs alleen fout.
Op veel sites zijn ze ook redelijk positief over de 5830.
Op veel sites zijn ze ook redelijk positief over de 5830.
Hello there
Het is nu een goede kaart nu de prijs wat naar beneden is gegaan. qua performance valt 'ie precies tussen de 5770 en 5850 .. qua prijs was dit niet het geval.Sinester schreef op dinsdag 06 juli 2010 @ 18:36:
Volgens mij is de 5830 helemaal niet zo'n slechte kaart, maar is de prijs alleen fout.
Op veel sites zijn ze ook redelijk positief over de 5830.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Sinester vat het goed samen. Behoorlijke performance, slechte prijs in verhouding tot de rest vd lineup.
De prijs is ook best te verklaren want anders zou de kaart te populair worden en ik denk niet dat ATI in dat geval genoeg "halfgare" RV870 chips heeft die het vervolgens gebruikt in de HD5830 kaarten. ATI heeft nu al te weinig goede RV870 chips laat staan genoeg halfgare RV870 chips. Daarbij komt ook nog zolang nVidia geen fatsoenlijk antwoord heeft waarom zouden ze er dan iets aan veranderen
Als we even gaan kijken naar de prijzenneliz schreef op dinsdag 06 juli 2010 @ 20:24:
[...]
Het is nu een goede kaart nu de prijs wat naar beneden is gegaan. qua performance valt 'ie precies tussen de 5770 en 5850 .. qua prijs was dit niet het geval.
Dit is de Sapphire Radeon HD5850
Dit is de Sapphire Radeon HD5830
Als ik de prijzen bekijk zie ik de 5830 niet dalen qua prijs, wel zie dat ik de 5850 gemiddeld bijna 20 euro duurder geworden is. Daardoor is de 5830 wat interessanter geworden en tevens heeft Nvidia met de GTX465 ook niet echt een subliem alternatief waardoor de prijzen niet naar beneden hoeven.
In het buitenland klopt het dus welneliz schreef op woensdag 07 juli 2010 @ 10:14:
[...]
In NL is de prijs van de 5830 weer omhoog gegaan van de prijsdaling van juni, in de rest van europa is de 5830 gewoon €170: (Check dip in de 5830 grafiek.)
http://www.power-on.co.uk/ProductDetails.aspx?ProductID=1850
http://www.hardwaregeier....l-dvii-hdmi-p-221505.html
Dus laat de Nederlandse maffia maar lekker vallen en bestel hem gewoon in Engeland of Duitsland. inc. verzendkosten nog steeds goedkoper dan NL.
Edit:
HD5800 3 way Crossfire versus GTX480 in SLi
http://www.xbitlabs.com/a...adeon-hd5800-3way-cf.html
Conclusie:
Vooral in de allerhoogste resoluties was 3-way crossfire het snelst, maar het rechtvaardigt niet het prijsniveau van deze set.We can’t say definitely that AMD’s 3-way graphics solution is superior to its opponent. It was indeed faster than the GeForce GTX 480 SLI tandem in some tests but the gap was only large in a very few cases. And there were games where the third GPU did not help it outperform Nvidia’s solution. Besides, the 3-way CrossFire platform did not show high scalability as the summary diagrams indicate.
Edit:
3 HD5850 in Crossfire is wel goedkoper dan 2 GTX480 en volgens Xbitlabs dus ook sneller!
Edmin schreef op woensdag 07 juli 2010 @ 10:45:
# Product Prijs Subtotaal 2 Point of View GeForce GTX480 1536MB DDR5 € 425,43 € 850,86 Bekijk collectie
Importeer productenTotaal € 850,86
# Product Prijs Subtotaal 3 Sapphire HD5850 1GB GDDR5 PCI-E € 264,91 € 794,73 Bekijk collectie
Importeer productenTotaal € 794,73
Jammer dat ze deze vergelijking niet gemaakt hebben. Die zou namelijk prijstechnisch veel logischer zijn.
[ Voor 80% gewijzigd door michaelvt op 07-07-2010 10:53 ]
Verwijderd
Ik vind de 5830 sowieso een faalkaart met meer verbruik voor minder prestaties. Dat je defecte of mindere chips gebruikt in lager gemarkete producten is logisch, maar dan neemt stroomverbruik altijd in meer of mindere mate af naarmate de functionaliteit afneemt. Nu krijg je minder prestaties dan een 5850 met een hoger verbruik.
Dan nog de relatief hoge prijs en het is gewoon geen interessante kaart meer.
Dan nog de relatief hoge prijs en het is gewoon geen interessante kaart meer.
[ Voor 10% gewijzigd door Verwijderd op 07-07-2010 09:56 ]
In NL is de prijs van de 5830 weer omhoog gegaan van de prijsdaling van juni, in de rest van europa is de 5830 gewoon €170: (Check dip in de 5830 grafiek.)michaelvt schreef op woensdag 07 juli 2010 @ 09:53:
Als we even gaan kijken naar de prijzen
Dit is de Sapphire Radeon HD5850
[afbeelding]
Dit is de Sapphire Radeon HD5830
[afbeelding]
Als ik de prijzen bekijk zie ik de 5830 niet dalen qua prijs, wel zie dat ik de 5850 gemiddeld bijna 20 euro duurder geworden is. Daardoor is de 5830 wat interessanter geworden en tevens heeft Nvidia met de GTX465 ook niet echt een subliem alternatief waardoor de prijzen niet naar beneden hoeven.
http://www.power-on.co.uk/ProductDetails.aspx?ProductID=1850
http://www.hardwaregeier....l-dvii-hdmi-p-221505.html
Dus laat de Nederlandse maffia maar lekker vallen en bestel hem gewoon in Engeland of Duitsland. inc. verzendkosten nog steeds goedkoper dan NL.
Edit: Dit keer met plaatjes, Hexus Vortex:
http://www.hexus.net/content/item.php?item=25385


[ Voor 10% gewijzigd door neliz op 07-07-2010 11:45 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Asus ARES review door Guru3D
http://www.guru3d.com/article/asus-ares-review/1When we look at the product there is just a lot to like. The performance is good, really good. It cut through our charts with laser like precision. We can also confirm that the product is stable, it works well and it can be tweaked for more performance quite well also.
Unfortunately there is one negative that I can not ignore. This card is without doubt the loudest we have ever had in our lab. Forget about GeForce GTX 480 and GeForce FX 5800 ... we have a new winner when it comes to noise levels. This card easily passed 50 DBa (measured at 75 CM distance) when it is under full load and yeah .. that's just not good no matter how you look at it. At the other side of the spectrum, in idle it can hardly be heard, but when these two GPUs start to heat up during extensive and GPU intensive gaming .. dang the ARES will become loud man.
Kleine samenvatting, pracht kaart, supersnel, te luid onder load en duur.
Offtopic: Vaker F5en Neliz
Wordt dat niet een living hell als je garantie moet gaan claimen?neliz schreef op woensdag 07 juli 2010 @ 10:14:
Dus laat de Nederlandse maffia maar lekker vallen en bestel hem gewoon in Engeland of Duitsland. inc. verzendkosten nog steeds goedkoper dan NL.
Sapphire is een goede naam wat betreft internationale garantieJejking schreef op woensdag 07 juli 2010 @ 13:21:
Wordt dat niet een living hell als je garantie moet gaan claimen?
edit: BOOM!
http://www.guru3d.com/article/asus-ares-review/
[ Voor 12% gewijzigd door neliz op 07-07-2010 14:31 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Volgens mij is garantie soieso internationaal toch?
edit: in ieder geval europees
edit: in ieder geval europees
[ Voor 24% gewijzigd door epic_gram op 07-07-2010 20:02 ]
Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████
Daarom,epic_fail schreef op woensdag 07 juli 2010 @ 20:01:
Volgens mij is garantie soieso internationaal toch?
edit: in ieder geval europees
Amerikaanse HD5830 prijs is nu $199 wat het (voor de komende 5 dagen) de DX11 prijs/prestatie kampioen maakt. (en dat was 'ie al achter de 5770 (overall.)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Moet je er wel toevallig zijn, want als je het hierheen haalt wordt het heel snel duurder.neliz schreef op woensdag 07 juli 2010 @ 20:30:
Daarom,
Amerikaanse HD5830 prijs is nu $199 wat het (voor de komende 5 dagen) de DX11 prijs/prestatie kampioen maakt. (en dat was 'ie al achter de 5770 (overall.)
Nou nou.. Bij TPU hebben ze de ares in crossfire getest!
http://www.techpowerup.com/reviews/ASUS/ARES_CrossFire/
Het heeft absoluut geen zin..
http://www.techpowerup.com/reviews/ASUS/ARES_CrossFire/
Het heeft absoluut geen zin..
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Intel Core i7 920 @ 3.8 GHz

[ Voor 5% gewijzigd door pino85 op 07-07-2010 23:05 ]
Liefhebber van Tweakers
Deze review moet je dan ook selectief benaderen. Quake 4, Farcry, COH, Prey, STALKER, UT 3 etc zijn gewoon te oude spellen. Ze gaan in veel spellen op 2560x1600 makkelijk over de 200FPSXenomorphh schreef op woensdag 07 juli 2010 @ 23:01:
Nou nou.. Bij TPU hebben ze de ares in crossfire getest!
http://www.techpowerup.com/reviews/ASUS/ARES_CrossFire/
Het heeft absoluut geen zin..

Ook is de CPU gewoon een bottelnek hoor

Daarentegen is het wel de enige setup die Crysis op 2560 x 1600 met 4x AA rond de 50 fps weet te draaien, waar 2 normale HD5970's de 36 aanrakenmadmaxnl schreef op woensdag 07 juli 2010 @ 23:44:
[...]
Deze review moet je dan ook selectief benaderen. Quake 4, Farcry, COH, Prey, STALKER, UT 3 etc zijn gewoon te oude spellen. Ze gaan in veel spellen op 2560x1600 makkelijk over de 200FPS![]()
Ook is de CPU gewoon een bottelnek hoorKijk naar Metro en Heaven dan weetje wat voor een potentie er in de Ares zit
2Gb GDDR5 geheugen per GPU is geen luxe als je er 4 GPU's hebt.
Ik zeg: doen!

Ik maak even je zin af: als je een Crysisaholic bent.
Waarom vraag ik me af waarom er geen power consumption tests zijn? I think I don't want to know the answer
Waarom vraag ik me af waarom er geen power consumption tests zijn? I think I don't want to know the answer
Nee. Hij is 2x zo groot als een 5770. Verbruikt ook bijna 2x zo veel. En performance is maar net iets beter dan de 5770. Kortom je kunt beter een HD5770 overclocken heb je veel meer aan.Sinester schreef op dinsdag 06 juli 2010 @ 18:36:
Volgens mij is de 5830 helemaal niet zo'n slechte kaart, maar is de prijs alleen fout.
Op veel sites zijn ze ook redelijk positief over de 5830.
In mijn ogen is dat een slechte kaart. Net als de GTX465.
Imo zit hij dichter bij een HD5770. Een HD5770 op hogere clocks is bijna even snel.neliz schreef op dinsdag 06 juli 2010 @ 20:24:
[...]
Het is nu een goede kaart nu de prijs wat naar beneden is gegaan. qua performance valt 'ie precies tussen de 5770 en 5850 .. qua prijs was dit niet het geval.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
kon de meter niet aan, poefJejking schreef op donderdag 08 juli 2010 @ 00:22:
Ik maak even je zin af: als je een Crysisaholic bent.
Waarom vraag ik me af waarom er geen power consumption tests zijn? I think I don't want to know the answer
Ik wilde eigenlijk een verhaal houden hier.. maar de prijzen in NL kloppen gewoon niet. €120 voor de goedkoopste HD5770 en dan een HD5830 voor €200.. dat gat is veel te groot met hoe het zou moeten zijn volgens AMD.Astennu schreef op donderdag 08 juli 2010 @ 08:43:
Imo zit hij dichter bij een HD5770. Een HD5770 op hogere clocks is bijna even snel.
prijzen in de US zijn wat dat betreft veel beter in balans. $150 voor de 5770 en $200 voor de 5830 en $290 voor de 5850. de betere Min. FPS in het geval van de 5830 zouden mij die $50 al waard zijn en als je ziet hoe snel die kaart is op lagere resoluties (onder 1920x1200) maken het een attractieve keuze.. iets wat gewoon op dit moment door de handel word doodgemaakt.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Bij $ prijzen zit meestal geen sales tax of VAT (BTW). Tel daarnaast de gedaalde euro koers en dan zijn de verhoudingen al wat eerlijker.
TF2 GoT http://www.teamfortress.eu
In sommige staten betaal je ook geen belasting (Florida Sales tax loos ftw!)CapTVK schreef op donderdag 08 juli 2010 @ 10:53:
Bij $ prijzen zit meestal geen sales tax of VAT (BTW). Tel daarnaast de gedaalde euro koers en dan zijn de verhoudingen al wat eerlijker.
En nee, de verhouding $150:$200 (3:4)/ €120:€200(3:5) is nog steeds net zo scheef, ik zie niet wat de koers van de Euro met het prijsverhoudings verschil tussen een HD5770 en een HD5830 te maken heeft.
[ Voor 3% gewijzigd door neliz op 08-07-2010 11:14 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
ontopic 
ATI Radeon HD 5570 gets a GDDR5 makeover
ATI Radeon HD 5570 gets a GDDR5 makeover
Dell uses ATI graphics on new workstation product lineThe idea that you needed to spend big bucks on a graphics card if you wanted to use it for gaming was shattered when AMD/ATI earlier this year released the Radeon HD 5570 - a card that packed a punch well above its $79 price range weight. Sure, you had to make compromises and pull down the resolution and detail sliders a bit, but for the price it was an excellent card.
Now the Radeon HD 5570 just got better.
.....
Club 3D announces the introduction of the new ATI HD5450 Noiseless EditionDell recently announced an agreement to use ATI graphics drivers on its workstation product line designed for engineers and digital content creation professionals.
Dell's Precision workstations will be equipped with ATI's FirePro graphics cards that perform more than 90 certifications with applications providers. The ATI technology allows the workstation to drive up to three independent 30-inch displays and can adapt to a wide variety of applications. The product is designed to handle high-performance computing and visual applications without negatively impacting performance for engineers and digital content creation professionals using the workstation.
....
PRESS RELEASE
AMSTERDAM, The Netherlands - July 8th, 2010 - Club 3D B.V. unveils the new HD5450 Eyefinity 3 Edition multi-display card. The Club 3D ATI Radeon HD5450 Eyefinity 3 Edition with 512MB DDR2 features a heatsink cooler plus a low profile form factor design aimed at users that want an Eyefinity ready card with an entry level budget.
Expand your on-screen real estate with 3 monitors, be more productive in todays visually rich applications and put more information at your fingertips.
This passively-cooled, ultra-quiet card is a home theater PC builder’s dream with features such as HDMI 1.3a with Dolby TrueHD and DTS-HD master Audio for the ultimate media PC.
...
[ Voor 64% gewijzigd door Bullus op 08-07-2010 14:07 ]
|2600k|Asus 290|
als je even (de conclusie) leest zie je dat dit de crossfire review is. er is ook een review over 1 ARES waarbij ie bij bijna alle tests al bovenaan of bijna bovenaan staat. Ook meten ze bij techpowerup altijd het verbruik van alleen de kaart en niet heel het systeem. in de ARES review staat dus het verbruik van de kaart wel aangegeven en in de conclusie van de crossfire review noemen ze het stroomverbruik wel.Jejking schreef op donderdag 08 juli 2010 @ 00:22:
Waarom vraag ik me af waarom er geen power consumption tests zijn? I think I don't want to know the answer
edit: in de single card review zou het bij het stroomverbruik natuurlijk wel leuk zijn geweest als ze ook het verbruik van de MARS mee hadden genomen. ik geloof wel dat ze die hebben getest namelijk
[ Voor 13% gewijzigd door superwashandje op 08-07-2010 16:31 ]
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Verwijderd
nog een kritische noot voor CCC 10.6.
1. als ik hibernate en ik klap mijn notebook dicht en ik start hem weer op, denkt CCC dat de klep nog steeds dicht is, dichtklappen en weer opentrekken is de oplossing..
2. dit is nu al de 2e keer dat mijn PC FINAAL (muis doet het niet eens meer) freezet bij het laden van een embedded flash filmpje, gevolgd door een "display driver had been recovered" melding
waarneer komt 10.7?
edit: bij #2 behoort een BSOD ook tot de mogelijkheden
1. als ik hibernate en ik klap mijn notebook dicht en ik start hem weer op, denkt CCC dat de klep nog steeds dicht is, dichtklappen en weer opentrekken is de oplossing..
2. dit is nu al de 2e keer dat mijn PC FINAAL (muis doet het niet eens meer) freezet bij het laden van een embedded flash filmpje, gevolgd door een "display driver had been recovered" melding
waarneer komt 10.7?
edit: bij #2 behoort een BSOD ook tot de mogelijkheden

[ Voor 6% gewijzigd door Verwijderd op 09-07-2010 01:12 ]
A Jacked Up New Product from PowerColor
ok niet echt ATi nieuws maargoed.. videokaart ondersteuning
(bron)
Alle drivers uninstallen die met ATI drivers in conflict kunnen komen ook voorgaande ATI drivers die je hebt geïnstalleerd en drivers die er door de fabrikant zelf opstonden of gewoon de notebook opnieuw installeren.Verwijderd schreef op vrijdag 09 juli 2010 @ 01:04:
nog een kritische noot voor CCC 10.6.
1. als ik hibernate en ik klap mijn notebook dicht en ik start hem weer op, denkt CCC dat de klep nog steeds dicht is, dichtklappen en weer opentrekken is de oplossing..
2. dit is nu al de 2e keer dat mijn PC FINAAL (muis doet het niet eens meer) freezet bij het laden van een embedded flash filmpje, gevolgd door een "display driver had been recovered" melding![]()
waarneer komt 10.7?
edit: bij #2 behoort een BSOD ook tot de mogelijkheden
Uuhm HD4570 (805/1010@1.1v)

Hoe is het überhaupt mogelijk een GPU in een notebook over te clocken, hebben ze dit niet onmogelijk gemaakt. Doet hij het dan nog niet dan gewoon overstappen naar nVidia
Verwijderd
nee, de overclock gebruik ik alleen in games
en is stable (als ik een van beide 5mhz hoger zet freezet hij wel na een paar uur)
maargoed, ik ga toch op vakantie, 10.7 zal daarna wel uit zijn.
maargoed, ik ga toch op vakantie, 10.7 zal daarna wel uit zijn.
Draai Kombustor maar, als hij dit niet 1 uur fatsoenlijk kan draaien is het zaakje niet stabiel en vernietig je heel langzaam je laptop en met namen de GPU die er in zit. Ook is de voeding niet berekend op overclocken...Verwijderd schreef op vrijdag 09 juli 2010 @ 12:16:
nee, de overclock gebruik ik alleen in gamesen is stable (als ik een van beide 5mhz hoger zet freezet hij wel na een paar uur)
maargoed, ik ga toch op vakantie, 10.7 zal daarna wel uit zijn.
Ach al mijn laptops heb ik over geclockt en vooral die video kaarten willen meestal wel aardig wat hoger dan stock en dan nog steeds stabiel met wat toen de zwaarste OC tools waren.madmaxnl schreef op vrijdag 09 juli 2010 @ 13:22:
[...]
Draai Kombustor maar, als hij dit niet 1 uur fatsoenlijk kan draaien is het zaakje niet stabiel en vernietig je heel langzaam je laptop en met namen de GPU die er in zit. Ook is de voeding niet berekend op overclocken...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
dat zou ik ook zeggen, ware het niet de het OC voltage waarop ikde kaart draai lager is dan stock, de temps blijven ook een paar ° lager.madmaxnl schreef op vrijdag 09 juli 2010 @ 13:22:
[...]
Draai Kombustor maar, als hij dit niet 1 uur fatsoenlijk kan draaien is het zaakje niet stabiel en vernietig je heel langzaam je laptop en met namen de GPU die er in zit. Ook is de voeding niet berekend op overclocken...
(stock is 680/800 @ 1.2v, OC is 805/1008 @ 1.1v, eeo ovrclock va 18 en 26%)
de voeding kan het ook prima aan: hoger dan 45 watt (max brightness, max gpu, max cpu met RTHDRIBL en prime95) heb ik mijn bak nog niet gemeten, de voeding is 90w.
en behalve dat heb ik 4 jaar garantie
Kijk dat is het betere werk
minder voltage toch hogere clocks. Dus waarschijnlijk na genoeg hetzelfde verbruik als stock. Alleen veel betere performance.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
klopt, ik blijf me verbazen over de brakke stock instellingen, met het minimum voltage van 0.9v haal ik al bijna de stock clocks
beetje hetzelfde verhaal als met mobiele processoren, de T6600 van mijn ouders draait altijd op het minimum voltage van 1.15v.
als ik dat even vergelijk met mijn p8600, de voltage instellingen zijn daar ruimer: .875v haalt ie, enkel bij de hoogste multiplier op 0.95v.
schande dat je die dingen niet kan overclocken: temps boven de 50 heb ik nog niet gezien.
maargoed, back on topic

beetje hetzelfde verhaal als met mobiele processoren, de T6600 van mijn ouders draait altijd op het minimum voltage van 1.15v.
als ik dat even vergelijk met mijn p8600, de voltage instellingen zijn daar ruimer: .875v haalt ie, enkel bij de hoogste multiplier op 0.95v.
schande dat je die dingen niet kan overclocken: temps boven de 50 heb ik nog niet gezien.
maargoed, back on topic
Computerbase heeft alles weer eens opnieuw getest met de nieuwste drivers.
Het beeld dat je van de kaarten krijgt is nog altijd zo als bij de launch, voor zo ver de voorspellingen van velen dat met nieuwe drivers voor nVidia het wel beter zou worden
Het beeld dat je van de kaarten krijgt is nog altijd zo als bij de launch, voor zo ver de voorspellingen van velen dat met nieuwe drivers voor nVidia het wel beter zou worden

Interessante conclusie ook over de de HD5970. Ben blij dat er sites zijn die wel es naar soepele gameplay kijken en niet alleen naar gemiddelde framerate-cijfertjes...Laat ATI dat ook es gaan doen (en Nvidia als ze met dual GF104 oid komen) en er es eens wat aan doen.Kategorisch abraten müssen wir in jedem Fall von der Dual-GPU-Karte Radeon HD 5970 für 550 Euro. Theoretisch ist sie zwar die mit Abstand schnellste Grafikkarte, störende Mikroruckler aufgrund der CrossFire-Technologie machen diesen Vorteil in der Praxis aber leider zu Nichte.
anathema
Auw, nogal vernietigende conclusie.Kategorisch abraten müssen wir in jedem Fall von der Dual-GPU-Karte Radeon HD 5970 für 550 Euro. Theoretisch ist sie zwar die mit Abstand schnellste Grafikkarte, störende Mikroruckler aufgrund der CrossFire-Technologie machen diesen Vorteil in der Praxis aber leider zu Nichte.

Heb computerbase best hoog zitten qua reviews maar vraag me wel af of dit niet iets te zwaar is aangezet
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
WTH is er met de Batman AA benchmarks gebeurd in die test?
Is met PhysX aan getest, dus bij ATI kaarten worden die berekeningen gedaan door de CPU. Die is zo'n enorme bottleneck dat alle ATI kaarten hetzelfde presteren. Dit heeft Computerbase altijd al op deze manier gedaan, en ze tellen deze resultaten trouwens niet mee in de performance overzichten op het eind.
[ Voor 29% gewijzigd door Da_DvD op 11-07-2010 13:03 ]
Ze hadden physx toch ook gewoon uit kunnen zetten, of kan dat niet altijd?
Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████
Ah, te oppervlakkig naar die Duitse tekst gekeken.
Ja dat kan wel, zie je bij sommige sites namelijk wel. Ik snap ook niet dat ze dat niet gedaan hebben... al was het maar in het kader van Deutsche Gründlichkeitepic_fail schreef op zondag 11 juli 2010 @ 13:01:
Ze hadden physx toch ook gewoon uit kunnen zetten, of kan dat niet altijd?
En aangezien nVidia de CPU versie van Physics express crippled heeft is de performance slecht.... Als je die code goed zou schijven in SSE ipv X87 zou de cpu net zo snel zijn.Da_DvD schreef op zondag 11 juli 2010 @ 12:59:
Is met PhysX aan getest, dus bij ATI kaarten worden die berekeningen gedaan door de CPU. Die is zo'n enorme bottleneck dat alle ATI kaarten hetzelfde presteren. Dit heeft Computerbase altijd al op deze manier gedaan, en ze tellen deze resultaten trouwens niet mee in de performance overzichten op het eind.
Het valt me trouwens op hoe goed de HD58xx kaarten het op 2560x1600 zonder AA en AF doen. Er is dan nog amper verschil tussen de GTX480 en de HD5870:
http://www.computerbase.d...rformancerating_ohne_aaaf
Met AA en AF is er wel een verschil van 25%. Op 1920 is het maar 16 en 9% (4 en 8x AA).
[ Voor 23% gewijzigd door Astennu op 12-07-2010 07:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Hardware.info heeft een review van de GTX460.
Conclusie:
Conclusie:
En dit is ook een interessant stukje:De kaart zit op het prijsniveau van de ATI Radeon HD 5830, maar is gemiddeld zo'n 15,7% sneller. Het stroomverbruik heeft nVidia eindelijk ook binnen de perken kunnen houden. En naast de betere prijs/prestatie-verhouding
...
Al met al krijgt AMD dus eindelijk weer wat échte concurrentie op dit vlak. Men zal de prijs van de Radeon HD 5830 verder moeten verlagen om echt concurrerend te zijn. De aanschaf van een Radeon-kaart is met de introductie van de GTX 460 in ieder geval niet meer zo vanzelf spreken als het maanden is geweest.
Dunkt mij dat ATi de prijs mag gaan verlagen van de HD5830 (en dus ook van de HD5770).AMD moet verder incalculeren dat nVidia nog een interessant geheim wapen achter de rug heeft: bij de GTX460 is immers slechts 7/8-ste van de rekenkracht van de GF104 chip ingeschakeld. Wanneer de yields van de GF104 op goed niveau zijn, kan nVidia zodoende met gelijke productiekosten een kaart op de markt brengen die ruim 10% sneller is.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Indy91 schreef op maandag 12 juli 2010 @ 07:30:
Hardware.info heeft een review van de GTX460.
Conclusie:
[...]
En dit is ook een interessant stukje:
[...]
Dunkt mij dat ATi de prijs mag gaan verlagen van de HD5830 (en dus ook van de HD5770).
Niet helemaal eerlijk als je ziet dat er nog met een oudere driver getest word.We hebben de GeForce GTX 460 getest met driver versie 258.80. De scores van de overige GeForce 400 kaarten zijn nog met driver 197, maar die zullen we op korte termijn ook opnieuw draaien. De Radeon HD 5830 - de belangrijkst concurrent van de GTX 460 - is getest met Catalyst 10.5, de overige Radeon HD 5000 kaarten met Catalyst 10.3.
Bij AMD/ATi hebben ze ook niet stil gezeten de laatste tijd en ze hebben een passend antwoord klaar staan.Indy91 schreef op maandag 12 juli 2010 @ 07:30:
Dunkt mij dat ATi de prijs mag gaan verlagen van de HD5830 (en dus ook van de HD5770).
[ Voor 84% gewijzigd door CJ op 12-07-2010 09:51 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
CJ schreef op maandag 12 juli 2010 @ 09:38:
[...]
Bij AMD/ATi hebben ze ook niet stil gezeten de laatste tijd en ze hebben een passend antwoord klaar staan.

Ik ben benieuwd of we eind dit jaar de HD6xxx serie nog zullen zien. En dan vooral een kaart die sneller is als de HD5870. Heb wel weer zin in iets nieuws
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Klopt, het geeft niet echt een juist beeld als men in een review met verschillende driver versies werkt. Het is overigens spijtig genoeg, niet geheel ongebruikelijk dat men bij Hardware.info op deze wijze videokaarten reviewed.
Mooi...ben erg benieuwd wanneer en wat het antwoord van AMD/ATi zal zijn.CJ schreef op maandag 12 juli 2010 @ 09:38:
[...]
Bij AMD/ATi hebben ze ook niet stil gezeten de laatste tijd en ze hebben een passend antwoord klaar staan.
[ Voor 39% gewijzigd door Indy91 op 12-07-2010 09:52 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Leuk klein detail over de GF104 architectuur... ze gaan nu ook ILP, net zoals ATi dat al deed sinds de R600 via VLIW. En iets wat altijd als 'negatief' argument over de ATI architectuur werd gegeven, was dat het veel moeilijker is om uit de 5x1 opstelling een 100% efficientie uit te halen omdat de compiler veel ingewikkelder is. En nu doen de drie blokken van 16 CUDA cores per SM bij NV dus ook ILP (daar waar ze eerst TLP, Thread Level Parallelism deden zoals bij GF100)... maar dan als 3x1 ipv 5.1 zoals bij ATi.
Bij AMD houdt dit in dat een Cypress zich in het ergste geval gedraagt als een 320 SP GPU ipv een 1600 SP GPU. Bij NV houdt dit in dat de kaart zich in het ergste geval gedraagt als een 256 SP GPU ipv een 332/384 SP GPU.
Bij AMD houdt dit in dat een Cypress zich in het ergste geval gedraagt als een 320 SP GPU ipv een 1600 SP GPU. Bij NV houdt dit in dat de kaart zich in het ergste geval gedraagt als een 256 SP GPU ipv een 332/384 SP GPU.
[ Voor 17% gewijzigd door CJ op 12-07-2010 10:20 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik moet zeggen dat de geruchten vanuit AMD me wat tegen vallen. Ik had 'gehoopt' dat ze na Computex toch wel wat meer lawaai zouden gaan maken. Nu GF104 op de drempel staat lijkt het me een mooi moment om te proberen NV wat wind uit de zeilen te halen. Is AMD nog niet zo ver? Is het een keuze?
Keuze. Ze zijn de laatste tijd achter de schermen wel erg druk bezig geweest.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
er zijn wel nogal wat echte NV games gepakt. Slechte game benchmark keuzes, ik vind die reviews van hardware.info nou niet echt goed en opjectief. Bij een ATI game(just caust 2) legt de GTX460 het in eens behoorlijk af tegenover de 5830, scoort zelfs net onder de 5770Indy91 schreef op maandag 12 juli 2010 @ 07:30:
Hardware.info heeft een review van de GTX460.
Conclusie:
[...]
En dit is ook een interessant stukje:
[...]
Dunkt mij dat ATi de prijs mag gaan verlagen van de HD5830 (en dus ook van de HD5770).
Just Cause 2 is een echte nvidia game. Er hebben zelfs nVidia programmeurs daar gezeten voor de graphics.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dit topic is gesloten.