Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Maar de 5670 zou dan dus net een paar % sneller zijn als een GT240.
Als we naar OC gaan kijken ziet het er denk ik beter uit. Als je ziet dat de HD4670 iets van 50MHz hoger kon clocken. En de 5750 bv al snel 100 MHz wil overclocken ziet het er al weer een stukje interessanter uit voo rde HD5670.
[ Voor 70% gewijzigd door Astennu op 02-12-2009 13:30 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
# | Product | Prijs | Subtotaal |
1 | Club3D HD 4770 512MB GDDR5 | € 77,40 | € 77,40 |
1 | Club3D HD 5750 1GB GDDR5 PCI-E | € 109,20 | € 109,20 |
1 | Club3D HD4670 | € 54,07 | € 54,07 |
1 | Gigabyte GV-N240D3-1GI | € 77,45 | € 77,45 |
[ Voor 12% gewijzigd door Astennu op 02-12-2009 13:51 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Gezien de specs zou het een leuke, goedkope upgrade kunnen zijn t.o.v. de 4670, nu alleen nog nieuwsgierig naar het stroomverbruik.


Graphene; a material that can do everything, except leave the lab. - Asianometry

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
dat zal nog wel meevallen.NitroX infinity schreef op woensdag 02 december 2009 @ 14:09:
Dus toch wel een 5600 serie.
Gezien de specs zou het een leuke, goedkope upgrade kunnen zijn t.o.v. de 4670, nu alleen nog nieuwsgierig naar het stroomverbruik.
[afbeelding] [afbeelding]
In de link die Stefanvangelder geplaatst heeft valt te lezen dat de HD 5670 toe komt met het sap dat een PCI-e slot levert... Dus max. 75 Watt...
E7200-Asus-HD 4670 OC compo-640 HD Spinpoint-4Gb DDR2 800 OCZ-Antec Sonata Plus 550W
Mwa, als de performance hoger ligt en het stroomverbruik lager dan wil ik het wel een leuke upgrade noemen. Upgraden betekent niet alleen maar meer performance.Bardirella schreef op woensdag 02 december 2009 @ 14:16:
[...]
dat zal nog wel meevallen.
In de link die Stefanvangelder geplaatst heeft valt te lezen dat de HD 5670 toe komt met het sap dat een PCI-e slot levert... Dus max. 75 Watt...
[ Voor 85% gewijzigd door NitroX infinity op 02-12-2009 14:29 ]
Graphene; a material that can do everything, except leave the lab. - Asianometry
edit: ik geloof trouwens niet dat Redwood met 1GB wordt uitgevoerd.
[ Voor 27% gewijzigd door Edmin op 02-12-2009 15:09 . Reden: verkeerd naampje, oeps. ]
75 Watt is veel te veel. Een HD5750 gebruikt die volgns mij nog niet eens. Hij zit er wel in de buurt. En heeft daarom wel een connector. Er zijn ook HD4830's geweest zonder connector. En die verbruiken meer dan een 5750.Bardirella schreef op woensdag 02 december 2009 @ 14:16:
[...]
dat zal nog wel meevallen.
In de link die Stefanvangelder geplaatst heeft valt te lezen dat de HD 5670 toe komt met het sap dat een PCI-e slot levert... Dus max. 75 Watt...
Zou me niets verbazen als die HD5670 nabij de 50 watt zit.
Er zijn passive HD4850's en 9800 GT's dus dan moet dit zeker kunnenEdmin schreef op woensdag 02 december 2009 @ 14:23:
En als de kaart zonder extra PCIe powerconnector komt, mogen we dan stiekem dromen van een passieve versie?
edit: ik geloof trouwens niet dat JuniperXT met 1GB wordt uitgevoerd.
Juniper = RV840 = HD57xx Die hebben meestal 1 GB maar ook hier en daar 512 mb.
Redwood = RV830 = HD56xx Die kan volgens mij ook prima 1 GB hebben je hebt er dan alleen minder aan.
Je ziet toch ook wel eens budget kaartjes van de oude generatie met 1gb. Alleen voor pure marketing. Nut heeft het zeker niet. een HD4850 had er al amper baat bij. De HD4870 daarintegen erg veel.
[ Voor 39% gewijzigd door Astennu op 02-12-2009 14:44 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
De HD5750 is al in passieve vorm te koop.Edmin schreef op woensdag 02 december 2009 @ 14:23:
En als de kaart zonder extra PCIe powerconnector komt, mogen we dan stiekem dromen van een passieve versie?
Die is alleen in 1GB te krijgen voor als nog.edit: ik geloof trouwens niet dat JuniperXT met 1GB wordt uitgevoerd.
HD5650 zal wel (G)DDR3 hebben.StefanvanGelder schreef op woensdag 02 december 2009 @ 14:59:
Maar volgens mij heeft die 5670 aardig veel brandbreedte ofniet? 128-bit bus + GDDR5, en hij is ook nog eens op 1 Ghz geklokt. Het is ook wel te zien dat hij qua bandbreedte in de buurt zit van de 5750, logisch want alleen de klokfrequentie is 150 Mhz lager... Volgens mij kon er nog wel iets worden bezuinigd met de klokfrequentie, bus grootte of GDDR3/4?
[ Voor 39% gewijzigd door -The_Mask- op 02-12-2009 15:15 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als hij GDDR5 heeft klopt het wel. Ze zouden er ook GDDR3 op kunnen plakken. Maar wellicht is dat inmiddels duurder geworden ? Ik denk dat we nog wel eens een cost down versie van de 5650 met DDR2 zouden kunnen gaan zien.StefanvanGelder schreef op woensdag 02 december 2009 @ 14:59:
Maar volgens mij heeft die 5670 aardig veel brandbreedte ofniet? 128-bit bus + GDDR5, en hij is ook nog eens op 1 Ghz geklokt. Het is ook wel te zien dat hij qua bandbreedte in de buurt zit van de 5750, logisch want alleen de klokfrequentie is 150 Mhz lager... Volgens mij kon er nog wel iets worden bezuinigd met de klokfrequentie, bus grootte of GDDR3/4?
Over de clocks. Daar zit maar 75 MHz verschil in. HD5750 = 700 MHz HD5670 = 775 MHz.
Ik vind het wel apart dat hij 16 rops heeft 8 had volgens mij ook prima gekund.Want de HD57xx heeft er ook 16. Ik vraag me nu ook af hoe het met de texture units zit. Bij de 5770 zijn dit er 40. Zouden dat er hier dan 20 zijn ? maar ja GPU-Z wordt ook met de hand ingevuld misschien heeft hij ook wel 8 rops.
[ Voor 3% gewijzigd door Astennu op 02-12-2009 15:22 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Prijs van DDR2 en DDR3 is zo goed als gelijk en DDR2 zou een ongelooflijke bottleneck zijn voor de videokaart dus dat zie ik echt niet zitten.Astennu schreef op woensdag 02 december 2009 @ 15:21:
Ik denk dat we nog wel eens een cost down versie van de 5650 met DDR2 zouden kunnen gaan zien.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Voor alle duidelijkheid: ik zei niet dat zo'n HD 5670 75 Watt ZOU verbruiken... Als ik het goed heb is dit de max. power dat een PCI-e slot kan leveren. Dus die 50 Watt van jou lijkt mij heel realistisch, rekening houdende met de specs.Astennu schreef op woensdag 02 december 2009 @ 14:41:
[...]
75 Watt is veel te veel. Een HD5750 gebruikt die volgns mij nog niet eens. Hij zit er wel in de buurt. En heeft daarom wel een connector. Er zijn ook HD4830's geweest zonder connector. En die verbruiken meer dan een 5750.
Zou me niets verbazen als die HD5670 nabij de 50 watt zit.
[...]
En idd., de TDP van de HD 5750 ligt op 86 Watt.
E7200-Asus-HD 4670 OC compo-640 HD Spinpoint-4Gb DDR2 800 OCZ-Antec Sonata Plus 550W
Oh ik keek naar memory clock... 1000 Mhz vs 1150, wat is dat dan?Astennu schreef op woensdag 02 december 2009 @ 15:21:
[...]
Over de clocks. Daar zit maar 75 MHz verschil in. HD5750 = 700 MHz HD5670 = 775 MHz.
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Memory gaat helemaal geen probleem zijn. De 5750 heeft al meer dan genoeg bandbreedte en die core is toch een 80% krachtiger. Dus die 15% minder bandbreedte heeft totaal geen impact op de performance. Ik zou bijna willen zeggen dat die 1000 MHz GDDR5 voor een op 700 MHz draaiende 400 shader core overkill is. In vergelijking met de HD57xx serie zou de helft zat zijn.StefanvanGelder schreef op woensdag 02 december 2009 @ 16:46:
[...]
Oh ik keek naar memory clock... 1000 Mhz vs 1150, wat is dat dan?
[ Voor 16% gewijzigd door Astennu op 02-12-2009 16:55 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Bij deze nog de videoBullus schreef op dinsdag 01 december 2009 @ 23:02:
Ik was mijn dirt2 replay aan het bekijken en zag wat vreemds met het water.
Het leek wel of het water realtime was, elke keer als ik door het water ging, dan ging het golven, ook al rewind ik de replay ,je zag het water niet terug gaan.
Is wel apart toch? Hoe noemen ze dit? realtime tesselation?
video komt nog
Check het water, ook al rewind ik de replay,het water gaat keert niet terug.
Let op ;geluid beter uitzetten

|2600k|Asus 290|
\Bullus schreef op woensdag 02 december 2009 @ 17:14:
[...]
Bij deze nog de video
[video]
Check het water, ook al rewind ik de replay,het water gaat keert niet terug.
Let op ;geluid beter uitzetten
Gaaf toch?
Dat is wel erg stom ja. Water wordt ter plekke nog berekend het is zeg maar geen filmpje wat terug gespoeld wordt.Bullus schreef op woensdag 02 december 2009 @ 17:14:
[...]
Bij deze nog de video
[video]
Check het water, ook al rewind ik de replay,het water gaat keert niet terug.
Let op ;geluid beter uitzetten
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ah, nu zie ik beter wat je bedoelt. Er komen steeds meer rimpels in het water bij als je de replay terugspoelt. Dat lijkt me een bugje.Bullus schreef op woensdag 02 december 2009 @ 17:14:
[...]
Bij deze nog de video
[video]
Check het water, ook al rewind ik de replay,het water gaat keert niet terug.
Let op ;geluid beter uitzetten
Zie ook HD5850 die na genoeg even veel verbruikt als een HD4890 terwijl die veel meer shaders heeft. Ik gok dat 50 watt of zelfs minder wel mogelijk is.dahakon schreef op woensdag 02 december 2009 @ 18:35:
Een HD4670 verbruikt max zo'n 59 Watt. De HD5670 lijkt net iets meer shader-units te krijgen, maar is natuurlijk wel op een kleiner process gemaakt dat bij AMD tot nog toe ook zuinigere kaarten heeft opgeleverd. Kans is dus ook behoorlijk groot dat de TDP op houdt bij 50Watt. Dat zou wel mooi zijn op zich.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Je bedoelt dat een HD5850 een stuk zuiniger is dan een HD4870 en HD4890?Astennu schreef op woensdag 02 december 2009 @ 21:09:
[...]
Zie ook HD5850 die na genoeg even veel verbruikt als een HD4890 terwijl die veel meer shaders heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
[ Voor 72% gewijzigd door madmaxnl op 03-12-2009 01:29 . Reden: Verkeerd gelezen :S ]
Hij had het over Alternate, niet over Sallandmadmaxnl schreef op donderdag 03 december 2009 @ 01:27:
Salland kennende is het geen typ fout, waarschijnlijk zelfs dat die kaart nog helemaal niet op de site mag worden aangeboden en dat er nog een soort van NDA geldt.
Maar een snelle google-actie leert dat er veel berichten zijn over de HD5770 Vapor-X, waarbij ook over een snelle beschikbaarheid wordt gepraat.
Dat Sapphire hem zelf nog niet op de site heeft staan, gebeurt ook wel vaker, ze zijn soms een beetje traag met het updaten.
Kan kloppen ik zag een tijdje terug ook al een HD5750 Vapor-X staan. Ik vind de prijs alleen wel redelijk hoog. Maar goed het is wel Alternate. Kan best dat deze normaal maar iets van 10 euro duurder is.Sjaak_Banaan schreef op woensdag 02 december 2009 @ 23:41:
Zojuist zie ik een Sapphire HD5770 Vapor-X bij Alternate staan, is dit een typefout of zit deze er ook aan te komen? Op de site van Sapphire is niks aangekondigd...
Ik zag op de site van alternate trouwens wat grappigs:


Het is een XFX HD4870 Lite. Deze loopt 750-900. Maar heeft dus de cooler gekregen die de HD5770 V2 ook heeft. Als die een HD4870 koel kan houden is het geen slecht coolertje. HD4870's worden ook redelijk warm met de stock cooler.
[ Voor 10% gewijzigd door Astennu op 03-12-2009 07:45 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
De Stock cooler is zeker niet slecht. Alleen die kaartjes worden zelf gewoon aardig warm. En de Fan is niet echt stil. De cooler van de 5850 is volgens mij niet beter. Maar die chips worden gewoon minder warm. Terwijl het verbruik nagenoeg gelijk is.RappieRappie schreef op donderdag 03 december 2009 @ 08:31:
Ik denk dat dat eerde door de uitermate slechte stock cooler komt dat die niet goed koelt.
[ Voor 16% gewijzigd door Astennu op 03-12-2009 09:18 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Heeft AMD dan nog zo veel RV770 chips liggen dat ze daar nu nog een kaart voor uitbrengen ? of worden die voorlopig nog gewoon gebakken bij tsmc tot dat de tekorten bij de 40nm chips opgelost zijn ?CJ schreef op donderdag 03 december 2009 @ 09:56:
Die 4870 van XFX is gebaseerd op het cost-down 4870 design van AMD. Alles is in prijs gereduceerd. Dit zie je terug komen in de cooler en vaak is ook het PCB iets korter.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Mag ik vragen hoe ze dat design costdown gemaakt hebben? Gaat het om het design van de kaart in zijn geheel, of om de chip die ze een respin hebben gegeven?CJ schreef op donderdag 03 december 2009 @ 09:56:
Die 4870 van XFX is gebaseerd op het cost-down 4870 design van AMD. Alles is in prijs gereduceerd. Dit zie je terug komen in de cooler en vaak is ook het PCB iets korter.
99,9% zeker dat het hier om een redesign gaat van het PCB. Korter, minder lagen, minder componenten. Zeker aangezien het om een ge-downclockte versie gaat, heb je minder componenten nodig. Ga er maar niet vanuit dat de chip een respin heeft, dat is een veel te kostelijk grapje voor een product dat al uitgefaseerd is (bijna dan toch).DevilsProphet schreef op donderdag 03 december 2009 @ 11:02:
[...]
Mag ik vragen hoe ze dat design costdown gemaakt hebben? Gaat het om het design van de kaart in zijn geheel, of om de chip die ze een respin hebben gegeven?
Dit is puur om de kaart goedkoper te maken en op die manier van het overschot RV770 chips af te komen zonder verlies te lijden (en hopelijk nog wat winst erop te pakken).
Volgens mij heeft de XFX HD4870 al maanden zo'n koeler.Astennu schreef op donderdag 03 december 2009 @ 07:44:
Het is een XFX HD4870 Lite. Deze loopt 750-900. Maar heeft dus de cooler gekregen die de HD5770 V2 ook heeft.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
CPU-Scaling with the HD5970 @ LegionHardware
http://www.legionhardware.com/document.php?id=869&p=0Dat zou zo maar kunnen. Ik zag em nu pas. En het viel me op dat dit dezelfde cooler is al die op de zogenaamde HD5770 V2's gebruikt wordt. Daar is namelijk ook ophef over dat deze slechter zou zijn dan de 5770 V1. Echter zie ik die V1 cooler geen HD4870 lekker cool houden gezien de grote van de 4870 stock cooler. (en vooral de heatsink)-The_Mask- schreef op donderdag 03 december 2009 @ 11:18:
[...]
Volgens mij heeft de XFX HD4870 al maanden zo'n koeler.
[ Voor 23% gewijzigd door Astennu op 03-12-2009 11:23 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Cost-down designs zijn al vrij vroeg klaar. Het is echter aan de partner om te beslissen of ze voor dit model gaan of voor het 'normale' model. Het gaat hier dan voornamelijk alleen over het PCB, aangezien daar de meeste kosten in gaan zitten. Soms is het de moeite waard om voor een cost-down model te gaan, soms is het gewoon niet handig.DevilsProphet schreef op donderdag 03 december 2009 @ 11:02:
[...]
Mag ik vragen hoe ze dat design costdown gemaakt hebben? Gaat het om het design van de kaart in zijn geheel, of om de chip die ze een respin hebben gegeven?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Even mezelf quotenGurneyhck schreef op donderdag 03 december 2009 @ 11:20:CPU-Scaling with the HD5970 @ LegionHardware
http://www.legionhardware.com/document.php?id=869&p=0
Op dit moment hebben ze alleen de i7 gebenched, volgende week voegen ze iig Phenom II x4 toe en in de toekomst nog meer.
Conclusie van deze test is heel simpel eigenlijk, heb je een i7 op circa 3.0GHz dan haal je max performance uit je kaart. OC'en naar 4.0GHz heeft vrijwel nooit zin.
Echter vraag ik me af hoe de minimale fps zijn tussen verschillende cpu's. Volgens mij is dat een veel interessantere test...
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Inderdaad. Het gaat hier wel om 2560x1600. En zelfs dan was de FPS vaak nog meer dan hoog genoeg. Zelfs met een Phenom X4 of I7 op 2.0 GHz zou je nog prima gameplay hebben. Maar inderdaad een 3.0 GHz Quad is voorlopig voldoende voor een 5970 op die resolutieGurneyhck schreef op donderdag 03 december 2009 @ 11:28:
[...]
Even mezelf quoten
Op dit moment hebben ze alleen de i7 gebenched, volgende week voegen ze iig Phenom II x4 toe en in de toekomst nog meer.
Conclusie van deze test is heel simpel eigenlijk, heb je een i7 op circa 3.0GHz dan haal je max performance uit je kaart. OC'en naar 4.0GHz heeft vrijwel nooit zin.
Echter vraag ik me af hoe de minimale fps zijn tussen verschillende cpu's. Volgens mij is dat een veel interessantere test...
Het valt me trouwens op dat de PHII het erg goed doet. Hij doet het wel erg slecht op 2.0 en 2.2 GHz. Dit zou aan de architectuur van de chip kunnen liggen. Je ziet tussen 2.2 en 2.4 en 2.4 en 2.6 vaak ook boosts die groter zijn dan de % stijging in clockspeeds. Dat zou er op kunnen duiden dat deze chips gewoon voor hogere speeds gemaakt zijn. PHII's zijn er ook vanaf 2.6 GHz en niet lager. Maar op 4.0 GHz is hij in 5 van de tests zelfs sneller dan de i7. En dit in recente games. Dit is eigenlijk ook wat ik zelf ervaar. Ik heb een PHII op 3.5 GHz in me lanbox en een 4.1 GHz i7 in me hooft pc. Maar met games merk ik totaal geen verschil in gameplay. En in Qua FPS ook niet.
Kortom beide cpu's zijn voorlopig nog meer dan snel genoeg. Kom maar op met die HD6xxx serie
[ Voor 11% gewijzigd door Astennu op 03-12-2009 11:41 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 196662 schreef op donderdag 03 december 2009 @ 11:30:
Ik zie de tests met X4 er nu al bijstaan eigenlijk Gurneyhck?
edit: Zie nu dat ze wel de snelste en traagste i7 hebben toegevoegd aan de PHII test, beter lees je dus eigenlijk alleen dat deel

[ Voor 11% gewijzigd door Gurneyhck op 03-12-2009 11:41 ]
Alleen voor Astennu misschien niet
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
HahaStefanvanGelder schreef op donderdag 03 december 2009 @ 12:11:
Ik zou wel eens tests willen zien op 1650*1050 en 1900*1200, volgens mij is dat veel interessanter voor de meeste mensen onder ons![]()
Alleen voor Astennu misschien niet
Je hebt er immers niets aan dat je 240 fps haalt ipv 100. Alles boven de 80 is meer dan voldoende.
[ Voor 9% gewijzigd door Astennu op 03-12-2009 12:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Alleen is dat een beetje irrelevant omdat je dan toch framerates hebt die zowieso al hoog genoeg zijn idd.
Er zijn wel andere redenen/ doeleinden waarvoor het wenselijk is om je CPU op 4GHz (of zo hoog mogelijk) te hebben draaien; renderen, decoden, benchen.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dat bedoel ik. Je hebt dan wel wat meer aan een snellere cpu om een hogere FPS te krijgen maar je hebt niets aan die hogere FPS want je merkt het niet.RappieRappie schreef op donderdag 03 december 2009 @ 13:23:
Het is natuurlijk wel zo dat als de resolutie omlaag gaat, je wel een CPU bottleneck hebt.
Alleen is dat een beetje irrelevant omdat je dan toch framerates hebt die zowieso al hoog genoeg zijn.
Er zijn wel andere redenen/ doeleinden waarvoor het wenselijk is om je CPU op 4GHz (of zo hoog mogelijk) te hebben draaien; renderen, decoden, benchen.
En ik had het ook niet over andere redenen maar vooral over games. Persoonlijk heb ik voor mijn andere zaken geen snelle cpu nodig. Mensen die veel rendering / decoding doen hebben er in verhouding meer aan.
[ Voor 14% gewijzigd door Astennu op 03-12-2009 13:29 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar goed, niet echt on topic dit
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Maar dat is nu nog niet zo. Elke game wordt ge-owned door de HD5800 en 5900 serie.
Edit; ik denk serieus dat deze serie kaarten wel eens een hele lange houdbaarheid zouden kunnen hebben. A la 8800GTX. Ik denk echt dat je met deze kaarten echt heel lang vooruit kan.
[ Voor 26% gewijzigd door Format-C op 03-12-2009 13:33 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
net zoals met de 4800 serie eigenlijk, die kan ook nog tijden mee, alleen niet (meer) op de hoogste resoluties, er is denk ik ook maar een max 3/4% die op 2500x1600 of hoger speelt though.RappieRappie schreef op donderdag 03 december 2009 @ 13:32:
Het kan zijn dat er nog wat zwaardere games komen waarin het misschien wel interessant wordt om de CPU zo hoog mogelijk te klokken, omdat je dan bijvoorbeeld 65FPS hebt ipv 55.
Maar dat is nu nog niet zo. Elke game wordt ge-owned door de HD5800 en 5900 serie.
Edit; ik denk serieus dat deze serie kaarten wel eens een hele lange houdbaarheid zouden kunnen hebben. A la 8800GTX. Ik denk echt dat je met deze kaarten echt heel lang vooruit kan.
ben wel benieuwd of het met de 4800 serie net zo gaat lopen in de toekomst als met de 1900 tegen de 7900.
[ Voor 6% gewijzigd door Powrskin op 03-12-2009 13:57 ]
Nukezone FTW
Die van mij gaat waarschijnlijk 1 jaar mee, en dan alweer eruitRappieRappie schreef op donderdag 03 december 2009 @ 13:32:
Het kan zijn dat er nog wat zwaardere games komen waarin het misschien wel interessant wordt om de CPU zo hoog mogelijk te klokken, omdat je dan bijvoorbeeld 65FPS hebt ipv 55.
Maar dat is nu nog niet zo. Elke game wordt ge-owned door de HD5800 en 5900 serie.
Edit; ik denk serieus dat deze serie kaarten wel eens een hele lange houdbaarheid zouden kunnen hebben. A la 8800GTX. Ik denk echt dat je met deze kaarten echt heel lang vooruit kan.
Waarom? Omdat ik dan waarschijnlijk de refresh van de RV870 ga halen, of mischien als zelfs de opvolger. Verder ga ik ook de rest vervangen, omdat die mij nogal beperkt met benchen, en ik dus wat meer wil scoren

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Dan neem je een CPU-review, waarin de resoluties en settings juist laag gehouden worden. Probleem opgelostStefanvanGelder schreef op donderdag 03 december 2009 @ 13:29:
Over 2 jaar zijn de games weer zwaarder dan nu, en over 2 jaar wil ik dan nog steeds goed kunnen gamen dus dan is het denk ik toch wel interessant om te kijken of het op andere resoluties ook uitmaakt. Dan kun je namelijk de keuze maken of je meer investeerd in een Core i7 processor of geld bespaard door een Phenom II aan te schaffen.
Heeft geen speciale krachten en is daar erg boos over.
Vast wel. Maar het verleden heeft mij geleerd dat als je de beste game ervaring wilt hebben je beter kan besparen op je CPU en dat geld gebruikt voor een snellere video kaart. (als gamen belangrijk is)StefanvanGelder schreef op donderdag 03 december 2009 @ 13:29:
Op zich heb je daar wel gelijk in. Maar niet iedereen koopt ieder jaar nieuwe hardwareOver 2 jaar zijn de games weer zwaarder dan nu, en over 2 jaar wil ik dan nog steeds goed kunnen gamen dus dan is het denk ik toch wel interessant om te kijken of het op andere resoluties ook uitmaakt. Dan kun je namelijk de keuze maken of je meer investeerd in een Core i7 processor of geld bespaard door een Phenom II aan te schaffen.
Maar goed, niet echt on topic dit
Zo zal een Athlon X2 3800+ met HD5850 beter gamen dan een i7 3.33 GHz met een HD4670. Terwijl de eerste setup vele malen goedkoper is. (dit is wel even een extreem voorbeeld.) Maar een midrange video kaart is na een jaar al aardig oud en moet je qua settings verder omlaag. Een CPU kan zo 3 jaar mee. Als je Nu een PHII of ene i7 920 koop heb je daar over 2 jaar nog een prima cpu aan. Maar als je nu een HD4890/GTX275 hebt denk ik niet dat je games over 2 jaar nog lekker draaien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb de SHIFT 1.2 patch erop gezet, en de exe renamed naar FEAR (voor CFX support) en de game runned zo smooth als boter.
Mijn excuses heren!

O ja;
EA: shame on you!
[ Voor 3% gewijzigd door Format-C op 03-12-2009 17:15 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
40nm ATI / Nvidia shortage to last whole Q1 10
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
De gebruikte instellingen zijn ten minste echt, en dan bedoel ik dat de eyecandy flink hoog staat, met aa/af. Tevens is er een dualcore gebruikt, een e6850 nota bene, en die is op 2,0GHz nog steeds snel zat voor een GTX 285.
Mijns inziens zou het woord cpu-bottleneck verboden moeten worden. Met een X2 250 zit je voor het gros van de spelen en de snelste videokaarten al goed. Je koopt toch zeker geen videokaart van 300 euro (HD 5870) en geeft vervolgens geen 165 euro uit aan een 24" scherm met een reso van 1920x1200? Want op die reso ben je negen van de tien keer gewoon gpu-bottlenecked met een HD 5870. Die x2 250 houdt je minima wel boven de 30 hoor.
Leuk dat zo'n oude CPU nog goed de meeste games kan draaien, maar zodra je er ook maar een processor intensieve game bij pakt gaat de vlieger al niet meer op. Een E6850 met een HD5870 is een drama voor GTA IV en ook een E8500 op 4 GHz is echt niet genoeg. Ik was dan ook zeer content met de Core i7 920 eind vorig jaar zodat ik die game ook voluit kon draaien.Marc Rademaker schreef op donderdag 03 december 2009 @ 19:04:
Als je een interessante review wilt lezen over cpu bottlenecks, raad ik deze aan: http://alienbabeltech.com/main/?p=13454
De gebruikte instellingen zijn ten minste echt, en dan bedoel ik dat de eyecandy flink hoog staat, met aa/af. Tevens is er een dualcore gebruikt, een e6850 nota bene, en die is op 2,0GHz nog steeds snel zat voor een GTX 285.
Mijns inziens zou het woord cpu-bottleneck verboden moeten worden. Met een X2 250 zit je voor het gros van de spelen en de snelste videokaarten al goed. Je koopt toch zeker geen videokaart van 300 euro (HD 5870) en geeft vervolgens geen 165 euro uit aan een 24" scherm met een reso van 1920x1200? Want op die reso ben je negen van de tien keer gewoon gpu-bottlenecked met een HD 5870. Die x2 250 houdt je minima wel boven de 30 hoor.
Goud is geen geld
Maarja dan kun je je ook afvragen of GTA4 dat wel waard is. Ik bedoel uiteraard niet het spel inhoudelijk, maar de kosten die je ermee verbindt.frankknopers schreef op donderdag 03 december 2009 @ 19:10:
[...]
Leuk dat zo'n oude CPU nog goed de meeste games kan draaien, maar zodra je er ook maar een processor intensieve game bij pakt gaat de vlieger al niet meer op. Een E6850 met een HD5870 is een drama voor GTA IV en ook een E8500 op 4 GHz is echt niet genoeg. Ik was dan ook zeer content met de Core i7 920 eind vorig jaar zodat ik die game ook voluit kon draaien.
Ga je van een pc uit waarmee alleen wordt gegamed, dus geen rendering etc. Dan heeft Marc wel degelijk een punt. Stel dat je alle spellen kunt spelen met een x2 250 dan is dit het kostenplaatje:
Goedkoop-platform
pricewatch: AMD Athlon II X2 250 á 54euro
pricewatch: MSI 790FX-GD70 á 135euro (high-end mobo, maar wel één van de goedkoopste in de 790fx range)
totaal: 189euro
Duur(der)-platform
pricewatch: Intel Core i7 920 á 225euro
pricewatch: Asus P6T SE á 156euro
totaal: 381euro
Over de moederborden valt uiteraard te discussiëren, maar dit is wel een redelijke keuze denk ik. Hoewel ik persoonlijk een duurder i7 mobo zou kiezen.
Nu gaan we kijken wat GTA4 spelen op het eerste platform kost:
GTA4 á 50euro + 189euro = 239euro
tweede platform
GTA4 á 50euro + 381 = 431euro
Overige componenten meerekenen heeft geen zin, want daar zal niet echt verschil tussen zitten. Hoewel je miss een zwaardere voeding nodig hebt voor systeem 2.
Verschil tussen de twee systemen: 431 - 239 = 192 euro.
Best een duur spel dus GTA4

Dus Marc je hebt een punt
Maar ik zou zelf ook altijd voor een zwaarder systeem kiezen, hoewel die keuze niet altijd valt te rechtvaardigen. Maar het blijft natuurlijk een hobby he
Zou die test nog eens op moeten zoeken, maar ik kan me momenteel niet meer heugen in welk draadje het stond.
is die i7 dan zo goed of is die port van GTA IV dan gewoon zo slecht? GTA IV is geen benchmark voor CPU performancefrankknopers schreef op donderdag 03 december 2009 @ 19:10:
Leuk dat zo'n oude CPU nog goed de meeste games kan draaien, maar zodra je er ook maar een processor intensieve game bij pakt gaat de vlieger al niet meer op. Een E6850 met een HD5870 is een drama voor GTA IV en ook een E8500 op 4 GHz is echt niet genoeg. Ik was dan ook zeer content met de Core i7 920 eind vorig jaar zodat ik die game ook voluit kon draaien.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Is gewoon een bagger engine, volgens mij kan je hem niet eens goed spelen helemaal maxed out met 5970, puur doordat de CPU gewoon kei hard bottlenecked.neliz schreef op donderdag 03 december 2009 @ 21:30:
[...]
is die i7 dan zo goed of is die port van GTA IV dan gewoon zo slecht? GTA IV is geen benchmark voor CPU performance
En omdat de HD5970 effectief maar 1GB Vram heeft.M4gick schreef op donderdag 03 december 2009 @ 21:31:
[...]
Is gewoon een bagger engine, volgens mij kan je hem niet eens goed spelen helemaal maxed out met 5970, puur doordat de CPU gewoon kei hard bottlenecked.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
"Maar" 1GB-The_Mask- schreef op donderdag 03 december 2009 @ 21:38:
[...]
En omdat de HD5970 effectief maar 1GB Vram heeft.
Heeft geen speciale krachten en is daar erg boos over.
De PS3 trekt het beter met 256MB VRAM, zou het misschien sarcastisch zijn?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Zou je denken?neliz schreef op donderdag 03 december 2009 @ 21:48:
[...]
De PS3 trekt het beter met 256MB VRAM, zou het misschien sarcastisch zijn?
Lag het aan mij of werd er laatst gepost dat de problemen bij TSMC nog dit jaar opgelost zouden worden? Of is dit info die TSMC niet uit komt (en is het dus allemaal maar speculatie)?StefanvanGelder schreef op donderdag 03 december 2009 @ 18:54:
Fud heeft nog maar weinig vertrouwen in het 40nm proces bij TSMC40nm ATI / Nvidia shortage to last whole Q1 10
Heeft geen speciale krachten en is daar erg boos over.
Ik heb deze review al een tijdje als basis genomen voor nieuwe systemen die ik verkoop...Marc Rademaker schreef op donderdag 03 december 2009 @ 19:04:
Als je een interessante review wilt lezen over cpu bottlenecks, raad ik deze aan: http://alienbabeltech.com/main/?p=13454
De gebruikte instellingen zijn ten minste echt, en dan bedoel ik dat de eyecandy flink hoog staat, met aa/af. Tevens is er een dualcore gebruikt, een e6850 nota bene, en die is op 2,0GHz nog steeds snel zat voor een GTX 285.
Mijns inziens zou het woord cpu-bottleneck verboden moeten worden. Met een X2 250 zit je voor het gros van de spelen en de snelste videokaarten al goed. Je koopt toch zeker geen videokaart van 300 euro (HD 5870) en geeft vervolgens geen 165 euro uit aan een 24" scherm met een reso van 1920x1200? Want op die reso ben je negen van de tien keer gewoon gpu-bottlenecked met een HD 5870. Die x2 250 houdt je minima wel boven de 30 hoor.
Ipv een i5 750 icm 4890/5850 verkoop ik nu een X4 620/630 icm 5870.
Heb hier een tijde beide configuraties gedraaid en telkens was de goedkopere setup veel sneller.
Dus mijn conclusie = 90% van de "gamers" heeft meer dan genoeg aan een X4 icm een 5870.
Hiermee wil ik niet zeggen dat een i5/i7/PHII geen nut heeft, want die cpu's laten hun kracht wel zien bij rar, h264 en dergelijke apps, maar het is 90% van de tijd gewoon overkill.
Met 4 cores zit je de komende jaren gewoon goed. En dat mag nu een X4 van 80€ of een oude Q6600 zijn, icm een 5870 heb je gewoon een high end game pc voor een midrange prijs.
iPhone 12 | Switch Lite | Sony 55A89 | Passat Variant GTE | Tesla MY RWD
Anoniem: 59888
Inderdaad, GTA IV is slecht geoptimaliseerd en performt daardoor slecht, daar is het (gelukkig) wel een uitzondering in en dus kun je GTA IV niet als benchmark gebruiken voor wat voor CPU je zou moeten hebben/kopen. Games stellen veel hogere eisen aan de GPU dan aan de CPU dus je kunt op dit moment inderdaad beter wat meer geld in je GPU investeren. Of dat met DX11 gaat veranderen is op dit moment toch vooral een glazen bol verhaal.neliz schreef op donderdag 03 december 2009 @ 21:30:
is die i7 dan zo goed of is die port van GTA IV dan gewoon zo slecht? GTA IV is geen benchmark voor CPU performance
Geeft goed aan dat de cpu bottleneck minder snel optreedt omdat je hiermee langer kunt doenAstennu schreef op donderdag 03 december 2009 @ 14:55:
[...]
Een CPU kan zo 3 jaar mee. Als je Nu een PHII of ene i7 920 koop heb je daar over 2 jaar nog een prima cpu aan.
Nukezone FTW
Sandra 2010 adds OpenCL GPGPU benchmarks
Charlie heeft een artikel geplaatst over de nieuwste Sisoft, die de mogelijkheid geeft je videokaart te benchmarken op GPGPU-power.Persoonlijk vond ik het wel grappig om te zijn dat mijn al oude HD3870 in Double Precision gehakt maakt van een GTX260.
Ik ben het 100% met je eens. Ik roep dit soort dingen al jaren maar steeds gingen mensen toch voor de dure snellere CPU's en een slechtere video kaart terwijl ze bijna alleen maar games speelde op die machines. Gelukkig beginnen meer mensen dit te snappen.Aries.Mu schreef op donderdag 03 december 2009 @ 22:44:
[...]
Ik heb deze review al een tijdje als basis genomen voor nieuwe systemen die ik verkoop...
Ipv een i5 750 icm 4890/5850 verkoop ik nu een X4 620/630 icm 5870.
Heb hier een tijde beide configuraties gedraaid en telkens was de goedkopere setup veel sneller.
Dus mijn conclusie = 90% van de "gamers" heeft meer dan genoeg aan een X4 icm een 5870.
Hiermee wil ik niet zeggen dat een i5/i7/PHII geen nut heeft, want die cpu's laten hun kracht wel zien bij rar, h264 en dergelijke apps, maar het is 90% van de tijd gewoon overkill.
Met 4 cores zit je de komende jaren gewoon goed. En dat mag nu een X4 van 80€ of een oude Q6600 zijn, icm een 5870 heb je gewoon een high end game pc voor een midrange prijs.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
nieuws: Intels Larrabee doorbreekt teraflopsgrens
Beetje krom want er wordt een niet uitgebracht product vergeleken met een product dat al meer dan een jaar op de markt is. De stock LRB draaide met 16 cores op 2 GHz. Zou dan een TDP van 150 watt hebben. En haalde iets van 82x Tflops.Tijdens de SC09-conferentie heeft Intel een demonstratie gegeven van de rekenkracht van zijn Larrabee-gpu. De chipgigant heeft nu bekendgemaakt dat de nieuwe processor daarbij de grens van 1 teraflops heeft doorbroken.
En Gflops is leuks maar dat zegt niets over performance in game. Larrabee zou DX gaan emuleren misschien levert dat een behoorlijk performance hit op.
Ik heb het volgende kunnen vinden over performance van andere chips:
De Firestream 9270 is vergelijkbaar met een HD4870 op 750 MHz. Dus een HD5870 zal zeker iets van 600 gflops halen. Ik weet niet hoeveel AMD nog getweaked heeft om GPGPU performance te verbeteren. En aangezien de HD5870 ook op 850 MHz draait kan het nog wel eens zijn dat hij richting de 650 gflops gaat.But as of SC09, the top five performing products for SGEMM 4K x 4K are as follows [do note that multi-GPU products are excluded as they don't run SGEMM]:
1. Intel Larrabee [LRB, 45nm] - 1006 GFLOPS
2. EVGA GeForce GTX 285 FTW - 425 GFLOPS
3. nVidia Tesla C1060 [GT200, 65nm] - 370 GFLOPS
4. AMD FireStream 9270 [RV770, 55nm] - 300 GFLOPS
5. IBM PowerXCell 8i [Cell, 65nm] - 164 GFLOPS
If you're wondering where products such as Intel Harpertown-based Core 2 Quad or Nehalem-based Core i7 stand, the answer is quite simple - i7 XE 975 at 3.33 GHz will give you 101 GFLOPS, while Core 2 Extreme QX9770 at 3.2 GHz gives out 91 GFLOPS.
Daar naast hebben we het hier volgens mij wel over een bensh die meer gemaakt is voor CPU's dan GPU's. En Larrabee is een soort van CPU/GPU fusion. Hij kan ook X86 draaien.
Des al niet te min zet hij een erg mooie prestatie neer. Ik ben alleen wel benieuwd wat die kaart verbruikt op stock 2.0 GHz en overclocked.
Maar gezien de performance van de i7 kunnen we wel concluderen dat deze code niet optimaal is voor video kaarten. Anders hadden we veel grotere verschillen gezien. Als in 10-20% hogere performance voor de video kaarten.
Maar nogmaals. Een kaart die nog niet uit is vergelijken met iets wat al op de markt is. Tegen de tijd dat LRB er is is nVidia bijna klaar of klaar met de GT400 en heeft AMD al een HD6xxx serie klaar staan. Die waarschijnlijk de performance tov de vorige generatie weer verdubbelen.
Ik gok dat Fermi gezien de performance van de GTX285 ook wel rond die 1 Tflop kan komen alleen dan op stock speeds. En wellicht meer want die wordt echt gemaakt voor GPGPU. GT200 ook al maar GT300 nog meer.
Maar ik ben ook een beetje benieuwd wat de andere mensen hier van vinden. Het is wel niet echt ATi nieuws. Maar heeft er wel mee te maken. Ik ben ook benieuwd of de HD5870 nog verbeteringen zou laten zien tov de HD4 serie als je kijkt naar performance per shader per clock. De GT200b chip haalt de RV770 chip wel behoorlijk in. Al zegt dit niets kan ook puur aan de code liggen die al niet optimaal lijkt te zijn.
En Aangezien de HD5 serie al uit is kunnen we beginnen met speculeren over de opvolger
[ Voor 3% gewijzigd door Astennu op 04-12-2009 08:22 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://www.ats.ucla.edu/c...raries/blas_benchmark.htm
Zie niet waar hij te downloaden is, zal dus wel niet...
[ Voor 20% gewijzigd door Puppetmaster op 04-12-2009 09:37 ]
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Ik vind het ook wel erg interessant om te zien waar Larrabee komt te staan straks. Maar als een 5870 waarschijnlijk al zo'n 600 Gflops doet, dan gaat de 5890 5970 waarschijnlijk over de Tflop heen. Dus heeft Ati nu al een kaart die dergelijke prestaties neerzet. Tegen de tijd dat Larrabee op de markt komt zal de lat nog wel weer wat hoger liggen voor Intel.Astennu schreef op vrijdag 04 december 2009 @ 08:21:
Even een stukje wat ik op de FP heb gepost na aanleiding van dit bericht:
nieuws: Intels Larrabee doorbreekt teraflopsgrens
[...]
Beetje krom want er wordt een niet uitgebracht product vergeleken met een product dat al meer dan een jaar op de markt is. De stock LRB draaide met 16 cores op 2 GHz. Zou dan een TDP van 150 watt hebben. En haalde iets van 82x Tflops.
En Gflops is leuks maar dat zegt niets over performance in game. Larrabee zou DX gaan emuleren misschien levert dat een behoorlijk performance hit op.
Ik heb het volgende kunnen vinden over performance van andere chips:
[...]
De Firestream 9270 is vergelijkbaar met een HD4870 op 750 MHz. Dus een HD5870 zal zeker iets van 600 gflops halen. Ik weet niet hoeveel AMD nog getweaked heeft om GPGPU performance te verbeteren. En aangezien de HD5870 ook op 850 MHz draait kan het nog wel eens zijn dat hij richting de 650 gflops gaat.
Daar naast hebben we het hier volgens mij wel over een bensh die meer gemaakt is voor CPU's dan GPU's. En Larrabee is een soort van CPU/GPU fusion. Hij kan ook X86 draaien.
Des al niet te min zet hij een erg mooie prestatie neer. Ik ben alleen wel benieuwd wat die kaart verbruikt op stock 2.0 GHz en overclocked.
Maar gezien de performance van de i7 kunnen we wel concluderen dat deze code niet optimaal is voor video kaarten. Anders hadden we veel grotere verschillen gezien. Als in 10-20% hogere performance voor de video kaarten.
Maar nogmaals. Een kaart die nog niet uit is vergelijken met iets wat al op de markt is. Tegen de tijd dat LRB er is is nVidia bijna klaar of klaar met de GT400 en heeft AMD al een HD6xxx serie klaar staan. Die waarschijnlijk de performance tov de vorige generatie weer verdubbelen.
Ik gok dat Fermi gezien de performance van de GTX285 ook wel rond die 1 Tflop kan komen alleen dan op stock speeds. En wellicht meer want die wordt echt gemaakt voor GPGPU. GT200 ook al maar GT300 nog meer.
Maar ik ben ook een beetje benieuwd wat de andere mensen hier van vinden. Het is wel niet echt ATi nieuws. Maar heeft er wel mee te maken. Ik ben ook benieuwd of de HD5870 nog verbeteringen zou laten zien tov de HD4 serie als je kijkt naar performance per shader per clock. De GT200b chip haalt de RV770 chip wel behoorlijk in. Al zegt dit niets kan ook puur aan de code liggen die al niet optimaal lijkt te zijn.
En Aangezien de HD5 serie al uit is kunnen we beginnen met speculeren over de opvolgerde Refresh en de HD6 serie
En ik vraag me nog steeds af wat die verrassing gaat worden die AMD geplant had voor als ik me niet vergis januari.
[ Voor 0% gewijzigd door The Flying Dutchman op 04-12-2009 11:09 . Reden: redelijk cruciaal foutje in typenummers ;) ]
The Flying Dutchman
Daarnaast is dit een LRB op 45nm. De final versie zou volgens mij op 32nm gemaakt gaan worden. Dit kan betekenen dat die OC die ze nu gebruikt hebben om die 1 tflop te halen dan dus standaard is. Of misschien kunnen ze dan ook meer cores op een kaart plakken.
Ik ben wel benieuwd hoe groot zo'n 16 core LRB is qua chip oppervlak.
De kracht van LRB is in mijn ogen in het begin ook een beetje de zwakte. Namelijk X86. Hierdoor kun je er makkelijk voor programmeren. Maar DX zal geemuleerd gaan worden. Maar als het programmeer gemak heel groot is zou het best kunnen dat het een groot succes gaat worden om die rede.
[ Voor 46% gewijzigd door Astennu op 04-12-2009 10:07 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
My bad. Ik bedoelde de 5970, niet de 5890. Ik zal het even wijzigen in mijn post.Astennu schreef op vrijdag 04 december 2009 @ 10:05:
Dat denk ik niet. Ik gok op een 650 Gflop voor een HD5870. HD5890 zou een refresh zijn. Mogelijk een RV890 core.
The Flying Dutchman
Een bandwidth bottleneck op de HD4850 bijvoorbeeld.
SP/DP Performance: http://sisoftware.co.uk/i...u_vs_gpu_proc&langx=en&a=
Memory Bandwidth: http://sisoftware.co.uk/i...pu_vs_gpu_mem&langx=en&a=

[ Voor 50% gewijzigd door neliz op 04-12-2009 11:32 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Nog even over LRB, persoonlijk denk ik dat het 16 core model niet het topmodel is.
Een interessant stukje speculatie uit een artikel op anandtech van een tijdje terug over mogelijke die-space.
Als het onderstaande een beetje klopt zou een 16-32 core range zeer mogelijke zijn en ook nog relatief goedkoop kunnen zijn voor Intel om te produceren op 45nm.
Remember the design experiment? Intel was able to fit a 10-core Larrabee into the space of a Core 2 Duo die. Given the specs of the Core 2 Duo Intel used (4MB L2 cache), it appears to be a 65nm Conroe/Merom based Core 2 Duo - with a 143 mm^2 die size.
At 143 mm^2, Intel could fit 10 Larrabee-like cores so let's double that. Now we're at 286mm^2 (still smaller than GT200 and about the size of AMD's RV770) and 20-cores. Double that once more and we've got 40-cores and have a 572mm^2 die, virtually the same size as NVIDIA's GT200 but on a 65nm process.
The move to 45nm could scale as well as 50%, but chances are we'll see something closer to 60 - 70% of the die size simply by moving to 45nm (which is the node that Larrabee will be built on). Our 40-core Larrabee is now at ~370mm^2 on 45nm. If Intel wanted to push for a NVIDIA-like die size we could easily see a 64-core Larrabee at launch for the high end, with 24 or 32-core versions aiming at the mainstream. Update: One thing we did not consider here is power limitations. So while Intel may be able to produce a 64-core Larrabee with a GT200-like die-size, such a chip may exceed physical power limitations. It's far more likely that we'll see something in the 16 - 32 core range at 45nm due to power constraints rather than die size constraints.
This is all purely speculation but it's a discussion that was worth having publicly.
God does not play dice
Ik ben wel benieuwd die die die sizes nog kloppen. Het kan best dat intel het een en ander verandert heeft aan de cores om hogere clocks mogelijk te maken. En misschien dat ze ook groter geworden zijn. Dus ben wel benieuwd naar de die size van een 32 core LRB.
[ Voor 37% gewijzigd door Astennu op 04-12-2009 13:04 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 196662
Klopt, ik kan mij nog een interessant artikel 2-3 maanden (o.i.d.) geleden herrinneren waarin dat beschreven stond.Anoniem: 196662 schreef op vrijdag 04 december 2009 @ 13:46:
Intel heeft toch al lang gezegd dat ze beginnen met een 16core en daarna naar 32 en 48 gaan voor de high-end.
Ik ben het meest benieuwd naar het stroomverbruik van de larrabee, en ik vermoed persoonlijk dat alle speculaties daarover wel heel erg optimistisch zijn. x86 staat absoluut niet bekend als energie effiecient, maar then again, zoveel x86 architecturen zijn er ook niet geweest, die dergelijke *Flops op zo'n kleine Die halen.
[ Voor 7% gewijzigd door SirNobax op 04-12-2009 14:36 ]
Pentaxiaan
Naar mijn mening hadden ze het volgende zinnetje wel met data mogen ondersteunen:
"With equally high noise under load, the new revision outperformed the old one by 9℃ in terms of GPU cooling."
RMA'en.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Klinkt bekend, hier ook een Sapphire en heb 'm een dag of drie gegeven voordat ik aan RMA dacht en het geluid is nu weg na flink wat stressen (veel benchmarks en games zodat de fan lekker veel zou draaien). Hou het even een weekje vol, als de kaart dan nog rammelt dan zou ik inderdaad RMA aanvragen.Didov schreef op vrijdag 04 december 2009 @ 19:48:
Heb net een Sapphire HD5970 OC version geinstalleerd, maar de ventilator maakt een ratelend geluid (30%), net als een harddisk die continu aan het schrijven is. Iemand al ervaringen hiermee? Hier een voorbeeld: http://www.youtube.com/wa...g&feature=player_embedded ...
Edit: bij mij was het geluid overigens minder hard en niet continu.
@Astennu >>> Te zien is er niets, de fan zit gewoon helemaal in de heatsink verzonken. Ik heb geprobeerd te kijken wat er aan de hand zou zijn maar zonder de hele heatsink uit elkaar te halen kom je met geen mogelijkheid bij de fan.
[ Voor 17% gewijzigd door KneoK op 04-12-2009 22:54 ]
De LRB komt voorlopig niet. Althans niet voor de Retail:Astennu schreef op vrijdag 04 december 2009 @ 10:05:
Daarnaast is dit een LRB op 45nm. De final versie zou volgens mij op 32nm gemaakt gaan worden. Dit kan betekenen dat die OC die ze nu gebruikt hebben om die 1 tflop te halen dan dus standaard is. Of misschien kunnen ze dan ook meer cores op een kaart plakken.
Larrabee canceled: Intel concedes discrete graphics to NVIDIA, AMD...for now
So today's announcement was not SO surprising. To be fair, Intel is not canceling the entire Larrabee project, they are just basically admitting that the first iteration of this architecture was not going to be released in any retail form. That means the chip will be relegated to power internal development systems at Intel and some trusted software partners machines as well to pave the way for future many-core software development. If you were excited about the prospect of getting 48 x86 cores on an add-in card for your computer, you'll be waiting quite a bit longer now.
...
Intel always had an uphill battle to compete with NVIDIA and AMD in the GPU world and the delays of the Larrabee design put them so far behind that they would have likely never caught up to the performance of the Evergreen or Fermi families from their competition. Knowing that, it was probably the better choice to admit defeat and go back to the drawing board rather than release a part that simply couldn't hold its own in such a competitive market. We had always given Intel the benefit of the doubt when it came to the company's ability to create a completely new GPU architecture and re-engineer the software stack for graphics as well - but it seems now that we have been fooled.
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Goh.. dit heb ik nou altijd al gezegd. Maar er waren zoveel mensen die bleven geloven dat Intel met een wereldwonder zou komen dat wel even een serieuze bedreiging voor AMD en nVidia zou zijn. Duurt nog een tijdje dus voordat het zover is!Indy91 schreef op zaterdag 05 december 2009 @ 09:34:
[...]
De LRB komt voorlopig niet. Althans niet voor de Retail:
Larrabee canceled: Intel concedes discrete graphics to NVIDIA, AMD...for now
[...]
edit:
Ik denk dat AMD een mega goede zet heeft gedaan door Ati te kopen. Zie hoeveel moeite Intel heeft met Larrabee (de processor gigant die een gecombineerde gpu/cpu wil maken) en hoeveel moeite nVidia heeft met Fermi (de gpu gigant die een gecombineerde gpu/cpu wil maken). AMD is ondertussen lekker bezig met hun grafische kaarten. Processoren zijn momenteel misschien niet helemaal top, maar het platform AMD (processor + chipset + gpu) is fantastisch. Ik ben heel benieuwd naar Fusion, maar op zich ziet dat er ook gewoon goed uit voor zover we er momenteel iets zinnigs over kunnen zeggen.
[ Voor 34% gewijzigd door The Flying Dutchman op 05-12-2009 18:26 ]
The Flying Dutchman
Van fudzilla, wat een schandalige nVidia propaganda site is het toch hè?From these results we can conclude that AMD did a great job with CrossFireX support in DiRT 2, and as you can see the HD 5870 in CrossFireX mode performed quite well.
Dat gevoel schijnt hier bij sommige 'tweakers' nogal te leven, zelfs bij sommige crewmembers helaas. Waar is de objectiviteit gebleven mensen?
En wat heeft dit met ATi nieuws te maken? Als je over de eventuele bias van sites wil discussieren, nodig ik je van harte uit er een eigen topic over te openen.
[ Voor 16% gewijzigd door Edmin op 06-12-2009 01:16 ]
Het is niet de site, maar vooral Fuad en laat dit stukje nu net niet geschreven zijn door hem.Naluh! schreef op zondag 06 december 2009 @ 00:17:
[...]
Van fudzilla, wat een schandalige nVidia propaganda site is het toch hè?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
En zo leer zelfs jij elke dag weer iets nieuws!-The_Mask- schreef op zondag 06 december 2009 @ 02:06:
Naar mijn weten kwam het verbruik van een HD5750 sowieso al niet boven de 75 Watt.
Maximum board power: 86 Watts

AMD gaat die extra powerconnecter er ook niet voor de lol opzetten natuurlijk, PCISig kwalificatie enzo.
[ Voor 32% gewijzigd door neliz op 06-12-2009 02:57 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
En die 11 Watt minder verbruik gaan echt de wereld redden......
Nee, denk die besparing echt gelijk is aan 0, als je kijkt naar welke "vervuiling" er allemaal geproduceerd wordt om deze kaart te maken, testen en te vervoeren naar de eindconsument.....
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Een windmolen maken kost ook meer energie dan dat hij ooit oplevert. Een elektrische/hybride auto heeft dankzij de batterijen een enorm hoge vervuiling in vergelijking met "normale" autos. Da's leuk om over te praten als je straks aan de oliebollen en slechte wijn zit; Maar sommige mensen bespaart dit een nieuwe voeding (met PCI-E stekkers) of iets dergelijks.Darkasantion schreef op zondag 06 december 2009 @ 03:00:
Nee, denk die besparing echt gelijk is aan 0, als je kijkt naar welke "vervuiling" er allemaal geproduceerd wordt om deze kaart te maken, testen en te vervoeren naar de eindconsument.....
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Alle auto's op de aarden produceren maar 5% van de hele uitstoot van het broeikas gas.
Liggen ze ons wat gek te maken dat je minder auto moet rijden belachelijke discussie dus.
Het is gewoon om verkoop te stimuleren, marketing dus.
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gekakel over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moeten wij toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!