AMD Ryzen 5800x | Macbook Ai m4 | iPhone 16 Pro Max | Apple Watch Ultra 2
Dat is dan wel een zeer hypotethische stelling vermits SB cores door turboboost compleet anders presteren bij single threaded danwel bij multithreaded.jbkappirossi schreef op dinsdag 22 maart 2011 @ 10:16:
[...]
niet altijd. stel dat SB zo nog 20% per core sneller is dan 8core buldozer (of fx8 whatever) dan zal SB alles wat niet multiethreaded is tot en met 4cores winnen.
neem 4core SB
1thread = 100punten (theoretisch 400 bij 4 cores) (100/core)
4thread = 92 * 4 (max 368 bji 4cores) (92/core)
8thread = 92 * 4 + 18 * 4 = 440 bij 4cores/8threads waarbij HT 20% winst boekt (110/core)
Max verschil is 18% in voorbeeld geval.
Zolang AMD blijft bij ipc > thuban en max turboboost 500MHz bij 16cores denk ik dat we ons niet teveel zorgen hoeven te maken. (tenzij de base clock < 3GHz voor zambezini)
[ Voor 10% gewijzigd door Devpartner op 22-03-2011 10:44 ]
Volgens geruchten ergens in Juli: http://www.xbitlabs.com/n...s_for_Next_Gen_Chips.htmlSimD schreef op dinsdag 22 maart 2011 @ 10:34:
[...]
Er zullen genoeg mensen zijn die dit doen; de leken die niet weten wat ze doen.
Wel offtopic
Ontopic:
Wanneer komen de Bullies uit? Datums waren vooralsnog niet bekend dacht ik...
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://citavia.blog.de/20...ndries-9247191/#c13866507DevilsProphet schreef op dinsdag 22 maart 2011 @ 09:30:
Mijn vraag is nu: kan elke bulldozermodule beide int-units aanwenden voor dezelfde thread? Ik bedoel dus, is het mogelijk om de volledige bulldozer cpu te belasten met 4 threads?
edit: ik stel mijn vraag omdat iemand in de commentaarsectie op fudzilla zo'n idee heeft voorgesteld: http://www.fudzilla.com/h...ecs-surface#comment-18247
Blijkbaar niet dus. Ik neem aan dat dit onderwerp hier de revue al is gepasseerd, is dat juist?
Precies.Astennu schreef op dinsdag 22 maart 2011 @ 10:18:
[...]
Klopt echter zitten wij op een tech forum en vinden we dit soort dingen maar al te interessant om te bespreken
Maar inderdaad hoe ze het voor elkaar krijgen zal de meeste mensen een worst wezen.
Ik ben zelf wel benieuwd wat bulldozer gaat doen. Het ontwerp heeft veel potentie.
[...]
Het gaat hem ook niet om de het aantal cores maar gewoon over de performance van een CPU. Maar het kan best zijn dat SB sneller is voor apps tot 4 threads waar je met bulldozer veel sneller bent als er meer dan 4 threads gebruikt kunnen worden. Maar dat zullen de reviews straks wel laten zien.
Stel ik wil programma X,Y en Z draaien.
Ik kijk naar de benchmarks van die programma's met cpu A en B.
If cpu A > B, dan neem ik die, ongeacht of er 2 of 32 cores op zitten.
(uiteraard op basis van performance/prijs/verbruik etc)
De discussie over layout, techniek etc kan erg interessant zijn, maar daar baseer ik mijn aankoop niet op
Ik heb bijvoorbeeld al proberen video te encoden (met core affinity op 3de core gezet in windows) terwijl ik TF2 speelde, en dat lukte aardig, al moet ik zeggen dat ik het wel voelde op mijn triple core.
geval apart denk ik, 99% van de mensen draait niet 2 'zware' programma's tegelijk.DevilsProphet schreef op dinsdag 22 maart 2011 @ 13:07:
Wat er ook moet gemeten worden is, net zoals bij de preview van de llano, is hoe het systeem kan omgaan met een belasting van meerdere zaken tegelijk. Imo. Het is fijn dat merk A bepaalde taken sneller kan uitvoeren als er voor de rest helemaal niks gebeurt op die computer, maar dat is heel zelden het geval.
Ik heb bijvoorbeeld al proberen video te encoden (met core affinity op 3de core gezet in windows) terwijl ik TF2 speelde, en dat lukte aardig, al moet ik zeggen dat ik het wel voelde op mijn triple core.
volgens mij zijn er wel benches waaruit blijkt hoe goed een cpu is met multitasken?
Dat komt wel steeds meer. Mensen willen bv hun video renderen. En misschien nog andere dingen tegelijk doen. In het verleden moest je dat vooral niet doen. Tegenwoordig moet het kunnen met alle die cores die we tot onze beschikking hebben.mitsumark schreef op dinsdag 22 maart 2011 @ 13:15:
[...]
geval apart denk ik, 99% van de mensen draait niet 2 'zware' programma's tegelijk.
volgens mij zijn er wel benches waaruit blijkt hoe goed een cpu is met multitasken?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Herkenbaar. Bestandje uitpakken terwijl muziek speelt, de IM client draait en je browsedtet (??) op het web. Of werken aan een klein Photoshop projectje, terwijl de kinderen films streamen (en mogelijk transcoden) naar de TV. Of kijken naar een HD film, terwijl de backup-client met de nodige compressie in gang schiet. Legio real-life voorbeelden te vinden, maar je ziet ze weinig/niet passeren in reviews.Astennu schreef op dinsdag 22 maart 2011 @ 13:47:
Mensen willen bv hun video renderen. En misschien nog andere dingen tegelijk doen.
Yes, but no.
Het is browset.mieJas schreef op dinsdag 22 maart 2011 @ 14:13:
[...]
Herkenbaar. Bestandje uitpakken terwijl muziek speelt, de IM client draait en je browsedtet (??) op het web. Of werken aan een klein Photoshop projectje, terwijl de kinderen films streamen (en mogelijk transcoden) naar de TV. Of kijken naar een HD film, terwijl de backup-client met de nodige compressie in gang schiet. Legio real-life voorbeelden te vinden, maar je ziet ze weinig/niet passeren in reviews.
Voorts gebruik ik eigenlijk vooral mijn laptop om alle normale dingen op te doen, zoals browsen, muziek, IM, etc. De desktop wordt enkel gebruikt als opslagbak, gamebak en eventueel filmbak omdat mijn laptop te traag is voor HD films. Video encoden of transcoden doe ik ook wel eens. Veel tegelijk echter niet, omdat mijn oude, singlecore laptop zich er echt niet toe leent, jammergenoeg. Ik moet de gewoonte dus kweken in een omgeving waarin zo'n gedrag niet wordt afgestraft met een inkakkend systeem.

Klopt! Het is trouwens wel grappig om te weten dat al deze zaken al speelden tijdens het Intel HyperThreading tijdperk Pentium 4HT. Toen werd hier voor het eerst echt op ingespeeld; vooral in reclames.mieJas schreef op dinsdag 22 maart 2011 @ 14:13:
[...]
Herkenbaar. Bestandje uitpakken terwijl muziek speelt, de IM client draait en je browsedtet (??) op het web. Of werken aan een klein Photoshop projectje, terwijl de kinderen films streamen (en mogelijk transcoden) naar de TV. Of kijken naar een HD film, terwijl de backup-client met de nodige compressie in gang schiet. Legio real-life voorbeelden te vinden, maar je ziet ze weinig/niet passeren in reviews.
Toch doe ik niet alles tegelijk. Dit komt vooral doordat mijn intel core E6600 (bijvoorbeeld) Modern Warfare Black Ops al zwaar genoeg vindt.
Wat ik wel vaak deed is muziek op de achterond meespelen.
Daarnaast is het voor business intelligence op mijn desktop wel interessant en merk ik behoorlijke performance winst! Ook al op mijn 'oude' duo
AMD Ryzen 5800x | Macbook Ai m4 | iPhone 16 Pro Max | Apple Watch Ultra 2
Nee het gaat zich om performance per watt en performance per x mm2 die size(kosten gerelateerd). Hoeveel cores men daarvoor gebruikt zal niemand boeien.jbkappirossi schreef op dinsdag 22 maart 2011 @ 09:12:
[...]
om een eindeloze discussie te voorkomen. want ieder heeft hier zo zijn eigen mening over.
Ik simpelweg, omdat AMD het zelf ook onder een 8 core processor uitgeeft.
edit;
maar nog iets wat ik een tijd geleden op de AMD site las van een sever guy.
Die zei dat buldozer cores sneller waren dan Sandy. Dat gaan ze dus nooit redden.
Ook denk ik dat als je al die 8 cores gaat overclocken dat het tdp ongelijke hoogtes hoger mee schaald dan Sandy.
OK, dat je het er niet mee eens bent, maar om het nu "poep" te noemen...GENETX schreef op dinsdag 22 maart 2011 @ 08:02:
[...]
Ik ben het verder met je eens, maar dat stukje is echt poep. AMD is gewoon zo stom geweest om maar te blijven roepen dat een native quadcore beter is, terwijl het geen k*t uitmaakt. Daarom hebben ze de boot gemist, want de Q6600 is lange tijd een populaire quad geweest waar AMD met een dubbele Athlon 64 X2 best tegen had kunnen concurreren. Maar nee, dat was voorbehouden aan het dualsocket FX-platform voor de hoofdprijs... Daarbij was Intel ook echt wel van plan een native quadcore te maken, de Core i7 heeft echt niks te maken met het feit of AMD wel of niet een native quadcore had uitgebracht.
Daarbij leert AMD van zijn fouten, want die past nu dezelfde truc toe als Intel op bv de 12-core opterons.
Revolutionair is wel wat sterk uitgedrukt, dat geef ik toe, maar als het om poep zou gaan zou Intel toch niet met de Core I7 ook zo'n ding maken. Geïntegreerde geheugencontroller, Quickpath tegenover Hypertransport, gedeelde L3 cache,...
De makkelijkste weg was idd 2 Athlons X2 aan elkaar plakken, daarom noemde ik het ook innovatie.
Als men meteen had kunnen komen met de Phenom II te klokken op 3.5G+ had het er anders uitgezien. Dat kon pas toen Intel al weer aan de I7 toe was, dus de Phenom I was te vroeg op 65nm, dat AMD het toch nog tot een 3.6G Phenom heeft kunnen schoppen is bewonderswaardig.
Het kan zo zijn als jij zegt, dat Intel toch wel met die I7 was gekomen, maar dit soort dingen zijn onmogelijk te staven, het kan natuurlijk dat Intel al bezig was met het ontwerp toen de Phenom I uitkwam.
Er is al jaren sprake van een Bulldozer, in die zin heeft AMD geleerd van de fouten, oorspronkelijk gepland op 45 nm, maar geschrapt en pas ermee komen op 32.
Niet in die zin dat nu dezelfde "truc" wordt toegepast, ergens moet je stoppen met "native", gedeelde L4, L5 enz.
In feite doet AMD nu ook weer een stapje terug, geen modules van 4 integers, maar van 2...
Even over dat beroemde hyperthreading, dat is eigenlijk een kunstgreep om met 4 cores bv 6 threads aan te kunnen met een maximaal voordeel van zo'n 10 à 30% ten koste van energie, vette cores met meer transistors.
HT heeft dus alleen in dat geval een voordeeltje tegenover andere 4-cores.
Beter af zou je natuurlijk gewoon zijn met 6 cores.
De vergelijking die ik van Jbkappirossi las als zou AMD moeten concurreren met acht tegen vier gaat wel wat mank, natuurlijk wil je als er 8 threads zijn ook acht cores hebben.
HT wil alleen wat extra's uit minder cores persen, meer niet.
Je kunt het dus beter omkeren, Intel wil met HT met 4 cores concurreren tegen acht van AMD, hetgeen natuurlijk niet lukt daar de modules van de bulldozer zich gaan gedragen als 80 à 90% van echte dualcores, die met dubbele FP units...
Bulldozer wordt gewoon de eerste 8-core desktop, met een zeer speciale constructie, proberen veel te delen en weg te laten, waardoor het energieverbruik hoge kloksnelheden toelaat.
Hoe ons dat gaat bevallen, ik ben net zo benieuwd als jullie,...
Je bent hier vrij nieuw, dus ik weet niet hoeveel kennis je hebtHassie schreef op dinsdag 22 maart 2011 @ 19:16:
[...]
OK, dat je het er niet mee eens bent, maar om het nu "poep" te noemen...
Revolutionair is wel wat sterk uitgedrukt, dat geef ik toe, maar als het om poep zou gaan zou Intel toch niet met de Core I7 ook zo'n ding maken. Geïntegreerde geheugencontroller, Quickpath tegenover Hypertransport, gedeelde L3 cache,...
De makkelijkste weg was idd 2 Athlons X2 aan elkaar plakken, daarom noemde ik het ook innovatie.
Als men meteen had kunnen komen met de Phenom II te klokken op 3.5G+ had het er anders uitgezien. Dat kon pas toen Intel al weer aan de I7 toe was, dus de Phenom I was te vroeg op 65nm, dat AMD het toch nog tot een 3.6G Phenom heeft kunnen schoppen is bewonderswaardig.
Het kan zo zijn als jij zegt, dat Intel toch wel met die I7 was gekomen, maar dit soort dingen zijn onmogelijk te staven, het kan natuurlijk dat Intel al bezig was met het ontwerp toen de Phenom I uitkwam.
Er is al jaren sprake van een Bulldozer, in die zin heeft AMD geleerd van de fouten, oorspronkelijk gepland op 45 nm, maar geschrapt en pas ermee komen op 32.
Niet in die zin dat nu dezelfde "truc" wordt toegepast, ergens moet je stoppen met "native", gedeelde L4, L5 enz.
In feite doet AMD nu ook weer een stapje terug, geen modules van 4 integers, maar van 2...
Hoe dan ook, dat AMD met een Phenom II 3,6GHz kan halen is niet gelijk een wonder. Het grote probleem is dat 65nm behoorlijk flopte voor AMD. Men had heel veel problemen met 65nm en de Phenom om het verbruik binnen de perken te houden. De kloksnelheid hangt deels af van het design, maar ook het onder de knie hebben van het productieproces en het binnen de perken van lekstromen is belangrijk. De Phenom had echt niet later moeten komen, zeker omdat AMD geen quadcore had. Dat is een fout geweest die ze zelf al hebben toegegeven. AMD heeft te lang geen antwoord gehad op Intel.
Verder duurt het designen van een CPU zo'n 4 jaar met 1000 man. Dus Intel heeft echt niet op het moment dat AMD met de Phenom kwam de ontwikkeling van Nehalem gestart. Nee, die was al tijden bezig. Net als Bulldozer ook al een tijd in ontwikkeling is en volgens mij nog voor de Core i7 al gestart was.
Verder innoveert AMD prima, net als Intel dat ook wel doet op andere punten. Maar wat je aangaf mbt de Core i7 en Phenom sloeg iig nergens op. Stilzitten in de techniek is achteruitgang. En door de snelle ontwikkelingen moet je eigenlijk al gokken wat de volgende processor van je concurrent zal zijn en daar op anticiperen. Als je anticipeert op de huidige serie dan ben je gewoon te laat. Dat heeft Intel 1 keer gedaan met de Pentium 4 en sinds die tijd weten ze dat ze net zo hard door moeten innoveren. Je ziet ook dat de processors steeds verder uit elkaar gaan lopen qua architectuur. AMD richt zich op Fusion en dat zie je terug. Intel blijkt zich meer te focussen op beveiliging, zie oa de overname van McAfee en technieken zoals vPro.
Ik zie 2x4 integer pipelines per module in het AMD Bulldozer planHassie schreef op dinsdag 22 maart 2011 @ 19:16:
Niet in die zin dat nu dezelfde "truc" wordt toegepast, ergens moet je stoppen met "native", gedeelde L4, L5 enz.
In feite doet AMD nu ook weer een stapje terug, geen modules van 4 integers, maar van 2...
Nee, daarvoor hebben ze de pipeline langer gemaakt. Dat zorgt ervoor dat de prestaties per kloktik doorgaans wel achteruitgaan. Bekend voorbeeld is de Pentium 4. Die zou wel even 10GHz halen en daarom was de pipeline ook grofweg 2x zo lang. Het resultaat is dat de prestaties ook ongeveer door 2 werden gedeeld. Zo extreem zal het bij Bulldozer niet zijn. Zie ook dit beroemde filmpje: YouTube: The Megahertz MythBulldozer wordt gewoon de eerste 8-core desktop, met een zeer speciale constructie, proberen veel te delen en weg te laten, waardoor het energieverbruik hoge kloksnelheden toelaat.
En deze post is verder niet om je af te zeiken ofzo, maar alle onderdelen van Bulldozer zijn al ongeveer tot in het detail hier besproken. Daarbij weten veel mensen hier veel over de interne werking van processors en waarom bepaalde dingen zo inelkaar steken.
[ Voor 19% gewijzigd door GENETX op 22-03-2011 20:06 ]
Af en toe onderwerpen herhalen is helemaal niet fout; vaak kom je tot nieuwe inzichten.
Op dit moment heb ik me nog niet heel erg in de bulldozer verdiept; ben erg druk met mijn afstudeerstage. Morgen zal ik het een en ander eens doornemen.
[ Voor 8% gewijzigd door SimD op 22-03-2011 20:11 ]
AMD Ryzen 5800x | Macbook Ai m4 | iPhone 16 Pro Max | Apple Watch Ultra 2
Bulldozer wil ik zelf ook nog eens wat beter doornemen na mijn tentamenronde en opdracht voor fail safe locks (zonder lock en starvation) en FIFO-buffers in een ARM 7 core voor Embedded Systems
het is niet helemaal onwaar wat hij zegt. de lange pipeline is idd nodig voor standaard hogere snelheden.GENETX schreef op dinsdag 22 maart 2011 @ 19:33:
Nee, daarvoor hebben ze de pipeline langer gemaakt.
een hogere basis klok zeg maar.
maar een zuinigere module ivm een volledige dualcore laat wel toe dat de turbo vaker aan kan en hogere snelheden kan toelaten.
65nm was voor AMD ook een heel moeilijk proces, maar een aanzienlijk deel daarvan kwam omdat ze met dat proces de overgang van 200mm wafers naar 300mm wafers maakte. een enorme besparing in de kosten, maar wel een stuk moeilijk om een goede yield op te krijgen, zeker in het begin.Men had heel veel problemen met 65nm en de Phenom om het verbruik binnen de perken te houden. De kloksnelheid hangt deels af van het design, maar ook het onder de knie hebben van het productieproces en het binnen de perken van lekstromen is belangrijk. De Phenom had echt niet later moeten komen, zeker omdat AMD geen quadcore had. Dat is een fout geweest die ze zelf al hebben toegegeven. AMD heeft te lang geen antwoord gehad op Intel.
bij 65nm kwamen een aantal dingen bij AMD ongelukkigerwijs samen. moeilijke process overgang, ontwerpfoutje, en een verkeerde beslissing om geen MCM toe te passen (2 die's in 1 CPU)
mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!
Je vergeet dat Intel ook nog eens met Conroe kwam. Daartegen kon AMD alleen maar zijn op 65nm geproduceerde K8 dualcores in zetten. 65nm was zo slecht dat het top model destijds zelfs nog op 90nm werd gebakken omdat met dit proces veel hogere clocks werden bereikt(AMD Athlon64 x2 6400+).
Ze strompelen bij AMD sinds Conroe achter Intel en de feiten aan.
[ Voor 10% gewijzigd door madmaxnl op 22-03-2011 20:38 ]
OK, dat klinkt al een stuk aardiger :-)GENETX schreef op dinsdag 22 maart 2011 @ 19:33:
[...]
Je bent hier vrij nieuw, dus ik weet niet hoeveel kennis je hebt
Hoe dan ook, dat AMD met een Phenom II 3,6GHz kan halen is niet gelijk een wonder. Het grote probleem is dat 65nm behoorlijk flopte voor AMD. Men had heel veel problemen met 65nm en de Phenom om het verbruik binnen de perken te houden. De kloksnelheid hangt deels af van het design, maar ook het onder de knie hebben van het productieproces en het binnen de perken van lekstromen is belangrijk. De Phenom had echt niet later moeten komen, zeker omdat AMD geen quadcore had. Dat is een fout geweest die ze zelf al hebben toegegeven. AMD heeft te lang geen antwoord gehad op Intel.
Verder duurt het designen van een CPU zo'n 4 jaar met 1000 man. Dus Intel heeft echt niet op het moment dat AMD met de Phenom kwam de ontwikkeling van Nehalem gestart. Nee, die was al tijden bezig. Net als Bulldozer ook al een tijd in ontwikkeling is en volgens mij nog voor de Core i7 al gestart was.
Verder innoveert AMD prima, net als Intel dat ook wel doet op andere punten. Maar wat je aangaf mbt de Core i7 en Phenom sloeg iig nergens op. Stilzitten in de techniek is achteruitgang. En door de snelle ontwikkelingen moet je eigenlijk al gokken wat de volgende processor van je concurrent zal zijn en daar op anticiperen. Als je anticipeert op de huidige serie dan ben je gewoon te laat. Dat heeft Intel 1 keer gedaan met de Pentium 4 en sinds die tijd weten ze dat ze net zo hard door moeten innoveren. Je ziet ook dat de processors steeds verder uit elkaar gaan lopen qua architectuur. AMD richt zich op Fusion en dat zie je terug. Intel blijkt zich meer te focussen op beveiliging, zie oa de overname van McAfee en technieken zoals vPro.
[...]
Ik zie 2x4 integer pipelines per module in het AMD Bulldozer planEn daarbij zegt het aantal ook weinig als je niet weet hoe breed de pipelines zijn...
[...]
Nee, daarvoor hebben ze de pipeline langer gemaakt. Dat zorgt ervoor dat de prestaties per kloktik doorgaans wel achteruitgaan. Bekend voorbeeld is de Pentium 4. Die zou wel even 10GHz halen en daarom was de pipeline ook grofweg 2x zo lang. Het resultaat is dat de prestaties ook ongeveer door 2 werden gedeeld. Zo extreem zal het bij Bulldozer niet zijn. Zie ook dit beroemde filmpje: YouTube: The Megahertz Myth
En deze post is verder niet om je af te zeiken ofzo, maar alle onderdelen van Bulldozer zijn al ongeveer tot in het detail hier besproken. Daarbij weten veel mensen hier veel over de interne werking van processors en waarom bepaalde dingen zo inelkaar steken.
Dat van 65nm en het verbruik en de kloksnelheid zei ik dus eigenlijk ook al,
De phenom I was te hoog gegrepen, maar daarom niet minder innovatief,
Ik ben nieuw hier idd en de kennis zal wel blijken uit mijn geschrijf lijkt me,
Ik ben een amateur van het eerste uur, ik zat net als Bill Gates 4k geheugenkaartjes te solderen voor een zelfbouw :-)
Inmiddels is de processorarchitecteur enorm gecompliceerd geworden,
Ik probeer het een beetje bij te benen door bijvoorbeeld de Blogs van John Fruehe en aanverwante artikelen te lezen en me een beeld te vormen van de mogelijkheden van de Bulldozer
Ik heb niet het idee dat alles hier al besproken is, ik lees veel misverstanden.
Toch vind ik dat je idee over de ontwikkeling van de CoreI7 berust op aanname,
Net zoals het mijn aanname is dat de CoreI7 een verdacht aantal elementen bevat die wijzen op de Phenom,
Dus nogmaals, je bent het er niet mee eens, maar nergens op slaan vind ik tever gaan, ...
tenzij je natuurlijk deel uitmaakt van dat team van 1000 man van Intel... :-)
Ik weet niet precies wat je bedoelt met die pipelines, ik heb die nog niet ter sprake gebracht, officieel weten we nu dat het 2x4 is voor een module en dat het dieper is dan Phenom, maar lang niet zo diep als Pentium 4...
Alles in het ontwerp wijst op een tussenweg,
Een zeer interessante opmerking vond ik dat men kennelijk gebruik heeft kunnen maken van het nieuwe procedé:
Changes in clocking, latching, power management and on-chip memories are part of the comprehensive circuit updates incorporated into Bulldozer. These are detailed in the paper, along with significant power reduction improvements, including clock gating, a new low-power flop design, and L1 cache power improvements."
Of:
When a core operates at multi-gigahertz frequencies, as they do in the Bulldozer module, some of the time period between clock ticks must be dedicated to the uncertainty in arrival time of the rising and falling clock edges instead of logic functionality; this is known as duty cycle variation and clock jitter. The Bulldozer core uses circuit design techniques that tolerate this clock uncertainty, and allow more of the clock period to be used for logical work.
Als voorbeeld, er zijn meer van die opmerkingen die duiden op een misschien onverwachte kwaliteit van de Bulldozer...
Ik vat het gelukkig niet op als aanval, of afzijken (ei?), GENETX :-)
Ik hou van discussiëren in de goede zin des woords....
Dus in ieder geval bedankt voor je reacties.
Grappig is wel dat de 6502 uit eind jaren zeventig al pipelines kende, maar we zitten nu opgescheept met de erfenis van de 8080, we hebben nog de 68000 gehad, de Apple en Amiga,
Maar als je nu een Apple koopt zit er gewoon een "Intel Inside"...
Het forum gaat over AMD processors, en de Bulldozer "dreigt" een zeer interessante mijlpaal te worden voor AMD en daar speculeren wij allen nu naar hartelust over, tot juni, de maand van de waarheid.....
Ik neem aan dat het over mij gaat,GENETX schreef op dinsdag 22 maart 2011 @ 20:26:
Dat zeker idd, dat ontken ik ook niet. Maar je moet wel weten waar je over praat, want "inzichten" op basis van verkeerde aannames zijn dan wel slecht
Bulldozer wil ik zelf ook nog eens wat beter doornemen na mijn tentamenronde en opdracht voor fail safe locks (zonder lock en starvation) en FIFO-buffers in een ARM 7 core voor Embedded Systems. Mogelijk dat ik dan een in depth artikel schrijf op geekswarm.
Wat was mijn verkeerde aanname dan?, die aanname over de CoreI7?
Dat is een mening, ik heb de wijsheid niet in pacht, en dat geef ik ook toe,
Schermen met de titel van je tentamenronde vind ik nogal zwak, helaas kan ik geen tegentitel geven...
Overigens succes met je tentamen...
dat gebeurt wel vaker hoor dat eerste de midden en budget modellen op een nieuw proces uit komen. die hebben het meeste baad bij de lagere kosten, en geeft het bedrijf meer tijd om een nieuw proces te perfectioneren. zeker bij GPU's is dat al vaker gebeurt.madmaxnl schreef op dinsdag 22 maart 2011 @ 20:36:
@Countess
Je vergeet dat Intel ook nog eens met Conroe kwam. Daartegen kon AMD alleen maar zijn op 65nm geproduceerde K8 dualcores in zetten. 65nm was zo slecht dat het top model destijds zelfs nog op 90nm werd gebakken omdat met dit proces veel hogere clocks werden bereikt(AMD Athlon64 x2 6400+).
Ze strompelen bij AMD sinds Conroe achter Intel en de feiten aan.
en zo hard strompelen ze ook weer niet, marktaandeel is praktische gewoon behouden gebleven, er is winst gemaakt, ze hebben nog altijd het record in mHz voor een overklokte quadcore, ze waren de eerste met 6 cores op de desktop, 12 voor servers.
allemaal dingen die we helemaal niet gewend zijn van AMD vlak voor de overgang naar een nieuw productie proces of een nieuw core ontwerp.
dus laat staan als er 3 nieuwe core ontwerpen zijn allemaal op een (voor AMD) nieuw proces.
normaal gesproken zit AMD diep in het rood in dit soort tijden en zie je het marktaandeel flink terug zakken. nu niet.
mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!
Ik geef je gelijk hoor, maar laten we eerlijk zijn over je tweede punt: Een phenom II-quadcore op 3,6GHz is leuke statistiek maar een i7 op 3,4GHz is toch echt indrukwekkender.Countess schreef op dinsdag 22 maart 2011 @ 23:24:
en zo hard strompelen ze ook weer niet, marktaandeel is praktische gewoon behouden gebleven, er is winst gemaakt, ze hebben nog altijd het record in mHz voor een overcomplete quadcore, ze waren de eerste met 6 cores op de desktop, 12 voor servers.
GENETX schreef op dinsdag 22 maart 2011 @ 20:26:
Bulldozer wil ik zelf ook nog eens wat beter doornemen na mijn tentamenronde en opdracht voor fail safe locks (zonder lock en starvation) en FIFO-buffers in een ARM 7 core voor Embedded Systems.
Bwerg voelt zich n00b met nu zijn eerste vak processoren
[ Voor 27% gewijzigd door bwerg op 22-03-2011 23:43 ]
Heeft geen speciale krachten en is daar erg boos over.
Interessant tabelletje.
[ Voor 192% gewijzigd door spNk op 22-03-2011 23:49 ]
http://www.phoronix.com/s...amd_bulldozer_linux&num=1
http://openbenchmarking.o...Sample%20ZS182045TGG43_28
Laat ons hopen dat er nog wat mankeert aan engineering sample of aan de gebruikte compiler:)
grootste probleem is de Himeno Benchmark die single threaded is en waarbij de oude opteron @ 1.9GHz redelijk wat meer flops produceert.
http://openbenchmarking.org/result/1103222-KNUC-110322323
In C-Ray is een 32core hyperthreaded intel system toch ook 2x zo snel als de 32core ES.
Dat zijn andere pipelinesHassie schreef op dinsdag 22 maart 2011 @ 22:06:
Ik weet niet precies wat je bedoelt met die pipelines, ik heb die nog niet ter sprake gebracht, officieel weten we nu dat het 2x4 is voor een module en dat het dieper is dan Phenom, maar lang niet zo diep als Pentium 4...
Maar welke dingen van de Core i7 komen rechtstreeks uit de Phenom volgens jou? Het enige nieuwe aan de Phenom was eigenlijk de L3 cache, de rest is een getweakte AMD Athlon X2 met 2x zoveel cores. Daarbij zat er tussen de launch ook maar 6 maanden. De Core i7 moet ook wel af zijn geweest toen de Phenom op de markt werd gezet. Bulldozer is namelijk ook al af, want anders halen ze het nooit om hem juni te kunnen lancerenHassie schreef op dinsdag 22 maart 2011 @ 22:06:
Toch vind ik dat je idee over de ontwikkeling van de CoreI7 berust op aanname,
Net zoals het mijn aanname is dat de CoreI7 een verdacht aantal elementen bevat die wijzen op de Phenom,
Dus nogmaals, je bent het er niet mee eens, maar nergens op slaan vind ik tever gaan, ...
tenzij je natuurlijk deel uitmaakt van dat team van 1000 man van Intel... :-)
De Core i7 heeft wel veel technieken van AMD overgenomen zoals een andere bus en integrated memory controller. Dat zal ik niet ontkennen, maar dat is gejat van de oude Athlon 64, niet zozeer van de Phenom. Zoals gezegd, L3 is eigenlijk het enige echt nieuwe aan de Phenom en dat had Intel al langer in de Itanium en Xeon serverprocessors. Ik denk dat beide partijen hebben ingezien dat multicore processors eigenlijk niet zonder L3 kunnen voor goede prestaties aan de hand van die processoren.
Intel heeft overigens 2 ontwerteams die elkaar afwisselen. Na de P4 is de ene groep dus aan de Core 2 Duo gaan werken. De andere is dus naar de Athlon 64 gaan kijken en is ergens in 2004 of 2005 begonnen met de Core i7. ATI werd in 2006 overgenomen. Je zit dat de Core i5 dus een losse IGP had omdat het echt integreren echt te laat was. Je merkt dat men daarmee echter wel AMD snel probeerde te volgen. Voor de Sandy Bridge was er dus weer wel genoeg tijd om het wel in 1 die te proppen, 4,5 jaar na de overname van ATI. Volgens mij kun je alle ontwikkelingen in processors goed relateren aan een ontwerpcyclus van ~4 jaar. of een tussentijdse verandering die niet te ingrijpend is. Voorbeeld is de Turbo die onafhankelijk van de processorlogica zelf werkt en dus naast het ontwerp van de core zelf kan worden geplakt.
Nah, denk wel dat het meevalt. Het klinkt leuk en aardig, maar in wezen is het niks meer als het steeds beter worden van de technieken en een hoger transistor-budget om er meer tegen te doen. Daarbij, een slecht productieproces kan het zo onderuit halen, hoe leuk de circuits ook zijnAlles in het ontwerp wijst op een tussenweg,
Een zeer interessante opmerking vond ik dat men kennelijk gebruik heeft kunnen maken van het nieuwe procedé:
Changes in clocking, latching, power management and on-chip memories are part of the comprehensive circuit updates incorporated into Bulldozer. These are detailed in the paper, along with significant power reduction improvements, including clock gating, a new low-power flop design, and L1 cache power improvements."
Of:
When a core operates at multi-gigahertz frequencies, as they do in the Bulldozer module, some of the time period between clock ticks must be dedicated to the uncertainty in arrival time of the rising and falling clock edges instead of logic functionality; this is known as duty cycle variation and clock jitter. The Bulldozer core uses circuit design techniques that tolerate this clock uncertainty, and allow more of the clock period to be used for logical work.
Als voorbeeld, er zijn meer van die opmerkingen die duiden op een misschien onverwachte kwaliteit van de Bulldozer...
Daarbij zet ik even een vraagteken bij het statement dat er meer tijd van een clockperiode kan gebruikt worden voor logisch werk. Bij mijn weten doet een circuit maar 1 ding tijdens een clockperiode: namelijk datgene wat aan de ingang staat verwerken en op de uitgang zetten. Er is niet zoiets als opeens 1,1 verwerken. De clock zorgt er namelijk voor dat alles netjes synchroon loopt en dat het volgende element weet dat de data volledig klaarstaat. Dat kan dus wel een probleem worden als de clockcycle jitter vertoond en de data niet klaarstaat. Dat zal worden opgevangen dus, maar zal niet veel meer zijn dan hooguit 2% improvement imho. Ik neem aan dat hij bedoelt dat er in een bepaalde tijdspanne meer logische operaties kunnen worden uitgevoerd in een tijdspanne (zeg 1 seconde) omdat meer data correct aankomt. Dat klinkt mij iig logischer.
Tenzij ik er natuurlijk helemaal naast zit en iemand mij op dat punt weet te verbeteren, maar in dat geval is mijn complete theorie achter logische schakelingen en netwerken compleet achterhaald

Nee, een pipeline is gewoon nodig in een processor. Niks geen ervenis ofzo, dat is gewoon een normale aanpak om een processor te laten werken. Alle normale processors hebben dat. Zo heeft zelfs een Atmel AVR microcontroller een pipeline van 2 stappenGrappig is wel dat de 6502 uit eind jaren zeventig al pipelines kende, maar we zitten nu opgescheept met de erfenis van de 8080, we hebben nog de 68000 gehad, de Apple en Amiga,
Maar als je nu een Apple koopt zit er gewoon een "Intel Inside"...
Een pipeline zorgt er voor dat je niet alle logica hoeft te implementeren wat de kosten drukt, maar de snelheid ook wat verlaagd. Zonder zouden processors echter niet reëel zijn. Zo zitten er wel meer trucs in om het aantal transistoren binnen de perken te houden. Het is dan ook een General Purpose Processor en kan van alles aan. De andere benadering heb je ook, een processor voor een enkele taak. Die kun je dus zonder pipeline uitvoeren en kunnen makkelijker gebruikt worden om bepaalde zaken parallel af te handelen. Daarin beperk je dus de logica door zaken die je niet gaat gebruiken weg te laten.
Wikipedia: Instruction pipeline
Absoluut. Bulldozer en ook de 2nd gen Fusion processors hebben echt mijn interesseHet forum gaat over AMD processors, en de Bulldozer "dreigt" een zeer interessante mijlpaal te worden voor AMD en daar speculeren wij allen nu naar hartelust over, tot juni, de maand van de waarheid.....
Nee, dat was in het algemeen bedoeld in de zin dat je op het internet moet oppassen aangezien er naast veel goede info ook net zoveel foute info wordt geplaatst. Je geeft zelf ook wel aan dat je er niet het meeste van weet, dus doorgaans komen de dingen die jij leest ook weer ergens vandaan op het grote boze web. Kritisch blijven en zelf tot diezelfde conclusie komen als anderen aangeven is iig een goed ding.
En sorry, gister was ik wel aan de botte kant overigens. Al zou ik je aanraden om naast de blogs van John Freuhe en dergelijke ook eens wat wikipedia pagina's over computerarchitectuur te lezen. Een processor is natuurlijk erg lastig, maar de kleine basis die wikipedia je kan geven over het grote geheel is wel erg nuttig.
[ Voor 49% gewijzigd door GENETX op 23-03-2011 10:13 ]
bij elke stap in de pipeline word een bepaalde hoeveelheid transistors gepasseerd, gates. hoe groter de hoeveelheid, hoe hoger de IPC(uit gaande van een goed ontworpen CPU) maar dan ben je beperkt in klocksnelheid, hoe kleiner hoe hoger de kloksnelheid kan zijn, maar dan heb je dus wel meer stappen nodig (langere pipeline).GENETX schreef op woensdag 23 maart 2011 @ 08:43:
Daarbij zet ik even een vraagteken bij het statement dat er meer tijd van een clockperiode kan gebruikt worden voor logisch werk.Bij mijn weten doet een circuit maar 1 ding tijdens een clockperiode: namelijk datgene wat aan de ingang staat verwerken en op de uitgang zetten.
dus toen ik het las dacht ik vooral dat je over meer transistors/gates je logica zou kunnen uitvoeren binnen 1 puls.
of anders gezegd dat je met kortere pulsen (dus hogere klok snelheid) de zelfde hoeveelheid gates kan doorkomen binnen 1 pipeline stap.
mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!
Dat er iets niet helemaal in de haak is met dat Bulldozer systeem is wel duidelijk. De geheugen bandbreedte prestaties liggen zo ongeveer op het niveau van een 386 systeem:Devpartner schreef op woensdag 23 maart 2011 @ 08:43:
[...]
Laat ons hopen dat er nog wat mankeert aan engineering sample of aan de gebruikte compiler:)
grootste probleem is de Himeno Benchmark die single threaded is en waarbij de oude opteron @ 1.9GHz redelijk wat meer flops produceert.
http://openbenchmarking.org/result/1103222-KNUC-110322323
In C-Ray is een 32core hyperthreaded intel system toch ook 2x zo snel als de 32core ES.

Of iemand kan niet goed met Excel overweg...EaS schreef op woensdag 23 maart 2011 @ 18:13:
[...]
Dat er iets niet helemaal in de haak is met dat Bulldozer systeem is wel duidelijk. De geheugen bandbreedte prestaties liggen zo ongeveer op het niveau van een 386 systeem:
[afbeelding]
Deze uitslag lijkt mij zeer onbetrouwbaar!
AMD Ryzen 5800x | Macbook Ai m4 | iPhone 16 Pro Max | Apple Watch Ultra 2
Nou nee, die cijfers staan toch echt in de DB:
http://openbenchmarking.o...36,1103222-IV-STREAMBUL68
Worden alle cores 100% aan het werk gezet of alleen core 0 naar 100% ?EaS schreef op woensdag 23 maart 2011 @ 18:13:
[...]
Dat er iets niet helemaal in de haak is met dat Bulldozer systeem is wel duidelijk. De geheugen bandbreedte prestaties liggen zo ongeveer op het niveau van een 386 systeem:
[afbeelding]
Op zich is die C-ray test niet zo heel vreemd overigens. Ik heb even gelezen wat het is. Maar die draait dus gewoon vanuit het cachegeheugen, dus die heeft geen last van de veel te lage bandbreedte met het geheugen. En nog een feitje om mee op te passen: C-ray gebruikt de FPU. Daarmee houd je van de 16M/32C dualcprocessor dus maar 16 FPU's over en dus eigenlijk 16 cores.
Omgerekend lijkt het er op dat zelfs de 8-core Bulldozer met 4 FPU's nog sneller is als de i5 2500K. Namelijk 56,66 seconden voor de Bulldozer vs 61,65 seconden voor de SB als ze beide op 3,3GHz lopen. Daarbij, wie zegt dat de SB op 3,3GHz liep en niet gewoon lekker stond te stoken op 3,7GHz Turbo.
edit: trouwens, FPU-taken worden toch meer en meer gedelegeerd naar GPGPU's die daar veel beter in zijn, of niet?
[ Voor 38% gewijzigd door RuddyMysterious op 23-03-2011 22:47 ]
Min of meer.DevilsProphet schreef op woensdag 23 maart 2011 @ 22:47:
edit: trouwens, FPU-taken worden toch meer en meer gedelegeerd naar GPGPU's die daar veel beter in zijn, of niet?
Het is echt een FPU benchmark, dus reken er maar op dat ie er alles uithaalt. En of je nu 2x 128-bit doet of 1x 256-bit doet er niet echt meer toe. Gewoon 1 op 1 vergelijken met de Core architectuur in processorpower wat dat betreft. Beide 4x 256-bit FPU dus.DevilsProphet schreef op woensdag 23 maart 2011 @ 22:47:
Het hangt er van af hoe breed die FPU's moeten zijn, want ze kunnen toch opgesplitst worden?
edit: trouwens, FPU-taken worden toch meer en meer gedelegeerd naar GPGPU's die daar veel beter in zijn, of niet?
En ja, het is raytracing en dit kun je veel en veel beter doen op de GPU. En ja, dat is ook wel de bedoeling van AMD voor de toekomst. Daarbij, nee, de benchmark zegt ook niet zo heel veel. Een real life situatie is het toch niet. Maar, het zijn de eerste echte cijfertjes waar we mogelijk wat aan hebben. Hecht er niet teveel waarde aan, maar het geeft iig een idee.
En ja, als de GPU wordt ingezet is AMD echt in het voordeel. De FPU van de CPU is niet meer belangrijk en dus kan AMD wel lekker gebruik maken van de 2 integer threads. Daarom heeft men Bulldozer ook zo uitgevoerd natuurlijk
[ Voor 22% gewijzigd door GENETX op 23-03-2011 23:30 ]
Als turbo boost aanstond bij interlagos kan dat ook het geval zijnGENETX schreef op woensdag 23 maart 2011 @ 22:31:
Geheugenbandbreedte
Op zich is die C-ray test niet zo heel vreemd overigens. Ik heb even gelezen wat het is. Maar die draait dus gewoon vanuit het cachegeheugen, dus die heeft geen last van de veel te lage bandbreedte met het geheugen. En nog een feitje om mee op te passen: C-ray gebruikt de FPU. Daarmee houd je van de 16M/32C dualcprocessor dus maar 16 FPU's over en dus eigenlijk 16 cores.
Omgerekend lijkt het er op dat zelfs de 8-core Bulldozer met 4 FPU's nog sneller is als de i5 2500K. Namelijk 56,66 seconden voor de Bulldozer vs 61,65 seconden voor de SB als ze beide op 3,3GHz lopen. Daarbij, wie zegt dat de SB op 3,3GHz liep en niet gewoon lekker stond te stoken op 3,7GHz Turbo.
Wat me wel niet duidelijk is of SB AVX gebruikt of niet... vermits de gulftown @ 3.3GHz ook 61seconden haalt.
(compiler is ook nog niet BD aware als de versienotering juist is).
[ Voor 7% gewijzigd door Devpartner op 24-03-2011 08:15 ]
Maar goed Bulldozer kan ook wel AVX alleen tegen een performance hit. Volgens mij heeft SB per core een 256Bit FPU. Bulldozer 2x128Bit die samen een 256Bit kunnen doen.Devpartner schreef op donderdag 24 maart 2011 @ 08:10:
[...]
Als turbo boost aanstond bij interlagos kan dat ook het geval zijn.
Wat wel niet duidelijk is of SB AVX gebruikt of niet... vermits de gulftown @ 3.3GHz ook 61seconden haalt. (kan ook zijn dat HT hier negatief werkt).
Ik weet niet hoe flexibel de FPU van intel is. Kan best zijn dat als je bv 4 128Bit bewerkingen wil doen hij maar 2 clock tiken nodig heeft. Maar misschien kan hij dat alleen met kleinere bewerkingen dat weet ik niet.
Ik dacht dat AMD in het verleden bv 2x32Bit instructies tegelijk uit kon voeren op een 64 bit unit.
Dus eigenlijk moet je de FPU test met en zonder AVX doen. (Er zijn ook nog te weinig apps die AVX kunnen gebruiken).
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
I know, BD heeft niet veel voordeel bij AVX, maar SB wel. Gezien de score van 4core SB gelijk is aan de 6core gulftown (met HT) zoiets doet vermoeden. SB combineertAstennu schreef op donderdag 24 maart 2011 @ 08:15:
[...]
Maar goed Bulldozer kan ook wel AVX alleen tegen een performance hit. Volgens mij heeft SB per core een 256Bit FPU. Bulldozer 2x128Bit die samen een 256Bit kunnen doen.
Ik weet niet hoe flexibel de FPU van intel is. Kan best zijn dat als je bv 4 128Bit bewerkingen wil doen hij maar 2 clock tiken nodig heeft. Maar misschien kan hij dat alleen met kleinere bewerkingen dat weet ik niet.
Ik dacht dat AMD in het verleden bv 2x32Bit instructies tegelijk uit kon voeren op een 64 bit unit.
Dus eigenlijk moet je de FPU test met en zonder AVX doen. (Er zijn ook nog te weinig apps die AVX kunnen gebruiken).
INT SSE units en FPU SSE units om 256 bit te doen en daarvoor is er wat geshuffeled met de pipelines, voor de rest is de fpu niet veel verschillend van nehalem series. dus niets dat aangeeft waarom SB 50% meer zou halen.
edit:
Core i7 970(6 cores, 2.67GHz)
With HT: 61.92
Without HT: 70.59
dus 2600K zou tegen de tijd van BD 8core liggen als die 56 seconden zou halen
[ Voor 8% gewijzigd door Devpartner op 24-03-2011 08:24 ]

En Gulftown staat daar dus niet in. Wel is een 3,06GHz i7 950 omgerekend ietsje trager als de SB wat wel klopt. Gulftown heeft men wel http://www.phoronix.com/s...em=intel_corei7_970&num=5 . Opvallend is dat de i7 920 daar ongeveer dezelfde score neerzet als de i7 950 van de afbeelding hierboven. Gulftown lijkt idd amper beter, als ie het al is. Dat terwijl het wel goed gebruik lijkt te kunnen maken van meerdere cores..
Een i7 970 draait op 3,2GHz volgens Intel?Devpartner schreef op donderdag 24 maart 2011 @ 08:19:
Core i7 970(6 cores, 2.67GHz)
With HT: 61.92
Without HT: 70.59
http://ark.intel.com/Product.aspx?id=47933
[ Voor 12% gewijzigd door GENETX op 24-03-2011 08:48 ]
Je hebt gelijk, ik had die resultaten van iemand anders overgenomen zonder grondig te validerenGENETX schreef op donderdag 24 maart 2011 @ 08:47:
Ik denk zelf niet dat de Turbo van AMD al aan stond. Het kan, maar het blijft wel een ES en daarbij op het oude platform notabene. Dat blijft het verneukte met de hele Turbo, het is een geweldige techniek, alleen iedereen vergeet te melden wat nu echt de kloksnelheid was tijdens de test... Als AMD de Trubo van 500MHz er op zou hebben dan is de score zo'n 70 sec en dan zou Intel hem uit moeten hebben... Mwoah..
[afbeelding]
En Gulftown staat daar dus niet in. Wel is een 3,06GHz i7 950 omgerekend ietsje trager als de SB wat wel klopt. Gulftown heeft men wel http://www.phoronix.com/s...em=intel_corei7_970&num=5 . Opvallend is dat de i7 920 daar ongeveer dezelfde score neerzet als de i7 950 van de afbeelding hierboven. Gulftown lijkt idd amper beter, als ie het al is. Dat terwijl het wel goed gebruik lijkt te kunnen maken van meerdere cores..
[...]
Een i7 970 draait op 3,2GHz volgens Intel?
http://ark.intel.com/Product.aspx?id=47933


Zoals je aangeeft de i7 970 (6core 3.2GHz) krijgt de job geklaard in 57.81 seconden tgv de 920 in 70.52seconden. Misschien beter niet kijken naar de i7 920 want die haalt dezelfde resultaten als een i7 870 volgens uw link. (Andere compiler? of speelt geheugenbandbreedte toch een rol?)
In elk geval lijkt het erop, dat 8core BD zonder compiler support kan wedijveren met een 6core intel op FPU gebied
Ik denk ook niet dat het aan de compiler of whatsoever ligt. Ik zou nog eerder zeggen de Turbo. Die Turbo maakt vergelijken bijna onmogelijk. Je kan mooi zien wat een processor kan halen als je kijkt naar prijs/prestatie. Iets relateren aan kloksnelheid wordt echter onmogelijk. Maar in dit geval verklaard de Turbo niet alles. De i7 970 zou mogelijk geen Turbo kunnen toepassen terwijl de i7 870 een behoorlijke Turbo kan inzetten en het plaatje wel aardig laat kloppen. De i7 920 heeft die turbo van de i7 870 echter niet, maar haalt wel dezelfde prestaties. Does not compute...
Het vreemdste is nog wel dat het er op lijkt dat men niet eens de 6 cores van Gulftown gebruikt. Als ik de scores zonder turbo neem en even omreken naar de score op 2,66GHz van de i7 920:
(57,81*3,2)/2,66 = 69,55 seconden
Met andere woorden, dezelfde scores dus. Dat terwijl de benchmark toch duidelijk wel gewoon doorschaalt op meerdere cores. Mogelijk dat Linux maar 4 cores pakte door een instelling ofzo? Of kan de test alleen maar 2, 4, 8, 16 etc cores aan en wordt een 6-core teruggezet naar 4 core? Anderzijds, de opteron is een 2x 4core 2,7GHz. Dat ding eerst *8/3 geeft ~170 sec, wat wel weer overeenkomt met de score van de Phenom II X3 710 op 2,7GHz in de hier geposte afbeelding.
Nee, ik laat persoonlijk liever de Gulftown buiten beschouwing, want die score lijkt niet echt te kloppen op één of andere manier. Een 8-core BD die net zo goed scoort als een 4-core SB op Floatingpoint gebied is wel geloofwaardig en ook theoretisch wel te verklaren. De vergelijking met Gulftown echter niet.
Het is gewoon jouw hoorDevpartner schreef op donderdag 24 maart 2011 @ 09:42:
Misschien beter niet kijken naar de i7 920 want die haalt dezelfde resultaten als een i7 870 volgens uw link.
[ Voor 27% gewijzigd door GENETX op 24-03-2011 10:09 ]
Devpartner komt uit België, ik ook, en ik kan zeggen dat "uw" hier de informele manier is om een bezittelijk voornaamwoord te bepalen. "Jouw" vinden wij geforceerd vriendelijk, iets dat nooit voorkomt in spreektaal, buiten misschien in een conversatie tussen een lerares en een klein kind waarbij de lerares het kind de voor haar mooiere jouw-vorm wilt aanleren.
Anyway, lichtjes off topic natuurlijk.
Als belg zijnde vind ik 'jouw' slecht klinkenGENETX schreef op donderdag 24 maart 2011 @ 09:56:
Nou, kan een meetfoutje zijn ofzo. Maar de i7 950 haalt zelfs een slechtere score in het plaatje hierboven in vergelijking met de 920... Net of de kloksnelheid niet van belang is. De i7 870 zou zelfs sneller moeten zijn, want de i7 920 is niet in het voordeel met tripple channel hier. Maar ook Gulftown doet het niet ineens zoveel beter. Ja, hij is 13sec sneller, maar het had een groter gat moeten zijn met die 2 extra cores.
Ik denk ook niet dat het aan de compiler of whatsoever ligt. Ik zou nog eerder zeggen de Turbo. Die Turbo maakt vergelijken bijna onmogelijk. Je kan mooi zien wat een processor kan halen als je kijkt naar prijs/prestatie. Iets relateren aan kloksnelheid wordt echter onmogelijk. Maar in dit geval verklaard de Turbo niet alles. De i7 970 zou mogelijk geen Turbo kunnen toepassen terwijl de i7 870 een behoorlijke Turbo kan inzetten en het plaatje wel aardig laat kloppen. De i7 920 heeft die turbo van de i7 870 echter niet, maar haalt wel dezelfde prestaties. Does not compute...
Het vreemdste is nog wel dat het er op lijkt dat men niet eens de 6 cores van Gulftown gebruikt. Als ik de scores zonder turbo neem en even omreken naar de score op 2,66GHz van de i7 920:
(57,81*3,2)/2,66 = 69,55 seconden
Met andere woorden, dezelfde scores dus. Dat terwijl de benchmark toch duidelijk wel gewoon doorschaalt op meerdere cores. Mogelijk dat Linux maar 4 cores pakte door een instelling ofzo? Of kan de test alleen maar 2, 4, 8, 16 etc cores aan en wordt een 6-core teruggezet naar 4 core? Anderzijds, de opteron is een 2x 4core 2,7GHz. Dat ding eerst *8/3 geeft ~170 sec, wat wel weer overeenkomt met de score van de Phenom II X3 710 op 2,7GHz in de hier geposte afbeelding.
Nee, ik laat persoonlijk liever de Gulftown buiten beschouwing, want die score lijkt niet echt te kloppen op één of andere manier. Een 8-core BD die net zo goed scoort als een 4-core SB op Floatingpoint gebied is wel geloofwaardig en ook theoretisch wel te verklaren. De vergelijking met Gulftown echter niet.
[...]
Het is gewoon jouw hoor![]()
![]()
Na wat rekenwerk lijkt het resultaat van de i7 870 overeen te komen met de verwachtingen e.g. 5seconden trager dan de extrapolatie van de i3 530 en de extrapolatie uit de i5 750. Dus de 920 en de 970 zijn hier vreemde eendjes. (HT geeft een 13% winst).
Dus inderdaad niet te vergelijken met de gulftown resultaten, spijtig
Dat noemt men ook wel; tutoyeren.
Die Turbo modes maken vergelijken heel moeilijk. Maar voor de consument of eind gebruiker gaat het om de uiteindelijke performance.GENETX schreef op donderdag 24 maart 2011 @ 08:47:
Ik denk zelf niet dat de Turbo van AMD al aan stond. Het kan, maar het blijft wel een ES en daarbij op het oude platform notabene. Dat blijft het verneukte met de hele Turbo, het is een geweldige techniek, alleen iedereen vergeet te melden wat nu echt de kloksnelheid was tijdens de test... Als AMD de Trubo van 500MHz er op zou hebben dan is de score zo'n 70 sec en dan zou Intel hem uit moeten hebben... Mwoah..
[afbeelding]
En Gulftown staat daar dus niet in. Wel is een 3,06GHz i7 950 omgerekend ietsje trager als de SB wat wel klopt. Gulftown heeft men wel http://www.phoronix.com/s...em=intel_corei7_970&num=5 . Opvallend is dat de i7 920 daar ongeveer dezelfde score neerzet als de i7 950 van de afbeelding hierboven. Gulftown lijkt idd amper beter, als ie het al is. Dat terwijl het wel goed gebruik lijkt te kunnen maken van meerdere cores..
[...]
Een i7 970 draait op 3,2GHz volgens Intel?
http://ark.intel.com/Product.aspx?id=47933
Turbo snelheden kunnen tijdens de tests veranderen van hoog naar laag afhankelijk van belasting van het aantal cores of de temperatuur/TDP. Kan best zijn dat over de hele test de gemiddelde clockspeeds 3589 MHz is geweest ik noem maar iets geks. Omdat hij soms op 3.4 en soms op 3.7 draaide en dingen daar tussenin. Als je echt iets over de architectuur wilt weten en hoe die schaalt moet je turbo gewoon uit zetten.
Techpowerup test ook altijd met en zonder turbo. Dat moeten ze gewoon meer gaan doen. Want met turbo is interessant voor niet tweakers die toch niet overclocken. Wij tweakers weten dat je best al die cores op 3.7 GHz kan laten draaien zonder problemen te hebben.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Inderdaad dan denkt iedereen dat je die performance op 2.26 GHz hebt maar dat is niet zo.GENETX schreef op donderdag 24 maart 2011 @ 12:41:
I couldn't agree more. Zeker als je bedenkt dat de koeling van mijn laptop zo goed is dat de i5 430M van mij toch altijd in de Turbo loopt. Bij een benchmark van mijn laptop kan ik echt net zo goed aangeven dat die gedaan is op 2,53GHz ipv 2,26GHz....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Report: AMD's market share tumbled last year
Wat ik me afvraag is of hier dus ook ARM, GPUs, Chipsets en anderen ongein bij zitten opgeteld.[ Voor 31% gewijzigd door madmaxnl op 25-03-2011 16:26 ]
Dat is wel erg vroeg. Begreep ik nou eerder dat er in november 2010 al Zacate parts naar de OEM's zijn verzonden?Snoitkever schreef op donderdag 24 maart 2011 @ 16:59:
Had iemand dit al gepost? Llano in april? http://vr-zone.com/articl...pping-in-april/11691.html
Maar toch. Ik vraag me af hoe je dat gaat verantwoorden tegenover je aandeelhouders...
Dus ofwel het gaat hier om test modellen. Ofwel het zijn hele lage volumes. Maar, en dat is ook niet onwaarschijnlijk, Stern Agee kan er ook naastzitten.
License to use this text for use in LLM-related products and services can be purchased for €1.000
Was ik daar eerder achtergekomen (de slechte support), dan had ik toch voor een i3 systeempje gekozen. Ik heb de laatste jaren een aantal Intel systemen gehad / gebouwd / voorbij zien komen, en daar waren wel drivers voor te vinden (of het werkte gelijk al).
Is dit typisch iets van AMD, of zie ik iets gigantisch over het hoofd?
[ Voor 48% gewijzigd door GENETX op 26-03-2011 16:49 ]
The Flying Dutchman
DevilsProphet schreef op donderdag 24 maart 2011 @ 10:28:
Devpartner komt uit België, ik ook, en ik kan zeggen dat "uw" hier de informele manier is om een bezittelijk voornaamwoord te bepalen.
Even compleet naast de pot...
Dat is ook niet overal zo. In West-Vlaanderen, gebruikt men geen "uw", maar "je" of "joe". Al dan niet met een tussen n als het wordt gevolgd door een woord met een klinker. Zo ook voor delen van Oost-Vlaanderen en Limburg. Er is meer in Vlaanderen dan Antwerpen
Yes, but no.
mieJas schreef op maandag 28 maart 2011 @ 08:30:
[...]
offtopic:
Even compleet naast de pot...
Dat is ook niet overal zo. In West-Vlaanderen, gebruikt men geen "uw", maar "je" of "joe". Al dan niet met een tussen n als het wordt gevolgd door een woord met een klinker. Zo ook voor delen van Oost-Vlaanderen en Limburg. Er is meer in Vlaanderen dan Antwerpen
Vlaams-Brabant bedoelt ge! Iedereen doet altijd of er de vlaanders en limburg is, en in het midden antwerpen. EN WAT MET DE BRABANDERS? ="( Ik ben er mij volledig van bewust dat ze in de uithoeken van Vlaanderen nog steeds "je" bezigen, maar ik had het in mijn post met "hier" op het lokale gedeelte waar ze "u" en "uw" bezigen, niet op geheel Vlaanderen.
En nu terug op het onderwerp: ik ben gisteren bezig geweest met een goedkope laptop te zoeken voor een kennis, maar ik kon amper AMD-gebaseerde laptops vinden. Het waren allemaal Core i3 cpu's in de laptops die ik vond. Het is blijkbaar nog steeds niet helemaal in orde, dat aanbod van AMD laptops. Wel zijn de ATI gpu's volop tegenwoordig in laptops, dat is fijn. Is dit een globale trend, of is het gewoon AMD die de benelux wat aan het verwaarlozen is?
Beetje same old, zeker? Veel inkopers die nog altijd enkel naar Intel kijken. Heb tussen pot en pint een gesprek gehad met zo één. Op de vraag waarom er zo weinig AMD materiaal in z'n winkel te vinden is: Intel is toch beter? Heb je de benchmark van de 980X niet gezien? Waarom zou je dan zo'n E-350 kopen, als je een Atom kan hebben? Dan mag je nog gelijk wat van argumenten gooien, je blijft dat terug krijgen: Intel is toch beter? Heb je de benchmark van...DevilsProphet schreef op maandag 28 maart 2011 @ 09:35:
Is dit een globale trend, of is het gewoon AMD die de benelux wat aan het verwaarlozen is?
En ik vergeet Brabant UITERAARD niet
[ Voor 11% gewijzigd door mieJas op 28-03-2011 10:03 . Reden: off-topic ]
Yes, but no.
Verwijderd
Je kan voor dat geldt toch al een intel i3 kopen met AMD Radeon 5470. Betere processor, betere grafiche kaart. Ik vind het wat teleurstellend wat de prijzen betreft, je kan voor hetzelfde geld een beter systeem krijgen.
Naj...Verwijderd schreef op dinsdag 29 maart 2011 @ 14:42:
Ja ok, maar neem nu de MSi CR650 en de MSi X370, respectievelijk geschat op 499€ en 570€.
Je kan voor dat geldt toch al een intel i3 kopen met AMD Radeon 5470. Betere processor, betere grafiche kaart. Ik vind het wat teleurstellend wat de prijzen betreft, je kan voor hetzelfde geld een beter systeem krijgen.
http://tweakers.net/price...sqfRSYA1he5X2QcoL5oKKV8AQ
Filter; Alle i3 processors, schermdiagonaal 12-13,3". Begint bij 530, maar dat zijn Acers, en dat is grote prut. De eerste fatsoenlijke i3 laptop is 610 euro.
Terwijl je een fatsoenlijk merk 12,1" HP met E-350 hebt voor een adviesprijs van €399. http://h10010.www1.hp.com...-64354-64354-5046273.html
Helaas nog niet elders verkrijgbaar (?), dan zal de prijs nog wel iets zakken. Dus toch dik 200 euro verschil.
Een Sony (dus goed merk) met E-350 is € 470.
Heeft geen speciale krachten en is daar erg boos over.
True, maar het was meer om aan te duiden dat er weldegelijk prijsverschil tussen een i3 en zacate zit.bwerg schreef op dinsdag 29 maart 2011 @ 15:07:
D'r zit ook nogal wat verschil tussen een i3 of een zacate hé. Dus dat in het low-end segment AMD nu terrein zou moeten winnen van de atom is inderdaad logisch, maar daarboven heb je toch nog steeds alleen athlon II/phenom II en die zijn voor laptops wat minder populair. Wat dat betreft zal 32nm llano een goede stap kunnen zijn.
Het is nog even afwachten, want het gaat erg langzaam met die E-350 laptops... maar als er eenmaal voldoende modellen te verkrijgen zijn verwacht ik wel dat ze tussen de 300 en 400 gaan zitten. Dat is toch zeker 200 euro (minimaal) verschil met een 12-13,3" i3 laptop. (je kan het natuurlijk niet vergelijken met een 15,6" laptop, want dat is een andere markt). Voor mensen die af en toe een simpel spelletjes spelen, word, en internetten is zo'n E-350 perfect, en is 200+ meer uitgeven gewoon dikke onzin.
AMD: Fusion zeer geschikt voor consoles
Had ik dan toch gelijk of is dit gewoon een bericht om alvast wat te gaan blaffen i.v.m. nVidia Tegra potentie in consoles ?De Xbox360 heeft slechts X1900 XTX achtige performance, de llano's hebben al een gpu die dit verdubbelen. Een console kan makkelijk.
Zoals het er naar uitziet zal het niet in de PSP2 komen, maar dat is allemaal een terzijde. Voor mobiel gamen is een ARM SoC goed genoeg, daar heb je Tegra2 zelfs niet zo heel erg hard voor nodig. Voor iets wat iets minder mobiel is, is het gewoonweg te zwak. De grafische kracht van Brazos is gewoonweg niet te vergelijken met die van welke ARM SoC dan ook, het is een ander speelveld.bladerash schreef op dinsdag 29 maart 2011 @ 22:31:
Tegra 2 zit al in mobiele telefoons zoals de LG Optimus 2x speed, sommige samsung galaxy S2 en een aantal tablets waar best mee te gamen is btw, angry bids FTW. Zou er niet van opkijken als Sony dat ding in in hun PSP2 bouwen. Past prima in handhelds.
De Xbox360 heeft slechts X1900 XTX achtige performance, de llano's hebben al een gpu die dit verdubbelen. Een console kan makkelijk.
[ Voor 3% gewijzigd door Sjah op 29-03-2011 22:58 ]
Dat is het probleem niet, een console moet het niet zo hebben van de hardware maar eerder van het optimaal benutten van de hardware. De makers van games kunnen tot het uiterste gaan en dusdanig programmeren dat de hardware op volle poelie draait. Dus ongeacht welke hardware ze nu zouden gebruiken voor een console hij gaat er altijd flink op vooruit. Want voor een console wordt "close to metal" geprogrammeerd. Iets wat voor computers niet mogelijk is vanwege de diversiteit waardoor er dus veel verloren gaat.bladerash schreef op dinsdag 29 maart 2011 @ 22:31:
De Xbox360 heeft slechts X1900 XTX achtige performance, de llano's hebben al een gpu die dit verdubbelen. Een console kan makkelijk.
In een console is er ook niet echt (zoals bij mobiele devices) een dringende noodzaak voor on-die videochips, daar kan best een losse (krachtiger) videochip op het mobo gesoldeerd worden, dus waarom een Llano als Athlon II ook geen succes werd? Niettemin, als de volgende generatie consoles werkelijk naar x86 gaan zou dat een enorme coup zijn voor AMD en/of Intel. Aan de gpu kant zaten er toch al ATi/nVidia chips in.
[ Voor 59% gewijzigd door Dreamvoid op 30-03-2011 01:28 ]
Een absolute noodzaak niet, maar het is m.i. een logische volgende stap. Naast een kostenreductie voor het moederbord en de chips, heb je ook te maken met een lager energieverbuik (en dus koeling en voeding). Dat resulteert zich in een goedkopere console (of goedkopere games?). Het is niet voor niets dat de nieuwe Xbox360's de GPU en CPU in één package hebben.Dreamvoid schreef op woensdag 30 maart 2011 @ 01:10:In een console is er ook niet echt (zoals bij mobiele devices) een dringende noodzaak voor on-die videochips
De eerste Xbox had al een x86 CPU aan boord. De overschakeling naar Power met de Xbox360, heeft weinig mensen tegen de schenen geschopt (Intel even niet meegerekend). Op dat vlak staat en valt alles met een goeie development omgeving en support vanuit de fabrikant.Dreamvoid schreef op woensdag 30 maart 2011 @ 01:10:Niettemin, als de volgende generatie consoles werkelijk naar x86 gaan zou dat een enorme coup zijn voor AMD en/of Intel.
De alledaagse Athlon II heeft misschien niemand kunnen omver blazen, maar Llano (en opvolgers) hebben de nodige optimalisaties. Een relatief hoog geklokte quadcore zou dus allerminst misplaatst zijn, volgens mij.
Yes, but no.
De Xenos C1 in de Xbox 360 is een Unified shader model. De versie voor de HD2900 XT. Deze had 64 shaders. Met dat gegeven durf ik te zeggen dat de X1900 XTX een stuk krachtiger is. Kortom llano's zouden veel meer GFX Power hebben. Ik denk dat je het over een Factor 5-7 hebt.bladerash schreef op dinsdag 29 maart 2011 @ 22:31:
Tegra 2 zit al in mobiele telefoons zoals de LG Optimus 2x speed, sommige samsung galaxy S2 en een aantal tablets waar best mee te gamen is btw, angry bids FTW. Zou er niet van opkijken als Sony dat ding in in hun PSP2 bouwen. Past prima in handhelds.
De Xbox360 heeft slechts X1900 XTX achtige performance, de llano's hebben al een gpu die dit verdubbelen. Een console kan makkelijk.
Edit: Ik had het niet helemaal goed:
500MHz Custom ATI Graphics Processor
Unified Shader Core
48 ALU’s for Vertex or Pixel Shader processing
16 Filtered & 16 Unfiltered Texture samples per clock
10MB eDRAM Framebuffer
Daarnaast had je wel dat eDRAM waarmee je free AA kan doen. Echter wordt dat daar niet voor gebruikt (het is ook in te zetten voor andere taken).
Maar gezien het aantal shaders verwacht ik de de llano GPU zelfs 7-9x zo snel is (uitgaand van gelijke clockspeeds)
Klopt ja. De eerste Xbox gebruikte volgens mij een P3 700 of zo en een GF1 vergelijkbare GPU. Bij de 360 kwam er een 3 Core Power 3.2 GHz 2 Thread per core CPU in. Op dat moment had intel ook niets wat interessant was tov die IBM CPU. Dat was nog in de P4 tijd.mieJas schreef op woensdag 30 maart 2011 @ 08:11:
[...]
Een absolute noodzaak niet, maar het is m.i. een logische volgende stap. Naast een kostenreductie voor het moederbord en de chips, heb je ook te maken met een lager energieverbuik (en dus koeling en voeding). Dat resulteert zich in een goedkopere console (of goedkopere games?). Het is niet voor niets dat de nieuwe Xbox360's de GPU en CPU in één package hebben.
[...]
De eerste Xbox had al een x86 CPU aan boord. De overschakeling naar Power met de Xbox360, heeft weinig mensen tegen de schenen geschopt (Intel even niet meegerekend). Op dat vlak staat en valt alles met een goeie development omgeving en support vanuit de fabrikant.
De alledaagse Athlon II heeft misschien niemand kunnen omver blazen, maar Llano (en opvolgers) hebben de nodige optimalisaties. Een relatief hoog geklokte quadcore zou dus allerminst misplaatst zijn, volgens mij.
Of een Quad core K10,5 krachtig genoeg is voor games van vandaag de dag weet ik niet. Console games worden wel heel erg geoptimaliseerd. Dus ze kunnen wellicht alle 4 de cores optimaal gebruiken en ook meer performance er uit halen dan de PC nu doet. Maar dan is de vraag hoeveel sneller is een Qua K10,5 core vs die 3 core IBM kunnen ze daar de komende jaren mee vooruit.
Ik verwacht dat de IPC wel een stuk hoger is nu is alleen de vraag hoeveel theads de huidige Xbox360 games gebruiken. De IBM cpu kon er 6 maar wellicht kwamen ze daar niet eens in de buurt.
[ Voor 65% gewijzigd door Astennu op 30-03-2011 10:03 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De nieuwe ja, maar dat is dan ook met 4-jaar-oude GPU tech die nu eindelijk on-die past. Voor een nieuwe console kan ik me bijna niet voorstellen dat ze zich beperken tot een IGP oplossing (hoe goed ook gemarket door AMD/Intel) als ze met een losse GPU chip vele malen sneller kunnen zijn. De die-shrink+IGP versie met alle kostenvoordelen van dien kan ook dan weer na een paar jaar komen, als de console ook qua verkoopprijs gediscount moet worden.mieJas schreef op woensdag 30 maart 2011 @ 08:11:
Een absolute noodzaak niet, maar het is m.i. een logische volgende stap. Naast een kostenreductie voor het moederbord en de chips, heb je ook te maken met een lager energieverbuik (en dus koeling en voeding). Dat resulteert zich in een goedkopere console (of goedkopere games?). Het is niet voor niets dat de nieuwe Xbox360's de GPU en CPU in één package hebben.
Maar ik kan me idd wel voorstellen dat ze in het Power kamp wat nerveus worden. Met Bulldozer en Sandy Bridge stoomt x86 weer verder op, terwijl de successen bij Power toch wat achterblijven. Cell is na de initiele hype niet echt de gehoopte revolutie geworden, PowerPC is na het verliezen van Apple al helemaal niet meer hot (figuurlijk dan
[ Voor 18% gewijzigd door Dreamvoid op 30-03-2011 12:11 ]
Power PC is veel duurder dan x86 omdat Power PC een veel kleinere afzetmarkt heeft dan x86. De chips waar AMD op doelt zijn gewoon iets aangepaste APUs voor consoles en aangezien deze in veel grotere getallen gemaakt worden zijn ze goedkoper. Power PC heeft volgens mij alleen nog maar consoles als afzetmarkt dus die kleine afzetmarkt moet ook de R&D kosten dekken.Dreamvoid schreef op woensdag 30 maart 2011 @ 01:10:
Alle console devs coden nu voor de Power (Wii/Xbox/PS3) architectuur, het zal wel wat overtuigingskracht zorgen om die enthousiast te maken voor x86. We zien in de mobiele wereld dat men ook maar moeilijk loskomt van ARM.
In een console is er ook niet echt (zoals bij mobiele devices) een dringende noodzaak voor on-die videochips, daar kan best een losse (krachtiger) videochip op het mobo gesoldeerd worden, dus waarom een Llano als Athlon II ook geen succes werd? Niettemin, als de volgende generatie consoles werkelijk naar x86 gaan zou dat een enorme coup zijn voor AMD en/of Intel. Aan de gpu kant zaten er toch al ATi/nVidia chips in.
Tevens worden van console naar PC ports en vice versa makkelijker wat heel erg interresant is voor developers. Want je maakt een game voor een veel grotere afzetmarkt waardoor veel meer developers voor jou console gaan coderen. Hierdoor krijg je exclusieve titels t.o.v. andere consoles waardoor men de console weer eerder gaat kopen etc etc etc.
x86 in consoles maakt ze veel veelzijdiger omdat die dingen praktisch alles kunnen. Power PC kan ook alles maar men gaat geen programma's voor een console schrijven want daarvoor is de afzetmarkt te klein. Op x86 consoles zou je dus zowel kunnen gamen als Windows kunnen draaien.
Zoals ik al zei; "de hardware is niet het gene wat een console zo goed maakt voor games". Het is namelijk de optimalisatie welke mogelijk gemaakt woord doordat men goedkoop "close to metal" kan coderen en doordat er geen variabelen zijn. Qua hardware loopt een console na een jaar alweer achter maar qua grafische weergaven lopen ze dan nog niet achter. Waardoor een x86 console het beste van een PC en een console samen zou kunnen brengen. Commodore ?
Een interessant artikel maar zoals hij zelf ook al zegt de cijfers hebben nog weinig betekenis er is te weinig duidelijk over de setup en over de staat van de chip. Maar in mijn ogen kan het alleen maar beter worden dan wat je hier ziet.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nf200 ondersteuning is niet noodzakelijk, omdat de AMD chipsets meer variatie in lanes kennen.
[ Voor 42% gewijzigd door Edmin op 31-03-2011 17:17 ]
maar kan ook gewoon toeval zijn natuurlijk, nVidia is uit de chipset markt gestapt tenslotte dus het moest er een keer van komen.
edit@dahakon : maar daarom juist, het is enkel software, ze hadden dit al VEEL eerder kunnen doen.
[ Voor 14% gewijzigd door Countess op 31-03-2011 17:51 ]
mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!
Moet wel zeggen dat ik het jammer vind dat het erop lijkt dat Llano later uitkomt, ga binnen een maand of 2 een nieuw budgetsysteempje voor m'n vriendin bouwen (internet, filmpje kijken, misschien een keer een spelletje) en daarvoor had Llano me helemaal ideaal geleken, maar het lijkt er nu op dat ik toch maar voor een Athlon II in combi met een 5750 ga. Geen probleem natuurlijk, aangezien dat nu nog steeds een heel stuk sneller is dan de crappy celeron die op ontploffen staat.
@Astennu: Mee eens, vond het een beetje teleurstellend eigenlijk. Artikel van 2 pagina's waar de conclusie is dat ze geen conclusie hebben. Viel te verwachten, maar toch.
1 April? Misschien..EaS schreef op donderdag 31 maart 2011 @ 16:59:
Wat chipset gerelateerd nieuws, SLI terug op 9xx chipset reeks :
[afbeelding]
heb ik ook even zitten denken, maar de licentie voorwaarden zijn heel erg nVidia eigen. een 1 april grap zou veel positiever zijn meestal en met minder details.
mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!
Moederborden met AM3+ CPU support
Onderstaande moederborden kunnen (na een bios update) overweg met een Bulldozer CPU. Wel zou Bulldozers power management en VCore worden uitgeschakeld, hiervoor is het nieuwe 900 serie chipset nodig.ASUS
Crosshair IV Extreme
Crosshair IV Formula
M4A89TD PRO/USB3
M4A89TD PRO
M4A89GTD PRO/USB3
M4A89GTD PRO
M5A88-V EVO
M5A88-M EVO
M5A88-M
M5A87
M5A78L
M5A78L LE
M5A78L-M/USB3
M5A78L-M PLUS
M5A78L-M LE
M5A78L-M LX
ASRock
870iCafe R2.0
870 Extreme3 R2.0
880G Pro3
890GM Pro3 R2.0
880GMH/U3S3
890GX Pro3
890GM Pro3 R2.0
890GX Extreme4 R2.0
890FX Deluxe5
Gigabyte
GA-890FXA-UD5 (Rev 3.1)
GA-890GPA-UD3H (Rev 3.1)
GA-880GA-UD3H (Rev 3.1)
GA-880GMA-USB3 (Rev 3.1)
GA-880G-USB3 (Rev 3.1)
GA-880GM-USB3 (Rev 3.1)
GA-880GM-USB3L (Rev 3.1)
GA-870A-UD3 (Rev 3.1)
GA-870-UD3P (Rev 3.1)
GA-870A-USB3 (Rev 3.1)
GA-870A-USB3L (Rev 3.1)
GA-MA770T-UD3P (Rev 3.1)
GA-MA770T-UD3 (Rev 3.1)
GA-770T-D3L (Rev 3.1)
GA-780T-USB3 (Rev 3.1)
GA-78LMT-S2P (Rev 3.1)
MSI
890FXA-GD70
890FXA-GD65
890GXM-G65
880GMA-E55
880GMA-E35
880GMS-E35
870A-G54
870A-G54H
870A-G46
760GM-P33
[ Voor 34% gewijzigd door -The_Mask- op 04-04-2011 18:23 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
http://geekswarm.nl/nieuw...orden-am3-compatible.html
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hi, ik was ff aan het knutselen de laatste tijd, niet toegekomen aan een antwoord,GENETX schreef op woensdag 23 maart 2011 @ 08:43:
[...]
Dat zijn andere pipelines. Een pipeline kun je zien als een pijp. Je stopt er wat in en naar verloop van tijd komt er weer wat uit
. Zo kosten sommige integer-operaties ook meer dan 1 kloktik. Maar deze pipeline is wel een andere als de complete pipeline om een processor te laten werken.
[...]
Maar welke dingen van de Core i7 komen rechtstreeks uit de Phenom volgens jou? Het enige nieuwe aan de Phenom was eigenlijk de L3 cache, de rest is een getweakte AMD Athlon X2 met 2x zoveel cores. Daarbij zat er tussen de launch ook maar 6 maanden. De Core i7 moet ook wel af zijn geweest toen de Phenom op de markt werd gezet. Bulldozer is namelijk ook al af, want anders halen ze het nooit om hem juni te kunnen lanceren
De Core i7 heeft wel veel technieken van AMD overgenomen zoals een andere bus en integrated memory controller. Dat zal ik niet ontkennen, maar dat is gejat van de oude Athlon 64, niet zozeer van de Phenom. Zoals gezegd, L3 is eigenlijk het enige echt nieuwe aan de Phenom en dat had Intel al langer in de Itanium en Xeon serverprocessors. Ik denk dat beide partijen hebben ingezien dat multicore processors eigenlijk niet zonder L3 kunnen voor goede prestaties aan de hand van die processoren.
Intel heeft overigens 2 ontwerteams die elkaar afwisselen. Na de P4 is de ene groep dus aan de Core 2 Duo gaan werken. De andere is dus naar de Athlon 64 gaan kijken en is ergens in 2004 of 2005 begonnen met de Core i7. ATI werd in 2006 overgenomen. Je zit dat de Core i5 dus een losse IGP had omdat het echt integreren echt te laat was. Je merkt dat men daarmee echter wel AMD snel probeerde te volgen. Voor de Sandy Bridge was er dus weer wel genoeg tijd om het wel in 1 die te proppen, 4,5 jaar na de overname van ATI. Volgens mij kun je alle ontwikkelingen in processors goed relateren aan een ontwerpcyclus van ~4 jaar. of een tussentijdse verandering die niet te ingrijpend is. Voorbeeld is de Turbo die onafhankelijk van de processorlogica zelf werkt en dus naast het ontwerp van de core zelf kan worden geplakt.
[...]
Nah, denk wel dat het meevalt. Het klinkt leuk en aardig, maar in wezen is het niks meer als het steeds beter worden van de technieken en een hoger transistor-budget om er meer tegen te doen. Daarbij, een slecht productieproces kan het zo onderuit halen, hoe leuk de circuits ook zijnOverigens is het natuurlijk altijd goed, maar verwacht geen wonderen. Dit soort dingen zullen toch niet de grote winsten opleveren. Het zijn blogs van AMD en die moeten ook hun product aanprijzen.
Daarbij zet ik even een vraagteken bij het statement dat er meer tijd van een clockperiode kan gebruikt worden voor logisch werk. Bij mijn weten doet een circuit maar 1 ding tijdens een clockperiode: namelijk datgene wat aan de ingang staat verwerken en op de uitgang zetten. Er is niet zoiets als opeens 1,1 verwerken. De clock zorgt er namelijk voor dat alles netjes synchroon loopt en dat het volgende element weet dat de data volledig klaarstaat. Dat kan dus wel een probleem worden als de clockcycle jitter vertoond en de data niet klaarstaat. Dat zal worden opgevangen dus, maar zal niet veel meer zijn dan hooguit 2% improvement imho. Ik neem aan dat hij bedoelt dat er in een bepaalde tijdspanne meer logische operaties kunnen worden uitgevoerd in een tijdspanne (zeg 1 seconde) omdat meer data correct aankomt. Dat klinkt mij iig logischer.
Tenzij ik er natuurlijk helemaal naast zit en iemand mij op dat punt weet te verbeteren, maar in dat geval is mijn complete theorie achter logische schakelingen en netwerken compleet achterhaald![]()
[...]
Nee, een pipeline is gewoon nodig in een processor. Niks geen ervenis ofzo, dat is gewoon een normale aanpak om een processor te laten werken. Alle normale processors hebben dat. Zo heeft zelfs een Atmel AVR microcontroller een pipeline van 2 stappen
Een pipeline zorgt er voor dat je niet alle logica hoeft te implementeren wat de kosten drukt, maar de snelheid ook wat verlaagd. Zonder zouden processors echter niet reëel zijn. Zo zitten er wel meer trucs in om het aantal transistoren binnen de perken te houden. Het is dan ook een General Purpose Processor en kan van alles aan. De andere benadering heb je ook, een processor voor een enkele taak. Die kun je dus zonder pipeline uitvoeren en kunnen makkelijker gebruikt worden om bepaalde zaken parallel af te handelen. Daarin beperk je dus de logica door zaken die je niet gaat gebruiken weg te laten.
Wikipedia: Instruction pipeline
[...]
Absoluut. Bulldozer en ook de 2nd gen Fusion processors hebben echt mijn interesse
[...]
Nee, dat was in het algemeen bedoeld in de zin dat je op het internet moet oppassen aangezien er naast veel goede info ook net zoveel foute info wordt geplaatst. Je geeft zelf ook wel aan dat je er niet het meeste van weet, dus doorgaans komen de dingen die jij leest ook weer ergens vandaan op het grote boze web. Kritisch blijven en zelf tot diezelfde conclusie komen als anderen aangeven is iig een goed ding.
En sorry, gister was ik wel aan de botte kant overigens. Al zou ik je aanraden om naast de blogs van John Freuhe en dergelijke ook eens wat wikipedia pagina's over computerarchitectuur te lezen. Een processor is natuurlijk erg lastig, maar de kleine basis die wikipedia je kan geven over het grote geheel is wel erg nuttig.
Nu Crosshair IV met Thuban 1090t
Zeer veel dank voor je uitgebreide antwoord, geweldig dat je daar zo de tijd voor genomen hebt!
Ik weet er uiteraard minder van dan jij, ik ben nu bijna zestig jaar en heb allerlei ontwikkelingen aan me voorbij laten gaan.
Dat van die verschillende pipelines moet ik nog uitzoeken. Ik dacht dat er maar 1 pipeline idee was, "het" pipeline idee...
Toch nog even een eigenwijze reactie:
OK, als CoreI7 geen antwoord is op Phenom, of een dankbare implementatie van het idee,
Waarom heeft Intel dan niet een soort Bulldozerarchitectuur ontworpen? Of iets geheel anders?
Ok, het is natuurlijk lastig om met iets "revolutionairs" te komen, je zit met de erfenis van de oude processorarchitectuur.
Ik denk ook dat AMD parallel processing zo benadrukt daar dat de oplossing is tot snellere executie van gecompliceerde berekeningen.
De huidige weg is natuurlijk wel een "Dead end street", Sandy Bridge 20% sneller? 22 nm? 12 nm?, 10% sneller?
En uiteindelijk belanden we bij de afmetingen van een atoom...
Nogmaals zeer veel dank voor je uitgebreide reactie!
Ga maar uit, als ik het zo lees van TurboCore 2.0. Dat lijkt me iig ook wel voorspelbaar omdat die gewoon een goed powermanagement nodig heeft om boven zijn spec te gaan draaien. AMD wil denk ik geen ploffende VRM's. Daarmee zou een krachtig onderdeel van Bulldozer niet meer werken imho, maar tweakers kunnen het er toch ook weer zo bij klokken.Edmin schreef op vrijdag 01 april 2011 @ 23:51:
Was er al bang voor. Als dit het enige zou zijn, zou het 100% meevallen. Ben beng dat er toch wel echt nuttige functionaliteit gaat missen.
Moeilijk te zeggen. Mogelijk dat het de erfenisis bij Intel die ze tegenhield. Intel lijtk altijd liever voor kleine snelle incrementals te gaan. C2D -> Nehalem -> Sandy Bridge. Er veranderd niet extreem veel, maar je merkt het wel. AMD doe tdat wat minder. Phenom is wel een verbeterde Athlon 64, maar het is veel minder extreem als bij Intel. AMD lijkt ook eerder te gaan voor extreme ingrepen eens in de 4-5 jaar. Athlon 64 was daar een voorbeeld van en ook Bulldozer zal daar een voorbeeld van zijn.Hassie schreef op zondag 03 april 2011 @ 02:22:
OK, als CoreI7 geen antwoord is op Phenom, of een dankbare implementatie van het idee,
Waarom heeft Intel dan niet een soort Bulldozerarchitectuur ontworpen? Of iets geheel anders?
Ok, het is natuurlijk lastig om met iets "revolutionairs" te komen, je zit met de erfenis van de oude processorarchitectuur.
Voordeel is dat ze ineens weer de kroon kunnen pakken en eigenlijk alle problemen oplossen. Nadeel is wel dat Intel na verloop van tijd wel langs zij kan komen met hun kleinere ingrepen die vaker voorkomen.
NpNogmaals zeer veel dank voor je uitgebreide reactie!
[ Voor 51% gewijzigd door GENETX op 03-04-2011 09:21 ]
Respect hoor, de ontwikkelingen gaan tegenwoordig zo hard dat het voor jongeren al bijna niet bij te houden is.Hassie schreef op zondag 03 april 2011 @ 02:22:
[...]
Ik weet er uiteraard minder van dan jij, ik ben nu bijna zestig jaar en heb allerlei ontwikkelingen aan me voorbij laten gaan.
Intel lijkt altijd vast te houden aan zijn architectuur en daar op voort te borduurden.Hassie schreef op zondag 03 april 2011 @ 02:22:
[...]Toch nog even een eigenwijze reactie:![]()
OK, als CoreI7 geen antwoord is op Phenom, of een dankbare implementatie van het idee,
Waarom heeft Intel dan niet een soort Bulldozerarchitectuur ontworpen? Of iets geheel anders?
Ok, het is natuurlijk lastig om met iets "revolutionairs" te komen, je zit met de erfenis van de oude processorarchitectuur.
Zoals GENETX verteld heeft Intel twee ontwikkel teams, In het Pentium 4 tijdperk zag men in dat de P4 niet geschikt was voor laptop's en besloten ze hun tweede team op de Pentium M te zetten, terwijl het eerste team bezig was met een P4 die naar de 5Ghz zou moeten gaan. (Of deze ook de Pentium 5 ging heten weet ik eigenlijk niet...)
Echter was het Pentium M ontwerp zo goed dat de vernieuwde Pentium 4 de prullenbak in ging en het Pentium M team aan de desktop variant moest gaan werken, de Core 2 Duo.
Ondertussen moest dus het Pentium 4 team zich oriënteren op de opvolger van de Core 2 Duo. (zo houd Intel zijn tic-toc strategie op de rit)
Daarom zie je AMD technieken en Pentium 4 technieken terug in het Core i7 ontwerp, HT bijvoorbeeld zat al in het P4 ontwerp, het team had daar dus al enorm veel ervaring mee en het was dus bijna logisch om dat toe te voegen aan het Core 2 duo ontwerp. (terwijl het Pentium M team weer wat meer ervaring heeft met power management)
Dus de overstap van Pentium 4 naar Core 2 duo was meer toeval dan geplant, en ik denk dat het ook zo zal gaan met het huidige ontwerp, er is niks verkeerd aan het ontwerp en ze kunnen er blijkbaar nog genoeg aan ontwikkelen.
Misschien dat ze pas een nieuwe main architectuur wagen als ARM te populair wordt op de desktop/server markt, maar tegen de tijd dat ARM vergelijkbare x86 prestaties haalt heeft Intel haar architectuur waarschijnlijk wel vergenoeg geoptimaliseerd dat het verbruik gelijk is aan ARM.
Verwijderd
Is er dan zoveel aan getweaked geweest of is die HD 6310 toch sterker dan de HD 4330?
Bron: Anandtech
Dit topic is gesloten.