[Algemeen] AMD Nieuwsdiscussietopic - deel 34 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 35 ... 55 Laatste
Acties:
  • 342.355 views

Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op dinsdag 02 december 2014 @ 14:40:
De matige single-threaded performance verbaast me eigenlijk wel, ik had begrepen dat de Puma arch wat beter zou performen dan Silvermont maar daar is weinig van terug te zien.

En misschien ben ik wat te kritisch, maar ik vind de grootte van deze miniPC's nog altijd wat tegenvallend. We hebben nu al twee jaar een AppleTV van onder de 100 dollar met een qua grootte vergelijkbare SoC erin die in een behoorlijk wat kleinere behuizing zit dan de NUC's en Zotacs. Wat houdt Intel/AMD tegen om naar dat soort formaten te krimpen?
Dus je gaat serieus een primitieve ARM SoC vergelijken met een volwaardige X86 Quadcore + HD8250 ?
(N.B. + echte interne opslag en eigen geheugen / OS keuze)
Terwijl idd zoals hierboven al omschreven, AppleTV niet meer is dan een android stick in een Apple sausje.

Om nog maar te zwijgen over een IO rijkdom waar Apple nooit wat van begrepen heeft........

Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op dinsdag 02 december 2014 @ 14:40:
Wat houdt Intel/AMD tegen om naar dat soort formaten te krimpen?
Intel maakt ook de 'postzegelcomputer': http://www.techradar.com/...-big-step-forward-1223638

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Dus je gaat serieus een primitieve ARM SoC vergelijken
De Apple Ax chips zijn geen primitieve ARM SoC's, Apple's Cyclone architectuur zit qua complexiteit en performance-per-klok tussen Puma/Silvermont en Haswell in, en de PowerVR 6 GPU is dezelfde als in Intels Atom chips. In de ATV zit een oudere variant (op 32nm) maar Apple kan daar zonder problemen een moderne A7/A8 in schuiven.

[ Voor 16% gewijzigd door Dreamvoid op 02-12-2014 17:17 ]


Acties:
  • 0 Henk 'm!

  • chaoscontrol
  • Registratie: Juli 2005
  • Laatst online: 23:20
Dreamvoid schreef op dinsdag 02 december 2014 @ 17:14:
[...]

Apple's Cyclone architectuur zit qua complexiteit en performance-per-klok tussen Puma/Silvermont en Haswell in,
Bron?

[ Voor 9% gewijzigd door chaoscontrol op 02-12-2014 17:48 ]

Inventaris - Koop mijn meuk!


Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op dinsdag 02 december 2014 @ 17:14:
[...]

De Apple Ax chips zijn geen primitieve ARM SoC's, Apple's Cyclone architectuur zit qua complexiteit en performance-per-klok tussen Puma/Silvermont en Haswell in, en de PowerVR 6 GPU is dezelfde als in Intels Atom chips. In de ATV zit een oudere variant (op 32nm) maar Apple kan daar zonder problemen een moderne A7/A8 in schuiven.
ARM cpu's zijn extreem primitieve chips die qua complexiteit totaal niet kunnen meekomen met volwaardige Intel of AMD producten. ARM kan alleen een beperkt aantal taken zuinig uitvoeren.

Hence: "Reduced instruction set computing, or RISC"

Ter indicatie:

ARM cortex A9: 26 miljoen transistors
Modern Intel/AMD: 1 miljard transistors
https://www.google.com/fu...fbmxuteHl6RPEhQ#rows:id=1

Het vergelijken van een instap Intel / powerVR gpu met een volwaardig AMD GPU is ook vrij zinloos.

Die volgens jou moderne A11 zit in mijn Raspberry Pi B+ ,zelfs met geoptimaliseerde software draait als:
"On the CPU level the performance is similar to a 300 MHz Pentium II of 1997-1999"
http://en.wikipedia.org/wiki/Raspberry_Pi

Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
? ik zou die post nog maar eens lezen ik heb het nergens over de A11? De laatste Apple A8 uit de iPad is een 2-miljard transistor chip.

[ Voor 32% gewijzigd door Dreamvoid op 02-12-2014 19:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op dinsdag 02 december 2014 @ 18:38:
? ik zou die post nog maar eens lezen ik heb het nergens over de A11?
Klopt als een bus, je hebt helemaal gelijk een A11 is uiteraard geen A7 of A8 of A9...... :O

Acties:
  • 0 Henk 'm!

  • exodude
  • Registratie: December 2008
  • Laatst online: 08-08-2023
De CPU/GPU combinatie in de Apple TV stelt inderdaad zeer weinig voor. Er zit maar een single-core Cortex A9 in.
http://en.wikipedia.org/w...#Technical_specifications

Is nogal een groot verschil met een A6-1450 met 4(2) kernen en een veel uitgebreidere instructieset.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dreamvoid schreef op dinsdag 02 december 2014 @ 18:38:
? ik zou die post nog maar eens lezen ik heb het nergens over de A11? De laatste Apple A8 uit de iPad is een 2-miljard transistor chip.
Als ik me niet vergis was meer dan de helft van het transistor budget voor de GPU.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 03 december 2014 @ 11:09:
[...]
Als ik me niet vergis was meer dan de helft van het transistor budget voor de GPU.
En er zit daarnaast ook nog 1GB geheugen ingebakken op de chip.
Die miljard schakelingetjes zullen ze ook wel net zo makkelijk meetellen.

Het zou me daarom niets verbazen wanneer puur de ARM chip zelf nog steeds minder dan 100 miljoen transistors zou tellen en ze zich (miljarden) rijk rekenen met toegevoegd geheugen en GPU.

Een 2 miljard transistor tellende CPU zou op het niveau van een snelle i7 moeten zitten......

[ Voor 20% gewijzigd door Verwijderd op 03-12-2014 13:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 03 december 2014 @ 13:00:
[...]
Een 2 miljard transistor tellende CPU zou op het niveau van een snelle i7 moeten zitten......
Was het maar zo makkelijk.
Zoals AMD heeft gedemonstreerd, kun je niet zomaar meer transistors/cores/stroomverbruik ertegenaan gooien.
Ik denk dan ook niet dat de huidige ARM-ontwerpen in een variant met meer cache/cores/etc in de buurt van een i7 gaan komen, simpelweg omdat ze met een ander doel ontworpen zijn. ARM moet compact en energiezuinig zijn.
Als je echt een ARM-compatible CPU wil maken die met een i7 kan concurreren, dan zul je je hele architectuur opnieuw moeten ontwerpen om zo efficient mogelijk gebruik te maken van je transistorbudget. Maximaliseren van IPC.

Eigenlijk het omgekeerde pad van wat Intel aan het bewandelen is nu: zij konden ook niet zomaar een 'i7 met minder transistors' maken. Atom was een heel ander beestje, en pas nu met Bay Trail begint het echt ergens op te lijken.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 03 december 2014 @ 13:38:
[...]


Was het maar zo makkelijk.
Zoals AMD heeft gedemonstreerd, kun je niet zomaar meer transistors/cores/stroomverbruik ertegenaan gooien.
Ik denk dan ook niet dat de huidige ARM-ontwerpen in een variant met meer cache/cores/etc in de buurt van een i7 gaan komen, simpelweg omdat ze met een ander doel ontworpen zijn. ARM moet compact en energiezuinig zijn.
Als je echt een ARM-compatible CPU wil maken die met een i7 kan concurreren, dan zul je je hele architectuur opnieuw moeten ontwerpen om zo efficient mogelijk gebruik te maken van je transistorbudget. Maximaliseren van IPC.

Eigenlijk het omgekeerde pad van wat Intel aan het bewandelen is nu: zij konden ook niet zomaar een 'i7 met minder transistors' maken. Atom was een heel ander beestje, en pas nu met Bay Trail begint het echt ergens op te lijken.
AMD heeft relatief veel transistor budget in de GPU zitten. 2/3e van de APU is GPU. En die GPU is nog steeds een stuk krachtiger dan die van intel. En heeft ook meer features.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 03 december 2014 @ 18:31:
[...]
AMD heeft relatief veel transistor budget in de GPU zitten. 2/3e van de APU is GPU. En die GPU is nog steeds een stuk krachtiger dan die van intel. En heeft ook meer features.
Ik heb het hier voornamelijk over de FX-serie. 8 cores en geen GPU.
Verder valt het verschil in performance wel mee sinds Intel met de Iris Pro kwam. En features? Noem eens wat dan? Voor zover ik weet zijn ze allebei gewoon volwaardig DX11/OpenGL/OpenCL.

[ Voor 20% gewijzigd door Verwijderd op 03-12-2014 18:41 ]


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 18-09 16:26

Kuusj

Ofwel varken in 't Limburgs

Verwijderd schreef op woensdag 03 december 2014 @ 18:39:
[...]


Ik heb het hier voornamelijk over de FX-serie. 8 cores en geen GPU.
Verder valt het verschil in performance wel mee sinds Intel met de Iris Pro kwam. En features? Noem eens wat dan? Voor zover ik weet zijn ze allebei gewoon volwaardig DX11/OpenGL/OpenCL.
Ik zie nergens dat je het over de FX serie hebt.

Verschil in performance meevallen? http://images.anandtech.c...20-%20HD%201920_575px.png Als je dit meevallen noemt ben ik Sinterklaas :+
Verder is een 4770K VEEL duurder dan een A10-7850K, ik denk niet dat we dat kunnen ontkennen.

Een APU koop je imo nog steeds voor PC's waarin je geen "gewone" graka wil duwen om *insert reason*. Daarbij houd je met de AMD APU's een aardige CPU en GPU bak aan power mee over, bij intel ben je al 300 euro kwijt aan de CPU waar je bij AMD met dat geld al compleet een systeem hebt staan...

IGP's van Intel? De GMA500 was al hopeloos, dat is de Iris Pro nu ook.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

Verwijderd

kuusj98 schreef op woensdag 03 december 2014 @ 18:53:
[...]
Ik zie nergens dat je het over de FX serie hebt.
Moet dat specifiek dan?
"Zoals AMD heeft gedemonstreerd, kun je niet zomaar meer transistors/cores/stroomverbruik ertegenaan gooien." <-- ik neem aan dat iedereen met een beetje verstand van CPUs wel begrijpt dat dit over de FX-serie gaat, met name de 8-cores met TDPs van 125W of meer.
kuusj98 schreef op woensdag 03 december 2014 @ 18:53:
Verschil in performance meevallen?
Intel is de laatste paar generaties met grote stappen dichterbij gekomen ja.
Verder moet je er rekening mee houden dat Iris Pro voor laptops is (en dus ook qua energieverbruik relatief laag ligt).
Als je hier kijkt, doet ie het prima in vergelijking met bv een GeForce 630M: http://www.anandtech.com/...ew-core-i74950hq-tested/6
Ook de A10-4600M doet het minder. Zelfs de A10-5800K, een desktop-chip (van 100W), doet het niet beter.
kuusj98 schreef op woensdag 03 december 2014 @ 18:53:
Verder is een 4770K VEEL duurder dan een A10-7850K, ik denk niet dat we dat kunnen ontkennen.
Ja, iets dat je gratis weggeeft, heeft een oneindig goede prijs/prestatieverhouding, toch?
Interesseert mij helemaal niets, ik had het over technische kenmerken van CPUs/GPUs.
kuusj98 schreef op woensdag 03 december 2014 @ 18:53:
bij intel ben je al 300 euro kwijt aan de CPU waar je bij AMD met dat geld al compleet een systeem hebt staan...
Alsof Intel geen CPUs onder de 300 euro heeft? Wat een onzin!
Sterker nog, ik typ dit op een Asus F553M, die me 249 euro heeft gekost. Daar zit een Intel CPU in, met ingebouwde GPU (Celeron M2830).
kuusj98 schreef op woensdag 03 december 2014 @ 18:53:
IGP's van Intel? De GMA500 was al hopeloos, dat is de Iris Pro nu ook.
Pfft, wat een flauwekul. Iris Pro is een prima GPU voor dagelijks gebruik, en af en toe een game of 3d software.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 03 december 2014 @ 18:39:
[...]
Ik heb het hier voornamelijk over de FX-serie. 8 cores en geen GPU.
Verder valt het verschil in performance wel mee sinds Intel met de Iris Pro kwam. En features? Noem eens wat dan? Voor zover ik weet zijn ze allebei gewoon volwaardig DX11/OpenGL/OpenCL.
Dat was toch vooral omdat de Iris Pro veel groter is? Nadeel van de Iris Pro is dat hij op de duurdere cpu's zit. In lowend zijn de gpu's (die op de apu zitten) van AMD een stuk sneller.
Wat is precies de doelgroep van cpus met een Iris Pro? Mensen die spellen spelen zullen hem niet kopen, mensen die spellen spelen maar geen budget hebben gaan of voor een snelle APU of voor een dedicated kaart met een goedkopere cpu die vaak geen integrated graphics heeft (en als hij dat wel heeft dan zijn ze traag).
Enige wat ik me op dit moment kan bedenken is in een of andere groot bedrijf waar geen speciale CAD kaart nodig is maar wel iets meer rekenkracht, wat zou ik niet weten :P.

http://www.anandtech.com/...ew-core-i74950hq-tested/3
As we’ve been talking about for a while now, the highest end Haswell graphics configuration includes 128MB of eDRAM on-package. The eDRAM itself is a custom design by Intel and it’s built on a variant of Intel’s P1271 22nm SoC process (not P1270, the CPU process). Intel needed a set of low leakage 22nm transistors rather than the ability to drive very high frequencies which is why it’s using the mobile SoC 22nm process variant here.
Dat i.c.m. level 4 cache.

[ Voor 52% gewijzigd door Sp3ci3s8472 op 03-12-2014 22:08 . Reden: review en meer.... ]


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op woensdag 03 december 2014 @ 22:00:
[...]
Dat was toch vooral omdat de Iris Pro veel groter is?
Wederom, het is niet zo simpel als gewoon wat meer transistors ertegenaan gooien.
Als Intel's GPU-architectuur niet zou deugen, zouden ze er niet gewoon even wat cache tegenaan kunnen plakken waardoor ie sneller gaat.
Sp3ci3s8472 schreef op woensdag 03 december 2014 @ 22:00:
Wat is precies de doelgroep van cpus met een Iris Pro? Mensen die spellen spelen zullen hem niet kopen, mensen die spellen spelen maar geen budget hebben gaan of voor een snelle APU of voor een dedicated kaart met een goedkopere cpu die vaak geen integrated graphics heeft (en als hij dat wel heeft dan zijn ze traag).
De Iris Pro is er alleen voor laptops. Keuze voor een dedicated kaart heb je dus niet.
Het is gewoon de snelste integrated GPU van Intel.
Het doel is vooral om de markt minder afhankelijk te maken van dedicated GPUs van nVidia en AMD, en dus meer van Intel.
Dat is niet direct een 'doelgroep', maar meer een marktstrategie van Intel.
Sp3ci3s8472 schreef op woensdag 03 december 2014 @ 22:00:
Nadeel van de Iris Pro is dat hij op de duurdere cpu's zit. In lowend zijn de gpu's (die op de apu zitten) van AMD een stuk sneller.
Tsja, andere markten, andere strategieen.
AMD is als CPU-ontwikkelaar al een paar jaar uitgespeeld. Veel meer keus dan vooral aan de GPU-kant hoog in te zetten hebben ze dan ook niet.

[ Voor 31% gewijzigd door Verwijderd op 03-12-2014 22:15 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op woensdag 03 december 2014 @ 22:11:
[...]


Wederom, het is niet zo simpel als gewoon wat meer transistors ertegenaan gooien.
Als Intel's GPU-architectuur niet zou deugen, zouden ze er niet gewoon even wat cache tegenaan kunnen plakken waardoor ie sneller gaat.


[...]


Tsja, andere markten, andere strategieen.
AMD is als CPU-ontwikkelaar al een paar jaar uitgespeeld. Veel meer keus dan vooral aan de GPU-kant hoog in te zetten hebben ze dan ook niet.
Inderdaad, de performance sprong was al te zien met de HD4xxx. Meer cache en dedicated geheugen helpen niet veel als het ontwerp niet klopt.

Helaas wel ja. Gelukkig maakt AMD nog wel mooie dingen voor in een HTPC.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op woensdag 03 december 2014 @ 22:11:
Wederom, het is niet zo simpel als gewoon wat meer transistors ertegenaan gooien.
Als Intel's GPU-architectuur niet zou deugen, zouden ze er niet gewoon even wat cache tegenaan kunnen plakken waardoor ie sneller gaat.
Moah, dat is anders precies wat Intel gedaan heeft. Iris Pro heeft 2 keer zoveel EU's als de 'gewone' Haswells. Daarmee is de chip met zijn 22nm die nog groter dan Kaveri, die behoorlijk wat sneller is. Bovendien komt bij de Iris Pro ook nog eens een extra chip kijken van ~80mm2, om tot die prestaties te komen.

Al met al kun je dus best wel stellen dat, gezien de omstandigheden, de prestaties van de Iris Pro best wel tegenvallen.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op woensdag 03 december 2014 @ 22:14:
[...]
Inderdaad, de performance sprong was al te zien met de HD4xxx. Meer cache en dedicated geheugen helpen niet veel als het ontwerp niet klopt.
Wat mij betreft al veel eerder.
Mensen houden vaak geen rekening met de schaal waarop Intel werkt.
Zo heeft mijn eerder genoemde Celeron N2830 een GPU met welgeteld 4 EUs.
Helemaal niks dus! Daarom kost het ook totaal niks aan transistors, of stroomverbruik. En toch is ie goed genoeg voor het spelen van HD-video, en het accelereren van een Windows desktop of simpele games.
Dat is best wel een aardige prestatie.

Stel je voor als je zoiets zou bouwen op de schaal van een nVidia/AMD-GPU met 2000 EUs of meer.
Maargoed, tot dusverre is Intel die richting nog niet op gegaan (al was Larrabee daar min of meer een poging toe).
Intel richtte zich historisch altijd op een zo goedkoop mogelijke GPU met minimale features. Een GPU die bij een totale chipset een meerprijs had van een paar dollar hooguit.
De laatste jaren zijn ze wel met grote sprongen vooruit gegaan, min of meer sinds hun eerste DX10-generaties. Ook qua drivers is het de laatste jaren lang niet zo dramatisch meer als vroeger.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op woensdag 03 december 2014 @ 22:24:
[...]
Moah, dat is anders precies wat Intel gedaan heeft.
Het werkt wel, en dat is mijn punt.
dahakon schreef op woensdag 03 december 2014 @ 22:24:
Al met al kun je dus best wel stellen dat, gezien de omstandigheden, de prestaties van de Iris Pro best wel tegenvallen.
Mwah, op een aantal punten hebben ze het wel beter aangepakt dan AMD.
Bv op het gebied van tessellation verslaat een moderne Intel GPU een AMD GPU met gemak.
Ook qua OpenCL doen ze het helemaal niet slecht.
Ik vind het eerder van AMD tegenvallen. Die hebben immers een complete afdeling die zich puur richt op discrete GPUs. Intel doet het maar 'voor erbij'.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 03 december 2014 @ 22:30:
[...]
Het werkt wel, en dat is mijn punt.
[...]
Mwah, op een aantal punten hebben ze het wel beter aangepakt dan AMD.
Bv op het gebied van tessellation verslaat een moderne Intel GPU een AMD GPU met gemak.
Ook qua OpenCL doen ze het helemaal niet slecht.
Ik vind het eerder van AMD tegenvallen. Die hebben immers een complete afdeling die zich puur richt op discrete GPUs. Intel doet het maar 'voor erbij'.
Je doelt op het feit dat AMD met een fractie van Intels R&D toch nog fantastische producten weet te maken ?
of
Doel je op het feit dat AMD grafische producten tegen een fractie van Intels chip oppervlak ($$$) toch nog veel beter presteren. En dat AMD dat bovendien doet zonder fabrikanten om te hoeven kopen........ :X

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 03 december 2014 @ 22:58:
[...]
Je doelt op het feit dat AMD met een fractie van Intels R&D toch nog fantastische producten weet te maken ?
AMD heeft een compleet GPU-bedrijf overgenomen. AMD's R&D op het gebied van GPUs zal een stuk hoger liggen dan die van Intel.
Verwijderd schreef op woensdag 03 december 2014 @ 22:58:
[Doel je op het feit dat AMD grafische producten tegen een fractie van Intels chip oppervlak ($$$) toch nog veel beter presteren.
"Fractie van het oppervlak?"
"Veel beter"?
Moet ik dit serieus nemen?
Verwijderd schreef op woensdag 03 december 2014 @ 22:58:
En dat AMD dat bovendien doet zonder fabrikanten om te hoeven kopen........ :X
Nee, laten we dit niet serieus nemen. Wat een getrol.

Acties:
  • 0 Henk 'm!

  • Noel
  • Registratie: September 2001
  • Laatst online: 14-09 17:45
Verwijderd schreef op woensdag 03 december 2014 @ 23:06:
AMD heeft een compleet GPU-bedrijf overgenomen. AMD's R&D op het gebied van GPUs zal een stuk hoger liggen dan die van Intel.
Als je beide ff zou afspreken wat R&D is, is de discussie misschien wat interessanter/duidelijker voor de rest om te lezen.

R&D = investering in onderzoek naar nieuwe technologie of producten.
knowhow = ervaring, patenten, kennis

AMD heeft meer knowhow in het maken van GPU's. Daarom maken ze ook dingen die Intel niet kan maken, met name een deftige GPU/APU voor deftige graphics.

Maar het kan best zo zijn dat Intel meer geld in R&D steekt dan AMD. Zeker ten tijde van Larabee gaan ze er ongetwijfeld heel veel geld ingestoken hebben. Meer dan AMD toen zou kunnen investeren in R&D.

Server: Xeon X3430 21TB RAID 5 | Game: 5900X, 6900XT, dual FS2735 | Mobile: Lenovo X1 Carbon, Thinkpad T440s, Moto G7 Plus


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 03 december 2014 @ 23:06:
[...]
AMD heeft een compleet GPU-bedrijf overgenomen. AMD's R&D op het gebied van GPUs zal een stuk hoger liggen dan die van Intel.
Waar zeg ik dat ik het alleen gaat om GPU R&D ?
Graag beter lezen voordat je dingen verzint die er gewoon echt niet staan.

Echter kun je er rustig vanuit gaan dat Intel een vermogen heeft uitgegeven aan GPU R&D de afgelopen jaren. Dit nog even naast de licentiekosten van hun budget third party GPU's.
[...]
"Fractie van het oppervlak?"
"Veel beter"?
Moet ik dit serieus nemen?
Je moet niets, we leven in een vrije wereld, maar het is wel de realiteit.
[...]
Nee, laten "we" dit niet serieus nemen. Wat een getrol.
Vriendelijk dank voor de beschuldiging. Ik verwacht niet anders meer van je maar het blijft vervelend.

Back-on-topic:
Intel betaald fabrikanten fors om hun producten te gebruiken. Op dit moment word er fors betaald door Intel om hun mobiele cpu's toe te laten passen door OEM's.
Zelf noem ik dat omkoping. Zoals ik dat al gewend was van Intel (eigen ervaring: van voor 2000 achterkamertjes dealtjes om AMD te dwarsbomen) bij alle grootverkopers van PC's en laptops.

Wie is "we" uit jouw opmerking ? Mensen denken hier toch echt voor zichzelf en namens zichzelf.

[ Voor 4% gewijzigd door Verwijderd op 04-12-2014 01:01 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op woensdag 03 december 2014 @ 23:06:
"Fractie van het oppervlak?"
"Veel beter"?
Moet ik dit serieus nemen?
Let op:

http://www.anandtech.com/...ew-core-i74950hq-tested/4

Vanuit de link kun je terugvinden dat Haswell met Iris GPU 264mm2 groot is (op 22nm), tegen 'slechts' 245mm2 voor Kaveri. Die shots van Kaveri hebben duidelijk gemaakt dat de GPU ongeveer de helft in neemt, ofwel ~120mm2. Intels GT3e is 87mm2 groter dan de GT2 Haswells, terwijl feitenlijk alleen de EU's verdubbeld worden. Dat houdt dus in dat de die size van Iris Pro ~175mm2 groot moet zijn (~66% van de totale die) op een full node kleiner dan Kaveri wordt gemaakt. Daar komt dan nog de speciale chip bij kijken (om de prestaties op te krikken en het stroomverbruik te verlagen) van 84mm2.

Ofwel, om prestaties te krijgen die nog altijd onder die van Kaveri liggen, heb je een GPU nodig die ~50% groter is op een kleinere node met daarbij nog eens een extra chip die ~66% van Kaveri's GPU beslaat om daar te komen.

Dus ja, Kaveri doet het beduidend beter met een beduidend lager die-oppervlak dan Haswell met Iris Pro.

Ter illustratie, een vergelijk op 1080P:

Afbeeldingslocatie: http://images.anandtech.com/doci/7677/G17%20-%20HD%201920.png

Als je dan ook nog bedenkt dat de 7600 een groter broertje heeft die wel de volledige GPU geactiveerd heeft op dezelfde snelheid als de 7850K, dan is het vast niet moeilijk om te bedenken dat die 7800 grofweg dezelfde prestaties levert als de 7850K, maar dan op 65Watt.

[ Voor 14% gewijzigd door dahakon op 04-12-2014 06:15 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 03 december 2014 @ 18:39:
[...]


Ik heb het hier voornamelijk over de FX-serie. 8 cores en geen GPU.
Verder valt het verschil in performance wel mee sinds Intel met de Iris Pro kwam. En features? Noem eens wat dan? Voor zover ik weet zijn ze allebei gewoon volwaardig DX11/OpenGL/OpenCL.
Ja dat is leuk maar dat is een oudere architectuur. Die maakt nog gebruik van oude Piledriver cores en niet de nieuwere Steamroller cores.
In dat geval moet je bij intel naar de Ivy Bridge CPU's kijken en Hasswell niet in de vergelijking mee nemen.

Aan die Iris Pro had ik even niet gedacht maar die levert aardige prestaties.
En qua features heb ik het over dingen als Eyefinity, Trueaudio, Hybrid Crossfire, Mantle (is niet voor iedereen een voordeel) en DX12 support (al zou Iris Pro dat ook kunnen zijn dat weet ik niet)

[ Voor 18% gewijzigd door Astennu op 04-12-2014 07:56 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 04 december 2014 @ 00:57:
[...]
Waar zeg ik dat ik het alleen gaat om GPU R&D ?
Dat is geimpliceerd omdat we het hier hebben over GPU-ontwikkeling.
Verwijderd schreef op donderdag 04 december 2014 @ 00:57:
Echter kun je er rustig vanuit gaan dat Intel een vermogen heeft uitgegeven aan GPU R&D de afgelopen jaren.
Waarom kun je daar vanuit gaan?
Heb je een bron?
AMD betaalt game developers fors om Mantle te gebruiken (vendor lock-in) en games voor 8-core CPUs te optimaliseren.
nVidia doet ook zoiets.

Is dat allemaal omkoping?
Of misschien moet je jouw definitie van omkoping iets bijstellen?
http://nl.wikipedia.org/wiki/Corruptie
Bij 'omkoping' is er sprake van 'ongeoorloofde gunsten'.
Wat Intel, AMD en nVidia doen is niet ongeoorloofd. Tenminste, niet zolang ze geen monopoliepositie hebben. En die heeft Intel niet op de mobiele markt (dat is ook de hele reden waarom ze zoveel moeite doen om hun SoCs op de markt te krijgen, ze willen het monopolie van ARM doorbreken).
Er is hier dus geen sprake van omkoping, dit is gewoon legaal zakendoen.
Astennu schreef op donderdag 04 december 2014 @ 07:52:
[...]
Ja dat is leuk maar dat is een oudere architectuur. Die maakt nog gebruik van oude Piledriver cores en niet de nieuwere Steamroller cores.
In dat geval moet je bij intel naar de Ivy Bridge CPU's kijken en Hasswell niet in de vergelijking mee nemen.
Verandert weinig aan het verhaal.
Astennu schreef op donderdag 04 december 2014 @ 07:52:
Aan die Iris Pro had ik even niet gedacht maar die levert aardige prestaties.
En qua features heb ik het over dingen als Eyefinity, Trueaudio, Hybrid Crossfire, Mantle (is niet voor iedereen een voordeel) en DX12 support (al zou Iris Pro dat ook kunnen zijn dat weet ik niet)
Ja, alle Haswells kunnen DX12: http://techreport.com/new...st-games-due-in-late-2015
Eyefinity heb je dan niet, maar lijkt me voor een laptop-GPU ook niet echt relevant. Dat is vooral leuk voor gaming over meerdere schermen, en daar is zo'n GPU toch te traag voor. 'Normaal' multimonitor werkt natuurlijk wel gewoon.
Trueaudio... da's toch alleen een marketingnaam? Intel heeft ook audio uit over HDMI, komt toch op hetzelfde neer?
Hybrid crossfire heb je natuurlijk bij Intel niet, omdat er er geen discrete GPUs van Intel zijn om mee te 'crossfiren'.
Mantle is geen hardware feature, da's alleen software.
Intel heeft ook wel dingen die AMD niet heeft, trouwens. Zoals bv hun rasterizer ordered views (order-independent transparency), en QuickSync natuurlijk.

[ Voor 37% gewijzigd door Verwijderd op 04-12-2014 09:58 ]


Acties:
  • 0 Henk 'm!

Verwijderd

@dahakon: bij jouw prima statements komt ook nog het feit dat de AMD APU's op een groter procede worden gebakken dan bij Intel, waardoor het helemaal een knap staaltje werk is van AMD...... _/-\o_

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
[b][message=43348501,noline]Scalibq schreef op donderdag 04 december 2014 @
Ja, alle Haswells kunnen DX12: http://techreport.com/new...st-games-due-in-late-2015
Eyefinity heb je dan niet, maar lijkt me voor een laptop-GPU ook niet echt relevant. Dat is vooral leuk voor gaming over meerdere schermen, en daar is zo'n GPU toch te traag voor. 'Normaal' multimonitor werkt natuurlijk wel gewoon.
Trueaudio... da's toch alleen een marketingnaam? Intel heeft ook audio uit over HDMI, komt toch op hetzelfde neer?
Hybrid crossfire heb je natuurlijk bij Intel niet, omdat er er geen discrete GPUs van Intel zijn om mee te 'crossfiren'.
Mantle is geen hardware feature, da's alleen software.
Intel heeft ook wel dingen die AMD niet heeft, trouwens. Zoals bv hun rasterizer ordered views (order-independent transparency), en QuickSync natuurlijk.
Eyefinity heeft ook wat voordelen voor "Normaal" multimonitor gebruik. En simpele / oudere games kun je wel met Eyfinity spelen als je lage settings gebruikt maar inderdaad ideaal is het niet.

TrueAudio zou een hardware DSP zijn. Die rekenkracht kan gebruikt worden om geluid effecten (convolution reverb) hardwarematig te versnellen. (net als de geluidskaarten dat in het verleden deden denk aan X-Fi). Denk bv aan audio waarbij je gewoon kan horen hoe ver iemand weg is. Of dat echo's realistisch zijn aan de hand van de gebouwen, materialen die om je heen bevinden. Dit kost nu nog erg veel processing power.

Mantle is inderdaad software. En het wordt straks ook open zodat bv intel het ook kan gebruiken. Echter werkt het nu al prima met de GCN architectuur en aangezien ook steeds meer games het ondersteunen vind ik het wel een klein voordeel.

AMD heeft geen Quicksync zoals intel het heeft maar bied wel GPU Transcoding mogelijkheden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 04 december 2014 @ 12:09:
[...]
Eyefinity heeft ook wat voordelen voor "Normaal" multimonitor gebruik.
Zoals wat dan? Met Windows kun je gewoon je desktop extenden over al je monitors, en bepalen waar wat moet komen. Ik weet niet wat Eyefinity daar nog aan kan toevoegen.
Astennu schreef op donderdag 04 december 2014 @ 12:09:
TrueAudio zou een hardware DSP zijn.
Ah okee, ik dacht dat het gewoon via de GPU ging, maar er schijnt dedicated logic in de chip te zitten.
Astennu schreef op donderdag 04 december 2014 @ 12:09:
Mantle is inderdaad software. En het wordt straks ook open zodat bv intel het ook kan gebruiken. Echter werkt het nu al prima met de GCN architectuur en aangezien ook steeds meer games het ondersteunen vind ik het wel een klein voordeel.
Maar het blijft software, de discussie ging hier over hoe Intel en AMD GPUs hardwarematig van elkaar verschillen.
Zoals je zegt, mocht Intel dat willen, dan kan Mantle ook op hun GPUs ondersteund worden.
Astennu schreef op donderdag 04 december 2014 @ 12:09:
AMD heeft geen Quicksync zoals intel het heeft maar bied wel GPU Transcoding mogelijkheden.
Yup, maar QuickSync is echt wel van een andere categorie. Het is niet zomaar een setje OpenCL/CUDA-routines (dus eigenlijk software ipv hardware), maar vele malen sneller dan de oplossingen die AMD en nVidia bieden.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 04 december 2014 @ 13:35:
[...]


Zoals wat dan? Met Windows kun je gewoon je desktop extenden over al je monitors, en bepalen waar wat moet komen. Ik weet niet wat Eyefinity daar nog aan kan toevoegen.
Omdat het scherm dan als een scherm gezien wordt en je bezel correction hebt. Maar het ligt er een beetje aan hoe je met je schermen werkt of dat een voordeel voor je is.
Maar het blijft software, de discussie ging hier over hoe Intel en AMD GPUs hardwarematig van elkaar verschillen.
Zoals je zegt, mocht Intel dat willen, dan kan Mantle ook op hun GPUs ondersteund worden.
Nja dan is GCN het + punt zodat je nu al mantle support hebt. Je snapt denk ik wat ik er mee bedoel :)
Yup, maar QuickSync is echt wel van een andere categorie. Het is niet zomaar een setje OpenCL/CUDA-routines (dus eigenlijk software ipv hardware), maar vele malen sneller dan de oplossingen die AMD en nVidia bieden.
Dat is zeker waar. Quicksync werkt verrassend goed.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 04 december 2014 @ 13:44:
[...]
Omdat het scherm dan als een scherm gezien wordt en je bezel correction hebt. Maar het ligt er een beetje aan hoe je met je schermen werkt of dat een voordeel voor je is.
Ja, 1 scherm is niet iets dat je doorgaans wil hebben. Applicaties die 1 window over meerdere monitors uitgerekt hebben, werkt niet fijn. Bezel correction al helemaal niet, want dan verdwijnt dus een deel van je beeld/tekst achter de bezel.

Verder weet ik niet hoe het met Intel zit (ik zie wel wat custom opties met underscan enzo), maar iig met nVidia kun je je scherm wel resizen en moven ('Adjust size and position), dus je kunt sowieso handmatig corrigeren voor je bezel, mocht je dat willen.

Acties:
  • 0 Henk 'm!

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
@Scalibq:
Intel heeft in het verleden zeker wel foute omkooppraktijken gedaan. Fabrikanten kregen fikse kortingen op intel producten met één enkele voorwaarde: ze mochten geen AMD producten verkopen. Als zo goed als monopolist is dit natuurlijk uit den boze en intel is hier ook voor beboet.

Verder maakt AMD nog steeds wel aardige CPUs. De fx-6300 is een prima budget gaming cpu, vandaag nog concludeerde de buren over de fx-6300 vs i3-4330:
Ofwel: wie een betaalbare game-PC zoekt kan wat ons betreft het best voor die FX-6300 kiezen. Case closed!
Ik vraag mij altijd al af, wat als het niet zo vreselijk slecht ging met AMD en ze wel geld hadden van R&D, wat als ze wel naar 22nm konden en een fx-6500 op basis van steamroller konden uitbrengen, dan zag het er allemaal een stuk beter uit.

Aan de andere kant: in het high-end segment heeft AMD niks te bieden. Intel maakt in principe betere CPUs, maar past de prijs aan aan wat AMD te bieden heeft. Laten we hopen dat AMD er weer een beetje bovenop kan komen want concurentie kan de vooruit gang in processorenmarkt alleen maar verder brengen

Acties:
  • 0 Henk 'm!

Verwijderd

paulklooster schreef op donderdag 04 december 2014 @ 14:51:
@Scalibq:
Intel heeft in het verleden zeker wel foute omkooppraktijken gedaan. Fabrikanten kregen fikse kortingen op intel producten met één enkele voorwaarde: ze mochten geen AMD producten verkopen. Als zo goed als monopolist is dit natuurlijk uit den boze en intel is hier ook voor beboet.
Ja, dat weten we allemaal, maar dat is alweer meer dan 10 jaar geleden.
Er werd hier verwezen naar de huidige praktijken met mobiele SoCs, en zoals ik aangaf: Intel heeft daar geen monopolie, en er is niets illegaals aan.
paulklooster schreef op donderdag 04 december 2014 @ 14:51:
Verder maakt AMD nog steeds wel aardige CPUs.
Oneens. AMD maakt zeer matige, outdated CPUs, die vanwege hun extreem lage prijs economisch nog interessant zijn, maar technisch compleet irrelevant.
Zoals ik al eerder zei, als je het gratis weggeeft heb je oneindig goede prijs/prestatieverhouding.
paulklooster schreef op donderdag 04 december 2014 @ 14:51:
Ik vraag mij altijd al af, wat als het niet zo vreselijk slecht ging met AMD en ze wel geld hadden van R&D, wat als ze wel naar 22nm konden en een fx-6500 op basis van steamroller konden uitbrengen, dan zag het er allemaal een stuk beter uit.
Maar nog steeds niet heel spectaculair. Ook vergeleken met de oudere 32 nm Core i7's van Intel zijn AMD's FX CPUs totaal geen hoogvliegers.
Dus als AMD ook 22 nm zou hebben, zouden de verhoudingen omgeveer zo liggen.
paulklooster schreef op donderdag 04 december 2014 @ 14:51:
Laten we hopen dat AMD er weer een beetje bovenop kan komen
Waarom? We wachten al sinds 2006 op die 'killer CPU' van AMD. Die is er nooit gekomen, en het is alleen maar bergafwaarts gegaan met AMD. Ook hun GPU-verkopen zakken langzaam maar zeker in.
paulklooster schreef op donderdag 04 december 2014 @ 14:51:
want concurentie kan de vooruit gang in processorenmarkt alleen maar verder brengen
Intel concurreert sowieso tegen zichzelf.
Ik heb al een Core i7. Waarom zou ik een nieuwe (Intel-)CPU kopen als Intel niet iets beters/snellers/zuinigers biedt dan wat ik al heb? De markt is al verzadigd, dus het moet vooral van upgrades komen.
Zoals ik zeg, al sinds 2006 hebben we deze situatie dat mensen met Intel-CPUs eigenlijk alleen maar naar nieuwe Intels kunnen upgraden.
AMD is al jaren niet meer relevant. Gaat toch prima zo? Je zou zelfs kunnen zeggen dat Intel de laatste jaren alleen maar betere producten heeft neergezet. Toen ze nog onder druk stonden van AMD, had je de Pentium 4 en Pentium D. Niet bepaald hoogvliegers.
Ook AMD had een aantal CPUs die de schoonheidsprijs niet bepaald verdienden. Te snel op de markt gebracht, te veel proberen die laatste MHz'en eruit te knijpen etc.
Te sterke concurrentie is ook niet goed.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 04 december 2014 @ 13:56:
[...]


Ja, 1 scherm is niet iets dat je doorgaans wil hebben. Applicaties die 1 window over meerdere monitors uitgerekt hebben, werkt niet fijn. Bezel correction al helemaal niet, want dan verdwijnt dus een deel van je beeld/tekst achter de bezel.

Verder weet ik niet hoe het met Intel zit (ik zie wel wat custom opties met underscan enzo), maar iig met nVidia kun je je scherm wel resizen en moven ('Adjust size and position), dus je kunt sowieso handmatig corrigeren voor je bezel, mocht je dat willen.
Wat JIJ doorgaans niet wil en jij vind die bezel correction geen voordeel. . Je hoeft het niet te gebruiken. Voor de mensen die het wel willen is de optie er tenminste wel.

[ Voor 6% gewijzigd door Astennu op 04-12-2014 15:06 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 04 december 2014 @ 15:06:
[...]
Wat JIJ doorgaans niet wil en jij vind die bezel correction geen voordeel. Je kan het tenminste aan zetten en gebruiken. Je hoeft het niet te gebruiken.
Nee, ik spreek in het algemeen, en geef voorbeelden.
Ik weet zeker dat 99% van de gebruikers het eens is met de nadelen die ik noem.
Conclusie: Eyefinity is geen toegevoegde waarde buiten games.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 04 december 2014 @ 15:05:
[...]


Ja, dat weten we allemaal, maar dat is alweer meer dan 10 jaar geleden.
Er werd hier verwezen naar de huidige praktijken met mobiele SoCs, en zoals ik aangaf: Intel heeft daar geen monopolie, en er is niets illegaals aan.


[...]


Oneens. AMD maakt zeer matige, outdated CPUs, die vanwege hun extreem lage prijs economisch nog interessant zijn, maar technisch compleet irrelevant.
Zoals ik al eerder zei, als je het gratis weggeeft heb je oneindig goede prijs/prestatieverhouding.


[...]


Maar nog steeds niet heel spectaculair. Ook vergeleken met de oudere 32 nm Core i7's van Intel zijn AMD's FX CPUs totaal geen hoogvliegers.
Dus als AMD ook 22 nm zou hebben, zouden de verhoudingen omgeveer zo liggen.


[...]


Waarom? We wachten al sinds 2006 op die 'killer CPU' van AMD. Die is er nooit gekomen, en het is alleen maar bergafwaarts gegaan met AMD. Ook hun GPU-verkopen zakken langzaam maar zeker in.


[...]


Intel concurreert sowieso tegen zichzelf.
Ik heb al een Core i7. Waarom zou ik een nieuwe (Intel-)CPU kopen als Intel niet iets beters/snellers/zuinigers biedt dan wat ik al heb? De markt is al verzadigd, dus het moet vooral van upgrades komen.
Zoals ik zeg, al sinds 2006 hebben we deze situatie dat mensen met Intel-CPUs eigenlijk alleen maar naar nieuwe Intels kunnen upgraden.
AMD is al jaren niet meer relevant. Gaat toch prima zo? Je zou zelfs kunnen zeggen dat Intel de laatste jaren alleen maar betere producten heeft neergezet. Toen ze nog onder druk stonden van AMD, had je de Pentium 4 en Pentium D. Niet bepaald hoogvliegers.
Ook AMD had een aantal CPUs die de schoonheidsprijs niet bepaald verdienden. Te snel op de markt gebracht, te veel proberen die laatste MHz'en eruit te knijpen etc.
Te sterke concurrentie is ook niet goed.
Je bent wel extreem negatief. De Phenom II CPU's konden prima concurreren ook de PH II X6 CPU's hadden zo hun voordelen.

Bij Bulldozer ging het mis. De Pipelines waren te diep en de FP performance en Single Thread Int performance was gewoon niet goed genoeg. Daarom stop AMD nu ook met deze architectuur. Multithreaded applicaties doen het wel goed op FX CPU's maar als je niet alle "cores" kan gebruiken blijven behoorlijk achter op die van Intel.

Ik ben nog wel benieuwd naar Excavator maar die had er eigenlijk 2 jaar eerder moeten zijn.Ze lopen ook iedere keer een productie node achter en dat is natuurlijk nooit een voordeel. Als AMD ook 22nm had gehad dat in ieder geval in de productie kosten en het stroomverbruik gescheeld. En hadden ze wellicht ook een groter transistor budget gekregen waardoor de de IPC konden verhogen. Dit is speculatie maar kan wel degelijk een rol gespeeld hebben.

Ik hoop dat die nieuwe architectuur wel kan concurreren want intel neemt het er behoorlijk van. De stappen van SB > IB > HW zijn extreem klein qua prestaties zeker als je max overclock mee neemt. Dan zijn CPU's amper sneller geworden. En ze prijzen blijven ook hoog intel verlaagt de prijzen gewoon niet meer. de 3770K en 4770K zijn nog steeds duur. (en waarom zouden ze want er is toch geen concurrentie dus ik kan ze gelijk geven) Dat was in het verleden wel anders toen er nog wel concurrentie was. Dus de consument is de grote verliezer.
Verwijderd schreef op donderdag 04 december 2014 @ 15:07:
[...]


Nee, ik spreek in het algemeen, en geef voorbeelden.
Ik weet zeker dat 99% van de gebruikers het eens is met de nadelen die ik noem.
Conclusie: Eyefinity is geen toegevoegde waarde buiten games.
Ja prima joh als je op die manier bezig wilt gaan kun je alles wel afkraken.

[ Voor 5% gewijzigd door Astennu op 04-12-2014 15:14 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 04 december 2014 @ 15:13:
[...]
Je bent wel extreem negatief.
Nee, ik ben een realist.
Astennu schreef op donderdag 04 december 2014 @ 15:13:
De Phenom II CPU's konden prima concurreren ook de PH II X6 CPU's hadden zo hun voordelen.
Oneens.
De Phenom II had een concurrent kunnen zijn van de Core2 Duo/Quad, maar hij was te laat, en niet snel genoeg.
Maar toen de Phenom II eindelijk op de markt kwam, had Intel Nehalem al klaar, en die was toch echt wel BEHOORLIJK wat sneller.
Als AMD mee wil doen met de concurrentiestrijd, dan moet iedere nieuwe CPU-architectuur competitief zijn met Intel's aanbod over de hele linie. Phenom was dat zeer zeker niet. Dat was dus het begin van het einde.
Bij Bulldozer ging het *WEER* mis, bedoel je.
Net als Barcelona was de CPU zowel veel te laat als minder snel dan ie had moeten zijn.
Astennu schreef op donderdag 04 december 2014 @ 15:13:
Ik hoop dat die nieuwe architectuur wel kan concurreren
Ik denk dat dat ijdele hoop is.
Zoals je zelf al zegt, AMD loopt sowieso altijd een node achter op Intel. Dus zelfs met gelijke architectuur wint Intel toch.
Daarnaast loopt AMD dus ook op architectuur al jaren achter de feiten aan. Hierdoor hebben ze te weinig inkomsten, en kunnen ze dus de achterstand met R&D niet goedmaken.
Astennu schreef op donderdag 04 december 2014 @ 15:13:
Dat was in het verleden wel anders toen er nog wel concurrentie was.
Waar baseer je dat op?
Voor mijn Core2 Duo E6600 betaalde ik destijds nog 300 euro, op het hoogtepunt van de concurrentie.
Mijn Athlon 1400 was volgens mij ook zo'n 300 euro destijds.
Een 3770 of 4770 vandaag de dag is ook die prijs, maar dat is toch wat meer 'high-end' dan de Core2 Duo destijds (toen had je de Q6600 voor zo'n 900 euro, en daarboven nog de QX6800).
In mijn beleving (ik gebruik PCs sinds 1988, en bouw ze sinds 1994 zelf) zijn CPUs nog nooit zo goedkoop geweest als nu.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 04 december 2014 @ 09:23:
[...]
AMD betaalt game developers fors om Mantle te gebruiken (vendor lock-in) en games voor 8-core CPUs te optimaliseren.
nVidia doet ook zoiets.
Heb je een bron?

Het is geen vendor lock-in, DirectX draait er ook gewoon naast.
GameWorks daarentegen is wel een vendor lock-in.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
@Scalibq

Dat komt totaal niet door de opkomst van smartphones, tablets en het in het algemeen steeds goedkoper worden van electronica. Daarnaast is de afzetmarkt voor PCs veel groter dan in 1994 of 2000.

PS een Q6600 koste niet heel erg lang 900 euro (1 maand). Al gauw was dit rond de 300 euro (na één maand al):
pricewatch: Intel Core 2 Quad Q6600

[ Voor 4% gewijzigd door madmaxnl op 04-12-2014 15:30 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Joh, ga je nou echt doen alsof je niet weet van AMD's Gaming Evolved?
Levert voor een ontwikkelaar vaak miljoenen op: http://hexus.net/gaming/n...adice-battlefield-4-deal/
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 15:28:
Het is geen vendor lock-in, DirectX draait er ook gewoon naast.
Nee, het is wel vendor lock-in. Developers moeten een aparte DirectX versie ernaast SCHRIJVEN.
Mantle draait alleen op AMD GCN-hardware. De Mantle-versie lockt je dus op AMD.
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 15:28:
GameWorks daarentegen is wel een vendor lock-in.
GameWorks draait op DX11.
madmaxnl schreef op donderdag 04 december 2014 @ 15:29:
Dat komt totaal niet door de opkomst van smartphones, tablets en het in het algemeen steeds goedkoper worden van electronica. Daarnaast is de afzetmarkt voor PCs veel groter dan in 1994 of 2000.
Heb je een bron dat de afzetmarkt veel groter is dan in 2000? (Sowieso heb ik het over 2006 als voorbeeld)
En verder, wat is je punt?
madmaxnl schreef op donderdag 04 december 2014 @ 15:29:
PS een Q6600 koste niet heel erg lang 900 euro (1 maand). Al gauw was dit rond de 300 euro (na één maand al):
Nee, niet na 1 maand. Kijk maar naar de grafiek: pricewatch: Intel Core 2 Quad Q6600
Ergens rond april 2007 ging ie richting de 500 euro, en rond september 2007 bereikte ie de 300 euro.

[ Voor 34% gewijzigd door Verwijderd op 04-12-2014 15:38 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Wellicht ligt het aan mij maar wat een vervelende en venijnige rotsfeer hangt er hier in dit topic.

Acties:
  • 0 Henk 'm!

  • Karloe
  • Registratie: Februari 2005
  • Laatst online: 25-11-2020
Verwijderd schreef op donderdag 04 december 2014 @ 15:33:

Nee, het is wel vendor lock-in. Developers moeten een aparte DirectX versie ernaast SCHRIJVEN.
Mantle draait alleen op AMD GCN-hardware. De Mantle-versie lockt je dus op AMD.
Het is als Open Source vrij gegeven, of wordt als dusdanig vrijgegeven, dus dan zijn het alleen eigen ontwikkel kosten, en die kan de "Nvidea" kant zat betalen.

De Nvidea versie, daarentegen, kost een extra stukje "hardware" die in de Monitor geïntegreerd moet worden, en vervolgens weigert Nvidea aan AMD/ATI een Licentie te verkopen.

Iets met concurrentie en "uitsluiten" ... dus dubbel $$ win voor Nvidea :'(
Een vervolmaking van TWITMTBP.

Acties:
  • 0 Henk 'm!

Verwijderd

Karloe schreef op donderdag 04 december 2014 @ 16:06:
[...]
Het is als Open Source vrij gegeven, of wordt als dusdanig vrijgegeven
1) Het is NIET vrijgegeven, in geen enkele vorm (zelfs niet aan onafhankelijke ontwikkelaars).
2) Aan 'open source' heb je niks in dit geval.
Zelfs al zou AMD de source vrijgeven (wat ik niet denk, want dan liggen hun drivergeheimen van GCN ook op straat, hooguit de specificaties), dan heeft nVidia/Intel er nog niks aan, omdat hun GPUs niet compatible zijn met die van AMD. Ze moeten dus alsnog een groot deel herschrijven.
Gaan ze niet doen natuurlijk, zeker niet met DX12 en een next-gen versie van OpenGL op komst. Dat weet AMD natuurlijk ook.
Kortom, enige doel van Mantle is promotie en lock-in voor AMD.
Karloe schreef op donderdag 04 december 2014 @ 16:06:
De Nvidea versie, daarentegen, kost een extra stukje "hardware" die in de Monitor geïntegreerd moet worden, en vervolgens weigert Nvidea aan AMD/ATI een Licentie te verkopen.
Nu heb je het over G-Sync, dat is wat anders.
Een G-Sync monitor werkt overigens prima op AMD/ATi/Intel hardware (gewoon volgens de DisplayPort standaard), dus het is geen lock-in. Je hebt alleen geen G-Sync functie.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 04 december 2014 @ 15:33:
[...]


Joh, ga je nou echt doen alsof je niet weet van AMD's Gaming Evolved?
Levert voor een ontwikkelaar vaak miljoenen op: http://hexus.net/gaming/n...adice-battlefield-4-deal/
Kom nou niet met Fudzilla als bron... Als het semiaccurate was geweest dan had het nog enige waarde. Vergeleken met "The Way its Meant to be Played" is AMD's Gaming Evolved een dwerg.

Nee, want in de meeste game engines zit het DX11 codepath er al gewoon bij. Indien ze speciale shading willen gebruiken dan moeten ze het inderdaad voor beide schrijven. Natuurlijk zal er wat meer werk moeten worden verzet, maar dit gaat ook gewoon op voor GameWorks.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 16:36:
[...]
Vergeleken met "The Way its Meant to be Played" is AMD's Gaming Evolved een dwerg.
Neemt niet weg dat ook AMD een programma heeft waarmee ze exclusieve rechten tot games/features inkopen bij ontwikkelaars.
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 16:36:
Nee, want in de meeste game engines zit het DX11 codepath er al gewoon bij.
Waar Mantle niets aan heeft.
Voor het gebruik van Mantle moeten ze een compleet nieuw Mantle-codepath schrijven.
En dat codepath is weer compleet nutteloos voor alle andere hardware. Het staat dus compleet haaks op DX11.
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 16:36:
Natuurlijk zal er wat meer werk moeten worden verzet, maar dit gaat ook gewoon op voor GameWorks.
Nee, GameWorks is gewoon een uitbreiding op DX11. Ontwikkelaars kunnen binnen hun DX11-engine gebruik maken van GameWorks-extra's. Bepaalde features zullen dan misschien niet werken op non-nVidia hardware, of minder efficient zijn, maar dit wordt door NV al voor je gedaan.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op donderdag 04 december 2014 @ 15:07:
Nee, ik spreek in het algemeen, en geef voorbeelden.
Ik weet zeker dat 99% van de gebruikers het eens is met de nadelen die ik noem.
Conclusie: Eyefinity is geen toegevoegde waarde buiten games.
Lekker kort door de bocht. Eyefinity is wel wat meer dan slechts het maken van een extended desktop over max 3 schermen of het hebben van 3 schermen die allemaal hetzelfde tonen. Ten eerste kunnen de AMD APU's 4 schermen ondersteunen, ten tweede zijn de mogenlijkheden heel wat breder dan de standaard opties van Windows of wat Intel kan bieden.

Ofwel Conclusie: Eyefinity heeft voor jou geen toegevoegde waarde buiten games, maar dat maakt nog niet dat dit ook geldt voor al die andere mensen op de wereld.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 04 december 2014 @ 16:59:
[...]
ten tweede zijn de mogenlijkheden heel wat breder dan de standaard opties van Windows of wat Intel kan bieden.
Zoals?
Valt me altijd zo enorm op dat mensen van die nietszeggende dingen roepen.
WAT kun je dan meer, en wat voegt dat dan toe?
dahakon schreef op donderdag 04 december 2014 @ 16:59:
Ofwel Conclusie: Eyefinity heeft voor jou geen toegevoegde waarde buiten games, maar dat maakt nog niet dat dit ook geldt voor al die andere mensen op de wereld.
Nee, zolang er geen aantoonbare meerwaarde van Eyefinity is buiten games, blijf ik ervanuitgaan dat die er niet is.
Toon maar aan dus.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik roep geen nietszeggende dingen. Jij maakt claims die niet kloppen (zoals je statement over TrueAudio eerder), ook al is er genoeg informatie beschikbaar die kan vertellen hoe de techniek precies werkt.

Afbeeldingslocatie: http://www.ecs.com.tw/extra/images/for_highlight/amd_eyefinity.gif

Even een oud plaatje met de mogenlijkheden van Eyefinity. Ondertussen kun je ook schermen met verschillende resoluties combineren op verschillende manieren, welke eerder ook niet mogenlijk waren.

Je hoeft je verder niet in de techniek te verdiepen hoor, maar maak dan ook geen claims dat het alleen voor gamers zou zijn.
Verwijderd schreef op donderdag 04 december 2014 @ 12:06:
@dahakon: bij jouw prima statements komt ook nog het feit dat de AMD APU's op een groter procede worden gebakken dan bij Intel, waardoor het helemaal een knap staaltje werk is van AMD...... _/-\o_
Inderdaad, heb getracht dat ook duidelijk te maken. Een simpel rekensommetje laat het verschil zien.

28nm is ~1.62 keer zo groot als 22nm. Wanneer je de gegeven 175mm2 van de Iris Pro GPU neemt, dan kun je berekenen dat Iris Pro op 28nm ongeveer 284mm2 groot zou zijn. Dat is dan nog exclusief de 84mm2 extra chip die nodig is. Intel heeft dus ~370mm2 op 28nm nodig (er van uitgaande dat dezelfde hoge turbo's nog steeds gehaald kunnen worden) om slechter te presteren dan AMD's ~120mm2 grote Kaveri GPU.

Dat is dus een factor 3 meer silicon voor (in gevallen behoorlijk) slechtere prestaties. Het is maar wat je goed vindt.

[ Voor 43% gewijzigd door dahakon op 04-12-2014 18:24 ]


Acties:
  • 0 Henk 'm!

  • Dreamvoid
  • Registratie: Augustus 2001
  • Niet online
Dat is vrij moeilijk te geloven. Een GPU is niet zo complex - het zijn gewoon zwaar parallelle shader units die op een x kloksnelheid draaien. Er zit (vrijwel) geen IPC verhogende complexiteit in als in een cpu met zijn instructie pipeline problemen, caching, etc - een GPU is gewoon een shitload aan throughput capaciteit, en het is onwaarschijnlijk dat Intel op 1 of andere mysterieuze manier meer transistors nodig heeft voor een floating point operatie. Dus ofwel het daadwerkelijke GPU oppervlak is niet zo groot als die schatting, ofwel er spelen andere (thermal throttling bv) zaken mee.

[ Voor 16% gewijzigd door Dreamvoid op 04-12-2014 18:44 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op donderdag 04 december 2014 @ 17:07:
[...]
Valt me altijd zo enorm op dat mensen van die nietszeggende dingen roepen.
[...]
Dat viel mij nou ook op :X
We zijn het dus een keer eens met elkaar, dat mag dan best wel gezegd worden.

De meeste mensen hier zijn gelukkig weer op een normale manier on-topic.

Die gekoppelde multi monitor set-ups zoals bv eyefinity zijn vaak belangrijk in de financiele wereld & utility.

[ Voor 23% gewijzigd door Verwijderd op 04-12-2014 18:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 04 december 2014 @ 17:23:
Even een oud plaatje met de mogenlijkheden van Eyefinity.
En wat is daar bijzonder aan?
Al die configuraties kun je makkelijk maken met een standaard Windows-systeem, als je maar genoeg outputs op je systeem hebt.
dahakon schreef op donderdag 04 december 2014 @ 17:23:
Ondertussen kun je ook schermen met verschillende resoluties combineren op verschillende manieren, welke eerder ook niet mogenlijk waren.
Ook dit kan prima. Verschillende resoluties, refreshrates etc.
dahakon schreef op donderdag 04 december 2014 @ 17:23:
Je hoeft je verder niet in de techniek te verdiepen hoor, maar maak dan ook geen claims dat het alleen voor gamers zou zijn.
Niet zo bijdehand doen, je hebt nog steeds niets laten zien dat niet zonder Eyefinity kan.
Verder heb ik een bedrijf gehad dat software ontwikkelde voor videoprojecties. Ik denk dat ik wel *iets* meer van multi-monitor instellingen afweet dan de gemiddelde tweaker hier.

[ Voor 22% gewijzigd door Verwijderd op 04-12-2014 19:09 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dreamvoid schreef op donderdag 04 december 2014 @ 18:36:
Dat is vrij moeilijk te geloven. Een GPU is niet zo complex - het zijn gewoon zwaar parallelle shader units die op een x kloksnelheid draaien. Er zit (vrijwel) geen IPC verhogende complexiteit in als in een cpu met zijn instructie pipeline problemen, caching, etc - een GPU is gewoon een shitload aan throughput capaciteit, en het is onwaarschijnlijk dat Intel op 1 of andere mysterieuze manier meer transistors nodig heeft voor een floating point operatie. Dus ofwel het daadwerkelijke GPU oppervlak is niet zo groot als die schatting, ofwel er spelen andere (thermal throttling bv) zaken mee.
Mee eens.
Ten eerste zijn die schattingen totaal onzinnig (allerlei aannamen over totaal verschillende processen, aannamen over welke logica zich waar op de die bevindt etc).
Ten tweede, je vergelijkt appels met peren.
Intel heeft gekozen voor een grote L4-cache ipv meer shader-eenheden.
Dit geeft dus andere performance-karakteristieken.
Ook kun je de transistorcount niet zomaar 1:1 vergelijken qua oppervlakte, omdat de transistordichtheid voor caches anders is dan die voor ALUs, om maar wat te noemen.

Lijkt me vooral een gevalletje creatief rekenen naar het antwoord dat je wil hebben.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op donderdag 04 december 2014 @ 19:17:
Lijkt me vooral een gevalletje creatief rekenen naar het antwoord dat je wil hebben.
De rest van je post doet geheel niet terzake. Het enige 'creatieve' aan de berekening is de aanname van de omvang van Kaveri's GPU, die zou ook ~130mm2 kunnen zijn. Maar dat is niets in verhouding.

Het verschil tussen Haswell met non Iris Pro en die met Iris Pro is 20 EU's. Tenzij hard aangetoond kan worden dat er nog andere grote verschillen zijn die het verschil in die-size kunnen verklaren, zijn die 20 EU's extra verantwoordelijk voor de 86mm2 grotere die, waarmee ook vast te stellen is hoe groot de orginele 20 EU's moeten zijn in die-size.

En ja, nodes zijn niet 1 op 1 te vergelijken, dus moet je het doen met de data die je hebt. Wellicht zou een 40EU GPU van Intel op 28nm maar 240mm2 zijn, ipv de 285 die een lineaire berekening geeft. Neemt niet weg dat het aanzienlijk groter is dan Kaveri's. Bovendien mag lv4 Cache een keuze zijn, het kost nog steeds silicon en moet dus weldegelijk meegewogen worden.

Maar goed, de tendens in de reactie is duidelijk...

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 04 december 2014 @ 20:30:
[...]
De rest van je post doet geheel niet terzake.
Jawel, het past alleen niet in jouw straatje.
dahakon schreef op donderdag 04 december 2014 @ 20:30:
Het verschil tussen Haswell met non Iris Pro en die met Iris Pro is 20 EU's. Tenzij hard aangetoond kan worden dat er nog andere grote verschillen zijn die het verschil in die-size kunnen verklaren, zijn die 20 EU's extra verantwoordelijk voor de 86mm2 grotere die, waarmee ook vast te stellen is hoe groot de orginele 20 EU's moeten zijn in die-size.
Ik weet niet waar jij je berekeningen op baseert, maar er zijn verschillende uitvoeringen van de GPU, waaronder:
GT1: 10 EUs
GT2: 20 EUs
GT3: 40 EUs
GT3e: 40 EUs + 128MB L4

Ik zie die 128MB L4 niet in je berekeningen terugkomen.

Volgens mij moet je je berekeningen nog maar eens opnieuw doen, en duidelijke bronnen erbij over welke CPU en GPU je het hebt in welk geval.
Nu slaat je verhaal helemaal nergens op. Allerlei getallen uit de lucht gegrepen, vergeleken met dingen die helemaal niet 1:1 vergelijkbaar zijn, en toevallig precies de conclusie die je zocht!

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op donderdag 04 december 2014 @ 21:06:
Jawel, het past alleen niet in jouw straatje.
Schattingen zijn gebasseerd op feitenlijke cijfers, voor het grootste deel afkomstig van algemeen betrouwbaar beschouwde sites. L4 cache is een keuze van Intel, om redenen voor hun bekend, maakt de situatie niet anders. Valt wel mee. Maar iets als transistor dichtheid is een keuze, die ook te maken heeft met targets. Intel zal zijn redenen hebben, maar het maakt de situatie niet anders. Bovendien kijk ik hier puur naar het GPU gedeelte, niet naar geheugenbussen etc, aangezien die op de rest van de die zitten.
Ik weet niet waar jij je berekeningen op baseert, maar er zijn verschillende uitvoeringen van de GPU, waaronder:
GT1: 10 EUs
GT2: 20 EUs
GT3: 40 EUs
GT3e: 40 EUs + 128MB L4

Ik zie die 128MB L4 niet in je berekeningen terugkomen.
Dan moet je boel nog maar eens goed teruglezen. De berekening heeft zijn bron en die heb ik gelinkt. Daarin wordt QC met GT2 vergeleken met QC GT3e. De 128MB L4 is de aparte 84mm2 chip die Iris Pro nodig heeft.
Volgens mij moet je je berekeningen nog maar eens opnieuw doen, en duidelijke bronnen erbij over welke CPU en GPU je het hebt in welk geval.
Nu slaat je verhaal helemaal nergens op. Allerlei getallen uit de lucht gegrepen, vergeleken met dingen die helemaal niet 1:1 vergelijkbaar zijn, en toevallig precies de conclusie die je zocht!
Ik hoef niets op nieuw te doen. Zelfs zonder de schaling van 22nm naar 28nm heeft Intel nog meer silicon nodig dan AMD voor mindere GPU prestaties. Namelijk ~175mm2+84mm2, tegenover iets in de trant van 120-130mm2. Ik hoef dus helemaal niets te doen om te zoeken naar cijfers die een voorafgemaakte conclusie zouden onderstrepen. De conclusie is gebasseerd op cijfers die jou niet aan staan. Dat is dan weer niet mijn probleem.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op donderdag 04 december 2014 @ 15:05:
Oneens. AMD maakt zeer matige, outdated CPUs, die vanwege hun extreem lage prijs economisch nog interessant zijn, maar technisch compleet irrelevant.
Zoals ik al eerder zei, als je het gratis weggeeft heb je oneindig goede prijs/prestatieverhouding.
Troll much? Als consument kan het mij eigenlijk niks schelen hoe interessant of technisch relevant een processor is, of hoe matig en outdated; het gaat mij voornamelijk om de bang voor de buck. Het is hier geen verpiswedstrijd over hoe modern mijn hardware is, ik wil gewoon waar voor mijn geld. Het enige dat jij hier aanwakkert met je irrelevante meningen over wat AMD processoren voor jou betekenen, is RAAAGE en ongenoegen. Doe dat eens thuis waar niemand je hoort, want niemand heeft er een boodschap aan.

Niet dat ik een AMD fanboy ben, edoch ben ik tegen de hegemonie van eender welke instantie en is mijn Spider-Sense Der Rechtvaerdigheidt ferm aan het flippen bij het lezen van al die irrelevante doch negatief geladen commentaar van jou jegens AMD. Laat het zo, aub.
Verwijderd schreef op donderdag 04 december 2014 @ 15:05:
Te sterke concurrentie is ook niet goed.
Bron daarvoor?

[ Voor 7% gewijzigd door RuddyMysterious op 04-12-2014 22:17 ]


Acties:
  • 0 Henk 'm!

  • paulklooster
  • Registratie: April 2009
  • Laatst online: 10-09 14:36
Te sterke concurrentie is ook niet goed.
Helemaal mee eens, maar in de processorenmarkt is helemaal geen nog slechter.

Verder bestaat AMD nu toch al vrij lang en moet het toch wel iets goed doen. Dus Scalibq, kun je ook maar een punt noemen waar je AMD wel iets goed vind doen?

Ik vind het een beetje jammer dat toen jij net kwam posten op dit forum ik dacht 'prima wat tegengeluid' omdat het in deze thread soms iets te positief over AMD werd gedaan, maar je begint je steeds meer te ontpoppen als iemand die letterlijk geen enkel goed woord over heeft voor AMD. Dan snap ik eigenlijk niet precies wat je hier wil doen.

Daarbij: de AMD apu's zijn zeker wel technisch vernuftige dingen. Mag jij mij vertellen waar en wanneer een nadere fabrikant een gelijkwaardige CPU/GPU combinatie heeft gegeven. Ook jij moet toegeven dat de iris pro de mindere is (de reden hiervan doet er even niet toe. Ja, AMD heeft ati overgenomen en daarbij veel binnen gehaald maar dat is gewoon bedrijfsvoering en doet niks af aan het product wat er nu ligt).

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op donderdag 04 december 2014 @ 21:57:
[...]
Bovendien kijk ik hier puur naar het GPU gedeelte, niet naar geheugenbussen etc, aangezien die op de rest van de die zitten.
Het punt is dat je niet weet hoeveel transistors er in het GPU-gedeelte zitten etc, omdat Intel daar nooit uitspraken over gedaan heeft.
Het enige zijn wat geruchten en natte-vingerwerk van mensen die denken dat ze dat uit die-shots kunnen afleiden (wat jij 'betrouwbare bronnen' noemt, kennelijk).
dahakon schreef op donderdag 04 december 2014 @ 21:57:
De conclusie is gebasseerd op cijfers die jou niet aan staan.
Waarom zou die conclusie mij niet aanstaan?
Rare logica heb jij. Ik heb helemaal niets gezegd over de conclusie.
Ik heb alleen gezegd dat de manier waarop die conclusie bereikt wordt, verre van betrouwbaar is.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
[...]
Helemaal mee eens, maar in de processorenmarkt is helemaal geen nog slechter.
Daar ben ik het dus niet mee eens, zoals ik al eerder beargumenteerde.
Sinds 2006 is het een stuk beter gegaan met CPUs. Computers zijn betrouwbaarder, goedkoper en stiller geworden, ipv alleen maar een race om de meeste MHz.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
Dus Scalibq, kun je ook maar een punt noemen waar je AMD wel iets goed vind doen?
Moet dat dan?
AMD is al jarenlang aan het wegzakken, zowel in de CPU-wereld als in de GPU-wereld.
Toevallig kwam ik vandaag dit grafiekje tegen: http://static.cdn-seeking...cdcb215eee2a237661f7c.png
Ziet er niet zo best uit.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
maar je begint je steeds meer te ontpoppen als iemand die letterlijk geen enkel goed woord over heeft voor AMD. Dan snap ik eigenlijk niet precies wat je hier wil doen.
Mensen een beetje realiteitszin bijbregen. Het gaat al jaren niet goed met AMD.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
Daarbij: de AMD apu's zijn zeker wel technisch vernuftige dingen.
Hoezo?
Het is een matige CPU met een overdreven krachtige GPU (bij Trinity bleek al dat hoewel de GPU op papier zeker 50% sneller zou moeten zijn dan Llano, dat ie in de praktijk vaak niet tot nauwelijks sneller was, omdat de CPU de bottleneck was).
Die GPU is verder niets bijzonders voor een bedrijf als AMD: ze hebben gewoon hun bestaande DX11-architectuur in een CPU-die gecopy-paste.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
Mag jij mij vertellen waar en wanneer een nadere fabrikant een gelijkwaardige CPU/GPU combinatie heeft gegeven.
Moet dat dan? Er is niemand die zich op dezelfde markt richt als AMD. En terecht, zo lijkt het, want de laptops en tablets met een AMD APU zijn nog steeds op 1 hand te tellen.
Vrijwel alles gaat ofwel voor een AMD SoC, ofwel voor een Intel. Blijkbaar bieden die chips wel wat de fabrikanten zoeken, en AMD niet.
paulklooster schreef op donderdag 04 december 2014 @ 22:30:
Ook jij moet toegeven dat de iris pro de mindere is
Ik heb nooit anders beweerd. Ik vind alleen de formulering met 'moeten toegeven' nogal opmerkelijk.
Hoezo MOET ik dat 'toegeven'? Wil je zo graag iets goeds over AMD horen, of iets slechts over Intel?
Mij interesseert het niet, zoals ik al zei, Intel richt zich op een andere markt hiermee. De snelste integrated GPU is hierbij geen doel. Als ze zich dat als doel zouden stellen, zouden ze dat ongetwijfeld voor elkaar kunnen krijgen. De technologie is er, dat lijkt me duidelijk.

[ Voor 61% gewijzigd door Verwijderd op 04-12-2014 22:51 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op donderdag 04 december 2014 @ 22:37:
Daar ben ik het dus niet mee eens, zoals ik al eerder beargumenteerde.
Ik snap het niet, kan je dat nu serieus geloven?
Verwijderd schreef op donderdag 04 december 2014 @ 22:37:
Sinds 2006 is het een stuk beter gegaan met CPUs. Computers zijn betrouwbaarder, goedkoper en stiller geworden, ipv alleen maar een race om de meeste MHz.
Dat komt omdat het ontwerpen van processoren een werk is van relatief lange termijn, en die drang om te innoveren is destijds aangewakkerd door de sterke positie van AMD, en tevens is de sterke positie van AMD gefnuikt in zekere mate door de oneerlijke manipulatie van de markt door Intel.

Dus de huidige sterke positie van Intel is dankzij AMD (omdat ze vroeger goed bezig waren), en de huidige zwakke positie van AMD is dankzij Intel (omdat zij vroeger smeerlapperijen hebben uitgehaald).

Welk bedrijf verdient hier nu negatieve commentaar, wi?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 04 december 2014 @ 22:37:
[...]
Het punt is dat je niet weet hoeveel transistors er in het GPU-gedeelte zitten etc, omdat Intel daar nooit uitspraken over gedaan heeft.
Het enige zijn wat geruchten en natte-vingerwerk van mensen die denken dat ze dat uit die-shots kunnen afleiden (wat jij 'betrouwbare bronnen' noemt, kennelijk).
http://www.anandtech.com/...ew-core-i74950hq-tested/4
Onderaan de pagina.

Die "betrouwbare" bronnen, bron in dit geval is wel Anand Lal Shimpi. Hij zal het misschien niet altijd goed hebben, maar als het aankomt op hardware is hij wat mij betreft toch de nummer 1 reviewer van dit moment (alleen jammer dat hij niet meer bij Anandtech werkt). Hij kan meestal tot in de puntjes uitleggen hoe en waarom een architectuur goed is en hoe deze werkt.
Als er een iemand is die ik blind geloof dan is hij het wel.

Jij kwam eerder met Fudzilla als bron.... helaas staat dat bekend als fud. Als er iemand met geld zit te strooien dan is het in dit geval eerder Nvidia, neemt niet weg dat AMD het ook zal doen. Alleen is uit het verleden gebleken dat Nvidia dit gewoon veel vaker doet, meestal in nadeel van de competitie. Niemand wordt er blij van als we daar over een discussie starten (maar als het nodig is dan plof ik wel alle bronnen neer).

Volgens mij waren het de ontwikkelaars die graag Mantle wilde zien, enkele hebben dit ook op persconferenties aangegeven. Ik kan mij niet voorstellen dat voor een(+/-) maand aan man uren 3-8 mil is betaald. Want dat is de tijd die benodigd was om het in een game in te bouwen.
Wat ik wel zou kunnen begrijpen is dat het zogenaamde geld wat AMD hierin stopt gelijk staat aan het aantal manuren van hun kant. Zowel Nvidia als AMD leent mensen uit aan ontwikkelaars om mee te helpen met spellen.

[ Voor 34% gewijzigd door Sp3ci3s8472 op 04-12-2014 23:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DevilsProphet schreef op donderdag 04 december 2014 @ 22:58:
[...]
Ik snap het niet, kan je dat nu serieus geloven?
Wat snap je niet dan?
Echt, hoe kunnen we nu een discussie voeren als je geen specifieke vragen stelt.
DevilsProphet schreef op donderdag 04 december 2014 @ 22:58:
Dat komt omdat het ontwerpen van processoren een werk is van relatief lange termijn, en die drang om te innoveren is destijds aangewakkerd door de sterke positie van AMD, en tevens is de sterke positie van AMD gefnuikt in zekere mate door de oneerlijke manipulatie van de markt door Intel.
Ook weer niet zo lang als waar we het hier over hebben.
Zoals gezegd, sinds 2006 speelt AMD niet meer mee. Dat is nu 8 jaar geleden. Een CPU-ontwerp duurt geen 8 jaar. Zeker niet met het tick-tock principe dat Intel er nu op nahoudt. Ze ontwerpen namelijk geen nieuwe architectuur from scratch, maar komen iedere 2 jaar met een verbeterde variant.
DevilsProphet schreef op donderdag 04 december 2014 @ 22:58:
Dus de huidige sterke positie van Intel is dankzij AMD (omdat ze vroeger goed bezig waren), en de huidige zwakke positie van AMD is dankzij Intel (omdat zij vroeger smeerlapperijen hebben uitgehaald).
En dan zeg je tegen mij "Geloof je dat nou echt?"...
Misschien even een geschiedenislesje?
Intel is de 'uitvinder' van de microprocessor, en waren de eersten die op grote schaal complete CPUs produceerden, met de 4004.
Intel is altijd de toonaangevende chipfabrikant geweest.
Omdat IBM de 8088 in hun PC wilde gebruiken, en geen risico's wilde nemen met een enkele supplier, dwong IBM af dat Intel hun 8088 en latere CPUs ook door second sources moest laten fabriceren, zodat IBM niet zonder supply kwam te zitten, mocht Intel problemen krijgen.
Hierdoor kwam AMD in het verhaal: zij waren zo'n second source.
Na de 80286 hadden de klonen IBM weggedrukt uit de PC-markt, en had IBM weinig invloed meer. Hierdoor besloot Intel om niet langer een second source-overeenkomst aan te gaan met de 80386.
AMD vond dat hun licentie voor de 8088 en 80286 ook wel voor de 80386 zou gelden, en heeft toen op eigen houtje de Intel 80386 reverse-engineered en gekloond.
Hierop heeft Intel AMD aangeklaagd.
AMD is schuldig bevonden, *maar*, de rechter vond wel dat Intel met de x86 een monopolie had in de PC-markt. Daardoor besloot de rechter dat AMD wel het copyright schond door het kopieren van de microcode van Intel, maar dat Intel hun x86-instructieset wel in licentie moest laten bouwen door andere fabrikanten.
Intel moest AMD dus noodgedwongen een x86-licentie geven.

Maarja, hierdoor heeft AMD sowieso altijd een achterstand. AMD moet voor iedere x86-CPU die ze maken licentiekosten afdragen aan Intel. Ook alle extensies die AMD aan de x86-architectuur doet, zoals bv x86-64, moeten ze kostenvrij in licentie geven aan Intel.
Vroeger stond er ook nog in dat AMD nooit meer dan 20% van hun productie mag outsourcen, maar dat is een tijdje geleden geschrapt (anders was het nu al einde AMD, vanwege de Global Foundries-constructie).
Het is dus een race die AMD bij voorbaat eigenlijk al niet kan winnen. Maarja, dat krijg je als je de CPU van je concurrent wil klonen, die veel groter is dan jij.
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 23:01:
[...]
Die "betrouwbare" bronnen, bron in dit geval is wel Anand Lal Shimpi.
Oh ja? Die link heb ik dan zeker gemist? Geef nog eens?
Sp3ci3s8472 schreef op donderdag 04 december 2014 @ 23:01:
Jij kwam eerder met Fudzilla als bron.... helaas staat dat bekend als fud.
Lol, wel even context erbij he.
Het bedrag dat genoemd werd, dat nemen we met een korrel zout. Ongetwijfeld zal er wel iets betaald zijn natuurlijk.
Het punt was voornamelijk het Gaming Evolved-programma. Dat ga je toch niet ontkennen 'omdat het op Fudzilla staat'?
Staat namelijk ook op de AMD-site zelf: http://www.amd.com/en-us/...e/featured/gaming-evolved
Daar noemen ze natuurlijk geen bedragen, maarja, voor niets gaat de zon op.

Echt, de realiteitszin is weer ver te zoeken.

[ Voor 64% gewijzigd door Verwijderd op 04-12-2014 23:16 ]


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Verwijderd schreef op donderdag 04 december 2014 @ 23:04

Echt, de realiteitszin is weer ver te zoeken.
Realiteitszin is tegenwoordig dat je met een PC van ongeveer 5 jaar oud alle nieuwe dingen zonder gekkigheid kan gebruiken.

Maw hou eens op met oorlogje spelen en post eens wat AMD-nieuws.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

Verwijderd

enchion schreef op donderdag 04 december 2014 @ 23:13:
[...]
Realiteitszin is tegenwoordig dat je met een PC van ongeveer 5 jaar oud alle nieuwe dingen zonder gekkigheid kan gebruiken.
Verwijderd schreef op donderdag 04 december 2014 @ 13:28:
Nieuwe CPUs zijn wel sneller, maar de oude zijn voor veel dingen nog steeds 'goed genoeg'.
Ik heb zelf nog een systeempje met een i7 860, en die kan nog prima meekomen.
Zelfs m'n oude Core2 Duo op 3 GHz doet het voor een hoop taken absoluut niet rot (Visual Studio 2010 geen probleem, compilen gaat nog steeds vrij vlot). Maar ik heb daar wel gemerkt dat nieuwere games erop tekortkomen.
Ik denk dat een i7 2600K nog niet echt een bottleneck is in games en dergelijke (behalve misschien als je een hele dikke SLI/CrossFire opstelling hebt).
Alleen is dat een andere discussie.
Net zoals dat geleuter over prijs. Daar zijn al andere topics over ("Wat kan ik het beste kopen voor budget X" enzo).
Ik vind het interessanter om het over technologie te hebben. Over een CPU van 5 jaar geleden ben ik nu wel uitgepraat. Ik heb het liever over nieuwe technologie, en snellere CPUs.

[ Voor 15% gewijzigd door Verwijderd op 05-12-2014 12:51 ]


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Verwijderd schreef op donderdag 04 december 2014 @ 23:22:
Ik heb het liever over nieuwe technologie, en snellere CPUs.
Of over een potje stoken.
duby229 -- 10-22-2011, 03:07 AM @ www.phoronix.com/forums
I wont say that Scali is an Intel fanboy, though he may be one in many peoples opinions... But what he most definitely is though, is a die hard anti-AMD fanatic. Anything that he can say or do that might in any way make AMD look bad, then hes gonna say or do it. No matter how far outta his way he has to go.... The guy is fanatically anti-AMD....
Soit.

Acties:
  • 0 Henk 'm!

Verwijderd

Er zijn hier een aantal mensen nogal intolerant/overgevoelig tegenover een realistische/kritische kijk op de zaken.
Pfft, ik heb wsch meer AMD/ATi-hardware versleten door de jaren dan de meesten hier.
Maargoed, het is altijd makkelijker om de persoon aan te vallen, dan om over het daadwerkelijke onderwerp te discussieren, nietwaar?
Sowieso, die reactie waar jij aan refereert gaat over de bug in het BIOS van veel Bulldozer-compatible borden. Ik heb hier slechts een paar dagen geleden nog mensen op gewezen, dat probleem speelt nog steeds.
Heeft niets te maken met wat ik al dan niet over AMD zou denken. Ik probeer gewoon mensen te wijzen op dit probleem dat nu eenmaal bestaat (en dat opvallend weinig aandacht in de mainstream media heeft gehad). Ik verwijs zelfs naar het issue in de KB van AMD. Dus het is niet alsof ik die dingen verzin, AMD heeft het probleem ook (deels) erkend.

Dus, niet op de man spelen, discussie graag technisch houden, met technische argumenten, bronnen waar mogelijk etc.
Beetje niveau graag.

[ Voor 84% gewijzigd door Verwijderd op 05-12-2014 13:19 ]


Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 22:23

br00ky

Moderator Harde Waren
Modbreak:Beste dames en heren,
het is duidelijk dat een aantal mensen het met elkaar oneens is en dat dit soms op de man/vrouw gespeeld wordt. Jullie zijn allemaal akkoord gegaan met de Algemene Voorwaarden, waarin onder andere is opgenomen dat je elkaar met respect behandeld. In de hitte van de discussie kan dat nog wel eens vergeten worden.

Laten we dat achter ons laten en ons puur nog concentreren op de discussie richten. Probeer elkaar met argumenten te overtuigen. Als dat niet lukt, laat het gaan, het is niet het einde van de wereld.

Vanaf dit punt zal er specifiek gelet worden op persoonlijke aanvallen en op de man spelen. Een discussie mag best hard zijn, maar wel fair. Iedereen is nu weer gewaarschuwd.

Acties:
  • 0 Henk 'm!

Verwijderd

AMD behaald groenste supercomputer status met Firepro S9150

Dwz: de beste performance per Watt dankzij firepro S9150 GPU's.

http://www.green500.org/

L-CSC Emerges as the Most Energy-Efficient Supercomputer in the World

"New Orleans, LA, USA; November 20, 2014 -- A new supercomputer, L-CSC from the GSI Helmholtz Center, emerged as the most energy-efficient (or greenest) supercomputer in the world, according to the 16th edition of the twice-yearly Green500 list. The L-CSC cluster was the first and only supercomputer on the list to surpass 5 gigaflops/watt (billions of operations per second per watt). Like so many of the most energy-efficient supercomputers in the world over the past few years, L-CSC is a heterogeneous supercomputer that is powered by GPU accelerators, namely AMD FirePro™ S9150 GPUs. It marks the first time that a supercomputer using AMD GPUs has held the top spot."

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 04 december 2014 @ 15:49:
Wellicht ligt het aan mij maar wat een vervelende en venijnige rotsfeer hangt er hier in dit topic.
Geen naming en shaming meer.

[ Voor 93% gewijzigd door br00ky op 08-12-2014 14:21 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

AMD verhuist per 31 december van de NYSE naar de NASDAQ:
http://investorplace.com/...tock-nasdaq/#.VIm6wVdeppU

AMD introductie van Omega Drivers moet o.a. Game ondersteuning verbeteren:
http://www.bidnessetc.com...ew-omega-graphics-driver/

Game specific updates and:
"AMD also added FreeSync, a smoothing technology that allows the GPU to adjust to frame-rate highs and lows by delivering a more uniform experience across the board. More importantly, it improves video rendering and upscales existing Full HD content to Ultra HD (4k resolution) on nearly all of its current GPU platforms as well as some APUs."

Edit:
Veel sneller dan verwachte succesvolle Finfet 14nm productie bij Samsung is ook voor AMD goed nieuws:
nieuws: Samsung is begonnen met Finfet-chipproductie op 14nm

[ Voor 16% gewijzigd door Verwijderd op 11-12-2014 17:49 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Als AMD echt met 14nm Finfet aan de gang gaat is dat zeker goed nieuws!
Dan zouden ze qua productie process in een klap bij zijn met Intel. Dan nog een goede architectuur en ze kunnen weer mee komen.

Voor GPU's is dat ook een goed teken we zitten daar in verhouding al vrij lang op 28nm.

Ik ben erg benieuwd of AMD bij Samsung/GF gaat afnemen. En vooral welke chips.

[ Voor 3% gewijzigd door Astennu op 11-12-2014 18:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

Het is even afwachten welke fabs van wie welk proces gaat hanteren (en voor welke klanten) maar het is zeker goed nieuws.

Indien AMD op veel kortere termijn dan verwacht de beschikking zou krijgen over 14nm processen is dat ongekend goed nieuws. In feite zou het aandeel AMD door dergelijk nieuws extreem moeten stijgen.......
(daar is vandaag iig nog geen sprake van, na aanvankelijk een daling van 2 procent nu 1,5 procent omhoog)

  • polli_
  • Registratie: November 2010
  • Laatst online: 20-09 12:08
Astennu schreef op donderdag 11 december 2014 @ 18:29:
Als AMD echt met 14nm Finfet aan de gang gaat is dat zeker goed nieuws!
Dan zouden ze qua productie process in een klap bij zijn met Intel. Dan nog een goede architectuur en ze kunnen weer mee komen.

Voor GPU's is dat ook een goed teken we zitten daar in verhouding al vrij lang op 28nm.

Ik ben erg benieuwd of AMD bij Samsung/GF gaat afnemen. En vooral welke chips.
AMD heeft een tijdje geleden aangeven dat ze hoog inzetten om de 14nm van Globalfoundries en Samsung. Amd Zen en K12 komen beiden op 14nm als het goed is. Inderdaad goed nieuws dat de productie van 14nm is begonnen bij Samsung, alhoewel ik denk dat het meer geschikt voor lower power dan voor high performance.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Voor de APU's is het al heel erg mooi.

Maar het zo ook mooi zijn als ze 14nm voor de GPU's kunnen gebruiken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Verwijderd

polli_ schreef op donderdag 11 december 2014 @ 22:22:
[...]
AMD heeft een tijdje geleden aangeven dat ze hoog inzetten om de 14nm van Globalfoundries en Samsung. Amd Zen en K12 komen beiden op 14nm als het goed is. Inderdaad goed nieuws dat de productie van 14nm is begonnen bij Samsung, alhoewel ik denk dat het meer geschikt voor lower power dan voor high performance.
Hoe dan ook gaat het 14nm "mes aan twee kanten snijden".
Een dergelijke schaalverkleining (28nm naar 14nm) brengt altijd een forse prestatiewinst met zich mee.

Voor low power zit AMD qua instap mobiel spul al aan de bodem van het verbruik.
Temash A4-1200 Idle verbruik: 1200 milliWatt, 10 inch scherm: 2000 milliWatt:
productreview: AMD A4-1200 review door Verwijderd

Nu kan AMD zich dus richten op veel meer performance.

Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op donderdag 11 december 2014 @ 22:26:
Maar het zo ook mooi zijn als ze 14nm voor de GPU's kunnen gebruiken.
Vroeger had men vaak twee varianten van een proces met dezelfde feature-size. Een low-power versie een en high-performance versie.
Tegenwoordig gaat het meer om-en-om, waarbij dus niet alle feature-sizes meer geschikt zijn voor beide typen chips. Daarom dus ook dat GPUs nog steeds op 28 nm zitten, terwijl er wel een 20 nm is.
GF beweert dat ze met 14 nm weer beide kanten uit kunnen: http://www.globalfoundrie...dge-technology/14-lpe-lpp
Ik ben dus benieuwd.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 09:05:
[...]


Vroeger had men vaak twee varianten van een proces met dezelfde feature-size. Een low-power versie een en high-performance versie.
Tegenwoordig gaat het meer om-en-om, waarbij dus niet alle feature-sizes meer geschikt zijn voor beide typen chips. Daarom dus ook dat GPUs nog steeds op 28 nm zitten, terwijl er wel een 20 nm is.
GF beweert dat ze met 14 nm weer beide kanten uit kunnen: http://www.globalfoundrie...dge-technology/14-lpe-lpp
Ik ben dus benieuwd.
Klopt ja. 28nm was het in HP en een LP.
Ik mag hopen dat 14nm of 16nm wel geschikt is voor GPU's want wat je zelf ook al zegt 20nm is dat niet. Het kan wel maar hoge clockspeeds kan je dan wel vergeten. En dan heb je niet zo veel voordeel meer van je kleinere productie process aangezien de prestaties van je chip gewoon niet geweldig zullen zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 10:46:
[...]
Klopt ja. 28nm was het in HP en een LP.
Ik mag hopen dat 14nm of 16nm wel geschikt is voor GPU's want wat je zelf ook al zegt 20nm is dat niet. Het kan wel maar hoge clockspeeds kan je dan wel vergeten. En dan heb je niet zo veel voordeel meer van je kleinere productie process aangezien de prestaties van je chip gewoon niet geweldig zullen zijn.
Ja, ik wacht dan ook nog steeds tot de dag dat Intel besluit om zelf GPUs te gaan maken (of chips voor derden gaat bakken). Met Larrabee leek het er al even op, maar dat was nog geen succes. Misschien dat er nog een 'Larrabee 2.0' aan zit te komen.
Met de fabs van Intel zou je absurd krachtige GPUs moeten kunnen bouwen. We hadden nu dan al tijden op 22 nm gezeten, en binnenkort op 14 nm overgegaan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 11:13:
[...]


Ja, ik wacht dan ook nog steeds tot de dag dat Intel besluit om zelf GPUs te gaan maken (of chips voor derden gaat bakken). Met Larrabee leek het er al even op, maar dat was nog geen succes. Misschien dat er nog een 'Larrabee 2.0' aan zit te komen.
Met de fabs van Intel zou je absurd krachtige GPUs moeten kunnen bouwen. We hadden nu dan al tijden op 22 nm gezeten, en binnenkort op 14 nm overgegaan.
Larrabee 2.0 is er min of meer toch ook in de vorm van Knights Corner? Hij is alleen nooit meer als Desktop videokaart uit gekomen en alleen als Compute platform.

Maar gezien de IGP's die intel tegenwoordig maakt zouden ze best een videokaart kunnen maken. Dat design flink opschalen en je kan al best wat krachtigs maken. Al is intel's huidige architectuur nog niet zo efficiënt als die van nVidia of AMD. Ze zijn al wel heel wat dichter bij gekomen dan 4-5 jaar geleden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 13:04:
[...]
Larrabee 2.0 is er min of meer toch ook in de vorm van Knights Corner? Hij is alleen nooit meer als Desktop videokaart uit gekomen en alleen als Compute platform.
Dat is nog Larrabee 1.0, voor zover ik weet.
Intel heeft voor zover ik weet nog steeds plannen om alsnog met een volledige GPU te komen, waar ze itt Larrabee 1.0 niet meer voor 100% software gaan, maar bepaalde dingen als texture-filtering oplossen met dedicated fixed-function hardware.
Astennu schreef op vrijdag 12 december 2014 @ 13:04:
Al is intel's huidige architectuur nog niet zo efficiënt als die van nVidia of AMD.
Ik zou dat niet zomaar durven beweren.
Maxwell is idd wel weer een flinke stap vooruit qua efficiency, maar ik denk dat Intel toch minimaal wel op het niveau van AMD is aangekomen.
Zo scoort Intel vrij goed in OpenCL, en hun tessellator is ook netjes parallel schaalbaar, net als die van nVidia.
Zie de indrukwekkende Tessmark-resultaten bv: http://www.anandtech.com/...w-core-i74950hq-tested/15
Ze laten zelfs de GeForce GT640 achter zich, om het over de geteste AMD-GPUs maar niet te hebben.

[ Voor 6% gewijzigd door Verwijderd op 12-12-2014 13:17 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
AMD Heeft qua tesselation aardig wat steken laten vallen bij de R9 285 ziet het er tenminste weer redelijk uit. Maar voor de toekomst wil je toch iets wat mooier schaalt (zoals nVidia heeft).

De Game prestaties van Iris Pro zijn best oke maar ik vind ze toch nog wat tegen vallen gezien de die space en de hoeveelheid dedicated on chip geheugen. En Ingame / Applicatie prestaties is toch waar het echt om gaat. 3Dmark en andere benshmarks zijn leuk maar daar kopen de meeste mensen geen kaart voor. Die kopen ze om Games te spelen en Eventueel software te versnellen door middel van CUDA en OpenCL.

Meningen mogen er misschien over verdeelt zijn maar ik vind toch nog niet dat ze op gelijk niveau met AMD zitten. Dan moet er echt nog een flinke schep boven op. Maar het is zeker netjes. Maar totaal niet raar gezien het R&D Budget van Intel. Dat is waarschijnlijk meer dan AMD en nVidia bij elkaar hebben.

[ Voor 16% gewijzigd door Astennu op 12-12-2014 13:31 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 13:30:
AMD Heeft qua tesselation aardig wat steken laten vallen bij de R9 285 ziet het er tenminste weer redelijk uit. Maar voor de toekomst wil je toch iets wat mooier schaalt (zoals nVidia heeft).
Het jammere is dat nVidia die oplossing al sinds 2010 heeft. En nu is AMD ook al ingehaald door Intel.
AMD had dit echt al LANG opgelost moeten hebben.
Maar iedere nieuwe generatie komen er alleen wat lapmiddelen, geen oplossing.
Astennu schreef op vrijdag 12 december 2014 @ 13:30:
De Game prestaties van Iris Pro zijn best oke maar ik vind ze toch nog wat tegen vallen gezien de die space en de hoeveelheid dedicated on chip geheugen. En Ingame / Applicatie prestaties is toch waar het echt om gaat. 3Dmark en andere benshmarks zijn leuk maar daar kopen de meeste mensen geen kaart voor. Die kopen ze om Games te spelen en Eventueel software te versnellen door middel van CUDA en OpenCL.
Maar je kunt niet zo heel veel conclusies verbinden aan dat soort dingen.
Een complete game/applicatie is van heel veel dingen afhankelijk, waaronder bv de balans tussen ALU-kracht en geheugenbandbreedte, maar ook de drivers.
Ik beweer alleen dat de individuele hardware-componenten (ALUs, fixed-function units etc) van Intel niet veel onderdoen voor die van andere GPU-ontwerpers.
Of Intel ook de juiste 'mix' van componenten heeft voor een gegeven applicatie, en of de drivers ook het maximale uit die componenten weten te halen, dat is een heel ander verhaal.
Ik beweer slechts dat Intel beschikt over goede componenten om daar een goede 'mix' mee te bouwen op de schaal van een grote discrete GPU.
Snap je het verschil?
Astennu schreef op vrijdag 12 december 2014 @ 13:30:
Maar totaal niet raar gezien het R&D Budget van Intel. Dat is waarschijnlijk meer dan AMD en nVidia bij elkaar hebben.
Ik denk dat naar GPU-ontwikkeling heel wat minder geld gaat dan bij AMD en vooral nVidia.
Leuk detail: nVidia geeft meer geld aan R&D uit dan AMD in totaal (dus CPU + GPU).
Ik ben dus bang dat mijn voorspelling bij de overname van ATi destijds uit gaat komen: GPUs spelen 'tweede viool' bij AMD, omdat de CPU-afdeling nu eenmaal veel groter is, met een grotere omzet. Als het dus slecht gaat met de CPU-afdeling, wordt de GPU-afdeling daar ook de dupe van.
Het zal HEEL moeilijk worden om met zo'n klein R&D-budget in het spoor van nVidia te blijven.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik snap het. Op het gebied van tesselation ben ik het met je eens.
Dat Intel een mooie architectuur ook. Maar je overtuigt mij nog niet dat het veel beter is dan wat AMD nu heeft. Sommige stukken misschien maar iedere architectuur heeft z'n sterke en zwakke punten.

Maar ben het met je eens dat Intel vooral voor de Totaal oplossing inc drivers nog niet mee kan doen.


Het is inderdaad jammer dat het in dat opzich niet zo goed gaat het AMD. Hopelijk gaat dat ooit nog veranderen al zie ik dat niet snel gebeuren. Nog minder concurrentie is gewoon niet goed voor de markt. Qua GPU's valt het tot nu toe nog mee. Maar in de CPU markt heeft het te kort aan concurrentie al zijn sporen achter gelaten.

Prestaties van chips neemt minder snel toe. Er zijn geen leuke prijs oorlogjes meer cpu's zakken amper in prijs over 2 jaar heen gezien (en dan heb ik het even over de top modellen). Tussendoor komen er ook geen hoger geclockte opvolgers meer. Eerst had je die regelmatig. Ik vind dat toch wel jammer

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 13:51:
Maar in de CPU markt heeft het te kort aan concurrentie al zijn sporen achter gelaten.

Prestaties van chips neemt minder snel toe.
Vind je?
Intel weet toch ieder jaar weer zo'n 10-20% extra performance te leveren bij hun tick/tock.
Daarnaast gaat voor het eerst sinds jaren het stroomverbruik weer omlaag.
En verder, Haswell-EP vond ik toch wel bizar goed: http://www.anandtech.com/...p-to-18-haswell-ep-cores-
Wat vooral interessant is, is dat Intel hun turboboost-technologie dusdanig ver verfijnd heeft dat het bijna niet meer uitmaakt of je nu een CPU met 2 tot 4 cores hebt, of een fullblown 18-core. Als er maar een paar cores gebruikt worden, presteert de 18-core vrijwel net zo goed als een CPU met veel minder cores.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 13:59:
[...]


Vind je?
Intel weet toch ieder jaar weer zo'n 10-20% extra performance te leveren bij hun tick/tock.
Daarnaast gaat voor het eerst sinds jaren het stroomverbruik weer omlaag.
En verder, Haswell-EP vond ik toch wel bizar goed: http://www.anandtech.com/...p-to-18-haswell-ep-cores-
Wat vooral interessant is, is dat Intel hun turboboost-technologie dusdanig ver verfijnd heeft dat het bijna niet meer uitmaakt of je nu een CPU met 2 tot 4 cores hebt, of een fullblown 18-core. Als er maar een paar cores gebruikt worden, presteert de 18-core vrijwel net zo goed als een CPU met veel minder cores.
Als je kijkt naar het segment van de 2500/2600 en 4670/4770 is er maar weinig winst geboekt. In totaal over 4 jaar misschien 20%. Maar zeker niet ieder jaar. Qua verbruik is er wel winst geboekt maar dat vind ik voor dat segment niet zo interessant.

In het notebook segement zijn de prestaties en de accu duur wel aanzienlijk toe genomen. Maar het segment waar wij tweakers ons bevinden is aanzienlijk minder interessant geworden.

Alleen Haswell-E is wel weer wat leuker door DDR4 en de stap van 6 naar 8 cores en de instap modellen die meteen 6 cores hebben. Maar dat is ook pas heel recent gebeurt.

Server segment houd ik me niet zo mee bezig is voor mij als thuis gebruiker niet zo interessant. Al zijn daar wel mooie ontwikkelingen geweest die ik een beetje vanuit een ooghoek heb mee gekregen.

Even een plaatje van wat ik bedoel:

Afbeeldingslocatie: http://cdn.overclock.net/a/ad/350x700px-LL-adb63223_http--www.gamegpu.ru-images-stories-Test_GPU-Action-Battlefi.jpeg

Zie de 2600K vs de 4770K en daar zit dan 2 jaar en 3 maanden tussen.

[ Voor 13% gewijzigd door Astennu op 12-12-2014 14:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 14:09:
Server segment houd ik me niet zo mee bezig is voor mij als thuis gebruiker niet zo interessant. Al zijn daar wel mooie ontwikkelingen geweest die ik een beetje vanuit een ooghoek heb mee gekregen.
Dat is wat mij betreft de enige ontwikkeling die me weer vaag over een upgrade laat denken, voor de rekenkracht hoef je het sinds de tweede generatie eigenlijk niet meer te doen. Als je dan ook nog meeneemt dat het nieuwe spul wat minder graag overclockt valt die winst vies tegen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 14:12:
[...]

Dat is wat mij betreft de enige ontwikkeling die me weer vaag over een upgrade laat denken, voor de rekenkracht hoef je het sinds de tweede generatie eigenlijk niet meer te doen. Als je dan ook nog meeneemt dat het nieuwe spul wat minder graag overclockt valt dat verschil tegen.
Ja vooral als je dat ook mee neemt is de winst voor ons desktop gebruikers zeer minimaal.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 14:09:
[...]
Als je kijkt naar het segment van de 2500/2600 en 4670/4770 is er maar weinig winst geboekt. In totaal over 4 jaar misschien 20%. Maar zeker niet ieder jaar. Qua verbruik is er wel winst geboekt maar dat vind ik voor dat segment niet zo interessant.
Niet? Ik vind het voor mainstream desktops JUIST interessant.
Het was sinds de tijd van de Athlon en Pentium 4 echt een gekkenhuis geworden met CPUs van 125W of zelfs meer.
Met de Core2 Duo ging het dan weer *even* omlaag naar 65W, maar ja, toen kwam daar meteen weer de Core2 Quad achteraan, en zal je weer op de 130W.
Heerlijk dat we nu eindelijk weer eens flink onder de 100W duiken.
Astennu schreef op vrijdag 12 december 2014 @ 14:09:
Server segment houd ik me niet zo mee bezig is voor mij als thuis gebruiker niet zo interessant. Al zijn daar wel mooie ontwikkelingen geweest die ik een beetje vanuit een ooghoek heb mee gekregen.
Die moet je WEL meenemen als je het hebt over vooruitgang in de CPU-wereld.
Een aantal jaren terug was een quadcore ook het maximale voor een x86 server-systeem.
High-end desktop en high-end server-CPUs waren toen vrijwel gelijk. Het enige verschil was dat servers ook multi-CPU opstellingen toestonden.
Nu zijn de server-CPUs veel verder doorgegroeid.
Die technologie komt alleen (nog?) niet naar de desktop, omdat er geen vraag naar is (wat moet je met 18 cores?). Maar de CPUs die er wel zijn, zijn over het algemeen veel goedkoper dan destijds.
En als je echt wil, kun je natuurlijk ook wel een Haswell-EP systeem bouwen als desktop.
Astennu schreef op vrijdag 12 december 2014 @ 14:09:
Zie de 2600K vs de 4770K en daar zit dan 2 jaar en 3 maanden tussen.
Nu maak je weer dezelfde fout als hierboven: je kijkt naar benchmarks die van veel te veel factoren afhankelijk zijn om er conclusies aan te verbinden.
Je probeert CPU-performance af te leiden van game-benchmarks, die per definitie ook zeer sterk leunen op de GPU-performance, en juist bij snellere CPUs vaak GPU-limited worden.
Niet bepaald de ideale manier om CPU-performance te beoordelen.

Het feit dat veel games op de 'mainstream' Intels al GPU-limited zijn, is juist de reden dat die server-CPUs niet meer naar de desktop komen. 4 cores met ~3 GHz is meer dan genoeg.

[ Voor 18% gewijzigd door Verwijderd op 12-12-2014 14:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2014 @ 14:17:
Heerlijk dat we nu eindelijk weer eens flink onder de 100W duiken.
Geef mij maar een processor die 100 watt verstookt en twee of drie keer het werk verzet :Y Mijn uren zijn meer waard dan die watts en als ik 'm niet gebruik verbruikt het ding ook niets. Ik ben absoluut niet voor onnodig verbruik, maar het gebrek aan vooruitgang wat betreft prestaties is ook niet ideaal.

Dat is dan ook precies de reden dat Haswell-EP nog wel interessant kan zijn met 6 of 8 cores.

[ Voor 24% gewijzigd door Verwijderd op 12-12-2014 14:22 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 14:17:
[...]


Niet? Ik vind het voor mainstream desktops JUIST interessant.
Het was sinds de tijd van de Athlon en Pentium 4 echt een gekkenhuis geworden met CPUs van 125W of zelfs meer.
Met de Core2 Duo ging het dan weer *even* omlaag naar 65W, maar ja, toen kwam daar meteen weer de Core2 Quad achteraan, en zal je weer op de 130W.
Heerlijk dat we nu eindelijk weer eens flink onder de 100W duiken.
Prestaties op 1 verbruik op 2. We zitten hier op tweakers.net en in dat opzicht ben ik ouderwets :)
Ik geef toe dat ik wel overclock op performance per watt voor die specifieke chip. Ik ga niet meer tot het uiterste qua voltages en ga tegenwoordig op de sweetspot zitten. Waar ik eerst echt elke laatste MHz er uit perste.

Maar ik ben zeker niet iemand die de CPU en GPU 50% underclockt om de beste performance per watt te halen. Ik vind het veel te leuk om een snelle machine te hebben.

En qua overclocken en absolute prestaties zijn er gewoon aanzienlijk minder leuke ontwikkelingen dan voorheen. Ik koop steeds minder vaak nieuwe hardware. En bij de overstap van SB naar IB en IB naar HW was de winst elke keer maar erg klein als je de bovenstaande OC principes mee neemt.

SB ging makkelijk 4,8-5.0 GHz bij IB ging dit naar 4.5-4.7 en bij Haswell zakte dit nog verder naar 4.3-4.5. (dit zijn een beetje gemiddelde waardes op normale V-Core waardes voor die chips).

Dus misschien snap je nu waarom ik er zo over denk. Ik kan me voorstellen dat het voor andere gebruikers een ander verhaal is. En dat er daar wel leuke prestatie winst geweest is. (al vind ik het clock voor clock ook tegen vallen.
Die moet je WEL meenemen als je het hebt over vooruitgang in de CPU-wereld.
Een aantal jaren terug was een quadcore ook het maximale voor een x86 server-systeem.
High-end desktop en high-end server-CPUs waren toen vrijwel gelijk. Het enige verschil was dat servers ook multi-CPU opstellingen toestonden.
Nu zijn de server-CPUs veel verder doorgegroeid.
Die technologie komt alleen (nog?) niet naar de desktop, omdat er geen vraag naar is (wat moet je met 18 cores?). Maar de CPUs die er wel zijn, zijn over het algemeen veel goedkoper dan destijds.
En als je echt wil, kun je natuurlijk ook wel een Haswell-EP systeem bouwen als desktop.
Klopt de desktop software kan weinig met die cores. Al denk ik toch dat het er heel anders uit had gezien als AMD het Intel moeilijk gemaakt had en dat we dan toch sneller nieuwe chips zouden zien of nieuwe steppings. Intel heeft niets meer van AMD te vrezen. Ze hoeven dus ook geen moeite te doen. Mensen kopen toch wel Intel CPU's.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 14:26:
[...]
Prestaties op 1 verbruik op 2.
Zo is het toch nog steeds?
We hebben alleen maar meer prestaties gekregen, hoewel het verbruik flink is gedaald.
Daarnaast zijn de CPUs op dit moment enorm overklokbaar, omdat Intel qua productie eigenlijk ver voor ligt op wat de markt vraagt.
Astennu schreef op vrijdag 12 december 2014 @ 14:26:
Klopt de desktop software kan weinig met die cores. Al denk ik toch dat het er heel anders uit had gezien als AMD het Intel moeilijk gemaakt had en dat we dan toch sneller nieuwe chips zouden zien of nieuwe steppings.
Dan had Intel gewoon meer van hun 'Xeons' ook als 'Core' desktop chips verkocht met meer cores en/of hogere klok.
De CPUs zijn er wel, er zit alleen een ander labeltje op nu. Wij tweakers moeten toch wel verder kunnen kijken dan alleen een labeltje.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2014 @ 14:31:
We hebben alleen maar meer prestaties gekregen, hoewel het verbruik flink is gedaald.
Niet echt dus, dat is het punt juist.
Daarnaast zijn de CPUs op dit moment enorm overklokbaar, omdat Intel qua productie eigenlijk ver voor ligt op wat de markt vraagt.
Ook hier is het antwoord niet echt dus. Iedere generatie is net weer wat minder lekker over te clocken, waardoor de winst onder de streep minimaal wordt. De 4770K met overclock doet eigenlijk nauwelijks meer dan een 2600K met overclock - als er al winst is.

De push voor zuinig spul is natuurlijk zeker niet verkeerd, maar in het hoge segment zoeken mensen doorgaans toch andere kwaliteiten.

[ Voor 9% gewijzigd door Verwijderd op 12-12-2014 14:39 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 14:31:
[...]


Zo is het toch nog steeds?
We hebben alleen maar meer prestaties gekregen, hoewel het verbruik flink is gedaald.
Daarnaast zijn de CPUs op dit moment enorm overklokbaar, omdat Intel qua productie eigenlijk ver voor ligt op wat de markt vraagt.
Wat vind jij enorm overclockbaar?
De 4790K doet standaard 4.0 met 4.4 Turbo. Ga je deze overclocken haal je 4.6 met lucht cooling. Dat vind ik niet echt overclockbaar.

De 2600K was leuker: 3.4 Standaard 3.8 Turbo. Met luchtcooling 5.0 GHz kijk dat noem ik nog een overclockbaar.
Dan had Intel gewoon meer van hun 'Xeons' ook als 'Core' desktop chips verkocht met meer cores en/of hogere klok.
De CPUs zijn er wel, er zit alleen een ander labeltje op nu. Wij tweakers moeten toch wel verder kunnen kijken dan alleen een labeltje.
Dan moet het wel interessant zijn voor het geen wat wij tweakers er mee doen. Wat je zelf zegt 18 cores zijn heel leuk maar Battlefield 4 gaat er in FPS op achteruit omdat de clockspeeds lager zijn. Kortom leuk dat server cpu's zo veel cores hebben en dat we die op een S2011 platform kunnen gebruiken. Maar wij als gamers hebben daar weinig aan.

Al kan ik me goed voorstellen dat het voor intel niet interessant genoeg is om daar de focus op te leggen. De server en mobile markt zijn veel belangrijker.

Dan mag ik het als gebruiker van dat segment nog wel jammer vinden dat daar dus minder spannende dingen gebeuren?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op vrijdag 12 december 2014 @ 14:36:
Ook hier is het antwoord niet echt dus. Iedere generatie is net weer wat minder lekker over te clocken, waardoor de winst onder de streep minimaal wordt. De 4770K met overclock doet eigenlijk nauwelijks meer dan een 2600K met overclock - als er al winst is.
Idd de procentuele overklok winst wordt steeds kleiner doordat Intel de kloksnelheid steeds hoger omhoog drukt om nog wat snelheids winst te halen. De Intel Core i7-4790K heeft immers al een maximale kloksnelheid van 4,4GHz, de i7 3770K bleef steken op 3,9GHz, de i7 2700K ook en de i7 875 max 3,6GHz. Maar de maximale kloksnelheid die je met overklokken groeit niet mee, de winst door overklokken wordt dus steeds kleiner. Ook beperkt Intel de manier van overklokken erg, tegenwoordig alleen nog maar via de multiplier en dan zijn de meeste CPU's ook nog eens gelocked.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op vrijdag 12 december 2014 @ 14:38:
[...]
De 4790K doet standaard 4.0 met 4.4 Turbo. Ga je deze overclocken haal je 4.6 met lucht cooling. Dat vind ik niet echt overclockbaar.
We zitten hier toch op tweakers.net?
Het probleem was toch met een goedkopere synthetische thermal compound die Intel gebruikt? Als je de heatspreader erafhaalt, en de thermal compound vervangt door een betere, is dat probleem toch opgelost, en overklokt het ding toch alsnog naar de 5+ GHz?
Ligt niet aan de CPU-technologie an sich, maar aan de packaging.
Astennu schreef op vrijdag 12 december 2014 @ 14:38:
Dan moet het wel interessant zijn voor het geen wat wij tweakers er mee doen. Wat je zelf zegt 18 cores zijn heel leuk maar Battlefield 4 gaat er in FPS op achteruit omdat de clockspeeds lager zijn. Kortom leuk dat server cpu's zo veel cores hebben en dat we die op een S2011 platform kunnen gebruiken. Maar wij als gamers hebben daar weinig aan.
Ten eerste, vanwege de verbeterde turbo boost is zo'n 18-core nu dus in games nauwelijks meer trager dan een quadcore.
Ten tweede, in de meeste games is een snelle i7 al overkill, zelfs zonder overclock... dus nu zit je weer van alles door elkaar te halen.
Astennu schreef op vrijdag 12 december 2014 @ 14:38:
Dan mag ik het als gebruiker van dat segment nog wel jammer vinden dat daar dus minder spannende dingen gebeuren?
Ik wijs je erop dat de definitie van dat segment is veranderd ten opzichte van een aantal jaren geleden, en dat je daar dus jouw visie op zou kunnen aanpassen.

Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 12 december 2014 @ 14:51:
Maar de maximale kloksnelheid die je met overklokken groeit niet mee, de winst door overklokken wordt dus steeds kleiner.
De maximale kloksnelheid groeit niet mee, maar krimpt zelfs. Op stocksnelheden doen de nieuwe chips het prima, maar iedere nieuwe generatie krijgt daarboven minder ruimte - zie ook het commentaar van Astennu hierboven.
Verwijderd schreef op vrijdag 12 december 2014 @ 15:00:
We zitten hier toch op tweakers.net?
Het probleem was toch met een goedkopere synthetische thermal compound die Intel gebruikt? Als je de heatspreader erafhaalt, en de thermal compound vervangt door een betere, is dat probleem toch opgelost, en overklokt het ding toch alsnog naar de 5+ GHz?
Ligt niet aan de CPU-technologie an sich, maar aan de packaging.
Delidden is toch wel een vrij extreme procedure. Zelfs als je daarvoor niet terugschrikt ben je bijvoorbeeld wel enige en alle garantie kwijt. Of het nu door de chip, de pasta of de stand van de maan op de derde dinsdag van de vierde maand is, je zit als eindgebruiker met een chip met minder potentie - tenzij je dus vrij extreme maatregelen neemt.

Voor degenen die nu roepen dat je die garantie toch al krijg was - daar heeft Intel een verzekering voor, maar die is niet geldig als je met een gedelidde CPU aankomt.

[ Voor 53% gewijzigd door Verwijderd op 12-12-2014 15:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2014 @ 15:00:
[...]
Delidden is toch wel een vrij extreme procedure. Zelfs als je daarvoor niet terugschrikt ben je bijvoorbeeld wel enige en alle garantie kwijt. Of het nu door de chip, de pasta of de stand van de maan op de derde dinsdag van de vierde maand is, je zit als eindgebruiker met een chip met minder potentie - tenzij je dus vrij extreme maatregelen neemt.
Ja, maar waar hebben we het hier nu over?
De overclockbaarheid van de *dies* (dus chips) van Intel zijn niet afgenomen. Alleen van het package als geheel (wat wederom te maken heeft met gebrek aan vraag vanuit de markt... met een iets duurdere thermal compound had Intel z'n systemen ook stock zo'n 10 graden koeler kunnen laten draaien op die manier, maar blijkbaar is dat minder interessant dan wat geld uitsparen met een goedkopere compound).

En zoals al aangegeven, de performance per clock neemt alleen maar toe, dus een 4790 op 5 GHz krijgen is lastiger dan een 2500 (het is ook niet voor niks dat de max kloksnelheid jarenlang op naam van de Pentium 4 stond. Die kon wel de 8 GHz halen, wat je met de meeste moderne CPUs absoluut niet lukt... MHz myth enzo).
Daarnaast is die 4790 ook veel sneller als ie dezelfde kloksnelheid draait.

Ik ben dus een techneut en wetenschapper, en niet een 'consument' of doorsnee tweaker.
Ik bekijk dus alles vanuit wat er technisch mogelijk is, en de vraag of je wel of niet moet delidden, en of dat wel of niet je garantie schaadt, vind ik voor het technische verhaal niet interessant.
Het technische verhaal is dat er verschillen zitten in de thermal compound, en door te delidden kun je die verschillen uitsluiten, waardoor je de chips weer meer 1:1 kunt vergelijken.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2014 @ 15:15:
Ja, maar waar hebben we het hier nu over?
Alleen van het package als geheel (wat wederom te maken heeft met gebrek aan vraag vanuit de markt... met een iets duurdere thermal compound had Intel z'n systemen ook stock zo'n 10 graden koeler kunnen laten draaien op die manier, maar blijkbaar is dat minder interessant dan wat geld uitsparen met een goedkopere compound).
Daarover dus. Niets meer en niets minder. Hadden, kunnen en zullen is dan verder ook niet zo interessant, de chips (packages, jij je zin) worden steeds minder sportief.
Daarnaast is die 4790 ook veel sneller als ie dezelfde kloksnelheid draait.
Klopt, maar voor de derde keer is het probleem dus steeds dat die oudere chips hogere snelheden halen dan het nieuwe spul, voor de 4790 zelfs veel hogere. Dan kan je wel efficiënter per tik zijn, maar is je uiteindelijke performance niet heel veel interessanter. Op gelijke clock is een theoretisch verhaal, ik kijk naar de praktijk.
Ik ben dus een techneut en wetenschapper, en niet een 'consument' of doorsnee tweaker.
Ik bekijk dus alles vanuit wat er technisch mogelijk is, en de vraag of je wel of niet moet delidden, en of dat wel of niet je garantie schaadt, vind ik voor het technische verhaal niet interessant.
Ik vind dat technische verhaal ook prachtig en weet waarom ook donders goed dat Intel met de modernere packages inferieure producten is gaan afleveren. Geen soldeer meer, maar gammele TIM om een paar centen te schrapen, waardoor de technische capaciteiten ook minder zijn worden. Dat een consument daar nog aan kan sleutelen door één of andere extreme procedure uit te voeren verandert daar niets aan.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2014 @ 15:00:
[...]


We zitten hier toch op tweakers.net?
Het probleem was toch met een goedkopere synthetische thermal compound die Intel gebruikt? Als je de heatspreader erafhaalt, en de thermal compound vervangt door een betere, is dat probleem toch opgelost, en overklokt het ding toch alsnog naar de 5+ GHz?
Ligt niet aan de CPU-technologie an sich, maar aan de packaging.
Nee dat is het niet alleen. Bij de 4790K is die compound al beter. Delid werkt daar nog steeds maar lucht win je misschien 100 MHz 5.0 GHz haal je alleen met golden samples. En bij SB zat je met een Golden ver over de 5.0 heen.

Waar het om gaat de beste SB chips clocken hoger dan de beste Haswell chips. Met gemiddelde clocks zie je pressies het zelfde. SB doet dat gemiddeld beter. Dus een deel van je IPC voordeel ben je dan kwijt.
Ten eerste, vanwege de verbeterde turbo boost is zo'n 18-core nu dus in games nauwelijks meer trager dan een quadcore.
Ten tweede, in de meeste games is een snelle i7 al overkill, zelfs zonder overclock... dus nu zit je weer van alles door elkaar te halen.
[...]
Dat is jou mening misschien. We mogen andere meningen hebben. In mijn ogen haal ik niets door elkaar.
Een Quad core is in moderne games zeker nuttig vergeleken met een Dual core. Soms kunnen zelfs 6-8 threads aangesproken worden.

Zoals ik al zij ik ben niet op de hoogte van alles wat er in server land gebeurd maar ik heb even gekeken wat die 18 Core server cpu's kan en dat is max 3.6 GHz turbo. En dat is dus aanzienlijk minder dan de 4.4 Van de 4790K dus voor ons gamers totaal niet interessant.
Ik wijs je erop dat de definitie van dat segment is veranderd ten opzichte van een aantal jaren geleden, en dat je daar dus jouw visie op zou kunnen aanpassen.
Het gaat mij er meer om wat ik als High end eindgebruiker per jaar aan winst kan behalen door te upgraden. En dat is de afgelopen jaren minder interessant geworden. Waar ik eerst soms 2x per jaar een upgrade deed is dat nu eens in de 2 jaar.

Ook hier verschillen wij in veel opzichten van mening en gaan wij het er niet over eens worden. Opzich niet erg want iedereen heeft recht op een eigen mening.

[ Voor 4% gewijzigd door Astennu op 12-12-2014 15:35 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 35 ... 55 Laatste

Dit topic is gesloten.