CJ's Radeon Info & Nieuwsdiscussie - Deel 128 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 ... 11 Laatste
Acties:
  • 41.859 views

Onderwerpen


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
Hee jongens, agree to disagree. Jullie zijn nu al een aantal posts aan het argumenteren over precieze interpretaties van woorden en daar zitten hier volgens mij alleen maar jullie op te wachten. In grote lijnen zijn jullie het met elkaar eens: Als er iets mis gaat met een chip ligt dat nooit volledig aan 1 partij, het is altijd de een combinatie van de fab en de chipontwerpen. nvidia + TSMC ging mis, is daarna opgelost. VIA's waren onderdeel van het probleem. SIMD/VLIW verschillen in waar ze sterk zijn en iedereen vindt het een goed idee dat zowel nvidia als AMD nu SIMD doen.

Laat die details maar voor de rest, dit is niet meer een discussie die gaat over gpu nieuws. Wat jullie bespreken is allemaal ouds.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ik was van plan nog eens serieus te reageren, maar aangezien Scalibq wederom op de "jij snapt helemaal niks HAHAHAHA" toer gaat in plaats van een serieuze discussie laat ik het er bij zitten. Ik ga eens op zoek naar die games met ingewikkelde pathfinding algoritmes op de GPU en al die physics die zo geweldig op de GPU draaien (en dan vooral op AMD, daar schaf ik wel weer een AMD kaart voor aan want dat wil ik zien).

Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind dat te makkelijk.
Ik noem hier een aantal feiten (die ik, waar het kan, ook onderbouw met links en andere informatie)...
Werelds is gewoon irritant aan het discussieren, waarschijnlijk voor een deel omdat hij gewoon te weinig kennis van zaken heeft (bv dat je over manufacturing nadenkt bij het ontwerpen van een microarchitectuur staat gewoon op Wikipedia... dat zou geen discussie waardig mogen zijn, maar blijkbaar wist hij dat niet, maar was hij wel overtuigd van z'n eigen gelijk... dan krijg je bloedirritante discussies).

Feiten zijn nu eenmaal feiten, en dat valt niet onder 'agree to disagree'. Het verwerpen van een feit is onethisch gedrag in een discussie, want het is een vorm van een drogredenering.
Dat je iets niet weet, is ook geen excuus. Als je iets niet zeker weet, dan moet je je eerst maar eens in de materie verdiepen voordat je je met hand en tand gaat lopen verdedigen.

Acties:
  • 0 Henk 'm!

Verwijderd

Werelds schreef op vrijdag 21 november 2014 @ 17:29:
Ik was van plan nog eens serieus te reageren, maar aangezien Scalibq wederom op de "jij snapt helemaal niks HAHAHAHA" toer gaat in plaats van een serieuze discussie laat ik het er bij zitten. Ik ga eens op zoek naar die games met ingewikkelde pathfinding algoritmes op de GPU en al die physics die zo geweldig op de GPU draaien (en dan vooral op AMD, daar schaf ik wel weer een AMD kaart voor aan want dat wil ik zien).
Ik wil graag een serieuze discussie houden, maar jij roept steeds dingen die niet kloppen, en je doet ook nog eens kleinerend.
Probeer je eens volwassen te gedragen, en gewoon op technische punten te discussieren. En het zou je sieren als je toegeeft dat ik gewoon gelijk heb op bepaalde punten, zoals bv over microarchitecturen ontwerpen, rekening houdend met manufacturing.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

haarbal schreef op donderdag 20 november 2014 @ 16:22:
Als het niet te meten is dan zie je het niet. Het voordeel van IPS is de onovertroffen kijkhoek, verder blinkt het nergens in uit.
En zelfs die kijkhoek is bagger... als ik naast mijn bureau sta in plaats van zit dan moet ik bukken als ik fatsoenlijk wil zien wat er op de monitor staat :/
haarbal schreef op donderdag 20 november 2014 @ 17:12:
Heb wat gegamed op een ips scherm, input lag viel nog wel mee, maar een hoop ghosting. De beeldkwaliteit als het stilstond was goed, maar niks bijzonders wat mij betreft.
Ghosting, maar meer in de zin van het aantal Hz / refresh rate en niet echt het klassieke ghosting. Dat is er ook wel, maar is niet het grootste probleem. Weet niet echt hoe ik het moet uitleggen... ik mis gewoon mijn CRT's :+
Zeara schreef op donderdag 20 november 2014 @ 22:21:
Ik zou zeggen dat de 5870 een win voor AMD was, hij was er 6 maanden eerder, was goedkoop en was snel. De 480 was volgens deze vergelijking marginaal sneller (al blijkt hij bij launch 10-20% sneller te zijn). Maar daar staat een flink hogere prijs en stroom verbruik tegen over. Ik zie dat niet als overwinning.
De 5870 is/was een geweldige kaart, maar sindsdien mis ik echt een dergelijk "knaller" zoals ook de 1900XTX dat was IMHO :)

Op dit moment zou ik toch echt voor een 970 kiezen... die kaart is gewoon te leuk om niet te kopen! Tot 1 a 2 maanden geleden was dat de R9 290, maar die hoef ik nu echt niet meer. Ze moeten wat nieuws/leuks verzinnen bij AMD/ATI wil ik straks niet de 970 aanschaffen na iets van 4 ATI kaarten te hebben gehad !!
Verwijderd schreef op donderdag 20 november 2014 @ 22:24:
Volgens mij kun je die op 1 hand natellen hoor.
De Radeon 8500 was de eerste keer dat ATi serieus meedeed qua performance. Net even sneller dan de GeForce3. Helaas kwam nVidia vrij kort daarna met de GeForce4, die toch wel pittig sneller was.
Radeon 9700/9800 was ATi's glorietijd. Toen waren ze dus even heer en meester, terwijl nVidia aanrotzooide met GeForce FX.
Niet helemaal... drivers waren niet geweldig, voordat ze aan de 3.x serie begonnen en verder kan ik me iets herinneren rond een schandaal in Quake III en lagere rendering kwaliteit en zo :+
Maar daarna, X800/X1800/X1900 vs GeForce 6000/7000... dat was echt stuivertje wisselen.
Ik weet niet hoor... de X1900XT en XTX waren daar IMHO toch wel DE kaarten om te hebben 8)
Werelds schreef op vrijdag 21 november 2014 @ 00:17:
Ja, en? Als we zo gaan beginnen kunnen we verder terug kijken en zien we dat in de afgelopen 40 jaar alle GPU fabrikanten elkaars ideeën zijn gaan emuleren. Ze zullen wel moeten. Nvidia heeft veel van 3DFX afgekeken, S3 heeft veel van ATI afgekeken. Matrox had begin jaren 90 wat nieuwigheden waardoor je prachtige filmpjes kon kijken zonder stotteren, paar jaar later had de rest dat ook.
Wie had toen gedacht dat nu ATI en Matrox nog zouden bestaan en de rest zou verdwijnen 8)7 Ohh en ehh... NOSTALGIE!!! en zo :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

Verwijderd

nero355 schreef op vrijdag 21 november 2014 @ 18:38:
[...]
Niet helemaal... drivers waren niet geweldig, voordat ze aan de 3.x serie begonnen en verder kan ik me iets herinneren rond een schandaal in Quake III en lagere rendering kwaliteit en zo :+
Nou, ik had een Radeon 8500 gekocht ipv een GeForce (als ontwikkelaar vond ik ps1.4 wat boeiender dan een paar extra fps)... en daar merkte je duidelijk een stijgende lijn qua drivers, zowel qua bugs als qua performance...
Daarna geupgrade naar een Radeon 9600XT, daar eigenlijk nooit driver-problemen meegemaakt, en ook qua performance prima (in D3D dan, OGL was niet zo best, maar dat gebruikte ik nooit).
nero355 schreef op vrijdag 21 november 2014 @ 18:38:
Ik weet niet hoor... de X1900XT en XTX waren daar IMHO toch wel DE kaarten om te hebben 8)
Blijkbaar... ik heb in die tijd een X1800XT512 en een X1900XTX512 gehad... Maar ik heb ook wel wat GeForce 6x00 en 7x00 kaartjes gehad, en die waren ook prima.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op donderdag 20 november 2014 @ 21:52:
[...]


Ik wil niet heel vervelend doen... maar de GPU-afdeling van AMD was ooit het op zichzelf staande bedrijf ATi, en is overgenomen door AMD, omdat ATi de slag met DX10 verloren had van NVidia (de Radeon 2900 was veel te laat, en totaal niet in staat om op te boksen tegen de GeForce 8000/9000-serie).
Lijkt me complete onzin.

Iets buiten je eigen speculatie (aka een geloofwardige bron) die dit ondersteund?

Als ik het zie hadden ze gelijkaardige omzet en resultaten in die kwartalen.


http://media.corporate-ir...5421/reports/ATI_Q206.pdf
http://www.gamecareerguid..._second_quarter_2006_.php

Zo een overname word maanden voorbereid de huidige kaarten hadden daar niks mee te maken hoor.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 12:50:
[...]
Iets buiten je eigen speculatie (aka een geloofwardige bron) die dit ondersteund?
Het feit dat ATi overgenomen is, zegt al genoeg. En zoals bleek, werd de Radeon 2900 een gigantische flop, toen ie eindelijk uitkwam, veel te laat.
Waarom hebben ze zich uberhaupt te koop aangeboden? Waarom heeft nVidia dit niet gedaan?
k995 schreef op maandag 24 november 2014 @ 12:50:
Zo een overname word maanden voorbereid de huidige kaarten hadden daar niks mee te maken hoor.
Een nieuwe GPU-architectuur wordt JAREN voorbereid.
You do the math.
Hier staat ook al het nodige in over wat er fout ging met de Radeon 2900: http://www.anandtech.com/show/2231

[ Voor 7% gewijzigd door Verwijderd op 24-11-2014 13:42 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Zeara schreef op vrijdag 21 november 2014 @ 12:31:
[...]


Nogal logisch zonder een nieuwe serie van AMD.
Was de 285 niet een nieuwe gpu?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Ik kan mij herinneren (dit kan ook een gerucht zijn en hoeft niet te kloppen) is dat ATI destijds meer features in de HD2900 architectuur had gebouwd dan nodig waren voor de uiteindelijke DX10 versie. Daarbij ook dat de DX10 eigenlijk meer tussen DX10.1 en DX11 had horen te zitten.
Er werd destijds gezegd dat Nvidia die features niet kon implementeren (klinkt raar) en dat ze tegen MS hebben geklaagd.

Dit is eerder besproken in het ATI topic, waarschijnlijk meer dan 50 delen terug :P. Ik kan het helaas niet meer terugvinden.

De R9 285 is weer een "update" van GCN. Dacht dat het GCN 1.2 was aangezien de HD7xxx GCN 1.0 is en dan de R9 290 GCN 1.1.

[ Voor 10% gewijzigd door Sp3ci3s8472 op 24-11-2014 14:08 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

eL_Jay schreef op maandag 24 november 2014 @ 14:05:
[...]

Was de 285 niet een nieuwe gpu?
Dat wel, maar nog niet eentje die echt laat zien wat er kan gebeuren, beetje een uitprobeerseltje denk ik, net als de GTX750ti een tijd lang de enige Maxwell was.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 21 november 2014 @ 17:02:
Ook 'zero-defect' werd daar al genoemd. Dat was iets waar TSMC naar streefde. Helaas ging het fout, en had 40 nm in eerste instantie zelfs MEER defects dan 55 nm. Ja, en DAAR had nVidia niet op gerekend.
TSMC is een serieus bedrijf en natuurlijk streven die min mogelijk defects. Maar die zijn heus niet zo dom om zero-defects te claimen. Aan de andere kant, al zou dit geclaimd worden, dan acht ik nV niet zo dom om dit aan te nemen. Oftewel deze opmerking snijdt geen hout. Verder, afaik gingen er al sinds 180 nm meer en meer stemmen op om ook in digital IC's meer via's te gebruiken, dus ze zouden wel erg laat zijn als ze er pas achter gekomen zouden zijn op 40 nm.
TSMC heeft geroepen "Ja, gaat goed komen, wij kunnen die chip voor jullie bouwen, met zus-en-zo kans op defects etc".
En dat konden ze niet waarmaken, en DAAR is nVidia terecht boos over geworden.
Meh, nV was sowieso al niet t snelste jongetje van de klas als t gaat ging om de nieuwste processen gebruiken. Dat hun DFM flow niet van je het was, zou meer in de lijn der verwachting liggen. Afaik waren er ook nV chips die sneller dan normaal de geest gaven, wat zeer waarschijnlijk ook een gevolg is van poor DFM.
TSMC heeft toen dus wat machines vervangen, waardoor de situatie verbeterde... nVidia heeft hier en daar de chip wat aangepast, et voila, probleem opgelost.
Machines vervangen? Daar zijn die dingen veel te duur voor... Waarschijnlijk kregen ze die dingen niet getuned op nV poor DFM flow en dacht nV, yeah right wij weten t wel beter. En dan zijn na de poor yields wat verhitte discussie geweest zijn waarna nV toch maar wel geluisterd heeft naar TSMC en wat maskerwijzigingen heeft doorgevoerd. Mijn ervaringen met TSMC zijn iig dat ze zich (erg) goed indekken en vrij star zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op maandag 24 november 2014 @ 14:05:
Er werd destijds gezegd dat Nvidia die features niet kon implementeren (klinkt raar) en dat ze tegen MS hebben geklaagd.
Dat gerucht heb ik ook gehoord, en dat lijkt me onzin, aangezien nVidia een behoorlijk aantal features van DX10.1 *wel* heeft geimplementeerd in de 8800-serie, die NIET in DX10 zijn gekomen (die je via de NVAPI kon activeren, zoals multisample-readback).
Als er al iemand heeft geklaagd om bepaalde features uit DX10 te halen, dan zal dat Intel geweest moeten zijn, want die ondersteunden die features niet (nog niet eens MSAA, dat dan ook pas sinds DX10.1 verplicht was).
Verwijderd schreef op maandag 24 november 2014 @ 14:59:
TSMC is een serieus bedrijf en natuurlijk streven die min mogelijk defects. Maar die zijn heus niet zo dom om zero-defects te claimen.
Okee, niet letterlijk. Ze hebben het over 'near-zero': http://www.tsmc.com/tsmcd...=1737&newsdate=2006/02/22
Wat ze geclaimd hebben is dit:
“Recently, TSMC produced multiple test wafers with defects rates as low as three per wafer – better than any other immersion results to date, and comparable to the very best dry lithography results. With defect root causes understood, TSMC can now focus on throughput improvement for high-volume manufacturing.”
3 defects per wafer is zo goed als 'zero-defects'. In het slechtste geval zou je maar 3 GPUs uit een wafer weg hoeven gooien, de rest zou zero-defect zijn. Bij zo'n laag aantal defects zou je als fabrikant idd dat risico kunnen nemen om de chips niet extra te 'wapenen' tegen dergelijke defects, en gewoon die 3 slechte GPUs per wafer accepteren.
Verwijderd schreef op maandag 24 november 2014 @ 14:59:
Aan de andere kant, al zou dit geclaimd worden, dan acht ik nV niet zo dom om dit aan te nemen.
Ja, near-zero defects is dus geclaimd. nVidia was inderdaad niet zo dom om dat zomaar aan te nemen, en heeft toch eerst test-batches gedraaid van DX10.1 GPUs, en heeft ook hun GTX480 nog wel 'gewapend' tegen mogelijke productiefouten.
Het bleek echter dat de productiefouten nog hoger lagen dan op 55 nm, zoals al gezegd.
Verwijderd schreef op maandag 24 november 2014 @ 14:59:
Verder, afaik gingen er al sinds 180 nm meer en meer stemmen op om ook in digital IC's meer via's te gebruiken, dus ze zouden wel erg laat zijn als ze er pas achter gekomen zouden zijn op 40 nm.
Dat is ook niet zo, dat is FUD verspreid door het AMD-kamp zoals ik al eerder aantoonde:
http://www.cse.psu.edu/~x...s/IEDM2009/DATA/01-01.PDF
Deze link van nVidia spreekt al over double VIA's en multiple VIA's voor de Tesla-architectuur op 55 nm.
En dat zal vast ook niet de eerste zijn geweest waar nVidia dit toepaste, want voor grote GPUs die veel stroom trekken zijn aangepaste VIA's soms gewoon nodig, zelfs als er geen defects zijn.
Zoals je kunt lezen, maarliefst 75% van alle VIA's zijn meervoudig.

Begin je de FUD een beetje in te zien?
Verwijderd schreef op maandag 24 november 2014 @ 14:59:
Meh, nV was sowieso al niet t snelste jongetje van de klas als t gaat ging om de nieuwste processen gebruiken. Dat hun DFM flow niet van je het was, zou meer in de lijn der verwachting liggen. Afaik waren er ook nV chips die sneller dan normaal de geest gaven, wat zeer waarschijnlijk ook een gevolg is van poor DFM.
Ook de Xbox 360 had hier heel veel last van (bekend als RROD). Dit kwam doordat loodhoudend soldeertin was verboden, en de vervangende materialen niet altijd even goed bestand waren tegen temperatuurschommelingen.
Ook Radeon-kaarten gingen hier wel aan ten onder: http://www.humus.name/index.php?page=News&ID=283
Heeft verder geen verband met dit probleem, dus ik snap niet goed waarom je dat wil noemen.

[ Voor 70% gewijzigd door Verwijderd op 24-11-2014 15:45 ]


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
VasZaitsev schreef op maandag 24 november 2014 @ 14:08:
[...]


Dat wel, maar nog niet eentje die echt laat zien wat er kan gebeuren, beetje een uitprobeerseltje denk ik, net als de GTX750ti een tijd lang de enige Maxwell was.
Bevestigd imo de achterstand van AMD dan alleen maar meer. Immers de 750ti (en afgeleide 860m) zijn nog steeds zeer interessante chips (en bij release was het lof over de fenomenale performance per watt niet van de lucht), waar de 285 bij intro al een meh was (beloofdegemarketeerde performance per watt werd niet gehaald)
Ik zit niet gewoon maar AMD te bashen, maar is er ook maar 1 voorteken waaruit blijkt dat AMD de concurrentie in main-stream en high-end segment weer kan aangaan in 2015? (de 285 is imo juist het tegenovergestelde)

[ Voor 4% gewijzigd door eL_Jay op 24-11-2014 17:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 november 2014 @ 15:14:

Okee, niet letterlijk. Ze hebben het over 'near-zero': http://www.tsmc.com/tsmcd...=1737&newsdate=2006/02/22
Wat ze geclaimd hebben is dit:

[..]

3 defects per wafer is zo goed als 'zero-defects'. In het slechtste geval zou je maar 3 GPUs uit een wafer weg hoeven gooien, de rest zou zero-defect zijn. Bij zo'n laag aantal defects zou je als fabrikant idd dat risico kunnen nemen om de chips niet extra te 'wapenen' tegen dergelijke defects, en gewoon die 3 slechte GPUs per wafer accepteren.
Je slaat wat stappen over van een press release waarbij ze claimen dat ze bij immersielithografie eindelijk up to par zijn met de droge lithografie, naar een 3 slechte GPUs per wafer. Zoals staat in de press release, betreffen het test wafers: ten eerste zijn dit zijn zeer versimpelde chips die over het algemeen niet door de hele flow gaan en ten tweede zeer uniform zijn. Ik geloof niet dat nV met deze onderbouwing overtuigd zou kunnen worden dat ze maar 3 slechte ic's zouden hebben per wafer. Ik ben het zeker niet.

Hoe ik t lees: deze press release probeert het publiek te overtuigen dat hun nieuwe process bijna net zo goed is als t ouwe. Stocks/investeerders hebben af en toe ook een duwtje nodig. :P
Dat is ook niet zo, dat is FUD verspreid door het AMD-kamp zoals ik al eerder aantoonde:
http://www.cse.psu.edu/~x...s/IEDM2009/DATA/01-01.PDF
Deze link van nVidia spreekt al over double VIA's en multiple VIA's voor de Tesla-architectuur op 55 nm.
En dat zal vast ook niet de eerste zijn geweest waar nVidia dit toepaste, want voor grote GPUs die veel stroom trekken zijn aangepaste VIA's soms gewoon nodig, zelfs als er geen defects zijn.
Zoals je kunt lezen, maarliefst 75% van alle VIA's zijn meervoudig.
Ik heb deze pdf snel doorgelezen en mij komt het eerlijk gezegd over alsof DFM een after thought was. Ze hebben nadat de chip gesynthetiseerd was nog even proberen te quickfixen door overal waar er plek was double via's te plaatsen (misschien als mask fix en en passant nog deze paper gemaakt). Dit in plaats van een serieuze DFM flow waarbij je synthetiseert met een constraint voor multiple vias (en meer geavanceerdere DFM constraints). Zo aanpak boomerangt keihard inyourface terug als je dit probeert met geavanceerde processen.
Begin je de FUD een beetje in te zien?
:?

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 13:41:
[...]


Het feit dat ATi overgenomen is, zegt al genoeg
Neen dat zegt niks blijkbaar ken je weinig van economie.

Een overname betekent meestal dat een bedrijf interesse in die markt heeft en het zich direct een positie daarin wil kopen ofdat het bepaalde kennis/tech/patenten wil hebben. Jij denk blijkbaar dat men enkel bedrijven overneemt omdat het slecht gaat .

De synergie tussen ATI en AMD leek me duidelijk een logisch geveolg (waar toen trouwens al jaren over werd gespeculeerd)

Nogmaals ATI maakte winst , aandeel was het goed aan het doen ATI had geen enkel probleem om zelfstandig verder te gaan .
En zoals bleek, werd de Radeon 2900 een gigantische flop, toen ie eindelijk uitkwam, veel te laat.
Waarom hebben ze zich uberhaupt te koop aangeboden? Waarom heeft nVidia dit niet gedaan?
Je haalt iets aan dat gebeurde bijna een jaar na de overname.

Daarbij gigantische flop? Als ik me het herinner haden ze toen geen high end kaart en was de 2900 vergelijkbaar met wat nvidia aanbood op dat moment . Te laat idd maar zelfs niet zo slecht als het NV30 vs readon 9700 debacle enkele jaren daarvoor .


Heb je enige ondersteuning voor al deze beweringen van de economische impact van deze producten op ATI en de beslissing in de overname door AMD buiten je duim?

En zoals ik al zei je schijnt weinig van economie te kennen, de realiteit :

http://www.tomshardware.c...idia-GPU-Tegra,14795.html

"Former AMD employees told Forbes that the company approached Nvidia about a possible acquisition long before it pulled out the wallet to purchase ATI for $5.4 billion back in 2006.

At the time, AMD was out to get ahead of rival Intel by grabbing a piece of the GPU market and fusing the technology with its own CPU offering. Thus AMD would be in a position to provide a CPU/GPU solution that Intel really wasn't ready to offer.

But during the talks, Nvidia Chief Executive Jen-Hsun Huang reportedly insisted that he become chief executive of the combined company. Naturally AMD Chief Executive Hector Ruiz wasn't going to let that happen, so he chose to acquire rival ATI instead."


AMD wilde dus eingelijk eerst nvidia kopen, maar door koppigheid van de ceo ging dat niet door en dus kochtte ze ATI .

Met jouw logica betekend dit dat NV dan bijna failliet was?
Een nieuwe GPU-architectuur wordt JAREN voorbereid.
You do the math.
Hier staat ook al het nodige in over wat er fout ging met de Radeon 2900: http://www.anandtech.com/show/2231
En?

Misschien je eigen 'bron' lezen? :lol:

"It's not a huge deal because the number of people buying > $399 graphics cards is limited, but before we've started the review AMD is already giving up ground to NVIDIA, which isn't a good sign."

"Maybe that's a lot to digest, but the bottom line is that R600 is not perfect nor is it a failure. The HD 2900 XT competes well with the 640MB 8800 GTS, though the 8800 GTS 320MB does have a price/performance advantage over both in all but the highest resolutions and AA settings under most current games. There are features we like about the hardware and we would love to see exploited. There is potential there, especially for Xbox 360 ports, to really shine... though console ports are often looked down upon in the PC market, particularly if they come late and offer little new to the platform.'


Sorry ik haal hier nergens uit dat enkel deze kaart het "failliet" van ATI was.


Nogmaals je hebt iets tegen ATI/AMD ok je goed recht maar je word daar nu zo ongelijkfelijk biased door dat je blijkbaar geen logische gedachte meer kan maken als er ATI/AMD in voorkomt . Hoe daarmee op je komt heel kinderachtig en belachelijke over .

[ Voor 16% gewijzigd door k995 op 24-11-2014 17:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 november 2014 @ 16:56:
[...]
Je slaat wat stappen over van een press release waarbij ze claimen dat ze bij immersielithografie eindelijk up to par zijn met de droge lithografie, naar een 3 slechte GPUs per wafer.
Jij slaat even over dat dit al uit 2006 is, en nVidia pas eind 2009 in productie ging.
Verwijderd schreef op maandag 24 november 2014 @ 16:56:
Ik geloof niet dat nV met deze onderbouwing overtuigd zou kunnen worden dat ze maar 3 slechte ic's zouden hebben per wafer.
Dat beweer ik ook helemaal niet.
Ik zeg alleen dat TSMC al in 2006 beweerde de defects van immersive lithography onder de knie te hebben, en TSMC beweert dat ze dat (wellicht onder speciale testcondities) kunnen.
Wat ze exact met nVidia hebben overlegd, weten we niet. Dat nVidia het met een flinke korrel zout heeft genomen, lijkt me een veilige aanname. Zeker als we zien dat nVidia 75% multiple VIAs gebruikte op 55 nm.
Je denkt toch niet dat ze van 75% naar 0% gaan? Wat dat is wat je hier wel aan het beweren bent, namelijk.
Verwijderd schreef op maandag 24 november 2014 @ 16:56:
Ik heb deze pdf snel doorgelezen en mij komt het eerlijk gezegd over alsof DFM een after thought was.
Ik kom al een aantal jeren de term 'DFM' tegen in jouw posts, en het komt op mij over alsof je niet precies weet wat dat is.
DFM zijn guidelines vanuit TSMC, in Jip-en-Janneke-taal: "Voor ons xyz-prodece kun je chips het best zus-en-zo ontwerpen".
Verwijderd schreef op maandag 24 november 2014 @ 16:56:
Ze hebben nadat de chip gesynthetiseerd was nog even proberen te quickfixen door overal waar er plek was double via's te plaatsen (misschien als mask fix en en passant nog deze paper gemaakt). Dit in plaats van een serieuze DFM flow waarbij je synthetiseert met een constraint voor multiple vias (en meer geavanceerdere DFM constraints). Zo aanpak boomerangt keihard inyourface terug als je dit probeert met geavanceerde processen.
Wederom probeer je glashard te beweren dat nVidia na een chip met 75% multiple VIA's nu 'op goed geluk' een chip met alleen maar single VIA's gaat produceren.
Onzin! Echt, een belachelijke bewering! FUD!

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

eL_Jay schreef op maandag 24 november 2014 @ 16:54:
[...]

Bevestigd imo de achterstand van AMD dan alleen maar meer. Immers de 750ti (en afgeleide 860m) zijn nog steeds zeer interessante chips (en bij release was het lof over de fenomenale performance per watt niet van de lucht), waar de 285 bij intro al een meh was (beloofdegemarketeerde performance per watt werd niet gehaald)
Ik zit niet gewoon maar AMD te bashen, maar is er ook maar 1 voorteken waaruit blijkt dat AMD de concurrentie in main-stream en high-end segment weer kan aangaan in 2015? (de 285 is imo juist het tegenovergestelde)
Zo'n teken was er ook niet toen de R9 290 uitkwam, iedereen had weinig spannends verwacht door de rebrand, en plotsklaps komt daar de R9 290, De prestaties van een GTX780 tegen een prijs van iets van 200 euro minder.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
VasZaitsev schreef op maandag 24 november 2014 @ 17:08:
[...]


Zo'n teken was er ook niet toen de R9 290 uitkwam, iedereen had weinig spannends verwacht door de rebrand, en plotsklaps komt daar de R9 290, De prestaties van een GTX780 tegen een prijs van iets van 200 euro minder.
En dubbel inzetbaar als kachel. Ik voorspel je dat de focus in de toekomst steeds meer op performance per watt komt te liggen door o.a. sub-itx systemen. En laat nu AMD nu net daar niet in mee kunnen komen.
Ik hoop dat AMD wat expertise op dat gebied kan inkopen, maar concurreren met Intel en Nvidia op de toekomstig essentiele vlakken als performance/watt lijkt tot het verleden te behoren (dus niet alleen bang/buck). Dat was met de 6xxx vs 4xx wel anders 8)7 .
offtopic:
Zeg nu zelf, wie wil er een dedicated AMD gpu in zijn laptop? Ik denk niemand hier op deze gehele site.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 16:59:
[...]
Een overname betekent meestal dat een bedrijf interesse in die markt heeft en het zich direct een positie daarin wil kopen ofdat het bepaalde kennis/tech/patenten wil hebben. Jij denk blijkbaar dat men enkel bedrijven overneemt omdat het slecht gaat .
Er was voor ATi anders geen enkele reden om zich over te laten nemen door AMD.
Net zoals alle andere goedlopende bedrijven als Intel, Apple, Samsung etc zich ook niet over laten nemen 'voor de leuk'.
AMD wilde 'een GPU-ontwerper'.
k995 schreef op maandag 24 november 2014 @ 16:59:
De synergie tussen ATI en AMD leek me duidelijk een logisch geveolg (waar toen trouwens al jaren over werd gespeculeerd)
Wat is er logisch aan voor ATi dan? ATi is totaal verdwenen, en heeft er weinig aan dat er nu APUs zijn.
k995 schreef op maandag 24 november 2014 @ 16:59:
Je haalt iets aan dat gebeurde bijna een jaar na de overname.
Zoals gezegd:
1) Een GPU ontwerpen duurt jaren
2) De Radeon 2900 had vertraging opgelopen.

ATi wist al lang van tevoren dat de 2900 veel te laat op de markt zou komen, en dat ze hem niet competitief met nVidia zouden kunnen krijgen. Zonder zich te laten overnemen door een bedrijf met diepere broekzakken, zouden ze de fout van de 2900 niet kunnen herstellen, en was het einde oefening.

Er is nog jaren over gediscussieerd dat ATi veel dieper inhakte op AMD's financien dan van tevoren ingeschat. Dit heeft daar alles mee te maken.
k995 schreef op maandag 24 november 2014 @ 16:59:
"Former AMD employees told Forbes that the company approached Nvidia about a possible acquisition long before it pulled out the wallet to purchase ATI for $5.4 billion back in 2006.
Dat AMD op zoek was, weten we. Het gaat hier over ATi.
Waarom namen ze nVidia dan niet over?
Als het met allebei zo goed ging?
Omdat nVidia geen reden had. ATi wel, ATi moest overleven.
k995 schreef op maandag 24 november 2014 @ 16:59:
But during the talks, Nvidia Chief Executive Jen-Hsun Huang reportedly insisted that he become chief executive of the combined company. Naturally AMD Chief Executive Hector Ruiz wasn't going to let that happen, so he chose to acquire rival ATI instead."
Precies, nVidia was te trots. Goedlopend bedrijf, heeft AMD helemaal niet nodig.
k995 schreef op maandag 24 november 2014 @ 16:59:
Met jouw logica betekend dit dat NV dan bijna failliet was?
Nee, met mijn logica was nVidia helemaal niet geinteresseerd in een overname. Als ze al overgenomen zouden worden, zouden ze een hoop eisen stellen.
Blijkbaar kon ATi dat niet.
k995 schreef op maandag 24 november 2014 @ 16:59:
Sorry ik haal hier nergens uit dat enkel deze kaart het "failliet" van ATI was.
Dat staat er ook niet. Er staat wel dat de Radeon 2900 veel te laat was, veel problemen had, en niet is geworden wat het had moeten zijn.

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
eL_Jay schreef op maandag 24 november 2014 @ 16:54:

Ik zit niet gewoon maar AMD te bashen, maar is er ook maar 1 voorteken waaruit blijkt dat AMD de concurrentie in main-stream en high-end segment weer kan aangaan in 2015? (de 285 is imo juist het tegenovergestelde)
Ze verliezen misschien op stroomgebruik met de 970/980 (en dat is misschien jouw belangrijkste criteria) maar prijs/performance valt het mijn inziens wel mee hoor.

Volgens mij hebben de 280(x)/290 op dit moment gewoon geen concurrentie van Nvidia. De 770 kost net zoveel als de 290, dan lijkt mij de 290 toch echt de betere koop. En 290x vs 970, dan zou ik voor de 970 kiezen.

As for 2015, stacked ram is een mogelijkheid waarop ze energie kunnen besparen en winst kunnen halen volgens mij.

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Zeara schreef op maandag 24 november 2014 @ 17:15:
[...]


Ze verliezen misschien op stroomgebruik met de 970/980 (en dat is misschien jouw belangrijkste criteria) maar prijs/performance valt het mijn inziens wel mee hoor.

Volgens mij hebben de 280(x)/290 op dit moment gewoon geen concurrentie van Nvidia. De 770 kost net zoveel als de 290, dan lijkt mij de 290 toch echt de betere koop. En 290x vs 970, dan zou ik voor de 970 kiezen.

As for 2015, stacked ram is een mogelijkheid waarop ze energie kunnen besparen en winst kunnen halen volgens mij.
Jammer genoeg is ram nu niet het meest dorstige onderdeel.
Hopelijk weten ze wat 'Prime" productiecapaciteit in te kopen om in ieder geval op nm met de concurrentie te concurreren (of iig dichter bij Intel komen)

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Ik denk dat performance/watt een vrij kleine markt is in de desktop wereld, en AMD doet het daar op mid-range ook vrij goed in. Een R9 270 heeft een hele mooie prijs, erg goede performance en is zeker geen slurper. Ja, een GTX750ti is zuiniger, maar biedt ook veel minder prestaties. Qua performance/watt ontlopen die twee eigenlijk vrij weinig.

Ook is de R9 290 niet heel veel minder zuinig dan de duurdere GTX780.

Laptops zijn inderdaad een ander verhaal, daar heeft AMD idd momenteel op highend weinig te vertellen. Op CPU vlak ook, terwijl de zuinige APU's eigenlijk best leuk zijn. Een groot probleem is dat het knap lastig is om een niet-budget-laptop te vinden met AMD APU

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 17:15:
[...]


Er was voor ATi anders geen enkele reden om zich over te laten nemen door AMD.
ATI was een beursgenoteerd bedrijf .

Nogmaals je snapt hier duidelijk weinig van.
Net zoals alle andere goedlopende bedrijven als Intel, Apple, Samsung etc zich ook niet over laten nemen 'voor de leuk'.
AMD wilde 'een GPU-ontwerper'.
EN zocht eerst bij NV en later bij ATI niks te maken met een slecht product dat het bedrijf failliet zou maken.

Heeft apple beats gekocht omdat deze het slecht deden?

Je WIL dat ATI het slecht deed maar elk cijfer spreekt je tegen.

Nogmaals geef eens een bron voor wat je zegt buiten je duim.
Wat is er logisch aan voor ATi dan? ATi is totaal verdwenen, en heeft er weinig aan dat er nu APUs zijn.
Besef je wel wat een beursgenoteerd bedrijf is?

ATI aandelen zaten rond 15$ AMD bood 20+$ . kassa kassa dus .
Zoals gezegd:
1) Een GPU ontwerpen duurt jaren
2) De Radeon 2900 had vertraging opgelopen.

ATi wist al lang van tevoren dat de 2900 veel te laat op de markt zou komen, en dat ze hem niet competitief met nVidia zouden kunnen krijgen. Zonder zich te laten overnemen door een bedrijf met diepere broekzakken, zouden ze de fout van de 2900 niet kunnen herstellen, en was het einde oefening.
Dat verzin je gewoon.

Ten eerste buiten dat je een bron hebt die dit bevestigd was de 2900 helemaal niet zo'n walgelijk slecht en laat product dat je ervan wil maken (zoals aangehaald je eigen bron zegt dat nvidia veel slechter deed met de NV30 in, 2003 en die bestonden ook nog in 2006)
Er is nog jaren over gediscussieerd dat ATi veel dieper inhakte op AMD's financien dan van tevoren ingeschat. Dit heeft daar alles mee te maken.
Geef dan die bronnen maar die hier een analyse over doen en die zeggen dat dit door de 2900 kwam .
Dat AMD op zoek was, weten we. Het gaat hier over ATi.
Waarom namen ze nVidia dan niet over?
Omdat de CEO van NV lastig deed. Vijandige overame is dan mogelijk maar pakken duurder . ATI was net zo goed voor AMD .
Nee, met mijn logica was nVidia helemaal niet geinteresseerd in een overname. Als ze al overgenomen zouden worden, zouden ze een hoop eisen stellen.
Blijkbaar kon ATi dat niet.
ATI kon dat net zo goed maar deden dit niet voor een pak redenen die niks te maken hebben met bijna failliet
Dat staat er ook niet. Er staat wel dat de Radeon 2900 veel te laat was, veel problemen had, en niet is geworden wat het had moeten zijn.
ZOals ik al zei ik geef tal van bronnen die aantonen da ATI het helemaal niet slecht deed op dat punt, jij hebt nog niks gegeven .

Geef bronnen van wat je beweert .

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 november 2014 @ 17:03:

Jij slaat even over dat dit al uit 2006 is, en nVidia pas eind 2009 in productie ging.
Jij bent diegene die met de press release kwam ter onderbouwing, niet ik.
Dat beweer ik ook helemaal niet.
Ik zeg alleen dat TSMC al in 2006 beweerde de defects van immersive lithography onder de knie te hebben, en TSMC beweert dat ze dat (wellicht onder speciale testcondities) kunnen.
Wat ze exact met nVidia hebben overlegd, weten we niet. Dat nVidia het met een flinke korrel zout heeft genomen, lijkt me een veilige aanname. Zeker als we zien dat nVidia 75% multiple VIAs gebruikte op 55 nm.
Je denkt toch niet dat ze van 75% naar 0% gaan? Wat dat is wat je hier wel aan het beweren bent, namelijk.
Ik zeg dat het zeer aannemelijk is dat ze van 0% naar 75% zijn gegaan. Waarschijnlijk hadden ze een crappy chip en probeerde ze m tot leven te brengen met een metal respin. Ik probeer enkel te zeggen dat DFM als after thought geen goeie approach is.
Ik kom al een aantal jeren de term 'DFM' tegen in jouw posts, en het komt op mij over alsof je niet precies weet wat dat is.
DFM zijn guidelines vanuit TSMC, in Jip-en-Janneke-taal: "Voor ons xyz-prodece kun je chips het best zus-en-zo ontwerpen".
Ik ben zelf een IC ontwerper en heb chips bij verschillende foundries getapeouted. Dus je hoeft mij niet uit te leggen wat DFM is ;). Overigens zijn DFMs al lang niet meer beperkt tot een paar regels in een design rule manual ;)
Wederom probeer je glashard te beweren dat nVidia na een chip met 75% multiple VIA's nu 'op goed geluk' een chip met alleen maar single VIA's gaat produceren.
Onzin! Echt, een belachelijke bewering! FUD!
Huh? Wederom? Ik kom net binnen? :? Mij hoef je niet te overtuigen dat nV nu een stuk meer aandacht besteed aan DFM dan ooit te voren. Ze krijgen performend werkend 28nm silicon terug, dat is al genoeg bewijs ervoor.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 17:24:
ATI was een beursgenoteerd bedrijf .
nVidia ook. Dus nogmaals: waarom zou het voor ATi gunstig zijn om met AMD samen te gaan werken?
k995 schreef op maandag 24 november 2014 @ 17:24:
Nogmaals je snapt hier duidelijk weinig van.
Sterk argument hoor... Oh wacht, er is geen argument!
k995 schreef op maandag 24 november 2014 @ 17:24:
Je WIL dat ATI het slecht deed maar elk cijfer spreekt je tegen.
Nee, Radeon 2900 geeft me gelijk. Jij negeert het alleen steeds.
De 2900 had dodelijk geweest. Een high-end GPU (qua die-size, complexiteit, dus ook qua productiekosten, stroomverbruik etc), die als een mainstream kaart presteert, en dus voor een mainstream-prijs verkocht moet worden, terwijl er niet eens een high-end GPU is. Dat tegen een nVidia dat toch al veel sterker staat omdat ze de hele DX10-markt al in handen heben.
Dit zijn feiten.
k995 schreef op maandag 24 november 2014 @ 17:24:
ATI aandelen zaten rond 15$ AMD bood 20+$ . kassa kassa dus .
Ja, ATi heeft prima onderhandeld, en AMD heeft veel te veel betaald. Daar zijn de analysten het over eens. Zuig ik ook niet uit m'n duim, daar is ook genoeg over te vinden op het internet.
k995 schreef op maandag 24 november 2014 @ 17:24:
Ten eerste buiten dat je een bron hebt die dit bevestigd was de 2900 helemaal niet zo'n walgelijk slecht en laat product dat je ervan wil maken
Tsja, er zijn extreme fanboys die alles zeer gekleurd bekijken. Er zijn zelfs nog steeds mensen die de Bulldozer geen mislukking vinden. Is min of meer hetzelfde verhaal als de Radeon 2900 (high-end product met mainstream performance, geen return-on-investment).
Resultaat is ook min of meer hetzelfde: AMD stapt uit de high-end CPU-markt. Zal daar ook nooit meer terugkomen.
k995 schreef op maandag 24 november 2014 @ 17:24:
(zoals aangehaald je eigen bron zegt dat nvidia veel slechter deed met de NV30 in, 2003 en die bestonden ook nog in 2006)
Yup, maar ook nVidia hing aan een zijden draadje. Het is echter wel nVidia, dus op basis van hun naam en een hoop onzin-marketing zijn ze er toch goed doorheen gekomen (vergelijkbaar met Intel en de Pentium 4).
Verwijderd schreef op maandag 24 november 2014 @ 18:00:
[...]
Jij bent diegene die met de press release kwam ter onderbouwing, niet ik.
Ik nam aan dat je slim genoeg was om even te kijken waar het om ging (het feit dat ze nog spraken over '45 nm' ipv 40 nm had ook wel een indicatie kunnen zijn dat het vrij lang geleden is.
Blijkbaar heb ik je overschat.
Verwijderd schreef op maandag 24 november 2014 @ 18:00:
Ik zeg dat het zeer aannemelijk is dat ze van 0% naar 75% zijn gegaan. Waarschijnlijk hadden ze een crappy chip en probeerde ze m tot leven te brengen met een metal respin.
Dat gaat niet effe.
Bovendien zal het zo niet gegaan zijn.
Als ze naar 75% waren gegaan, had de 480 prima yields gehad.
Maar dit was niet het geval. De 580 had echter wel prima yields. Maar had die ineens veel meer/dikkere VIA's? Nee: http://hexus.net/tech/rev...phics-card-review/?page=2
Qua transistorcount is hij hetzelfde, die size is zelfs iets kleiner. Als ze ineens veel meer multiple VIA's hadden gebruikt bij hetzelfde aantal transistors, zou de die groter moeten zijn geworden.
Zoals je kunt lezen, hebben ze vooral het type transistor in bepaalde plaatsen aangepast.
Verwijderd schreef op maandag 24 november 2014 @ 18:00:
Ik probeer enkel te zeggen dat DFM als after thought geen goeie approach is.
Daar zal iedereen het mee eens zijn.
Waar ik het niet mee eens ben is dat jij beweert dat nVidia, een van de meest vooraanstaande bedrijven op het gebied van chip-ontwerp, zo'n domme aanpak zou nemen (terwijl ze al jarenlang steeds grote GPUs maken zonder problemen, dus kennelijk beheersten ze het kunstje wel).
Verwijderd schreef op maandag 24 november 2014 @ 18:00:
Mij hoef je niet te overtuigen dat nV nu een stuk meer aandacht besteed aan DFM dan ooit te voren. Ze krijgen performend werkend 28nm silicon terug, dat is al genoeg bewijs ervoor.
Wederom, onzin. nVidia werd destijds ook voor gek verklaard toen de specs van de G80 bekend werden. Maar de chip werkte perfect. Daarna hebben ze nog een paar 'flinke jongens' gebouwd.
Ze zijn dus niet 'nu ineens' aandacht aan DFM gaan besteden.

[ Voor 32% gewijzigd door Verwijderd op 24-11-2014 19:07 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 24 november 2014 @ 18:46:
nVidia ook. Dus nogmaals: waarom zou het voor ATi gunstig zijn om met AMD samen te gaan werken?
Omdat, zoals duidelijk vermeld is hiervoor, AMD als gepolst had bij nVidia, maar Jensen met eisen kwam waar AMD niets mee wilde. Als je dan een vijandige overname doet, wat prima kan, loop je grote kans dat het personeel weg loopt, waarmee je dus eigenlijk niets op schiet.

Het blijft bijzonder dat alles wat niet in je straatje past afgedaan wordt als onzin, leugens, roddels en wat niet anders, terwijl je zo halsstarrig blijft vasthouden aan een claim die gewoonweg niets met de werkelijkheid te maken heeft.

Overigens was het niet DX10 wat voor de problemen zorgde, maar de totaal nieuwe WDDM van Vista. Dat wil zeggen, nVidia had zoveel issues met WDDM, dat ze uiteindelijk flink zijn versimpeld en uitgekleed, waardoor ATi (ofwel AMD op dat moment) met een chip zat (R600) die veel meer zooi aan boord had dan uiteindelijk ooit zou worden gebruikt.

Dat DX10.1 is wat DX10 had moeten zijn, is een ander verhaal en kent zijn geschiedenis en succes vanaf de RV670.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op maandag 24 november 2014 @ 18:55:
[...]
Omdat, zoals duidelijk vermeld is hiervoor, AMD als gepolst had bij nVidia, maar Jensen met eisen kwam waar AMD niets mee wilde. Als je dan een vijandige overname doet, wat prima kan, loop je grote kans dat het personeel weg loopt, waarmee je dus eigenlijk niets op schiet.
Dat was de vraag niet.
De vraag was: Wat heeft ATi eraan om overgenomen te worden door AMD?
(Zal ik eens beginnen over mensen die alles negeren wat niet in hun straatje past? Ik heb deze vraag volgens mij nu al 3 keer gesteld, en het antwoord was steeds "AMD dit" of "nVidia dat"... maar over ATi hoor ik niks).

Sowieso, waar is de logica?
Jen Hsun (spel z'n naam eens goed! Het is geen Deen!) is niet achterlijk. Als het voor zijn aandeelhouders interessant is om door AMD overgenomen te worden, gaat hij niet dwarsliggen, zodat er alleen een vijandige overname mogelijk zou zijn. Hij doet dit omdat nVidia er absoluut niets aan had om door AMD ingelijfd te worden, en het eigenlijk als een belediging zag. ATi zou normaal gesproken precies hetzelfde hebben gereageerd.

[ Voor 42% gewijzigd door Verwijderd op 24-11-2014 19:05 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 24 november 2014 @ 19:00:
[...]


Dat was de vraag niet.
De vraag was: Wat heeft ATi eraan om overgenomen te worden door AMD?
ATi? ATi's aandeelhouders, die hebben er wat aan. Het personeel krijgt nieuwe kansen in een groter bedrijf, maar Ati als ATi, zegt helemaal niets. Dat heeft men hierboven ook al duidelijk genoeg gezegd, it's economics.
Jen Hsun (spel z'n naam eens goed! Het is geen Deen!) is niet achterlijk.
Ik schrijf Jensen zoals ik wil. Blijkbaar begrijp je gelijk wie ik bedoel. Nergens zeg ik dat hij achterlijk is, maar bij AMD is men ook niet achterlijk en kon men zich duidelijk niet vinden in zijn eisen.
ATi zou normaal gesproken precies hetzelfde hebben gereageerd.
Dat is een aanname van jou zijde. Meer dan een aanname is het dan ook niet.

[ Voor 34% gewijzigd door dahakon op 24-11-2014 19:15 ]


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op maandag 24 november 2014 @ 19:10:
[...]
ATi? ATi's aandeelhouders, die hebben er wat aan. Het personeel krijgt nieuwe kansen in een groter bedrijf, maar Ati als ATi, zegt helemaal niets. Dat heeft men hierboven ook al duidelijk genoeg gezegd, it's economics.
Uhhh, een overname is over het algemeen NIET goed voor het personeel. Vanwege de 'economics' worden bepaalde afdelingen samengevoegd, en mensen ontslagen (wat ook gebeurd is in het geval van ATi).
Verder, dit argument zou voor nVidia ook gelden, dus waarom zou Jen Hsun zo dwarsgelegen hebben als het zo duidelijk zou zijn dat het beter is?

Nee, zo werkt het natuurlijk niet. Jen Hsun had een heel goed punt: Als een GPU-bedrijf bij AMD komt, komen ze altijd op het tweede plan, want de CPU-markt is nou eenmaal groter en winstgevender.
Dus Jen Hsun had helemaal gelijk dat hij dan ook inspraak zou moeten krijgen in het bestuur aan de CPU-kant.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 18:46:
nVidia ook. Dus nogmaals: waarom zou het voor ATi gunstig zijn om met AMD samen te gaan werken?
Ok je snapt dus niks van een overname inhoud en met je afkeer van ATI wil je het maar op 1 minder product steken.
Sterk argument hoor... Oh wacht, er is geen argument!
Tja je hebt zelf nog geen enkel argument gegeven. Je blijft herhalen "het is zo" zonder ook maar enige onderbouwing door iets wat trekt op een argument.

Ik gaf er al genoeg die je simpelweg negeerde, allemaal om toch maar ergens een discussie aan te blijven gaan dan het merk dat je niet graag hebt bijna voor jou failliet was.


Sorry maar ik moet toch echt vragen wat heeft ATI je ooit aangedaan dat je zo geobsedeerd erdoor bent?
Nee, Radeon 2900 geeft me gelijk. Jij negeert het alleen steeds.
De 2900 had dodelijk geweest. Een high-end GPU (qua die-size, complexiteit, dus ook qua productiekosten, stroomverbruik etc), die als een mainstream kaart presteert, en dus voor een mainstream-prijs verkocht moet worden, terwijl er niet eens een high-end GPU is. Dat tegen een nVidia dat toch al veel sterker staat omdat ze de hele DX10-markt al in handen heben.
Dit zijn feiten.
Nee dat verzin je. Een feit zou je kunnen onderbouwen met bronnen. De ondergang van een beursgenoteerd bedrijf van die omvang en invloed in de IT wereld zou overal beschreven zijn, en toch kan jij niet 1 bron aanhalen buiten je duim.


Nvidia heeft NV30 debacle overleeft zonder zelfs al te veel invloed op hun marges over de jaren. DAT is wel degelijk een feit. En nvidia was op dat moment veel kleiner, kwetsbaarder en NV30 was echt wel slecht.
Tsja, er zijn extreme fanboys die alles zeer gekleurd bekijken. Er zijn zelfs nog steeds mensen die de Bulldozer geen mislukking vinden. Is min of meer hetzelfde verhaal als de Radeon 2900 (high-end product met mainstream performance, geen return-on-investment).
Resultaat is ook min of meer hetzelfde: AMD stapt uit de high-end CPU-markt. Zal daar ook nooit meer terugkomen.
Het was jouw bron hoor , over iets anders beginnen gaat echt niks verhelpen. Geef gerust een andere maar diegene ondersteunt perfect wat IK zeg.

[ Voor 3% gewijzigd door k995 op 24-11-2014 19:24 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 24 november 2014 @ 19:15:
Uhhh, een overname is over het algemeen NIET goed voor het personeel. Vanwege de 'economics' worden bepaalde afdelingen samengevoegd, en mensen ontslagen (wat ook gebeurd is in het geval van ATi).
Verder, dit argument zou voor nVidia ook gelden, dus waarom zou Jen Hsun zo dwarsgelegen hebben als het zo duidelijk zou zijn dat het beter is?
Pardon? Ben je bekend met de exacte voorwaarden die zijn overeengekomen binnen deze specifike overname? Daarnaast, een overname van nVidia had hele andere voorwaarden kunnen hebben, om vele verschillende redenen, dus je tweede statement is dus ook gestoeld op los zand.

Het ging verder niet over medezeggenschap. Jensen wilde de eindbaas zijn, dat is een heel ander ding dan medezeggenschap.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 19:15:
[...]


Uhhh, een overname is over het algemeen NIET goed voor het personeel. V
Kijk als je antwoord geeft wees dan eerlijk en geef op alles antwoord.

Er is hier al 5 keer gezegd dat de eigenaar aka de aandeelhouders van deze overname profiteerde DAT is de reden van de verkoop.


JIJ beweert dat je de gedachten en reden achter die verkoop kent mml het nakende failliet maar blijkbaar komt dat enkel van je duim. Nogmaals geef bronnen die jouw versie ondersteunen of hou op met eeuwig deze eeuwige rare discussie tegen ATI.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 19:19:
[...]
Ok je snapt dus niks van een overname inhoud en met je afkeer van ATI wil je het maar op 1 minder product steken.
Leg dan eens uit waarom die overname goed zou zijn voor ATi!
Iedereen roept maar "Je snapt het niet!" zonder enige argumenten te geven (terwijl ik die WEL geef).
Verder, moet ik een lijstje maken van videochip-fabrikanten die na 1 minder product konden inpakken (failliet, danwel uit de desktopmarkt teruggetrokken en zich op iets anders focussen)?
Eens kijken:
- Tseng Labs
- Video Seven
- S3
- VideoLogic
- Matrox
- 3DFX
- Trident
- OAK
- WD Paradise
... vast nog wel meer, maar you get my drift.
Je kunt je geen misstap permitteren.
k995 schreef op maandag 24 november 2014 @ 19:19:
Ik gaf er al genoeg die je simpelweg negeerde, allemaal om toch maar ergens een discussie aan te blijven gaan dan het merk dat je niet graag hebt bijna voor jou failliet was.
Ja, *ik* ben hier de fanboy zeker?
Ik heb waarschijnlijk meer ATi kaarten gehad dan de meesten hier.
Mijn eerste ATi kaart was een Small Wonder, eind jaren 80.

Laten we het eens niet over fanboygeneuzel hebben, en mensen van alles in de schoenen proberen te schuiven. Laten we gewoon eens een discussie op feiten en argumenten houden.
dahakon schreef op maandag 24 november 2014 @ 19:20:
[...]
Pardon? Ben je bekend met de exacte voorwaarden die zijn overeengekomen binnen deze specifike overname? Daarnaast, een overname van nVidia had hele andere voorwaarden kunnen hebben, om vele verschillende redenen, dus je tweede statement is dus ook gestoeld op los zand.
Ze kunnen alleen andere (betere voor nVidia dus) voorwaarden kunnen hebben als nVidia een sterkere onderhandelingspositie heeft. En dat kan nVidia alleen maar hebben als ze meer zekerheid hebben over hun toekomst.
k995 schreef op maandag 24 november 2014 @ 19:19:
Het ging verder niet over medezeggenschap. Jensen wilde de eindbaas zijn, dat is een heel ander ding dan medezeggenschap.
Daar had hij ook gelijk in: nVidia was met afstand marktleider op het gebied van GPUs, en boorde nieuwe markten aan met GPGPU en dergelijke. AMD daarentegen was een speler in de marge in de schaduw van Intel, en had weinig in te brengen in die markt.
nVidia zou er echt niet op vooruit gegaan zijn. AMD zou de techniek van nVidia leegzuigen, en dan langzaam leeglopen op Intel in de eeuwige concurrentiestrijd.
Qua CPU is de strijd al over... Met GPUs ziet het er ook niet zo best uit. nVidia heeft een flinke tik uitgedeeld met Maxwell 2. Bij AMD hebben we nog niets gehoord over een antwoord hierop. Meestal betekent dit ook dat er geen goed antwoord gaat komen. En als AMD de slag mist met DX12 straks, dan komen ze ook daar nooit meer terug in de race, net als de CPU-divisie.
k995 schreef op maandag 24 november 2014 @ 19:22:
Er is hier al 5 keer gezegd dat de eigenaar aka de aandeelhouders van deze overname profiteerde DAT is de reden van de verkoop.
Okee, dus aandeelhouders zijn zo kortzichtig dat ze even snel willen cashen bij zo'n overname, en daarna het bedrijf dood laten bloeden?
Nee... zo werkt het niet.
Aandeelhouders willen alleen een overname als het bedrijf al aan het doodbloeden is, en een ander bedrijf redding kan bieden.
nVidia was niet aan het doodbloeden, dus kon AMD ze gewoon niet overnemen, tegen geen enkel bedrag.

[ Voor 44% gewijzigd door Verwijderd op 24-11-2014 19:33 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Toen niet nee, omdat de consument keuze had uit 10 andere merken. Maak een foutje en idd, niemand koopt je kaarten nog.

Nu is het al jaren alleen maar ATi/AMD vs Nvidia. Zo heel veel concurrentie is er niet.

Van dat lijstje heb ik van de meeste "wel gehoord", op het internet. 3DFX heb ik ooit nog eens in de winkel gezien [meer dan 10 jaar geleden], en Matrox kan/kon je nog wel in de PW vinden, al koopt niemand die dingen nog.

De markt was toen gewoon compleet anders, zelf toen Ati overgenomen werd door AMD was die markt al niet meer vergelijkbaar met die tijd.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Verwijderd

VasZaitsev schreef op maandag 24 november 2014 @ 19:33:
Nu is het al jaren alleen maar ATi/AMD vs Nvidia. Zo heel veel concurrentie is er niet.
Dat maakt het nu juist nog veel lastiger.
Net als met Intel: De overgebleven spelers zijn zo groot, en er gaat zo veel geld in om, dat het probleem alleen nog maar uitvergroot wordt.
Als jij een steekje laat vallen, gaat AL dat verloren marktaandeel naar die ene concurrent.
VasZaitsev schreef op maandag 24 november 2014 @ 19:33:
Van dat lijstje heb ik van de meeste "wel gehoord", op het internet. 3DFX heb ik ooit nog eens in de winkel gezien [meer dan 10 jaar geleden], en Matrox kan/kon je nog wel in de PW vinden, al koopt niemand die dingen nog.
Ik heb van vrijwel al die merken wel kaarten gehad, of iig in m'n handen gehad.
Ik vergat Cirrus Logic nog, die heb ik ook nog gehad in m'n 486.
VasZaitsev schreef op maandag 24 november 2014 @ 19:33:
De markt was toen gewoon compleet anders, zelf toen Ati overgenomen werd door AMD was die markt al niet meer vergelijkbaar met die tijd.
Niet mee eens.
Vrijwel al die merken zijn INEENS van de markt geveegd, door 1 speler 3DFX.
nVidia kwam toen pas op.
ATi en Matrox waren de enigen die nog een tijdje konden overleven, omdat ze veel deals hadden met OEMs.
Matrox heeft nog een paar generaties meegedraaid met het 3d-geweld, heeft zelfs nog even de snelste kaarten op de markt gehad... Maar 1 misstap (Parhelia), en het was over.
3DFX ook: ze werden door nVidia op vrijwel dezelfde manier aan de kant gezet als dat 3DFX alle 'oldskool' video-bedrijven aan de kant had gezet.
ATi is de enige die met veel pijn en moeite zichzelf uiteindelijk heeft op kunnen werken van matige OEM tot tegentander van nVidia.

Acties:
  • 0 Henk 'm!
De keuze voor AMD om ATi over te nemen was toch gewoon de meest logische keuze? nVidia was gewoon een stuk duurder voor AMD, onbetaalbaar duur gewoon. ATi was een stuk goedkoper en de enige andere grote videokaart fabrikant. AMD had gewoon de techniek nodig en ATi was eigenlijk de enige goede optie en sowieso de meest logische op dat moment.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op maandag 24 november 2014 @ 19:40:
De keuze voor AMD om ATi over te nemen was toch gewoon de meest logische keuze?
Dat was de vraag ook niet.
De vraag was: wat heet ATi eraan om overgenomen te worden door AMD? Waarom bij AMD op het tweede plan komen (CPUs zijn hun core business), ipv op eigen kracht door blijven gaan, en eigen beschikkingsrecht hebben?
-The_Mask- schreef op maandag 24 november 2014 @ 19:40:
nVidia was gewoon een stuk duurder voor AMD, onbetaalbaar duur gewoon.
Precies, en dat was omdat het met nVidia een heel stuk beter ging dan met ATi. Zoals ik al zei. ATi was de strijd aan het verliezen. Zoals ik al zei.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
-The_Mask- schreef op maandag 24 november 2014 @ 19:40:
De keuze voor AMD om ATi over te nemen was toch gewoon de meest logische keuze? nVidia was gewoon een stuk duurder voor AMD, onbetaalbaar duur gewoon. ATi was een stuk goedkoper en de enige andere grote videokaart fabrikant. AMD had gewoon de techniek nodig en ATi was eigenlijk de enige goede optie en sowieso de meest logische op dat moment.
Ding Ding Ding
Dat is het goede antwoord.

Ontopic.
Kan deze freaking flamewar nu eens stoppen?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op maandag 24 november 2014 @ 19:43:

Dat was de vraag ook niet.
De vraag was: wat heet ATi eraan om overgenomen te worden door AMD?
Veel minder dan andersom, maar zoals k995 al zei als beursgenoteerd bedrijf ben je niet zelf eigenaar maar dat zijn de aandeelhouders. En in principe heb je er zelf ook weinig over te zeggen, maar zijn de aandeelhouders 'de baas' en moet je hun te vreden houden.
Precies, en dat was omdat het met nVidia een heel stuk beter ging dan met ATi. Zoals ik al zei. ATi was de strijd aan het verliezen. Zoals ik al zei.
De waarde op de beurs zegt bij lange na niet hoe het met een bedrijf gaat. Ten tijde dat AMD betere CPU's als Intel uitbracht was AMD ook echt niet meer waard als Intel. (Ja dit zuig ik uit mijn duim, maar weet het eigenlijk wel zeker) Zelfde geld voor nVidia en het heeft eigenlijk vooral met naamsbekendheid en reclame nodig en hoeft niks te zeggen over hoe goed het met het bedrijf gaat of hoe goed het product is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

DCG909 schreef op maandag 24 november 2014 @ 19:43:
[...]
Dat is het goede antwoord.
Op de verkeerde vraag.
-The_Mask- schreef op maandag 24 november 2014 @ 19:50:
[...]
Veel minder dan andersom, maar zoals k995 al zei als beursgenoteerd bedrijf ben je niet zelf eigenaar maar dat zijn de aandeelhouders. En in principe heb je er zelf ook weinig over te zeggen, zijn de aandeelhouders 'de baas' en moet je hun te vreden houden.
Dat begrijpt iedereen... De vraag is: waarom zijn aandeelhouders tevreden met een toekomst als onderdeel van AMD, waar de focus niet op GPUs ligt?
AMD, een bedrijf dat zelf nauwelijks uit de rode cijfers kon blijven.
Omdat de eigen toekomst minder rooskleurig is.
-The_Mask- schreef op maandag 24 november 2014 @ 19:50:
De waarde op de beurs zegt bij lange na niet hoe het met een bedrijf gaat. Ten tijde dat AMD betere CPU's als Intel uitbracht was AMD ook echt niet meer waard als Intel. (Ja dit zuig ik uit mijn duim, maar weet het eigenlijk wel zeker)
Dat komt omdat het ook om de assets gaat. Intel en AMD hadden ook fabs etc. ATi en nVidia zijn fabless, dus in feite is hun kennis en hun productlijn alles.
De kwaliteit van hun huidige en toekomstige producten is dus veel directer gelinkt aan hun waarde.
Ook als Intel zou stoppen met CPUs maken, dan nog zijn hun fabs alleen al miljarden waard.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Verwijderd schreef op maandag 24 november 2014 @ 19:24:
Eens kijken:
- Tseng Labs
- Video Seven
- S3
- VideoLogic
- Matrox
- 3DFX
- Trident
- OAK

- WD Paradise
Bedankt voor de "nostalgieshot" : De merken in bold heb ik allemaal een videokaart van in mijn handen gehad :D ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

eL_Jay schreef op maandag 24 november 2014 @ 17:20:
[...]

Jammer genoeg is ram nu niet het meest dorstige onderdeel.
Hopelijk weten ze wat 'Prime" productiecapaciteit in te kopen om in ieder geval op nm met de concurrentie te concurreren (of iig dichter bij Intel komen)
Niet het meest dorstige misschien maar als je bijvoorbeeld kijkt naar het verschil tussen HD4890 en HD5870 (of HD4850 vs HD4870) idle dan zie je dat het wel zeker meespeelt. Bij de 5xxx serie had AMD de idle clocks van GDDR5 goed onder controle.
Je kan bij een highend kaart daar toch minimaal 35 Watt voor rekenen, waarschijnlijk zelfs meer.

Acties:
  • 0 Henk 'm!

Verwijderd

[b]Scalibq schreef op maandag 24 november 2014 @ 18:46:

Dat gaat niet effe.
Bovendien zal het zo niet gegaan zijn.
Als ze naar 75% waren gegaan, had de 480 prima yields gehad.
Maar dit was niet het geval. De 580 had echter wel prima yields. Maar had die ineens veel meer/dikkere VIA's? Nee: http://hexus.net/tech/rev...phics-card-review/?page=2
Qua transistorcount is hij hetzelfde, die size is zelfs iets kleiner. Als ze ineens veel meer multiple VIA's hadden gebruikt bij hetzelfde aantal transistors, zou de die groter moeten zijn geworden.
Zoals je kunt lezen, hebben ze vooral het type transistor in bepaalde plaatsen aangepast.
Hmm.. waarom denk je dat als je meer via's plaatst, de die size groter wordt? :P :D hihi
Waar ik het niet mee eens ben is dat jij beweert dat nVidia, een van de meest vooraanstaande bedrijven op het gebied van chip-ontwerp, zo'n domme aanpak zou nemen (terwijl ze al jarenlang steeds grote GPUs maken zonder problemen, dus kennelijk beheersten ze het kunstje wel).
Vooraanstaand wat betreft veel dingen, maar nV was altijd t langzaamste jongetje in de klas als t ging om naar nieuwe processen gaan. En natuurlijk ben je niet van de ene op de andere dag DFM friendly, daar moet aardig wat kennis voor opgebouwd worden. They've come a long way since that via debacle :P maar het was de schuld van TSMC toch? _O-

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 19:24:
Leg dan eens uit waarom die overname goed zou zijn voor ATi!
Iedereen roept maar "Je snapt het niet!" zonder enige argumenten te geven (terwijl ik die WEL geef).
Nee voor je initieel argument heb je nog geen enkel argument gegeven .

Je lijstje is appelen met peren geen was de grootte of had het geld marktaandeel en geschiedenis van ATI en de markt was heel anders.

Beste voorbeeld is nvidia met de NV30 die nog slechter was en die overleefde dit gewoon terwijl ze kleiner waren op dat moment.
Ja, *ik* ben hier de fanboy zeker?
Ik heb waarschijnlijk meer ATi kaarten gehad dan de meesten hier.
Mijn eerste ATi kaart was een Small Wonder, eind jaren 80.
En nu heb je een irrationele afkeer ervan. Sorry JIJ begon over fanboys bij je eigen bron .


EN ik wacht nog steeds op enige bron die je stelling ondersteunt DAT zou een feit zijn, niet meer verzinsels uit je duim.


De rest is meer rond de pot gedraai en jouw versie van de geschiedenis nogmaals geef een bron die je stelling ondersteunt, mml dat ATI wanhopig moest zichzelf verkopen omdat men anders failliet ging door de 2900.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 24 november 2014 @ 19:55:
Dat begrijpt iedereen... De vraag is: waarom zijn aandeelhouders tevreden met een toekomst als onderdeel van AMD, waar de focus niet op GPUs ligt?
Dit is dus precies waarmee je aangeeft dat je niet door hebt waar het om gaat. Aandeelhouder heeft x aantal aandelen van 15 dollar. AMD komt met een brief waarin het 20 dollar per aandeel belooft. De vraag is dan, houd je je aandeel, of verkoop je ze voor 5 dollar boven marktwaarde? De aandeelhouder kan snel een boel geld binnenharken en elders weer beleggen. Dat is nu eenmaal de natuur van aandelenhandel.

Het zal een (groot) deel van de aandelenhouders dus een zorg zijn hoeveel focus AMD zal hebben op het GPU-gedeelte, wanneer ze hun aandelen verkopen.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 21:04:
En nu heb je een irrationele afkeer ervan.
En waar baseer je dat op?
Ik heb helemaal geen afkeer van AMD. Als ze ooit nog eens met een topproduct komen, zal ik het zeker kopen.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op maandag 24 november 2014 @ 21:14:
[...]
Dit is dus precies waarmee je aangeeft dat je niet door hebt waar het om gaat. Aandeelhouder heeft x aantal aandelen van 15 dollar. AMD komt met een brief waarin het 20 dollar per aandeel belooft. De vraag is dan, houd je je aandeel, of verkoop je ze voor 5 dollar boven marktwaarde? De aandeelhouder kan snel een boel geld binnenharken en elders weer beleggen. Dat is nu eenmaal de natuur van aandelenhandel.
Nee, hiermee geef je aan dat jij het niet begrijpt, en wel hierom:
De aandeelhouders die genoeg aandelen hebben om inspraak te hebben in het bestuur zijn maar een kleine groep. En die zitten daar niet om te handelen, zoals jij beschrijft.
Die zitten daar om te besturen. Het zijn vaak zelf zakenmensen, soms van een ander bedrijf, die er belang bij hebben dat het goed gaat met ATi (bv een Microsoft, die GPUs voor de Xbox wil kopen bij ATi).
Die gaan niet voor het snelle geld ten koste van het bedrijf.
dahakon schreef op maandag 24 november 2014 @ 21:14:
Het zal een (groot) deel van de aandelenhouders dus een zorg zijn hoeveel focus AMD zal hebben op het GPU-gedeelte, wanneer ze hun aandelen verkopen.
Yup, maar een groot deel van de aandeelhouders is alleen maar aan het speculeren, en heeft geen 'voting shares', dus geen inspraak.

Kortom, leuk geprobeerd, maar je zit er flink naast.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 21:17:
[...]


En waar baseer je dat op?
Ik heb helemaal geen afkeer van AMD. Als ze ooit nog eens met een topproduct komen, zal ik het zeker kopen.
Dat komt naar voor elke keer je het woord ATI gebruikt. Vorige discussie die verwijderd is heb ik dat ook gemerkt en aangehaald.

Ik wacht trouwens nog steeds op een bron om je stelling te ondersteunen/bewijzen hoor. Maar ziende dat je alles negeert van mij post besef je wel dat je verkeerd zat.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 21:26:
[...]
Dat komt naar voor elke keer je het woord ATI gebruikt.
Kun je wat specifieker zijn?
Ik heb alleen gezegd dat de Radeon 2900 een mislukking was, en uitgelegd waarom.
k995 schreef op maandag 24 november 2014 @ 21:26:
Vorige discussie die verwijderd is heb ik dat ook gemerkt en aangehaald.
Waar heb je het over? Ik weet van geen discussie die verwijderd zou zijn.
k995 schreef op maandag 24 november 2014 @ 21:26:
Ik wacht trouwens nog steeds op een bron om je stelling te ondersteunen/bewijzen hoor. Maar ziende dat je alles negeert van mij post besef je wel dat je verkeerd zat.
Ik heb gelijk, en heb bronnen genoemd. Je negeert alleen alles, en reageert alleen op mij persoonlijk. Over hoe ik een afkeer van ATi zou hebben en dergelijke. Op die manier is een serieuze discussie natuurlijk bij voorbaat onmogelijk, dus ik laat het voorlopig bij alles wat ik tot dusverre heb gezegd, en waar jij nog niet inhoudelijk op gereageerd hebt.

[ Voor 12% gewijzigd door Verwijderd op 24-11-2014 21:31 ]


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 21:22:
[...]


Nee, hiermee geef je aan dat jij het niet begrijpt, en wel hierom:
De aandeelhouders die genoeg aandelen hebben om inspraak te hebben in het bestuur zijn maar een kleine groep. En die zitten daar niet om te handelen, zoals jij beschrijft.
Die zitten daar om te besturen. Het zijn vaak zelf zakenmensen, soms van een ander bedrijf, die er belang bij hebben dat het goed gaat met ATi (bv een Microsoft, die GPUs voor de Xbox wil kopen bij ATi).
Die gaan niet voor het snelle geld ten koste van het bedrijf.


[...]


Yup, maar een groot deel van de aandeelhouders is alleen maar aan het speculeren, en heeft geen 'voting shares', dus geen inspraak.

Kortom, leuk geprobeerd, maar je zit er flink naast.
Neen het is gewoon correct. 12e keer, bewijs nu eens wat je zegt.

http://www.dailytech.com/...on+by+AMD/article4540.htm


Jij doet alsof ze snel die aandelen wilde verkopen terwijl de deal die ze kregen gewoon goed is en hun reactie om te verkopen dus normaal.


Nogmaals als JIJ beweerd dat blijkbaar het grote deel van aandeelhouders dacht dat ATI failliet ging gaan om de toen nog onbekende 2900 en dan vlug maar verkocht is daar geen ENKEL spoor van te vinden en is dat iets dat JIJ enkel blijkbaar denkt.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 21:31:
[...]
Neen het is gewoon correct. 12e keer, bewijs nu eens wat je zegt.
Ik ben niet degene die iets moet bewijzen hier. Ik heb mijn punt vaak genoeg beargumenteerd.
Als reactie hoor ik alleen "Nee, is niet waar!" zonder enige onderbouwing.
Je zult dus met iets beters moeten komen.
Ja, dat zijn de shareholders met 'voting shares', zoals ik al zei. Niet *alle* shareholders natuurlijk.
Zoals je ook kunt zien, de feitelijke overname is dat AMD een meerderheid aan voting shares in handen krijgt, en dus kan bepalen wat de toekomst van ATi is.

Wat hier mist is de reden waarom de shareholders akkoord gaan.
Verder is dit niet iets dat vanuit de shareholders is geinitieerd, maar vanuit AMD: http://www.dailytech.com/AMDATI+A+Done+Deal/article3468.htm
k995 schreef op maandag 24 november 2014 @ 21:31:
Jij doet alsof ze snel die aandelen wilde verkopen terwijl de deal die ze kregen gewoon goed is en hun reactie om te verkopen dus normaal.
Als je bedrijf succesvol is, dan ga je je niet laten overnemen. Dan wil je eigen baas blijven, want op die manier heb je meer controle, en dus meer kans om je winst te maximaliseren. Geen enkel bod is dan acceptabel (zoals bij nVidia dus).
k995 schreef op maandag 24 november 2014 @ 21:31:
Nogmaals als JIJ beweerd dat blijkbaar het grote deel van aandeelhouders dacht dat ATI failliet ging gaan om de toen nog onbekende 2900 en dan vlug maar verkocht is daar geen ENKEL spoor van te vinden en is dat iets dat JIJ enkel blijkbaar denkt.
Die aandeelhouders zitten ook in het bestuur, en ATi heeft een verantwoordelijkheid aan die aandeelhouders om hun roadmap en investeringen etc openbaar te maken. De aandeelhouders wisten dus dat de Radeon 2900 problemen had.
Ik zeg ook niet dat ze alles maar even vlug hebben verkocht. Ik zeg alleen dat ze AMD nodig hadden voor hun voortbestaan.

[ Voor 3% gewijzigd door Verwijderd op 24-11-2014 21:53 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op maandag 24 november 2014 @ 21:43:
Ik zeg ook niet dat ze alles maar even vlug hebben verkocht. Ik zeg alleen dat ze AMD nodig hadden voor hun voortbestaan.
Dat zeg je wel, maar je bewijst het niet. Het is niets meer dan jouw mening dat ATi wel failliet zou zijn gegaan anders. En daarom is deze discussie simpelweg kansloos. Je hebt een standpunt (over van alles en nog wat) en zal niet van dat standpunt afstappen.

Daarom ga ik maar weer wat idlen, in de hoop dat er binnenkort wat meer concreet nieuws rond de 300 serie naar buiten komt.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op maandag 24 november 2014 @ 21:52:
[...]
Dat zeg je wel, maar je bewijst het niet. Het is niets meer dan jouw mening dat ATi wel failliet zou zijn gegaan anders.
Ik heb al vele malen gewezen op de Radeon 2900. Om dat keer op keer af te serveren als 'mening' is ronduit zwak. En daarom is deze discussie simpelweg kansloos.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 21:30:
Kun je wat specifieker zijn?
Ik heb alleen gezegd dat de Radeon 2900 een mislukking was, en uitgelegd waarom.
Elke commentaar nu en in de vorige ellenlange discussie over AMD/ATI was/is negatief.
Soit maakt weinig uit mar valt op en ik vroeg het me af.
Ik heb gelijk, en heb bronnen genoemd. Je negeert alleen alles, en reageert alleen op mij persoonlijk. Over hoe ik een afkeer van ATi zou hebben en dergelijke. Op die manier is een serieuze discussie natuurlijk bij voorbaat onmogelijk, dus ik laat het voorlopig bij alles wat ik tot dusverre heb gezegd, en waar jij nog niet inhoudelijk op gereageerd hebt.
Ik herhaal je hebt veel rond de pot gedraaid en nikszeggende argumenten aangehaald waar ik grotendeels op antwoorde.


Maar nog steeds kan je niet 1 simpele link geven die je hele originele argument ondersteunt of aantoont.

Er is een reden voor: het is onzin wat je toen zei.

Nog een argument: ATI had in 2006 tegen de 600 miljoen in cash reserves. Maar dit al je weeral negeren en iets mompele over S3. :)

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 21:43:
[...]


Ik ben niet degene die iets moet bewijzen hier. Ik heb mijn punt vaak genoeg beargumenteerd.
Als reactie hoor ik alleen "Nee, is niet waar!" zonder enige onderbouwing.
Je zult dus met iets beters moeten komen.
Excuseer? Je originele stelling waar de dit hele argument mee begin mml dat JIJ beweerde dat ATI quasi failliet was door de 2900 en daarom zichzelf verkocht aan AMD.

En je hebt idd al veel (vooral niks ter zake doende en irrelevant) geschreven maar bitter weinig hierover, en nog nooit enige ondersteuning die nergens anders vandaan komt dan jouw fantasie.
Ja, dat zijn de shareholders met 'voting shares', zoals ik al zei. Niet *alle* shareholders natuurlijk.
Zoals je ook kunt zien, de feitelijke overname is dat AMD een meerderheid aan voting shares in handen krijgt, en dus kan bepalen wat de toekomst van ATi is.
Omdat ze een pak meer geld kregen voor hun aandelen.

Nogmaals indien je iets anders wil zeggen, zeg dan precies wat EN bewijs dit met bronnen . Blijkbaar schijn jij te denken waarom die aandeelhouders dit goedkeurde en was dit niet te maken met winst , en gezien je eerdere uitspraken kan je enkel bedoelen dat ze wisten dat ATI failliet ging gaan en daarom dit goedkeurde, OK geef maar een bron (15e keer)
Wat hier mist is de reden waarom de shareholders akkoord gaan.
Verder is dit niet iets dat vanuit de shareholders is geinitieerd, maar vanuit AMD: http://www.dailytech.com/AMDATI+A+Done+Deal/article3468.htm
Zeg maar de reden dan.

En ja als ik zelf al zei AMD wilde kopen en vond ATI.
Als je bedrijf succesvol is, dan ga je je niet laten overnemen. Dan wil je eigen baas blijven, want op die manier heb je meer controle, en dus meer kans om je winst te maximaliseren. Geen enkel bod is dan acceptabel (zoals bij nVidia dus).
Nogmaals dan ken je weinig van dergelijke overnames. Je kraamonzin uit. Ik kan honderden enorme overnames aanhalen waar beide winstgevende bedrijven waren, maar ik deed dat en je negeert gewoon.
Die aandeelhouders zitten ook in het bestuur, en ATi heeft een verantwoordelijkheid aan die aandeelhouders om hun roadmap en investeringen etc openbaar te maken. De aandeelhouders wisten dus dat de Radeon 2900 problemen had.
Ik zeg ook niet dat ze alles maar even vlug hebben verkocht. Ik zeg alleen dat ze AMD nodig hadden voor hun voortbestaan.
EN geef nu bronnen die al deze en al de andere beweringen ondersteunen.

16e keer trouwens da ik dat vraag.

Acties:
  • 0 Henk 'm!

Verwijderd

Nogmaals, Radeon 2900, en ik heb een link erbij gehaald, waarin stond hoe veel te laat die kaart was, en hoe slecht ie was ten opzichte van de directe concurrentie.
We kunnen het nog wel iets breder trekken ook... De 2900 was een dusdanig slecht ontwerp dat ATi/AMD moest uithuilen en opnieuw beginnen, wat ze deden met de 3000-serie, waarbij ze helemaal geen high-end GPU meer probeerden te ontwerpen.
ATi draaide al verlies, eind 2006, toen ze overgenomen werden: http://www.beyond3d.com/content/articles/32/

Maargoed, dat zal allemaal geen bewijs zijn natuurlijk. Zonder enige bronnen roepen dat ATi 600 miljoen cash in reserves had, negeren dat de 2000-serie een mislukking was etc, en alles is okee.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Verwijderd schreef op maandag 24 november 2014 @ 22:44:
Nogmaals, Radeon 2900, en ik heb een link erbij gehaald, waarin stond hoe veel te laat die kaart was, en hoe slecht ie was ten opzichte van de directe concurrentie.
Dan negeer je gewoon de feiten. Overname is begonnen een jaar voor HD 2900 uitkwam voor er nog maar sprake was van een 8800, ten tijde van 1900 vs 7900 . Jij mag dan wegblijven beweren dat ze toen als wisten dat ze failliet zouden gaan door de 2900 en dat al de aandeelhouders dit wisten, maar zonder enige bewijs komt dat belachelijk over.

Daarbij zoals je eigen bron aantoonde was de 2900 niet zo slecht jouw gemompel van ati fanboys ten spijt breken ze die kaart niet af. Te laat idd , maar enkel omdat performance maar gelijkaardig was wat Nvidia op dat moment had.
"R600 is not perfect nor is it a failure. The HD 2900 XT competes well with the 640MB 8800 GTS, though the 8800 GTS 320MB does have a price/performance advantage over both in all but the highest resolutions and AA settings under most current games. "
We kunnen het nog wel iets breder trekken ook... De 2900 was een dusdanig slecht ontwerp dat ATi/AMD moest uithuilen en opnieuw beginnen, wat ze deden met de 3000-serie, waarbij ze helemaal geen high-end GPU meer probeerden te ontwerpen.
ATi draaide al verlies, eind 2006, toen ze overgenomen werden: http://www.beyond3d.com/content/articles/32/
13 miljoen, ja failliet _/-\o_

Nogmaals 600 miljoen reserves.

Nvidia had een even slechte periode een jarenhalf later . ZO een grote bedrijven gaan daar niet plots failliet van hoor.
Maargoed, dat zal allemaal geen bewijs zijn natuurlijk. Zonder enige bronnen roepen dat ATi 600 miljoen cash in reserves had, negeren dat de 2000-serie een mislukking was etc, en alles is okee.
Grappig wou eens zien of je een bron zou vragen :

http://hardforum.com/showthread.php?t=925551

http://finance.yahoo.com/q/ks?s=ATYT Total Cash (mrq): 644.39M

650 zelfs.


En voor de 2900 haal ik gewoon je eigen bron aan "Despite the delays, despite the quirks, and despite the lack of performance leadership, AMD has built a good part."

Zoals ik al zei je eigen bronnen bewijzen wat ik zeg.

EN ik wacht nog steeds op enig bewijs van al je beweringen.

Acties:
  • 0 Henk 'm!

Verwijderd

k995 schreef op maandag 24 november 2014 @ 23:29:
[...]
Dan negeer je gewoon de feiten. Overname is begonnen een jaar voor HD 2900 uitkwam voor er nog maar sprake was van een 8800, ten tijde van 1900 vs 7900 .
Dan mag jij even een tijdlijn opstellen.
Voor zover ik het zie:
AMD/ATi is in juli 2006 besproken, en in oktober definitief, na goedkeuring van Canadese overheid, aandeelhouders etc.
GeForce 8800 is gelanceerd in november 2006.
Radeon 2900 in mei 2007.

ATi wist sowieso wel dat ze nooit in november 2006 klaar voor release zouden zijn met de Radeon 2900. Ze wisten ook wel dat nVidia toen een kaart ging lanceren (vanwege DX10/Vista launch in die periode).
Ze zullen ongetwijfeld wel meer van G80 hebben geweten... Al in februari 2006 gingen er geruchten over deze kaart: http://www.xbitlabs.com/n...splay/20060220100915.html
Het is het 'prototype' voor DX10, dus hoogstwaarschijnlijk heeft ATi deze kaart ook vaak genoeg gezien bij besprekingen/demonstraties van Microsoft.
ATi wist dus echt wel wat ze te wachten stond.

Sowieso, nog even een geschiedenislesje:
Het is niet zozeer dat de 8800 de eerste DX10-kaart was... Het gaat erom hoe belachelijk revolutionair het ding was, zowel qua features als qua performance:
http://www.anandtech.com/show/2116/21
Dat ding maakte totaal gehakt van de topkaarten uit het DX9-tijdperk.
Dat is nog even een iets ander verhaal dan Fermi die wat te laat was, maar DX10-kaarten die qua performance nog redelijk meekwamen.

Wat mij betreft is de 8800 dan ook 1 van de 'hele groten' uit de geschiedenis van de 3d accelerators. Samen met de originele VooDoo, de GeForce2 en de Radeon 9700.
Die chips maakten een gigantische sprong voorwaarts, en er is heel duidelijk een 'voor' en 'na'-periode. De rest is meer een geleidelijke evolutie.
k995 schreef op maandag 24 november 2014 @ 23:29:
Jij mag dan wegblijven beweren dat ze toen als wisten dat ze failliet zouden gaan door de 2900 en dat al de aandeelhouders dit wisten, maar zonder enige bewijs komt dat belachelijk over.
Ik geef aan dat ATi in 2006 al verlies maakte, en geen nieuwe kaart als antwoord had op nVidia.
Dit zijn feiten.
Ik word een beetje moe van jouw kinderachtige gedoe, eerlijk gezegd. Maar blijven roepen dat ik geen bewijs laat zien, en dat alles maar 'belachelijk' en 'onzin' is. Terwijl je zelf ook niets toevoegt aan de discussie.
k995 schreef op maandag 24 november 2014 @ 23:29:
"R600 is not perfect nor is it a failure. The HD 2900 XT competes well with the 640MB 8800 GTS, though the 8800 GTS 320MB does have a price/performance advantage over both in all but the highest resolutions and AA settings under most current games. "
Uhhh, de 8800GTS waren budgetkaarten. Daarboven zaten nog de GTX en de Ultra, die VEEL duurder waren, en daar had ATi geen antwoord op (dat is wat de 2900XT had moeten zijn, zie de specs... stroomverbruik, aantal transistors, geheugeninterface etc. Qua specs eigenlijk nog meer dan de 8800Ultra).
ATi moest dus hun dure kaart verkopen tegen budgetprijzen, en dus veel lagere return-on-investment dan gepland, zoals ik al zei. Wederom, dit zijn FEITEN.

Jij kijkt natuurlijk weer TOTAAL in de verkeerde context. Ja, voor de weggeefprijs die ATi rekende voor de 2900XT, was het best een aardig ding (als je stroomverbruik buiten beschouwing laat). Zoals ik zeg, kun je ook van Bulldozer zeggen.
Maar het is voor je bedrijf op de lange termijn dodelijk. En dat heeft AMD ook ondervonden.

[ Voor 11% gewijzigd door Verwijderd op 25-11-2014 00:25 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op maandag 24 november 2014 @ 23:55:
Maar het is voor je bedrijf op de lange termijn dodelijk. En dat heeft AMD ook ondervonden.
Graphics divisie heeft zover ik weet de meeste jaren gewoon winst gedraaid. De cpu afdeling helaas niet.
De 3xxx, 4xxx, 5xxx, en zelfs de 7xxx waren gewoon hele goede kaarten. Met name de 5xxx serie aangezien Nvidia daar voor een lange tijd geen antwoord op had, toen ze met het antwoord kwamen was dit Fermi en zoals je weet was dat net zoals de 2900XT geen top kaart.
Dus wat bedoel je precies met op lange termijn dodelijk?

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 14-09 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Jongens kunnen jullie stoppen met modder smijten. Het heeft 0 nieuwswaarde en het is niet eens meer leuk om te lezen.

Een wedstrijdje ver plassen doen jullie maar over de DM ofzo.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

I agree, dit topic is al vijf dagen een wellus/nietus discussie die nergens naartoe leidt.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 01:11:
[...]
Graphics divisie heeft zover ik weet de meeste jaren gewoon winst gedraaid.
Uiteindelijk weer wel, maar de 2000-3000-4000-serie was een moeilijke periode voor AMD.
Hadden ze niet gered zonder hulp van buitenaf.
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 01:11:
De 3xxx, 4xxx, 5xxx, en zelfs de 7xxx waren gewoon hele goede kaarten.
Het gaat niet zozeer om goed of slecht een product is, het gaat erom wat het heeft gekost om te ontwikkelen, hoeveel je ervan verkoopt, en wat het opbrengt.
Vooral de 3000-serie was op dat punt niet zo best, want die bestreek niet de hele markt.
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 01:11:
Met name de 5xxx serie aangezien Nvidia daar voor een lange tijd geen antwoord op had, toen ze met het antwoord kwamen was dit Fermi en zoals je weet was dat net zoals de 2900XT geen top kaart.
De 480 was wel een topkaart. De 2900XT had moeite om de mainstream-kaarten van nVidia bij te houden. De 480 daarentegen was de snelste kaart op de markt. Hierdoor kon nVidia er gewoon een dikke high-end prijs voor vragen.
Je moet hier even de 'enthusiast/tweaker' scheiden van de gemiddelde consument.
Puur 'academisch' gezien is het misschien niet zo mooi dat niet alle cores ingeschakeld konden worden, en dat het stroomverbruik behoorlijk hoog lag.
Maar voor de normale consument was het gewoon de snelste kaart met de nieuwste features, en de rest boeit niet.
Dat is een heel verschil met de 2900XT, dat was bij lange na niet de snelste kaart. Kromme vergelijking dus.
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 01:11:
Dus wat bedoel je precies met op lange termijn dodelijk?
Waarom vraag je dat? Heb ik toch al gezegd?
Je ziet ook dat de CPU-afdeling geen winst kan draaien omdat ze geen high-end hebben. Zelfde geldt dus voor een GPU-afdeling.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op maandag 24 november 2014 @ 21:04:
[...]
Hmm.. waarom denk je dat als je meer via's plaatst, de die size groter wordt? :P :D hihi
Omdat dat zo is: http://ieeexplore.ieee.or....pdf%3Farnumber%3D5395744

Multiple via's zijn letterlijk meerdere via's naast elkaar. Daar moet wel ruimte voor zijn binnen je design. Als je je design er niet van tevoren op hebt berekend (zoals hier beweerd wordt), dan heb je dus ook die ruimte niet. En dus moet je je layout aanpassen om meer ruimte maken om de extra via's te plaatsen -> grotere die.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Modbreak:By order of the modforce: de discussie omtrent het verleden van ATi en de noodzaak tot overname wordt 36 uur opgeschort. De komende uren zien we hier dus alleen posts die betrekkeing hebben op huidige ontwikkelelingen.

In de tussentijd mogen de heren die zich schijnbaar niet kunnen inhouden in de nu lopende discussie even bij zichzelf te rade gaan. Wie het embargo schendt of na afloop nog steeds niet in staat is om normaal met elkaar in discussie te gaan, riskeert een extragratis GoT-vakantie.

Acties:
  • 0 Henk 'm!

Verwijderd


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Oud nieuws, is alweer teruggenomen door AMD :/

Edit, nu met bron:
http://www.pcgamesn.com/a...-to-windows-7-speculating

Ik verwacht ook niet dat MS dx12 op Windows 7 uit gaat brengen :/
dx 11.1 is ook Windows 8 exclusief gebleven...

[ Voor 29% gewijzigd door DCG909 op 25-11-2014 09:58 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik geloof er niet in dat Microsoft DX12 gaat supporten op Windows 7. Nu doen ze nog helemaal alsof Windows 7 zo super-belangrijk is, maar zodra de aandacht naar Windows 10 moet verschuiven, is het een kleine moeite om geen moeite te doen om DX12 niet te releasen voor Windows 7. Ze hebben het in het verleden nog al vaker gedaan.

Acties:
  • 0 Henk 'm!

Verwijderd

DCG909 schreef op dinsdag 25 november 2014 @ 09:54:
[...]
Oud nieuws, is alweer teruggenomen door AMD :/
Dit *is* het bericht dat AMD het terugneemt.
Phuncz schreef op dinsdag 25 november 2014 @ 09:55:
Ik geloof er niet in dat Microsoft DX12 gaat supporten op Windows 7. Nu doen ze nog helemaal alsof Windows 7 zo super-belangrijk is, maar zodra de aandacht naar Windows 10 moet verschuiven, is het een kleine moeite om geen moeite te doen om DX12 niet te releasen voor Windows 7. Ze hebben het in het verleden nog al vaker gedaan.
Sowieso, DX12 zal gelijk met Windows 10 gereleased worden, wat ergens eind volgend jaar is.
Tegen die tijd is Windows 7 al een jaar of 5 oud, en waarschijnlijk zitten de meeste gamers dan toch al minimaal op Windows 8.
Maar, Microsoft heeft hier officieel nog niets over gezegd (en heeft misschien zelf nog niet eens besloten wat ze gaan doen), dus Huddy praatte wel voor z'n beurt.

[ Voor 66% gewijzigd door Verwijderd op 25-11-2014 10:03 ]


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
@Scalibq.
Ik blijf voorlopig nog lekker op Windows 7 zitten. Heb bij een aantal spellen (en zelfs bij steam zelf) gelezen dat bepaalde problemen specifiek optreden bij Windows 8 :/
(mogelijk doordat daar minder op getest is, vanwege het mindere marktaandeel).

Al zal ik zeker over gaan naar Windows 10 als het imo een waardige opvolger is van Windows 7 :)

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 28-08 10:27
DCG909 schreef op dinsdag 25 november 2014 @ 10:12:
@Scalibq.
Ik blijf voorlopig nog lekker op Windows 7 zitten. Heb bij een aantal spellen (en zelfs bij steam zelf) gelezen dat bepaalde problemen specifiek optreden bij Windows 8 :/
(mogelijk doordat daar minder op getest is, vanwege het mindere marktaandeel).

Al zal ik zeker over gaan naar Windows 10 als het imo een waardige opvolger is van Windows 7 :)
Recent nog? Windows 8 is toch ook alweer 2 jaar op de markt. Kan me nog wel herinneren uit de begintijd dat er wat compatibility-issues waren maar sinds ik het draai (1+ jaar) heb ik niets gemerkt wat niet vlekkeloos draait (geen recente software iig, oude DOS-games geven wel meer problemen)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik draai zelf ook al een jaar Windows 8 en heb nog geen grote problemen gehad. Alleen wat oude hardware die eigenlijk al uit support was die niet lekker wilde werken (mijn Auzentech Prelude) Maar die werkt inmiddels ook weer perfect nadat de community aangepaste drivers heeft gemaakt.

Het is nog stabieler en sneller dan Windows 7.
Het ziet er alleen veel lelijker uit en ik had classic shell nodig om me start menu terug te halen want dat vond ik toch een groot gemis. Ik gebruik de Metro interface helemaal niet. Zit alleen maar op de desktop.

Maar verder werkt alles perfect.

[ Voor 3% gewijzigd door Astennu op 25-11-2014 11:30 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Sp3ci3s8472 schreef op maandag 24 november 2014 @ 20:21:
[...]


Niet het meest dorstige misschien maar als je bijvoorbeeld kijkt naar het verschil tussen HD4890 en HD5870 (of HD4850 vs HD4870) idle dan zie je dat het wel zeker meespeelt. Bij de 5xxx serie had AMD de idle clocks van GDDR5 goed onder controle.
Je kan bij een highend kaart daar toch minimaal 35 Watt voor rekenen, waarschijnlijk zelfs meer.
Zo dat is toch best significant. Tnx voor de info. Ging er zelf niet van uit dat het meer dan 10 watt zou zijn voor een max 200 watt kaart.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Het zou mooi zijn als het maar 10 Watt was, des te meer headroom voor je chip :P.

Wat DirectX 12 betreft:
DirectX 11.3 was announced along with DirectX 12 at GDC and will be released in 2015. It is meant to complement DirectX 12 as a higher-level alternative.
Als Windows 7 niet eens DX11.1 ondersteunt, dan ziet het er dus droevig uit. (voor mij dan :P, want ik blijf lekker bij 7 totdat er weer een naar mijn idee goede Windows versie uitkomt)
Windows 7 + Vista heeft volgens de steam survey 60% markt aandeel, dat is best een grote groep die dan DX12 zou missen waardoor de adoptatie minder snel gaat.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 13:56:
Windows 7 + Vista heeft volgens de steam survey 60% markt aandeel, dat is best een grote groep die dan DX12 zou missen waardoor de adoptatie minder snel gaat.
Er is geen direct verband tussen API support en marktaandeel.
Toen Vista uitkwam, waren er al vrij gauw games met een DX10-modus, ook al hadden Vista en DX10-hardware geen groot marktaandeel.
Ook DX11 werd vrij gauw breed ondersteund, terwijl er nog niet zo veel mensen waren met DX11-hardware (OS update hoefde hier dan weer niet, want Vista kreeg een update naar DX11).
Er hebben nu ook al meerdere ontwikkelaars bekendgemaakt dat ze DX12-games hebben bij de launch van Windows 10.
DX12-support op de Xbox One is voor die ontwikkelaars natuurlijk ook een goede reden om het zo snel mogelijk te ondersteunen.

[ Voor 15% gewijzigd door Verwijderd op 25-11-2014 14:09 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

DCG909 schreef op dinsdag 25 november 2014 @ 10:12:
@Scalibq.
Ik blijf voorlopig nog lekker op Windows 7 zitten. Heb bij een aantal spellen (en zelfs bij steam zelf) gelezen dat bepaalde problemen specifiek optreden bij Windows 8 :/
(mogelijk doordat daar minder op getest is, vanwege het mindere marktaandeel).

Al zal ik zeker over gaan naar Windows 10 als het imo een waardige opvolger is van Windows 7 :)
Idem ditto. Windows 10 ziet er veelbelovend uit, maar Windows 8 kan me niet overtuigen met een goed-werkende Windows 7.
Astennu schreef op dinsdag 25 november 2014 @ 11:30:
Het is nog stabieler en sneller dan Windows 7.
Het ziet er alleen veel lelijker uit en ik had classic shell nodig om me start menu terug te halen want dat vond ik toch een groot gemis. Ik gebruik de Metro interface helemaal niet. Zit alleen maar op de desktop.
Stabieler dan Windows 7 zal in mijn geval geen issue zijn, ik heb zeer weinig last van instabiliteit. En qua snelheid hoef ik niet te klagen met een Core i5, snel SSD'tje en 16GB RAM. Maar met Windows 10 ben ik wel bereid een clean install te doen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 13:56:
Het zou mooi zijn als het maar 10 Watt was, des te meer headroom voor je chip :P.

Wat DirectX 12 betreft:

[...]


Als Windows 7 niet eens DX11.1 ondersteunt, dan ziet het er dus droevig uit. (voor mij dan :P, want ik blijf lekker bij 7 totdat er weer een naar mijn idee goede Windows versie uitkomt)
Windows 7 + Vista heeft volgens de steam survey 60% markt aandeel, dat is best een grote groep die dan DX12 zou missen waardoor de adoptatie minder snel gaat.
W10 wordt een zeer cruciale release voor MS en voorzover ik gelezen heb gaat MS er dan ook alles aan doen om iedereen <W10 op W10 te krijgen. Incl. zeer lage upgrade prijzen danwel zelfs in sommige gevallen wellicht gratis
Je kunt het denk ik dan ook voor 99% zeker wel vergeten dat DX12 naar W7 en W8.1 komt.

Maar daar hoef je niet om te treuren want W8.1 is imho inmiddels wel degelijk veel beter dan W7 en je hebt vrijwel geen last van Metro meer. (En ik had een bloedhekel aan W8 maar met de nieuwe updates is het prima werkbaar.)

W10 lijkt ook echt erg goed te worden qua desktopervaring. Denk dat het de nieuwe “W7” kan worden.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Phuncz schreef op dinsdag 25 november 2014 @ 14:14:
[...]

Idem ditto. Windows 10 ziet er veelbelovend uit, maar Windows 8 kan me niet overtuigen met een goed-werkende Windows 7.


[...]

Stabieler dan Windows 7 zal in mijn geval geen issue zijn, ik heb zeer weinig last van instabiliteit. En qua snelheid hoef ik niet te klagen met een Core i5, snel SSD'tje en 16GB RAM. Maar met Windows 10 ben ik wel bereid een clean install te doen.
Ik kijk ook uit naar W10. Er zitten wat mij betreft veel voordelen in die ik in W8 miste tov W7.

En over de stabiliteit. Als overclocker ben ik er heel blij mee :P ik heb nog geen een windows installatie kapot getweaked. W7 was daar ook al heel goed in maar W8 is nog robuster.
Bij WinXP was het een ramp soms wel 3x per week opnieuw installeren :P En 95 en 98 SE waren nog weer erger.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Mijn eerste eigen pc draaide al op W7, daarvoor waren het allemaal pre-fab dingen met standaard hardware erin...
Enige uitzondering was de laatste, daar had een kennis een 9600 pro in gezet (die bak heeft het serieus 4 jaar uit gehouden _/-\o_ , P4 met hyperthreading hield zich zelf nog aardig tegen de eerste dual cores o.O )

Ik hoop overigens wel dat W10 ook betaalbare FPP codes gaat hebben in het begin :/
Mijn laptop zal niet zomaar een nieuw moederbord of cpu krijgen, maar mijn desktop kan dat wel krijgen...
En uit mijn hoofd zijn upgrade codes ook aan het moederbord/cpu gekoppeld :/

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DCG909 schreef op dinsdag 25 november 2014 @ 16:20:
Ik hoop overigens wel dat W10 ook betaalbare FPP codes gaat hebben in het begin :/
Mijn laptop zal niet zomaar een nieuw moederbord of cpu krijgen, maar mijn desktop kan dat wel krijgen...
En uit mijn hoofd zijn upgrade codes ook aan het moederbord/cpu gekoppeld :/
offtopic:
De codes zijn inderdaad gekoppeld. Echter W8 (retail) upgrade code was destijds voor een imo heel nette prijs te krijgen. E25 of iets dergelijks :?

[ Voor 3% gewijzigd door Help!!!! op 25-11-2014 17:10 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op dinsdag 25 november 2014 @ 17:09:
[...]
offtopic:
De codes zijn inderdaad gekoppeld. Echter W8 (retail) upgrade code was destijds voor een imo heel nette prijs te krijgen. E25 of iets dergelijks :?
Ja, ik had destijds voor 30 euro een Windows 8 Pro upgrade. Daarna gratis naar 8.1, dat was wel lachen.
Als ik straks een gratis upgrade krijg naar Windows 10, lach ik me helemaal krom.

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
Sp3ci3s8472 schreef op dinsdag 25 november 2014 @ 13:56:
Het zou mooi zijn als het maar 10 Watt was, des te meer headroom voor je chip :P.

Wat DirectX 12 betreft:

[...]


Als Windows 7 niet eens DX11.1 ondersteunt, dan ziet het er dus droevig uit. (voor mij dan :P, want ik blijf lekker bij 7 totdat er weer een naar mijn idee goede Windows versie uitkomt)
Windows 7 + Vista heeft volgens de steam survey 60% markt aandeel, dat is best een grote groep die dan DX12 zou missen waardoor de adoptatie minder snel gaat.
Ondersteunt windows 7 niet 11.1 gedeeltelijk?
Verwijderd schreef op dinsdag 25 november 2014 @ 17:17:

Ja, ik had destijds voor 30 euro een Windows 8 Pro upgrade. Daarna gratis naar 8.1, dat was wel lachen.
Als ik straks een gratis upgrade krijg naar Windows 10, lach ik me helemaal krom.
Waarom? Toch goed?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Tegenwoordig maakt het inderdaad minder uit dat Windows goedkoop wordt verkocht aangezien ze veel (terug)verdienen met Enterprise software.

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
Verwijderd schreef op maandag 24 november 2014 @ 19:24:
[...]


Daar had hij ook gelijk in: nVidia was met afstand marktleider op het gebied van GPUs, en boorde nieuwe markten aan met GPGPU en dergelijke. AMD daarentegen was een speler in de marge in de schaduw van Intel, en had weinig in te brengen in die markt.
nVidia zou er echt niet op vooruit gegaan zijn. AMD zou de techniek van nVidia leegzuigen, en dan langzaam leeglopen op Intel in de eeuwige concurrentiestrijd.
Qua CPU is de strijd al over... Met GPUs ziet het er ook niet zo best uit. nVidia heeft een flinke tik uitgedeeld met Maxwell 2. Bij AMD hebben we nog niets gehoord over een antwoord hierop. Meestal betekent dit ook dat er geen goed antwoord gaat komen. En als AMD de slag mist met DX12 straks, dan komen ze ook daar nooit meer terug in de race, net als de CPU-divisie.


[...]
Je moet wat beter het nieuws volgen. AMD heeft wel degelijk een antwoord op Maxwell klaar liggen.
AMD had al in Oktober 2011 een GPU/CPU/APU met stacked Ram getoond:
Afbeeldingslocatie: http://semiaccurate.com/assets/uploads/2011/10/AMD_Interposer_SemiAccurate.jpg

Dus de kans is groot/aanwezig dat we deze techniek in de volgende GPU serie van AMD zullen zien:

http://wccftech.com/amd-fiji-r9-390x-specs-leak/

Acties:
  • 0 Henk 'm!

Verwijderd

polli_ schreef op dinsdag 25 november 2014 @ 20:35:
[...]
Je moet wat beter het nieuws volgen. AMD heeft wel degelijk een antwoord op Maxwell klaar liggen.
'Klaar liggen'? Dat zeer zeker niet. Er is nog helemaal niets officieel naar buiten gekomen van een nieuwe GPU, introductiedatum of wat dan ook.
Dat AMD wel met iets bezig is, lijkt me logisch.

Verder is alle info op die websites wel heel erg vaag, en qua betrouwbaarheid scoort het ook allemaal niet hoog.
Ik wacht dus nog steeds totdat AMD zelf officieel aankondigt welke richting ze op gaan, en waar ze mee gaan komen.
Ik ben ook wel benieuwd wanneer AMD met DX12-drivers komt.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Een note bij polli_ 's data.
Daar lijkt een 4 Gbit memory controller vermeld te zijn... Dus dat zal hoogstens een prototype zijn ;)

Over dx11.1 en windows 7.
Uit mijn hoofd gezegd was er een mogelijkheid om het op w7 te gebruiken, maar hadden ze de api voor de xbone controller eruit gesloopt.
Alleen het is volgens mij nooit verder gebruikt :/

Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 13:44

Cheezus

Luiaard

polli_ schreef op dinsdag 25 november 2014 @ 20:35:
Je moet wat beter het nieuws volgen. AMD heeft wel degelijk een antwoord op Maxwell klaar liggen.

...

Dus de kans is groot/aanwezig dat we deze techniek in de volgende GPU serie van AMD zullen zien:
Op zich leuk dat de volgende serie misschien sneller/effectiever RAM krijgt maar je begrijpt hopelijk wel dat het daarmee niet meteen een nVidia-killer is?
De hele architectuur moet op de schop, en volgens mij is er nog niks bekend of deze daadwerkelijk beter gaat zijn dan Maxwell. De geruchten over een standaard waterkoeler voorspellen niet veel goeds :X

Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 00:49
Cheezus schreef op woensdag 26 november 2014 @ 11:10:
[...]


Op zich leuk dat de volgende serie misschien sneller/effectiever RAM krijgt maar je begrijpt hopelijk wel dat het daarmee niet meteen een nVidia-killer is?
De hele architectuur moet op de schop, en volgens mij is er nog niks bekend of deze daadwerkelijk beter gaat zijn dan Maxwell. De geruchten over een standaard waterkoeler voorspellen niet veel goeds :X
Ik doe deze uitspraak op basis van de eerder uitgelekte specificaties: 4096 streamprocessor, 4GB stacked RAM, 4096bit geheugenbus.

Afbeeldingslocatie: http://cdn2.wccftech.com/wp-content/uploads/2014/11/AMD-Fiji-XT-R9-390X-SiSoft-Sandra-Listing.jpg

Een ding is duidelijk R3-390x is gemaakt met een ding in gedachte om de performance kroon terug te winnen van Nvidia Geforce 980. Ter vergelijking de R9-290X heeft maar 2816 streamprocessors.

Speaking of the devil, benchmark resultaten zijn uitgelekt(of ze echt zijn weet ik niet):

Afbeeldingslocatie: http://cdn.wccftech.com/wp-content/uploads/2014/11/AMD-Radeon-R9-390X-Performance-Numbers.jpg

Stroomverbruik:

Afbeeldingslocatie: http://cdn4.wccftech.com/wp-content/uploads/2014/11/AMD-Radeon-R9-390X-Power-Consumption.png

Bron:
http://wccftech.com/amds-...980-consumes-197w-gaming/

Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
polli_ schreef op woensdag 26 november 2014 @ 13:25:


Speaking of the devil, benchmark resultaten zijn uitgelekt(of ze echt zijn weet ik niet):
ALs ze echt zijn mai 25% winst op hun vorige generatie tegen een pak minder verbruik.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 12:09
4000 spu's en 200W? Ik zou het toch wat hoger verwachten.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op woensdag 26 november 2014 @ 14:33:
4000 spu's en 200W? Ik zou het toch wat hoger verwachten.
Vind ik ook een wat onwaarschijnlijke combo.
Bij Maxwell 2 is het iets logischer: De 980 heeft 2048 cuda cores ipv 2880 in de 780Ti/Titan. Hierdoor besparen ze bijna 2 miljard transistoren, en mede daardoor is Maxwell een stuk zuiniger.
Vanwege verbeteringen in de architectuur kunnen ze met die 2048 cores toch betere prestaties neerzetten in de meeste gevallen.

Bij deze kaart zouden ze EN veel meer cores hebben EN lager verbruik. Dat lijkt me een onmogelijke combinatie (we zitten immers nog steeds op 28 nm).

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
De prestaties zouden heel misschien kunnen maar dat verbruik geloof ik niet. Dat zou alleen kunnen als ze 16nm gebruiken en zelfs dan gaat het moeilijk worden.

Ik verwacht overigens nog geen 16nm.

Wat wel zou kunnen is die 4096 cores op een lagere clocksnelheid. Want lagere voltages doen ook al wonderen voor de R9 290X.

AL hoop ik natuurlijk van harte dat AMD het verbruik op 28nm omlaag kan krijgen. Onmogelijk is het niet. Zie ook Kepler > Maxwell. Beide 28nm maar toch een lager verbruik en betere prestaties.
Maar om dat mogelijk te maken moet de architectuur wel flink op de schop gegaan zijn.

Persoonlijk denk ik dat die "Captain Jack" resultaten een hoax zijn. Gewoon iemand die even iets leuks in photoshop wilde maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Ik verwacht ook dat deze resultaten nep zijn XD
Anders hebben ze echt een monster kaart gemaakt als er eenmaal driver optimalisaties doorgevoerd worden :)

Al zou ik het niet erg vinden als het echt klopt :p

Acties:
  • 0 Henk 'm!
Van 28nm naar 20nm is bijna al een halvering, 16nm is bijna daar al weer een halvering van. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op woensdag 26 november 2014 @ 15:15:
Van 28nm naar 20nm is bijna al een halvering, 16nm is bijna daar al weer een halvering van. ;)
Ik dacht dat 16nm pas eind 2015 gereed zou zijn. Deze kaarten zouden ergens begin 2015 uit moeten komen.
Ik zou het niet erg vinden als het waar zou zijn :) Maar ik wil het eerst zien voor ik het geloof.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op woensdag 26 november 2014 @ 15:19:
[...]
Ik dacht dat 16nm pas eind 2015 gereed zou zijn.
Ja, TSMC is net pas begonnen met 20 nm, een paar maanden geleden: http://www.extremetech.co...ples-next-gen-iphone-ipad
Volgens mij is het nog niet volwassen genoeg om een high-end GPU op te bouwen op korte termijn.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op woensdag 26 november 2014 @ 15:26:
[...]


Ja, TSMC is net pas begonnen met 20 nm, een paar maanden geleden: http://www.extremetech.co...ples-next-gen-iphone-ipad
Volgens mij is het nog niet volwassen genoeg om een high-end GPU op te bouwen op korte termijn.
Ik heb geruchten gehoord dat dat 20nm process helemaal niet geschikt is voor high performance producten en meer gericht is op lower power zoals SOC's voor telefoons en tablets.

AMD kan misschien 20nm bij GlobalFoundry afnemen maar of dat wel geschikt is....
We zullen het gaan zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 26 november 2014 @ 15:19:
[...]


Ik dacht dat 16nm pas eind 2015 gereed zou zijn. Deze kaarten zouden ergens begin 2015 uit moeten komen.
Ik zou het niet erg vinden als het waar zou zijn :) Maar ik wil het eerst zien voor ik het geloof.
Ik zei niks over wanneer 20nm of 16nm kwam maar alleen dat 20nm bijna de helft is van 20nm en 16nm bijna daar weer de helft van. Het gaat immers over oppervlakte en niet over lengte. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
true....

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 14-09 14:42
Bij mijn weten zijn de processen die gebruikt worden voor 20nm zeer geschikt voor zuinige SOC's, maar zeer slecht geschikt voor dingen als GPU's.
TSMC had 20nm voor gpu's overgeslagen, van GF durf ik het niet te zeggen.
Pagina: 1 ... 6 ... 11 Laatste

Dit topic is gesloten.