[Algemeen] nVidia Nieuwdiscussie Topic - Deel 51 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 ... 10 Laatste
Acties:
  • 44.665 views

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

ArgantosNL schreef op vrijdag 18 februari 2011 @ 15:42:
bij de naamgeving van de nieuwe tegra's zijn ze de comics in gedoken

tegra 3 Kal-El = superman
tegra 4 Brunce Wanye = Batman
tegra 5 Logan = wolverien
tegra 6 stark = Ironman

ag je moet ergens je inspiratie vandaan halen.
Ach nVidia denkt zeker dat super helden altijd winnen. :P nofi.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nu kunnen concurrenten wel een leuke "kaart" m.a.w. directe concurrent voor Tegra 4 lanceren onder de naam "The Joker". Zou in dat geval een dubbelen betekenis hebben.

[ Voor 3% gewijzigd door madmaxnl op 18-02-2011 17:05 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op vrijdag 18 februari 2011 @ 15:00:
Ik wist verder nog niet dat FUAD een pro nvidia en amd afkraak site was. Ook deze mag van mijn part
een nekschot hebben.
Dat gaat eigenlijk alleen nog maar op als fuad de AMD / NV artikelen schrijft. De andere fudzilla medewerkers (bijvoorbeeld Slobodan) zijn redelijk objectief.

@madmaxnl; dan geven ze dus aan uiteindelijk te verliezen.

[ Voor 7% gewijzigd door spNk op 18-02-2011 19:28 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
http://www.ilsistemista.n...faster-than-a-core2-.html

Hierboven een link waarin dieper ingegaan wordt op de vrijgegeven benchmark van nVidia's nieuwe quadcore SoC Kal-El. Hierin komt naar voren dat nVidia toch niet helemaal eerlijk is geweest over de prestaties van zijn SoC, ten opzichte van de Core2Duo E7200.

Bij gelijke settings, wint laatstegenoemde toch 'duidelijk' de benchmark.

Acties:
  • 0 Henk 'm!

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 17:09
Hoewel de t7200 sneller is. Vind ik de prestaties van Tegra 3 (EL Kal) knap. Denk dat de prestaties vergelijkbaar zijn met een 1.6 ghz core 2 duo (T5500, t5600, T5470). Dit is voldoende voor huis tuin en keuken gebruik, mits het browsen in toekomst niet zwaarder wordt.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
karakedi schreef op vrijdag 18 februari 2011 @ 23:16:
Hoewel de t7200 sneller is. Vind ik de prestaties van Tegra 3 (EL Kal) knap. Denk dat de prestaties vergelijkbaar zijn met een 1.6 ghz core 2 duo (T5500, t5600, T5470). Dit is voldoende voor huis tuin en keuken gebruik, mits het browsen in toekomst niet zwaarder wordt.
Ik vraag me af hoe goed ARM is met virusscanners en winrar etc.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nieuwe naam voor Tegra 3 word Tegra fermi?
http://fudzilla.com/proce...al-el-is-a-40nm-quad-core

Denk niet dat iemand zit te wachten op een accu die nog sneller leeg raakt..

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Betekend dit dat Kal-El nog groter wordt dan 80mm2 ? Of was de gegeven grote al op het 40nm productie procedé ? Ik vind het wel erg groot want dat zou Kal-El groter maken dan AMD Zacate Fusion APUs die 75mm2 groot zijn. Een dergelijk groter chip in een smartphone is net iets te veel van het goede een tablet en netbook daarentegen gaat wel weer.

Wat betreft de naamgeving hoop ik dat ze gewoon voor Kal-El gaan en niet het nog onduidelijker maken dan dat het al is.

[ Voor 14% gewijzigd door madmaxnl op 19-02-2011 18:52 ]


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 17:38
En daarom zuigt Fudzilla. Een beetje nieuws brengen wat Anandtech dagen geleden al bracht, rechtstreeks van het MWC. Ja die quadcore is ruwweg 80mm2, wat logisch is, twee keer zoveel cores en de gpu heeft nu 12 ipv 8 alu's. Ook zit er nu in elke core een MPE. Dit had je ook allemaal kunnen lezen in ons eigen nieuwsbericht :)

80mm2 is inderdaad erg groot. Een rechtstreekse vergelijking met lowend x86-cpu's wordt nu wel erg interessant.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Marc Rademaker schreef op zaterdag 19 februari 2011 @ 21:01:
80mm2 is inderdaad erg groot. Een rechtstreekse vergelijking met lowend x86-cpu's wordt nu wel erg interessant.
Hoe wil je die twee dan vergelijken ? x86 APU kan alles, een ARM chip kan maar een paar dingen.
Het is daardoor dus logisch dat die paar dingen die een ARM chip kan wel beter gaan op een ARM chip dan op x86 APU. Zoals GPU vs x86CPU. Die dingen die een GPU kan gaan sneller dan op een x86CPU maar een x86CPU daarentegen kan alles.

[ Voor 13% gewijzigd door madmaxnl op 19-02-2011 21:29 ]


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op zaterdag 19 februari 2011 @ 21:27:
[...]


Hoe wil je die twee dan vergelijken ? x86 APU kan alles, een ARM chip kan maar een paar dingen.
Het is daardoor dus logisch dat die paar dingen die een ARM chip kan wel beter gaan op een ARM chip dan op x86 APU. Zoals GPU vs x86CPU. Die dingen die een GPU kan gaan sneller dan op een x86CPU maar een x86CPU daarentegen kan alles.
ARM is een volwaardige CPU-architectuur, en Tegra heeft een krachtige GPU-component. Wat bedoel je precies met 'maar een paar dingen'?

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op zaterdag 19 februari 2011 @ 18:50:
Betekend dit dat Kal-El nog groter wordt dan 80mm2 ? Of was de gegeven grote al op het 40nm productie procedé ? Ik vind het wel erg groot want dat zou Kal-El groter maken dan AMD Zacate Fusion APUs die 75mm2 groot zijn. Een dergelijk groter chip in een smartphone is net iets te veel van het goede een tablet en netbook daarentegen gaat wel weer.

Wat betreft de naamgeving hoop ik dat ze gewoon voor Kal-El gaan en niet het nog onduidelijker maken dan dat het al is.
Kal-El is een codenaam, dat wordt het zeker niet. Tegra 3 ligt het meest voor de hand.

Die 80mm2 kan best wel kloppen, maar dat is niet zo heel relevant. Er is ook een bepaalde ondergrens qua pad-density. Van belang is natuurlijk met name het stroomgebruik, waarbij Zacate tot 18 Watt verstookt, en Kal-El < 1W. Oftewel, deze SOCs hebben echt geen biet met elkaar te maken. Mem zou zich kunnen afvragen waarom je AMD er uberhaupt bij sleept.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Biff schreef op zondag 20 februari 2011 @ 06:08:
[...]


ARM is een volwaardige CPU-architectuur, en Tegra heeft een krachtige GPU-component. Wat bedoel je precies met 'maar een paar dingen'?
Nou ARM is kan bijvoorbeeld geen Windows 7 draaien met al zijn programma's. Terwijl een x86 CPU met GPU wel Android etc kan draaien(?). M.a.w. x86 is veelzijdiger dan ARM. De vraag is dus hoe je deze twee dan met elkaar wil vergelijken ? Dat was namelijk mijn vraag.

Immers vergelijk je ook geen crossmotor met een auto. Crossmotor kan praktisch overal komen en de auto niet. Maar door bijvoorbeeld de crossmotor te vergelijken met de auto op de openbaren weg is niet eerlijk. De auto zal daar dus winnen maar zodra de voertuigen het bos in gaan wint de crossmotor.

In deze relatief slechte vergelijking is x86 de crossmotor die alles kan en ARM de auto die niet alles kan. Maar het geen de auto wel kan, kan die beter dan de crossmotor waardoor. Het vergelijken van de specifieke dingen die beiden kunnen niet eerlijk is.
Biff schreef op zondag 20 februari 2011 @ 06:26:
[...]


Kal-El is een codenaam, dat wordt het zeker niet. Tegra 3 ligt het meest voor de hand.

Die 80mm2 kan best wel kloppen, maar dat is niet zo heel relevant. Er is ook een bepaalde ondergrens qua pad-density. Van belang is natuurlijk met name het stroomgebruik, waarbij Zacate tot 18 Watt verstookt, en Kal-El < 1W. Oftewel, deze SOCs hebben echt geen biet met elkaar te maken. Mem zou zich kunnen afvragen waarom je AMD er uberhaupt bij sleept.
Deze SOCs zouden zeker wel met elkaar kunnen concurreren beiden worden namelijk in tablets gebruikt. Waarbij het dan om een 5watt versie van Zacate gaat. Hoe kom je overigens bij de sub 1 watt voor Kal-El ?

Tevens zijn beiden SOCs interresant voor mediaspelers, HTPC en netbooks.

[ Voor 28% gewijzigd door madmaxnl op 20-02-2011 19:55 ]


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op zondag 20 februari 2011 @ 19:53:
[...]


Nou ARM is kan bijvoorbeeld geen Windows 7 draaien met al zijn programma's. Terwijl een x86 CPU met GPU wel Android etc kan draaien(?)
Android draait ook niet native op een x86, daarvoor heb je een emulator nodig. ;) En in theorie zou je met een emulator ook windows kunnen draaien op ARM.

M.a.w. ARM en x86 kunnen gewoon hetzelfde, maar als een OS voor een specifieke architectuur ontworpen is draait die niet native op een andere architectuur. De volgende windows-versie is ook voor ARM aangekondigd. Er kunnen natuurlijk wel verschillen zijn in performance e.d. (mijn E8400 is veel sneller dan wat er in smartphones zit en draait een android-app ook niet altijd even lekker). Dat is wat anders dan de vergelijking met GPU's, die zijn in theorie gewoon niet in staat om dingen uit te voeren die voor een OS als android of windows nodig zijn.

[ Voor 5% gewijzigd door bwerg op 20-02-2011 22:28 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dus we krijgen straks eerlijke en goede vergelijkingen tussen nVidia Tegra 3/4, AMD Ontario/Krishna en Intel Atom/CE APUs ?

Acties:
  • 0 Henk 'm!

  • OriginalFlyingdutchman
  • Registratie: Januari 2002
  • Laatst online: 19-06 09:00
bwerg schreef op zondag 20 februari 2011 @ 22:10:
[...]

Android draait ook niet native op een x86, daarvoor heb je een emulator nodig. ;) En in theorie zou je met een emulator ook windows kunnen draaien op ARM.

M.a.w. ARM en x86 kunnen gewoon hetzelfde, maar als een OS voor een specifieke architectuur ontworpen is draait die niet native op een andere architectuur. De volgende windows-versie is ook voor ARM aangekondigd. Er kunnen natuurlijk wel verschillen zijn in performance e.d. (mijn E8400 is veel sneller dan wat er in smartphones zit en draait een android-app ook niet altijd even lekker). Dat is wat anders dan de vergelijking met GPU's, die zijn in theorie gewoon niet in staat om dingen uit te voeren die voor een OS als android of windows nodig zijn.
Inderdaad, van windows 8 wordt zelfs een ARM versie uitgebracht. Waarvan Intel al heeft gezegd dat het voor hen kansen biedt, maar ook bedreigingen. Bedreigingen in de vorm van Nvidia, die een voorsrpong heeft op ARM gebied.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op zondag 20 februari 2011 @ 22:32:
Dus we krijgen straks eerlijke en goede vergelijkingen tussen nVidia Tegra 3/4, AMD Ontario/Krishna en Intel Atom/CE APUs ?
Mogelijk, als windows 8 voor de ARM-versie gelijkwaardig wordt aan de x86-versie. Maar de ARM-versie zal wel flink gestript worden en dus soepeler lopen (bij gelijke prestaties van de CPU).

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Van wat ik gelezen heb over ARM processoren (RISC / CISC) zijn de verschillen tussen ARM en x86 cpu's niet meer zo groot. Je kan dus lijkt mij prima een ARM en een x86 processor met elkaar vergelijken, mits je gebruikt maakt van goed geoptimaliseerde code.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
OriginalFlyingdutchman schreef op zondag 20 februari 2011 @ 22:40:
Bedreigingen in de vorm van Nvidia, die een voorsprong heeft op ARM gebied.
Nee alleen op GPU gebied. ARM is iets waarop je een licentie neemt waarna je dus ook meteen de basis hebt waarmee iedereen dus werkt. Je hoeft dus als fabrikant niet helemaal opnieuw te beginnen als je de ARM markt instapt. ARM is er al sinds 1984 en toch kan nVidia blijkbaar zomaar die markt in stappen zoals velen anderen.

X86 daarentegen is dusdanig complex dat als je in die markt zou stappen. Je dan enorm veel tijd en dus kapitaal moet hebben om naar een niveau van AMD of Intel te komen. Zelfs om op het niveau van VIA te komen zou moeilijk worden.

Er zit een heel legioen van bedrijven in de ARM markt met alle gevolgen van dien: Alcatel-Lucent, Apple Inc., Atmel, Broadcom, Cirrus Logic, Digital Equipment Corporation, Freescale, Intel (through DEC), LG, Marvell Technology Group, Microsoft, NEC, Nuvoton, Nvidia, NXP, Oki, Qualcomm, Samsung, Sharp, STMicroelectronics, Symbios Logic, Texas Instruments, VLSI Technology, Yamaha, nVidia en ZiiLABS.

x86 heeft nooit zoveel spelers in de markt gehad: IBM, Intel, VIA, NEC, AMD, TI, STM, Fujitsu, OKI, Siemens, Cyrix, Intersil, C&T en NexGen. Waarvan er nu eigenlijk nog maar twee over zijn AMD en Intel.

Ik denk dat een zelfde afnamen van spelers in de ARM markt gezien kan worden naarmate ARM complexer wordt en de competitie verhevigt. Niet alleen bij x86 zagen we dit maar op het gebied van GPUs.

Waar nVidia zich dus mee moet onderscheiden is zijn GPU kennis.

Waar Intel zich dus mee kan onderscheiden is zijn productie procedé kennis en kapitaal dat ze in R&D kunnen duwen. Als Intel straks -dus net zoals ze met x86 markt- steeds een full of half node voorligt. Dan zal dit grote gevolgen gaan hebben voor hun positie. Immers is verbruik, en ruimte dat de chips innemen op de mobiele markt cruciaal. Dit is een van de redes dat AMD niet goed kan doorbreken op de laptop markt want ze liggen qua stroomverbruik altijd achter i.v.m. hun productie procedés. Op de desktop markt wordt dit minder hard gevoelt want daar is het niet zo extreem belangrijk de zuinigste etc te zijn.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op zondag 20 februari 2011 @ 19:53:
[...]


Nou ARM is kan bijvoorbeeld geen Windows 7 draaien met al zijn programma's. Terwijl een x86 CPU met GPU wel Android etc kan draaien(?). M.a.w. x86 is veelzijdiger dan ARM. De vraag is dus hoe je deze twee dan met elkaar wil vergelijken ? Dat was namelijk mijn vraag.
Oh, je bedoelt dat x86 veelzijdiger is dan ARM in het draaien van x86-programma's. Goh :D

Benchmarken doe je natuurlijk met cross-platform applicaties. Bijna alle open source programmatuur is zo te compileren voor ARM, dus is er niet bepaald een gebrek aan keuze.
Deze SOCs zouden zeker wel met elkaar kunnen concurreren beiden worden namelijk in tablets gebruikt. Waarbij het dan om een 5watt versie van Zacate gaat. Hoe kom je overigens bij de sub 1 watt voor Kal-El ?
5 Watt? Ok, dan heb je het dus niet over over Zacate. En ja, Kal-El en de AMD 5W C50 zullen elkaar misschien gaan tegenkomen in tablets (waar de zuinigste AMD 1Ghz dualcore nog steeds 2.5x zoveel energie gebruikt als de Nvidia 1.5Ghz quadcore), maar je was aan het brabbelen over smartphones, met je suggestie dat Kal-El iets 'teveel van het goede' zou zijn. Er zijn nog geen concrete cijfers over stroomgebruik van Tegra 3, maar Tegra 2 kan op 0.5W geconfigureerd worden voor een phone. Tegra 3 zou dezelfde TDP krijgen, maar goed hij heeft 2x de cores, meer ALUs en draait op een hogere kloksnelheid, dus laten we zeggen < 1W. AMD bestaat niet in dat segment.
Nee alleen op GPU gebied. ARM is iets waarop je een licentie neemt waarna je dus ook meteen de basis hebt waarmee iedereen dus werkt. Je hoeft dus als fabrikant niet helemaal opnieuw te beginnen als je de ARM markt instapt. ARM is er al sinds 1984 en toch kan nVidia blijkbaar zomaar die markt in stappen zoals velen anderen
Onzin, de ARM markt is de meest dynamische en interessante CPU-markt die er is op het moment. Fabrikanten concurreren op het scherpst van de snede met elkaar, wat betreft feature levels, kloksnelheden en uitbreidingen. Nvidia heeft een zg. 'architectural license', waardoor ze niet alleen de standaard cores mogen printen, maar zelf de instructieset kunnen implementeren, en kan wel degelijk een hoge mate van innovatie kwijt in z'n ARM producten.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Biff schreef op maandag 21 februari 2011 @ 04:55:
1. Oh, je bedoelt dat x86 veelzijdiger is dan ARM in het draaien van x86-programma's. Goh :D
Benchmarken doe je natuurlijk met cross-platform applicaties. Bijna alle open source programmatuur is zo te compileren voor ARM, dus is er niet bepaald een gebrek aan keuze.

2. 5 Watt? Ok, dan heb je het dus niet over over Zacate. En ja, Kal-El en de AMD 5W C50 zullen elkaar misschien gaan tegenkomen in tablets (waar de zuinigste AMD 1Ghz dualcore nog steeds 2.5x zoveel energie gebruikt als de Nvidia 1.5Ghz quadcore),

3. maar je was aan het brabbelen over smartphones, met je suggestie dat Kal-El iets 'teveel van het goede' zou zijn. Er zijn nog geen concrete cijfers over stroomgebruik van Tegra 3, maar Tegra 2 kan op 0.5W geconfigureerd worden voor een phone. Tegra 3 zou dezelfde TDP krijgen, maar goed hij heeft 2x de cores, meer ALUs en draait op een hogere kloksnelheid, dus laten we zeggen < 1W. AMD bestaat niet in dat segment.

4. Onzin, de ARM markt is de meest dynamische en interessante CPU-markt die er is op het moment.

5. Fabrikanten concurreren op het scherpst van de snede met elkaar, wat betreft feature levels, kloksnelheden en uitbreidingen.
Nvidia heeft een zg. 'architectural license', waardoor ze niet alleen de standaard cores mogen printen, maar zelf de instructieset kunnen implementeren, en kan wel degelijk een hoge mate van innovatie kwijt in z'n ARM producten.
1. Nee dat bedoelde ik niet. Enfin, hoeveel programma's werken er dus volgens jou zowel op ARM als op x86 ?

2. Ja ik had het over Ontario en niet Zacate dat was een foutje van mijn kant sorry daarvoor. Verbruik is een belangrijke factor maar vergeet niet dat performance ook belangrijk is. Hierbij is natuurlijk performance/watt ratio belangrijk. Over de performance verschillen kunnen we niks zeggen daarbij komt ook nog eens dat we niks over het verbruik van Tegra 3 kunnen zeggen.

3. Ik zei dit omdat 80mm2 mij nogal groot lijkt voor in telefoons. Want er is een correlatie tussen die size en verbruik.

4. Ik zeg toch niet dat de ARM markt niet dynamisch of interessant is. Dus ik weet niet waar je het over hebt.

5. Nou nou, ze concurreren zeker hevig met elkaar en dit komt vooral doordat er zoveel spelers zijn. Maar overdrijf niet want nVidia Tegra 2 is ook maar gewoon een Dual-core ARM Cortex-A9 MPCore gecombineerd met een GPU van nVidia. Niet echt bepaald hoge mate van innovatie te bekennen. Op het GPU gedeelten na dan.

Vandaar deze reactie hierop: "Bedreigingen in de vorm van Nvidia, die een voorsprong heeft op ARM gebied.":

"Nee alleen op GPU gebied. ARM is iets waarop je een licentie neemt waarna je dus ook meteen de basis hebt waarmee iedereen dus werkt. Je hoeft dus als fabrikant niet helemaal opnieuw te beginnen als je de ARM markt instapt. ARM is er al sinds 1984 en toch kan nVidia blijkbaar zomaar die markt in stappen zoals velen anderen."

M.a.w.Waar nVidia zich dus mee moet onderscheiden is zijn GPU kennis.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op maandag 21 februari 2011 @ 04:55:
5 Watt? Ok, dan heb je het dus niet over over Zacate. En ja, Kal-El en de AMD 5W C50 zullen elkaar misschien gaan tegenkomen in tablets (waar de zuinigste AMD 1Ghz dualcore nog steeds 2.5x zoveel energie gebruikt als de Nvidia 1.5Ghz quadcore), maar je was aan het brabbelen over smartphones, met je suggestie dat Kal-El iets 'teveel van het goede' zou zijn. Er zijn nog geen concrete cijfers over stroomgebruik van Tegra 3, maar Tegra 2 kan op 0.5W geconfigureerd worden voor een phone. Tegra 3 zou dezelfde TDP krijgen, maar goed hij heeft 2x de cores, meer ALUs en draait op een hogere kloksnelheid, dus laten we zeggen < 1W. AMD bestaat niet in dat segment.
Vergeet niet dat deze 5Watt Ontario chip nog altijd een krachtigere GPU aan boort heeft en volledig homogeen OpenCL ondersteunt. Het stroomverbruik is dus niet even gemakkelijk af te schuiven op de 2 Bobcat cores.

Voor de rest is Kal-El daadwerkelijk een beetje aan de groffe kant voor een smartphone. Leuk dat bij gelijke belasting het verbruik zo ongeveer gelijk ligt aan een Tegra2 chip, maar wat gebeurt er als je smartphone alle 4 de cores belast? Dan kan het heel snel gebeurd zijn met je batterij-lading. Ook de 5Watt Ontario is daar dus zeker niet geschikt voor. De omvang ligt ook vrij dicht bij elkaar en ja, dat kun je best in een hele kleine ruimte proppen, maar ideaal is het niet. Bij tablets heb je wat meer ruimte en daar komen dergelijke chips dus ook beter tot hun recht.

Maar goed, zoals je al afsluit in die alinea, zijn het verschillende segmenten waarin deze chips werken. Ontario kan Windows 7 draaien en daarmee alle bekende desktop software (mits de minimum eisen behaalt worden natuurlijk) terwijl Kal-El vooralsnog vooral op het mobiele internet is geent. De vraag is alleen, heb je echt een quadcore nodig voor het mobiele gebruik?

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
dahakon schreef op maandag 21 februari 2011 @ 17:41:
[...]
De vraag is alleen, heb je echt een quadcore nodig voor het mobiele gebruik?
En ook, hoe goed kan de software om gaan met vier core's.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • unfor
  • Registratie: Juli 2001
  • Laatst online: 22-08 14:52
Voor de Dual screen users:

Nvidia inspector heeft een update gehad, en er zit nu een tool bij die je idle clockspeeds naar 51 gooit.
Bij dual screen bleef voorheen de clockspeed op 405 hangen.


Download hier: http://download.orbmu2k.de/download.php?id=51
Bron: http://forums.guru3d.com/showthread.php?t=339043

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

madmaxnl schreef op maandag 21 februari 2011 @ 16:55:
[...]


1. Nee dat bedoelde ik niet. Enfin, hoeveel programma's werken er dus volgens jou zowel op ARM als op x86 ?
Ik ga ze niet tellen. In ieder geval genoeg om hele leuke benchmark suites te bouwen.
3. Ik zei dit omdat 80mm2 mij nogal groot lijkt voor in telefoons. Want er is een correlatie tussen die size en verbruik.
Voor uitgekiende stroomspaarmechanismen heb je ook transistors nodig. Ja, er is een correlatie, maar Ontario vs Tegra is een treffend voorbeeld van het feit dat je aan de hand van die size alleen geen uitspraken kan doen over verbruik.
5. Nou nou, ze concurreren zeker hevig met elkaar en dit komt vooral doordat er zoveel spelers zijn. Maar overdrijf niet want nVidia Tegra 2 is ook maar gewoon een Dual-core ARM Cortex-A9 MPCore gecombineerd met een GPU van nVidia. Niet echt bepaald hoge mate van innovatie te bekennen. Op het GPU gedeelten na dan.
Ach welnee, net als andere ARM SOCs bestaat Tegra 2 uit veel meer dan zomaar wat kant en klare CPU cores met een Geforceje er op geplakt. Kijk anders ook even naar dit verhaal en wellicht kom je dan toch terug op je stelling dat er iets 'gewoon' is aan het ontwerpen van een ARM SOC. Het is een uitermate spannende race waarbij de deelnemers proberen zich op allerlei manier proberen te onderscheiden, en Nvidia speelt absoluut mee in de kopgroep.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op maandag 21 februari 2011 @ 17:41:
[...]
Maar goed, zoals je al afsluit in die alinea, zijn het verschillende segmenten waarin deze chips werken. Ontario kan Windows 7 draaien en daarmee alle bekende desktop software (mits de minimum eisen behaalt worden natuurlijk) terwijl Kal-El vooralsnog vooral op het mobiele internet is geent. De vraag is alleen, heb je echt een quadcore nodig voor het mobiele gebruik?
Dat vroegen ze ook ooit over PCs. Zowel Nvidia, als Qualcomm, Marvell en Texas Instruments zetten vooralsnog vol in op ja.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
dahakon schreef op maandag 21 februari 2011 @ 17:41:
[...]
Voor de rest is Kal-El daadwerkelijk een beetje aan de groffe kant voor een smartphone. Leuk dat bij gelijke belasting het verbruik zo ongeveer gelijk ligt aan een Tegra2 chip, maar wat gebeurt er als je smartphone alle 4 de cores belast?
Dan is de taak 2 keer zo snel klaar (theoretisch) en gaat de CPU daarna weer naar idle? Ik denk niet dat die paar pieken die je af en toe hebt zoveel zullen afnemen van de batterijduur. We rekenen hier in mW, niet in W en zelfs bij 4 core belasting zal het verbruik met veel minder dan 100% toenemen.

Ja, Kal-El zal meer van de CPU vragen, maar zeker gezien de optimalisaties die er sinds Tegra 2 zijn gemaakt denk ik dat het verschil in de praktijk wel eens heel erg mee kan vallen.

Daarnaast, dit soort CPUs gaan in de duurste telefoons, daar is ook meestal wel wat meer geld voor een grotere accu.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Alleen geen ruimte...

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

Microsoft en Nvidia stappen uit PC Gaming Alliance

Iemand hier trouwens nog commentaar op ?

Dat Microsoft uit de PCGA stapt kan verklaart worden want, ze hebben immers hun Xbox360. Dat nVidia hieruit stapt vind ik moeilijker te verklaren. Zou dit op een drastische koerswijziging bij nVidia wijzen ? Wellicht dat ze op de lange termijn geen GPUs voor "consumenten" meer maken. Immers is de low-end markt al verloren met de komst van APUs. Wellicht dat ze zich nu met hun GPUs op GPGPU gebeuren richten voor servers(Tesla). Tevens hebben ze letterlijk en figuurlijk een heel erg sterke kaart met hun Quadro business. Plus dat ze nu ook nog eens in de ARM markt stappen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op maandag 21 februari 2011 @ 18:20:
Dat vroegen ze ook ooit over PCs. Zowel Nvidia, als Qualcomm, Marvell en Texas Instruments zetten vooralsnog vol in op ja.
Een PC hangt niet aan een marginale batterij en heeft andere taken als belangrijkste taak dan mobiel bellen. Zelfs 10 jaar na de introductie van dual cores zijn multi-core (meer dan 2 cores) laptops een niche, een klein marktsegment omdat het gewoon heel lastig is geweest om een acceptabele batterij-duur mee te kunnen geven. Deze Quad ARM SoCs zullen het vooral van de Tablets en nettops/netbooks moeten hebben, maar daar moeten ze dan ook gelijk concurreren met andere oplossingen zoals Krishna/Wichita en Atom.


Voor de rest, inderdaad, wat spNk zegt.

Tenzij je terug wilt naar de ouderwetse sataliettelefoons, waar je een aparte bak vol met batterijen mee moet slepen.

Maar goed, om het even, nVidia zelf claimt een ongeveer gelijk verbruik bij gelijke belasting. Maar Kal-El wordt niet gemaakt voor gelijke belasting, maar voor hogere belasting. De vraag is dus of het wel reeel is om er maar van uit te gaan dat de gemiddelde belasting van de SoC gelijk of kleiner is dan die van Tegra2. Dat zal de toekomst toch echt uit moeten wijzen.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

dahakon schreef op maandag 21 februari 2011 @ 21:38:
[...]


Een PC hangt niet aan een marginale batterij en heeft andere taken als belangrijkste taak dan mobiel bellen. Zelfs 10 jaar na de introductie van dual cores zijn multi-core (meer dan 2 cores) laptops een niche, een klein marktsegment omdat het gewoon heel lastig is geweest om een acceptabele batterij-duur mee te kunnen geven.
Ik begrijp je punt wel maar deze gedachtengang begint toch achterhaald te raken. Het einde van de Ghz-race op PCs heeft de trend al laten zien - het is veel eenvoudiger om een power-efficient design te maken door meer cores toe te voegen dan door single cores steeds sneller te maken. De ervaringen die inmiddels opgedaan zijn met het optimaliseren van software voor het gebruik van multithreading zullen ook inzetbaar zijn voor mobiele apparaten, en die zullen daardoor veel naadlozer gaan migreren. Het gaat niet heel lang meer duren voordat dual core de standaard zal zijn voor mid- en highend mobiele telefoons. Quad is gewoon de logische volgende stap.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op dinsdag 22 februari 2011 @ 04:23:
Het gaat niet heel lang meer duren voordat dual core de standaard zal zijn voor mid- en highend mobiele telefoons. Quad is gewoon de logische volgende stap.
In de loop van tijd zal het zeker wel die kant op gaan, maar dan is Tegra3 al lang vergeten, evenals andere quadcore SoCs die binnenkort op de markt zullen komen of al zijn. Marvel heeft al een quad ARM SoC, maar die is echt niet bedoeld voor mobiele apparaten, omdat het verbruik ook gelijk navenant hoger ligt.

De quads die nu zijn aangekondigd, zijn geen efficientere chips, maar hoger geklokte chips met meer cores en navenant hoger maximum verbruik. Tel daarbij op dat er momenteel nog geen multithreading telefoon-OS is dat breed wordt gebruikt en dan kom je tot de conclusie dat het nog wel eventjes kan duren voor het echt nuttig is.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 16:34
madmaxnl schreef op maandag 21 februari 2011 @ 21:28:

Microsoft en Nvidia stappen uit PC Gaming Alliance

Iemand hier trouwens nog commentaar op ?

Dat Microsoft uit de PCGA stapt kan verklaart worden want, ze hebben immers hun Xbox360. Dat nVidia hieruit stapt vind ik moeilijker te verklaren. Zou dit op een drastische koerswijziging bij nVidia wijzen ? Wellicht dat ze op de lange termijn geen GPUs voor "consumenten" meer maken. Immers is de low-end markt al verloren met de komst van APUs. Wellicht dat ze zich nu met hun GPUs op GPGPU gebeuren richten voor servers(Tesla). Tevens hebben ze letterlijk en figuurlijk een heel erg sterke kaart met hun Quadro business. Plus dat ze nu ook nog eens in de ARM markt stappen.
Lijkt me niet heel logisch om nu al een plan te maken om te stoppen met hun core business. Alle andere projecten die ze nu doen bieden immers geen garantie. Ik denk dat ze er geen meerwaarde meer in zien en liever hun resources inzetten op andere vlakken. Losse videokaarten stoppen niet opeens met bestaan nu er low end gpu's op low end cpu's komen. Dat blijven namelijk netbook producten en de concurrent verkoopt ook liever twee producten voor meer als 1 voor heel weinig.

Als de apu ooit echt doorzet dan moeten er nog hele grote stappen gemaakt worden om dit 1 betaalbaar te produceren en twee wel verdomd goed in elkaar zitten om meer prestatie te bieden dan een losse videokaart die al bijna net zo groot is als een klein moederbord.

Acties:
  • 0 Henk 'm!

Verwijderd

Nice hopelijk word het pc gamen er weer beter op dan.
Microsoft wou sowiso met windows 8 meer pc gamiing gericht maken waren
de gruchten.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Verwijderd schreef op dinsdag 22 februari 2011 @ 10:29:
Nice hopelijk word het pc gamen er weer beter op dan.
Microsoft wou sowiso met windows 8 meer pc gamiing gericht maken waren
de gruchten.
Spreekt dat het bovenstaande artikel niet compleet tegen?

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op maandag 21 februari 2011 @ 21:28:

Microsoft en Nvidia stappen uit PC Gaming Alliance

Iemand hier trouwens nog commentaar op ?

Dat Microsoft uit de PCGA stapt kan verklaart worden want, ze hebben immers hun Xbox360. Dat nVidia hieruit stapt vind ik moeilijker te verklaren. Zou dit op een drastische koerswijziging bij nVidia wijzen ? Wellicht dat ze op de lange termijn geen GPUs voor "consumenten" meer maken. Immers is de low-end markt al verloren met de komst van APUs. Wellicht dat ze zich nu met hun GPUs op GPGPU gebeuren richten voor servers(Tesla). Tevens hebben ze letterlijk en figuurlijk een heel erg sterke kaart met hun Quadro business. Plus dat ze nu ook nog eens in de ARM markt stappen.
Simpel: kosten-batenanalyse.
Lijkt me onwaarschijnlijk dat het met nVidia's visie op de GPU markt te maken heeft.

Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Wat heeft de PCGA de laatste jaren bijgedragen? Ik heb er niks van gezien. Ik denk dat MS en NVIDIA het nut er gewoon niet van inzien om er geld in te steken, zoals Springstof ook al zegt

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

spNk schreef op dinsdag 22 februari 2011 @ 11:28:
[...]

Spreekt dat het bovenstaande artikel niet compleet tegen?
Ik geloof dat microsoft nieuwe dingen wil proberen om PC gaming weer lucratief te maken. Geen idee waar ik dat gelezen heb iig.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Spreekt dat het bovenstaande artikel niet compleet tegen?


Nope ;)
Dit heeft verder ook niets met de gaming gpu's van nvidia te maken. Deze blijven gewoon bestaan voorlopig.
Ze moeten namelijk wel ergens hun geld mee blijven verdienen ;)

[ Voor 60% gewijzigd door Verwijderd op 22-02-2011 14:18 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op dinsdag 22 februari 2011 @ 12:32:
Wat heeft de PCGA de laatste jaren bijgedragen? Ik heb er niks van gezien. Ik denk dat MS en NVIDIA het nut er gewoon niet van inzien om er geld in te steken, zoals Springstof ook al zegt
Drogreden: ik heb er niks van gezien dus zal het wel niks bijgedragen hebben.
Idem kan je zeggen van het rodekruis enzo. PCGA zal wel achter de schermen werken en met game developers contacten onderhouden. PCGA is niet zoiets als TWIMTBP of GE dat je mooi aan het begin van het starten van een game ziet.

Acties:
  • 0 Henk 'm!

Verwijderd

madmaxnl schreef op dinsdag 22 februari 2011 @ 14:31:
[...]


Drogreden: ik heb er niks van gezien dus zal het wel niks bijgedragen hebben.
Idem kan je zeggen van het rodekruis enzo. PCGA zal wel achter de schermen werken en met game developers contacten onderhouden. PCGA is niet zoiets als TWIMTBP of GE dat je mooi aan het begin van het starten van een game ziet.
Maar jouw aanname is ook totaal niet gegrond, namelijk dat ze veel andere zaken omarmen en dus de GPU's voor consumenten gaan lozen... Het kan toch gewoon zo zijn dat Nvidia er in hun ogen teveel resources in moet stoppen en er gewoon te weinig uit komt. Of dat de samenwerking met de andere partijen niet verloopt zoals zij dat willen, enz.
En trouwens, het is voor velen incl. jezelf ook niet te hopen dat Nvidia uit de 'consumenten' gpu's stapt aangezien je dan straks het dubbele gaat betalen voor jouw zo geliefde AMD kaartjes. ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Nu het net weer lekker loopt bij nvidia lijkt het mij niet dat nvidia uit de gpu markt zal stappen.
Ik kan niets voorpellen maar het lijkt mij gewoon heel onlogiesch. Wat mij eerder lijkt te gebeuren is net
als bij amd en ati, een fusie dus met intel en nvidia, dit lijktmij het meest logische wat er kan gebeuren.
Veel mensen hopen hier niet op, maar het zou een hele sterke markt worden als dze 2 fuseren.
Maar goed dit zijn allemaal speculaties net alsdat nvidia geen gpu'smeer gaat maken voor de consument.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op dinsdag 22 februari 2011 @ 17:59:
Wat mij eerder lijkt te gebeuren is net
als bij amd en ati, een fusie dus met intel en nvidia, dit lijktmij het meest logische wat er kan gebeuren.
Geen mededingingsauthoriteit ter wereld die daar ooit mee in zal stemmen. Intel heeft al een veel te groot marktaandeel,

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Apple zie ik eerder nVidia overnemen.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op dinsdag 22 februari 2011 @ 18:48:
Apple zie ik eerder nVidia overnemen.
Ik vraag me af wat Apple hier mee op zou schieten. Ik zie nVidia helemaal niet overgenomen worden.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • kikibu
  • Registratie: April 2003
  • Laatst online: 07-09 02:32
http://www.google.com/finance?q=NASDAQ:NVDA

>8% naar beneden. Hebben jullie enig idee waarom?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ze zijn laatst ook uit het niets 10% omhoog gegaan. Men verzilverd waarschijnlijk gewoon de winsten. Inclusief de onrust in Libië.

[ Voor 13% gewijzigd door madmaxnl op 22-02-2011 19:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Xenomorphh schreef op dinsdag 22 februari 2011 @ 18:54:
[...]


Ik vraag me af wat Apple hier mee op zou schieten. Ik zie nVidia helemaal niet overgenomen worden.
Dat vraag ik mij ook af, dit zie ik dus nooit een keer gebeuren.
Het is eerder intel want daar kan ik nog enigzins inkomen

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Pros:

1. nVidia heeft GPUs die Apple kan gebruiken in hun eigen tablets, telefoons, mediaspelers, laptops, desktops workstations, servers en ARM chips in het algemeen.
2. Apple heeft genoeg geld om nVidia te kunnen kopen.
3. Mededingingsautoriteiten zullen niet al te moeilijk doen want, Apple heeft nergens een monopolie en is ook niet op weg naar een monopolie.
4. Apple heeft genoeg inkomsten om nVidia's R&D afdeling te spekken met alle gevolgen van dien.
5. Apple heeft een eigen OS waardoor het dus heel makkelijk en met meer kans van slagen ARM naar desktops en laptops kan brengen.
6. Omdat Apple een eigen OS heeft kan het heel specifiek GPGPU toepassen voor nVidia GPUs c.q. CUDA.
7. Eigen console bouwen en Microsoft weer eens in de wielen gaan rijden ;)

Cons:
CEO van nVidia -Jen-Hsun Huang- is arrogant en laat zich niet graag overnemen. M.a.w. een vijandelijke overnamen. Wat een overnamen nog risicovoller maakt dan dat het al is.

Hoe logisch een nVidia overnamen door Intel ook lijkt. Het is gewoon niet mogelijk i.v.m. mededingingsautoriteiten.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Punt 1 is eigenlijk het belangrijkste, maar tegelijkertijd ook al de reden waarom Apple nVidia niet hoeft te kopen. Apple heeft namelijk zijn eigen ARM-chip al. Ze hebben inhouse R&D die zich bezig houdt met het aanpassen van de ARM SoC voor Apple producten en hebben nVidia daar eigenlijk helemaal niet voor nodig.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee voor het ARM gedeelten zeker niet. Maar voor het GPU gedeelten zou het Apple meer dan helpen want, daaraan kan Apple R&D'en tot ze failliet gaan. Beter dan nVidia wordt het waarschijnlijk toch niet.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op dinsdag 22 februari 2011 @ 22:13:
Nee voor het ARM gedeelten zeker niet. Maar voor het GPU gedeelten zou het Apple meer dan helpen want, daaraan kan Apple R&D'en tot ze failliet gaan. Beter dan nVidia wordt het waarschijnlijk toch niet.
Ze kunnen ook gewoon, net als al die andere ARM SoC bouwers, een kant en klare GPU licentie nemen, net zoals de ARM licentie die ze hebben. Er is genoeg keuze voor ze en het scheelt een hele hoop R&D, met of zonder nVidia. De miljarden die je moet betalen voor nVidia zullen dat in geen honderd jaar terugverdienen in verhouding.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op dinsdag 22 februari 2011 @ 21:01:
Pros:

1. nVidia heeft GPUs die Apple kan gebruiken in hun eigen tablets, telefoons, mediaspelers, laptops, desktops workstations, servers en ARM chips in het algemeen.
2. Apple heeft genoeg geld om nVidia te kunnen kopen.
3. Mededingingsautoriteiten zullen niet al te moeilijk doen want, Apple heeft nergens een monopolie en is ook niet op weg naar een monopolie.
4. Apple heeft genoeg inkomsten om nVidia's R&D afdeling te spekken met alle gevolgen van dien.
5. Apple heeft een eigen OS waardoor het dus heel makkelijk en met meer kans van slagen ARM naar desktops en laptops kan brengen.
6. Omdat Apple een eigen OS heeft kan het heel specifiek GPGPU toepassen voor nVidia GPUs c.q. CUDA.
7. Eigen console bouwen en Microsoft weer eens in de wielen gaan rijden ;)

Cons:
CEO van nVidia -Jen-Hsun Huang- is arrogant en laat zich niet graag overnemen. M.a.w. een vijandelijke overnamen. Wat een overnamen nog risicovoller maakt dan dat het al is.

Hoe logisch een nVidia overnamen door Intel ook lijkt. Het is gewoon niet mogelijk i.v.m. mededingingsautoriteiten.
Ik zit een beetje te denken dat Apple hoofdzakelijk maar gewoon hardware koopt bij nVidia AMD en Intel(Iphone en Ipad gebeuren er buiten gelaten) en geen eigen Apple hardware hebben. Als ze dan nVidia opkopen hebben ze ook het ARM gedeelte erbij maar gaat Apple denk ik niet opeens hun eigen video kaarten op de markt zetten maar doen ze dit puur voor eigen gebruik, en dan gaat Apple die miljarden daar nooit aan terug verdienen. Maar goed dan zal Apple wel als GPU bouwer op de markt komen en dan weet ik niet of dat echt een succes is.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • kikibu
  • Registratie: April 2003
  • Laatst online: 07-09 02:32
Waarom zou Apple videokaarten willen verkopen voor pc's? Dat is jezelf tegenwerken.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

kikibu schreef op dinsdag 22 februari 2011 @ 22:36:
Waarom zou Apple videokaarten willen verkopen voor pc's? Dat is jezelf tegenwerken.
Precies. Daarom lijkt het me ook vreemd dat Apple nVidia zou kopen. Het is denk ik goed koper voor Apple om GPU's te kopen dan zelf te produceren alleen voor eigen gebruik. Waar je ook nog is een miljarden bedrijf voor moet kopen.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
Die overnamepraat slaat echt nergens op jongens. Er zijn 2 voorwaarden/redenen om een bedrijf over te nemen.

- Het gaat slecht met het over te nemen bedrijf. Het andere bedrijf moet het slecht doen op de markt, want een gezond bedrijf is vaak veel te duur dus is er geen winst te halen

- Er is synergie tussen beide bedrijven, oftewel de bedrijven hebben veel dezelfde taken waardoor er flink gekort kan worden in dubbel personeel en andere onkosten.
of
- De core business van het over te nemen bedrijf is iets waar de overnamekandidaat veel aan heeft, of het bedrijf is een speler in een markt waar de andere partij ook in wil springen. Dit is bijna altijd alleen interessant bij kleine bedrijven, anders zijn de kosten van overname veel te groot en kan de overnamekandidaat beter op eigen kracht die markt ontwikkelen.

Kijk naar alle grote overnames van de laatste jaren en je ziet dat het aan die eisen voldoet:
- ATI deed het slecht en er bestond synergie met AMD, daarnaast was GFX een markt die AMD als noodzakelijk zag. (Overigens betaalden ze nog steeds te veel)
- Chartered kon niet meer meekomen met grotere foundries in de toekomst en er bestond uiteraard veel synergie met GlobalFoundries
- Sun's waarde was gigantisch gedaald met de crisis in 2008, en de situatie zag er slecht uit, waardoor een overname door Oracle (zowel synergie als nieuwe markten) logisch was.

Dus, waarom gaat niemand NVIDIA overnemen? Ten eerste is het een kerngezond bedrijf. Ja, het laatste jaar was een beetje zwaar, maar als je kijkt naar de aandelen is NVIDIA veel te duur om zomaar over te nemen, zelfs door de grote spelers. NVIDIA is zo'n 14 miljard waard op basis van de huidige koers, en als er eenmaal een overnamepoging gedaan zou worden zou de prijs beduidend hoger moeten komen te liggen anders zullen de aandeelhouders er nooit mee akkoord gaan.

Ten tweede zijn er geen bedrijven die interesse hebben in NVIDIA, en zeker niet Apple. Wat moet Apple met alle GPU, HPC en zelfs met alle Tegra afdelingen van NVIDIA? Daar hebben ze niks aan. Het enige waar Apple misschien wat aan heeft zijn goede designers voor hun eigen chipset afdeling, maar daar hebben ze al een heleboel van door diverse overnames (allemaal uiteraard van kleine bedrijven). Daarnaast kan Apple bij diverse bedrijven GPU IP inkopen als ze dat zelf niet kunnen ontwikkelen. Apple gaat echt geen 20 miljard (of meer) uitgeven voor een paar ARM ontwikkelaars die ze voor een fractie van dat bedrag ergens anders vandaan kunnen halen.


EDIT: Iets meer on-topic, Beyond3D heeft een interessant artikel over verschillende aangekondigde ARM cpu's, waaronder Kal-El. Ze zijn (imho terecht) erg enthousiast over wat NVIDIA met Kal-El voor elkaar heeft gekregen en in welk tijdsbestek, maar plaatsen juist kanttekeningen bij Wayne (Tegra "4") en hoe competitief die chip zal zijn in vergelijking met de competitie. Zeker de moeite van het lezen waard!

[ Voor 8% gewijzigd door Snoitkever op 23-02-2011 14:05 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Snoitkever schreef op woensdag 23 februari 2011 @ 12:23:
Die overnamepraat slaat echt nergens op jongens. Er zijn 2 voorwaarden/redenen om een bedrijf over te nemen.

1. Het gaat slecht met het over te nemen bedrijf. Het andere bedrijf moet het slecht doen op de markt, want een gezond bedrijf is vaak veel te duur dus is er geen winst te halen

Kijk naar alle grote overnames van de laatste jaren en je ziet dat het aan die eisen voldoet:
2. ATI deed het slecht en er bestond synergie met AMD, daarnaast was GFX een markt die AMD als noodzakelijk zag. (Overigens betaalden ze nog steeds te veel)
3. Chartered kon niet meer meekomen met grotere foundries in de toekomst en er bestond uiteraard veel synergie met GlobalFoundries
4. Sun's waarde was gigantisch gedaald met de crisis in 2008, en de situatie zag er slecht uit, waardoor een overname door Oracle (zowel synergie als nieuwe markten) logisch was.
1. Waarom werd AMD dan niet op 21 november 2008 overgenomen voor 4 miljard ? Koopje als je naar de huidige marktwaarde kijkt. En het ging heel erg slecht met het bedrijf en alleen al de vastgoed waarden AMD was destijds rede genoeg om het zaakje over te nemen. Alleen de x86 licentie zal destijds wel roet in het eten hebben gegooid.

2. ATI deed het slecht ? Voor het overgenomen werd was ATI gewoon gezond. I.i.g. veel gezonder als na de overnamen. (het te veel betalen kan achteraf pas bepaald worden, het is namelijk niet zo dat je transparant kunt vergelijken of je aankoop wel goed is.) AMD kon namelijk niet weten dat nVidia een killer GF8000 serie in aantocht had. Ook kon AMD niet weten hoe het er met ATI's eigen technologie voorstond.

3. Hoezo zou Chartered niet meer mee kunnen komen ? Chartered is niet gekocht omdat het er goed of slecht mee ging. Kijk hier maar eens: Wikipedia: Foundry model. Chartered draait gewoon meer omzet dan GF in 2009.

4. Hoezo zag de situatie van Sun er slecht uit ? Hoezo is het wel goed als Oracle nieuwe markten aanboort met de aankoop van Sun maar niet goed als Apple dat zou doen met nVidia ? Niet alleen zou nVidia voor het aanboren van compleet nieuwe markten zijn maar ook voor het versterken van markten waar Apple al in actief is(synergie?).

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
[...]


1. Waarom werd AMD dan niet op 21 november 2008 overgenomen voor 4 miljard ? Koopje als je naar de huidige marktwaarde kijkt.
Zie je, zelfs dan wordt een bedrijf niet zomaar overgenomen. Niets meer dan pure speculatie dus. Is er trouwens directe aanleiding om het in het nieuwstopic over mogelijke overnames te hebben? Ik zie het namelijk de helft van de tijd over overnames gaan en ik zie totaal niet in waarom dat nu ineens zo zou spelen. :P

Heeft geen speciale krachten en is daar erg boos over.


Verwijderd

Ach het ging van gamen naar overname hier. Vanhet één komt het ander he lolz.
Maar goed nvidia word echt niet overgenomen hoor, het is maar een speculatie hiero.
Voor zo'n bedrijf geeft niemand geld genoeg om ook maar om overname te denken.

Even wat nieuws over waarschijnlijk weer een uitstel

.
Rumour: NVIDIA GeForce GTX 590 release during PAX East 2011

Read more: http://vr-zone.com/articl.../11318.html#ixzz1ErjymLDz

Edit
Of uitstel, het stond nog geen eens vast waneer de gtx590 zou komen. Net zoals dit artikel
is het maar weer een gerucht.

[ Voor 11% gewijzigd door Verwijderd op 24-02-2011 10:15 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

  • Snoitkever
  • Registratie: Mei 2006
  • Laatst online: 24-08 14:47
madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
1. Waarom werd AMD dan niet op 21 november 2008 overgenomen voor 4 miljard ? Koopje als je naar de huidige marktwaarde kijkt. En het ging heel erg slecht met het bedrijf en alleen al de vastgoed waarden AMD was destijds rede genoeg om het zaakje over te nemen. Alleen de x86 licentie zal destijds wel roet in het eten hebben gegooid.
Ik gaf voorwaarden om een bedrijf over te nemen. Dat wil niet zeggen dat alle bedrijven die aan die voorwaarden voldoen overgenomen worden. Er zijn ook geinteresseerde kopers nodig en die waren er kennelijk niet
madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
2. ATI deed het slecht ? Voor het overgenomen werd was ATI gewoon gezond. I.i.g. veel gezonder als na de overnamen. (het te veel betalen kan achteraf pas bepaald worden, het is namelijk niet zo dat je transparant kunt vergelijken of je aankoop wel goed is.) AMD kon namelijk niet weten dat nVidia een killer GF8000 serie in aantocht had. Ook kon AMD niet weten hoe het er met ATI's eigen technologie voorstond.
Het ging langzaam slechter met ATI en 2005 was een veel slechter jaar dan de jaren ervoor. Met een winst van enkele tientallen miljoenen konden ze gewoon niet meekomen met NVIDIA die meer marktaandeel en veel hogere winsten had en dus ook veel meer kon investeren in nieuwe producten (zie G80 vs R600). ATI deed het niet zozeer slecht, maar vergeleken met NVIDIA en geconfronteerd met een steeds lastiger markt (grotere en complexere GPUs, grotere risico's) hadden ze wel steeds meer moeite om mee te komen. Achteraf heeft AMD natuurlijk teveel betaald en op het verkeerde moment de overname gedaan, maar ATI was zeker rijp voor een overname.
madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
3. Hoezo zou Chartered niet meer mee kunnen komen ? Chartered is niet gekocht omdat het er goed of slecht mee ging. Kijk hier maar eens: Wikipedia: Foundry model. Chartered draait gewoon meer omzet dan GF in 2009.
Chartered liep al een tijdje achter en dat zou alleen maar erger worden met de nieuwe generaties. Weet je wat het kost om een 28nm procedee te ontwikkelen? 1 tot 1.5 miljard. 22nm kost meer. En dat is alleen het procedee zelf ontwikkelen. Een nieuwe fab? 5 miljard? Over 5 jaar zitten we op <16nm. Die kosten zijn dan nog vele malen hoger en de verwachting is dat er maar een paar grote spelers overblijven. Intel is zeker, TSMC is zeker en hopelijk blijven er nog wat leden van de fab club over zoals Samsung en GF. Voor de rest zijn alle grote spelers de laatste jaren gestopt met ontwikkeling van nieuwe procedee's. TI, Sony, Toshiba, NEC, Fujitsu, Infineon, enzovoort. UMC doet nog een dappere poging maar stelt ook niet veel meer voor. Chartered had dus weinig toekomst en daarom was een fusie met GF een hele logische stap.
madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
4. Hoezo zag de situatie van Sun er slecht uit ?
Na de crash in 2008 verloor Sun 80% van de waarde op de aandelenmarkt? Daarnaast kelderden de inkomsten van alle kanten en hadden ze geen echt goede producten op de markt of in de planning. De CPU kant had last van tegenvallende producten en uitlopende planningen en aan alle kanten had de competitie betere alternatieven. Sun stevende op de afgrond af en daar zag Oracle een mooie kans.

EDIT
madmaxnl schreef op woensdag 23 februari 2011 @ 19:54:
Hoezo is het wel goed als Oracle nieuwe markten aanboort met de aankoop van Sun maar niet goed als Apple dat zou doen met nVidia ? Niet alleen zou nVidia voor het aanboren van compleet nieuwe markten zijn maar ook voor het versterken van markten waar Apple al in actief is(synergie?).
NVIDIA is veel te duur, Sun was een koopje, Oracle en Sun hadden een heleboel synergie omdat ze voor een groot deel wel in de zelfde markten zitten, en het enige waar Apple NVIDIA voor nodig heeft is de ARM chipafdeling. De rest ligt zo compleet naast Apple's core business dat Apple er niks mee kan en er geen enkele synergie is.
Nieuwe markten aanboren is een relatief begrip. Sun deed wat werk in markten waar Oracle niet actief was maar die wel gerelateerd zijn. Als je autoverkoper bent ga je misschien wel motors verkopen, maar wasmachines verkopen is niet echt logisch.

[ Voor 14% gewijzigd door Snoitkever op 24-02-2011 16:27 ]


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

NV is na vandaag zo goed als uit Apple verdwenen. alleen nog standaard in de verouderde C2D macbook te krijgen (ik neem aan tot die ook gerefreshed zijn)
Waar zie je dat? ik zie alleen 400 serie kaarten daar.

[ Voor 46% gewijzigd door neliz op 24-02-2011 16:23 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • epic_gram
  • Registratie: April 2010
  • Laatst online: 13:22

epic_gram

undercover moderator

neliz schreef op donderdag 24 februari 2011 @ 16:22:
[...]


Waar zie je dat? ik zie alleen 400 serie kaarten daar.
Helemaal onderin zie je zo'n tijdklokje met een doek over een graka, zou de 590 kunnen zijn.

Het Centrale Vodka Topic! win een iPad! Kras hier met een sleutel of ander scherp voorwerp: ███████████


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Helemaal onderaan de pagina. De vraag is of het om een GTX590 gaat.
neliz schreef op donderdag 24 februari 2011 @ 16:22:
NV is na vandaag zo goed als uit Apple verdwenen. alleen nog standaard in de verouderde C2D macbook te krijgen (ik neem aan tot die ook gerefreshed zijn)
Klopt:
Marc Rademaker in "CJ's Radeon Nieuwsdiscussietopic - Deel 121"

nVidia optimus blijkbaar toch niet interresant. Het verhaal van Charlie klinkt ook niet logisch meer.
Immers is Apple van de grote marges en als nVidia voor dergelijke prijzen verkoopt zal dat toch wel een prikkel voor Apple moeten zijn. Enfin Apple wil ook voor kwaliteit.

[ Voor 107% gewijzigd door madmaxnl op 24-02-2011 16:36 ]


Verwijderd

Dit is weer iets waar ik om zou willen wedden. Ik weet zeker dat het daar om de gtx590 gaat, met als dat het 2gf110's worden wat dus ook zo bleekte zijn, ik heb het verder nog nooit fout gehad als ik over wedden begin.
Verder is Charlie niet wies 8)7 jezelf kapot drinken als prestaties tegenvallen.

[ Voor 42% gewijzigd door Verwijderd op 24-02-2011 18:04 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zacate etc, omvat ook optimus achtige technologie.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op donderdag 24 februari 2011 @ 16:29:
Enfin Apple wil ook voor kwaliteit.
Wat een onzin. Althans.. dit raakt kant noch wal als je er niet bij uitlegt wat je er precies mee bedoelt. Dan doel ik dus niet op jouw gedachtespinsels waarom jij vindt dat Apple van mening is, maar op bronnen waaruit blijkt dat Apple dat vindt.

[ Voor 27% gewijzigd door Springstof op 24-02-2011 19:47 ]


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ze willen gewoon beste prestatie/watt verhouding daarbij is de hoeveelheid prestatie niet zo belangrijk zolang de prestatie die geleverd wordt maar toereikend genoeg is. Mijn gedachtespinsels dus :+
Help!!!! schreef op donderdag 24 februari 2011 @ 18:40:
Zacate etc, omvat ook optimus achtige technologie.
Ja, maar het gaat hier om een HD6xxxm dGPU van AMD met een Sandy Bridge APU van Intel.
Volgens mij is het daardoor dus niet zo dat de HD6xxxm dGPU van AMD zich volledig uitschakelt en alles bij de GPU van de APU komt te liggen bij lage eisen van de GPU. Met als gevolg een lagere stroomverbruik over het gehele systeem. Vandaar dat het opzicht ook raar is want je zou dus verwachten dat men voor nVidia zou kiezen i.v.m. hun Optimus technologie.

[ Voor 15% gewijzigd door madmaxnl op 24-02-2011 19:56 ]


  • Springstof
  • Registratie: Juli 2010
  • Niet online
madmaxnl schreef op donderdag 24 februari 2011 @ 19:53:
Ze willen gewoon beste prestatie/watt verhouding daarbij is de hoeveelheid prestatie niet zo belangrijk zolang de prestatie die geleverd wordt maar toereikend genoeg is. Mijn gedachtespinsels dus :+
Je mist wat mij betreft trouwens iets essentieels in je analyse. Namelijk: de prijs.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
madmaxnl schreef op donderdag 24 februari 2011 @ 16:29:
nVidia optimus blijkbaar toch niet interresant. Het verhaal van Charlie klinkt ook niet logisch meer.
Immers is Apple van de grote marges en als nVidia voor dergelijke prijzen verkoopt zal dat toch wel een prikkel voor Apple moeten zijn. Enfin Apple wil ook voor kwaliteit.
Ik zeg dus al eigenlijk al min of meer dat nVidia waarschijnlijk goedkoper is.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Gewoon blijven hangen van de fermi launch oid...
Het is iig niet logisch om een GTX590 teaser op een pagina met alleen maar 4xx kaarten te zetten.

@vPro, veel plezier met wedden, denk dat de meeste tweakers liever feiten of geruchten hebben.

[ Voor 12% gewijzigd door spNk op 24-02-2011 22:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dat is inderdaad waar, ik ben nog al een gokker mischien kot het daar door.

NVIDIA Reports Financial Results for Fourth Quarter and Fiscal Year 2011
http://pressroom.nvidia.c...57&xhtml=true&prid=722235

Ziekelijk veel geld hebben dit soort bedrijven. Als ik zo zie komen ze voolopig echt nog niet inde problemen
lijkt mij ? En al helemaal niet het bedijf verkopen. Wat nvidia wel eens mag doen is net al amd, met de echte high end kaarten geen belachelijke prijzen vragen. Nvida vraag veel teveel voor de high end kaarten. Jah oke ze zijn sneller maar moet het dan ook gelijk zo veel duurder worden. Verkopen doen ze toch wel aan de hardware junk of diegene die gewoon high end wil hebben.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
madmaxnl schreef op donderdag 24 februari 2011 @ 19:53:
Ja, maar het gaat hier om een HD6xxxm dGPU van AMD met een Sandy Bridge APU van Intel.
Volgens mij is het daardoor dus niet zo dat de HD6xxxm dGPU van AMD zich volledig uitschakelt en alles bij de GPU van de APU komt te liggen bij lage eisen van de GPU. Met als gevolg een lagere stroomverbruik over het gehele systeem. Vandaar dat het opzicht ook raar is want je zou dus verwachten dat men voor nVidia zou kiezen i.v.m. hun Optimus technologie.
Apple heeft dit gewoon opgelost door een andere manier van batterij-meten toe te passen =P
maar in realiteit is volgens sommige sites de batterij life-time toch gezakt ja, of dat een ramp is is nog maar de vraag ..
Op deze manier lost men ook de "problemen van de Optimus technologie" op, maw soms werd de discrete gpu niet ingeschakeld wanneer deze wel een extra performance kon geven.
Minder lange batterijduur waarover men amper of niet zal klagen <> Enorm veel support calls omdat applicatie x y of z nog geen goed profiel heeft gekregen ook al zat het in Apple zijn app store..

Specs


Acties:
  • 0 Henk 'm!

  • Marc Rademaker
  • Registratie: Juli 2007
  • Laatst online: 17:38
Verwijderd schreef op vrijdag 25 februari 2011 @ 08:16:
Dat is inderdaad waar, ik ben nog al een gokker mischien kot het daar door.

NVIDIA Reports Financial Results for Fourth Quarter and Fiscal Year 2011
http://pressroom.nvidia.c...57&xhtml=true&prid=722235

Ziekelijk veel geld hebben dit soort bedrijven. Als ik zo zie komen ze voolopig echt nog niet inde problemen
lijkt mij ? En al helemaal niet het bedijf verkopen. Wat nvidia wel eens mag doen is net al amd, met de echte high end kaarten geen belachelijke prijzen vragen. Nvida vraag veel teveel voor de high end kaarten. Jah oke ze zijn sneller maar moet het dan ook gelijk zo veel duurder worden. Verkopen doen ze toch wel aan de hardware junk of diegene die gewoon high end wil hebben.
En wederom weet je niet waar je het over hebt. Nog geen miljard OMZET. Er zijn bedrijven die meer dan een miljard winst maken. Nvidia is echt maar een kleine speler in de computerindustrie, en niet te vergelijken met Intel, Apple, HP of zelfs TSMC. Zelfs AMD heeft al gauw een omzet die twee keer zo hoog is als die van Nvidia.

Dus nee, het lijkt veel geld, maar voor dit soort bedrijven is nog geen miljard omzet niet ZIEKELIJK veel geld. Nvidia is wel een gezond bedrijf, dat staat buiten kijf, met een aardige winstmarge en meer dan genoeg geld op de bank.

[ Voor 4% gewijzigd door Marc Rademaker op 25-02-2011 13:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het is ook een eenmans bedrijf vergeleken met die andere bedrijven he.
Ik weet dus wel waar ik het over hebt. Die andere bedrijven zijn allemaal gefuseerde bedrijven, of bedrijven die strak met elkaar zamenwerken om te verdienen. Ik vind nvidia dus veel verdienen voor zijn doen.
En hou toch eens op met dat je weet niet waar je het over hebt ik word daar agressief van, en vind dat vervelend ovrkomen je bent een mod nog wel.

[ Voor 36% gewijzigd door Verwijderd op 25-02-2011 14:27 ]


Acties:
  • 0 Henk 'm!

  • Bejit
  • Registratie: Februari 2005
  • Laatst online: 12-09 18:07

Bejit

Svenska Faderland

Marc Rademaker schreef op vrijdag 25 februari 2011 @ 13:40:
[...]

En wederom weet je niet waar je het over hebt. Nog geen miljard OMZET. Er zijn bedrijven die meer dan een miljard winst maken. Nvidia is echt maar een kleine speler in de computerindustrie, en niet te vergelijken met Intel, Apple, HP of zelfs TSMC. Zelfs AMD heeft al gauw een omzet die twee keer zo hoog is als die van Nvidia.

Dus nee, het lijkt veel geld, maar voor dit soort bedrijven is nog geen miljard omzet niet ZIEKELIJK veel geld. Nvidia is wel een gezond bedrijf, dat staat buiten kijf, met een aardige winstmarge en meer dan genoeg geld op de bank.
Omzet interesseert niemand wat, maar juist rendement is belangrijk. Daarnaast zou ik ook iets beter naar de gegevens kijken. Ze maken 3,7 mijard omzet in het jaar. Ja per kwartaal net geen miljard.

NVIDIA is veel te duur omdat ze vrij groot zijn en omdat ze zo renderend zijn.

Systeempje


Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

neliz schreef op donderdag 24 februari 2011 @ 16:22:
NV is na vandaag zo goed als uit Apple verdwenen. alleen nog standaard in de verouderde C2D macbook te krijgen (ik neem aan tot die ook gerefreshed zijn)
En de Mini, en de Macbook Airs, maar ach ja 'zo goed als verdwenen' bekt zo lekker he.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • Redblader
  • Registratie: Februari 2010
  • Laatst online: 07:18
Biff schreef op vrijdag 25 februari 2011 @ 15:05:
[...]


En de Mini, en de Macbook Airs, maar ach ja 'zo goed als verdwenen' bekt zo lekker he.
Grote kans dat wanneer de Mini weer een refresh krijgt dat daar dan ook een AMD GPU in komt, lijkt mij een logische stap als je ziet dat bijna alle andere macs ook AMD GPU's hebben.
Verwijderd schreef op vrijdag 25 februari 2011 @ 14:25:
Het is ook een eenmans bedrijf vergeleken met die andere bedrijven he.
Ik weet dus wel waar ik het over hebt. Die andere bedrijven zijn allemaal gefuseerde bedrijven, of bedrijven die strak met elkaar zamenwerken om te verdienen. Ik vind nvidia dus veel verdienen voor zijn doen.
En hou toch eens op met dat je weet niet waar je het over hebt ik word daar agressief van, en vind dat vervelend ovrkomen je bent een mod nog wel.
Een eenmans bedrijf is toch iets wat Nvidia echt niet is, anders kon je er geen aandelen van kopen ;)
Overigens is over dit soort dingen agressief worden vrij overbodig lijkt me :/
Nvidia doet het zeker niet slecht, alleen zoals jij het stelt verdient Nvidia ''ziekelijk veel'' en ik denk dat Marc je er gewoon op wil wijzen dat er erg veel bedrijven zijn die veel meer verdienen dus zo ''ziekelijk'' is het niet.

Acties:
  • 0 Henk 'm!

  • Biff
  • Registratie: December 2000
  • Laatst online: 30-01 21:57

Biff

waar zijn de visjes

Redblader schreef op vrijdag 25 februari 2011 @ 15:19:
[...]


Grote kans dat wanneer de Mini weer een refresh krijgt dat daar dan ook een AMD GPU in komt, lijkt mij een logische stap als je ziet dat bijna alle andere macs ook AMD GPU's hebben.
Tof, dat kan je dan te zijner tijd weer mooi als nieuws posten. :D

Vooralsnog hebben drie van de zes modellen van Apple echter Nvidia, dus zou enige bescheidenheid nu nog wel sieren.

Yeah well. The Dude abides.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Biff schreef op vrijdag 25 februari 2011 @ 15:05:
[...]


En de Mini, en de Macbook Airs, maar ach ja 'zo goed als verdwenen' bekt zo lekker he.
Zowel de Mac Mini alswel de MacBook (non-Pro) kunnen elk moment een update verwachten. De Mac Pro en de iMac zitten ook tegen het einde van hun cyclus aan, dus kunnen binnenkort ook een update verwachten. Dan blijft alleen nog de MacBook Air over, die waarschijnlijk ergens september/oktober dit jaar een update mag verwachten. Tegen die tijd zullen we zien hoeveel nVidia er nog in Appleproducten zit.

http://buyersguide.macrumors.com/

Linkje voor de algemene product-cycly van de Apple-producten. Het feit dat de Pro ondertussen AMD GPU's heeft gekregen, kan je alleen maar doen laten vermoeden dat de andere producten binnenkort zullen volgen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op vrijdag 25 februari 2011 @ 14:25:
Het is ook een eenmans bedrijf vergeleken met die andere bedrijven he.
Ik weet dus wel waar ik het over hebt. Die andere bedrijven zijn allemaal gefuseerde bedrijven, of bedrijven die strak met elkaar zamenwerken om te verdienen. Ik vind nvidia dus veel verdienen voor zijn doen.
En hou toch eens op met dat je weet niet waar je het over hebt ik word daar agressief van, en vind dat vervelend ovrkomen je bent een mod nog wel.
Het is geen eenmansbedrijf. Ook niet vergeleken met die anderen. Gewoon beursgenoteerd net als de rest. Een vd founders is CEO maar dat geldt ook voor Apple.
Het is geen mod maar hij benchmarked voor tweakers. Staat duidelijk in zijn posts dus ja soms lijkt het wel degelijk of je niet weet waar je het over hebt.

nVidia is een gezond bedrijf met veel cash, echter in deze business verdampt cash als sneeuw onder de zon . En soms hoef je maar 1 keer de slag te missen en dan ben je al bijna out of business.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Overigens heeft nVidia ooit ook 3DFX overgenomen (om maar een voorbeeld te noemen) om zijn eigen producten mee te versterken. Het is een gewone gang van zaken, nVdia is niets anders dan die andere bedrijven op dat punt.

Acties:
  • 0 Henk 'm!

Verwijderd

NVIDIA GeForce GTX 590 in March and AMD Radeon HD 6990 in April as high-end graphics heat up


http://www.slashgear.com/...raphics-heat-up-25136183/

Acties:
  • 0 Henk 'm!

Verwijderd

Help!!!! schreef op vrijdag 25 februari 2011 @ 19:05:
[...]

Het is geen eenmansbedrijf. Ook niet vergeleken met die anderen. Gewoon beursgenoteerd net als de rest. Een vd founders is CEO maar dat geldt ook voor Apple.
Het is geen mod maar hij benchmarked voor tweakers. Staat duidelijk in zijn posts dus ja soms lijkt het wel degelijk of je niet weet waar je het over hebt.

nVidia is een gezond bedrijf met veel cash, echter in deze business verdampt cash als sneeuw onder de zon . En soms hoef je maar 1 keer de slag te missen en dan ben je al bijna out of business.
Laat ik het zo zeggen het is een kleiner bedrijf dan de rest. AMD en intel

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Verwijderd schreef op zaterdag 26 februari 2011 @ 12:09:
[...]


Laat ik het zo zeggen het is een kleiner bedrijf dan de rest. AMD en intel
Maar AMD en Intel met nVidia vergelijken is ook weer appels met peren vergelijken aangezien hun CPU's en chipsets maken en daar de markt veel groter voor is dan discrete GPU's. Je zou nVidia met de GPU tak van AMD moeten vergelijken dunkt mij zo.

Nou heeft nVidia ook nog Tesla Quadro en ARM maar dat tikt ook niet zo hard aan vergeleken met x86 heb ik het idee.

[ Voor 12% gewijzigd door Xenomorphh op 26-02-2011 13:52 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Gait
  • Registratie: Maart 2006
  • Nu online
Hier staat een verouderde Medion PC, mijn vermoeden is dat de gpu kapot aan het gaan is.
Het gaat om een Medion MD8828 PC met een 8600GS.
Maar hoe weet ik nu zeker dat het aan de GPU ligt en niet aan het mobo?

Het beeld gaat naar verloop van tijd raar doen en vastlopen. Helemaal wanneer er een spel gespeeld wordt.
En de GPU wordt ontzettend heet.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Is voor jou nieuws, maar geen algemeen nieuws :p.
Lees dit 48 pagina's tellende topic maar, dan zul je er vanuit gaan dat het je GPU is.

Acties:
  • 0 Henk 'm!

  • Gait
  • Registratie: Maart 2006
  • Nu online
Ja sorry, maar een heel topic er voor openen leek me ook niet goed.
Alleen misschien had ik wat andere zoekwoorden moeten gebruiken.

Wel heel erg bedankt!

Acties:
  • 0 Henk 'm!

  • Max Hunt
  • Registratie: Oktober 2004
  • Laatst online: 22-08 14:03
Volgends de fudzilla vertaling van dit artikel over de AMD 6990 zijn de release data:
- 8 Maart de 6990
- In de week daarna de 590

Ik heb geen idee over de betrouwbaarheid van dit artikel, maar het ziet er uitgebreid / goed uit. Het lijkt er sterk op dat de nieuwe dual-gpu's over de 300W heen gaan komen.

[ Voor 5% gewijzigd door Max Hunt op 01-03-2011 15:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nee, ze zetten het knopje eerst van de fabriek af op de '300 watt' grens, zodat ie wel aan die grens voldoet. Maar vervolgens kan iedereen het knopje omzetten en gaat de kaart fluitend over de 300watt heen. Beetje hypocriet gedoe om wel aan zich wel aan de 300watt grens te houden.

Acties:
  • 0 Henk 'm!

Verwijderd

Het is niet verplicht om je aan die gens te houden. Het gaat enkel om dat pcie labeltje te mogen dragen.
Verder vid ik de wattage's niet zo erg bij top of te bill kaarten.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op dinsdag 01 maart 2011 @ 16:36:
Het is niet verplicht om je aan die gens te houden. Het gaat enkel om dat pcie labeltje te mogen dragen.
Verder vid ik de wattage's niet zo erg bij top of te bill kaarten.
Dat labeltje gaat echter wel even wat verder dan een plakkertje. Het draait ook om garanties, om levensduur van componenten die ook onredig veel kunnen worden belast. Het gaat om standaarden die er voor zijn om dingen te laten werken.

Een superkaart die in minimale oplages wordt gemaakt kan ik nog wel inkomen. Denk aan de Asus Mars/Ares kaarten, of Sapphire's en XFX's HD5870X2 kaarten. Overigens liet de eerste Asus variant, de Mars (GTX480X2) ook maar al te goed zien dat problemen om de hoek liggen. Oververhitting en falende kaarten hebben Asus tot een behoorlijke redesign gebracht voor de Ares.

NVidia zou er goed aan doen om in ieder geval een GTX590 op de markt te zetten die wel gegarandeerd binnen de PCI-E specs blijft, zoals de lager gekloklte HD6990 dat doet. Een overklok-model kan dan wellicht nog voor de performancecrown gaan.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind dat persoonlijk helemaal niet nodig. Het zou indd wel leuk zijn voor de rest dan maar
maar ik vind het maar dom gezeur dat een kaart geen 100watt meer zou mogen gebruiken dan 300watt en ook gewoon goed in ieder systeem kan werken en de garanties behoud. Deze kaarten zijn toch voor de mensen die alleen naar de performance kijken, de rest laat hun koud. Ik heb liever dat er een dure snelle kaart komt die ook echt lekker veel performance geeft, dan een kaar die maar amper sneller is dan de gtx580 en ook duur kost. AMD zit trouwens ook over de 300watt heeen nvidia zou dus dom zijn om niet het zelfde te doen want dan krijgen ze niet die performance crown

[ Voor 11% gewijzigd door Verwijderd op 01-03-2011 17:45 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

dahakon schreef op dinsdag 01 maart 2011 @ 17:27:
[...]


Dat labeltje gaat echter wel even wat verder dan een plakkertje. Het draait ook om garanties, om levensduur van componenten die ook onredig veel kunnen worden belast. Het gaat om standaarden die er voor zijn om dingen te laten werken.
Precies.
Een superkaart die in minimale oplages wordt gemaakt kan ik nog wel inkomen. Denk aan de Asus Mars/Ares kaarten, of Sapphire's en XFX's HD5870X2 kaarten. Overigens liet de eerste Asus variant, de Mars (GTX480X2) ook maar al te goed zien dat problemen om de hoek liggen. Oververhitting en falende kaarten hebben Asus tot een behoorlijke redesign gebracht voor de Ares.
Daarom is het dus goed dat de 6990 standaard met de bios optie geleverd wordt dat de standaard niet overschreden wordt.
NVidia zou er goed aan doen om in ieder geval een GTX590 op de markt te zetten die wel gegarandeerd binnen de PCI-E specs blijft, zoals de lager gekloklte HD6990 dat doet. Een overklok-model kan dan wellicht nog voor de performancecrown gaan.
Het lijkt me dat de AMD oplossing een goede is. Zoiets zou nVidia ook moeten doen.

Denk verder dat nVidia er niet aan ontkomt om haar kaart boven de 300W uit te laten komen om competetief te zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op dinsdag 01 maart 2011 @ 17:27:
[...]


Dat labeltje gaat echter wel even wat verder dan een plakkertje. Het draait ook om garanties, om levensduur van componenten die ook onredig veel kunnen worden belast. Het gaat om standaarden die er voor zijn om dingen te laten werken.

Een superkaart die in minimale oplages wordt gemaakt kan ik nog wel inkomen. Denk aan de Asus Mars/Ares kaarten, of Sapphire's en XFX's HD5870X2 kaarten. Overigens liet de eerste Asus variant, de Mars (GTX480X2) ook maar al te goed zien dat problemen om de hoek liggen. Oververhitting en falende kaarten hebben Asus tot een behoorlijke redesign gebracht voor de Ares.

NVidia zou er goed aan doen om in ieder geval een GTX590 op de markt te zetten die wel gegarandeerd binnen de PCI-E specs blijft, zoals de lager gekloklte HD6990 dat doet. Een overklok-model kan dan wellicht nog voor de performancecrown gaan.
2. hd5970
3. full-spec gtx285 x2 op een kaart, dus geen gtx480x2
4. zowel de gtx590 en hd6990 gaan over de pci-e specs heen, echter zit er software op welke het verbruik nog enigzins weet in te perken. (om het pci-e label te mogen dragen)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op dinsdag 01 maart 2011 @ 18:21:
2. hd5970
3. full-spec gtx285 x2 op een kaart, dus geen gtx480x2
4. zowel de gtx590 en hd6990 gaan over de pci-e specs heen, echter zit er software op welke het verbruik nog enigzins weet in te perken. (om het pci-e label te mogen dragen)
Mars was idd GTX285X2 (nog altijd goed voor ver over de 400Watt TDP), vergissing in uw voordeel. Ik noemde Ares en de andere varianten van XFX en Sapphire echter met opzet HD5870X2, vanwege de kloksnelheid, waarnaast ook nog het extra geheugen mee kan spelen (voor zover mij bekent is er geen normale HD5970 met 4GB (2x2GB)geheugen, maar zijn er wel normale HD5870's met 2GB geheugen).

Punt 4 is dus sowieso deels onjuist, omdat de normale HD6990 met 'standaard' setting 300Watt trekt en met Powertune +20% richting de 375 gaat. Maar powertune is een feature zoals gemakkelijk overklokken van HD5970 een feature was. Standaard voldoet de kaart dus nog steeds aan de specs.
Pagina: 1 ... 6 ... 10 Laatste

Dit topic is gesloten.