[nieuws] Nvidia en de toekomst

Pagina: 1 2 3 Laatste
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Topicstarter
Modbreak:discussie afgesplitst van [Algemeen] nVidia Nieuws & Discussie Topic - Deel 39 en 40
Nou kan ik toch niet anders zeggen dat die kaart er in het groen mooier uitziet als in het rood :+

Afbeeldingslocatie: http://i36.tinypic.com/344a651.png ook wel leuk :+

[ Voor 24% gewijzigd door TERW_DAN op 15-10-2009 11:34 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:42
Zou triest zijn, eerst DSB en nou Nvidia. :'(

Ik blijf gewoon bidden dat ze weer een kickass videokaart uitbrengen. Eigenlijk moeten ze daar ook bij blijven en geen chipsets meer maken en focussen op dingen zoals de Tegra. Ik wil een kickass media player. :P

Acties:
  • 0 Henk 'm!

Verwijderd

Tjah het zit gewoon allemaal niet mee, zo erg als nu heeft ati het geloof ik nog nooit gehad mede door
de crisis. En als er straks geen concurentie meer is is het helemaal waardeloos voor de games onder ons

Acties:
  • 0 Henk 'm!

Verwijderd

Nvidia red het nog wel een tijd hoor. Maar het is wel de broekriem aantrekken. En misschien eens wat trots doorslikken ;).

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Ach, we gaan het wel merken... ik kan me bijna niet voorstellen dat nV 3 jaar zou hebben zitten slapen sinds G80 (GT200 was ook 'slechts' een doorontwikkeling op G80 technologie), dus er zal vast wel wat in de pipeline zitten. Verbaast me wel bijzonder dat ze hun voorsprong op ATi destijds niet hebben kunnen vasthouden.
Maargoed, het is een geschiedenis van ze stuivertje wisselen, en dat is denk ik uiteindelijk maar goed ook: concurrentie houdt de markt scherp & vers ;)

[ Voor 6% gewijzigd door Cheetah op 13-10-2009 13:05 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Axelfoley007
  • Registratie: Juni 2007
  • Laatst online: 10:59
http://www.hardware.info/...ekt_dolk_in_rug_partners/

Waarschijnlijk auw voor de nVidia only partners :/

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Ik wilde hem net posten... belangrijkste quote uit het stuk:
Het begint er inmiddels alle schijn van de krijgen dat nVidia bij de grote tekorten van de chips liever haar grote OEM-klanten tevreden houdt dan haar partners voor de losse verkoop.
OEM-PC's kunnen er nog makkelijk zat mee uitgerust worden tot in Q1 2010, de partners hebben grote moeite om kaarten te krijgen.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Het interessante is dat OEMs ze dus wel nog zonder problemen kunnen leveren.
Volgens mij heeft nV een grote fout gemaakt bij de allocatie-inschatting/planning bij TSMC... pretty stupit...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Stond ook al in Charlie zijn artikel :
A manufacturer tries to time things to stop making the older ones just in time for the debut of the newer versions. The term for this is product planning. If they screw up their product planning, there will be a gap where they don't have product on store shelves, and that is very bad. Far worse however is if they time it wrong the other way, and have tons of product on store shelves.
beetje gokwerk dus...

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 13:42

pino85

Im just a Bird in the Sky

Voor mij zijn paar zaken wel helder

NVIDIA zorgt er zelf deels voor dat de negatieve publiciteit in de lucht blijft en mensen gaan twijfelen.
Het zou beter zijn als ze ipv een kreet als dit jaar komen we nog met de kaart gewoon een datum naar buiten brengen of iig een maand of een gedeelte daarvan..

In mijn omgeving worden mensen die vanaf vroeger gewoon NVIDIA hadden er niet geruster op, +-10 zeiden me, ja normaal is NVIDIA er als de kippen bij als er een nieuwe kaart zit aan te komen van ze, doelend op het naar buiten brengen als datum of richtlijn en niet zoals nu * dit jaar komt hij*,nu hoor je gewoon weinig tot niets enkel onduidelijkheid..
Ze overwegen dus om toch maar naar ATI over te stappen, al ben ik ook van mening dat ATI min of meer een paper launch heeft gedaan.. want de levering van diverse kaartjes uit hun nieuwe serie is ook niet je van het maar goed dat terzijde.. ze zijn wel verkrijgbaar op dit moment en NVIDIA zijn kaarten nog niet.

Ik zelf weet het ook niet, veel sites spreken elkaar tegen, wat is nu de echte waarheid?
Als we bij hw.info kijken, dan zijn berichten als nVidia steekt dolk in rug partners? ook niet niets.
En zo zijn er op andere sites meer van dit soort teksten

- Gaan ze op een faillissement af?
- Hebben ze gewoon slechte yields en meer niet?
- Stellen ze een duidelijke bekendmaking uit omdat ze weten dat ze problemen hebben? en een deadline wel eens zouden kunnen missen
- Is het een strategie wat ze nu doen? weinig zeggen en opeens iedereen verrassen met de nieuwe kaart?
- Gaat alles gewoon volgens schema?

Allemaal vragen en niemand weet het echt behalve NVIDIA en die zeggen weinig behalve dit jaar komt de kaart.

Misschien kraam ik wel onzin uit en is wat ze doen een aparte vorm van marketing( schade beperking) om maar geen concrete duidelijkheid te verschaffen aan de consument, maar ik heb er geen goed gevoel over..
Heb het idee dat mensen zo veel gaan twijfelen dat er meer en meer nu een kaart gaan aanschaffen en niet langer willen wachten.. dat hoor ik altans in mijn omgeving, weet niet hoe dat bij jullie is?


Maar wat me wel zeker overdreven lijkt zijn kreten als ze gaan failliet

Kan me iig niet voorstellen dat zo'n groot imperium zou vallen, dat lijkt me wat te ver gaan, maar goed
Hoop alleen wel dat ze zsm wat meer duidelijkheid geven aan hun klanten want die hebben daar mijn ziens ook recht op onderhand, met al die negatieve publiciteit waardoor men enkel gaat twijfelen of ze nog wel willen wachten of gewoon naar ATI overstappen.. wat zou kunnen resulteren dat NVIDIA straks een nog grotere groep mensen al kwijt is geraakt omdat die al een kaart hebben aangeschaft en dus nog meer schade op loopt

Ach misschien word alles ook wel opgeblazen op allerlei websites, maar misschien zit er een kern van waarheid in of is het gewoon de waarheid, dat NVIDIA niet alles heeft draaien zoals ze zouden willen lijkt me wel duidelijk, en dat er schade is nu op meerdere vlakken dat lijkt me ook wel duidelijk.. de vraag is alleen in welke mate zijn de problemen er nu echt, als consument ben je afhankelijk van wat sites als nieuws berichtten.. het probleem is alleen wat ik iig zie dat er zo enorm veel sites zijn die A zeggen en er ook zijn die B zeggen, je weet dus nog niets, vervelend is dit.. hoop dat er snel duidelijkheid komt :)

[ Voor 27% gewijzigd door TERW_DAN op 15-10-2009 11:34 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

Verwijderd

pino22 schreef op donderdag 15 oktober 2009 @ 03:16:

- Gaan ze op een faillissement af?
- Hebben ze gewoon slechte yields en meer niet?
- Stellen ze een duidelijke bekendmaking uit omdat ze weten dat ze problemen hebben? en een deadline wel eens zouden kunnen missen
- Is het een strategie wat ze nu doen? weinig zeggen en opeens iedereen verrassen met de nieuwe kaart?
- Gaat alles gewoon volgens schema?

Allemaal vragen en niemand weet het echt behalve NVIDIA en die zeggen weinig behalve dit jaar komt de kaart.
Creëer chaos en regeer. :+

Ik ben het met je eens dat nVidia niet veel naar buiten brengt en dat de mensen met VEEEEEL vragen zitten. Ik hoop voor ze dat ze met iets moois komen. Anders hebben ze denkelijk een klein probleempje

Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
pino22 schreef op donderdag 15 oktober 2009 @ 03:16:


Maar wat me wel zeker overdreven lijkt zijn kreten als ze gaan failliet

Kan me iig niet voorstellen dat zo'n groot imperium zou vallen, dat lijkt me wat te ver gaan, maar goed
Ik heb geen idee of nVidia wel of niet op omvallen staat maar grote imperiums komen en gaan. ;)

Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
NV verdwijnt heus niet zo snel. Ze hebben nog genoeg opties over mochten ze echt in zwaar weer terecht komen. Als je ziet dat AMD nog steeds bestaat, zelfs terwijl ze al jaren verlies lijden... dan denk ik niet dat NV voorlopig iets te vrezen heeft. Okay, op de highend GPU markt doen ze het nu wat minder... maar op NV HQ zit een mannetje die geen genoegen neemt met de tweede plek. Die heeft vast al met z'n vuisten op tafel geslagen en gezegd "Dit gebeurt me niet meer!".

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

@Pino: meest logische conclusie in de huidige situatie: nV had in de planning dat Fermi nu op dit moment al gelanceerd zou zijn, en heeft daardoor te weinig wafers bij TSMC besteld om de levering van GT200's op peil te houden. Daardoor valt er nu langzamerhand een gat (GT200-levering wordt naar planning afgebouwd, terwijl de vervanging - die er volgens planning al had moeten zijn - er nog niet is).

nV gaat echt niet failliet de komende tijd. Hun kaartverkopen zijn de afgelopen 3 jaar zeer sterk geweest, en sinds G80 hebben ze nauwelijks hoeven innoveren omdat de markt - lees: de concurrentie - dit niet vereiste (ja GT200, maar dat is feitelijk een G80 op steroiden)... dus ze hebben waarschijnlijk zat reserve kunnen opbouwen.
Als je bedenkt dat AMD al jaren achtereen verlies noteert en het toch volhoudt dan zie ik nV de komende jaren echt niet kopje onder gaan. Kan zijn dat het wat magerder voor ze zal worden dan de afgelopen 3 jaar, maar dood zijn ze vrm nog lang niet.
Jejking schreef op woensdag 14 oktober 2009 @ 21:38:
Wat betreft performance/watt vind ik ATi toch iets de overhand hebben. In de ruststand komt nV prima mee omdat het de NVIO-chip heeft die 2D-zaken afhandelt en waardoor de meest stroomverbruikende chipdelen uitgaan. Onder load moet alles echter aan en schiet het verbruik omhoog. Ga maar na, onder load is nV een stukje minder zuinig dan ATi, afhankelijk van het model.
Even afgezien van de 58x0 nu, kijkend naar de vorige generatie: In ruststand komt nV "prima mee"? In ruststand verslaat nV de AMD's. En gezien een kaart het grootste deel van zijn tijd in 2D doorbrengt is dat het meest belangrijk.
Under load pakken de nV kaarten inderdaad meer Watt's maar daar zijn de prestaties dan ook naar. Zeker als je bijvoorbeeld de 4890 vergelijkt met de GTX285, de laatste presteert ook gewoon aanmerkelijk beter, en die extra prestaties vertalen zich bij lange na niet naar een percentueel even hoge toename in Watt's. Performance per Watt is bij nV dus beter. Voor de 4870X2 vs GTX295 geldt precies hetzelfde trouwens...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Ik krijg steeds meer het idee dat nvidia de game markt met de high end kaarten op
de 2e plaats zien en cuda gpgpu op de eerste plaatst, houd natuurlijk niet in dat deze funties niet voor gaming gelden. Sterker nog nvidia ziet de game markt niet als hoofdzaak maar meer als bijzaak want hier valt niet
het meeste geld in te verdienen

[ Voor 24% gewijzigd door Verwijderd op 15-10-2009 11:28 ]


Acties:
  • 0 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 09-07 11:56

Dani86

AeroGeek

En de RSX en Ion dan? Verdienen ze daar niet een hoop geld mee?

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • 0 Henk 'm!

Verwijderd

Dat zeg ik net de gaming markt verdienen ze niet het meest aan ;)

[ Voor 5% gewijzigd door Verwijderd op 15-10-2009 11:46 ]


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 13:42

pino85

Im just a Bird in the Sky

@ DigitalTux

Ja ik hoop ook dat ze wel snel openheid van zaken gaan geven aan de consument die hun trouw zijn geweest tot op heden want steeds meer mensen twijfelen nu of ze toch een ATI gaan kopen of wachten op NVIDIA

@naluh

Natuurlijk komen en gaan grote bedrijven maar in dit geval wetende hoe ATI/AMD het al jaren volhouden als kleine speler gezien kan ik het me niet voorstellen en zo zijn er nog veel meer voorbeelden

@Cj

Ik denk ook niet dat ze omvallen al lees en hoor je het wel her en der, maar het lijkt me niet logisch gezien wat ook Cheetah terecht aan geeft, ATI is er nog steeds, zat jaren lang in moeilijk weer, men zal NVIDIA op de been houden al moet het uit andere geldschieters komen?
Het word natuurlijk ook opgezweept in de pers

Stel dat ze wel omvallen dan is de vraag wat dan he, Mensen roepen dan Intel koopt ze op( zou kunnen) maar dan halen ze zich veel problemen op de hals

@ cheetah

Het zou een logische verklaring zijn maar we weten ook dat het maar de vraag is of dit wel de verklaring is.
zeker gezien de honderden * geruchten* sommige die deels wel worden onderbouwd.
Ach ja het is enkel speculeren en niemand weet exact hoe het zit, 2009 was tot op heden nog niet erg interessant op dit gebied maar ik moet zeggen, het is nu wel op zo goed als elke site nieuws, elke dag wel weer een Item over NVIDIA
Wij kunnen enkel volgen maar nog objectief alles verwerken wat waar is en wat niet word steeds moeilijker vanwege de tegenstrijdigheden die naar buiten komen.
Moet zeggen dat tweakers nog relatief rustig is ook met hun teksten tov andere sites, dat kan ik wel waarderen
Zeker als je bijvoorbeeld de 4890 vergelijkt met de GTX285, de laatste presteert ook gewoon aanmerkelijk beter, en die extra prestaties vertalen zich bij lange na niet naar een percentueel even hoge toename in Watt's. Performance per Watt is bij nV dus beter. Voor de 4870X2 vs GTX295 geldt precies hetzelfde trouwens...
Dat klopt alleen dan de vraag die ook voor velen belangrijk was/is hoe zit het met de prijs die je betaald voor de prestaties, daar kon ATI dacht ik wel goed in mee komen, maar die kaarten van NVIDIA zijn idd beter kwa wattage in 2d modus waar je pc het meeste in staat lijkt me.

@ DR LUP

Dat lees je her en der ook over cuda gpgpu, dat men zich daar op gaat richten..
En toch lijkt het me licht uitgedrukt onverstandig om het gaming aspect al die klanten te laten vallen..
Dat is toch een grote inkomstenbron lijkt me.. en wat de grootste inkomsten bron is geen idee ik hebe r geen cijfers van( misschien dat een ander een overzichtje kan schetsen)

Omdat ik niet zo thuis ben in het cuda verhaal een korte vraag, heeft ATI ook niet een soort gelijke standaard op dat gebied alleen dan openlijk?
CUDA is enkel en alleen voor NVIDIA am i correct?
WIl er mee zeggen als ik als leek dat goed heb begrepen, kan het dan niet zo zijn dat het uiteindelijk negatief kan uit pakken als je iets niet open stelt maar voor jezelf houd?
Nogmaals als ik het helemaal verkeerd heb begrepen over ATI my bad

[ Voor 64% gewijzigd door pino85 op 15-10-2009 11:59 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cheetah schreef op donderdag 15 oktober 2009 @ 10:58:
@Pino: meest logische conclusie in de huidige situatie: nV had in de planning dat Fermi nu op dit moment al gelanceerd zou zijn, en heeft daardoor te weinig wafers bij TSMC besteld om de levering van GT200's op peil te houden. Daardoor valt er nu langzamerhand een gat (GT200-levering wordt naar planning afgebouwd, terwijl de vervanging - die er volgens planning al had moeten zijn - er nog niet is).
Of:
nVidia wist al dat ze de planning (bij lange na) niet gingen halen en dat gezien de nieuwe chips van ATI het geen sense meer maakte om hun eigen chips nog te produceren.
nV gaat echt niet failliet de komende tijd. Hun kaartverkopen zijn de afgelopen 3 jaar zeer sterk geweest, en sinds G80 hebben ze nauwelijks hoeven innoveren omdat de markt - lees: de concurrentie - dit niet vereiste (ja GT200, maar dat is feitelijk een G80 op steroiden)... dus ze hebben waarschijnlijk zat reserve kunnen opbouwen.
Nou ja "niet hebben hoeven innoveren" :? Ze hebben (behalve op het gebied van GPGPU waarvan we nog maar moeten zien in hoeverre dit hun voldoende vruchten op gaat leveren) ongeveer 3 jaar stil gestaan. Tov de concurrentie: geen DX10.1, grote dure chips. En met Fermi wordt m.n. dat laatste niet beter.
Ze hadden beter gewoon wel moeten blijven innoveren dan hadden ze er nu denk ik toch echt een stuk beter voor gestaan.
[...]
Even afgezien van de 58x0 nu, kijkend naar de vorige generatie: In ruststand komt nV "prima mee"? In ruststand verslaat nV de AMD's. En gezien een kaart het grootste deel van zijn tijd in 2D doorbrengt is dat het meest belangrijk.
Under load pakken de nV kaarten inderdaad meer Watt's maar daar zijn de prestaties dan ook naar. Zeker als je bijvoorbeeld de 4890 vergelijkt met de GTX285, de laatste presteert ook gewoon aanmerkelijk beter, en die extra prestaties vertalen zich bij lange na niet naar een percentueel even hoge toename in Watt's. Performance per Watt is bij nV dus beter. Voor de 4870X2 vs GTX295 geldt precies hetzelfde trouwens...
Uhmm de GTX285 presteert echt niet "aanmerkelijk beter" dan de 4890.
Neem bijvoorbeeld deze test in Crysis Warhead, algemeen gezien als een game die beter op nVidia loopt:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=17

edit: rest vd test ook even bekeken en regelmatig is er geen significant verschil maar er zijn idd wel een aantal games in die test waar de 285 duidelijk beter is. Echter imo niet zodanig dat het het grote prijsverschil rechtvaardigde....

[ Voor 4% gewijzigd door Help!!!! op 15-10-2009 12:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Verwijderd

Als Nintendo de nVidia Tegra geruchten bevestigd dan zie je dat aandeel straks weer omhoog schieten ook al komt de opvolger van de DS waarschijnlijk pas aan het einde van 2010.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Help!!!! schreef op donderdag 15 oktober 2009 @ 12:26:
Of:
nVidia wist al dat ze de planning (bij lange na) niet gingen halen en dat gezien de nieuwe chips van ATI het geen sense meer maakte om hun eigen chips nog te produceren.
Lijkt mij vrij onwaarschijnlijk. Partners verkochten nog voldoende nV top-end kaarten, en de partners hebben ze nog bij bosjes in back-order staan. Als nV die chips nu had gehad hadden ze echt nog wel verkocht.
Nou ja "niet hebben hoeven innoveren" :? Ze hebben (behalve op het gebied van GPGPU waarvan we nog maar moeten zien in hoeverre dit hun voldoende vruchten op gaat leveren) ongeveer 3 jaar stil gestaan. Tov de concurrentie: geen DX10.1, grote dure chips. En met Fermi wordt m.n. dat laatste niet beter.
Ze hadden beter gewoon wel moeten blijven innoveren dan hadden ze er nu denk ik toch echt een stuk beter voor gestaan.
Een stuk beter in welk opzicht? Ze hebben bakken geld aan R&D uitgespaard, omdat hun G80 derrivaten toch wel beter presteerden dan ATi's R600 derrivaten. Ik ken niet veel bedrijven die zich de luxe kunnen veroorloven 3 jaar bijna zorgeloos in te cashen op globaal gezien 1 basisontwerp. Hun pech is dat ze achterop zijn geraakt met Fermi... maar aan de andere kant is het prima dat ze weer ff op hun staart worden getrapt.
Uhmm de GTX285 presteert echt niet "aanmerkelijk beter" dan de 4890.
Neem bijvoorbeeld deze test in Crysis Warhead, algemeen gezien als een game die beter op nVidia loopt:
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=17
De Tweakers review laat toch wel een aanmerkelijk ander beeld zien tussen de 285 en de 4890: reviews: AMD laat ATI HD 5870 met DirectX 11 los
En zo heb ik er wel veel meer gelezen....

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
pino22 schreef op donderdag 15 oktober 2009 @ 11:46:

@naluh

Natuurlijk komen en gaan grote bedrijven maar in dit geval wetende hoe ATI/AMD het al jaren volhouden als kleine speler gezien kan ik het me niet voorstellen en zo zijn er nog veel meer voorbeelden
Klopt, maar nVidia is niet AMD. AMD wordt ook min of meer 'gered' door ATI op het moment. Want op CPU gebied hobbelen ze er maar wat achteraan. Intel is gewoon op de consumentenmarkt praktisch overal hun meerdere.

Er zijn ook genoeg voorbeelden van bedrijven in de IT te vinden die het fantastisch deden maar een paar jaar later uit de markt gewerkt zijn. En een nVidia wat uit de chipsetmarkt stapt en uit de GPU markt, daar heb ik als prijsbewuste consument niks aan. Dat kan ook nog, dat het bedrijf wel blijft bestaan in een of andere vorm maar in heel andere markten gaat opereren.

Specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Cheetah schreef op donderdag 15 oktober 2009 @ 13:03:
[...]
Lijkt mij vrij onwaarschijnlijk. Partners verkochten nog voldoende nV top-end kaarten, en de partners hebben ze nog bij bosjes in back-order staan. Als nV die chips nu had gehad hadden ze echt nog wel verkocht.
Ik vraag t me toch af hoor. Zouden de partners die kaarten winstgevend kunnen verkopen zonder een flinke prijsverlaging nu de 58xx serie er is?
Ik vind het waarschijnlijker dat nVidia een prijsverlaging naar de partners niet wil ondersteunen omdat ze dan zelf verlies lijden... . Soms is verstandig om zelfs bij verlies door te produceren om nog iig een deel van de kosten terug te verdienen. Het lijkt erop dat zelfs dat hier geen zin meer had
[...]
Een stuk beter in welk opzicht?
Ik begrijp dat jij vind dat nVidia er niet een stuk beter voor zou moeten staan als marktleider. :?
Het imago van nvidia is sinds de 4870 introductie hard onderuit gegaan. Plus dat ATI veel meer bang for buck levert wat met Fermi vrijwel zeker niet zal veranderen.
Ze hebben bakken geld aan R&D uitgespaard, omdat hun G80 derrivaten toch wel beter presteerden dan ATi's R600 derrivaten. Ik ken niet veel bedrijven die zich de luxe kunnen veroorloven 3 jaar bijna zorgeloos in te cashen op globaal gezien 1 basisontwerp.
Op R&D besparen is nooit slim als techcompany. Ze hebben denk ik ook niet bespaard maar (exorbitant) veel geinvesteerd in GPGPU, iets wat waarschijnlijk toekomst heeft maar waarvan het de vraag is of ze niet (veel)te vroeg zijn. Nu laten ze al een hele tijd hun cashcow (de gamers) veel meer betalen voor iets waar ze niks aan hebben.
Daarnaast hebben ze die besparing, als die dus al bestaat, weer teniet gedaan door verlies aan marktaandeel, imago, en relatief te dure productiekosten.

Of ze beter presteerden hangt nogal af van wat je wilt vergelijken. Sec de 4870 tegen de 260/280 of de prijs/prestatie.
Hun pech is dat ze achterop zijn geraakt met Fermi... maar aan de andere kant is het prima dat ze weer ff op hun staart worden getrapt.
Is het pech of is het een slechte planning/execution/visie.
[...]
De Tweakers review laat toch wel een aanmerkelijk ander beeld zien tussen de 285 en de 4890: reviews: AMD laat ATI HD 5870 met DirectX 11 los
En zo heb ik er wel veel meer gelezen....
Ongetwijveld heb je er meer gelezen maar, ik verwijs toch liever naar Anandtech dan naar Tweakers als ik een review als referentie aanhaal....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • skelleniels
  • Registratie: Juni 2005
  • Laatst online: 13:51
Met hun G80 hadden ze wel een zeer sterke kaart indertijd omdat de 2900XT maar niet wilde komen. Toen hij er uiteindelijk was, had hij ook nog eens brakke performantie. Met hun 8800 gt heeft Nvidia ook een sterke stap gemaakt. Maar eigenlijk heeft ATI die overgenomen door zich op de budgetmarkt te richten. Ik bedoel maar, een kaart van 150 euro(4870 1 GB) die meekan met de snelste kaarten van Nvidia. Vroeger was Nvidia sterk omdat het gewoon was dat high-end kaarten 500+ euro kostten. Nu heb je voor 300 euro het juweeltje(5870) van ATI.

http://specs.tweak.to/16567


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Help!!!! schreef op donderdag 15 oktober 2009 @ 14:44:
Ik vraag t me toch af hoor. Zouden de partners die kaarten winstgevend kunnen verkopen zonder een flinke prijsverlaging nu de 58xx serie er is?
Ik vind het waarschijnlijker dat nVidia een prijsverlaging naar de partners niet wil ondersteunen omdat ze dan zelf verlies lijden... . Soms is verstandig om zelfs bij verlies door te produceren om nog iig een deel van de kosten terug te verdienen. Het lijkt erop dat zelfs dat hier geen zin meer had
Ik heb het wel meer gezegd, maar zelfs de Geforce FX5800 en FX5900 verkochten, en dat terwijl de 9700&9800 Pro goedkoper waren en een stuk beter presteerden. Daarnaast kan AMD de 58xx serie nog niet in volume leveren. nVidia zou zeker hebben verkocht, zelfs aan het huidige prijspeil. De chips die de partners nu in backorder hebben staan zouden tegen eerder afgeproken prijzen verkocht zijn. Zij balen enorm dat die chips niet leverbaar zijn: denk je dat ze dat zouden doen als ze hadden gedacht deze niet te kunnen gaan wegzetten bij de klant?
Ik begrijp dat jij vind dat nVidia er niet een stuk beter voor zou moeten staan als marktleider. :?
Het imago van nvidia is sinds de 4870 introductie hard onderuit gegaan. Plus dat ATI veel meer bang for buck levert wat met Fermi vrijwel zeker niet zal veranderen.
nV imago gard onderuit sinds de 4870 :? Veel meer bang for buck? Waar heb je het over? De 4870 presteert op het niveau van de GTX260, die op vrijwel exact hetzelfde prijspeil zit. De GTX280/285 kost meer, maar presteert ook gewoon een stuk beter. Zefde geldt voor 4870X2 vs GTX295. Het heet niet voor niets high-end... daarbij betaal je gewoon een stuk meer voor de laatste 20-30tal %en extra performance.
Dat een midrange part meer bang for buck geeft en een betere price/performance heeft dan een high-end part is al ongeveer net zo oud als de wereld... en in ieder geval net zo oud als de eerste computers ;)
Op R&D besparen is nooit slim als techcompany. Ze hebben denk ik ook niet bespaard maar (exorbitant) veel geinvesteerd in GPGPU, iets wat waarschijnlijk toekomst heeft maar waarvan het de vraag is of ze niet (veel)te vroeg zijn. Nu laten ze al een hele tijd hun cashcow (de gamers) veel meer betalen voor iets waar ze niks aan hebben.
Daarnaast hebben ze die besparing, als die dus al bestaat, weer teniet gedaan door verlies aan marktaandeel, imago, en relatief te dure productiekosten.
Ik weet niet hoe je het doet, maar je kunt blijkbaar bij nV in de portemonnee kijken?

Als je als markt- en prestatieleider maar a-la-dol blijft doorontwikkelen zonder naar de markt te kijken schiet je gewoon jezelf in je voet. Je gaat dan overbodige productcycli op de markt brengen die je bakken geld kosten aan R&D, terwijl de markt(concurrentie) dit niet vereist. Ik wil het met je eens zijn dat het niet slim van nV is geweest om Fermi nu niet af te hebben, maar bedrijfstechnisch was het voortbouwen op de G80-architectuur zolang in de concurrentie met AMD geen zwaarder geschut noodzakelijk was erg slim.
ATi heeft exact hetzelfde gedaan met de 9700->9800->X8x0 architectuur. Maar toen was het wel slim zeker?

Daarnaast, om betr. GPGPU ff de andere kant te bespreken: dit heeft wel meer dan 'gewoon' toekomst. nV kijkt verder dan de consumentenmarkt, en heeft ook oog voor de zakelijke markt. Met het CUDA platform kunnen ze veel zakelijke klanten van krachtige General Purpose rekenkracht voorzien, en we weten allemaal wat die professionele kaarten opleveren: 5-10x zo veel als hun consumentenversies.

Dat gamers er niets aan hebben ben ik trouwens ook niet met je eens: PhysX bijvoorbeeld noem ik niet 'niets'. Daarnaast is het gewoon zonde om een enorme bak rekenkracht in je systeem te hebben zitten die nergens anders voor gebruikt wordt dan games. Gelukkig komt daar nu langzamerhand verbetering in en wordt dat door nV ondersteund... ik zie daar echt niets negatiefs in...
Is het pech of is het een slechte planning/execution/visie.
Tja, als jij het zo wilt zien kan niemand je tegenhouden natuurlijk...
Blijkbaar was voor Fermi een aantal respins nodig dat hoger lag dan gemiddeld. Kan ook de besten overkomen... vraag maar aan AMD die eerst qua respins pech had met R600 en daarna mazzel met RV670.
Ongetwijveld heb je er meer gelezen maar, ik verwijs toch liever naar Anandtech dan naar Tweakers als ik een review als referentie aanhaal....
Omdat die cijfers beter bij je verhaal passen :?

[ Voor 9% gewijzigd door Cheetah op 15-10-2009 17:49 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 27-06 08:36
Cheetah schreef op donderdag 15 oktober 2009 @ 17:22:
nV imago gard onderuit sinds de 4870 :? Veel meer bang for buck? Waar heb je het over? De 4870 presteert op het niveau van de GTX260, die op vrijwel exact hetzelfde prijspeil zit. De GTX280/285 kost meer, maar presteert ook gewoon een stuk beter. Zefde geldt voor 4870X2 vs GTX295. Het heet niet voor niets high-end... daarbij betaal je gewoon een stuk meer voor de laatste twintigtal %en extra performance.
Dat een midrange part meer bang for buck geeft en een betere price/performance heeft dan een high-end part is al ongeveer net zo oud als de wereld... en in ieder geval net zo oud als de eerste computers ;)
1. nVidia moest de prijzen van de GTX2xx serie flink laten zakken om te kunnen concurreren. Hun high end kaart kost nu veel minder dan wat ze gewoonlijk vragen. Ik ben het er wel mee eens dat dat hun imago niet geschaad heeft.
2. Je zou kunnen zeggen dat op de resoluties en IQ waar je zo'n dure kaart voor koopt, bijv 2560x1920,4xAA of 8xAA, de 4870X2 gelijk zo niet beter presteerd dan de GTX295. En in ieder geval een stabielere performance biedt. In sommige spellen zakt de performance van de GTX295 op hoge settings in naar onspeelbare waarden, waarschijnlijk door te weinig geheugen.
Omdat die cijfers beter bij je verhaal passen :?
Nee, en dat weet je zelf ook best: Anandtech heeft (nog) een betere reputatie dan Tweakers.net als het op reviews uitkomt, er worden veel(!) meer spellen getest (wat de verhoudingen enorm beinvloedt) en de resultaten zijn consistenter. Wat niet wegneemt dat de kwaliteit van de Tweakers.net reviews met sprongen vooruit gaat.

Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 17:22:

nV imago gard onderuit sinds de 4870 :? Veel meer bang for buck? Waar heb je het over? De 4870 presteert op het niveau van de GTX260, die op vrijwel exact hetzelfde prijspeil zit. De GTX280/285 kost meer, maar presteert ook gewoon een stuk beter. Zefde geldt voor 4870X2 vs GTX295. Het heet niet voor niets high-end... daarbij betaal je gewoon een stuk meer voor de laatste 20-30tal %en extra performance.
Dat een midrange part meer bang for buck geeft en een betere price/performance heeft dan een high-end part is al ongeveer net zo oud als de wereld... en in ieder geval net zo oud als de eerste computers ;)
BS, de gelijkende Nvidia kaarten waaren altijd zon 30 a 40 euro duurder(GTX 260 vs HD4870) tot meer bij de CF vs SLI(inclusief de X2 en consorten). Daarom stonden ze ook steeds in de BBG. Betere koop, zelfde prestaties, lagere prijs.

[ Voor 4% gewijzigd door Verwijderd op 15-10-2009 18:16 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Da_DvD schreef op donderdag 15 oktober 2009 @ 17:51:
1. nVidia moest de prijzen van de GTX2xx serie flink laten zakken om te kunnen concurreren. Hun high end kaart kost nu veel minder dan wat ze gewoonlijk vragen. Ik ben het er wel mee eens dat dat hun imago niet geschaad heeft.
Maakt het zoveel uit dan, dat nV de prijzen moest laten zakken toen de 4870 uitkwam?
Dat heet nou concurrentie: AMD moest met de 4870 een klapper maken en prijst scherp -> nV volgt :)
Maar nadat de stof was opgetrokken na de 4870 release was de price/performance ratio van ATi en nV kaarten bijzonder gelijkwaardig... daar had ik het over... ;)
2. Je zou kunnen zeggen dat op de resoluties en IQ waar je zo'n dure kaart voor koopt, bijv 2560x1920,4xAA of 8xAA, de 4870X2 gelijk zo niet beter presteerd dan de GTX295. En in ieder geval een stabielere performance biedt. In sommige spellen zakt de performance van de GTX295 op hoge settings in naar onspeelbare waarden, waarschijnlijk door te weinig geheugen.
Ik denk dat de meesten die zo'n kaart hebben op 1920x1200 spelen, een veel gangbaarder resolutie.
Daarnaast heeft SLI scaling nog altijd een betere reputatie dan CF scaling. In de meeste games waarin het er toe doet (en ook in de meeste waarin het er niet toe doet) presteert de GTX295 gewoon duidelijk beter dan de 4870X2.
Nee, en dat weet je zelf ook best: Anandtech heeft (nog) een betere reputatie dan Tweakers.net als het op reviews uitkomt, er worden veel(!) meer spellen getest (wat de verhoudingen enorm beinvloedt) en de resultaten zijn consistenter. Wat niet wegneemt dat de kwaliteit van de Tweakers.net reviews met sprongen vooruit gaat.
Verreweg de meeste reviewsites zullen je vertellen dat de GTX285 over de boot genomen - enkele games daar gelaten - een stuk beter presteert dan de HD4890... en dat hoef ik ook niet uit te leggen denk ik :)
Tweakers was daar slechts een voorbeeld van... de game-benchmarkset van Anand was trouwens behoorlijk beperkt bij de HD5870 review die werd aangehaald (waarin ook de 4890 en de GTX285 waren meegenomen).

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 18:16:

Ik denk dat de meesten die zo'n kaart hebben op 1920x1200 spelen, een veel gangbaarder resolutie.
Daarnaast heeft SLI scaling nog altijd een betere reputatie dan CF scaling. In de meeste games waarin het er toe doet (en ook in de meeste waarin het er niet toe doet) presteert de GTX295 gewoon duidelijk beter dan de 4870X2.
8xAA is gewoon waar nvidia hard de boot in gaat. Bij ATI is de hit veel kleiner. nVidia heeft wel CSAA wat dat leed verzacht(klein beetje image kwaliteit inleveren(ten opzichte van true MSAA) maar hogere performance) .

[ Voor 7% gewijzigd door Verwijderd op 15-10-2009 18:19 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op donderdag 15 oktober 2009 @ 18:08:
BS, de gelijkende Nvidia kaarten waaren altijd zon 30 a 40 euro duurder(GTX 260 vs HD4870) tot meer bij de CF vs SLI(inclusief de X2 en consorten). Daarom stonden ze ook steeds in de BBG. Betere koop, zelfde prestaties, lagere prijs.
Dit is echt niet waar.
De HD4870 1GB en de GTX260 c216 zitten al maaaanden op vrijwel precies hetzelfde prijspeil. Exact hetzelfde geldt voor de GTX275 vs HD4890. De keuze voor ATi is gewoon een persoonlijke voorkeur van de BBG-ers. Mag verder hoor, en is prima verdedigbaar, maar een keuze voor nV was net zo prima verdedigbaar geweest.
Verwijderd schreef op donderdag 15 oktober 2009 @ 18:18:
8xAA is gewoon waar nvidia hard de boot in gaat. Bij ATI is de hit veel kleiner. nVidia heeft wel CSAA wat dat leed verzacht(klein beetje image kwaliteit inleveren(ten opzichte van true MSAA) maar hogere performance) .
Afgezien van CSAA: hoeveel mensen voelen de noodzaak met 8xAA te gamen? 0xAA/2xAA/4xAA is waar ATi 'hard de boot in gaat', en dat zijn exact de AA levels waar door verreweg de meeste mensen op gegamed wordt.

[ Voor 28% gewijzigd door Cheetah op 15-10-2009 21:29 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 21:26:
[...]
Dit is echt niet waar.
De HD4870 1GB en de GTX260 c216 zitten al maaaanden op vrijwel precies hetzelfde prijspeil. Exact hetzelfde geldt voor de GTX275 vs HD4890. De keuze voor ATi is gewoon een persoonlijke voorkeur van de BBG-ers. Mag verder hoor, en is prima verdedigbaar, maar een keuze voor nV was net zo prima verdedigbaar geweest.

[...]
Ik voel me gewoon beledigd. Echt, ik heb jouw niet in een topic gezien. En JA de ati's waren wel goedkoper, elke keer weer. Maar goed jouw persoonlijke voorkeur is -ook weer- duidelijk. Dus wat je zegt = BS.
Modbreak:Doe eens ff normaal :/

Je kunt prima je inhoudelijke punt maken zonder zo op de man te spelen. Doe dat dan ook aub :o


pricewatch: XFX HD4870 1024MB DDR5 PCI-E
pricewatch: Asus ENGTX260 GL+/HTDI/896MD3

Zoals je ziet, ATI = GOEDKOPER! Dat is niet verdedigbaar in een BBG. Daar word altijd het best gedaan om zo goedkoop mogelijk zo veel mogelijk winst te halen.
Afgezien van CSAA: hoeveel mensen voelen de noodzaak met 8xAA te gamen? 0xAA/2xAA/4xAA is waar ATi 'hard de boot in gaat', en dat zijn exact de AA levels waar door verreweg de meeste mensen op gegamed wordt.
Weinig, daarom is het nog wel zo. Maar het is overdreven om te zeggen dat ATI daar hard de boot in gaat. Dat gaat net zo hard bij nvidia.

[ Voor 21% gewijzigd door dion_b op 15-10-2009 23:28 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op donderdag 15 oktober 2009 @ 21:30:
Ik voel me gewoon beledigd. Echt, ik heb jouw niet in een topic gezien. En JA de ati's waren wel goedkoper, elke keer weer. Maar goed jouw persoonlijke voorkeur is ook duidelijk. Dus wat je zegt = BS.
Je moet je vooral niet beledigd voelen.
Prima, de 4870 1GB was dan 137 Euro en de GTX260 c216 145 Euro. Tja, is ATi inderdaad goedkoper. Maar om op basis van die paar euro verschil te zeggen: we doen ATi, hands down, consequent, gaat mij wat ver. Vergeten we voor het gemak nog TWIMTBP-gameoptimalisatie en PhysX even :)
Ik heb me de afgelopen maanden inderdaad niet met de BBG's bemoeid nee...
Weinig, daarom is het nog wel zo. Maar het is overdreven om te zeggen dat ATI daar hard de boot in gaat. Dat gaat net zo hard bij nvidia.
Voor elke redenatie vallen argumenten te bedenken. Het gaat om de argumenten die het best aansluiten bij wat het grote gros van de gamers doet... en die spelen op 0xAA tot 4xAA, zelden of nooit op 8xAA. Dat ATi het op 8xAA vaak beter doet is i.m.o. dus niet echt een heel zinnig argument bij het samenstellen van een mainstream BBG als ze het op mainstream reso's/AA-settings vaak slechter doen... maar dat is mijn mening :)

edit:
Verwijderd schreef op donderdag 15 oktober 2009 @ 21:30:
pricewatch: XFX HD4870 1024MB DDR5 PCI-E
pricewatch: Asus ENGTX260 GL+/HTDI/896MD3

Zoals je ziet, ATI = GOEDKOPER! Dat is niet verdedigbaar in een BBG. Daar word altijd het best gedaan om zo goedkoop mogelijk zo veel mogelijk winst te halen.
Thanks for illustrating my point: afgezien van de ATi pricedrop in de afgelopen 2 weken scheelde het zo ongeveer een heel tientje. Niet echt iets om wakker van te liggen met een budget van 1000 Euro ofzo.

[ Voor 22% gewijzigd door Cheetah op 15-10-2009 21:42 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 21:39:
[...]
Je moet je vooral niet beledigd voelen.
Prima, de 4870 1GB was dan 137 Euro en de GTX260 c216 145 Euro. Tja, is ATi inderdaad goedkoper. Maar om op basis van die paar euro verschil te zeggen: we doen ATi, hands down, consequent, gaat mij wat ver. Vergeten we voor het gemak nog TWIMTBP-gameoptimalisatie en PhysX even :)
Ik heb me de afgelopen maanden inderdaad niet met de BBG's bemoeid nee...
Maak er 130 vs 160 maar van.

TWIP optimalisaties? Games draaien net zo goed op een ATI, vandaar dat de benches ook zo gelijkend zijn. Daar waren we het al over eens.

PhysX? Kom op, elke review site is het er over eens dat het niets voorstelt. Nu is er een 2e game waar je er wat aan hebt, hiervoor was het mirrors edge.

Daar tegenover staat DX10.1, dat is meer FPS en of mooier beeld. Met HAWX, battleforge.

Dus, nee er is niets verdedigsbaars om een duurder product te nemen wat het zelfde presteert.
Voor elke redenatie vallen argumenten te bedenken. Het gaat om de argumenten die het best aansluiten bij wat het grote gros van de gamers doet... en die spelen op 0xAA tot 4xAA, zelden of nooit op 8xAA. Dat ATi het op 8xAA vaak beter doet is i.m.o. dus niet echt een heel zinnig argument bij het samenstellen van een mainstream BBG als ze het op mainstream reso's/AA-settings vaak slechter doen... maar dat is mijn mening :)
Je haalt nu dingen door elkaar. Ik heb het over dat 8XAA een achilleshiel van Nvidia is. Dat is gewoon waar. Dat heeft niets te maken met wat voor BBG dan ook. Waarom jij dat nu aan elkaar gaat knopen, ontgaat mij.
Thanks for illustrating my point: afgezien van de ATi pricedrop in de afgelopen 2 weken scheelde het zo ongeveer een heel tientje. Niet echt iets om wakker van te liggen met een budget van 1000 Euro ofzo.
Voor de pricedrop, was het verschil nog groter. Ik weet waar ik het over heb. Ik help elke dag mensen met het samenstellen van systemen. Ik zie elke dag de prijzen voorbij komen. Hier zie je ook dat het zelfs na alle pricedrops -nogsteeds- 20 euro scheelt. Dat 16 % op de aanschaf van dat ding. En ja, met die 40 euro toen, kan je op een 1000 heel wat leuke dingen nog doen.

[ Voor 14% gewijzigd door Verwijderd op 15-10-2009 21:47 ]


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:42
Sorry hoor maar kom ik weer.. ik speel 1 game en dat is CS:S en ik speel echt wel met 8x AA, anders ziet het er niet uit. Stiekem wacht ik nog steeds op een kaart die dat met 16x AA aan kan. M'n oude GTX260 kon het iig niet!

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Uh... anders bekijk je ff de prijshistorie in je eigen links? :)
TWIP optimalisaties? Games draaien net zo goed op een ATI, vandaar dat de benches ook zo gelijkend zijn. Daar waren we het al over eens.
1. SLI vs CF en scaling.
2. Performance wanneer games net uit zijn, en iedereen ze zo'n beetje speelt al voordat AMD hun drivers ervoor heeft kunnen optimaliseren.
Ik weeg dat wel mee hoor...
PhysX? Kom op, elke review site is het er over eens dat het niets voorstelt. Nu is er een 2e game waar je er wat aan hebt, hiervoor was het mirrors edge.

Daar tegenover staat DX10.1, dat is meer FPS en of mooier beeld. Met HAWX, battleforge.
Mooier beeld? Hoeveel games ondersteunen 10.1? Meer dan er PhysX ondersteunen? Hoeveel games laten verschil zien? Dat even significant is als het IQ verschil met PhysX?
Je hebt het erover dat PhysX niets voorstelt, iets wat ik *duidelijk* kan waarnemen, en komt vervolgens met het IQ verschil tussen DX10 en 10.1 dat ik met een loep moet zoeken indien het uberhaupt al te vinden is?
Kweet niet hoor...
Je haalt nu dingen door elkaar. Ik heb het over dat 8XAA een achilleshiel van Nvidia is. Dat is gewoon waar. Dat heeft niets te maken met wat voor BBG dan ook. Waarom jij dat nu aan elkaar gaat knopen, ontgaat mij.
Ik leg graag verbanden, vooral als ik een duidelijke link zie :)
Naar ik aanneem is de argumentatie die je hier hanteert namelijk exact dezelfde als die je hanteert wanneer je ATi aanbeveelt voor de BBG?
Voor de pricedrop, was het verschil nog groter. Ik weet waar ik het over heb. Ik help elke dag mensen met het samenstellen van systemen. Ik zie elke dag de prijzen voorbij komen. Hier zie je ook dat het zelfs na alle pricedrops -nogsteeds- 20 euro scheelt. Dat 16 % op de aanschaf van dat ding. En ja, met die 40 euro toen, kan je op een 1000 heel wat leuke dingen nog doen.
Ik volg de prijzen ook op de voet. Check de prijshistorie... De AMD 48xx prijzen zijn gedaald na release van de 58xx serie, terwijl de nV prijzen de afgelopen weken gelijk zijn gebleven. Dat verschil is nu 20 Euro. Een paar weken geleden was het een tientje, of zelfs minder.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 13:54
DX 10.1 vs DX 10 merk je in de games die het ondersteunen wat betreft FPS wel sterk.... maar gezien de titel van dit topic vind ik dit een waardeloze discussie waar niemand zal gaan toegeven.
Xenomorphh schreef op donderdag 15 oktober 2009 @ 22:25:
Mensen deel je mening en ga niet iemand jou mening opdringen AUB. Het leest nogal *** ;)
+1 :)

[ Voor 36% gewijzigd door Paprika op 15-10-2009 22:26 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 31-07 23:26

Edmin

Crew Council

get on my horse!

Voor de liefhebbers: Ik heb toevallig mijn mening over de situatie op mijn blog gezet:
Het Leeuwendeel: Heeft NVidia nog wel een toekomst?

Bottom line: op korte termijn loopt alles wel los, maar ik denk dat NV grote strategische problemen heeft.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Topicstarter
Mensen deel je mening en ga niet iemand jou mening opdringen AUB. Het leest nogal *** ;)

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 09-07 11:56

Dani86

AeroGeek

Het wordt een beetje een ATi vs Nvidia topic zo.

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • 0 Henk 'm!

  • luckyjan
  • Registratie: Augustus 2000
  • Laatst online: 29-06 12:08
Idd het heeft hier geen zin nvidia of ati af te gaan kraken.Voor liefhebbers van beide partijen is het belangrijk dat ze naast elkaar bestaan want op die manier is er een goede concurrentie wat zich weer vertaald naar technische innovatie en lagere prijzen. Dat is voor ons allemaal leuk.
Ik denk dat nvidia een beetje lui is geworden toen ze met hun G80 ati hebben weggeblazen en ze nu daar de rekening voor krijgen.

Acties:
  • 0 Henk 'm!

Verwijderd

De GT300 is toch al hopeloos voor alle gamers, dus het enige wat we kunnen doen is anderhalf jaar wachten en kijken of ze eindelijk alle zooi gaan dumpen bij de GT300. Of eventueel een "light" lijntje maken of zo, terug een echte GeForce ipv een Quadro voor consumenten.
Heb vele jaren altijd NVIDIA gekocht voor m'n gamesysteem omdat ATI gewoon moest onderdoen of niet duidelijk genoeg de overhand nam om van merk te wisselen. Maar met de 4870 was ik het gewoon kotsbeu om steeds €600 te betalen voor de snelste kaarten terwijl ATI duidelijk het licht had gezien. Hadden ze na de G80 meteen iets echt nieuw gebracht ipv blijven aanmodderen, ik had wss nog steeds NVIDIA in de pc.
Nu zit er 2x 4890 in en volgende maand zal er 2x 5970 inzitten. Dat zal me wel bezighouden tot ATI en NVIDIA met de volgende serie komt, dan begint de zoveelste ronde tussen beide gewoon opnieuw.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-07 20:48
Verwijderd schreef op vrijdag 16 oktober 2009 @ 08:52:
De GT300 is toch al hopeloos voor alle gamers, dus het enige wat we kunnen doen is anderhalf jaar wachten en kijken of ze eindelijk alle zooi gaan dumpen bij de GT300. Of eventueel een "light" lijntje maken of zo, terug een echte GeForce ipv een Quadro voor consumenten.
Ze hebben toch bij de GT200 met al zn "overbodige" features de prijs ook aangepast op de concurrentie toen de HD4870 uitkwam? Nu is de HD5870 er al, dus dat zullen ze vast weer doen anders koopt niemand hem. Het boeit me echt niet of er voor mij overbodige dingen in die chip zitten zolang er 512 shaders inzitten en een 384 bit mem interface met GDDR5 want dan wordt hij waarschijnlijk ruim de snelste single chip en daar zit ik net op te wachten. :)

anathema


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 22:04:
[...]
Uh... anders bekijk je ff de prijshistorie in je eigen links? :)
Je snap ook niet hoe BBG's werken he.
Modbreak:Zoals dion_b hier een paar posts al aangeeft, het is nergens voor nodig om op de man te gaan spelen. Dit soort opmerkingen verneuken de sfeer en daar zitten we hier niet op te wachten


Die prijs history van die ene 2 kaarten kunnen me gestolen worden. Het gaat om de goedkoopste op dat moment. En dan zie je nu gewoon 20 euro. Toen met de goedkoopste was het 40 euro.
1. SLI vs CF en scaling.
Reviews laten zien dat het gewoon goed is.(SLI zal wel betere scaling hebben, maar dat betekend niet dat het bij ATI slecht is)
2. Performance wanneer games net uit zijn, en iedereen ze zo'n beetje speelt al voordat AMD hun drivers ervoor heeft kunnen optimaliseren.
Ik weeg dat wel mee hoor...
Daarom draaien ze nog wel goed en elke maand komen er weer nieuwe drivers met updates.
[...]
Mooier beeld? Hoeveel games ondersteunen 10.1? Meer dan er PhysX ondersteunen? Hoeveel games laten verschil zien? Dat even significant is als het IQ verschil met PhysX?
Je hebt het erover dat PhysX niets voorstelt, iets wat ik *duidelijk* kan waarnemen, en komt vervolgens met het IQ verschil tussen DX10 en 10.1 dat ik met een loep moet zoeken indien het uberhaupt al te vinden is?
Kweet niet hoor...
Mooier beeld EN sneller. Significant verschil met Physix? Laat me niet lachen, dat is een PUUR kunstmatig verschil. Die makkelijk met een CPU gedaan had kunnen worden. Jij weet het niet, ik weet het wel. Ik zie het verschil. Zeker op de FPS meter en ook aan AA op Alpha Textures.
Ik leg graag verbanden, vooral als ik een duidelijke link zie :)
Naar ik aanneem is de argumentatie die je hier hanteert namelijk exact dezelfde als die je hanteert wanneer je ATi aanbeveelt voor de BBG?
Misschien moet je eens ophouden met causale verbanden leggen. En nee, ik heb al uit gelegd: Zelfde performance, lagere prijs = keuze.
Ik volg de prijzen ook op de voet. Check de prijshistorie... De AMD 48xx prijzen zijn gedaald na release van de 58xx serie, terwijl de nV prijzen de afgelopen weken gelijk zijn gebleven. Dat verschil is nu 20 Euro. Een paar weken geleden was het een tientje, of zelfs minder.
En een ruim een maand daarvoor was het 40 euro. Misschien moet je alle prijzen ff gaan checken op prijs history, inclusief wat niet meer in de PW staat. Ik durf te wedden, dat ik elke dag meer prijzen voorbij zie komen dan jij.

[ Voor 6% gewijzigd door TERW_DAN op 16-10-2009 10:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op donderdag 15 oktober 2009 @ 18:16:
Ik denk dat de meesten die zo'n kaart hebben op 1920x1200 spelen, een veel gangbaarder resolutie.
Daarnaast heeft SLI scaling nog altijd een betere reputatie dan CF scaling. In de meeste games waarin het er toe doet (en ook in de meeste waarin het er niet toe doet) presteert de GTX295 gewoon duidelijk beter dan de 4870X2.
Klopt dat sli beter schaald in veel en veel meer games werkt, zelfs in het begin als een gamedemo net uit is.
Ik kan het zelf weten nu, cf werkt verdr wel goedals het eenmaal werkt maar ben minder te spreken over cf dan sli en dat is puut om de hoeveelheidgames waar het wel of niet werkt.
Het verbaast mij ook niets dat veel mensen die zowel slialscf hebben getest het hier wel mee eens is
enanders liegen ze gewoon

[ Voor 22% gewijzigd door Verwijderd op 16-10-2009 09:28 ]


Acties:
  • 0 Henk 'm!

Verwijderd

anathema schreef op vrijdag 16 oktober 2009 @ 09:10:
[...]

Ze hebben toch bij de GT200 met al zn "overbodige" features de prijs ook aangepast op de concurrentie toen de HD4870 uitkwam? Nu is de HD5870 er al, dus dat zullen ze vast weer doen anders koopt niemand hem. Het boeit me echt niet of er voor mij overbodige dingen in die chip zitten zolang er 512 shaders inzitten en een 384 bit mem interface met GDDR5 want dan wordt hij waarschijnlijk ruim de snelste single chip en daar zit ik net op te wachten. :)
'K vind het ook niet erg om een meerprijs te betalen als er betere fps uitkomen, maar niet als de fabrikant mij aan het negeren is als gamer. Ik weiger te betalen voor CUDA en PhysX en NVIDIA weigert naar gamers te luisteren.
Meer in de die steken en we zullen sneller zijn, is altijd de taktiek van NVIDIA geweest en was ook wel ok voor mij. Nu werd het gewoon te gortig want ze spelen met mijn geld terwijl ik voor mijn geld wil spelen.

Enige wat ik nog mis is EVGA en XFX is alles behalve een vervanging daarvoor.

Acties:
  • 0 Henk 'm!

Verwijderd

Ern is niets mis met cuda en physx het zijn allemaal funties die de markt voor nvidia alleen maar groter maakt en dus niet alleen op de gamers word gericht (wat een klein gedeelte is)... Het aantal mensen die daar niet voor willen betalen hebben dan gewoon pech en die kunnen dan toch nog voor ati kiesen.

Verder zou het goed voor nvidia zijn om alles zamen met intel te gaan doen...

[ Voor 11% gewijzigd door Verwijderd op 16-10-2009 09:34 ]


Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Modbreak:Mensen, vanaf nu graag verder ontopic. Het is niet de bedoeling hier je persoonlijke Ati vs nVidia vete uit te gaan vechten.
Het gaat hier over de toekomst van nVidia met betrekking tot de recente nieuwsberichten. Als je wilt vergelijken met Ati, doe dat dan op basis van verkoopcijfers en niet wat 'beter' is, dat is een relatief begrip en gezien er nu eenmaal fanboys zijn gaan we daar nooit uitkomen.

Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
Verwijderd schreef op vrijdag 16 oktober 2009 @ 09:32:
Ern is niets mis met cuda en physx het zijn allemaal funties die de markt voor nvidia alleen maar groter maakt en dus niet alleen op de gamers word gericht (wat een klein gedeelte is)... Het aantal mensen die daar niet voor willen betalen hebben dan gewoon pech en die kunnen dan toch nog voor ati kiesen.

Verder zou het goed voor nvidia zijn om alles zamen met intel te gaan doen...
Met de komst van DirectX 11 (Compute Shaders) en OpenCL wordt dat voordeel weer teniet gedaan. En Intel had, een tijd geleden al, Havok (directe concurrent van Physx) opgekocht....

Acties:
  • 0 Henk 'm!

Verwijderd

Imho, als gpgpu ontwikkelaar, had NVIDIA wat gpgpu (general purpose programming on the gpu) de afgelopen jaren de betere kaarten. NVIDIA's CUDA is al jaren op de markt, terwijl ATI's Brook+ heel erg beperkt is gebleven. Pas sinds 3 dagen (!) is er de werkelijk bruikbare OpenCL api voor ATI kaarten te krijgen.

Fermi is wat gpgpu betreft revolutionair, tenminste als NVIDIA waar kan maken wat er in de whitepaper staat. Een bijna verdubbeling van het aantal stream processoren, de mogelijkheid om verschillende stream kernels concurrent te schedulen en een cache is precies waar gpgpu ontwikkelaars op zitten te wachten. Wat gpgpu betreft zal NVIDIA z'n voorsprong op R800 alleen maar verder uitbouwen.

Uit het perspectief van de game industrie is de kritiek op NVIDIA en Fermi begrijpelijk, maar imho niet helemaal terecht. Fermi wordt aangekondigd als in de eerste plaats een geavanceerd gpgpu platform wat ten tweede ook nog eens games draaien kan. Tot zover is de kritiek begrijpelijk.

De sterk verbeterde specificaties van Fermi (cache, concurrent scheduling van meerdere stream kernels) ten opzichte van de G200 maken hoogstwaarschijnlijk de eerste stap naar een revolutie in de game industrie mogelijk, namelijk raytracing en global illumination op de gpu. Wat dit betreft is de kritiek op Fermi en dat NVIDIA zich afkeert van de game industrie dus onterecht. NVIDIA is (stiekum :)) de voorbereidingen voor real-time global illumination aan het treffen.

Dit zal ze ook wel moeten omdat Intel Larrabee aangekondigd heeft en Caustic graphics ook een pci-express board heeft aangekondigd die (naar verwachting) beide beter geschikt zijn voor raytracing en global illumination dan traditionele gpu's.

NVIDIA lijkt dus wel op de goede weg te zijn en het ziet er imho helemaal niet zo slecht uit.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 31-07 23:26

Edmin

Crew Council

get on my horse!

Het hele punt is dat Fermi een sterk gpgpu platform wordt, maar daardoor minder interessant voor een heel groot deel van de markt. Daarmee wordt het gewoon nog meer een niche-product. Dan kun je wat van raytracing vinden, maar die techniek gaan we de komende zes jaar niet in de huiskamer terug zien. Leuk voor devs, overbodig duur voor de consument.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Edmin schreef op vrijdag 16 oktober 2009 @ 14:43:
Het hele punt is dat Fermi een sterk gpgpu platform wordt, maar daardoor minder interessant voor een heel groot deel van de markt.
Hoezo dat? Ik snap de manier waarop je dat verband legt niet. Waarom zou Fermi minder interessant zijn voor een heel groot deel van de markt omdat het (ook) een sterk GPGPU platform wordt?
warp schreef op vrijdag 16 oktober 2009 @ 11:27:
Met de komst van DirectX 11 (Compute Shaders) en OpenCL wordt dat voordeel weer teniet gedaan.
nV heeft met CUDA ruim 2 jaar voorsprong op DX11Compute en OpenCL, en bied al een complete CUDA ontwikkellibrary incl. support, trainingen etc aan. Dat is precies wat professionele bedrijven willen en aanspreekt (en het zal hun over het algemeen een worst zijn of andere kaartenbakkers het CUDA platform ook ondersteunen). Het zal nog wel even duren voordat die voorsprong teniet is gedaan...

[ Voor 41% gewijzigd door Cheetah op 16-10-2009 15:12 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 16 oktober 2009 @ 15:03:
[...]
Hoezo dat? Ik snap de manier waarop je dat verband legt niet. Waarom zou Fermi minder interessant zijn voor een heel groot deel van de markt omdat het (ook) een sterk GPGPU platform wordt?
:? Dat is toch niet zo moeilijk om te bedenken? There's no such thing as a free lunch...

Als IC designer kijk ik met veel interesse naar CUDA (voornamelijk in EDA). Vooral toplevel analoge simulaties, post-layout simulaties, signal integrity duren echt eeuwen met een CPU.

Maar voor games zitten er te veel onnodige dingen in. Conclusie: een ATi kaartje thuis, en een nV kaartje op t werk. d:)b

Acties:
  • 0 Henk 'm!

Verwijderd

Edmin schreef op vrijdag 16 oktober 2009 @ 14:43:
Het hele punt is dat Fermi een sterk gpgpu platform wordt, maar daardoor minder interessant voor een heel groot deel van de markt. Daarmee wordt het gewoon nog meer een niche-product. Dan kun je wat van raytracing vinden, maar die techniek gaan we de komende zes jaar niet in de huiskamer terug zien. Leuk voor devs, overbodig duur voor de consument.
De stelling dat Fermi te duur zou worden voor consumenten begrijp ik niet helemaal. Er komt (naar verwachting) gewoon een GT310 en een GT330 voor de consument die z'n PC bij de Dixons of de Mediamarkt koopt. Deze gaan naar verwachting 49$ resp. 79$ dollar kosten. Als ze na de lange bootreis in Europa aan zijn gekomen en aan de Europa inflatie onderhevig zijn geweest dan zullen ze ongeveer 49€ resp. 79€ gaan kosten. Zoveel meer dan de low-end G200 of de ATI kaarten is dat nu ook weer niet.
Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:15:
...
Maar voor games zitten er te veel onnodige dingen in. Conclusie: een ATi kaartje thuis, en een nV kaartje op t werk. d:)b
Dat is niet helemaal correct. NVIDIA maakt gebruik van een 'unified shader architecture'. Een multiprocessor kan in een gpgpu applicatie dienst doen als streamprocessor. In een 3D game kan diezelfde multiprocessor dienst doen als vertex-, fragment-, of geometry shader. Er zit helemaal niets onnodigs in die kaart.

[ Voor 20% gewijzigd door Verwijderd op 16-10-2009 15:27 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:18:
[...]
De stelling dat Fermi te duur zou worden voor consumenten begrijp ik niet helemaal.
Kaart B $400 50fps, 70°C, 180W load, 30db
Kaart A $500 50fps, 80°C, 200W load, 40db

Welke ga je kopen als gamer of OEM? Is toch enorm duidelijk lijkt me.

Ik hoop dat NVIDIA die prullen in hun Quadro steekt, daar horen die extra functies want dat is de markt ervoor. Zolang GeForce hun consumentenlijn is, moeten ze hun consumenten daar niet standaard extra voor laten betalen en net daarom klagen mensen erover. Als het in de Quadro zat zouden consumenten er niet om moeten geven en alle onderzoekers en developers zouden even blij zijn als vandaag. De perfecte oplossing zou je denken, nu enkel NVIDIA nog laten meedenken.
Daar moet NVIDIA imo naar toe want ze maken geen chipset of cpu. Dus ze moeten gewoon de grafische kampioen zijn om producten af te zetten.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:18:
[...]


De stelling dat Fermi te duur zou worden voor consumenten begrijp ik niet helemaal. Er komt (naar verwachting) gewoon een GT310 en een GT330 voor de consument die z'n PC bij de Dixons of de Mediamarkt koopt. Deze gaan naar verwachting 49$ resp. 79$ dollar kosten. Als ze na de lange bootreis in Europa aan zijn gekomen en aan de Europa inflatie onderhevig zijn geweest dan zullen ze ongeveer 49€ resp. 79€ gaan kosten. Zoveel meer dan de low-end G200 of de ATI kaarten is dat nu ook weer niet.
De gt300 zal zeer veel kosten vanwege de cuda functies die meeste gamers niet zullen gebruiken.
in het allerslechtste geval zal ATI zelfs een hd 5990 klaar liggen die goedkoper is.
de kaarten die je bedoelt komen veel later, er zijn waarschijnlijk niet eens prototypes van gemaakt.
[...]


Dat is niet helemaal correct. NVIDIA maakt gebruik van een 'unified shader architecture'. Een multiprocessor kan in een gpgpu applicatie dienst doen als streamprocessor. In een 3D game kan diezelfde multiprocessor dienst doen als vertex-, fragment-, of geometry shader. Er zit helemaal niets onnodigs in die kaart.
ik betwijfel het

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:18:
[...]
Dat is niet helemaal correct. NVIDIA maakt gebruik van een 'unified shader architecture'. Een multiprocessor kan in een gpgpu applicatie dienst doen als streamprocessor. In een 3D game kan diezelfde multiprocessor dienst doen als vertex-, fragment-, of geometry shader. Er zit helemaal niets onnodigs in die kaart.
En toch gebeurt het nu niet op die manier. GT200 bevat veel zaken die volledig gericht zijn op GPGPU en heeft daarvoor dus zaken ingebakken die niet gebruikt worden in games. Denk aan bv de 30 DP units (per cluster 3). Die doen in games absoluut niets, maar kosten relatief gezien vrij veel transistorbudget in vergelijking tot de 'normale' streamprocessors.

Fermi maakt gebruik van een Unified Address Space en ook dit is volledig gericht op GPGPU. Fermi heeft deze functionaliteit met het oog op CUDA specifieke functionaliteit. In games zal je hier dus amper gebruik van worden gemaakt.

Dat zijn dus allemaal transistoren die bij de meeste gamers nooit gebruikt zullen worden. Daarom kan ik me goed voorstellen dat mensen de chip te 'duur' vinden voor de hoofdreden waarom ze 'm kopen, namelijk gamen. Natuurlijk krijg je de functionaliteit er nu 'gratis' bij, maar bedenk je eens hoeveel kleiner de GPU zou kunnen worden als de GPU puur op gamers gericht was en dit soort zaken niet aan boord had. De chip zou kleiner worden en de prijs kan daardoor ook omlaag. En het zou me zelfs niets verbazen als de kloksnelheid daardoor ook gemakkelijker omhoog zou moeten gaan.

Overigens erg interessant om te lezen is dat NVIDIA voor RV770 performance uit ging van RV670. Ze hebben de competitie dus erg onderschat, wat in mijn ogen een teken van arrogantie is... denken dat je toch de beste bent.
Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.
Hopelijk hebben ze hier echt van geleerd. Als de eerste geruchten kloppen dan is de Fermi architectuur vrij gemakkelijk te strippen van 'overbodige' blokken, zodat deze snel over alle segmenten verspreid kan worden.

De focus van het bedrijf verplaatst zich misschien op dit moment een klein beetje, maar NVIDIA zal echt niet snel verdwijnen. Desnoods kunnen ze bepaalde onderdelen afstoten en verkopen of is er een of andere Arabische geldschieter die te hulp wil komen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 16 oktober 2009 @ 15:49:

Ik hoop dat NVIDIA die prullen in hun Quadro steekt, daar horen die extra functies want dat is de markt ervoor. Zolang GeForce hun consumentenlijn is, moeten ze hun consumenten daar niet standaard extra voor laten betalen en net daarom klagen mensen erover.
Ok, de functionaliteit die Fermi voor gpgpu ontwikkeling biedt, is niet nodig voor de consument en NVIDIA zou die functionaliteit uit de Geforce lijn moeten halen zodat de consument hier niet voor hoeft te betalen.

Ik begrijp dit standpunt maar de consument gaat op de middellange termijn wel sterk van deze functionaliteit profiteren. De extra functionaliteit die Fermi biedt zal (naar verwachting) raytracing en global illumination op consumenten hardware veel dichterbij brengen. Dit zal op den duur foto-realistische 3D games mogelijk maken. Een demo van NVIDIA hoe het er uit kan gaan zien is hier te vinden.

Juist de consument die 3D games speelt zal sterk van deze ontwikkeling gaan profiteren. Dit is de normale vooruitgang in de game industrie, net als van DirectX-9 naar DirectX-10, enz.
CJ schreef op vrijdag 16 oktober 2009 @ 16:05:

En toch gebeurt het nu niet op die manier. GT200 bevat veel zaken die volledig gericht zijn op GPGPU en heeft daarvoor dus zaken ingebakken die niet gebruikt worden in games. Denk aan bv de 30 DP units (per cluster 3). Die doen in games absoluut niets, maar kosten relatief gezien vrij veel transistorbudget in vergelijking tot de 'normale' streamprocessors.
Het gebeurt wel op deze manier. Het zou niet best zijn als het niet zo was, het programmeren van CUDA was namelijk mijn voltijd baan de afgelopen 2.5 jaar :X . Je hebt gelijk van wat de double precision functionaliteit betreft, daar profiteren games hoofdzakelijk niet van. Hoewel je dat zo niet zonder meer kunt beweren. Denk aan de numerische instabiliteit in Physix berekeningen, die daarom best van double precision gebruik kunnen maken.

EDIT: Ik begrijp het :). Er wordt hier onterecht gedacht dat NVIDIA hardware aan het ontwikkelen is waar de gamer niets aan heeft maar die alleen gpgpu ontwikkelaars dient. Het tegengestelde is waar, de gpgpu ontwikkelaar profiteert alleen maar mee van de ontwikkeling van game hardware. En die compute cores die gpgpu ontwikkelaars programmeren zijn niets anders dan de unified shader cores die jullie vertex-, fragment, en geometry shaders uitvoeren tijdens een 3D game.

[ Voor 36% gewijzigd door Verwijderd op 16-10-2009 17:12 ]


Acties:
  • 0 Henk 'm!

  • Rutger Mulder
  • Registratie: April 2004
  • Laatst online: 18-05 13:08
Nvidia heeft ondertussen ook een groot marktaandeel met CUDA capable kaarten waardoor het voor ontwikkelaars ook eerder de moeite is om daar wat mee te gaan doen. Dit in tegenstelling tot DX10.1, DX11, eye finity, tesselation etc.
Het probleem is alleen nog dat er geen enkele dev de ballen(en financiele speelruimte) heeft om in een game zoveel physics te stoppen zodat alle ati kaarten buiten spel gezet worden. Door het lage physics gebruik komen er telkens de argumenten vanuit het ati kamp dat de cpu het ook wel aan kan. Dat is voor de huidige games waarschijnlijk ook wel waar, maar als er een game met meer physics zou uitkomen zeker niet.
Ik verwacht echter dat de doorbraak van physics pas echt komt wanneer er een volgende generatie consoles komt die dat goed gaan ondersteunen aangezien bijna alle games ook op de console moeten draaien. Maar het blijft een kip vs ei verhaal...

Je zou ook kunnen stellen dat de extra die size voor CUDA etc wordt gesponsord door de zakelijke klanten die een hogere prijs betalen per kaart. Of dat nvidia genoegen neemt met minder winst om zo een groot cuda marktaandeel op te bouwen. Stellen dat de nvidia kaarten te duur zijn door cuda is echt te kort door de bocht, die-size =/= prijs. Zo kunnen we ook stellen dat de ati kaarten goedkoper kunnen als er geen eye finity opzat welke toch door het merendeel van de mensen niet gebruikt gaat worden. Wij weten de exacte strategie van nvidia niet en denken dat wel (beter) te weten vind ik pas een teken van arrogantie! Alsof nvidia niet weet waar ze mee bezig is. Ati heeft ook jaren lang achter de feiten aangelopen, waren die dan ook arrogant...?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Achter de feiten aan lopen heeft weinig met arrogantie te maken. Het gaat hier meer om het onderschatten van de competitie, wat o.a. blijkt uit de plotselinge enorme prijsverlagingen binnen een aantal weken na de launch van de GTX260 en GTX280. Uit het Fermi artikel van Anand blijkt ook dat ze nu durven toe te geven dat ze de competitie hebben onderschat.

Als je ziet dat een van de grote mannen achter het succes van CUDA nu bij AMD werkt en dat hij z'n voormalig werkgever (NV) zelfs heeft aangeboden om PhysX naar OpenCL te porten omdat het vrij gemakkelijk zou moeten kunnen, maar NV dit weigert... tja... dat zou je ook kunnen bestempelen als arrogantie... immers ze onthouden een redelijk groot gedeelte van de gamersmarkt van technieken die de spelbeleving zouden kunnen verrijken.

[ Voor 7% gewijzigd door CJ op 16-10-2009 17:31 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 13:42

pino85

Im just a Bird in the Sky

Het is simpel zoals al gezegd in mijn leek ogen dan,natuurlijk betaal je voor extratjes op een gamers kaart, voor baanbrekende zaken
Natuurlijk zal het in de nabije of toekomst echt gaan opleveren, en ik geloof direct dat ook ik als consument er dan wat aan ga hebben

De vraag is echter, hebben ik en anderen, de gewone gamer consument er nu wat aan? ja of nee?
Word het product er duurder door ja of nee?
Nogmaals dat het in de nabije toekomst wel wat zal opleveren geloof ik direct, alleen vind ik het niet fair om mij daar voor te laten betalen als ik er nu echt nog niets aan heb.. en tegen de tijd dat we er iets aan hebben hoeveel series zitten we dan verder?

De kaart word er denk ik duurder door en dan zal ik toch verder moeten kijken ben ik bang en ik heb toch relatief wat NVIDIA kaarten gehad altijd tevreden maar nu tja dit allemaal wetende twijfel ik er over..

We zullen moeten afwachten wat de prijs uiteindelijk echt word, maar ik vrees dat in verhouding het duurder word door de extra's die er op zitten die nog niets toevoegen op dit moment..
Men kan daar wel eens de boot mee ingaan bij NVIDIA, tijd zal het leren
Dit is gewoon zoals ik er tegen aan kijk met wat ik tot op heden weet

[ Voor 58% gewijzigd door pino85 op 16-10-2009 19:13 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

Verwijderd

Het huidige afwezig zijn van nVidia is wellicht terug te herleiden tot in de Radeon 9xxx en Geforce 5 (FX) periode. Hoewel ik weet dat architectuur minstens zo belangrijk is dan productieprocessen beperk ik me in dit geval tot het tweede.

Héél lang geleden...

Heeft nVidia risico's genomen door het kiezen van een productieproces op 130nm met GDDR2 geheugen voor de FX serie. Dit heeft er toe geleid dat nVidia vertraging opliep en ATI eerder de Redeon 9700 kon uitbrengen. ATI koos destijds een beproeft 150nm proces met DDR1 geheugen.
Na deze ervaring heeft nVidia "geleerd", ze zijn voor nieuwe producten een meer conservatieve weg in te geslagen door risico's m.b.t. productieproblemen zoveel mogelijk te vermijden, dit door enkel beproefde technieken te gebruiken.
Deze wijziging is strategie had een succesvol vervolg met de 6xxx, 7xxx en vooral 8xxx series. Hiermee dacht nVidia op de goede weg te zitten..

Het grappige is dat ATI na de Radeon 9xxx succes juist het tegenovergestelde beleid heeft gevoerd. Ze zijn gaan investeren in de nieuwste technieken en hebben o.a. R&D deals met TSMC gesloten. Mede hierdoor waren ze als eerste met 90nm voor de X1800 serie, 80nm met X1950, 65nm met HD26XX. Ondanks deze voorsprong is het ATI niet gelukt marktaandeel te pakken, sterker nog, na de X1800 serie zijn ze alleen maar meer kwijt geraakt.
Een kentering kwam vanaf de HD3870, daar waar ATI in eerste instantie de productieprocessen vooral heeft ingezet voor high-end oplossingen met inherente Yield problemen en laatkomers, hebben ze met de 3870 de 55nm ingezet op performance kaarten met twee doelen: prijs/prestatie verhouding én time to market .

De volgende stelling is al een paar keer voorbij gekomen:

"GPU's gaan met bergen en dalen, het feit dat ATI alle stormen heeft overleeft, betekend ook dat nVidia deze zal overwinnen."

Ik denk dat het feit dat ATI nu nog bestaat mede te maken heeft dat ze technologisch altijd een goede positie hebben gezeten. Dat een architectuur mislukt (FX serie) of niet krachtig genoeg is (HD2800) kan gebeuren, als dit opgevangen kan worden door prijsstelling en goedkoop productieproces, kan je in ieder geval verkopen aan OEM's e.d., ook al heb je niet de snelste/beste product.

Ik denk dat de situatie van nVidia op dit moment slechter is dan ten tijde van de FX-serie, er is namelijk geen efficiënt productieproces waar ze op terug kunnen vallen, laat staan dat de package problemen zijn opgelost.
Het feit dat nVidia na de FX serie een conservatieve weg heeft ingeslagen is nu tegen hun gekeerd, dit door enkel een strategiewijziging bij ATI.

Fermi doet me denken aan de PS3, een alleskunner, maar te duur voor ieder afzonderlijke taak.
nVidia gokt heel erg zwaar op GPGPU, ze lijken te vergeten dat ze gamers en de low cost markt (OEM's) nodig hebben voor genoeg omzet.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Daarentegen... vanuit meerdere hoeken is al te kennen gegeven dat er makkelijk blokken uit Fermi zijn te slopen zodat het ze weinig (lees: minder) moeite zal kosten om een product neer te zetten voor iedere afzetmarkt.

In hoeverre dat in de praktijk te brengen is, moet nog blijken maar ik denk dat áls het zo is de situatie wel eens wat minder slecht zou kunnen zijn dan een hoop mensen denken.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op vrijdag 16 oktober 2009 @ 16:05:
Dat zijn dus allemaal transistoren die bij de meeste gamers nooit gebruikt zullen worden. Daarom kan ik me goed voorstellen dat mensen de chip te 'duur' vinden voor de hoofdreden waarom ze 'm kopen, namelijk gamen. Natuurlijk krijg je de functionaliteit er nu 'gratis' bij, maar bedenk je eens hoeveel kleiner de GPU zou kunnen worden als de GPU puur op gamers gericht was en dit soort zaken niet aan boord had. De chip zou kleiner worden en de prijs kan daardoor ook omlaag. En het zou me zelfs niets verbazen als de kloksnelheid daardoor ook gemakkelijker omhoog zou moeten gaan.
Het zal me persoonlijk eerlijk gezegd allemaal worst wezen... Waar het om gaat is het volgende:
1. Consumentenprijs in vergelijk met de competitie
2. Prestaties in vergelijk met de competitie
3. Verbruik in vergelijk met de competitie
Als die 3 goed zitten dan is CUDA en wat daar verder bij komt (PhysX bijv) een fijne extra voor de consument.

Als die 3 niet goed blijken te zitten, dan is er reden tot klagen, eerder niet i.m.o. De chip 'te duur' vinden is i.m.h.o. nogal onzinnig als de kaarten op ongeveer hetzelfde niveau geprijst worden als hun ongeveer gelijk presterende evenknieen van AMD (wat bijzonder waarschijnlijk is), en het is nogal voorbarig om oordelen te vellen over Fermi als zowel prijs als prestaties als verbruik van die kaarten nog niet bekend zijn...
CJ schreef op vrijdag 16 oktober 2009 @ 17:30:
Achter de feiten aan lopen heeft weinig met arrogantie te maken. Het gaat hier meer om het onderschatten van de competitie, wat o.a. blijkt uit de plotselinge enorme prijsverlagingen binnen een aantal weken na de launch van de GTX260 en GTX280. Uit het Fermi artikel van Anand blijkt ook dat ze nu durven toe te geven dat ze de competitie hebben onderschat.
Even voor de volledige beeldvorming: was het dan toevallig ook arrogantie van ATi toen ze de G80 duidelijk hadden onderschat en de R600 veel lager moesten prijzen dan oorspronkelijk de bedoeling was?
Wat maken die prijsverlagingen uit? Dat heet nou net concurrentie. Als nV (of AMD) genoegen neemt met minder marge, en de prijzen laat zaken is dat toch alleen maar mooi voor de consument?

Onderschatten van de competitie werkt daarnaast 2 kanten op natuurlijk he...
AMD concentreert zich momenteel op chips waar feitelijk alleen gamers wat aan hebben, GPGPU staat bij hun weinig verder dan de kinderschoenen. nV voert a.t.m. een tweefrontenoorlog waarbij ze zowel actief aan de slag zijn voor gamers als voor GPGPU... en vooralsnog lijkt me daar vrij weinig over te klagen, want tot 5870 - waarvoor de nV tegenhanger nog moet verschijnen - presteerden hun high-end kaarten beter dan die van AMD in games. En de kaarten die gelijk presteerden aan die van AMD werden ook praktisch gelijk geprijst, met een over de boot genomen lager idle verbruik.
CJ schreef op vrijdag 16 oktober 2009 @ 17:30:
Als je ziet dat een van de grote mannen achter het succes van CUDA nu bij AMD werkt en dat hij z'n voormalig werkgever (NV) zelfs heeft aangeboden om PhysX naar OpenCL te porten omdat het vrij gemakkelijk zou moeten kunnen, maar NV dit weigert... tja... dat zou je ook kunnen bestempelen als arrogantie... immers ze onthouden een redelijk groot gedeelte van de gamersmarkt van technieken die de spelbeleving zouden kunnen verrijken.
Ik bestempel het persoonlijk als intelligente bedrijfvoering. OpenCL staat nog in de kinderschoenen. nV heeft veel resources geinvesteerd om CUDA te ontwikkelen en groot te maken. Geef me 1 goede reden waarom ze al hun effort gratis en voor niets ter beschikking zouden moeten stellen aan jan en alleman door CUDA te porten naar een open standaard die op zichzelf nog volledig in de kinderschoenen staat?

Het voorstel om CUDA te porten naar OpenCL is net zo absurd als Microsoft voorstellen om MS Office 2010 te porten naar OpenOffice. Ze zijn marktleider: waarom zouden ze dat doen?? Het gaat wel over commerciele bedrijven hier hoor... Misschien is het voorstel van de CUDA->OpenCL port zelfs nog wel absurder, want OpenOffice is tenminste al een serieus alternatief voor MS Office dat redelijk dezelfde functionaliteit bied. Dat valt over CUDA vs OpenCL absoluut niet te zeggen: CUDA loopt mijlenver voor.

AMD heeft de mogelijkheid gekregen CUDA te ondersteunen met hun kaarten, zij wilden dat niet, dus a.t.m. geen serieus GPGPU voor hun dan. Gemiste kans & jammer, want ik zie AMD voorlopig OpenCL nog niet op het niveau van CUDA brengen...

Wel prachtig weer hoe het gebracht wordt: nV ontwikkelt wat moois, en stopt er veel geld in. AMD weigert het te ondersteunen, waardoor gamers die voor hun merk kiezen er niet van kunnen meegenieten. En vervolgens wordt het dan nV kwalijk genomen als ze hetgeen ze ontwikkeld hebben vervolgens niet filantropisch gratiz en voor nikz ter beschikking stellen aan de hele wereld. Echt geweldig dit... 8)7

[ Voor 28% gewijzigd door Cheetah op 17-10-2009 00:42 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Nu online
Edmin schreef op vrijdag 16 oktober 2009 @ 14:43:
Het hele punt is dat Fermi een sterk gpgpu platform wordt, maar daardoor minder interessant voor een heel groot deel van de markt. Daarmee wordt het gewoon nog meer een niche-product. Dan kun je wat van raytracing vinden, maar die techniek gaan we de komende zes jaar niet in de huiskamer terug zien. Leuk voor devs, overbodig duur voor de consument.
Gaat even naar het EVE Online topic en kijk in de startpost onder het kopje 'Miscellaneous'. Kijk daar bij de fanfest video's van 2009. Daar wordt raytracing getoond voor 'incarna'; een uitbreiding die binnen 2-3 jaar sowieso eraan komt. Dus raytracing zal zeker er zeker zijn binnen 6 jaar.

[ Voor 6% gewijzigd door NitroX infinity op 17-10-2009 00:13 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Cheetah schreef op zaterdag 17 oktober 2009 @ 00:01:
[...]
Onderschatten van de competitie werkt daarnaast 2 kanten op natuurlijk he...
AMD concentreert zich momenteel op chips waar feitelijk alleen gamers wat aan hebben, GPGPU staat bij hun weinig verder dan de kinderschoenen.
Dat is een groot misverstand. AMD is daarin verder dan je denkt, maar dat zal je binnenkort wel zien. Ze werken gewoon op een andere manier. Er zijn al enkele GPGPU applicaties, die ook al eerder genoemd zijn, waar zelfs HD3870 rondjes rent om de GT200b. Dat zou niet het geval zijn als GPGPU nog in de kinderschoenen staat bij AMD, zoals je dat graag wilt denken.
nV voert a.t.m. een tweefrontenoorlog waarbij ze zowel actief aan de slag zijn voor gamers als voor GPGPU... en vooralsnog lijkt me daar vrij weinig over te klagen, want tot 5870 - waarvoor de nV tegenhanger nog moet verschijnen - presteerden hun high-end kaarten beter dan die van AMD in games.
En ook dat is weer subjectief en afhankelijk van de games die je pakt en welke videokaarten. De 1Ghz HD4890 was een aparte SKU die de GTX285 (en zelfs de OC varianten hiervan) flink het vuur aan de schenen legde voor veel minder geld. Zelfs de normale HD4890 weet in een redelijk aantal games beter te presteren dan de nV tegenhanger. En om tot die conclusie te komen hoef je echt geen toegang tot inside information te hebben. Dat ziet iedereen die zich een beetje verdiept in de materie en alles logisch analyseert. NV heeft het gewoon moeilijk op dit moment. De toekomst, want daar gaat dit topic over, ziet er op dit moment minder rooskleurig uit dan ze zouden willen. Maar ik weet zeker dat ze terug zullen veren.... alleen misschien niet op de manier zoals iedereen dat hoopt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 17 oktober 2009 @ 00:01:
[...]
Het zal me persoonlijk eerlijk gezegd allemaal worst wezen... Waar het om gaat is het volgende:
1. Consumentenprijs in vergelijk met de competitie
2. Prestaties in vergelijk met de competitie
3. Verbruik in vergelijk met de competitie
Als die 3 goed zitten dan is CUDA en wat daar verder bij komt (PhysX bijv) een fijne extra voor de consument.

Als die 3 niet goed blijken te zitten, dan is er reden tot klagen, eerder niet i.m.o. De chip 'te duur' vinden is i.m.h.o. nogal onzinnig als de kaarten op ongeveer hetzelfde niveau geprijst worden als hun ongeveer gelijk presterende evenknieen van AMD (wat bijzonder waarschijnlijk is), en het is nogal voorbarig om oordelen te vellen over Fermi als zowel prijs als prestaties als verbruik van die kaarten nog niet bekend zijn...
de die-size is gigantisch dus ze zullen er veel minder van 1 wafer kunnen maken.
ook de 40 nm procedure heeft op het moment zeer veel problemen
trouwens ik heb gehoord dat de memory controller (nog) niet goed werkt en dat die alleen werkt met hoog geklokte gddr5 geheugen. dat jaagt de kosten ook een keer

dit is een nV toekomst topic en we mogen voorspellingen doen btw.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 13:54
Cheetah schreef op zaterdag 17 oktober 2009 @ 00:01:
[...]en vooralsnog lijkt me daar vrij weinig over te klagen, want tot 5870 - waarvoor de nV tegenhanger nog moet verschijnen - presteerden hun high-end kaarten beter dan die van AMD in games. En de kaarten die gelijk presteerden aan die van AMD werden ook praktisch gelijk geprijst, met een over de boot genomen lager idle verbruik.
Niet helemaal....
4870 512MB was in de meeste benchmarks sneller dan de originele GTX 260 (en al helemaal als je resolutie vs resolutie bekijkt)
http://www.anandtech.com/video/showdoc.aspx?i=3341&p=1
4870 1GB won daar van de nieuwe GTX 260 in bijna alle benchmarks op bijna alle resoluties
http://www.anandtech.com/video/showdoc.aspx?i=3415&p=1
Beide kaarten waren op die moment goedkoper dan de nVidia variant, tegenargumenten zijn welkom, maar volgens mij is dit niet het juiste topic hiervoor... iets met nieuws enzo.

Over het Fermi verhaal: ik hoop dat ze snel, met een snellere & zeker wat prijs betreft i.i.g. goed concurrrende (prijs/performance) kaart komen... dan koop ik of een nVidia kaart of een lekker goedkope ATi (5870 2GB/5890/5870) kaart :).

Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Modbreak:Nogmaals, geen ATI vs NVIDIA discussies. Dit topic gaat over de toekomst van NVIDIA, en daarbij is het niet nodig allerlei ATIzaken erbij te halen. Die kunnen eventueel in het discussietopic, maar niet hier!

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zaterdag 17 oktober 2009 @ 00:36:
Dat is een groot misverstand. AMD is daarin verder dan je denkt, maar dat zal je binnenkort wel zien. Ze werken gewoon op een andere manier. Er zijn al enkele GPGPU applicaties, die ook al eerder genoemd zijn, waar zelfs HD3870 rondjes rent om de GT200b. Dat zou niet het geval zijn als GPGPU nog in de kinderschoenen staat bij AMD, zoals je dat graag wilt denken.
Dat zegt natuurlijk vrij weinig als je bedenkt dat de GTS250 ook rondjes rent om de HD5870 in CUDA optimized applicaties. Hangt er net van af of er uberhaupt, en zo ja hoe en waarvoor geoptimaliseerd is.
Dat er enkele applicaties zijn zegt behoorlijk weinig over hoever AMD is. nV heeft een compleet CUDA ontwikkelplatform, incl. dev-opleidingen, professionele support, libraries etc. AMD heeft voor zover bekend nog niets van die orde.
En ook dat is weer subjectief en afhankelijk van de games die je pakt en welke videokaarten. De 1Ghz HD4890 was een aparte SKU die de GTX285 (en zelfs de OC varianten hiervan) flink het vuur aan de schenen legde voor veel minder geld. Zelfs de normale HD4890 weet in een redelijk aantal games beter te presteren dan de nV tegenhanger. En om tot die conclusie te komen hoef je echt geen toegang tot inside information te hebben. Dat ziet iedereen die zich een beetje verdiept in de materie en alles logisch analyseert.
Ik verdiep me in de materie, analyseer logisch (fijne insinuatie weer: "als je logisch nadenkt dan heb ik gelijk"), en zie de GTX285 in verreweg de meeste charts op verreweg de meeste reviewsites boven de HD4890 staan, en vaak niet een heel klein beetje. Daar heb je inderdaad niet veel inside information voor nodig... De HD4890 is trouwens gepaired tegen de GTX275 (die ook een stuk goedkoper is dan de 285).
NV heeft het gewoon moeilijk op dit moment. De toekomst, want daar gaat dit topic over, ziet er op dit moment minder rooskleurig uit dan ze zouden willen. Maar ik weet zeker dat ze terug zullen veren.... alleen misschien niet op de manier zoals iedereen dat hoopt.
nV heeft het op dit moment moeilijk omdat hun geplande antwoord op HD5870 er nog niet is.
We zullen zien hoe het uitpakt zodra die er wel is... AMD heeft het 3 jaar moeilijk gehad, nV heeft het a.t.m. 3 weken moeilijk gehad... met vermoedelijk uitloop naar 3 maanden... ;)
Verwijderd schreef op zaterdag 17 oktober 2009 @ 00:50:
de die-size is gigantisch dus ze zullen er veel minder van 1 wafer kunnen maken.
Precies hetzelfde gold voor GT200 vs RV770. In de consumentenprijzen van gelijkpresterende parts was dat niet of nauwelijks te merken, en daar gaat het tenslotte om :)
En als we het over winst hebben: nV pakt - wellicht! - minder marge per chip dan ATi, maar ze schuiven wel meer chips. Dus wie weet wat er netto onder de streep gebeurd mag het zeggen...
I.v.m. Anantech die je aanhaalt: recentere test, uitgebreider & gebalanceerder benchmarkset, gemiddelden: klik
Daar kun je mooi de benchmarkgemiddelden van GTX275/285 vs 4890 en GTX260 vs 4870 vergelijken.
Ook de Tweakers review, en de meeste anderen zullen je precies hetzelfde vertellen... en ik ga hierna niet verder lopen benchmark/reviewsite-picken :)

[ Voor 19% gewijzigd door Cheetah op 17-10-2009 01:32 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
NV heeft het al langer moeilijk dan drie weken hoor. Bumpgate is ze niet in de koude kleren gaan zitten en is al tijden een slepende kwestie. NV komt net pas officieel met de eerste 40nm producten (GT220 en G210) terwijl deze al veel eerder hadden moeten verschijnen. En zelfs nu is de vorige generatie van AMD veel sneller, terwijl deze ook nog eens iets groter is en toch zuiniger (of net zo zuinig is) en goedkoper is. Problemen met zulke kleine GPUs voorspellen niet veel goeds voor de grotere GPUs op hetzelfde proces. Daar getuigt GT212 wel van, deze had indrukwekkende specs (die het midden houden tussen GT200 en Fermi, zo'n 1.8M transistoren had en een die-size van minder dan 300mm2. Dit had een supersnel kaartje kunnen worden voor een lage prijs... als ze deze inderdaad in Q2 hadden gelanceerd,maar helaas. Gecancelled. En niet zonder reden..... Dus dat ze het a.t.m. 3 weken moeilijk hebben? Helaas... tel er maar gerust wat wat kwartalen bij op.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

CJ schreef op zaterdag 17 oktober 2009 @ 00:36:
[...]


Dat is een groot misverstand. AMD is daarin verder dan je denkt, maar dat zal je binnenkort wel zien. Ze werken gewoon op een andere manier. Er zijn al enkele GPGPU applicaties, die ook al eerder genoemd zijn, waar zelfs HD3870 rondjes rent om de GT200b. Dat zou niet het geval zijn als GPGPU nog in de kinderschoenen staat bij AMD, zoals je dat graag wilt denken.
Heeft meer te maken met dual precision performance (waarin GT200b duidelijk tekort komt op ATi, fact) dan met GPGPU programming. De link die je legt tussen de volwassenheid van OpenCL en pure theoretische performance van een bepaalde chip klopt niet.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheetah schreef op donderdag 15 oktober 2009 @ 10:58:
Even afgezien van de 58x0 nu, kijkend naar de vorige generatie: In ruststand komt nV "prima mee"? In ruststand verslaat nV de AMD's. En gezien een kaart het grootste deel van zijn tijd in 2D doorbrengt is dat het meest belangrijk.
Under load pakken de nV kaarten inderdaad meer Watt's maar daar zijn de prestaties dan ook naar. Zeker als je bijvoorbeeld de 4890 vergelijkt met de GTX285, de laatste presteert ook gewoon aanmerkelijk beter, en die extra prestaties vertalen zich bij lange na niet naar een percentueel even hoge toename in Watt's. Performance per Watt is bij nV dus beter. Voor de 4870X2 vs GTX295 geldt precies hetzelfde trouwens...
Jij noemt het verslaan, ik noem het prima meekomen ;)

Een HD4890 loopt vrijwel altijd gelijk op met een GTX275 en zit in een aantal gevallen dicht bij de GTX285 in de buurt. Zijn genoeg reviews die dat bevestigen. Voor het bedrag waarvoor de kaarten over de toonbank gaan, luidt dat de HD4890 meer bang-per-buck bood dan de rest van het nVidia-arsenaal. Zelfs Tweakers komt tot die conclusie (zelfs => het feit dat de reviews nog lang niet zo professioneel werden gedaan als met de HD58xx-series).

Om niet helemaal offtopic te gaan en die lijn door te trekken naar nVidia's toekomst... ATi heeft een hoop consumentenvriendjes gemaakt en gaat vrolijk daarmee verder. Het groene team zal even moeten slikken maar ze hebben nog wel een aantal ijzers in het vuur (Nintendo-deal o.a.). Ten ondergaan is geen sprake van maar ze mogen wel opschieten en daarmee hopen niet teveel verlies te draaien de komende tijd omdat de marges op hun GT200b omlaag moesten... Een grote die werkt nu eenmaal tegen je en dan hebben we het nog niet eens over de yields gehad en de rest van de drama's waarmee nVidia de laatste jaren te kampen heeft gehad / heeft veroorzaakt (zie post CJ boven me). De HD5xxx heeft meer indruk gemaakt wat dat betreft en het blijkt gewoon dat je zowel van de gamers- als van de GPGPU-markt thuis moet zijn omdat het anders teveel klanten en dus geld kost. Nvidia blaast dan wel hoog van de toren over CUDA maar of het daadwerkelijk de upperhand heeft over Stream, betwijfel ik.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Jejking schreef op zaterdag 17 oktober 2009 @ 01:28:
Een HD4890 loopt vrijwel altijd gelijk op met een GTX275 en zit in een aantal gevallen dicht bij de GTX285 in de buurt. Zijn genoeg reviews die dat bevestigen. Voor het bedrag waarvoor de kaarten over de toonbank gaan, luidt dat de HD4890 meer bang-per-buck bood dan de rest van het nVidia-arsenaal. Zelfs Tweakers komt tot die conclusie (zelfs => het feit dat de reviews nog lang niet zo professioneel werden gedaan als met de HD58xx-series).
Die conclusie van Tweakers ligt wellicht aan het feit dat je de 4890 moet testen tegen de GTX275, niet de 285.
Nogmaals in de herhaling, recente gemiddelden met uitgebreider, gebalanceerder gamearsenaal: klik
De 275 is meer dan voldoende match voor de 4890.
Nvidia blaast dan wel hoog van de toren over CUDA maar of het daadwerkelijk de upperhand heeft over Stream, betwijfel ik.
Als je me kunt vertellen wie er allemaal met Stream aan de slag zijn..?
Of welke initiatieven AMD in de competitie met CUDA heeft genomen in deze verschillende richtingen?

Als ik TWIMTBP vergelijk met GITG waarbij je af en toe nog wat voorbij ziet komen van de laatste, dan kan ik me wel een impressie vormen van hoe het ervoor staat met CUDA vs Stream. Nog afgezien van CUDA/PhysX gamedeals, waar AMD vooralsnog ook geen antwoord op heeft.
Ik kan best me wel enig beeld vormen over of CUDA de upperhand heeft over Stream a.t.m. ;)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op zaterdag 17 oktober 2009 @ 01:50:

Als je me kunt vertellen wie er allemaal met Stream aan de slag zijn..?
Of welke initiatieven AMD in de competitie met CUDA heeft genomen in deze verschillende richtingen?
Gpgpu staat inderdaad nog in de kinderschoenen bij ATI. OpenCL is pas 4 dagen (!) geleden uitgekomen voor ATI. Het Stream framework is nooit een serieus platform geweest, het heeft veel te veel beperkingen. Op zich jammer, want zowel R700 als R800 hebben zeer veel potentieel. ATI heeft wat driver ontwikkeling en api ontwikkeling betreft NVIDIA nooit bij kunnen houden.

Het gaat allang niet meer om alleen ATI als concurrent. Ik begrijp die hier veelvuldig aangehaalde benchmarks tussen NVIDIA en ATI dan ook niet. Inmiddels maakt NVIDIA zich meer zorgen om Caustic graphics en Intel's Larrabee. Fermi is dan ook eerder een antwoord op deze twee raytracing en global illumination architecturen, en niet zozeer op ATIs R800.

Fermi is revolutionair wat gpgpu betreft, tenminste als Nvidia waar kan maken wat er in de whitepaper staat. Het is imho gezien de komst van Caustic en Larrabee, dan ook de meest logische stap die Nvidia maken kan.

[ Voor 5% gewijzigd door Verwijderd op 17-10-2009 09:12 ]


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 13:42

pino85

Im just a Bird in the Sky

Fermi is revolutionair wat gpgpu betreft, tenminste als Nvidia waar kan maken wat er in de whitepaper staat. Het is imho gezien de komst van Caustic en Larrabee, dan ook de meest logische stap die Nvidia maken kan
Dat valt uiteindelijk te bezien of het ook echt goed gaat uitpakken deze zeer logische stap volgens jou.
Heb toch het idee dat ik als gamer min of meer minder serieus word genomen
Ik begrijp het ook wel de keuze die ze maken maar vrolijk word ik er nu nog niet van
De vraag is ook, hoe veel jaar gaat er over eer men al die luxe en geweldige functies kan gebruiken wanneer worden ze echt gemeengoed?


Denk dat dit nog wat jaren weg is of ben ik dan te negatief? en mocht het echt zo zijn dat ze dus min of meer van het pure gamers kaarten idee afstappen en zich echt op een andere markt meer en meer gaan focussen en dat dus verwerken in hun kaarten die nog wel gewoon goede gamers kaarten zullen zijn, tja dat is een keuze natuurlijk, maar ik blijf het idee houden en correct me if im wrong, dat de klant door die mooie functies aan boord waar je nu nog echt niets aan hebt extra kan gaan betalen.
Want het word een complexe kaart hier door en ze zullen toch het geld er uit moeten halen.

Het kan natuurlijk aanslaan deze complexe kaart die ze nu maken met idd *revolutionaire zaken* aan boord, of het word een flop vanwege dat het nog jaren kan duren eer een consument die gamers kaarten koopt al die functies echt kan gebruiken en daar voor wil betalen?
Als ik nu naar die vrienden van mij kijk, die hebben de knoop door gehakt om toch nu de ATI 5000 serie kaarten te halen, ze zeiden letterlijk:
Het word een mooie complexe kaart met veel zaken aan boord wat in de toekomst belangrijk gaat zijn waar we veel aan hebben maar op dit moment is dat alles behalve het geval als consumenten, en het geld zal er toch uit moeten worden gehaald en wij geloven dat wij de consument moeten gaan betalen voor functies waar we nog niets aan hebben en dat willen we niet, ook hebben we van NVIDIA geen duidelijkheid tot op heden gekregen en ook daardoor doet ons besluiten om niet meer te wachten
En voor de duidelijkheid dit zijn normaliter echte diehard NVIDIA fans, maar puur gamers en niet zo into alle technische kanten van de aankomende kaart maar voor hun was de maat nu vol
Dit zou goed ook bij vele anderen langzaam het geval kunnen zijn

Ach wie weet maken ze wel een denkfout over bv de prijs en gaat die enorm mee vallen, maar met zo'n complexe kaart kan ik het me bijna niet voorstellen als je er ook nog geld op terug wilt verdienen.
Wat denken jullie?

[ Voor 31% gewijzigd door pino85 op 17-10-2009 10:31 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Een kaart kan revolutionair zijn op papier, maar of het een succes wordt hangt echt af van de timing van release en de uiteindelijke prijs. Een kaart die nu verkrijgbaar is en 25% sneller is dan de HD5870 zal anders worden ontvangen dan wanneer diezelfde kaart over een paar maanden in (bv) Februari verkrijgbaar is. Het landschap verandert continue.

De NV30 was op papier ook erg revolutionair, maar in de praktijk kon het dit niet waar maken. In mindere mate gold dit ook voor de R600. Ik zeg expres in mindere mate, omdat diezelfde architectuur ook gebruikt wordt in de R700 en R800 generatie en deze wel weer succesvol waren.

Persoonlijk vind ik Fermi (GF100) echt niet zo revolutionair als NV ons wil doen denken of zoals de eerste geruchten het deden lijken. Het is meer een GT200 op steroiden en flink wat tweaks, net zoals Cypress een RV770 op steroiden is. Ik kijk dan ook meer uit naar de volgende generatie van NV en AMD (Hecatoncheires).

CUDA en Stream zijn allemaal erg leuke ontwikkelingen, maar daar heb je weinig aan als je continue tegenslagen moet verwerken waardoor je geeneens tijdig kaarten op de markt kan brengen. NV zal z'n timing en execution flink moeten verbeteren in de toekomst. Daar schort het nogal aan in mijn ogen. En niet alleen de gamers hebben er last van, maar ook de partners. Natuurlijk heb je bepaalde dingen niet in de hand, maar op dit moment lijkt AMD de boel een stuk beter georganiseerd te hebben.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op zaterdag 17 oktober 2009 @ 09:06:
Het gaat allang niet meer om alleen ATI als concurrent. Ik begrijp die hier veelvuldig aangehaalde benchmarks tussen NVIDIA en ATI dan ook niet. Inmiddels maakt NVIDIA zich meer zorgen om Caustic graphics en Intel's Larrabee. Fermi is dan ook eerder een antwoord op deze twee raytracing en global illumination architecturen, en niet zozeer op ATIs R800.
Exact mijn punt... nV heeft wel meer competitie aan z'n hoofd dan alleen ATi. Alleen werd hier de stelling gelanceerd dat omdat nV zich (ook) concentreert op CUDA/GPGPU hun kaarten op game-vlak niet competief zouden zijn (of worden) met die van ATi. En die stelling klopt niet - of hoeft in ieder geval niet te kloppen - alleen wil men dan jammergenoeg weer dat je dat hard gaat aantonen en dan verzanden we weer in al lang platgetrapte benchmarks, scheve vergelijkingen van de 4890 met GTX285 terwijl de GTX275 die er in werkelijkheid tegenover staat qua prijs en prestaties wordt genegeerd etc... waarna je weer wordt geconfronteert met cognitieve dissonantie bij enkelen als je erop wijst. Hoop oprecht dat we daar nu dan ook klaar mee zijn :)
Modbreak:Ik ook.

Ik hoop bovenal dat je niet meer dit soort achterbaks flamerige bewering doet - impliceren dat iedereen die het niet met je eens is cognitieve dissonantie heeft is gewoon een flame, hoe ingewikkeld je het ook brengt :/

Vergeet aub niet waarom je een tijd lang niet hebt kunnen genieten van ons forum. Het had iets te maken met exact dit soort posts in exact dit soort discussies.
pino22 schreef op zaterdag 17 oktober 2009 @ 09:54:
Dat valt uiteindelijk te bezien of het ook echt goed gaat uitpakken deze zeer logische stap volgens jou.
Heb toch het idee dat ik als gamer min of meer minder serieus word genomen
Ik begrijp het ook wel de keuze die ze maken maar vrolijk word ik er nu nog niet van
De vraag is ook, hoe veel jaar gaat er over eer men al die luxe en geweldige functies kan gebruiken wanneer worden ze echt gemeengoed?

Denk dat dit nog wat jaren weg is of ben ik dan te negatief? en mocht het echt zo zijn dat ze dus min of meer van het pure gamers kaarten idee afstappen en zich echt op een andere markt meer en meer gaan focussen en dat dus verwerken in hun kaarten die nog wel gewoon goede gamers kaarten zullen zijn, tja dat is een keuze natuurlijk, maar ik blijf het idee houden en correct me if im wrong, dat de klant door die mooie functies aan boord waar je nu nog echt niets aan hebt extra kan gaan betalen.
Want het word een complexe kaart hier door en ze zullen toch het geld er uit moeten halen.

Het kan natuurlijk aanslaan deze complexe kaart die ze nu maken met idd *revolutionaire zaken* aan boord, of het word een flop vanwege dat het nog jaren kan duren eer een consument die gamers kaarten koopt al die functies echt kan gebruiken en daar voor wil betalen?
Waarom denk je dat jij als gamer daarvoor moet betalen?
Heb je het gevoel als gamer daarvoor te hebben moeten betalen bij GT200, in de competitie met ATi?

Ik heb het eerder even aangestipt, maar waar nV a.t.m. primair op mikt met CUDA is de zakelijke markt. En de zakelijke markt telt 5-10x zo veel neer voor een 'CUDA-engine' als een gamer betaald voor zijn Geforce. Daarmee, en met de verkoop van ontwikkeltools en developpersupport, incl. CUDA hardware/software totaaloplossingen, aan zakelijke klanten wil nV niet alleen de CUDA rekening betalen, maar ook winst maken. Dat is m.i. een heel gezond business model.

nV weet dondersgoed dat ze op de gamemarkt competief moeten blijven met ATi, en dus geen extra rekening bij de gamer kunnen neerleggen. Hebben ze bij GT200 ook niet gedaan, ze zijn altijd competief gebleven, dus waarom men nu plots gaat denken dat nV dat bij GT300 ineens helemaal anders gaat doen en de gamer naar verhouding met ATi nu plots wel veel meer geld gaat vragen is me echt een raadsel... ;)

Als je het mij vraagt heeft het gekerm over die-sizes en CUDA die dramatisch veel invloed zouden moeten hebben op de pricing van nV's game-line meer met FUD (desinformatie) van de tegenpartij te maken dan met realiteit... exact deze zelfde verhalen waren er ook bij achtereenvolgens G80, G92 en GT200. De gamer krijgt vooralsnog CUDA feitelijk kado, meeliftend met de zakelijke markt. Totdat ik zie dat nV qua pricing een totaal andere weg in slaat zie ik geen enkele reden om aan te nemen dat ze dat gaan doen ;)

[ Voor 10% gewijzigd door dion_b op 17-10-2009 14:41 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
GT300? Het is een Fermi kaart en geen Tesla kaart... GF100 dus. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

pino22 schreef op zaterdag 17 oktober 2009 @ 09:54:

De vraag is ook, hoe veel jaar gaat er over eer men al die luxe en geweldige functies kan gebruiken wanneer worden ze echt gemeengoed?

Denk dat dit nog wat jaren weg is of ben ik dan te negatief?
Daar durf ik niets over te zeggen :). Zowel Fermi, Caustics graphics kaart en Larrabee moeten nog op de markt komen. Het blijft speculatie. Wel is het zo dat met de komst van Fermi de ontwikkelaar zeer waarschijnlijk (volgens de specificaties van de whitepaper) grote vooruitgang zal boeken in de ontwikkeling van real-time global illumination.

Voor wat het waard is, ik werk momentaan(commercieel) aan de ontwikkeling van real-time unbiased gi op de gpu(platform onafhankelijk). Ik zit in ieder geval met smart op Fermi te wachten :). Omdat de gpgpu api's nog volop in ontwikkeling zijn en het nog niet duidelijk is wat zich door gaat zetten voor dit gebied, werk ik zowel met CUDA, als OpenCL als met traditionele cg/glsl shaders onder OpenGL. Waarbij CUDA natuurlijk NVIDIA only is.
CJ schreef op zaterdag 17 oktober 2009 @ 10:12:

Persoonlijk vind ik Fermi (GF100) echt niet zo revolutionair als NV ons wil doen denken of zoals de eerste geruchten het deden lijken. Het is meer een GT200 op steroiden en flink wat tweaks, net zoals Cypress een RV770 op steroiden is...
Ik vond G200 meer een evolutie van de G80 architectuur en Fermi lijkt dan weer (volgens de whitepaper) een revolutie te zijn.
CUDA en Stream zijn allemaal erg leuke ontwikkelingen, maar daar heb je weinig aan als je continue tegenslagen moet verwerken waardoor je geeneens tijdig kaarten op de markt kan brengen. NV zal z'n timing en execution flink moeten verbeteren in de toekomst. ...
Zo laat zal Fermi naar verwachting (December 2009) toch niet zijn? De G80 kwam in November 2006 uit, anderhalf jaar later kwam in juni 2008 G200 uit en weer anderhalf jaar later komt naar verwachting in December 2009 de G300 uit. Steeds precies anderhalf jaar voor een generatie.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik zou m'n verwachtingen maar niet te hoog instellen zeker niet wanneer het op beschikbaarheid aan komt dit jaar...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Voor de gemiddelde consument heeft gpgpu gewoon weinig nut. Ik zie CUDA echt als een extraatje voor de gamers onder ons. Ook met physX is dit zo. Slechts enkele games ondersteunen het. Toegegeven, ati heeft nog geen games uitgebracht met physX dus nvidia is een stapje voor maar verwacht niet dat dit nvidia echt een voorsprong geeft op ati qua features. Dit denken veel mensen wel maar helaas blijft het gewoon een extraatje.

We kunnen nu nog niet gaan bashen op Fermi omdat de kaart nog niet eens uit is. Maar we kunnen wel objectief blijven kijken hoe Nvidia het de afgelopen jaren heeft gedaan en daaruit misschien een klein beetje opmaken hoe het in de toekomst zal gaan.

Als we nou een kijken naar het hele CUDA verhaal. CUDA heeft grote mogelijkheden voor devs in alle soorten categorieën. Maar hoe veel hebben we hier van terug gezien? Niet veel. Kijk nou ook eens naar quad core cpu's. Hoeveel programma's maken nou werkelijk 100% gebruik van die cpu? Sommige applicaties wel maar dan vaak in professionele richting. Zullen we nu ineens in de komende 2 jaar een grote voorruitgang zien in multi-core ondersteuning? Misschien wel want dx11 ondersteund het nu officieel. En waarom zou dat nu betekenen dat devs hier gebruik van maken? Simpel, omdat het nu door een platform wordt ondersteund dat een groot publiek heeft. En hoe zit dat met CUDA? Zullen we nu ineens een drastische verandering zien in het aantal applicaties dat van CUDA gebruik maakt? De mogelijkheid is er zeker. Maar aangezien devs ook dx11 shaders kunnen gebruiken waarom zouden ze dan niet meteen hun programma daarop maken en ook aan mensen met Radeons en FireGL's kunnen verkopen.

Veel mensen kijk naar CUDA als iets wat veel mogelijkheden aan een software dev geeft. Het kan de concurrentie positie qua feutures zeker weten verbeteren. Maar daar gaat het helemaal niet om. Bedrijven willen niet de snelste app bouwen. Dat is echt een illusie. Bedrijven willen winst maken. En als je je alleen richt op mensen met Nvidia kaarten, mis je een deel van de afzetmarkt. Software devs willen geld verdienen. Met CUDA is dat mogelijk maar ik denk dat dx11 computing veel meer kansen biedt dan CUDA voor een bedrijf. Zeker nu we zien dat veel mensen ati kaarten beginnen te kopen. Natuurlijk kan dit veranderen met Fermi maar daar zijn we nog niet zeker over. En Devs natuurlijk ook niet.

En dit gaat natuurlijk allemaal over hoe nvidia kaarten worden gebruikt in bedrijven. Nog niet eens zo zeer denken we nu aan de gemiddelde consument die vaak wil gamen met zo'n high-end videokaart. Maar doet ati nu ineens onder in bedrijven? Dat ligt er echt aan welke applicaties men gebruikt. Ik denk dat maar een klein percentage van de applicaties die worden gebruikt in een bedrijf baat hebben bij Cuda. Ik zie Ati eyefinity echt als iets dat veel bedrijven echt zullen waarderen. Wat denk je van banken/ beurshandelaars (een van de grootste sectoren). Zo zie je maar weer dat het zelfs in het bedrijfsleven CUDA niet altijd voordeel oplevert. Ati eyefinty ook niet altijd maar consumenten/ati betalen hiervoor niet extra veel aan de chip zelf. Wat bij CUDA wel het geval is.

Dit gaat allemaal over het bedrijfsleven. We hebben het nog niet eens over de games! PhysX is al aanwezig in sommige games maar meer dan een extraatje is het niet voor de gemiddelde consument. In veel games wordt de cpu niet eens volledig benut. Dus maak daar eerst gebruik van!

Al je naar games als crysis warhead kijkt dan zie je vooral dat de gpu zwaar belast wordt. Die zit dus echt niet te wachten op nog meer berekeningen. Laat dat de cpu doen! Bovendien zie je er niet al te veel van terug. Bij batman hadden de physX ook makkelijk op de CPU gekunt. Alleen die demo's suggeren dat we echt allemaal massaal een nvidia kaart moeten kopen. Maar wanneer gaan we dat terug zien in games? Ik vraag me af of dat echt zo snel gaat gebeuren. Zelfs nvidia wil er niet zo veel manuren voor inzetten om zulke complexe physX in een game te doen.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 31-07 22:34
Ja nvidia heeft het moeilijk maar zij zijn bezig om te investeren in hun toekomst. Die toekomst is niet dit jaar maar over een paar jaar 2012 - 2015. De ingezakt beurskoers van NVDA mag er dan niet rooskleurig uitzien echter is NVDA (enkel GPU) nog steeds > 2x zo groot als AMD (CPU + GPU) in waarde.

De Tegra (ARM) wordt mega business. Deze chip is inzetbaar in gms's, MID's, Iphones, handheld gaming devices wat een mega grote markt is, veel groter als de huidige PC markt. Over een paar jaar zal Google OS de Tegra toegang geven tot de netbook markt. Deze markt wordt in aantallen en turnover nog groter dan de huidige ATOM netbook markt. Tijdens de laatste financial resultaten heeft Intel bekend gemaakt al meer dan 1 miljard USD aan Atoms te hebben verkocht. Om je maar een indicatie te geven van het markt potentieel. Natuurlijk is de ARM architectuur als licentie aan meerdere bedrijven uitgegeven. Geduchte concurrent zal de SnapDragon worden van Qualcomm.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 31-07 02:27
Iedereen zegt wel dat het niet goed is met , nVidia, maar dit bedrijf zal niet falliet gaan.

De redenen zijn makkelijk,

Ten eerste, de high end markt is ook weer niet zo groot, misschien hier in tweakers land wel, maar niet voor bijvoorbeeld jan met de pet...

Ten tweede, stap eens de mediamarkt in, en kijk naar kant en klare computers, dan zie je dat zeker 60-75% een nVidia videokaart heeft met "1 GB geheugen... Geweldig!". Dus als ze de high end markt verliezen, dan verliezen ze geld, dat klopt, maar een gemiddelde nederlander denkt dat een GT220 met 1 GB sneller is dan een Ati radeon hd 4870 met 512 mb..

Ten derde, videokaarten is niet alles, ze verdienen ook veel geld aan ION..

Ik denk wel dat de volgende jaren zwaar zullen worden, maar niet dat, zoals veel mensen zeggen, nVidia echte finaniele problemen zal krijgen..

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Topicstarter
M4gick schreef op zondag 18 oktober 2009 @ 12:39:
Iedereen zegt wel dat het niet goed is met , nVidia, maar dit bedrijf zal niet falliet gaan.

De redenen zijn makkelijk,

Ten eerste, de high end markt is ook weer niet zo groot, misschien hier in tweakers land wel, maar niet voor bijvoorbeeld jan met de pet...

Ten tweede, stap eens de mediamarkt in, en kijk naar kant en klare computers, dan zie je dat zeker 60-75% een nVidia videokaart heeft met "1 GB geheugen... Geweldig!". Dus als ze de high end markt verliezen, dan verliezen ze geld, dat klopt, maar een gemiddelde nederlander denkt dat een GT220 met 1 GB sneller is dan een Ati radeon hd 4870 met 512 mb..

Ten derde, videokaarten is niet alles, ze verdienen ook veel geld aan ION..

Ik denk wel dat de volgende jaren zwaar zullen worden, maar niet dat, zoals veel mensen zeggen, nVidia echte finaniele problemen zal krijgen..
Probleem is de gemiddelde mens schakelt kennissen in voor pc's die wel verstand van videokaarten hebben en die weten dat de mid-end ATI toch beter scoort als mid-end Nvidia..

Mja dan nog zie ik idd Nvidia nooit failliet.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

The Source schreef op zondag 18 oktober 2009 @ 12:19:
Ja nvidia heeft het moeilijk maar zij zijn bezig om te investeren in hun toekomst. Die toekomst is niet dit jaar maar over een paar jaar 2012 - 2015. De ingezakt beurskoers van NVDA mag er dan niet rooskleurig uitzien echter is NVDA (enkel GPU) nog steeds > 2x zo groot als AMD (CPU + GPU) in waarde.

De Tegra (ARM) wordt mega business. Deze chip is inzetbaar in gms's, MID's, Iphones, handheld gaming devices wat een mega grote markt is, veel groter als de huidige PC markt. Over een paar jaar zal Google OS de Tegra toegang geven tot de netbook markt. Deze markt wordt in aantallen en turnover nog groter dan de huidige ATOM netbook markt. Tijdens de laatste financial resultaten heeft Intel bekend gemaakt al meer dan 1 miljard USD aan Atoms te hebben verkocht. Om je maar een indicatie te geven van het markt potentieel. Natuurlijk is de ARM architectuur als licentie aan meerdere bedrijven uitgegeven. Geduchte concurrent zal de SnapDragon worden van Qualcomm.
Ik richt me ook vooral op een desktop-gpu afedeling. Natuurlijk gaat Nvidia niet failliet. Het Bedrijf is nog steeds veel groter dan amd, zoals jij al zei. De ARM kan voor nvidia een hele grote business worden ja maar op de korte termijn moeten we maar afwachten hoe het gaat lopen. Nvidia zoekt een nieuwe afzetmarkt en dat is goed alleen om te denken dat fermi een grote stoot in de rug gaat worden voor het bedrijf is niet echt realistisch.

Nvidia zet groot geld op nieuwe technologieën die volgens hen veel geld gaan opleveren later. Daarbij denken ze dat ze als bedrijf zich alles kunnen veroorloven en ze echt zo veel macht hebben. De laatste tijd komt Nvidia nog al arrogant en koppig over. Ze denken dat ze zo maar even over de concurrentie heen lopen. En nu hopen ze met CUDA een hele hoop mensen te winnen voor hun producten. Ze denken dat omdat ze 2x zo veel marktaandeel hebben ze gewoon over de concurrentie heen kunnen lopen. Maar een klein bedrijf kan toch ongelooflijk rake klappen uitdelen. En dan zie je dat nvidia toch heel erg afhankelijk is van deze desktop-gpu markt.

Het kan 3 kanten op gaan met nvidia:
1. Hun arrogante strategie werkt bijzonder goed (dat hebben we gezien *ahum*)
2. Ze gaan zich nu echt weer richten op de klant en hun eigen portemonnee (door die grote chips verliezen zij EN de klant heel veel geld)
3. Hun strategie werkt niet maar door al hun geld reserves en macht in de markt moet ati straks toch het onderspit delven.

Ik denk dat nummer 3 het wel kan worden maar nummer 2 is veel beter voor iedereen :)

Ze moeten zich minder gaan concentreren op hun machtsmonopolie en meer op hun winst al bedrijf zelf. Het probleem is dat zij denken dat ze de grootste zijn maar helaas komen ze er achter dat dat zelfs niet het geval is (geen s1366 mobo's meer door de grootste speler: intel, een voorbeeldje. En wat dacht je van Larrebee?).

Als intel iets wil gebeurt het ook. Als nvidia iets wil denken ze dat ze het krijgen maar dat is lang niet altijd het geval).

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 31-07 17:57
M4gick schreef op zondag 18 oktober 2009 @ 12:39:


Ten derde, videokaarten is niet alles, ze verdienen ook veel geld aan ION..
Ion is een doodlopend iets. Volgend jaar worden de nieuwe atoms (Pineview) met geïntegreerde geheugen controller en integrated graphics core geïntroduceerd. Nvidia's ION platform kan dan nog maar weinig toevoegen (geen meerwaarde) aan de atom. De huidige Atoms kunnen dus in korte tijd EOL gaan en gaat dus het ion platform op de schop.

[ Voor 16% gewijzigd door Blastpe op 18-10-2009 13:33 ]


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 31-07 11:23
The Source schreef op zondag 18 oktober 2009 @ 12:19:
Ja nvidia heeft het moeilijk maar zij zijn bezig om te investeren in hun toekomst. Die toekomst is niet dit jaar maar over een paar jaar 2012 - 2015. De ingezakt beurskoers van NVDA mag er dan niet rooskleurig uitzien echter is NVDA (enkel GPU) nog steeds > 2x zo groot als AMD (CPU + GPU) in waarde.
En toch zal fermi wellicht een tegenvaller zijn. Om eerlijk te zijn was ik ook in het begin van die gpu overrompeld, de gpgpu mogelijkheden lijken fantastisch & vooruitstrevend. Maar nu komt er ook steeds meer informatie beschikbaar over de gpgpu mogelijkheden van evergreen en dan blijkt dat ze niet zo verschillend zijn. Fermi heeft 2 grote voordelen tov evergreen:
1) virtual method dispatch in de hardware ingebouwd (aangezien gpu's nog geen functiepoiners hebben kan je wellicht geen vTables gebruiken, en wat zal dit doen met de performance?, wellicht even duur als een branch)
2) een uniforme adresruimte (maar voor performance moet je hier niet teveel op rekenen, er is trouwens geen algemene cache coherentie, je moet je geheugen dus toch opdelen in afzonderlijke ruimtes als je consistentie wil)
De cache architectuur is gelijkaardig, fermi heeft wel een stuk meer cache. De double performance is beter maar ik denk dat evergreen een beter evenwicht heeft omdat het 80 % van zijn uitvoereenheden kan hergebruiken voor doubles.
Foutcorrectie, parrallel kernel uitvoering, IEEE compliance etc zitten blijkbaar ook allemaal min of meer in evergreen, niet vergeten dat een van de grondleggers van gpgpu, Mike Houston, voor amd werkt.
De Tegra (ARM) wordt mega business. Deze chip is inzetbaar in gms's, MID's, Iphones, handheld gaming devices wat een mega grote markt is, veel groter als de huidige PC markt. Over een paar jaar zal Google OS de Tegra toegang geven tot de netbook markt. Deze markt wordt in aantallen en turnover nog groter dan de huidige ATOM netbook markt. Tijdens de laatste financial resultaten heeft Intel bekend gemaakt al meer dan 1 miljard USD aan Atoms te hebben verkocht. Om je maar een indicatie te geven van het markt potentieel. Natuurlijk is de ARM architectuur als licentie aan meerdere bedrijven uitgegeven. Geduchte concurrent zal de SnapDragon worden van Qualcomm.
Ze zullen wel moeten opboksen tegen intel (die qua met betere proces technologie hun x86 processor zuinig maakt & zo veel compatibiliteit scoort) en powervr (die de laatste 10 jaar al aan het specialiseren is in gpu's voor ultramobiele toepassingen).

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
oeLangOetan schreef op zondag 18 oktober 2009 @ 14:26:
[...]
niet vergeten dat een van de grondleggers van gpgpu, Mike Houston, voor amd werkt.
En niet alleen Mike Houston, maar ook David Hoff, die er voor gezorgd heeft dat CUDA zo veel developersupport heeft gekregen zit nu bij AMD ipv NVIDIA.

David heeft er toendertijd bij NV als Senior Product Manager van CUDA, bijna single handed voor gezorgd dat CUDA zo veel support heeft gekregen. Ik heb er dus alle vertrouwen in dat hij hetzelfde kan doen voor AMD Stream, maar dan met OpenCL en DirectCompute (en indirect profiteert NV hier dus ook van mee).

Aan de andere kant heeft NV ook interessante mensen bij AMD weg gekaapt, zoals de kerel die voorheen aan het hoofd stond van de Mobility Radeon reeks. Wellicht dat deze de mobile division weer wat op het rechte pad kan krijgen aangezien AMD dit jaar NV heeft ingehaald en weer de grootste is op het gebied van mobile discrete GPUs.

David Hoff heeft overigens een update over PhysX op AMD GPUs:
Until now, in every written and verbal communication we've had with them, they've absolutely insisted we'd never get access to PhysX.

...

They've certainly got my e-mail address and contact information as I've sent them e-mail suggesting they allow us to support PhyX in OpenCL just as we're doing with Havok in the past. And I'm not sure what it means that we can come "negotiate" a license from them, doesn't quite sound like we'd get the code quite as easily as we have the Havok and Bullet code which we get freely.
Ik ben van mening dat het alleen maar positief voor NVIDIA is als ze PhysX open stellen voor andere GPUs dan hun eigen. Niet alleen omdat ze daarmee PhysX veel gemakkelijker kunnen pushen en meer GPUs kunnen verkopen, maar vooral omdat ze daarmee hun imago een positieve boost geven (wat ze wel kunnen gebruiken).

[ Voor 33% gewijzigd door CJ op 18-10-2009 14:53 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Nvidia is niet groter dan amd.

Amd heeft minder aandelen op de beurs staan. Teminste dat is wat ik me kan herrineren te gelezen hebben hier op deze forums.

Acties:
  • 0 Henk 'm!

  • -AzErTy-
  • Registratie: Oktober 2005
  • Nu online
Dat is niet waar volgens deze links: AMD Nvidia

Amd heeft 667 miljoen aandelen goed voor een totale marktkapitalisatie van 3,83 miljard dollar terwijl
Nvidia 547 miljoen aandelen heeft die goed zijn voor 7,24 miljard dollar.
Volgens analisten wordt Nvidia dus inderdaad gezien als het grotere bedrijf.

Ook interessant is dat Amd met een schuld van 5,62 miljard zit en ongeveer 2,5 miljard in kas heeft
tegenover een schuld van slechts 25 miljoen dollar voor Nvidia dat 1,47 miljard in reserve heeft.

Louter op cijfers zou ik zeggen dat Nvidia een veel gezonder bedrijf is op het ogenblik dan Amd.

God does not play dice


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op zondag 18 oktober 2009 @ 14:40:
David Hoff heeft overigens een update over PhysX op AMD GPUs:

Ik ben van mening dat het alleen maar positief voor NVIDIA is als ze PhysX open stellen voor andere GPUs dan hun eigen. Niet alleen omdat ze daarmee PhysX veel gemakkelijker kunnen pushen en meer GPUs kunnen verkopen, maar vooral omdat ze daarmee hun imago een positieve boost geven (wat ze wel kunnen gebruiken).
Ik heb al eerder in de thread uitgelegd waarom het volslagen logisch is dat nV niet toestaat dat CUDA wordt geport naar OpenCL --> MS (vgl nV) staat uiteraard ook niet toe dat Office2010 (vgl CUDA) wordt geport naar OpenOffice (vgl OpenCL) omdat een concurrent (vgl AMD) alleen onder die voorwaarde het ".doc" (vgl PhysX) formaat wil ondersteunen.
Het voorstel van AMD daaromtrent is gewoonweg absurd, en dat snapt David Hoff zelf ook wel, maar hij moet de weigering van AMD om CUDA (en daarmee dus PhysX) te supporten verkopen aan zijn achterban en dat probeert hij door te doen alsof nV de 'schuldige' is hieraan. En blijkbaar lukt dat ook nog...

Als AMD PhysX wil supporten moeten ze CUDA gaan supporten. Dat was de deal, en die weigert AMD.
nV gaat uiteraard de broncode van een volledig door hun ontwikkeld - en bekostigd - marktleidend GPGPU platform niet zomaar gratis en voor niks weggeven en laten omzetten naar een open standaard die jan en alleman gratis en voor niks kan gebruiken. Duh... geen enkel commercieel bedrijf dat beschikt over een enigzins rationeel denkende CEO zou onder dergelijke omstandigheden zo'n beslissing nemen ;)
Verwijderd schreef op zondag 18 oktober 2009 @ 13:11:
Nvidia zoekt een nieuwe afzetmarkt en dat is goed alleen om te denken dat fermi een grote stoot in de rug gaat worden voor het bedrijf is niet echt realistisch.
Want?
Nvidia zet groot geld op nieuwe technologieën die volgens hen veel geld gaan opleveren later.
Zij stellen middels CUDA hardware, en een compleet ontwikkelplatform om deze hardware aan te boren, met een enorm potentieel aan rekenkracht ter beschikking aan de commerciele markt. Rekenkracht die in single presicion de snelste desktopprocessors (Core i7) met een factor 10x voorbijschiet... waardoor een bedrijf in plaats van kapitalen aan multi-cpu workstations uit te geven toekan met een veel goedkopere single CPU+CUDA-engine oplossing, die daarbij nog meer rekenkracht oplevert ook.
Klinkt dat jou niet in de oren als iets wat enorm veel geld kan opleveren dan?
Daarbij denken ze dat ze als bedrijf zich alles kunnen veroorloven en ze echt zo veel macht hebben. De laatste tijd komt Nvidia nog al arrogant en koppig over. Ze denken dat ze zo maar even over de concurrentie heen lopen. En nu hopen ze met CUDA een hele hoop mensen te winnen voor hun producten. Ze denken dat omdat ze 2x zo veel marktaandeel hebben ze gewoon over de concurrentie heen kunnen lopen.
Waaruit concludeer je dit? Als ik het goed begrijp: Omdat ze innoveren en met CUDA een nieuwe markt aanboren 'denken ze zomaar over de concurrentie heen te kunnen lopen' :?
Dat moet je me eens uitleggen, want ik snap die conclusie - sterker nog, het hele verband - niet?

[ Voor 48% gewijzigd door Cheetah op 19-10-2009 06:41 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Modbreak:Discussies met betrekking tot technische dingen zoals CUDA mogen (vooralsnog) in het [Algemeen] nVidia Nieuws & Discussie Topic - Deel 40, dus niet hier

Acties:
  • 0 Henk 'm!

Verwijderd

M4gick schreef op zondag 18 oktober 2009 @ 12:39:
Iedereen zegt wel dat het niet goed is met , nVidia, maar dit bedrijf zal niet falliet gaan.

De redenen zijn makkelijk,

Ten eerste, de high end markt is ook weer niet zo groot, misschien hier in tweakers land wel, maar niet voor bijvoorbeeld jan met de pet...

Ten tweede, stap eens de mediamarkt in, en kijk naar kant en klare computers, dan zie je dat zeker 60-75% een nVidia videokaart heeft met "1 GB geheugen... Geweldig!". Dus als ze de high end markt verliezen, dan verliezen ze geld, dat klopt, maar een gemiddelde nederlander denkt dat een GT220 met 1 GB sneller is dan een Ati radeon hd 4870 met 512 mb..

Ten derde, videokaarten is niet alles, ze verdienen ook veel geld aan ION..

Ik denk wel dat de volgende jaren zwaar zullen worden, maar niet dat, zoals veel mensen zeggen, nVidia echte finaniele problemen zal krijgen..
+1 eindelijk heeft iemand het door dat niet de wereld aleen bestaat uit tweakers en games
Strker nog het grootste gedeelte bestaat hier niet uit. Geld moet trouwens komen van de low/mid end markt.
De rest is maar bijzaak voor nvidia

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 31-07 23:26

Edmin

Crew Council

get on my horse!

De rest is bijzaak? De high-end markt levert wellicht niet de meeste omzet; het levert wel de meeste PR. NV moet het op het moment nog steeds sterk hebben van mensen die NV kennen als 'dat merk dat altijd de beste (lees snelste) videokaarten maakte. Prestige is enorm belangrijk, daarom richt zo'n groot deel van de marketinginspanning zich daar ook op.

en zoals eerder al gesteld: ION is ten dode opgeschreven. Het is een prima platform, maar Intel draait het met de komende generaties keihard de nek om.

[ Voor 18% gewijzigd door Edmin op 19-10-2009 11:13 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Het is idd leuk voor nvidia om de snelste te blijven of wat dan ook maar geen must.
Ik denk dat nvidia zich prima kan redden zonder de high end markt. Maar het zou wel
jammer zijn als ze daar mee zouden stoppen (wat ze gelukkig ook niet gaan doen)
Ze staan nu ff k*t er bij maar goed welk bedrijf heeft dat nu nooit gehad?
Het is juist wel een keer goed om niet de beste te zijn, anders worden ze lui. Dus af en toe wat minder zijn is goed zo worden ze weer heerlijk wakker geschud

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Verwijderd schreef op maandag 19 oktober 2009 @ 11:18:
Het is idd leuk voor nvidia om de snelste te blijven of wat dan ook maar geen must.
Voor NVIDIA is het zeker wel een must (en niet alleen voor NV). NV heeft z'n succes voornamelijk hieraan te danken... namelijk aan het "halo-effect".

Als je de snelste/beste kaart hebt, dan profiteren je producten in de midrange en budget segmenten er ook van, zelfs al heeft de competitie misschien wel snellere producten in die segmenten. Het gaat er om dat de consument beinvloed wordt door de positieve features van het snelste product en dit automatisch ook gaan associeren met andere producten van hetzelfde bedrijf.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Dus ze kunnen zich niet redden zonder de snelste te zijn ? Ati heeft zich daarom ook nog makkelijk kunnen redden eerder er is dus helemaal geen nood voor nvidia mischien wel voor ons maar dat maakt niets uit. Geld zat ze zijn rijker dan amd ati lijkt mij?

Het zou trouwens wel beter voor nvidia zijn dat ze gaan fuseren met intel ofzo, net zoals ati en amd ook hebben gedaan

[ Voor 29% gewijzigd door Verwijderd op 19-10-2009 11:48 ]


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 13:42

pino85

Im just a Bird in the Sky

Voor intel zou het niet beter zijn, denkt aan aankomende monopolie en bijhorende problemen die een bedrijf kan krijgen.'
Voor de consument zal het ook niet beter zijn.
Daarnaast is er nogal een verschil als je AMD/ATI bekijkt en mocht NVIDIA/INTEL samen gaan of Intel hun overkopen oid, dan denk ik dat AMD/ATI er op een iets langere termijn erg slecht voor zal komen te staan
Denk dat zo goed als niemand hier beter van gaat worden, en NVIDIA tja , ik verwacht niet dat ze snel een fusie zouden doen of een overkoop, zie zoiets ook niet zo maar goed gekeurd worden door bepaalde autoriteiten( of hebben die geen macht)?

[ Voor 34% gewijzigd door pino85 op 19-10-2009 12:02 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op maandag 19 oktober 2009 @ 11:46:
Dus ze kunnen zich niet redden zonder de snelste te zijn ?
Dat vast wel, maar het gaat hun wel veel klanten kosten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 2 3 Laatste

Let op:
Dit topic gaat over de toekomst van nVidia met oog op de recente nieuwsberichten.

Het is niet de bedoeling hier een nVidia vs Ati discussie op te gaan zetten!