[Algemeen] nVidia Nieuws & Discussie Topic - Deel 38 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 2 ... 7 Laatste
Acties:
  • 34.886 views

Acties:
  • 0 Henk 'm!

  • aval0ne
  • Registratie: Maart 2004
  • Laatst online: 14-05 15:40
CJ schreef op dinsdag 15 september 2009 @ 13:29:
Die review is geloof ik aan het begin van de maand al voorbij gekomen. De resultaten zijn eigenlijk wel tekened.

De G210 is gebaseerd op de DX10.1 GPU GT218, is gemaakt op het 40nm proces, maar verbruikt meer en is langzamer dan de iets grotere RV710, die al een jaar op de markt is, ook DX10.1 biedt en op het 55nm is gemaakt.

Als dit het beste is waar je mee kan komen om een jaar oude GPU te bestrijden... dan vraag ik me echt af: "What were they thinking?".
Grappig, ik dacht net hetzelfde toen de R520 en de r600 uitkwamen, beiden waren trager, kwamen later uit , verbuikten meer en waren op een kleiner proces gebakken als de NVIDIA concurrent.
Wat was ATI toen aan het denken CJ?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Wat ATI dacht had je geweten als je The RV770 Story: Documenting ATI's Road to Success had gelezen. ;)

Go troll somewhere else. It ain't working. (8>

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bejit
  • Registratie: Februari 2005
  • Laatst online: 10-06 13:47

Bejit

Svenska Faderland

CJ schreef op dinsdag 15 september 2009 @ 14:21:
Wat ATI dacht had je geweten als je The RV770 Story: Documenting ATI's Road to Success had gelezen. ;)

Go troll somewhere else. It ain't working. (8>
Achteraf is altijd alles makkelijk recht te praten.

ATi had gewoon pech met de R520 en R600, net zoals NVIDIA nu pech heeft met de GT300. Wie zegt dat na de GT300 NVIDIA niet hetzelfde truukje flikt?

NVIDIA wordt op dit moment gewoon zwaar onderschat, ze weten echt wel wat ze aan het doen zijn.

Systeempje


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Bejit schreef op dinsdag 15 september 2009 @ 15:21:
[...]

Achteraf is altijd alles makkelijk recht te praten.

ATi had gewoon pech met de R520 en R600, net zoals NVIDIA nu pech heeft met de GT300. Wie zegt dat na de GT300 NVIDIA niet hetzelfde truukje flikt?

NVIDIA wordt op dit moment gewoon zwaar onderschat, ze weten echt wel wat ze aan het doen zijn.
We kunnen er duidelijk over zijn dat nVidia op het moment niet bepaald in een goede positie zit. Ze komen veel later met hun nieuwe generatie en de performance van de nieuwe generatie van ATi is erg goed. Daar komt nog bij dat ze al moeite hadden om met de HD4xxx serie te concurreren.

Natuurlijk wil dit helemaal niet zeggen dat nVidia ATi nu nooit meer in gaat halen o.i.d. De performance van de GT300 kan best verrassend goed zijn, dat is op het moment nog niet bekend. Mocht dit niet zo zijn, dan moeten ze een inhaalslag maken bij de volgende serie, ook dat is niet onmogelijk, zoals we bij ATi gezien hebben.

specs


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Nee idd dat laatste is is niet onmogelijk sterker nog als dat het geval is heeft
nvidia veel meer tijd om het goed te maken

Acties:
  • 0 Henk 'm!

  • Eolis
  • Registratie: September 2005
  • Laatst online: 09-12-2021

Eolis

And the heavens shall tremble

CJ schreef op dinsdag 15 september 2009 @ 14:21:
Wat ATI dacht had je geweten als je The RV770 Story: Documenting ATI's Road to Success had gelezen. ;)

Go troll somewhere else. It ain't working. (8>
Nou nou, je kan het ook overdrijven he . . . ik vind zijn reactie met verwijzing naar de release van de R520 en de R600 niet eens zo verkeerd. In die tijd was het Anandtech artikel waar je naar verwijst niet bepaald aanwezig ;)
Wie kon in die tijd nou zeggen wat de road to succes voor ATi zou zijn.

Daarnaast, zo trollerig vind ik zijn reactie helemaal niet.

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Eolis schreef op dinsdag 15 september 2009 @ 15:56:
[...]


Nou nou, je kan het ook overdrijven he . . . ik vind zijn reactie met verwijzing naar de release van de R520 en de R600 niet eens zo verkeerd. In die tijd was het Anandtech artikel waar je naar verwijst niet bepaald aanwezig ;)
Wie kon in die tijd nou zeggen wat de road to succes voor ATi zou zijn.
Dat het een road naar succes was nee, wat ze dachten dus wel ;).
Daarnaast, zo trollerig vind ik zijn reactie helemaal niet.
meh.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
offtopic:
Mijn reactie was niet alleen gebaseerd op die ene post, maar over zijn gehele postgeschiedenis door de jaren heen. De ondertoon is altijd enorm flamerig, op-de-man-af en trollerig, zeker als blijkt dat je een voorkeur voor rood hebt... en meneer is daar in het verleden al een aantal keren voor gewaarschuwd. Check de frontpage en zoek op z'n reacties... I know a troll when I see one en dat is het laatste wat ik er over zeg. ;)

[ Voor 17% gewijzigd door CJ op 15-09-2009 16:16 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Eolis
  • Registratie: September 2005
  • Laatst online: 09-12-2021

Eolis

And the heavens shall tremble

CJ schreef op dinsdag 15 september 2009 @ 16:10:
offtopic:
Mijn reactie was niet alleen gebaseerd op die ene post, maar over zijn gehele postgeschiedenis door de jaren heen. De ondertoon is altijd enorm flamerig, op-de-man-af en trollerig, zeker als blijkt dat je een voorkeur voor rood hebt... en meneer is daar in het verleden al een aantal keren voor gewaarschuwd. Check de frontpage en zoek op z'n reacties... I know a troll when I see one en dat is het laatste wat ik er over zeg. ;)
Ok, hiermee is het een stuk duidelijker waarom je zo reageerde ;)

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
Anoniem: 304087 schreef op dinsdag 15 september 2009 @ 15:30:
Nee idd dat laatste is is niet onmogelijk sterker nog als dat het geval is heeft
nvidia veel meer tijd om het goed te maken
Toch is dat voor "ons" (de consument) niet de beste tactiek natuurlijk, want dit zorgt voor hoge(re) prijzen (zowel toen vanuit ATi en nu nVidia, maar dit zal de tactiek niet zijn bij nVidia en als ik het goed begrepen heb kunnen we zeer binnenkort wel iets verwachten van de groene kant al is het maar om de schade te beperken.).

[ Voor 5% gewijzigd door Paprika op 15-09-2009 16:55 ]


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Anoniem: 304087 schreef op dinsdag 15 september 2009 @ 15:30:
Nee idd dat laatste is is niet onmogelijk sterker nog als dat het geval is heeft
nvidia veel meer tijd om het goed te maken
Als de GT300, die een half jaar na de RV870 uitkomt, trager is dan de RV870 dan heeft nVidia meer tijd om dat weer in te lopen? Die mag je ff uitleggen. :?

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Anoniem: 304087 schreef op dinsdag 15 september 2009 @ 15:30:
Nee idd dat laatste is is niet onmogelijk sterker nog als dat het geval is heeft
nvidia veel meer tijd om het goed te maken
Dat vat ik ook eventjes niet.

Er is al duidelijk, door meerdere personen (die het kunnen weten) gemeld dat de GT300, nogal laat (understatement) na de HD58xx wordt gereleased.

Tegen de tijd dat nVidia zijn GT300 heeft gereleased, heeft nVidia inderdaad ruim de tijd gehad om de clockspeeds door waar nodig (én daar waar mogelijk) zodanig aan te passen om te kunnen concurreren met de HD5870 of zelfs wel de HD5870X2.

Er is echter een grote "maarrrrrr": Tegen de tijd dat de GT300 komt, staat de refresh van de HD58xx alweer klaar om de GT300 te kunnen counteren. ;)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Indy91 schreef op dinsdag 15 september 2009 @ 20:54:
[...]
Er is echter een grote "maarrrrrr": Tegen de tijd dat de GT300 komt, staat de refresh van de HD58xx alweer klaar om de GT300 te kunnen counteren. ;)
En misschien niet alleen tegen de refresh van de HD58xx... vergeet niet die grote gigant waarvan de naam begint met een 'I' en eindigt op 'ntel'... die ook bezig is met iets op GPU vlak en waarvan we in de loop van 2010 waarschijnlijk ook het een en ander zullen zien en horen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 19-05 20:32
Charlie is weer lekker bezig :D

Nvidia GT300 yields are under 2%
http://www.semiaccurate.c...dia-gt300-yeilds-under-2/

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
Beetje onnodige toevoeging he? ;)

Als dit echt klopt dan is dit erg teleurstellend als consument (prijzen)... ;(

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Paprika schreef op dinsdag 15 september 2009 @ 22:07:
[...]

Beetje onnodige toevoeging he? ;)

Als dit echt klopt dan is dit erg teleurstellend als consument (prijzen)... ;(
ik geloof het neit zo moet ik zeggen.. maar hij kan het aardig onderbouwen dus het lijkt geloofwaardig maar ik neem het met een korreltje zout ;)

[ Voor 23% gewijzigd door Xenomorphh op 15-09-2009 22:11 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Ik heb toch m'n twijfels bij dat verhaal van Charlie. Hij heeft het eerst over 9 'good' chips en daarna over 7. In dat artikel waar hij naar verwijst staat wel een keer 'nine', maar dan alleen in de zin
NVIDIA GT300 is an Engineering sample of nine will be completed in January of this year's fastest 12 to begin shipping in January.
Verder neemt hij zomaar aan dat dat getal over 4 wafers zou gaan, terwijl ze het ook zomaar over 1 wafer kunnen hebben. Er zitten dus wat losse steekjes in z'n verhaal. Ik zeg niet dat het niet waar kan zijn, maar ik ben in ieder geval niet overtuigd.

specs


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
is dit niet heel oud nieuws?

of was dat nog lagere yield van minder dan 1 %.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja enerzijds is het ook ns n keer net goed voor die arrogante bastards, anderzijds is het natuurlijk klote dat het hele landschap qua competitie voorlopig wel even verziekt is. :'(

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Waar zou 'ie 't vandaan hebben?

ahem..

http://forum.beyond3d.com...?p=1334603&postcount=2123
quote: neliz

[...]
It's the numbers I'm seeing. Still way Better than Charlie's 1.67% yield. Don't forget, when you take risks you might see that at the bottom line.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Kijk, er is al een betere vertaling van de bron van Charlie, die érg logisch klinkt en een stuk minder negatief. Niets over yields, maar shipment met een beetje geluk al in december.
So he´s refering to this translation:

Quote:
NVIDIA GT300 is an Engineering sample of nine will be completed in January of this year's fastest 12 to begin shipping in January.

However, copy/paste that text (source) into babelfish japanese -> english and you get this:

Quote:
NVIDIA makes Engineering sample of GT300 COMPLETE in September, with most speed starts of shipment in December of this year.

which obviously reads a bit different..
Now, I obviously havent done "the digging" that he did so..
EDIT: my guess is that the 9 was misstranslated from September, and the 12 from December.
Bron

[ Voor 5% gewijzigd door Depep op 16-09-2009 00:11 ]

specs


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Jammer dat de bron van Charlie geen Japans spreekt :D

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ik heb het artikel van Charlie eens gelezen, maar eerlijk, er is niets in zijn artikel waarin hij zichzelf tegenspreekt. Ja, hij heeft het eerst over 9 chips, maar refereert daarbij aan een artikel waarin dat stond. Daarna is hij zelf op onderzoek gegaan bij zijn eigen bronnen en kwam uit op 7. Is dat zo moeilijk om te bevatten.

Wat er uiteindelijk van waar is, moet nog maar blijken, maar ik heb het gevoel dat mensen al bij voorbaat alles wat Charlie schrijft, afschieten, zonder de feitenlijke essentie van zijn verhaal compleet te begrijpen.

Het is al eerder gezegd hier, dat nVidia een heel erg groot risico had genomen. Dat risico lag ondermeer in de mogelijk erg lage yields. Dus geheel ondenkbaar is het allemaal niet.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Het is ondertussen oud, maar wel weer leuk.
http://www.youtube.com/watch?v=FR45ja_fNzU

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Anoniem: 304087

Anoniem: 59888 schreef op dinsdag 15 september 2009 @ 17:13:
[...]

Als de GT300, die een half jaar na de RV870 uitkomt, trager is dan de RV870 dan heeft nVidia meer tijd om dat weer in te lopen? Die mag je ff uitleggen. :?
Indy91 schreef op dinsdag 15 september 2009 @ 20:54:
[...]

Dat vat ik ook eventjes niet.

Er is al duidelijk, door meerdere personen (die het kunnen weten) gemeld dat de GT300, nogal laat (understatement) na de HD58xx wordt gereleased.

Tegen de tijd dat nVidia zijn GT300 heeft gereleased, heeft nVidia inderdaad ruim de tijd gehad om de clockspeeds door waar nodig (én daar waar mogelijk) zodanig aan te passen om te kunnen concurreren met de HD5870 of zelfs wel de HD5870X2.

Er is echter een grote "maarrrrrr": Tegen de tijd dat de GT300 komt, staat de refresh van de HD58xx alweer klaar om de GT300 te kunnen counteren. ;)
Oké, ik doelde dus op als nvidia zou zou falen en dus kan richten op de ganeratie na de gt300
Dit was gericht op de reactie van depep boven mij

[ Voor 50% gewijzigd door Anoniem: 304087 op 16-09-2009 09:52 ]


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Help!!!! schreef op dinsdag 15 september 2009 @ 23:08:
Tja enerzijds is het ook ns n keer net goed voor die arrogante bastards, anderzijds is het natuurlijk klote dat het hele landschap qua competitie voorlopig wel even verziekt is. :'(
Ja en nee. AMD gaat de HD5870 niet voor 500 euro op de markt zetten maar aanzienlijk lager (350 ish). Die blijven dus gewoon met hun strategie door gaan. IPV wat je in het verleden zag dat een kaart als i snel was altijd 500 euro koste. AMD had dat nu ook weer kunnen doen door de HD5870 450-550 euro te maken @ start tot dat ze zelf of de concurrentie met iets snellers komt.

Eerlijk gezegd denk ik ook niet dat de concurrentie meteen minder wordt. Ik verwacht ook niet dat de GT300 slechte performance zal hebben. + LRB komt er ook nog aan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik zou NVIDIA nog niet te snel afschrijven. Een kat in het nauw maakt rare sprongen en we weten allemaal dat Jen-Hsun Huang het niet leuk vind om (voor lange tijd) op de tweede plaats te staan. :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 304087

Idd en concurentie blijft er echt wel, kijk maar naar ati toen ati het wat minder deed.
Het is wel een keer weer goed voor nvidia om op de 2e plaats te staan, dat zet nvidia
weer aan het denken. En wat maakt het uit eindelijk uit van welke fabrikant er een
kaart in jou'n kast hangt? Precies helemaal niets, als het maar snel is.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Laten we vooral niet vergeten dat ten tijde van het R600 de hele wereld ATi ook al zo ongeveer afgeschreven had. NV komt heus wel weer sterk terug.

GT300 zal ongetwijfeld een beest van een chip worden (ik heb het al vaker gezegd), maar de weg die NV ingeslagen heeft brengt risico's met zich mee. Door zich te richten op GPGPU toepassingen moeten de chips generieker worden. Er zitten functies in die 80% van de gamers geen ruk interesseert. CUDA? Wat moet ik ermee? Ga maar eiwitten vouwen op de energierekening van iemand anders, ik doe er niet aan mee. En dan is een leanere chip als die van ATi prijstechnisch ineens een klap interessanter.
Toch kan ik me de stap wel voorstellen. Intell komt met LRB. AMD bakt ook nog CPU's... NV moet zich verbreden.

Anoniem: 134818

Ik doe er wel wat mee! Maar daarvoor zit ie niet in mijn gaming pc. Imho, als Nvidia het slimmer had aangepakt of anders, hadden ze sowieso 2 chips gemaakt. 1 met alle Cuda shizzle en die duur verkopen als quadro en een geforce zonder de extra Cuda Shizzle(Dus wel de basic zoals in de GF8/GF9 serie).

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 134818 schreef op woensdag 16 september 2009 @ 11:00:
Ik doe er wel wat mee! Maar daarvoor zit ie niet in mijn gaming pc. Imho, als Nvidia het slimmer had aangepakt of anders, hadden ze sowieso 2 chips gemaakt. 1 met alle Cuda shizzle en die duur verkopen als quadro en een geforce zonder de extra Cuda Shizzle(Dus wel de basic zoals in de GF8/GF9 serie).
Dun-dun-Duuuuuuuuuuuun

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • KiLLaHeRTz
  • Registratie: November 2006
  • Laatst online: 06-04 14:50
Kunnen we uit deze reactie veronderstellen dat de GT300 2 verschillende versies krijgt? GPGPU en een "Gaming" versie? Of doel je nu op de GT212, daar was alle overbodige GPGPU shizzle uitgesloopt en de bus is van 512 bit -> 256 bit gegaan?

Mocht de GT300 een Gaming versie krijgen, zonder CUDA en al die shit, en hij is nog steeds +/- 500mm² groot, GDDR5, 512-bit bus, dan krijgen we echt een snelheidsmonster 8)

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
GT212 was volgens de alleroudste berichten een GT200 zonder alle overbodige CUDA-shit. Dus een GPU die puur op gamers gericht was met een 256-bit memory interface, GDDR5 geheugen en DX10.1 support op 40nm. Doordat de GPU een stuk kleiner werd, zou deze ook een stuk beter te klokken zijn. Echter is dit plan ooit eens in de vriezer gestopt.. waarschijnlijk vanwege productieproblemen met het 40nm proces.

Of NV deze methode ook gebruiken voor GT300 is nog maar de vraag. De architectuur van de GT300 zou namelijk anders in elkaar zitten dan die van de GT200.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 134818

voor Nvidia zelf hoop ik het. Het is gewoon een slimmere aanpak is voor de doel groepen. Het nadeel voor mij als wetenschapper is dat er een te dure quadro/tesla moet aangeschaft worden :(.

  • KiLLaHeRTz
  • Registratie: November 2006
  • Laatst online: 06-04 14:50
Anoniem: 134818 schreef op woensdag 16 september 2009 @ 12:45:
voor Nvidia zelf hoop ik het. Het is gewoon een slimmere aanpak is voor de doel groepen. Het nadeel voor mij als wetenschapper is dat er een te dure quadro/tesla moet aangeschaft worden :(.
Dat is het nadeel als ze aparte chips maken voor gamers of wetenschappers, maar het voordeel is wel dat ze zich kunnen richten tot de doelgroep. Gamers hebben (bijna) niks aan CUDA, GPGPU en die shit, dit is voor wetenschappers etc. wel belangrijk.

Gamers hebben hierdoor meer power voor hun games, het is efficienter aangezien er nu geen overbodige spullen in de GPU zitten die 99% van de tijd toch niks doet en het is dus goedkoper om te maken (tenzij ze dezelfde grote bewaren en de GPU volproppen met ComputeShaders, TMU's, ROPS etc voor meer power)

Wetenschappers hebben hierdoor een wat minder groot voordeel, zij gebruiken de GPU al voor 80-90%, er kunnen wat dingen uitgesloopt worden en dingen toegevoegd worden voor CUDA oid, maar het grootste voordeel zit hem bij Gamers.

Maar ik gok dat dit toch niet uitkomt. GT300 zal gewoon een mega chip worden (+/- 500m² op 40nm) en zal beide bevatten. Helaas, misschien is het de volgende generatie wel anders?

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
GT300 is iets groter dan +/- 500mm2 op 40nm. Van wat ik hoorde was de chip ongeveer 24x24... dt komt uit op een even grote chip als de 65nm versie van de GT200. Als deze chip al 1.4 miljard transistoren had, moet je nagaan wat GT300 in huis heeft op die die-size... AMD verdubbelt al het aantal transistoren van RV770 naar RV870 (meer dan zelfs). Hoe groot zou GT300 dan wel niet moeten worden...

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op woensdag 16 september 2009 @ 10:08:
[...]


Ja en nee. AMD gaat de HD5870 niet voor 500 euro op de markt zetten maar aanzienlijk lager (350 ish). Die blijven dus gewoon met hun strategie door gaan. IPV wat je in het verleden zag dat een kaart als i snel was altijd 500 euro koste. AMD had dat nu ook weer kunnen doen door de HD5870 450-550 euro te maken @ start tot dat ze zelf of de concurrentie met iets snellers komt.

Eerlijk gezegd denk ik ook niet dat de concurrentie meteen minder wordt. Ik verwacht ook niet dat de GT300 slechte performance zal hebben. + LRB komt er ook nog aan.
Ik zal de laatste zijn om nVidia af te schrijven, heb Jen jaren geleden al omschreven als een soort pitbull en volgensmij is hij nog niet veranderd. :P

Bedoel meer dat we van geluk mogen spreken dat AMD de prijzen niet extreem omhoog gooit aangezien ze nu even vrij spel hebben. Had nvidia wel op tijd kunnen launchen en zou de GT300 ongeveer in evenwicht zijn qua prestaties met de nieuwe AMD's dan hadden we ws lagere prijzen gezien voor de AMD's.
Indien de GT300 veel later komt of qua prestaties tegenvalt dan is dat echt niet goed voor de concurrentie laat staan keuze voor de consument.

Denk trouwens niet dat de GT300 slecht wordt. Het issue denk ik vooral produktietechnisch. Voorlopig verwacht ik niet direkt iets van de Larabee.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

In je HTPC misschien samen met CoreAVC gebruiken voor betere/soepelere beeld processing ??

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Anoniem: 286793

Help!!!! schreef op woensdag 16 september 2009 @ 14:46:
[...]

Ik zal de laatste zijn om nVidia af te schrijven, heb Jen jaren geleden al omschreven als een soort pitbull en volgensmij is hij nog niet veranderd. :P

Bedoel meer dat we van geluk mogen spreken dat AMD de prijzen niet extreem omhoog gooit aangezien ze nu even vrij spel hebben. Had nvidia wel op tijd kunnen launchen en zou de GT300 ongeveer in evenwicht zijn qua prestaties met de nieuwe AMD's dan hadden we ws lagere prijzen gezien voor de AMD's.
Indien de GT300 veel later komt of qua prestaties tegenvalt dan is dat echt niet goed voor de concurrentie laat staan keuze voor de consument.

Denk trouwens niet dat de GT300 slecht wordt. Het issue denk ik vooral produktietechnisch. Voorlopig verwacht ik niet direkt iets van de Larabee.
Hoe bedoel je vrij spel? Ze hebben nnu de overhand maar high-end is niet de markt maar de meeste winst op behaald wordt. Verder zijn veel klanten dom en kiezen toch nvidia om wat voor rede dan ook. Dx 11 is mooi maar als amd de prijzen te hard omhoog zou gooien kunnen ze alsnog verliezen. 500 euro gpu's worden toch niet goed verkocht.

Veel mensen denken misschien dat AMD nu de prijs omhoog moet gooien maar als ze Nvidia ECHT willen pakken doen ze dat dus niet. Hun strategie is nu om in elk segment de beste performance te geven voor minder geld. En dit gaat ze waarschijnlijk ook lukken ook.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Inderdaad, waarschijnlijk heeft Nvidia nog steeds een groter marktaandeel dan Ati, puur om het feit dat driekwart van de potentiële klanten helemaal niks van het HD5000 vs. GT300-verhaal afweet, en gewoon alleen dat logo'tje kent dat bij spellen altijd in beeld komt. Met een beetje geluk worden de marktaandelen aan het einde van de strijd (volgend jaar ofzo) een beetje 50-50, zodat er twee gelijkwaardige graka-fabrikanten tegenover elkaar staan die allebei niet achterover kunnen leunen (zoals NVidia dus al een tijd doet) en er voor de consument lagere prijzen en snellere ontwikkelingen zijn :).

Heeft geen speciale krachten en is daar erg boos over.


Anoniem: 134818

Ik meende laatst een nieuws bericht te hebben gezien dat ATI nVidia weer had in gehaald. Maybe kan iemand hem vinden.

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

nero355 schreef op woensdag 16 september 2009 @ 14:59:
[...]

In je HTPC misschien samen met CoreAVC gebruiken voor betere/soepelere beeld processing ??
Dat zou leuk zijn als de concurrent een slechte oplossing heeft, maar dat is niet zo.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anoniem: 286793 schreef op woensdag 16 september 2009 @ 20:07:
[...]


Hoe bedoel je vrij spel? Ze hebben nnu de overhand maar high-end is niet de markt maar de meeste winst op behaald wordt. Verder zijn veel klanten dom en kiezen toch nvidia om wat voor rede dan ook. Dx 11 is mooi maar als amd de prijzen te hard omhoog zou gooien kunnen ze alsnog verliezen. 500 euro gpu's worden toch niet goed verkocht.

Veel mensen denken misschien dat AMD nu de prijs omhoog moet gooien maar als ze Nvidia ECHT willen pakken doen ze dat dus niet. Hun strategie is nu om in elk segment de beste performance te geven voor minder geld. En dit gaat ze waarschijnlijk ook lukken ook.
We hebben het hier toch over de 5850, 5870 5870X2 :? AMD moet niks maar heeft voorlopig En de betere kaarten En (voorzover we inkunnen schatten) de goedkoopste productiekosten. Daarmee dicteren ze voorlopig even dat gedeelte vd markt. Maar ik denk dat ze met hun 4xxx setup en productiekosten ook extreem sterke lineup hebben voor het goedkopere segment.

Denk trouwens dat AMD helemaal niet denkt in termen van Nvidia willen pakken. Ze zullen zeer voldaan zijn dat ze nu even :? boven liggen en willen natuurlijk graag de beste zijn maar die jongens van AMD komen helemaal niet op me over alsof ze nVidia graag zouden willen crushen.

Volgensmij kan een het eerder een probleem voor AMD zijn dat ze teveel goede kaarten hebben en als ze de HDxxxx high end te goedkoop maken dan moeten ze hun restant HD4xxx kaarten zo goedkoop maken dat deze hun high end weer kannibaliseren.

Maarja t is even afwachten wat nvidia met prijzen e.d. doet en wanneer ze nu echt met GT212 en GT300 komen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Anoniem: 286793

bwerg schreef op woensdag 16 september 2009 @ 20:59:
Inderdaad, waarschijnlijk heeft Nvidia nog steeds een groter marktaandeel dan Ati, puur om het feit dat driekwart van de potentiële klanten helemaal niks van het HD5000 vs. GT300-verhaal afweet, en gewoon alleen dat logo'tje kent dat bij spellen altijd in beeld komt. Met een beetje geluk worden de marktaandelen aan het einde van de strijd (volgend jaar ofzo) een beetje 50-50, zodat er twee gelijkwaardige graka-fabrikanten tegenover elkaar staan die allebei niet achterover kunnen leunen (zoals NVidia dus al een tijd doet) en er voor de consument lagere prijzen en snellere ontwikkelingen zijn :).
50-50 wordt het nooit want intel zit ook in de markt. En ja, die hebben het grootste marktaandeel.

Ati was de laatste tijd weer aan het terugpakken van marktaandeel of ze nu ook meer hebben weet ik eerlijk gezegd zelf ook niet.

  • The Source
  • Registratie: April 2000
  • Laatst online: 11-06 14:36
Geloof maar dat NV terug komt en hard. Misschien nog niet in 2010 want het omgooien van de strategy kost 2 tot 3 jaar omdat de ontwikkelings processen al aan de gang waren. Zo ging het ook met Intel toen AMD met Athlon het voor het zeggen had. SInds de core architectuur hebben ze weer het nakijken.

Het is overigens impressive dat NV enkel 3% market share wist te verliezen ondanks dat AMD ubermachtig is. Dus dat zegt veel over de branding en marketing power van Nvidia. Maar ook hoe zij het sales kanaal onder controle hebben. Dit ook omdat AMD in de laatste bezuinigingsronde erg veel ervaren sales mensen in EMEA eruit heeft gegooid. Dus NV doet erg goed aan damage control en dit (mede door de economische crisis) bij de aandeelhouders te verkopen !

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

Ja en nee. Laten we de huidige situatie niet overschatten. De op dit moment verkrijgbare kaarten van groen en rood zijn aan elkaar gewaagd. Er is altijd wel een reden om toch voor een GTS250 of GTX275 te kiezen. Daarbij is het prijsverschil in Europa niet vergelijkbaar met de VS. Het wordt pas echt interessant hoe het marktaandeel de komende drie maanden verloopt.

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
The Source schreef op woensdag 16 september 2009 @ 21:35:
Geloof maar dat NV terug komt en hard. Misschien nog niet in 2010 want het omgooien van de strategy kost 2 tot 3 jaar omdat de ontwikkelings processen al aan de gang waren. Zo ging het ook met Intel toen AMD met Athlon het voor het zeggen had. SInds de core architectuur hebben ze weer het nakijken.
Hoe zit het eigenlijk met het rebranden. Heeft nVidia gewoon nooit echt iets beters kunnen maken, of verwachtten ze dat de G80/G92 het gewoon heel lang zouden vol houden? Want de GTX 280 had in mijn ogen gewoon de 9800GTX kunnen worden, de GTX 260 9800GTS, GTX 295 9800GX2, GTX 285 9800 Ultra etc.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 286793 schreef op woensdag 16 september 2009 @ 21:34:
[...]

50-50 wordt het nooit want intel zit ook in de markt. En ja, die hebben het grootste marktaandeel.
Ja, maar niet in de markt van mid- en high-end GPU's, waar ik op doelde (en eigenlijk zijn low-end NVidia en Ati's nog beter dan de beste intels). Low end GPU's hebben ook niet bepaald veel baat bij grote technologische onwikkelingen en prijsdalingen. Volgens ome tom is de snelste GPU van intel vergelijkbaar met de GF9100 en de X1150, ik weet niks van intel GPU's dus geen idee of dit klopt. :P

Heeft geen speciale krachten en is daar erg boos over.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
The Source schreef op woensdag 16 september 2009 @ 21:35:
Geloof maar dat NV terug komt en hard. Misschien nog niet in 2010 want het omgooien van de strategy kost 2 tot 3 jaar omdat de ontwikkelings processen al aan de gang waren. Zo ging het ook met Intel toen AMD met Athlon het voor het zeggen had. SInds de core architectuur hebben ze weer het nakijken.

Het is overigens impressive dat NV enkel 3% market share wist te verliezen ondanks dat AMD ubermachtig is. Dus dat zegt veel over de branding en marketing power van Nvidia. Maar ook hoe zij het sales kanaal onder controle hebben. Dit ook omdat AMD in de laatste bezuinigingsronde erg veel ervaren sales mensen in EMEA eruit heeft gegooid. Dus NV doet erg goed aan damage control en dit (mede door de economische crisis) bij de aandeelhouders te verkopen !
Mee eens. Ik had verwacht dat het harder zou gaan. Wij zien wel dat die kaarten rebrands zijn. Maar de consument niet. Die denk dat een GT250 bijna net zo snel is als een GTX260. En dus veel sneller is d of een 9800 GTX+. En dat is dus niet het geval.....

Je kunt zeggen wat je wilt over de marketing van nVidia maar het werkt wel :(. Wel erg dat je tegenwoordig verder komt met een grote bek en vormen van oplichting (Zo ervaar ik rebranding, Daar hoef je het niet mee eens te zijn ;) ). Je ziet het overal ook in bedrijven. Mensen met een grote mond kunnen zonder echte kennis al verder komen dan mensen met echte kennis die bescheiden zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Envy007
  • Registratie: Juni 2003
  • Laatst online: 28-11-2023
Nvidia: DirectX 11 Will Not Catalyze Sales of Graphics Cards.

http://www.xbitlabs.com/n...es_of_Graphics_Cards.html
DirectX 11 - Not Important
Computing Performance More Important than Graphics Performance
“Graphics industry, I think, is on the point that microprocessor industry was several years ago, when AMD made the public confession that frequency does not matter anymore and it is more about performance per watt. I think we are the same crossroad with the graphics world: framerate and resolution are nice, but today they are very high and going from 120fps to 125fps is not going to fundamentally change end-user experience. But I think the things that we are doing with Stereo 3D Vision, PhysX, about making the games more immersive, more playable is beyond framerates and resolutions. Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.
Over marketing en PR gesproken.

[ Voor 51% gewijzigd door Envy007 op 17-09-2009 09:38 ]


  • KiLLaHeRTz
  • Registratie: November 2006
  • Laatst online: 06-04 14:50
Nvidia will show with the next-generation GPUs that the compute side is now becoming more important that the graphics side,” concluded Mr. Hara.
Dus GT300 wordt een nog grotere GPGPU monster dan GT200.. Maar dat was al bekend, maar het is nu bevestigd.

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 07:34
Er zijn 3 grote spelers in de PC-markt:
Intel
nVidia
AMD

2 van hen hebben zowel een CPU lijn als een GPU lijn.

De derde is als een razende bezig om CPU's te downplayen en GPGPU (liefst propietary) op te krikken. Waarom?
Logisch: ze hébben geen CPU lijn.

imo zouden ze beter Via kunnen opkopen zodat er 3 volwaardige (als in allround) concurrenten ontstaan?

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Anoniem: 134818

Puppetmaster schreef op donderdag 17 september 2009 @ 11:16:
Er zijn 3 grote spelers in de PC-markt:
Intel
nVidia
AMD

2 van hen hebben zowel een CPU lijn als een GPU lijn.

De derde is als een razende bezig om CPU's te downplayen en GPGPU (liefst propietary) op te krikken. Waarom?
Logisch: ze hébben geen CPU lijn.

imo zouden ze beter Via kunnen opkopen zodat er 3 volwaardige (als in allround) concurrenten ontstaan?
Verliest nvidia of eigenlijk VIA niet de X86 licentie dan?

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 134818 schreef op donderdag 17 september 2009 @ 11:17:
[...]


Verliest nvidia of eigenlijk VIA niet de X86 licentie dan?
Via heeft die ook weer via via gekregen. Volgens mij door het opkopen van Cyrix en Transmeta.

Edit: Ik zie net dat Transmeta overgekocht is door Novafora. En dat dat bedrijf ook weer failliet is gegaan. Dus die X86 licentie is down the drain.

[ Voor 21% gewijzigd door Astennu op 17-09-2009 11:26 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Edmin schreef op woensdag 16 september 2009 @ 21:05:
Dat zou leuk zijn als de concurrent een slechte oplossing heeft, maar dat is niet zo.
Mja ik heb het zelf niet getest, maar op vele fora zijn dit de ervaringen met WMV VC-1 =>

nVidia = Acceleratie verloopt goed met uitzondering van eerste 5 a 10 secondes.
ATI = Constant glitches/artifacts/groenbeeld :/

Zolang ATI geen UVD3 maakt die ALLES goed doet heeft nVidia in ieder geval 1 voordeel !!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Anoniem: 134818

Astennu schreef op donderdag 17 september 2009 @ 11:23:
[...]


Via heeft die ook weer via via gekregen. Volgens mij door het opkopen van Cyrix en Transmeta.

Edit: Ik zie net dat Transmeta overgekocht is door Novafora. En dat dat bedrijf ook weer failliet is gegaan. Dus die X86 licentie is down the drain.
ik meen via cyrix, maar ik meen dat het ook gesteggel van intel toen was.


Nee via centaur. Maar van Cyrix hebben ze denk ik ook nog.
Wikipedia: Centaur Technology

[ Voor 127% gewijzigd door Anoniem: 134818 op 17-09-2009 11:48 ]


Anoniem: 286793

Astennu schreef op donderdag 17 september 2009 @ 07:58:
[...]


Mee eens. Ik had verwacht dat het harder zou gaan. Wij zien wel dat die kaarten rebrands zijn. Maar de consument niet. Die denk dat een GT250 bijna net zo snel is als een GTX260. En dus veel sneller is d of een 9800 GTX+. En dat is dus niet het geval.....

Je kunt zeggen wat je wilt over de marketing van nVidia maar het werkt wel :(. Wel erg dat je tegenwoordig verder komt met een grote bek en vormen van oplichting (Zo ervaar ik rebranding, Daar hoef je het niet mee eens te zijn ;) ). Je ziet het overal ook in bedrijven. Mensen met een grote mond kunnen zonder echte kennis al verder komen dan mensen met echte kennis die bescheiden zijn.
Nvidia wordt vaak gedacht dat het HET merk is voor gpu's. Dit is gewoon ingebakken in de meeste klanten. Als je ze de echte performance naast elkaar legt en daarbij de prijzen kunnen de klanten ook wel zien dat Nvidia niet zo heel geweldig is. Maarja dit gebeurt natuurlijk nooit. Ik denk dat dit komt door de reclame en het merk zelf (misschien is het logo minder mooi???). Nvidia heeft allemaal marketing praat waarmee ze mensen proberen te winnen. Denk aan CUDA, Physx en 3D vision. Maar hoeveel hebben we hier nou aan gehad? Aan cuda heeft de gemiddelde consument niet veel. Is het misschien een idee om aparte cuda gpu's te maken en gamers een goedkopere oplossing te geven?

Met Intel en Amd gaat het vaak ook wel zo maar daar ligt het nog net wat anders.

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:44
3D vision heb ik vandaag es wat over gelezen. Klinkt toch wel goed hoor, maar je moet er wel een andere monitor voor kopen zie ik. Ik lees net in een review dat het in Resident evil 5 voor PC erg mooi is.
Ik vind het op zich een stuk subtielere methode om een "immersive" game experience te krijgen dan het opstapelen van monitors waar ATI nu mee adverteert.
Maar of het echt door gaat breken.., ik zie liever een universele techniek die zowel op Nvidia als ATI hardware werkt, zodat het echt in veel games wordt geimplementeerd.

anathema


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
anathema schreef op donderdag 17 september 2009 @ 18:08:
3D vision heb ik vandaag es wat over gelezen. Klinkt toch wel goed hoor, maar je moet er wel een andere monitor voor kopen zie ik. Ik lees net in een review dat het in Resident evil 5 voor PC erg mooi is.
Ik vind het op zich een stuk subtielere methode om een "immersive" game experience te krijgen dan het opstapelen van monitors waar ATI nu mee adverteert.
Maar of het echt door gaat breken.., ik zie liever een universele techniek die zowel op Nvidia als ATI hardware werkt, zodat het echt in veel games wordt geimplementeerd.
Jij zit dus liever met zoiets op je hoofd te gamen dan dat je een breder speelveld hebt?

Afbeeldingslocatie: http://www.nvidia.com/docs/IO/77562/NVIDIA_3DVision_Discover.jpg

Afbeeldingslocatie: http://www.nvidia.com/docs/IO/77562/NVIDIA_3DVision.jpg

Dat kan natuurlijk. :+ Maar ik moet zeggen dat mij dat dus absoluut niet trekt... In de bioscoop vind ik het al niks aan (ik heb Ice Age 3 in 3D gezien en ik kreeg koppijn omdat sommige effecten niet goed overkwamen mede doordat de bril gewoon niet lekker zat) en als ik thuis zit te gamen, dan wil ik al helemaal geen 3D bril op m'n hoofd hebben. Het enige wat er dan op m'n hoofd mag zitten is m'n headset.

Doe mij maar een breder speelveld, dan een techniek waarbij je veel postprocessing effecten uit moet zetten (of op low moet zetten) aangezien dit anders stoort met het 3D effect en ook nog eens de framerate vaak meer dan door de helft wordt gehakt (omdat het beeld 2x gerenderd moet worden: 1x voor het linkeroog en 1x voor het rechteroog).

Wie er het meest succes zal hebben met 'immersive' gaming is wat mij betreft wel te voorspellen. Voor 3D Vision heb je een duur pakketje (monitor + bril-hardware) nodig van zo'n $599 plus nog een highend videokaart vanwege de performancehit. Voor Eyefinity heb je niks extra's nodig op een extra monitor na of twee of drie of vier of vijf... je maakt het zo duur als je wilt. Daarnaast is het inzetbaar op gaminggebied en professioneel/zakelijk... je krijgt bij wijze van spreken gewoon een gratis (superieure) versie van TrippleHead2Go (in de winkel nog altijd meer dan €220) wanneer je een midrange/highend Radeon koopt. Of je meerdere monitors aansluit is natuurlijk helemaal aan jezelf, maar ik durf wel te wedden dat nu meer mensen de stap gaan zetten richting multi-monitor omdat Eyefinity 'seamless' is en de grens erg laag ligt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
Ik heb ermee gespeeld en tot deze techniek (hoe weet ik niet) verbeterd wordt ga ik er geen geld aan uit geven.

~Oogpijn
~Hoofdpijn door het focussen, het geeft even een WOW COOL effect, maar na 10 minuten is dat voorbij en dan merk je pas hoe lastig het is dat je je moet concentreren op wat je ziet
~Duur
~Meerwaarde

Als je al eens een film zo hebt bekeken, dan weet je dat je bij de film de dingen die ze willen dat je ziet naar voren laten komen, bij een spel zie je bij bv shooters zelfs heel lastig mensen omdat alles zo op en neer beweegt.... ik wil mensen dan ook echt aan raden om dit ergens te testen voor je er 450 euro aan uitgeeft (en daar komt nog een 120Hz scherm bij)

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:44
CJ schreef op donderdag 17 september 2009 @ 18:43:
[...]


Wie er het meest succes zal hebben met 'immersive' gaming is wat mij betreft wel te voorspellen. Voor 3D Vision heb je een duur pakketje (monitor + bril-hardware) nodig van zo'n $599 plus nog een highend videokaart vanwege de performancehit. Voor Eyefinity heb je niks extra's nodig op een extra monitor na of twee of drie of vier of vijf... je maakt het zo duur als je wilt.
Ik denk dat het op zich voor de gemiddelde consument een kleinere stap is om tijdens gamen een brilletje op te zetten, dan meerdere monitoren op je bureau te gaan zetten. (ik kreeg al aardig wat te horen van mn vriendin toen ik mn 28" Hanns-G op het bureau neerzette, redelijk wat mensen verklaren me voor gek met zo'n gigantisch ding ;) )
Het kost wel even wat zo'n 3D vision set maar een extra monitor natuurlijk ook. En voor het dubbele of 3-dubbele (laat staan 6-dubbele) aantal pixels heb je natuurlijk ook wel een high-end videokaart nodig bij nieuwere spellen.

Ben benieuwd hoe het loopt, ik hebs niks tegen dat multi-monitor gebeuren, maar als je een van de laatst geposte plaatjes ziet in het ATI topic word ik daar niet enthousiast van. Met monitoren met dunne randen is het wellicht wel weer wat beter.
Over 3D Vision kan ik nog geen goed oordeel geven want heb t nooit gezien, maar wat ik lees in reviews is men toch wel erg enthousiast. Maar goed, als er geen brede support hier voor is in games peins ik er op dit moment ook niet over om zo'n bril set aan te schaffen.

anathema


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:44
@Vipeax, als dat zo is houdt het op inderdaad..

anathema


  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
Houdt er wel rekening mee dat dit (de ervaring die ik had) bij de een anders kan zijn dan de ander, ik stoor me zelden aan iets (bv mij maakt het ook niet echt uit of ik naar HD kijk of een videoband, als in: zelf kijk ik dingen in HD, maar als ik ergens ben en het is slechte kwaliteit stoor ik me er niet aan of het geluid is slecht(er) etc.), maar dit werkte voor mij i.i.g. niet en dus raad ik mensen aan dit te testen voor je het aanschaft (de mensen die 450 euro niet merken hoeven dit natuurlijk niet te doen ;)). Het is dan ook maar een tip.

Btw, het setje is dus 500:
http://www.alternate.nl/h...etails.html?artno=jzzv30&
http://www.alternate.nl/h...etails.html?artno=v5lu49&
180+320 -> 500

Edit:
Nee toch minder, ... alternate. :')
http://www.komplett.nl/k/...E6-410C-9075-06518B1B62A5
http://www.komplett.nl/k/ki.aspx?sku=446776
317 + 136, dus gewoon 450.

[ Voor 45% gewijzigd door Paprika op 17-09-2009 19:25 ]


  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Support voor 3D Vision is vrij goed hoor. NV heeft een hele waslijst met games waarvoor ze profielen hebben ingebakken in de drivers. Dit hebben ze ook netjes gecategoriseerd zodat je precies kan zien in welke games het 3D effect "excellent" is of gewoon slecht. Het is echter zelf uitzoeken of je het ook goed vindt werken. NV geeft wel tips bij elke game, maar zoals ik al zei... je framerates worden minstens de helft minder en je hebt een grote kans dat je postprocessing effecten uit moet zetten.

Monitoren met dunne randen komen er overigens aan, aangezien AMD met Samsung een deal heeft gesloten voor "monitors with small bezels". En als een van de grootste producenten van monitoren overstag is, volgen er snel meer... het is immers een techniek waar de monitorfabrikanten enorm aan kunnen verdienen. Ik voorspel dan ook Eyefinity bundels met bv 3 monitoren inclusief een speciale monitor-standaard.

Ik denk persoonlijk dat de bredere toepassingsmogelijkheden van Eyefinity t.o.v 3D Vision een groter publiek zullen aanspreken dan het feit dat je met 3D brilletjes op kan spelen. Er is al eerder geprobeerd om 3D brillen aan de man te brengen en daar is men is jammerlijk in gefaald, juist omdat mensen het niet fijn vonden om te gamen met zo'n brilletje. Misschien dat NV er genoeg geld tegen aan kan smijten om het dit keer wel te laten slagen. Maar sinds de lancering heb ik er nog bar weinig mensen over gehoord of gezien, terwijl de impact van Eyefinity nu al veel merkbaarder is op bv het web.

Ik kan me echter wel voorstellen dat 3D Vision erg leuk is om te doen wanneer je met een projector werkt op een enorm scherm. Uiteindelijk gaan ze beiden dezelfde kant op. AMD ziet Eyefinity als de eerste stap naar een Star Trek achtige Holodeck, maar dan voor thuis. NV probeert dit ook met 3D Vision te creeeren. Over een aantal jaren zien we waarschijnlijk een combinatie van Eyefinity en 3D Vision waarin je helemaal omringd wordt door schermen en met een virtua 3D helm op speelt. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
CJ schreef op donderdag 17 september 2009 @ 19:25:
Support voor 3D Vision is vrij goed hoor. NV heeft een hele waslijst met games waarvoor ze profielen hebben ingebakken in de drivers. Dit hebben ze ook netjes gecategoriseerd zodat je precies kan zien in welke games het 3D effect "excellent" is of gewoon slecht. Het is echter zelf uitzoeken of je het ook goed vindt werken. NV geeft wel tips bij elke game, maar zoals ik al zei... je framerates worden minstens de helft minder en je hebt een grote kans dat je postprocessing effecten uit moet zetten.
Als alle games in de "Excellent" categorie zo goed werken als FlightSim X dat doet, dan is driversupport i.i.g. geen probleem. De lijst is inderdaad behoorlijk lang en gelukkig niet zo vals als de PhysX list (;)). Daar heb ik het toen mee getest (en Call of Duty 4 & Crysis, de laatste vond ik persoonlijk echt geen succes (CoD4 & FlightSim waren voor mijn ogen niet fijn na een tijdje, maar het zag er wel leuk uit en speelde lekker), al hoewel deze wel in de "Good" lijst staat, maar dat kan ook komen door 't feit dat de game al standaard zoveel eisend is en de dubbele rendering er kan voor hebben gezorgt dat het nu echt slecht liep, maar dat heb ik niet echt gemeten met Fraps ben ik bang (niet mijn pc dus ik ging er niets op installeren)).

[ Voor 4% gewijzigd door Paprika op 17-09-2009 19:33 ]


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:44
Tja, ik laat t vooralsnog allemaal maar aan me voorbij gaan. Was namelijk zeker niet van plan om mn 28" te vervangen voor een 22", bevalt me uitstekend ...en nog zo'n ding erbij wil je niet met een rand 3-4 cm als ik het zo zie ;)

anathema


  • SG
  • Registratie: Januari 2001
  • Laatst online: 11-06 08:36

SG

SG surft naar info hardewaren

Ja 2x2 15" shemen kost niet veel. Maar 30" wat dezelfde beeldopervlak en mega pixels geeft. Lijkt mijn ergonomischer. Maar duurder.
Tja als je 3x1 26" shermen wilt toepassen dan krijg je onmensselijk extreem breed beeld.
3x16x9 = 48:9 beeld verhouding. Billnaad view fustrum ipv letterbox. zo'n game sherm is ook onpraktisch. ipv realisme krijg overbreed view. Wat beestje onderaan de voedselketen hebben zoals konijnen. Wordt meer een cheat.
Mij lijkt iets in de buurt van letterbox natuurlijker.
Dus ATI game methode. Wat eigenlijk matrox way opniew doet herleven, maar dan mét 3d performance.
En nV shutter brill methode.
Het is beide halfbakken.

Ik zie liever één relatief betaalbaar 3D brilloossherm met 235:1 1440P sherm. 50" zodat detail ook duidelijk zichtbaar is.

Heb geen ruimte voor 3 grote beeldbreed shermen
Wel kan ik mijn 19" CRT waarmee 85hrz 3D vision Fallout 3 alien DLC laaste deel in 3D heb uitgespeeld. Vervangen door breedbeeld 120hz sherm. Maar dat past niet precies dat is dus net te groot.
En voor 2 beeld multimon bied ATI niks nieuws.

Mijn HD2900XT vervang ik een s'n keer door een HD5870 2GB. Voor met DX11 sDK te klooien.
nV excelent 3D ondersteunende game doe ik dan op mijn GTX285.
Games doe ik voorlopig op één sherm.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Anoniem: 303530

kantel ze, dan heb je 15:9

hoezo breedbeeld?

Anoniem: 286793

@CJ
3D vision is vooral duur vanwege de 120hz monitoren. Dat verhaal van de videokaarten klopt ook maar met eyefinity mag je met zon resolutie ook een flinke gpu in je pc hebben zitten (hd5870x2 is misschien wel geen luxe met 4gb). 3 monitoren is makkelijk te doen denk ik maar met 6 gaat je performance denk ik wel hard omlaag (afhankelijk van de resolutie).

Ik denk dat 3D vision heel persoonlijk is maar dat de meeste klanten er niets aan hebben vooral omdat het te duur is. Dat is met Eyefinity precies hetzelfde. Ik zie de gemiddelde consument geen 3 minitors op zijn bureau neerzetten.

Ik vind die randen in het beel niet zon heel groot probleem maar ze zitten er toch wel. 3D vision is ook niet perfect.

EDIT: Ik zit waarschijnlijk ook wel liever met zon brilletje op mijn hoofd dan 6 monitors op mijn bureau :+

[ Voor 7% gewijzigd door Anoniem: 286793 op 17-09-2009 22:05 ]


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Tja, dat brilletje vind ik niks en monitors met randjes, hoe dun ook, evenmin. :)

Wel is Eyefinity op zich handig voor mensen die hun set ook zakelijk gebruiken.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA GT300 Die photo



GT300-A1 version
GT300
700 MHz Drawing clock (MHz) 700 MHz
Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W

GT200b GT200b
648 MHz Drawing clock (MHz) 648 MHz
Processor clock (MHz) 1476 MHz * 240 = 354240
159.0GB/s GDDR3 <204W 159.0GB / s GDDR3 <204W

Afbeeldingslocatie: http://tweakers.net/ext/f/tz1O4TLF2QbsNJHv1gC33Q8G/full.jpg

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Apoca
  • Registratie: November 2001
  • Laatst online: 11-06 18:25

Apoca

Array Technology Industry

Jammer dat der geen object langs ligt voor een goede size vergelijking. Maar groot is die wel..
En de W output is ook hoog :/

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
als het waar is, wat een bandwith.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
De bandbreedte klopt. Als het er eentje is dan ziet deze er aardig 'dood' uit, net zoals het merendeel van de GT300 GPUs die NV op dit moment van de band bij TSMC probeert te laten rollen. Een plaatje van een dode GPU met wat specs er bij kan iedereen plaatsen. Benchmarks willen we. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
-The_Mask- schreef op donderdag 17 september 2009 @ 23:19:
GT300-A1 version
GT300
700 MHz Drawing clock (MHz) 700 MHz
Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W
Dat is i.i.g. genoeg memory bandwidth :).

Hoe moet ik de clocks lezen, 700MHz "core" & 1600MHz shaders?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op vrijdag 18 september 2009 @ 01:07:
[...]

Dat is i.i.g. genoeg memory bandwidth :).

Hoe moet ik de clocks lezen, 700MHz "core" & 1600MHz shaders?
Ter vergelijking met de GT200b cijfers eronder zou ik daar van uitgaan ja. De bandbreedte van het geheugen zou betekenen dat het op 1100MHz loopt.

Ik vraag me overigens af of dat niet gewoon extreme verspilling is van de bandbreedte. Het lijkt mij momenteel haast een Radeon HD2900XT te gaan worden. Op zich geen slechte chip, maar veel te veel dingen erin die niet perse nodig zijn op het moment of de komende jaren, teveel geheugenbandbreedte en te groot en evenzo te laat.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Oh noooo mijn high end videokaart is net een mini kachel :') Word hier zooo moe van met al dat groen gedoe ... dat je graag het IDLE verbruik omlaag wil hebben kan wel, want dan slijt je kaart ook minder (en dat is het enige wat me boeit eerlijk gezegd) maar waarom zeuren over 100% belast verbruik :? Als je dat erg vindt dan koop je maar een van de Low End kaarten en dan heb je dat niet en help je lekker mee om 0,0000000000000000001 % minder CO2 te verbruiken :z

Sorry hoor moest effe :P

Verder vind ik 3D beeld in de bioscoop geweldig en mogen ze het van mij met alles combineren waarbij een scherm of projector bij nodig is _O_ Snap niet dat mensen dat niet gaaf vinden ... ik wel !! En als het even kan i.c.m. meerdere schermen/projectoren :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

nero355 schreef op vrijdag 18 september 2009 @ 11:22:
[...]
dat je graag het IDLE verbruik omlaag wil hebben kan wel, want dan slijt je kaart ook minder
Volgens mij slijt materiaal juist doordat het veel gaat verschillen in temperatuur, uitzetten, krimpen, uitzetten, krimpen. Dit gebeurde ook al bij andere/oudere kaarten. AMD loste dit op door de HD4850/HD4870 op een zeer stabiele temp te houden door de koeler tijdens idle/load zich te laten aanpassen aan het niveau van belasting. Kaarten draaien dus altijd rond de 65-80 graden.

Volgens mij is dat nog beter dan continue 20 graden, 80 graden, 20 graden, etc.

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 10-06 16:36

Edmin

Crew Council

get on my horse!

nero355 schreef op vrijdag 18 september 2009 @ 11:22:
[...]


Verder vind ik 3D beeld in de bioscoop geweldig en mogen ze het van mij met alles combineren waarbij een scherm of projector bij nodig is _O_ Snap niet dat mensen dat niet gaaf vinden ... ik wel !! En als het even kan i.c.m. meerdere schermen/projectoren :+
In de 30 seconden die het kost voordat ik koppijn krijg vind ik het ook gaaf. d:)b
+ Het brilletje begint te irriteren na verloop van tijd.
+ Heb je wel eens geprobeerd een headset te combineren met een bril? Pijnlijke oren gegarandeerd!

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

281.6GB/s :o Wreed hoor... Dat moet bijna wel "free AA" zijn...

[ Voor 40% gewijzigd door Format-C op 18-09-2009 11:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Edmin schreef op vrijdag 18 september 2009 @ 11:32:
+ Het brilletje begint te irriteren na verloop van tijd.
Zelfs met mijn dikkop geen last van :+
+ Heb je wel eens geprobeerd een headset te combineren met een bril? Pijnlijke oren gegarandeerd!
Geen idee, maar i.c.m. een headset zoals die van mij zal dat denk ik ook wel meevallen. Ik heb deze : pricewatch: Sennheiser PC 146 USB Headset (500919)
Koop nooit reguliere headsets die over het hoofd heen gaan dus misschien dat het dan wel meer irriteert ...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Da_DvD
  • Registratie: April 2004
  • Laatst online: 14-04 10:01
RappieRappie schreef op vrijdag 18 september 2009 @ 11:35:
281.6GB/s :o Wreed hoor... Dat moet bijna wel "free AA" zijn...
Ja, want dat had de HD2900XT ook ;)

Acties:
  • 0 Henk 'm!

  • ownage maxim
  • Registratie: Augustus 2007
  • Laatst online: 19-05 20:32
Ik vindt 700mhz wel optimistisch voor deze architectuur die ook nog eens flink opgepompt is.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 23:44
Da_DvD schreef op vrijdag 18 september 2009 @ 12:26:
[...]


Ja, want dat had de HD2900XT ook ;)
Die vergelijking met de X2900 XT ontgaat me toch een beetje. Dat die helemaal niks aan de geheugenbandbreedte had was omdat hij beperkt werd door andere zaken (te weinig TMU's, geen hardware AA).
Een GT300 met 512 shaders op 700 Mhz en waarschijnlijk een hele stapel TMU's/ROPs kon dit soort bottlenecks wel es niet hebben schat ik in... Maar hoeveel het uitmaakt blijft afwachten.

anathema


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 11-06 17:24
anathema schreef op vrijdag 18 september 2009 @ 14:32:
[...]

Die vergelijking met de X2900 XT ontgaat me toch een beetje. Dat die helemaal niks aan de geheugenbandbreedte had was omdat hij beperkt werd door andere zaken (te weinig TMU's, geen hardware AA).
Een GT300 met 512 shaders op 700 Mhz en waarschijnlijk een hele stapel TMU's/ROPs kon dit soort bottlenecks wel es niet hebben schat ik in... Maar hoeveel het uitmaakt blijft afwachten.
Wat hij waarschijnlijk probeerde duidelijk te maken is dat een bandbreedte getal niet alles zegt.
Zoals bij de 2900XT het geval was ;)
Hoeft niet hetzelfde te zijn bij de GT300, maar staar je niet scheel op die bandwidth.

Computer says no


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 11-06 18:25

Apoca

Array Technology Industry

nero355 schreef op vrijdag 18 september 2009 @ 11:22:
[...]

Oh noooo mijn high end videokaart is net een mini kachel :') Word hier zooo moe van met al dat groen gedoe ... dat je graag het IDLE verbruik omlaag wil hebben kan wel, want dan slijt je kaart ook minder (en dat is het enige wat me boeit eerlijk gezegd) maar waarom zeuren over 100% belast verbruik :? Als je dat erg vindt dan koop je maar een van de Low End kaarten en dan heb je dat niet en help je lekker mee om 0,0000000000000000001 % minder CO2 te verbruiken :z

Sorry hoor moest effe :P
Ik heb voor huidige setup een CF HD2900XT met een 1kW PSU setup gehad, dus ga nu niet over het milieu klimaat beginnen :Y)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


  • aval0ne
  • Registratie: Maart 2004
  • Laatst online: 14-05 15:40
ownage maxim schreef op vrijdag 18 september 2009 @ 12:43:
Ik vindt 700mhz wel optimistisch voor deze architectuur die ook nog eens flink opgepompt is.
Wat is jouw inzicht in deze architectuur om zoiets te beweren?

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
aval0ne schreef op zaterdag 19 september 2009 @ 11:06:
[...]

Wat is jouw inzicht in deze architectuur om zoiets te beweren?
Als je een beetje kijkt naar de ontwikkeling van de kloksnelheid van de topkaarten van nVidia, dan is het aannemelijk dat de GTX385 een kloksnelheid van max 700MHz, maar waarschijnlijk lager zal krijgen. Als je er ook nog bij bedenkt dat nVidia nog behoorlijk aan het worstelen is met het 40nm proces, dan zou een kloksnelheid van ongeveer 650MHz al hoog kunnen zijn.

[ Voor 4% gewijzigd door dahakon op 19-09-2009 20:13 ]


Acties:
  • 0 Henk 'm!

Anoniem: 304087

dahakon schreef op zaterdag 19 september 2009 @ 19:58:
[...]


Als je een beetje kijkt naar de ontwikkeling van de kloksnelheid van de topkaarten van nVidia, dan is het aannemelijk dat de GTX385 een kloksnelheid van max 700MHz, maar waarschijnlijk lager zal krijgen. Als je er ook nog bij bedenkt dat nVidia nog behoorlijk aan het worstelen is met het 40nm proces, dan zou een kloksnelheid van ongeveer 650MHz al hoog kunnen zijn.
Ik dacht dat een kleinere chip juist hoger geklokt word?
Word de gt300 nu wel dx11 of niet, het is mijn namelij niet helemaal duidelijk.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 304087 schreef op maandag 21 september 2009 @ 13:02:
Word de gt300 nu wel dx11 of niet, het is mijn namelij niet helemaal duidelijk.
De GT300 wordt wel DX11, maar het duurt even voordat die komt. Eerst komen GT(X/S)3xx kaarten die bestaan uit huidige kaarten met een nieuwe naam, aangevuld met DX10.1 videokaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:01
Zullen er in de 3XX serie dus nog ALTIJD(!) overgeclockte 8800GT's te vinden zijn? :|

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Huh een andere naamgeving met een g92 chip ? Belave dan de gtx3$$ series

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Anoniem: 304087 schreef op maandag 21 september 2009 @ 13:02:
[...]


Ik dacht dat een kleinere chip juist hoger geklokt word?
Word de gt300 nu wel dx11 of niet, het is mijn namelij niet helemaal duidelijk.
Dat klopt ook, maar je moet bedenken dat en de chip groter is(meer stransistoren is slecht voor hogere klok) en dat TSMC het process nog niet helemaal onder de knie heeft en daar door relatief slechtere batches produceerd dan op 55nm.

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Paprika schreef op maandag 21 september 2009 @ 13:49:
Zullen er in de 3XX serie dus nog ALTIJD(!) overgeclockte 8800GT's te vinden zijn? :|
GT330/GT335 waren volgens mij weer G92 derivaten :X .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 304087 schreef op maandag 21 september 2009 @ 13:02:
[...]


Ik dacht dat een kleinere chip juist hoger geklokt word?
Word de gt300 nu wel dx11 of niet, het is mijn namelij niet helemaal duidelijk.
Zoals anderen al zeiden, klopt dit tot op zekere hoogte meestal wel. Als je dan ook naar de midrange kaarten van nVidia kijkt, zie je dat deze vaak ook wat hoger geklokt zijn dan de topend zoals de GTX265 en hoger.

Probleem met de nieuwe topend is dan ook dat de chip wel op een kleiner procede gemaakt wordt, een procede dat nog altijd wel wat kuren lijkt te hebben, maar zoals de geruchten gaan, is de chip wat oppervlakte betreft niets kleiner dan de GTX280, wat dus weer wat problemen met zich mee kan brengen (als er niet erg veel loze ruimte in de chip gecreeerd is voor hogere kloksnelheden).

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Nu online
-The_Mask- schreef op donderdag 17 september 2009 @ 23:19:

NVIDIA GT300 Die photo



GT300-A1 version
GT300
700 MHz Drawing clock (MHz) 700 MHz
Processor clock (MHz) 1600 MHz * 512 = 819200
281.6GB/s GDDR5 <225W 281.6GB / s GDDR5 <225W

GT200b GT200b
648 MHz Drawing clock (MHz) 648 MHz
Processor clock (MHz) 1476 MHz * 240 = 354240
159.0GB/s GDDR3 <204W 159.0GB / s GDDR3 <204W

[afbeelding]
volgens nordic hardware is het een dieshot van een G200 en zooo 2008

Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 10-06 17:03
Blastpe schreef op dinsdag 22 september 2009 @ 20:47:
[...]


volgens nordic hardware is het een dieshot van een G200 en zooo 2008
Die lijkt wel erg veel op een foto waar CJ op reageerde met de droge opmerking dat het een dode GT300 was. Voor zover ik mij kan herinneren
Pagina: 1 2 ... 7 Laatste

Dit topic is gesloten.