[Algemeen] nVidia Nieuwdiscussie Topic - Deel 48 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 34.736 views

Verwijderd

Edmin schreef op woensdag 15 september 2010 @ 20:27:
Guru3d heeft na de eerste GTS450 review nu ook een GTS450 SLi review:
http://www.guru3d.com/article/geforce-gts-450-sli-review/17

[...]


[...]

Dus hij geeft toe dat de concurrentie komt van HD5770CFX en dat de GTS450SLi het verliest qua prestaties, maar gaat vervolgens door over de superieure drivers, PhysX en 3d Surround.... met als resultaat een 'Recommended' award voor GTS450SLI.

Mocht er hier nog iemand zijn die Hilbert vertrouwde in zijn oordeel, dan is dat nu echt definitief voorbij, lijkt me.
Ik ben het toch (gedeeltelijk) met hem eens, ik zal dan wel nooit en te nimmer een gts450 kopen, maar als ik in die klasse zou gaan shoppen zou ik zeker naar de drivers kijken. Het is zo dat je in die klasse niet te veel mag verwachten kwa prestaties gezien van zo'n kaartje, maar het moet toch allemaal stabiel lopen. Die physx en 3d surround zal me trouwens worst wezen, heb physx wel aan staan maar voegt niet veel toe bij de games die ik speel imo.

Maar om de drivers te beoordelen op basis van een enkele test vind ik dan weer krom, dat kun je pas beoordelen als je over een langere periode met de pc werkt. De doorsnee consument is toch beter af met een 5770, is zelfs na een jaar op de markt te zijn nog een top kaart :)

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Nofi, maar dat driver-argument was leuk in 2006. Tegenwoordig zie ik het echt alleen nog maar terug als mensen hun keuze voor NV niet met echte argumenten uit kunnen leggen.
Daarbij is het opvallend dat PhysX en 3d Srnd wel worden aangehaald, maar bijvoorbeeld EF weer niet.

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op woensdag 15 september 2010 @ 22:30:
[...]

Maar om de drivers te beoordelen op basis van een enkele test vind ik dan weer krom, dat kun je pas beoordelen als je over een langere periode met de pc werkt. De doorsnee consument is toch beter af met een 5770, is zelfs na een jaar op de markt te zijn nog een top kaart :)
Ik heb een HD5770 hier en dat lupt wie een tit(loopt als een tiet).
Ik heb de volgende kaarten allemaal gehad:

ATI 9600Pro 256MB
ATI x850Pro 256MB
ATI x1900XT 512MB
ATI HD2900XT 512MB
ATI HD3850 512MB
ATI HD4650 1GB
ATI HD5770 1GB

Ze werken allemaal nog, ja zelfs de 9600Pro doet het nog. Ook heb ik nooit driver problemen gehad. Wel frappant dat de kaart die ik voor de ATI 9600Pro 256MB had een nVidia MX2 was en deze er na een jaar mee was gestopt. Sindsdien eigenlijk geen nVidia meer gehad niet zo zeer omdat die ene kaart er mee stopte eerder omdat ATI gewoon betere keuzes had. Tevens heb ik wel nog een nVidia MX440 kaart in een systeem dat ik heb gekregen, en die drivers die daarbij horen zijn niet anders als die van ATI in mijn ogen. De mensen die terecht driver problemen hebben is heel klein. Met terecht bedoel ik dat de persoon er niks aan doen want er zijn ook nog altijd van die naïeve nVidia aanhangers die ATI eens willen proberen en gewoon een ATI kaart in hun huidige systeem rammen. Natuurlijk hebben ze van te voren "netjes" de drivers verwijderd dat het systeem vervolgens de raarste mankementen vertoond wordt ATI dan aangerekend.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Mja... in het verleden heb ik eigenlijk altijd alleen maar de kaarten gehad met de beste prijs/prestatie verhouding, wat IMO het belangrijkste is... drivers heb ik ook nooit echte problemen mee gehad, op het vroegere CCC na, maar dat had meer met .NET te maken dan met het CCC zelf.
nV GF4 4200Ti (geloof ik), 9800PRO (lekker flashen naar XT), 7800GT en nu een 4850.

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Verwijderd schreef op woensdag 15 september 2010 @ 22:30:
[...]
Ik ben het toch (gedeeltelijk) met hem eens, ik zal dan wel nooit en te nimmer een gts450 kopen, maar als ik in die klasse zou gaan shoppen zou ik zeker naar de drivers kijken. Het is zo dat je in die klasse niet te veel mag verwachten kwa prestaties gezien van zo'n kaartje, maar het moet toch allemaal stabiel lopen.
Zoals gezegd is het driver-argument idd wel een beetje achterhaald. Ik wissel nog al es tussen ATI en Nvidia en beide werkt het over het algemeen prima. En beide hebben ze af en toe de meeste belachelijke fouten zoals de GTX4xx serie met lage GPU usage met daardoor haperingen in BF-BC2. Pas nu met een nog niet officieel uitgebracht driver is dat weet goed. Bij ATI had PES2010 last van haperingen en natuurlijk het bekende 2D strepen probleem met de HD58xx serie, hoewel dat geen driver issue was maar een te ambitieuze powerplay in de bios waar niet elke kaart goed mee werkte.

Wat wel zo is dat ik nog wel es tegen games aanloop die bepaalde features bij Nvidia wel ondersteunen en ATI niet. Andersom zelden, maar dat stelt ook weer niet zoveel voor dat dat dat mn keuze echt beinvloedt.

anathema


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:25
Keep in mind, to be able to operate two or more cards in SLI mode you'll need an actual SLI certified motherboard, most X58 motherboards are in fact SLI certified, some P55 motherboards as well. That or an nForce motherboard (which is a dying breed).
Aan de resultaten in die benchmark te zien, kun je net zo goed gewoon een 5850 of GTX470 halen, dan ben je meteen van 1: het moederbord 'probleem' af, 2: SLI af (er zullen altijd games zijn die niet of zeer weinig gebruik maken van 2 GPUs), 3: Kunt altijd nog een dual setup gaan op een later tijdstip ipv er al mee beginnen en dan altijd vast zitten aan die performance, 4: Microstuttering (de een zegt het nog te hebben, de andere niet).

Beide kaarten zitten tussen de 240 en 270 euro (XFX 5850 @ 243 & Point of View GTX470 @ 259) dus ongeveer gelijk aan 2x GTS 450s (goedkoopste is Club3d met 250 voor 2).

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Mja dat hele driver verhaal word ik zo onderhand echt moe van, maar ja, je moet toch iets als NVIDIA fan :p

Ik ben onlangs geswitcht van een 5870 naar GTX 460 (voorlopig enkele kaart, in afwachting van de aankomende ATI kaarten - 5870 is samen met de rest van dat systeem voor een mooie prijs verkocht ;)), en ik kan echt niet zeggen dat NVIDIA's drivers 'beter' zijn. NVCP is iets simpeler in het gebruik dan CCC wellicht, maar voor de rest?

En inderdaad, er wordt altijd naar PhysX verwezen, waar de games met PhysX die echt op de GPU draaien op twee handen te tellen zijn. Erger nog, geen enkele van die games gebruikt het voor de gameplay, en in veel gevallen ziet het er gewoon belachelijk uit: stapeltjes papier in Batman:AA die helemaal statisch zijn, maar zodra je teen ze schampt vliegen ze alle kanten uit :p

Zelfde geldt voor Surround. Leuk en aardig, maar het nadeel dat je er twee kaarten voor nodig hebt wordt altijd maar over het hoofd gezien. Komt als tegenargument dat je toch twee kaarten nodig hebt voor die resolutie, wat ook niet waar is voor elke game; en twee keer een GTS 450 zou het dan wel trekken en een enkele 480 of zelfs 5870 niet?

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 15:35

edward2

Schieten op de beesten

Geen GTX490 (2x huidige GF104=GTX460) maar een GF110 gebaseerd op een GF104?:


Die finnische Webseite Muropaketti (maschinelle Übersetzung ins deutsche) bringt in Berufung auf die Aussagen eines (angeblichen) Mitarbeiters eines Grafikkarten-Herstellers neue Informationen über die Planungen von nVidia im HighEnd-Bereich: Danach soll die ursprünglich geplante DualChip-Lösung GeForce GTX 490 auf Basis zweier GF104-Chips kürzlich komplett gestrichen worden sein, obwohl diese Karte schon marktreif gewesen war. Dafür soll nun ein angeblicher GF110-Grafikchip in einem ähnlichem Preis- und Performance-Segment antreten, welcher schon auf der veränderter Architektur des GF104-Chips basiert. Dies würde bedeuten, nVidia würde neben dem GF100-Chip im HighEnd-Segment einen weiteren Chip auflegen, der aber von seinen Anlagen her eher alleinig aufs Gaming ausgerichtet ist, während der GF100-Chip wie bekannt auch das professionelle Segment und den HighPerformace-Computing-Bereich bedienen soll.

In unserem Forum wird demzufolge denn auch schon heftig debatiert, wie ein solcher GF110-Chip aussehen könnte. Die momentan wahrscheinlichste Auflösung ist ein Chip mit 12 Shader-Clustern im GF104-Stil, was dann insgesamt 576 Shader-Einheiten und 96 TMUs ergeben würde. Hierfür würde weiterhin ein 384 Bit DDR Speicherinterface mit schlicht anständigen Speichertaktraten ausreichen (nVidia hat diesbezüglich ja noch deutliche Reserven). Vor allem aber kann man durch das Herauslassen des ganzen GF100-Ballasts mächtig Die-Fläche sparen, gemäß der Voraussagen unseres Forums würde ein solcher GF110-Chip mit 576 Shader-Einheiten eine Die-Fläche von zwischen 430 und 480mm² einnehmen – was in jedem Fall etwas weniger wäre als beim GF100-Chip mit seinen 512 Shader-Einheiten (529mm²).

Der GF110-Chip würde dem GF100-Chip dann aber bei der Gaming-Performance trotz kleinerer Die-Fläche davonrennen: Schließlich hätte der GF110 zu diesen Daten 12 Prozent mehr Shader-Einheiten und 50 Prozent mehr Textureneinheiten. Wenn man dann auch noch die wirklich gute Taktbarkeit der kleineren Fermi-Chips GF104, GF106 und GF108 auch auf den GF110-Chip übertragen könnte, dann kann dieser vielleicht auch noch mit klar besseren Taktraten als der GF100-Chip operieren. Somit könnte man eine Performance erreichen, die 20 bis 30 Prozent über dem GF100-Chip liegt – was dann ausreichend sein sollte, um selbst nach dem Release der Southern-Islands-Generation noch vor AMDs neuem SingleChip-Spitzenmodell zu bleiben. Eine Antwort auf die kommenden DualChip-Grafikkarten der Southern-Islands-Generation wäre dies zwar nicht, aber die kann nVidia schließlich auch mittels SLI-Kombinationen erreichen.

Es gibt natürlich weiterhin die Gegenthese eines GF100b-Chips auf Basis eines neuen Steppings des GF100-Chips. Damit sollte nVidia dann die Verlustleistungsprobleme des GF100-Chips in den Griff bekommen, was es ermöglichen würde, den GF100b dann mit den vollen 512 Shader-Einheiten und zu etwas höheren Taktraten zu bringen. Ob dies allerdings ausreichend Mehrperformace ergibt, um einer potentiellen Radeon HD 6870 aus der Southern-Islands-Generation gleichwertig entgegentreten zu können, ist noch fraglich. Der GF110-Ansatz erscheint da deutlich eleganter, weil mit etwas kleinerer Chipfläche und weniger Verlustleistungs-Problemen ziemlich sicher eine Performance erreicht werden kann, welche AMD weiterhin in Schach hält. Zudem bietet sich das Fermi-Modell der sehr modular aufgebauten Chips sehr gut für einen solchen schnell entschiedenen neuen Grafikchip an

http://www.3dcenter.org/

Niet op voorraad.


Verwijderd

Nou...Ben benieuwd.
Sta op het punt een nieuwe grafische kaart te halen.
Eerst zien wat de HD6xxx serie voorsteld.
Als de geruchten waar zijn , dan mag Nvidia wel opschieten voordat ze weer tegen een ATI-muur wandelen.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Ik ken mensen met NV mokken...


http://www.legitreviews.com/news/9054/

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Het waarschijnlijk gaat om voorzorgsmaatregelen(sticker), dit doen ze om problemen te voorkomen. De hoeveelheid lood en cadmium is waarschijnlijk verwaarloosbaar. Allen elementen zijn giftig als je er maar genoeg van binnen krijgt. Dit zelfde geld dus ook voor lood en cadmium, wel is het zo dat deze twee elementen bij relatief kleine hoeveelheden al problemen kunnen veroorzaken(lange termijn).

Ik zou i.i.g. niet uit de mok gaan drinken. Maar ze moeten het niet te veel opblazen dadelijk worden ze niet meer op de GTC toegelaten :o

[ Voor 9% gewijzigd door madmaxnl op 20-09-2010 22:38 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Komt er nu ook een sticker op fermi 2 waarop staat "Pas op gebruik deze kaart niet, kans op giftige dampen door smeltende soldeer verbindingen"? ;)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nee, bijna alle hardware en andere elektrische apparaten zijn veelal RoHS en men soldeert zelden met lood.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nvidia working on external notebook graphics

http://www.fudzilla.com/g...xternal-notebook-graphics
Eve of the new notebook gaming
We had a chance to talk to Nvidia’s General manger of Notebook group Mr Rene Haas and we heard that Nvidia wants to continue working on and improving notebook graphics. It looks like the future of Nvidia is raising the bar in just about any graphics segment.

Fusion and Intel's Sandy Bridge solution will put a lot of weight on Nvidia but Mr. Haas told Fudzilla that the company is working on its version of external graphics. He believes that AMD did a good job with Lasso, despite few flaws that kept it from being successful but it was a shot in the right direction.

Nvidia is working on its implementation of external graphics, as this is the way to get real gaming on notebooks. Since notebooks are slowly but surely taking over the desktop segment, this definitely sounds like a sound plan and a wise direction.

Let’s hope that AMD is working on some new Lasso, to keep the competition going.
Edit: en nog een artikeltje. http://www.semiaccurate.c...a-signs-global-foundries/

[ Voor 4% gewijzigd door spNk op 21-09-2010 09:39 ]


Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53

Jen-Hsun Announces CUDA for x86 Architecture


During his keynote speech, Co-founder and CEO of nVidia, Jen-Hsun Huang announced what was rumored for years - CUDA is [finally] adding the support for x86 instruction set.

After the settlement between Intel and the FTC, nVidia now feels they can go about and tap their fingers into the x86 ISA. For now, the support for x86 instruction set is going to be executed on compatible processors.

Knowing nVidia and the advancements that both AMD and nVidia are making with the GPU virtualization, we might soon see virtual machines running x86 CUDA code on the GPU silicon as well.

Naturally, this announcement means CUDA can be run on systems that feature AMD and Intel silicon as well. nVidia's GPU needs to be present, though.

More to follow soon...

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

480's zijn lekker goedkoop.. zijn ze ergens bang voor?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

neliz schreef op dinsdag 21 september 2010 @ 19:17:
480's zijn lekker goedkoop.. zijn ze ergens bang voor?
Onder de 300 euro die van gigabyte..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

Xenomorphh schreef op dinsdag 21 september 2010 @ 20:01:
[...]

Onder de 300 euro die van gigabyte..
Een GTX480 onder de 300 euro? Linky :9~ ?

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • mdcobra
  • Registratie: Juli 2002
  • Laatst online: 15-09 17:21
NVIDIA-reveals-fermis-successor
Lijkt misschien mooier dan het is aangezien de DP genoemt word wat voor games niet echt belangrijk is, hopelijk schaalt de SP mee.

[ Voor 134% gewijzigd door mdcobra op 21-09-2010 20:35 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Mja, 2011 is een ruim begrip zullen we maar zeggen. :D

Daar komt bij dat op die slide ook staat dat de Fermi in 2009 zou komen :D , dus het lijkt mij een beetje een verouderd slide'je.

Edit:
quote: bericht
Update: Does this roadmap mean we should expect new GPUs from NVIDIA every two years? Jen-Hsun Huang wouldn't commit to that, but said that there will be "mid-life kicker" product launches in-between each new NVIDIA chip to keep the wheels turning.
LOL. Dan komt ie dus in 2012 aangezien de Fermi er pas in maart 2010 was. :P

[ Voor 50% gewijzigd door Format-C op 21-09-2010 20:35 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 16:56
Damn ik wil niet flamen. Maar hiermee naait Nvidia weer de ealy adopters. Eerst met de gtx280 en gtx260. Nu met de gtx480. Het is normaal dat prijs van electronica daalt. Maar bij deze 3 producten is het wel extreem. Price cuts van 40% op een bedrag van 500 is dit 200 euro.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Hebben ze een keuze? Fermi is gewoon te laat/heet/"traag", en kan daarom moeilijk concurreren met de HD5xxx serie. Ze moeten de prijzen wel omlaag gooien anders kiest iedereen die niet alleen maar nV wil, en een beetje op de hoogte is een radeon.

Acties:
  • 0 Henk 'm!

  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
spNk schreef op dinsdag 21 september 2010 @ 21:12:
Hebben ze een keuze? Fermi is gewoon te laat/heet/"traag", en kan daarom moeilijk concurreren met de HD5xxx serie. Ze moeten de prijzen wel omlaag gooien anders kiest iedereen die niet alleen maar nV wil, en een beetje op de hoogte is een radeon.
Ja die hadden ze zeker want de prijzen de laatste weken van de GTX470 en GTX480 waren al alleszins redelijk. 295 euro nu ineens voor een GTX480 is dan ook wel erg goedkoop zeg. Blijkbaar weten ze meer over waar ATI mee komen gaat. En dat zal dan toch wel wat anders zijn dan het tabelletje wat werd gepost in het ATI topic vandaag, want daar zouden ze niet zo van schrikken.

anathema


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
karakedi schreef op dinsdag 21 september 2010 @ 20:49:
Damn ik wil niet flamen. Maar hiermee naait Nvidia weer de ealy adopters. Eerst met de gtx280 en gtx260. Nu met de gtx480. Het is normaal dat prijs van electronica daalt. Maar bij deze 3 producten is het wel extreem. Price cuts van 40% op een bedrag van 500 is dit 200 euro.
Bij ATI is het omgekeerd daar gaan de prijzen omhoog, HD58xx en HD4870x2 gingen omhoog na hun release of bleven op een gelijk pijl. Nvidia hardware is letterlijk en figuurlijk geen goede investering.

Acties:
  • 0 Henk 'm!

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 16:56
Bij de gtx280 en gtx260 kan ik de prijsdrop enigzins begrijpen. Ze waren volledig verrast door de performance van de hd48xx. De gtx480 kwam later op de markt dan de hd58xx reeks en ze konden inschatten hoe het door de publiek zou worden ontvangen. Door eerst 500 euro te vragen en over paar maanden maar 300 verspelen heel veel goodwill bij hun fanbase.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op dinsdag 21 september 2010 @ 22:37:
[...]


Bij ATI is het omgekeerd daar gaan de prijzen omhoog, HD58xx en HD4870x2 gingen omhoog na hun release of bleven op een gelijk pijl. Nvidia hardware is letterlijk en figuurlijk geen goede investering.
Hardware is nooit een goeie investering :>

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Al krijg je naderhand wel iets meer terug voor nvidia kaarten, maar dat werkt nog steeds in het nadeel van de early adopters omdat die met de gang van zaken bij de gtx260/80 nog steeds meer afschrijving hebben.

Je kan natuurlijk ook het geluk hebben zo'n kaartje te winnen, dan maak je alleen maar winst :P

Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 06-09 22:53
Als early adopter moet je gewoon niet klagen dat een product later in zijn levenscyclus goedkoper wordt. Dit heb je met alle speeltjes (TVs, telefoons, etc.). het gaat erom dat je als early adopter hebt kunnen showen dat je het had toen het net nieuw was. Hardware kopen is geen investering; het zijn geen aandelen maar gebruiksgoederen O-)

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

karakedi schreef op dinsdag 21 september 2010 @ 20:49:
Damn ik wil niet flamen. Maar hiermee naait Nvidia weer de ealy adopters. Eerst met de gtx280 en gtx260. Nu met de gtx480. Het is normaal dat prijs van electronica daalt. Maar bij deze 3 producten is het wel extreem. Price cuts van 40% op een bedrag van 500 is dit 200 euro.
Consumenten zijn geen slachtoffer, ze kunnen gewoon keuze maken. Reviews zat op het internet die aangeven hoe de GTX 480 zich verhoudt tot andere videokaarten op de markt. Gezien de warmteproductie, de verkoopprijs die dichter bij de Radeon HD 5970 dan bij de HD 5870 lag, de geluidsproductie en het stroomverbruik vind ik het geen wonder dat ze de GTX 480 nu voor 300 euro verkopen. Had je voor iets meer geld een HD 5970 gehaald dan had je nog steeds een relatief waardevaste kaart.

Ik heb in december een HD 5970 gekocht voor 550 euro en nu kost ie nog steeds minstens 520 euro..

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

karakedi schreef op dinsdag 21 september 2010 @ 22:42:
Bij de gtx280 en gtx260 kan ik de prijsdrop enigzins begrijpen. Ze waren volledig verrast door de performance van de hd48xx. De gtx480 kwam later op de markt dan de hd58xx reeks en ze konden inschatten hoe het door de publiek zou worden ontvangen. Door eerst 500 euro te vragen en over paar maanden maar 300 verspelen heel veel goodwill bij hun fanbase.
Het is maar het risico wat je wil nemen, bij de hd5870 was het bijvoorbeeld een goede gok (als je er al een wist te bemachtigen), bij de gtx480 niet. Al zullen early adaptors van die kaartjes ook wel tevreden zijn omdat die kaart in dx11 kont schopt atm, nu ati met een nieuwe verbeterde serie komt moet nvidia weer omlaag met de prijzen. Hetzelfde maar dan omgekeerd met de 8800gts,gtx en de 8800gt, dat was toen een goede investering omdat de concurrentie weinig aan het videokaartlandschap veranderde. Je kon toen vaak makkelijk 2 jaar vooruit met een gtx, mijn gts heb ik ook een dik jaar in bezit gehad voor ik een hd4870 vorig jaar rond deze tijd van het jaar kocht. Nu heb ik alweer de derde kaart in een jaar tijd :+ . Het beste is een kaart niet te vroeg aan te schaffen imo, zo'n gtx480 lijkt me wel leuk, maar is me geen 500 euro waard, als de prijzen met de kerst nog verder gekelderd zijn bestel ik er eentje, blijft toch een sterke kaart. tenminste geen sli-zeik meer met mijn gtx295 dan, die kan dan tegen minimaal verlies weg omdat het een goedkoop tweedehandsje is >:)

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 16:56
Ik begrijp dat de prijs van hardware omlaag gaat na een periode. Maar meestal gebeurd het niet zo snel als de gtx480 en consorten (gtx470 en gtx465).

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

karakedi schreef op woensdag 22 september 2010 @ 02:53:
Ik begrijp dat de prijs van hardware omlaag gaat na een periode. Maar meestal gebeurd het niet zo snel als de gtx480 en consorten (gtx470 en gtx465).
Heeft puur te maken met concurrentie.

Edit; en ze zijn inmiddels alweer een half jaar op de markt he? ;)
frankknopers schreef op dinsdag 21 september 2010 @ 23:30:

Ik heb in december een HD 5970 gekocht voor 550 euro en nu kost ie nog steeds minstens 520 euro..
Heeft eveneens te maken met (een gebrek aan) concurrentie.

[ Voor 119% gewijzigd door Format-C op 22-09-2010 09:26 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Format-C schreef op woensdag 22 september 2010 @ 09:21:
Heeft puur te maken met concurrentie. Edit; en ze zijn inmiddels alweer een half jaar op de markt he? ;)
Ze kwamen op de markt in Mei. 4 maanden ;) (dacht ik)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

De review van HWI was van 27 maart 2010, dus ik dacht dat ie vanaf toen zo'n beetje leverbaar was. Maar goed, laten we zeggen 4 tot 6 maanden dan. Hij is er iig al een tijdje. :)


Edit; maar feit is natuurlijk wel dat je nu zo'n monster kan oppikken voor een louzy 300 euro. En dat is imho een mooie prijs... :o Dat early adopters teveel betalen is algemeen bekend. Dat heb ik zelf ook al vaak genoeg aan den lijve ondervonden. :P Dat is nu eenmaal een keuze en/of risico van het -alles-als-eerste willen hebben.

[ Voor 57% gewijzigd door Format-C op 22-09-2010 09:32 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


  • Paprika
  • Registratie: September 2007
  • Laatst online: 19:25
Format-C schreef op woensdag 22 september 2010 @ 09:28:
Edit; maar feit is natuurlijk wel dat je nu zo'n monster kan oppikken voor een louzy 300 euro. En dat is imho een mooie prijs... :o Dat early adopters teveel betalen is algemeen bekend. Dat heb ik zelf ook al vaak genoeg aan den lijve ondervonden. :P Dat is nu eenmaal een keuze en/of risico van het -alles-als-eerste willen hebben.
ATi kaarten werden zelfs meer waard.... Je kon een 5850 in het begin voor 200-220 kopen, voor dat bedrag kon je ze tot zeer recent (GTX460) ook weer verkopen. Overigens is 40% toch wel erg veel hoor. Meestal gaan 2e hands producten voor rond de 75% van de huidige nieuw waarde (als garantie aanwezig is etc); bij de GTX480 koop je hem nu voor nog maar 56-57% van de launch prijs. Dan zou je 2e hands dus echt al rond de 225-250 zitten en meer dan 50% verlies hebben van wat je ervoor betaald hebt.

Dat is gewoon veel te veel, maar dat krijg je ook als je een kaart 8 maanden later koopt dan de release van de concurrentie.... die komen dan al weer met wat nieuws. ;w

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Format-C schreef op woensdag 22 september 2010 @ 09:28:
De review van HWI was van 27 maart 2010, dus ik dacht dat ie vanaf toen zo'n beetje leverbaar was. Maar goed, laten we zeggen 4 tot 6 maanden dan. Hij is er iig al een tijdje. :)
27 Maart was de paper launch, release date was 12~15 Mei. Dus krap 4 maanden
Edit; maar feit is natuurlijk wel dat je nu zo'n monster kan oppikken voor een louzy 300 euro. En dat is imho een mooie prijs... :o Dat early adopters teveel betalen is algemeen bekend. Dat heb ik zelf ook al vaak genoeg aan den lijve ondervonden. :P Dat is nu eenmaal een keuze en/of risico van het -alles-als-eerste willen hebben.
Voor de eindgebruikers is het alleen maar mooi natuurlijk.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Deathchant
  • Registratie: September 2003
  • Laatst online: 15-09 20:57

Deathchant

Don't intend. Do!

Heb je al eens op de links geklikt in de pricewatch? Volgens mij staan ze niet goed in de pricewatch:

Azerty: EUR 429,39
Salland: EUR 416

Bij alle shops zijn ze nog steeds hooggeprijsd, maar er is 1 shop die nog maar 1 Gigabyte GTX480 heeft voor maar 294,50!!
http://www.4launch.nl/sho...1-5gb-2xdvi-hdmi/tweakers

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


  • Kimberly
  • Registratie: Juli 2002
  • Laatst online: 10-09 14:22
Deathchant schreef op woensdag 22 september 2010 @ 10:42:
[...]

Heb je al eens op de links geklikt in de pricewatch? Volgens mij staan ze niet goed in de pricewatch:

Azerty: EUR 429,39
Salland: EUR 416

Bij alle shops zijn ze nog steeds hooggeprijsd, maar er is 1 shop die nog maar 1 Gigabyte GTX480 heeft voor maar 294,50!!
http://www.4launch.nl/sho...1-5gb-2xdvi-hdmi/tweakers
Azerty ook hoor, daar heb ik mijn gtx 480 gisteren opgehaald voor 296,29 euro. :) Nu is de prijs weer op 'normaal' niveau. Lucky me! ;)

Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op dinsdag 21 september 2010 @ 23:32:
[...]


Het is maar het risico wat je wil nemen, bij de hd5870 was het bijvoorbeeld een goede gok (als je er al een wist te bemachtigen), bij de gtx480 niet. Al zullen early adaptors van die kaartjes ook wel tevreden zijn omdat die kaart in dx11 kont schopt atm, nu ati met een nieuwe verbeterde serie komt moet nvidia weer omlaag met de prijzen. Hetzelfde maar dan omgekeerd met de 8800gts,gtx en de 8800gt, dat was toen een goede investering omdat de concurrentie weinig aan het videokaartlandschap veranderde. Je kon toen vaak makkelijk 2 jaar vooruit met een gtx, mijn gts heb ik ook een dik jaar in bezit gehad voor ik een hd4870 vorig jaar rond deze tijd van het jaar kocht. Nu heb ik alweer de derde kaart in een jaar tijd :+ . Het beste is een kaart niet te vroeg aan te schaffen imo, zo'n gtx480 lijkt me wel leuk, maar is me geen 500 euro waard, als de prijzen met de kerst nog verder gekelderd zijn bestel ik er eentje, blijft toch een sterke kaart. tenminste geen sli-zeik meer met mijn gtx295 dan, die kan dan tegen minimaal verlies weg omdat het een goedkoop tweedehandsje is >:)
Ik zou de 5870 eerder een educated guess of een zekerheid noemen dan een goede gok.
De 480 is nooit een gok geweest, daarvan wist je eigenlijk al zeker dat je daar op korte termijn flink op zou moeten gaan afschrijven. Verder, kont schoppen in DX11 is imho zwaar overdreven.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 16:56
Nu is de prijs van de gtx480 onder de prijs van hd5870 gekomen, terwijl de gtx480 tussen de 10 / 20 % sneller is. Letten tegenwoordig zoveel mensen op het verbruik? Dat was eigenlijk de achilleshiel van de gtx480. Slechte performance verbruik verhouding

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Met een prijs van 295 a 325 wordt ie natuurlijk zeker een heel stuk interessanter, maar is deze beprijsing een fout in de Pricewatch. Echter met de nieuwe AMD chips in aantocht is het natuurlijk de vraag of het nog een steeds een goede koop is.

Hoog verbruik heeft uiteraard meestal ook andere nadelen zoals meer lawaai, hitte, slijtage.

[ Voor 9% gewijzigd door Help!!!! op 22-09-2010 13:27 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
+/- 420 euro is altijd nog duurder dan +/- 350 euro hoor. :)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • anathema
  • Registratie: Augustus 2006
  • Laatst online: 24-08 10:47
Help!!!! schreef op woensdag 22 september 2010 @ 11:40:
[...]

Ik zou de 5870 eerder een educated guess of een zekerheid noemen dan een goede gok.
Nou, ik weet niet of het was te voorspellen dat de HD5870 een jaar na de release 30 euro duurder zou zijn dan bij de release. Dat is gewoon geluk voor de early adopters, pech voor de rest van de consumenten.

anathema


Verwijderd

Klopt, de vorige generatie, dus bijv. de HD4870 512mb zakte in een klein jaar tijd ook van ~220,- naar ~120,-
De HD5870/5850/5970 is dus wel redelijk een uitzondering in dit segment wat grotendeels komt door te weinig concurrentie vanuit Nvidia. Maar het is niet dat men in oktober vorig jaar dit had kunnen zien aankomen, das gewoon geluk mede door het falen van Nvidia.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nou, ik zou het niet helemaal geluk noemen. Als jij een GPU maakt die VEEL groter is dan normaal, neem je een risico, en AMD/ATi had dat door. nV daarintegen niet. Dus IMO is het meer denk werk dan geluk.

Verwijderd

Ben ik niet helemaal met je eens, want de grote van een GPU staat niet direct in verband met de waardevastheid ervan... De R770 was toch ook veel kleiner als de GT200 en is zoals ik zei ook flink in waarde gedaald na een jaar.
Daarbij heeft ATI met de huidige reeks geprofiteerd van de enorme vertraging bij Nvidia en een half jaar lang de prijs op peil kunnen houden omdat er feitelijk geen alternatief was.
En stel dat Nvidia het stroomverbruik/warmte/geluid/prijs-performance bij de intro wel op orde had, dan had ATI wel eerder moeten reageren, nu hoefde dat ook niet.

Dat je met de HD5870 een redelijk zekere aankoop deed (qua waarde) had men toen alleen kunnen voorzien door de uitloop van Nvidia (geen geluk), ik geloof echt niet dat er toen iemand was die over de die-size nadacht en dit koppelde aan de waarde over drie kwart jaar... Laten we het houden op een samenloop van omstandigheden! ;)

[ Voor 4% gewijzigd door Verwijderd op 22-09-2010 14:32 . Reden: typo... ]


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Dat bedoel ik ook niet, ik bedoel gewoon dat er een grote kans was dat de yields veel slechter werden met zo'n grote chip, en ook nog eens zonder ervaring met het productie process. ATi is slim geweest door de HD 4770 al op 40nm te bakken, daar hebben ze nu de vruchten van geproeft. En dat heeft weinig met geluk te maken.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op woensdag 15 september 2010 @ 08:42:
[...]


Ik zou het niet te hard roepen.
En wat denk je nu? :p

Of verwacht je nog dat er iets voor Kepler komt in de vorm van Fermi 2?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

-The_Mask- schreef op woensdag 22 september 2010 @ 15:17:
[...]

En wat denk je nu? :p

Of verwacht je nog dat er iets voor Kepler komt in de vorm van Fermi 2?
er komt nog een "kicker" chip volgens dear leader. en die zal dus snel moeten komen want een 40nm chip maken die straks maar 3 maanden mee gaat heeft ook geen zin.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Verwijderd

spNk schreef op woensdag 22 september 2010 @ 14:56:
Dat bedoel ik ook niet, ik bedoel gewoon dat er een grote kans was dat de yields veel slechter werden met zo'n grote chip, en ook nog eens zonder ervaring met het productie process. ATi is slim geweest door de HD 4770 al op 40nm te bakken, daar hebben ze nu de vruchten van geproeft. En dat heeft weinig met geluk te maken.
Nu praat je over heel wat anders dan over een videokaart die 11 maanden na intro nog dezelfde verkoopprijs heeft als nu... Jij hebt het over een andere strategie van chip ontwikkeling en die is natuurlijk vrij bekend.

@The Mask; Er moet een soort 'mid-life kicker' komen;
Een nieuwe architectuur hoeven we dus 'slechts' eens per twee jaar te verwachten, maar wel komt er telkens tussen twee generaties in een wat nVidia 'mid-life kicker' noemt, een geoptimaliseerde versie van de bestaande architectuur. Begin volgend jaar zou er dus een opvolger van Fermi moeten komen die gebaseerd is op de bestaande architectuur.
(http://nl.hardware.info/n.../nvidia-toont-gpu-roadmap)
Dus dat zal dan wel een soort Fermi 2 zijn.

EDIT: Neliz was eerder...

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

neliz is bijna altijd eerder :p

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

anathema schreef op woensdag 22 september 2010 @ 13:45:
[...]

Nou, ik weet niet of het was te voorspellen dat de HD5870 een jaar na de release 30 euro duurder zou zijn dan bij de release. Dat is gewoon geluk voor de early adopters, pech voor de rest van de consumenten.
Denk niet dat de prijsstijging te voorspellen was.
Wel dat de 5870 een relatief goede en waardevaste koop zou zijn. Ook toen al was het duidelijk dat nVidia veel problemen had en zeer waarschijnlijk niet met een goede tegenhanger zou kunnen komen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • lordMocro
  • Registratie: November 2009
  • Laatst online: 04-07-2022
480 voor 300 euro is toch onzin. Stunt van 2 winkels waarbij het nu al niet meer op voorraad is.

Verwijderd

Het waren wel meer winkels en bij Thiando is ie nog te bestellen voor €312,-
-> http://www.thiando.nl/pro...e_GeForce_GTX_480_4587021
Zit trouwens 5 jaar garantie op, das best netjes van Gigabyte.
Maar het is idd wel zo dat het meer om een 'eenmalige' actie ging van alleen Gigabyte modellen. Maar wellicht is dit een startsein om de kaarten vaker goedkoper aan te bieden.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

http://www.semiaccurate.c...l-barely-beat-moores-law/

Charlie plaatst de cijfers weer in perspectief.

En iedereen die nog onthouden heeft dat ik hier als eerste een yield van 1.57% voor Fermi aangaf, die heeft dit ook vast gelezen:

http://nl.hardware.info/n...ft-uitleg-fermi-problemen

[ Voor 42% gewijzigd door neliz op 23-09-2010 14:23 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

neliz schreef op donderdag 23 september 2010 @ 14:18:
http://www.semiaccurate.c...l-barely-beat-moores-law/

Charlie plaatst de cijfers weer in perspectief.

En iedereen die nog onthouden heeft dat ik hier als eerste een yield van 1.57% voor Fermi aangaf, die heeft dit ook vast gelezen:

http://nl.hardware.info/n...ft-uitleg-fermi-problemen
Ik moet zeggen ik vind het wel een goede zaak van die man dat hij uiteindelijk toch heeft toegegeven wat er nou precies fout is gegaan, daar kunnen anderen nog een voorbeeld aan nemen. :*) Hoop dat ze er goed van geleerd hebben.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Verwijderd

Er zit aan beide kanten een vreemd verschil en dat blijkt voornamelijk hieruit;

Afbeeldingslocatie: http://www.semiaccurate.com/static/uploads/2010/09_september/GPU_Performance_small.png

Hier hangt men aan C2070 2.09DP GF/watt, terwijl Jen-Hsun Huang het in het filmpje heeft over 1.5DP GF/watt, iets wat men in het artikel later ook herhaald. Als je naar de plaatsing van de GPU's op die roadmap kijkt 'klopt' die 1.5DP GF/watt ook wel, maar komt dus niet overeen met de tabel hierboven.
Kijken we naar Tesla, dan zitten hier ook veel verschillen in. Op de roadmap 'lijkt' Tesla op 1DP GF/watt te staan, maar in de tabel is dit 0.41. Zo produceerd de C2070 uit bovenstaande tabel dus al ~5 keer meer DP GF/watt als Tesla terwijl dat op de roadmap maar 1.5 is.

Ook vreemd is dat wanneer Tesla ter sprake komt op het einde, meneer Huang het niet meer over het aantal DP GF/watt heeft, maar over een 'X'. Tesla zou 1X zijn en Maxwell 16X. Dit terwijl uit de tabel op SemiAccurate de C2070 al 5X is.... In dat opzicht is de verbetering totaal niet zo indrukwekkend.
En dan ook nog te bedenken dat de C2070 niet de kaart is geworden zoals men die in eerste instantie voor ogen had, namelijk met alle 512 shaders actief en een hogere clock. Maar waar SA die 150watt vandaan haalt is mij wel een raadsel.

Al met al denk ik wel dat SA dit behoorlijk opblaast en zelf ook het vergelijk van Tesla met de toekomstige Maxwell compleet verkeerd inschat en cijfers interpreteerd zoals het hun het beste uitkomt om Nvidia wat wind uit de zeilen te nemen. Want hadden ze Fermi met Maxwell vergeleken, dan had je kunnen stellen dat gezien de roadmap Maxwell een tot 10x hogere DP GF/watt heeft als Fermi wat neer komt op geen ~8GF DP/Watt (zoals in het SA artikel), maar of 1.5 x10 = 15DP GF/watt (zoals uit de roadmap blijkt), of 10x 2.09 (van de C2070) = 20.9 DP GF/watt (zoals eigenlijk zou blijken uitgaande van SA's eigen tabel.)
Al met al pakt SA Nvidia nu op een paar woorden van Jen-Hsun Huang en gaat dit wel erg ver in negatief speculeren.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Die "Fermi" in de tabel is GF104, die wordt volgens mij ook ergens een keer bij betrokken.
Het zijn gewoon spelletjes met cijfers en feiten waar je simpel mensen mee om de tuin kunt leiden. Door eerst over Fermi te praten in C2 variant en dan in je volgende slide groot X16 te zetten en er vlug bij te zeggen dat dit in vergelijking met een previous gen product is.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Verwijderd

Nou, persoonlijk vind ik het gegoochel met cijfers van zowel SA als Nvidia... ;)

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op donderdag 23 september 2010 @ 14:34:
[...]


Daar kunnen anderen nog een voorbeeld aan nemen. :*) Hoop dat ze er goed van geleerd hebben.
Nee, want dan zouden ze eerst een cruciale fout moeten begaan namelijk slecht communiceren met elkaar.
Enige wat nVidia heet laten zien is hoe het NIET moet ;)

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op donderdag 23 september 2010 @ 18:10:
[...]


Nee, want dan zouden ze eerst een cruciale fout moeten begaan namelijk slecht communiceren met elkaar.
Enige wat nVidia heet laten zien is hoe het NIET moet ;)
Dat is natuurlijk zo krom als wat, wat je nu zegt.. Ik heb het erover dat ze hun fout eerlijk toegeven en dat anderen daar een voorbeeld aan kunnen nemen. Niet dat andere een voorbeeld eraan aan kunnen nemen om een fout te maken..

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Verwijderd

Ja, en kom op, overal worden fouten gemaakt door gebrekkige communicatie, ook bij ATI. Alleen heeft het bij Nvidia nu wel een 'redelijk' grote concequentie gehad.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Xenomorphh schreef op vrijdag 24 september 2010 @ 12:04:
[...]
Ik heb het erover dat ze hun fout eerlijk toegeven en dat anderen daar een voorbeeld aan kunnen nemen.
Zoals met het G80 verhaal? ;-)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op vrijdag 24 september 2010 @ 12:04:
[...]

Dat is natuurlijk zo krom als wat, wat je nu zegt.. Ik heb het erover dat ze hun fout eerlijk toegeven en dat anderen daar een voorbeeld aan kunnen nemen. Niet dat andere een voorbeeld eraan aan kunnen nemen om een fout te maken..
Nee gewoon zorgen dat je geen fout hoeft toe te geven daar zouden "de andere" een voorbeeld aan moeten nemen. :)

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 15:35

edward2

Schieten op de beesten

madmaxnl schreef op vrijdag 24 september 2010 @ 15:25:
[...]


Nee gewoon zorgen dat je geen fout hoeft toe te geven daar zouden "de andere" een voorbeeld aan moeten nemen. :)
Dat lukt misschien bij het maken van een wasknijper, maar niet in een megaprocess waarbij honderden zoniet duizenden processen en mensen etc. op elkaar afgestemd moeten werken en daartussen nog derden met verschillende (eigen) belangen. Soms vragen de resultaten om een verklaring en is er geen ontkomen aan eea toe te geven.

[ Voor 8% gewijzigd door edward2 op 24-09-2010 19:41 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jen-Hsun Huang zei zelf:

"The reason why the fabric failed isn't because it was hard. But because it sat between the responsibility of two groups. The fabric is complicated in the sense that there is an architecture component, a logic design component and there is a physics component. My engineers who know physics and my engineers who know architecture are in two different organizations. And you see this underlap of responsibility, "is it your job or my job ?". If you simply move that from one side to the other side they would have been more than happy to pick up the slack. But we let it sit right in the middle. Let it be both of our jobs. And that is a bad awnser."


Zo gaan ze dus te werk bij nVidia, blijkbaar zijn ze dus niet capabel genoeg om zoiets "simpels" te voorzien. Immers mag het toch wel duidelijk zijn dat als je niet duidelijk bent in wie er wat moet doen er: dubbel werk wordt geleverd, slecht werk wordt geleverd of geen werk wordt geleverd.

Dit kun je natuurlijk goed proberen te praten, maar een hoop partijen hebben dus gefaald. Immers kan niet één persoon of partij de schuld krijgen. Vervolgens zegt Jen-Hsun Huang dat hij in het vervolgt zo wil maken dat er één persoon of partij gewoon verantwoordelijk en dus één persoon of partij de schuld kan krijgen.

Mijn oplossing voor dit probleem zou waarschijnlijk gewoon geweest zijn om een x aantal mensen voor de fabric in één groep te duwen en ze aan het werk te zetten op het ontwerpen van de fabric. Dus dan haal je mensen bij een organisatie weg zodat ze nu in een gemixte groep komen en dus direct het probleem tackelen van ongeorganiseerd lego'en. Zo krijg je dus een kleine groep met alle specifiek benodigde kennis die zich kan richten op het ontwerpen van één specifiek ding. Blijkbaar konden ze daar bij nVidia niet zelf opkomen.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jensen heeft dus duidelijk nog nooit van polderen gehoord. Voor de rest krijg ik altijd kriebels wanneer een leidinggevende over de werknemers begint te praten als 'mijn dit' en 'mijn dat'. Er is inderdaad wel een management probleem, eentje van te grote ego's.

Verder weet ik niet wat meer incompetent is, een belangrijk onderdeel in een chipdesign zo'n 3 jaar lang gewoonweg compleet over het hoofd zien, of toegeven dat je gewoonweg niet goed met de tools en/of het 40nm proces van TSMC kon. Het afschuiven dat de tools gewoon niet werkten wat Jensen ook doet is gewoon laf, aangezien ze de problemen die naar boven kwamen nooit hebben willen aanpakken op de enige manier dat dit echt kon.

Acties:
  • 0 Henk 'm!

Verwijderd

@Twee bovenstaande; makkelijk hè, om op dit forum zonder echt goede kennis van de interne zaken te roepen wat ze niet goed hebben gedaan en hoe het allemaal wel zou moeten. Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?
Kom op, in grote coöperaties ligt het allemaal niet zo simpel zoals jullie zeggen. Of denk je dat de enorme stapels boeken over organizational design voor niks geschreven zijn als het zo simpel zou zijn?
Natuurlijk zullen daar een paar mensen op hoge functies zijn die een paar flinke steken hebben laten vallen, maar om ff te zeggen hoe stom het wel allemaal niet is zonder kennis van zaken (behalve 10 regels uit een statement) vind ik nergens op slaan.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op vrijdag 24 september 2010 @ 21:57:
@Twee bovenstaande; makkelijk hè, om op dit forum zonder echt goede kennis van de interne zaken te roepen wat ze niet goed hebben gedaan en hoe het allemaal wel zou moeten. Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?
Je zult mij niet horen zeggen dat het allemaal simpel is. Wat je me wel zult horen zeggen, is dat andere bedrijven het wel allemaal goed voor elkaar krijgen, voor lange periode zelfs. Het zegt iets over de staat waar nVidia's ontwerpafdelingen momenteel in verkeren (of waarschijnlijker verkeerden). Leg anders maar eens uit waarom een bedrijf met een veel kleiner research-budget (AMD) het zoveel beter doet op 40nm van TSMC dan nVidia.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Verwijderd schreef op vrijdag 24 september 2010 @ 21:57:
@Twee bovenstaande; makkelijk hè, om op dit forum zonder echt goede kennis van de interne zaken te roepen wat ze niet goed hebben gedaan en hoe het allemaal wel zou moeten. Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?
Kom op, in grote coöperaties ligt het allemaal niet zo simpel zoals jullie zeggen. Of denk je dat de enorme stapels boeken over organizational design voor niks geschreven zijn als het zo simpel zou zijn?
Natuurlijk zullen daar een paar mensen op hoge functies zijn die een paar flinke steken hebben laten vallen, maar om ff te zeggen hoe stom het wel allemaal niet is zonder kennis van zaken (behalve 10 regels uit een statement) vind ik nergens op slaan.
Makkelijk hè, de boel bagatelliseren met het argument dat wij er niks van zouden snappen.

"Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?"

De besten stuurlui staan aan wal :+

Maar goed het ging zich uiteindelijk om deze zin van Xenomorphh:
"Daar kunnen anderen nog een voorbeeld aan nemen."

Dat nVidia toegeeft dat ze(geven ook andere de schuld, hoe origineel) van alles fout hebben gedaan kan ik nu niet echt van zeggen dat andere daar een voorbeeld an zouden moeten nemen.

[ Voor 12% gewijzigd door madmaxnl op 24-09-2010 23:09 ]


Acties:
  • 0 Henk 'm!

  • kobus71
  • Registratie: April 2008
  • Laatst online: 25-05 15:23
@dahakon, de GPU van ATI is dan ook wel een stuk simpeler dan de Gf100 van Nvidia.
Fermi is een stuk veel zijdiger en complexer.

Al doet ATI hetop het moment zeker goed.
Tog verwacht ik van Nvidia ook nog leuke dingen.
Zo is de Gf104 een mooi voorbeeld.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op vrijdag 24 september 2010 @ 21:57:
@Twee bovenstaande; makkelijk hè, om op dit forum zonder echt goede kennis van de interne zaken te roepen wat ze niet goed hebben gedaan en hoe het allemaal wel zou moeten. Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?
Nou worden de plannen binnen grote bedrijven vaak gemaakt door marketing-lui en semi-technici, terwijl er te weinig wordt overlegt met de technici die het daadwerkelijk moeten maken, dus ja, vaak is het wel zo simpel. Weet ik niet of dat bij NVidia ook het geval is maar vaak is het wel simpel ja. Plannen maken zonder te kijken of het realiseerbaar is, en het dan toch doen omdat het plan zo gaaf klinkt. Net zoals bijvoorbeeld projecten vaak naar de goedkoopste aannemer gaan, zonder dat een opdrachtgever bedenkt of goedkoop niet duurkoop is door gebrek aan kwaliteit, je zou zeggen dat een ervaren leidinggevende er niet intrapt maar het gebeurt aan de lopende band.

[ Voor 14% gewijzigd door bwerg op 25-09-2010 00:01 ]

Heeft geen speciale krachten en is daar erg boos over.


  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 11:26

Darkasantion

Just keep swimming!

kobus71 schreef op vrijdag 24 september 2010 @ 23:33:
@dahakon, de GPU van ATI is dan ook wel een stuk simpeler dan de Gf100 van Nvidia.
Fermi is een stuk veel zijdiger en complexer.

Al doet ATI hetop het moment zeker goed.
Tog verwacht ik van Nvidia ook nog leuke dingen.
Zo is de Gf104 een mooi voorbeeld.
De GPU van Ati is niet veel simpeler, enkel kleiner. Dan nog moest ATI dezelfde procedefouten opvangen die Nvidia ook tegenkwam, en die heeft ATI veel beter opgelost. Verder is Cypress ook niet echt simpel, daar zijn ook genoeg dingen in geweest die moeilijk waren om te bereiken. Wil niet zeggen dat Fermi "easy" was, zeer zeker niet, maar Cypress en broertjes waren ook geen "walk in the park".
Verwijderd schreef op vrijdag 24 september 2010 @ 21:57:
@Twee bovenstaande; makkelijk hè, om op dit forum zonder echt goede kennis van de interne zaken te roepen wat ze niet goed hebben gedaan en hoe het allemaal wel zou moeten. Misschien ff solliciteren naar een functie als CEO zonder enige werkervaring op dat gebied?
Kom op, in grote coöperaties ligt het allemaal niet zo simpel zoals jullie zeggen. Of denk je dat de enorme stapels boeken over organizational design voor niks geschreven zijn als het zo simpel zou zijn?
Natuurlijk zullen daar een paar mensen op hoge functies zijn die een paar flinke steken hebben laten vallen, maar om ff te zeggen hoe stom het wel allemaal niet is zonder kennis van zaken (behalve 10 regels uit een statement) vind ik nergens op slaan.
Ja, het is lekker makkelijk om te zeggen dat ze het niet goed gedaan hebben als bedrijf, als de beloofde chip maanden te laat is, veel te warm en duur is, en totaal niet de beloofde prestatie levert :') . Iedereen weet dat Nvidia een grootte fout gemaakt heeft met Fermi, dus waarom mag men dat niet zeggen? Zeker als je bedenkt dat hun CEO vorig jaar ook nog probeerde iedereen probeerde te bedriegen met de "mockup"-Fermi :') . Om nou te zeggen dat de top van het bedrijf dan goede bedrijfsvoering heeft gaat mij iets te ver :P .

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Verwijderd

Darkasantion schreef op zaterdag 25 september 2010 @ 11:52:
Ja, het is lekker makkelijk om te zeggen dat ze het niet goed gedaan hebben als bedrijf, als de beloofde chip maanden te laat is, veel te warm en duur is, en totaal niet de beloofde prestatie levert :') . Iedereen weet dat Nvidia een grootte fout gemaakt heeft met Fermi, dus waarom mag men dat niet zeggen? Zeker als je bedenkt dat hun CEO vorig jaar ook nog probeerde iedereen probeerde te bedriegen met de "mockup"-Fermi :') . Om nou te zeggen dat de top van het bedrijf dan goede bedrijfsvoering heeft gaat mij iets te ver :P .
Ten eerste haal je er allemaal randzaken bij (veel te warm/te duur/minder prestatie), daar ging het niet over... Ten tweede; Waar zeg ik dat men niks over Fermi mag zeggen. Het enige wat ik wil zeggen is dat men hier te makkelijk zegt wat men fout heeft gedaan en hoe ze dat 'wel even' anders hadden moeten aanpakken zonder dat je weet wat er allemaal heeft gespeeld daar. Ik zeg dus ook niet dat er goede bedrijfsvoering is geweest, alleen zonder feiten en interne kennis is het gewoon makkelijk roepen. En iedereen snapt toch wel dat er in grote coorperaties soms gewoon fouten worden gemaakt, tis niet dat ze de enige grote organisatie zijn waarin gebrekkige communicatie problemen geeft.

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verwijderd schreef op zaterdag 25 september 2010 @ 21:12:
En iedereen snapt toch wel dat er in grote coorperaties soms gewoon fouten worden gemaakt, tis niet dat ze de enige grote organisatie zijn waarin gebrekkige communicatie problemen geeft.
Dat is natuurlijk geen excuus om fouten te maken hè, "och, we zijn een grote coöperatie dus dan mag het". Tuurlijk komt het vaker voor maar het blijven fouten. ;)

[ Voor 6% gewijzigd door bwerg op 25-09-2010 21:37 ]

Heeft geen speciale krachten en is daar erg boos over.


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

bwerg schreef op zaterdag 25 september 2010 @ 21:36:
[...]

Dat is natuurlijk geen excuus om fouten te maken hè, "och, we zijn een grote coöperatie dus dan mag het". Tuurlijk komt het vaker voor maar het blijven fouten. ;)
Het zijn nog eens hele basale fouten, en dat is het probleem.
JHH laat het nu klinken alsof zijn engineers niet weten dat twee of meer metalen verbindingen naast elkaar voor storing kunnen zorgen (overspraak, ruis, leakage.)

En dat zijn mensen die lachend meer verdienen dan deze hele pagina bij elkaar.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
neliz schreef op zaterdag 25 september 2010 @ 21:46:
[...]
Het zijn nog eens hele basale fouten, en dat is het probleem.
JHH laat het nu klinken alsof zijn engineers niet weten dat twee of meer metalen verbindingen naast elkaar voor storing kunnen zorgen (overspraak, ruis, leakage.)
Communicatie is nog basaler, blijkbaar mag zoiets dus fout gaan omdat het een grote coöperatie is.

Voorbeeld:

Ik zeg als directeur tegen de werknemers dat ze om 8 uur op het werk moeten zijn. Als directeur faal je dan extreem hard.
neliz schreef op zaterdag 25 september 2010 @ 21:46:
[...]
En dat zijn mensen die lachend meer verdienen dan deze hele pagina bij elkaar.
Iets verdienen en krijgen zijn twee verschilden dingen he ;)

Verwijderd

bwerg schreef op zaterdag 25 september 2010 @ 21:36:
[...]

Dat is natuurlijk geen excuus om fouten te maken hè, "och, we zijn een grote coöperatie dus dan mag het". Tuurlijk komt het vaker voor maar het blijven fouten. ;)
Natuurlijk, maar nogmaals vind ik dat sommigen er te simpel over denken en dat het zogenaamd zo is opgelost of dat dit nu 'aantoont' hoe het ervoor staat bij Nvidia.
madmaxnl schreef op zaterdag 25 september 2010 @ 22:10:
[...]
Communicatie is nog basaler, blijkbaar mag zoiets dus fout gaan omdat het een grote coöperatie is.
Oh, ja tuurlijk, dit is wat ik zeg. 8)7 Tjongejonge, jullie roepen nu opeens dat het 'oh zo stom is dat er bij Nvidia iets verkeerd gaat in communicatie', ik wijs erop dat dit echt niks 'unieks' is en dat het echt niet alleen bij Nvidia gebeurd... Wat dus niet wil zeggen dat het niet erg is!

[ Voor 38% gewijzigd door Verwijderd op 26-09-2010 00:25 ]


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 16-08 17:58

SECURITEH

Man of legend.

Galaxy komt ook met een apart idee, een GTX460 met een mini-PCIe aansluiting op de kaart.

Afbeeldingslocatie: http://www.techpowerup.com/img/10-09-26/156a.jpg

Afbeeldingslocatie: http://www.techpowerup.com/img/10-09-26/156b.jpg

Acties:
  • 0 Henk 'm!

Verwijderd

Zeer apart, snap eigenlijk niet dat ze de moeite nemen om zoiets te ontwikkelen, want kan me niet helemaal voorstellen dat dit echt veel gaat verkopen... Wel apart om die lege ruimte zo op dat pcb te zien.

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
Fermi mid life kicker comes in 40nm

http://www.fudzilla.com/g...life-kicker-comes-in-40nm

EDIT: @SECURITEH,
Zouden ze een PhysX optioneel willen gaan aanbieden of zo?
Lijkt me wel een veelbelovend concept.

[ Voor 33% gewijzigd door Toettoetdaan op 27-09-2010 12:00 ]


Acties:
  • 0 Henk 'm!

  • Cheezus
  • Registratie: Februari 2001
  • Laatst online: 19:48

Cheezus

Luiaard

Op zich wel een leuk concept om SLI/physX mogelijk te maken op een systeem met 1 PCIe slot (ITX borden bijvoorbeeld). Ik ben nog wel benieuwd hoe ze de koeling willen verzorgen :)

Acties:
  • 0 Henk 'm!

Verwijderd

Haha, wat een nieuwsbericht van Fud zeg! Volgens mij dachten ze dat ze maar weer eens iets moesten plaatsen en komen dan met dit samenvattingkje... Weinig nieuws waarde helaas!

Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op zaterdag 25 september 2010 @ 21:46:
[...]


Het zijn nog eens hele basale fouten, en dat is het probleem.
JHH laat het nu klinken alsof zijn engineers niet weten dat twee of meer metalen verbindingen naast elkaar voor storing kunnen zorgen (overspraak, ruis, leakage.)

En dat zijn mensen die lachend meer verdienen dan deze hele pagina bij elkaar.
Uhm? Volgens Nenni's blog gaf JHH de schuld aan de foundries aangezien hun modellen niet trekken op de werkelijkheid. Echter, de feitelijke oorzaak ligt volgens t Nenni's blog aan het designmanagement. Dat zijn niet de designers, maar diegene die verantwoordelijk zijn voor het bijhouden van de PDK (process design kit) met z'n evoluerende ruledeck (hetgeen dat de transistoren+metalen baantjes vertaalt naar circuitelementen).

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op maandag 27 september 2010 @ 13:11:
[...]


Uhm? Volgens Nenni's blog gaf JHH de schuld aan de foundries aangezien hun modellen niet trekken op de werkelijkheid. Echter, de feitelijke oorzaak ligt volgens t Nenni's blog aan het designmanagement. Dat zijn niet de designers, maar diegene die verantwoordelijk zijn voor het bijhouden van de PDK (process design kit) met z'n evoluerende ruledeck (hetgeen dat de transistoren+metalen baantjes vertaalt naar circuitelementen).
Ik ken nenni's blog niet, maar in de video geeft hij twee dingen aan:

1. toolset TSMC en 3rd party klopte niet (vreemd dat ze daar pas met GF100 achter kwamen, en niet met eerdere 40nm producten)
2. Geen communicatie tussen architecture en physics afdelingen waardoor er problemen ontstonden in hun switch fabric, dat was de reden voor respin A1->A2.

En waarom hebben we AMD dan nooit horen klagen over het feit dat de 40nm tools niet klopten?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Wil natuurlijk niet zeggen dat AMD daar niet ook problemen mee had. AMD kan er mogelijk voor gekozen hebben om dit soort zaken niet naar buiten te brengen i.v.m. de ralties met TSMC. Bovendien was, hoe problematisch ook, het 40nm proces van meet af aan een voorsprong opleverde. Het enige dat we weten is dat de yields voor hen ook bizar laag waren.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat 40Nm bij TSCM niet zo lekker(relatief) was als 55Nm(bijvoorbeeld) is wel duidelijk.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • joostankersmid
  • Registratie: September 2010
  • Laatst online: 17-01-2021
Hey Mensen, Ik ben van plan om de volgende configuratie in SLI te gaan draaien.

Asus P7P55D
Intel I5 3Ghz
6GB DDR3
Asus ENGTS250
MSI GTS250

Echter begreep ik dat de P7P55D standaard geen SLI ondersteund. Na wat research op internet las ik dat de enige reden hiervoor de softwarematige ondersteuning van zowel je bios als je drive is. Hardwarematig zit de P7P55D standaard namelijk op het gebied van PCI-E net zo in elkaar als de Deluxe en EVO. Om de Chipset controle te omzeilen vondt ik het volgende project:
http://xdevs.com/e107_plugins/content/content.php?content.30

Mijn vraag is of iemand ervaring heeft met deze methode en wat jullie denken over de kans van slagen. Daarnaast ben ik benieuwd of de combi Asus-MSI niet voor problemen zorgt.

Alvast bedankt

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Punt 1: Je wil wel SLI, maar er niet voor betalen? (foei!) .... (maar het kan wel)

Punt 2: Enige relevante nieuwswaarde?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-09 22:01

Edmin

Crew Council

get on my horse!

Punt 3: crosspost met GTS 250 MSI-ASUS SLI op P7P55D.

Laten het dan ook maar in dat topic houden ;)

  • joostankersmid
  • Registratie: September 2010
  • Laatst online: 17-01-2021
Edmin schreef op woensdag 29 september 2010 @ 11:03:
Punt 3: crosspost met GTS 250 MSI-ASUS SLI op P7P55D.

Laten het dan ook maar in dat topic houden ;)
Mieskoesie voor de sluipreclame :X

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
SECURITEH schreef op zondag 26 september 2010 @ 12:53:
Galaxy komt ook met een apart idee, een GTX460 met een mini-PCIe aansluiting op de kaart.

[afbeelding]

[afbeelding]
http://www.semiaccurate.c...aunch-gtx-460-built-whdi/

Het is dus een slot voor een wireless kaart achtig ding.
Idee is leuk, maar wel een erg niche product...

Acties:
  • 0 Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 01:13
Dan dit nieuws: http://www.brightsideofne...aphics-with-best-buy.aspx

Nvidia gaat onder haar eigen naam kaarten verkopen op bestbuy. Goede marketingstrategie of het graven van haar eigen graf? Voor 3dfx was het vooral het laatste.

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Heer Hertog schreef op dinsdag 05 oktober 2010 @ 10:11:
Dan dit nieuws: http://www.brightsideofne...aphics-with-best-buy.aspx

Nvidia gaat onder haar eigen naam kaarten verkopen op bestbuy. Goede marketingstrategie of het graven van haar eigen graf? Voor 3dfx was het vooral het laatste.
Je hebt al kunnen zien hoe nvidia de afgelopen jaren met hun partners bezig is, XFX, BFG etc.

Miss you CJ....:'( en nee... ik kan niet aan samples komen

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.