Ik vraag me af hoe nVidia winst kan maken met zulke prijzen...
Elke Quadro en Tesla kaart die ze verkopen covert veel marge, paar procent verlies maken op Geforce in de race te blijven maakt dan niet uitmadmaxnl schreef op zaterdag 04 september 2010 @ 21:29:
Ik vraag me af hoe nVidia winst kan maken met zulke prijzen...
[ Voor 14% gewijzigd door The Source op 04-09-2010 23:48 ]
Maar het lijkt me dat ze dat niet kunnen volhouden, aangezien ze volgens mij veel meer Geforces verkopen dan Quadro's en Tesla'sThe Source schreef op zaterdag 04 september 2010 @ 23:47:
[...]
Elke Quadro en Tesla kaart die ze verkopen covert veel marge, paar procent verlies maken op Geforce in de race te blijven maakt dan niet uit
Hello there
Interessante preview van Lost Planet 2 in DX9 en DX11 met verschillende ATI en nVidia kaarten.
http://www.legionhardware...erformance_preview,7.html
Ben wel benieuwd naar de review vd final versie van deze game als ATI ook aan de drivers heeft kunnen werken.
http://www.legionhardware...erformance_preview,7.html
Ben wel benieuwd naar de review vd final versie van deze game als ATI ook aan de drivers heeft kunnen werken.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
NV heeft het afgelopen jaar op professioneel niveau slechts 1% van haar marktaandeel ingeleverd ten opzichte van AMD, ik denk niet dat zij zich ergens zorgen over maken.Sinester schreef op zondag 05 september 2010 @ 11:24:
[...]
Maar het lijkt me dat ze dat niet kunnen volhouden, aangezien ze volgens mij veel meer Geforces verkopen dan Quadro's en Tesla's
Ik zal de link even opzoeken.
[ Voor 5% gewijzigd door neliz op 05-09-2010 19:03 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Raar want zo slecht doen de ATI kaarten het anders niet als je naar de tests kijkt.
Ligt eraan welke tests, in dingen als 3DMax is zelfs een V8800 niet vooruit te branden in vergelijking met een "last-gen" FX4800.madmaxnl schreef op zondag 05 september 2010 @ 19:31:
Raar want zo slecht doen de ATI kaarten het anders niet als je naar de tests kijkt.
edit:
http://www.xbitlabs.com/n...s_Market_Segment_JPR.html
nvidia heeft 87.5% marktaandeel over het afgelopen kwartaal op het gebied van "professionele" kaarten en zelfs 88.6% in profesionele dekstop graphics..
[ Voor 31% gewijzigd door neliz op 05-09-2010 21:22 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Als intel specifiek acties gaat ondernemen om dit te voorkomen zoals bijvoorbeeld de prijzen verlagen of zelfs een verbod op het inkopen van Chipsets zonder southbridge door mb makers, dan helpt dat wel nVidia in de schoenen in die lawsuit tegen Intel van de Trade Comission. Dus zo makkelijk kan Intel nou ook weer niet alles maken.madmaxnl schreef op donderdag 02 september 2010 @ 22:11:
Leuk idee van nVidia maar de crux is dat Intel ze gewoon de pas kan afsnijden.
Ze kunnen immers de chipset verkopen tegen de kostprijs zodat Intel dus gewoon geen winst maakt op zijn chipsets. Dit is geen probleem voor Intel want ze kunnen nu de prijs op CPU's verhogen om de winst die ze mislopen met de chipsets te "compenseren". Het totaal pakket, CPU en mobo blijft de zelfde prijs behouden. Nvidia zijn chipsets zij onverkoopbaar geworden mits ze niet goedkoper te produceren zijn als die van Intel.
Aangezien Intel ze "in da house" in grotere getale produceert dan nVidia zullen hoe dan ook goedkoper zijn.
Behalve dat het hele plan hierdoor aan een zijden draadje hangt blijft de noodzaak en voordelen van het plan onbekend immers krijgt SB al een redelijke GPU mee.
Ik denk dat Intel hoe dan ook roet in het eten gaat gooien ze hebben ze niet voor niks geen licentie verkocht/gegeven.
We zullen zien, maar voorlopig blijf ik heel erg sceptisch.
Zou het dan toch nog wat worden met Tegra 2....
Anandtech: LG Optimus Series Smartphones to Feature NVIDIA Tegra 2 in Q4 2010
Anandtech: LG Optimus Series Smartphones to Feature NVIDIA Tegra 2 in Q4 2010
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Tja de telefoon moet dan ook nog een succes worden tot nu toe is geen enkel product dat met nVidia Tegra 1 of 2 een succes geworden. Ik zie Tegra wel succes hebben als het gebruikt gaat worden in de volgende generatie gaming handhelds.
Het is hier wel erg stil, niemand die nog een sappig nieuwtje heeft?
Liefhebber van Tweakers
9 Geforce GTX460 kaarten vergelijkingstest
MSI doet het ook weer goed hierThe news is that there is no newspino22 schreef op donderdag 09 september 2010 @ 11:47:
Het is hier wel erg stil, niemand die nog een sappig nieuwtje heeft?
Ach, geen bericht is goed bericht denk ik maar, veel heeft Nvidia op dit moment niet op mee te vechten, behalve dan de GTX460 (tot aan de HD6xxx serie) dus men zal wel de wonden likken en aan iets nieuws werken.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Ach wie weet wat nVidia nog uit de hoge hoed tovert, dat hebben ze wel vaker gedaanDarkasantion schreef op donderdag 09 september 2010 @ 13:31:
[...]
The news is that there is no news
Ach, geen bericht is goed bericht denk ik maar, veel heeft Nvidia op dit moment niet op mee te vechten, behalve dan de GTX460 (tot aan de HD6xxx serie) dus men zal wel de wonden likken en aan iets nieuws werken.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ze hebben zo ver wij weten inderdaad weinig om mee te vechten behalve die GTX 460, vind dat echt een hele leuke kaart persoonlijk maar ik wacht op de wat snellere varianten die de GTX 470/GTX 480 gaan vervangen.Darkasantion schreef op donderdag 09 september 2010 @ 13:31:
[...]
The news is that there is no news
Ach, geen bericht is goed bericht denk ik maar, veel heeft Nvidia op dit moment niet op mee te vechten, behalve dan de GTX460 (tot aan de HD6xxx serie) dus men zal wel de wonden likken en aan iets nieuws werken.
Vanaf die kant kan je het inderdaad ook bekijken, even stilte voor de storm.Ach wie weet wat nVidia nog uit de hoge hoed tovert, dat hebben ze wel vaker gedaan
Mag toch hopen dat ze rond einde van dit jaar/begin volgend jaar wel met een totaal nieuwe lineup komen op basis van de GF104 chip, en dat de hele fermi 1 als we het zo noemen snel uitgefaseerd word.
[ Voor 19% gewijzigd door pino85 op 09-09-2010 13:50 ]
Liefhebber van Tweakers
Ik denk niet dat ze twee maanden na het uitbrengen van GF108 al meteen de vervanger klaar hebben staan.pino22 schreef op donderdag 09 september 2010 @ 13:48:
Vanaf die kant kan je het inderdaad ook bekijken, even stilte voor de storm.![]()
Mag toch hopen dat ze rond einde van dit jaar/begin volgend jaar wel met een totaal nieuwe lineup komen op basis van de GF104 chip, en dat de hele fermi 1 als we het zo noemen snel uitgefaseerd word.
En dan nog, een volledige GF104 en met een nette overclock kan inderdaad een GTX470 passeren, maar zal qua verbruik etc. geen indruk maken. sterker nog, dat kan nog wel eens tegenvallen.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik weet het niet, maar wat je zegt klinkt ook wel logisch.
Misschien is het meer de hoop op.. van mijn kant dan omdat ik toch graag weer een NVIDIA kaart zou willen aanschaffen zonder alle mankementen van de GF100 chip en die toch zeker zich kan meten met de huidige 5000 lineup.
Als het zo is dat AMD einde van dit jaar met de 6000 series komt en NVIDIA echt +- een half jaar nodig gaat hebben om uberhaupt een nieuwe lineup te lanceren dan ziet het er niet gunstig voor ze uit in de nabije toekomst.
ben ook benieuwd wat ze nu gaan doen , of gaan ze wachten tot de stap naar 28NM kan worden gemaakt en het zo lang uit te zingen met de huidige kaarten? dat kan toch bijna niet.
Wat is jou visie op wat NVIDIA gaat doen( glazen bol werk dat weet ik) maar toch leuk om over te spreken.
Misschien is het meer de hoop op.. van mijn kant dan omdat ik toch graag weer een NVIDIA kaart zou willen aanschaffen zonder alle mankementen van de GF100 chip en die toch zeker zich kan meten met de huidige 5000 lineup.
Als het zo is dat AMD einde van dit jaar met de 6000 series komt en NVIDIA echt +- een half jaar nodig gaat hebben om uberhaupt een nieuwe lineup te lanceren dan ziet het er niet gunstig voor ze uit in de nabije toekomst.
ben ook benieuwd wat ze nu gaan doen , of gaan ze wachten tot de stap naar 28NM kan worden gemaakt en het zo lang uit te zingen met de huidige kaarten? dat kan toch bijna niet.
Wat is jou visie op wat NVIDIA gaat doen( glazen bol werk dat weet ik) maar toch leuk om over te spreken.
[ Voor 49% gewijzigd door pino85 op 09-09-2010 14:49 ]
Liefhebber van Tweakers
Als het zo lang gaat duren dan heeft AMD het slecht gedaanpino22 schreef op donderdag 09 september 2010 @ 14:46:
Als het zo is dat AMD einde van dit jaar met de 6000 series komt
Ik verwacht wel binnen afzienbare tijd een 500 serie van nVidia. Maar ik denk dat nvidia meer last heeft gehad van het annuleren van 32nm dan AMD. (met afzienbaar denk ik, nieuwe producten (GTX500) tussen CES en Cebit volgend jaar)Wat is jou visie op wat NVIDIA gaat doen( glazen bol werk dat weet ik) maar toch leuk om over te spreken.
Ik was er stellig van overtuigd (vraag niet hoe) dat AMD begin dit jaar al met een 40nm refresh zou komen. Dat dit uiteingelijk niet gebeurd is komt waarschijnlijk puur vanwege de ontwikkel cyclus van AMD dat zij op een redelijk moment het ontwerp konden annuleren en aanpassen.
Toen 32nm afgeschoten werd had AMD al hun eerste generatie 40nm chips al af en had nvidia nog geen 40nn chip uit de deur. AMD had dus al een 40nm refresh in het verschiet voor rond de GF100 launch. En daar zit het hem een beetje.
AMD heeft een redelijk goed lopend 40nm ontwerp, een 40nm refresh die zo goed als af is en een 32nm ontwerp in een eindstage.
NV had problemen met z'n eerste 40nm ontwerp en wisten dus niet of GF104 het wel zo goed ging doen. Laat staan een refresh daarvan.
Ik hoef jou niet te vertellen dat NV al lange tijd problemen heeft op 40nm, de memory controller voor GDDR5 die al gewoon sinds gt21x niet op dezelfde snelheid als AMD kan lopen. Het verbruik van de 460 ligt tussen de 5850 en 5870, maar de prestaties niet. Veel beter dan GF100, niet zo goed als Cypress. Daarom zie ik een GTX475 niet als reddend product voor GF10x, maar wel veel beter voor nV's marges dan GF100.
Misschien was 32nm wel een "saved by the bell" moment geweest voor nV en hadden we het nu niet meer over GF100. Maar ik denk persoonlijk dat het een behoorlijke tegenslag was voor nV op het moment dat ze hoorde dat hun "we gaan het beter doen op" 32nm proces werd afgeschoten. AMD had hun refresh al af en hebben dat gewoon een half jaar lang extra heeft kunnen aanpassen.
We gaan het zien, ik kan ook niet zo ver in de toekomst kijken, maar dat volgende maand HD6000 eraan komt is duidelijk, van nV's kant is het gewoon erg stil. Ook qua rumor en fud.
[ Voor 7% gewijzigd door neliz op 09-09-2010 15:34 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik heb iets voor de verstokte fans (plaatje load langzaam).. check back in a sec.

(ja, een photoshop)
Dit blog stelt dat de 495 er snel aankomt en goedkoper is dan een 5970 (€400)
Dat zal ook meteen een indicatie van de performance zijn.
http://translate.google.c...t-1190503-30.html&act=url

(ja, een photoshop)
Dit blog stelt dat de 495 er snel aankomt en goedkoper is dan een 5970 (€400)
Dat zal ook meteen een indicatie van de performance zijn.
http://translate.google.c...t-1190503-30.html&act=url
[ Voor 70% gewijzigd door neliz op 10-09-2010 10:57 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Zou Nvidia het zo zwaar hebben dat ze de 6870 te lijf moeten met een dual chip oplossing?neliz schreef op vrijdag 10 september 2010 @ 10:52:
Ik heb iets voor de verstokte fans (plaatje load langzaam).. check back in a sec.
[afbeelding]
(ja, een photoshop)
Dit blog stelt dat de 495 er snel aankomt en goedkoper is dan een 5970 (€400)
Dat zal ook meteen een indicatie van de performance zijn.
http://translate.google.c...t-1190503-30.html&act=url
Deze is als concurrent bedoelt voor de HD5970, concurrent van een HD6870 is nog afwachten dat ligt aan de prijs en prestaties van dat ding.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dan zijn ze daar rijkelijk laat mee. Deze GTX 495 is nog maar een gerucht. Tegen de tijd dat deze kaart te koop is (tegen het einde van het jaar) zullen naar alle waarschijnlijkheid de 68xx & 69xx kaarten ook al te koop zijn.-The_Mask- schreef op vrijdag 10 september 2010 @ 11:24:
Deze is als concurrent bedoelt voor de HD5970, concurrent van een HD6870 is nog afwachten dat ligt aan de prijs en prestaties van dat ding.
The story of NV 2009/2010.Lord Maximus schreef op vrijdag 10 september 2010 @ 11:38:
Dan zijn ze daar rijkelijk laat mee.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Denk eerlijk gezegt dat een dubbele GF104 er eerder is dan een Antilles.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Prestaties liggen tussen de HD5750 en HD5770 in.
Oud nieuws zie ik, gen idee als het al langs is geweest...
[ Voor 13% gewijzigd door -The_Mask- op 10-09-2010 12:11 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Die prijs lijkt dan alle geruchten van een GF104*2 te bevestigen.neliz schreef op vrijdag 10 september 2010 @ 10:52:
Dit blog stelt dat de 495 er snel aankomt en goedkoper is dan een 5970 (€400)
Dat zal ook meteen een indicatie van de performance zijn.
License to use this text for use in LLM-related products and services can be purchased for €1.000

[ Voor 79% gewijzigd door neliz op 11-09-2010 08:55 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
nvm...
[ Voor 125% gewijzigd door Apoca op 11-09-2010 10:16 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
http://www.techsweden.org/nyhet/mS4V-msi-n480gtx-lightning/
Daar zijn erg veel foto's te vinden.
Daar zijn erg veel foto's te vinden.
[ Voor 55% gewijzigd door The Source op 11-09-2010 11:41 ]
Ik vind die nieuwe koeler nou niet echt mooi, dat rooie doet een beetje af van het geheel.. Maar het zal wel gemoeten hebben met die warmte die nu vrij kan komen
[ Voor 4% gewijzigd door Xenomorphh op 11-09-2010 11:53 ]
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Wow... een 100% overclock
http://twitter.com/hwbot
hwbot
Elmor and ME4ME hit 1400+ MHz on two Lightning samples ... #MOA2010
http://twitter.com/hwbot
hwbot
Elmor and ME4ME hit 1400+ MHz on two Lightning samples ... #MOA2010
[ Voor 7% gewijzigd door The Source op 11-09-2010 12:47 ]
Ze moeten Tri of Quad SLI er van maken ^^ dan vegen ze alle records van de tafel.
Doen ze dat nu al niet dan?madmaxnl schreef op zaterdag 11 september 2010 @ 18:58:
Ze moeten Tri of Quad SLI er van maken ^^ dan vegen ze alle records van de tafel.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het is toch gewone SLI of niet ? Of bedoel je het record gedeelten
[ Voor 37% gewijzigd door madmaxnl op 11-09-2010 19:25 ]
het record gedeelte.. ik neem aan dat een GF100 op 1500 MHz de 5870 lightning van de tafel blaast.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat is geen eerlijke vergelijking. Je moet hem vergelijken met de 5970 Lightning
Die er niet is? je bedoelt die asus ares?madmaxnl schreef op zaterdag 11 september 2010 @ 21:06:
Dat is geen eerlijke vergelijking. Je moet hem vergelijken met de 5970 Lightning
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Hoezo zou je een single gpu kaart vergelijken met een dual gpu kaart? Het is bekend dat de 5970 een heel stuk sneller is maar het is geen eerlijke vergelijking omdat het een cf opstelling in/op een kaart is. Als de gtx490/495 ooit nog eens uitkomt zou die tegen de 5970 gepositioneerd worden.
De gtx480 lightning zal wel wat sneller zijn dan de hd5870 variant, maar verbruikt daarentegen wel een lading meer vermogen om dat te bereiken, op overlock potentieel waar het bij deze kaarten om draait zijn ze toch heel goed met elkaar te vergelijken.
De gtx480 lightning zal wel wat sneller zijn dan de hd5870 variant, maar verbruikt daarentegen wel een lading meer vermogen om dat te bereiken, op overlock potentieel waar het bij deze kaarten om draait zijn ze toch heel goed met elkaar te vergelijken.
Het gaat niet om wat het is, maar wat je er voor betaald. de prijs bepaalt in welk segment je product geplaatst is. kreten als "niet eerlijk" bestaat niet want het is niet zo dat AMD nvidia verbied om ook met een dual-gpu kaart te komen.Verwijderd schreef op zaterdag 11 september 2010 @ 22:18:
Hoezo zou je een single gpu kaart vergelijken met een dual gpu kaart? Het is bekend dat de 5970 een heel stuk sneller is maar het is geen eerlijke vergelijking omdat het een cf opstelling in/op een kaart is. Als de gtx490/495 ooit nog eens uitkomt zou die tegen de 5970 gepositioneerd worden.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dat soort kreten zie ik erg vaak je mag die niet vergelijken met de ander want dat is 2 gpu's tegen 1 etc..
Mij maakt als consument het geen donder uit of een fabrikant bij wijze van 10 gpu's gebruikt of 5 of 1 of 2, ik kijk toch puur naar de prijs en de prestaties, niet naar het aantal gpu's(cores) net hoe je het wilt noemen.
Snap ook nooit zo goed dat mensen dit altijd als motief gebruiken waarom je niet op die manier mag vergelijken.
Iemand die me dit kan uitleggen?
Mij maakt als consument het geen donder uit of een fabrikant bij wijze van 10 gpu's gebruikt of 5 of 1 of 2, ik kijk toch puur naar de prijs en de prestaties, niet naar het aantal gpu's(cores) net hoe je het wilt noemen.
Snap ook nooit zo goed dat mensen dit altijd als motief gebruiken waarom je niet op die manier mag vergelijken.
Iemand die me dit kan uitleggen?
[ Voor 33% gewijzigd door pino85 op 11-09-2010 23:08 ]
Liefhebber van Tweakers
Omdat je de framerates door micro-stuttering, als gevolg van AFR, niet 1:1 kan vergelijken. Bij 60 fps wel, bij 30-40 fps niet. Dat laatste is onspeelbaar bij multi GPU en bij single GPU niet.
Verder werkt het niet altijd goed (hoewel meestal wel tegenwoordig dacht ik) en heb je in mijn ervaring meer pieken en dalen in framerates waardoor je ondanks een hoog gemiddelde regelmatig in die 30-40 fps range terecht komt en je dan dus die rare haperingen krijgt.
Jammer en onbegrijpelijk is dat reviewsites hier vaak niet naar kijken. Computerbase en anandtech bijvoorbeeld wel en die noemen dit dan ook als groot nadeel.
anathema
Ligt er ook aan hoe je benchmarked. [H] pakt altijd zijn "max playable settings" en dat is eerlijker dan kijken of een kaart 15 of 20 fps doet @ 2560x1600 met 32xAA. allebei al redelijk onspeelbaar.anathema schreef op zondag 12 september 2010 @ 10:05:
Jammer en onbegrijpelijk is dat reviewsites hier vaak niet naar kijken. Computerbase en anandtech bijvoorbeeld wel en die noemen dit dan ook als groot nadeel.
Het probleem met microstutter is dus, zoals je zelf zegt merkbaar bij 30FPS, een situatie die ik alleen kon vinden in deze review: http://www.bjorn3d.com/read.php?cID=1923&pageID=9482
Crysis warhead, op 3x1920x1200 met 8xAA waar single gpu kaarten dus al lang zijn afgehaakt. met een single 30" monitor en een 5970 kom je die situatie dus eigenlijk niet tegen.
[ Voor 5% gewijzigd door neliz op 12-09-2010 11:32 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
micro-stuttering is gewoon deel van de prestaties dus dan klopt de stelling dat je 100GPU's op één kaart mag vergelijken met een single-GPU-kaart nog steeds.anathema schreef op zondag 12 september 2010 @ 10:05:
[...]
Omdat je de framerates door micro-stuttering, als gevolg van AFR, niet 1:1 kan vergelijken. Bij 60 fps wel, bij 30-40 fps niet. Dat laatste is onspeelbaar bij multi GPU en bij single GPU niet.
Heeft geen speciale krachten en is daar erg boos over.
Ja, maar dat is gemiddeld. Als een game bijvoorbeeld gemiddeld 50 fps is dan zul je genoeg drops naar 30-40 fps hebben en die zijn dan wel storend. Nu is de HD5970 zo snel dat het in de meeste games wel zal meevallen, maar met Crysis en Metro2033 bijvoorbeeld loop je er wel tegenaan.neliz schreef op zondag 12 september 2010 @ 11:31:
[...]
Het probleem met microstutter is dus, zoals je zelf zegt merkbaar bij 30FPS, een situatie die ik alleen kon vinden in deze review: http://www.bjorn3d.com/read.php?cID=1923&pageID=9482
Die vergelijking kun je idd wel maken, maar niet op basis van fps maar speelbaarheid. Als het meevalt is het mooi maar ik vind het jammer dat het vaak niet wordt meegenomen in reviews terwijl het een bekend fenomeen is dat wel wat aandacht verdiend. Misschien dat ATI en Nvidia dan ook es wat anders gaan bedenken dan AFR.bwerg schreef op zondag 12 september 2010 @ 11:37:
[...]
micro-stuttering is gewoon deel van de prestaties dus dan klopt de stelling dat je 100GPU's op één kaart mag vergelijken met een single-GPU-kaart nog steeds.
anathema
Ze hebben 2 kaarten die allebei 1400+ core aan kunnen, echter de benchmark is gedraaid met 1 kaart (MSI MOA Final). De behaalde Vantage score (37424) is momenteel de op 1 na hoogste wereldwijd met 1 kaart.madmaxnl schreef op zaterdag 11 september 2010 @ 19:24:
Het is toch gewone SLI of niet ? Of bedoel je het record gedeelten
Hoop er snel 1 te kunnen proberen
450 GTS is vandaag gelanceerd..
Hier het algemene sentiment:
Hier het algemene sentiment:
Ultimately, GeForce GTS 450 is disappointing because it offers nothing new at this price point. Gamers have had the capability of multi-display gaming on a single graphics card in this price range for eleven months now. Gamers have had DX11 gaming capability at this price range for eleven months now. Gamers have experienced this same level of performance in this price range for eleven months now. It takes the GeForce GTS 450 more power to produce less performance when compared to the Radeon HD 5770.
the rub though, is a GTS 450 in your future, and we can't think of solid reasons why it should be.
[ Voor 125% gewijzigd door neliz op 13-09-2010 09:02 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Zullen we ook even eerlijk zijn en een pluspunt opnoemen: De GTS450 schaalt wel weer erg lekker in SLI, net als de GTX460. Maar als dat gecompenseerd wordt door een te slechte prijs/prestatie heb je daar niets aan natuurlijk. Ik wacht even af wat de prijs hier wordt maar ik kom nu ook niet verder dan "mwah".
Heeft geen speciale krachten en is daar erg boos over.
Schaalbaarheid was niet echt een pluspunt in vergelijking met 57x0:bwerg schreef op maandag 13 september 2010 @ 11:28:
Zullen we ook even eerlijk zijn en een pluspunt opnoemen: De GTS450 schaalt wel weer erg lekker in SLI, net als de GTX460. Maar als dat gecompenseerd wordt door een te slechte prijs/prestatie heb je daar niets aan natuurlijk. Ik wacht even af wat de prijs hier wordt maar ik kom nu ook niet verder dan "mwah".
http://www.hardwarecanuck...gb-single-sli-review.html
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Bij Hardware.info is men (overigens geheel volgens verwachting) in de conclusie nochtans gematigd positief over de GTS450:
Men lijkt vooral blij te zijn dat de gamers nu ook wat meer te kiezen hebben.
Tja, zo lust ik er ook een paar…..
Mijn interpretatie van hun conclusie is dat de GTS450 een prima kaart is die zich kan meten met de HD5770. (verschil met 8% t.o.v. HD5770 vind men niet merkbaar). Daarnaast wil men nog geen definitief oordeel vellen over de GTS450 omdat de prijs nog kan evalueren?!?.]Uit onze benchmarks blijkt dat de GTS 450 qua prestaties exact tussen de ATI Radeon HD 5750 en 5770 in blijkt te vallen. De nieuwe kaart is ruim 8% sneller dan de 5750 en juist ruim 8% langzamer dan de Radeon HD 5770. Aangezien de prijs, in ieder geval op het moment van schrijven, het dichtst bij de Radeon HD 5770 lijkt te liggen, mogen we concluderen dat de prijs/prestatieverhouding iets beneden de maat is. Maar laat van de andere kant ook gezegd zijn dat je 8% prestatieverschil eigenlijkt niet kunt merken.
...
De komende dagen en weken zal blijken hoe de prijzen van de GTS 450 kaarten daadwerkelijk evolueren. Vermoedelijk kunnen we dus pas over een tijdje de knoop doorhakken welke kaart nu echt de beste keuze. Belangrijkste is in ieder geval dat er nu in het prijssegment tussen de 100 en 150 euro eindelijk weer enige keuze is. De hegemonie van AMD brokkelt langzaam af en als games liefhebber heb je weer echt wat te kiezen. Gelukkig maar!
Men lijkt vooral blij te zijn dat de gamers nu ook wat meer te kiezen hebben.
Tja, zo lust ik er ook een paar…..
[ Voor 5% gewijzigd door Indy91 op 13-09-2010 11:52 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
@hierboven,
tja, het is gewoon jammer dat Nvidia na elf maanden nog steeds niet echt met een plus puntje kan komen.
tja, het is gewoon jammer dat Nvidia na elf maanden nog steeds niet echt met een plus puntje kan komen.
Bij HWI is alles gewoon goed hoe slecht een product ook is...
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
klinkt als Guru3d-The_Mask- schreef op maandag 13 september 2010 @ 12:01:
Bij HWI is alles gewoon goed hoe slecht een product ook is...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Nouja mocht de prijs toch uitvallen zo dat de GTS450 rond de 100,- komt te liggen, richting HD5750-prijs dus, dan is het prima, dus in dat opzicht heeft HWI gelijk. Maar dan moet dat ook nog maar eens gebeuren. Zoals het er nu voor staat is de kaart geen troep, maar een best-buy-certificaat hoeft 'ie niet te krijgen.
Heeft geen speciale krachten en is daar erg boos over.
Ah, de Nederlandse Guru.
De GTS450 is een leuk kaartje voor bvb mijn oom die niet game'd maar wel actief met Photoshop bezig is, past dan prima in een beperkt budget voor een nieuw systeem.
Gamers zijn juist beter af met een GTX460 1GB of een AMD/Ati tegenhanger.
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
uh volgens mij is Hilbert Hagendoorn van guru3d (die al die reviews maakt) een nederlander 
http://www.guru3d.com/art...e-gts-450-review-roundup/
Uitschieters op clockspeeds zijn de Asus en de Palit Sonic Platinum.
Uitschieters wat cooling zijn Inno3D, Sparkle en Gigabyte.
helaas geen gainward in het assortiment
EDIT: gainward is wel weer vna de partij met een GoldenSample Goes-Like-Hell:
http://www.gainward.com/main/vgapro.php?id=408
http://www.fudzilla.com/r...gts-450-glh-first-glimpse
http://www.tweaktown.com/...goes_like_hell/index.html
Ik zie wel dat er verschil zit in de koeler van de GoldenSample en de GoldenSample GLH. De GLH heeft de dual heatpipe copper-water cooling en de Goldensample zelf heeft de zgn. BCBG koeling....(Better cooling by gainward) en ik vraag me af in hoeverre deze verschilt van de GLH. Volgens mij is het gewoon hetzelfde maar zijn de namen gewoon anders.
http://www.guru3d.com/art...e-gts-450-review-roundup/
Uitschieters op clockspeeds zijn de Asus en de Palit Sonic Platinum.
Uitschieters wat cooling zijn Inno3D, Sparkle en Gigabyte.
helaas geen gainward in het assortiment
EDIT: gainward is wel weer vna de partij met een GoldenSample Goes-Like-Hell:
http://www.gainward.com/main/vgapro.php?id=408
http://www.fudzilla.com/r...gts-450-glh-first-glimpse
http://www.tweaktown.com/...goes_like_hell/index.html
Ik zie wel dat er verschil zit in de koeler van de GoldenSample en de GoldenSample GLH. De GLH heeft de dual heatpipe copper-water cooling en de Goldensample zelf heeft de zgn. BCBG koeling....(Better cooling by gainward) en ik vraag me af in hoeverre deze verschilt van de GLH. Volgens mij is het gewoon hetzelfde maar zijn de namen gewoon anders.
[ Voor 53% gewijzigd door Deathchant op 13-09-2010 14:46 ]
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
"Maar laat van de andere kant ook gezegd zijn dat je 8% prestatieverschil eigenlijkt niet kunt merken."
Dus dan ga je eigenlijkt die 8% prestatieverschil die de HD5750 minder heeft ook niet merken t.o.v een GTS450
Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde
De jongens van HWI vind ik sowieso niet echt professioneel overkomen ze hebben de middelen maar niet de kennis zullen we maar zeggen. Van 8,7% en 8,6% maken ze ook 8% van...
Het mee nemen van de Street Fighter 4 resultaten maakt het feest compleet.
GG...
- Good all-round performance
- Extremely quiet
- Runs cool
- Absolutely excellent F@H performance
- Can match the HD 5770’s framerates at times
- Good price
- Fits G92 compatible aftermarket heatsinks
- Overclocker friendly
- SLI scaling = amazing
Cons:
- Same power consumption as the HD 5770 yet on average lower performance
- Lacks performance consistency from one game to another"
Schijnbaar zijn ze er wel positief over, ook t.o.v. de HD5770 immers wordt hij er direct mee vergeleken.
Dus dan ga je eigenlijkt die 8% prestatieverschil die de HD5750 minder heeft ook niet merken t.o.v een GTS450

Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde
De jongens van HWI vind ik sowieso niet echt professioneel overkomen ze hebben de middelen maar niet de kennis zullen we maar zeggen. Van 8,7% en 8,6% maken ze ook 8% van...
Het mee nemen van de Street Fighter 4 resultaten maakt het feest compleet.
GG...
"Pros:neliz schreef op maandag 13 september 2010 @ 11:46:
[...]
Schaalbaarheid was niet echt een pluspunt in vergelijking met 57x0:
http://www.hardwarecanuck...gb-single-sli-review.html
- Good all-round performance
- Extremely quiet
- Runs cool
- Absolutely excellent F@H performance
- Can match the HD 5770’s framerates at times
- Good price
- Fits G92 compatible aftermarket heatsinks
- Overclocker friendly
- SLI scaling = amazing
Cons:
- Same power consumption as the HD 5770 yet on average lower performance
- Lacks performance consistency from one game to another"
Schijnbaar zijn ze er wel positief over, ook t.o.v. de HD5770 immers wordt hij er direct mee vergeleken.
[ Voor 66% gewijzigd door madmaxnl op 13-09-2010 15:16 ]
Volgens fudzilla word hij in de EU 120 euro.
http://www.fudzilla.com/g...or-%E2%82%AC120-in-europe
http://www.fudzilla.com/g...or-%E2%82%AC120-in-europe
Er zijn al wat prijzen te vinden bij diverse webshop, standaard modellen zitten tussen de 125 en 135 euro. OC modellen gaan richting de 150...
Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP
Laat ik maar niet beginnen over wat ik van HC vind..madmaxnl schreef op maandag 13 september 2010 @ 14:51:
"Pros:
- Good all-round performance
- Extremely quiet
- Runs cool
- Absolutely excellent F@H performance
- Can match the HD 5770’s framerates at times
- Good price
- Fits G92 compatible aftermarket heatsinks
- Overclocker friendly
- SLI scaling = amazing
Cons:
- Same power consumption as the HD 5770 yet on average lower performance
- Lacks performance consistency from one game to another"
Schijnbaar zijn ze er wel positief over, ook t.o.v. de HD5770 immers wordt hij er direct mee vergeleken.
Maar "is af en toe net zo snel als een kaat die even duur is" vind ik geen pluspunt. SLI scaling is gelijk aan crossfire scaling in die tests. Hoe kan de prijs goed zijn als snellere kaarten net zo duur/goedkoper zijn?
het getuigd van weinig consistentie als die gast z'n eigen pluspunten weer wegstreept.
Nee, iedereen is het er over eens dat dit niet de kaart is waar je 11 maanden op hebt zitten wachten.. helemaal niet als de 460 over twee maanden op hetzelfde prijspunt zit (introductie Barts)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Nee de gts450 is niet echt wat het had moeten zijn, hij verbruikt te veel en kan de concurrentie niet aan met de hd5770. De gtx460 is in die opzet een stuk beter geslaagd en is wat dat aangaat de beste kaart in nvidia's line-up op het gebied van bang for buck en bang for power usage (
)
Tja de GTX460 mag dan wel goed gelukt zijn voor nVidia maar de rest van de line-up is zo scheef als maar zijn kan. Onder de 150 euro is alles ATI en boven de 250 euro is ook alles ATI. Daartussen in zou je voor nVidia kunnen gaan wat betreft performance/prijs/watt/decibel...Verwijderd schreef op maandag 13 september 2010 @ 16:18:
Nee de gts450 is niet echt wat het had moeten zijn, hij verbruikt te veel en kan de concurrentie niet aan met de hd5770. De gtx460 is in die opzet een stuk beter geslaagd en is wat dat aangaat de beste kaart in nvidia's line-up op het gebied van bang for buck en bang for power usage ()
http://www.engadget.com/2...-intel-ce4100-pre-orders/
http://www.anandtech.com/...oxee-box-the-inside-story
weer een nvidia klant minder.
http://www.anandtech.com/...oxee-box-the-inside-story
weer een nvidia klant minder.
However, as Boxee started doing some stress tests, they realized that Tegra 2 wasn't living upto expectations. In particular, they found that the Tegra 2 was incapable of playing back high profile 1080p H.264 videos at even 10 Mbps.
[ Voor 60% gewijzigd door neliz op 13-09-2010 17:01 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
De gtx460 is ook niet echt een geweldige kaart om eerlijk te zijn. Ik vind dat mensen een beetje te positief zijn over deze. Feit is dat de gtx460 veel later uit is gekomen dan zijn directe concurrenten en dat je dat eigenlijk niet terug ziet in de prestaties.
Nee, gewoon de reference fan.
maargoed, wat hij waarschijnlijk bedoeld is, gezien de die size en verbruik dat het waarschijnlijk ooit als Evergreen concurrent was bedoeld en dat, net zoals de 4870 en 4890 voor hem, hij nu goedkoop in de markt gezet word.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Boven de 250 niet? De HD5970 is nogal aan de dure kant. De prijs/prestatie van de GTX470 is beter dan zowel de HD5850 en HD5870, aangezien de prijs dichter bij de HD5850 ligt terwijl de performance dichter bij de HD5870 ligt. De GTX480 is tov de HD5870 redelijk in verhouding geprijst.madmaxnl schreef op maandag 13 september 2010 @ 16:53:
[...]
Tja de GTX460 mag dan wel goed gelukt zijn voor nVidia maar de rest van de line-up is zo scheef als maar zijn kan. Onder de 150 euro is alles ATI en boven de 250 euro is ook alles ATI. Daartussen in zou je voor nVidia kunnen gaan wat betreft performance/prijs/watt/decibel...
Verbruik is een ander verhaal, maar in het high end segment vind ik dat nogal een overschatte factor.
anathema
Alleen na fikse prijsdalingen de afgelopen maand, op dit moment kan nvidia alleen concurreren op prijs.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Mja, dan kunnen ze toch concurreren. Dan hebben we weer een ander probleem van NVidia die hier niet bepaald winst op maakt maar concurreren kunnen ze. Vraag is hoe lang ze het volhouden.
Heeft geen speciale krachten en is daar erg boos over.
fan van kaarten die goed zijn. nvidia is gewoon niet goed bezig op dit moment en ik denk dat iedereen dat wel door heeft. Ik heb zelf in het verleden vooral nvidia kaarten gehad alleen heb ik nu een hd4870.
Ik denk anders dat mensen die nu een GTX460 kopen dat helemaal niet door hebben, en terecht.tomcatha schreef op maandag 13 september 2010 @ 23:35:
[...]
fan van kaarten die goed zijn. nvidia is gewoon niet goed bezig op dit moment en ik denk dat iedereen dat wel door heeft.
Als ATI over 2 maand met de HD6xxx ook in die prijsklasse met iets veel beters komt dan heeft nvdia idd niet lang kunnen profiteren van deze kaart. Maar dat weten we nog niet.
anathema
Dat is ook een beetje het punt. Voor de normale consument is het een prima kaart en als je er met die ogen naar kijkt hebben ze groot gelijk. Qua marktpositie is het een uitstekende koop.anathema schreef op dinsdag 14 september 2010 @ 00:03:
[...]
Ik denk anders dat mensen die nu een GTX460 kopen dat helemaal niet door hebben, en terecht.
Kijk je er echter naar met de ogen van een tech-fan, dan ben je teleurgesteld in de late release en het grote die oppervlak.
De conclusie op AT over de GTS450 zegt toch wel een hoop:
http://www.anandtech.com/...ermi-in-to-the-mainstream
Had AMD kept the price of the Radeon HD 5770 at $140+, there would have been a well-defined place – however small – for the GTS 450. But instead for the time being AMD dropped the price of the 5770 to $130 and brought it in to direct competition with the GTS 450. The GTS 450 isn’t competition for the 5770; at best it’s as fast, at the worst it’s as slow as a 5750.
Verwijderd
Marktaandeel vasthouden is in dit segment zeer belangrijk. Nvidia kiest ervoor om genoegen te nemen met minder winst als hun dat maar klanten oplevert! Dat is zeer goed te begrijpen... Overgrote deel van de consumenten koopt een kaart voor >1 jaar, dus de meesten die nu nog een GTX460/470/480 aanschaffen zullen niet zo snel een volgende ATI 6xxx kaart kopen. En mits Nvidia met een goede opvolger komt zullen diegene wellicht nadien weer een Nvidia kaart kopen.bwerg schreef op maandag 13 september 2010 @ 21:31:
Mja, dan kunnen ze toch concurreren. Dan hebben we weer een ander probleem van NVidia die hier niet bepaald winst op maakt maar concurreren kunnen ze. Vraag is hoe lang ze het volhouden.
Probleem bij de GTX460 SLI review op HWI is dat ze zeer waarschijnlijk een CPU bottleneck hadden, vandaar de 60% schaling... In vrijwel alle andere reviews komt schaling op ~80%.madmaxnl schreef op maandag 13 september 2010 @ 14:51:Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde![]()
De jongens van HWI vind ik sowieso niet echt professioneel overkomen ze hebben de middelen maar niet de kennis zullen we maar zeggen. Van 8,7% en 8,6% maken ze ook 8% van...
Het mee nemen van de Street Fighter 4 resultaten maakt het feest compleet.
"Pros:
- Good all-round performance
- Extremely quiet
- Runs cool
- Absolutely excellent F@H performance
- Can match the HD 5770’s framerates at times
- Good price
- Fits G92 compatible aftermarket heatsinks
- Overclocker friendly
- SLI scaling = amazing
Cons:
- Same power consumption as the HD 5770 yet on average lower performance
- Lacks performance consistency from one game to another"
Schijnbaar zijn ze er wel positief over, ook t.o.v. de HD5770 immers wordt hij er direct mee vergeleken.
Hun (enigsinds begrijpelijke) argumentatie over waarom ze de CPU niet overclockt hebben voor die review was omdat ze dit ook niet hadden gedaan bij alle andere reviews (waaronder 5770 CF en 5830 CF) en er anders geen eerlijk vergelijk konden maken. Het is natuurlijk wel zeer jammer dat ze zo'n kans hebben laten liggen om de benches ook te draaien met een overclockte cpu.
Enfin, de tendens hier is sowieso een beetje te overdreven anti-HWI...
Over de GTS450; Die kaart staat of valt bij z'n prijs. Voor ~€140,- is ie te duur, maar je kan 'm al krijgen vanaf ~€123,- en dat begint erop te lijken. Als de prijs mocht dalen naar ~€110,- is er niet veel mis met de kaart en de prijs/performance... (Dat is denk ik ook de reden dat HWI nog een slag om de arm houdt, aangezien de GTX460 ook al vrij snel zo'n 30/40 euro goedkoper werd i.v.t. de introductie)
Het is alleen wel tekenend dat Nvidia een klein jaar nodig heeft gehad om dit voor elkaar te krijgen en dat is niet best.
[ Voor 6% gewijzigd door Verwijderd op 14-09-2010 00:20 ]
Twee maanden is wel lang maar als het een GT8800 effect heeft dan zijn de mensen met een GTX460 minder blij.(GT8800 effect is dat allen bestaande kaarten op de markt worden weggeblazen in elk opzicht waardoor ze veel minder waard werden.)anathema schreef op dinsdag 14 september 2010 @ 00:03:
[...]
Ik denk anders dat mensen die nu een GTX460 kopen dat helemaal niet door hebben, en terecht.
Als ATI over 2 maand met de HD6xxx ook in die prijsklasse met iets veel beters komt dan heeft nvdia idd niet lang kunnen profiteren van deze kaart. Maar dat weten we nog niet.
En de HD5970 heeft geen CPU bottleneck ? Deze is immers sneller dan twee GTX460 in SLI... Non argument dus. 80% zeg je...Verwijderd schreef op dinsdag 14 september 2010 @ 00:16:
Probleem bij de GTX460 SLI review op HWI is dat ze zeer waarschijnlijk een CPU bottleneck hadden, vandaar de 60% schaling... In vrijwel alle andere reviews komt schaling op ~80%.
Hun (enigsinds begrijpelijke) argumentatie over waarom ze de CPU niet overclockt hebben voor die review was omdat ze dit ook niet hadden gedaan bij alle andere reviews (waaronder 5770 CF en 5830 CF) en er anders geen eerlijk vergelijk konden maken. Het is natuurlijk wel zeer jammer dat ze zo'n kans hebben laten liggen om de benches ook te draaien met een overclockte cpu.
Enfin, de tendens hier is sowieso een beetje te overdreven anti-HWI...
Maak er maar 70%((59%+72%+82%)/3)) van, en dan heb ik de resoluties waarop toch niemand speelt weg gelaten.
Wat de anti-HWI opmerking betreft. Het is zo makkelijk om dan meteen maar te zeggen dat we anti-HWI zijn vanwege ons commentaar op HWI. Net als het zeggen dat bepaalden mensen pro-ATI of pro-nVidia zijn vanwege hun commentaar en door dit te zeggen probeer je hun commentaar te bagatelliseren. I.p.v. het onderuithalen van hun commentaar d.m.v. argumenten.
Verwijderd
@madmaxnl; Wat heeft de HD5970 hiermee te maken? Daarmee wordt de GTX460 in SLI toch helemaal niet direct vergeleken? (en ja, daar wordt dus ook niet alles uitgehaals op bijv. een reso van 1680x1050)
Het ging erom dat ze bij die review er niet alles uit hebben gehaald wat erin zat, getuige de hogere schaling bij vele andere reviews 'oplopend' tot ~80% en dan idd van 72% bij de reso die veruit het meest interessant is bij een dergelijke setup. 72% is toch nog steeds wat anders als nog geen 60% of niet dan?
Je voelt je verder klaarblijkelijk nogal aangesproken over het feit dat ik sommigen hier net iets te overdreven negatief vind jegens HWI. Daarbij heb ik niks tegen kritiek, maar zonder goede argumentatie bij kreten als "Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde", vind ik dit te makkelijk.
Dat zelfde geldt voor bijv. zoiets;
Het ging erom dat ze bij die review er niet alles uit hebben gehaald wat erin zat, getuige de hogere schaling bij vele andere reviews 'oplopend' tot ~80% en dan idd van 72% bij de reso die veruit het meest interessant is bij een dergelijke setup. 72% is toch nog steeds wat anders als nog geen 60% of niet dan?
Je voelt je verder klaarblijkelijk nogal aangesproken over het feit dat ik sommigen hier net iets te overdreven negatief vind jegens HWI. Daarbij heb ik niks tegen kritiek, maar zonder goede argumentatie bij kreten als "Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde", vind ik dit te makkelijk.
Dat zelfde geldt voor bijv. zoiets;
Kan daar echt niet wat nuance in gebracht worden?-The_Mask- schreef op maandag 13 september 2010 @ 12:01:
Bij HWI is alles gewoon goed hoe slecht een product ook is...
[ Voor 3% gewijzigd door Verwijderd op 14-09-2010 01:18 ]
Wat ik zo jammer vind is dat een aantal users weer zo triomfantelijk lopen te doen, over een bekend gegeven dat Nvidia gefaald heeft met zijn huidige lijn, terwijl ze naar mijn mening eerder zouden moeten janken, omdat AMD/ATI in deze situatie zelf zijn prijzen kan bepalen. Prijzen die hoger zijn dan een jaar geleden bij introductie en dat is een slechte zaak voor ons allen als consument. Echt, een nieuwe, verbeterde kaart uit een slechte lijn gaat het niet opeens beter doen dan een kaart van de concurrent uit een goede lijn, dat was reeds duidelijk voor de eerste reviews van de GTS450 uitkwamen. Laten we allemaal hopen dat Nvidia bij de volgende generatie videokaarten weer concurrerend is, dat komt ons allen ten goede.
En voor er, naar aanleiding van de door mij genoemde hoge prijzen, weer nonsens volgt over vraag en aanbod, zoals ik eerder op dit forum heb gelezen: dat werkt echt niet als er geen sprake is van volkomen concurrentie. En volkomen concurrentie is er dus niet op de videokaartenmarkt, aangezien er slechts twee fabrikanten zijn, met een paar kleintjes die niet echt meedoen, omdat ze geen concurrerend product op de markt kunnen brengen.
Wat betreft de HWI reviews ben ik het wel eens. De CPU de bottleneck laten zijn kan echt niet wanneer je videokaarten test. Wanneer je oudere kaarten met een langzamere processor hebt getest, doe je die tests opnieuw. Het is misschien veel werk, maar het is wat het is: werk en dat behoor je goed te doen. Wat ik ook jammer vind, is dat 2560x1600 niet wordt meegenomen, ook niet als snellere kaarten of SLI opstellingen worden getest. Dat laatste wordt overigens ook niet op Tweakers gedaan. Een gemis volgens mij.
En voor er, naar aanleiding van de door mij genoemde hoge prijzen, weer nonsens volgt over vraag en aanbod, zoals ik eerder op dit forum heb gelezen: dat werkt echt niet als er geen sprake is van volkomen concurrentie. En volkomen concurrentie is er dus niet op de videokaartenmarkt, aangezien er slechts twee fabrikanten zijn, met een paar kleintjes die niet echt meedoen, omdat ze geen concurrerend product op de markt kunnen brengen.
Wat betreft de HWI reviews ben ik het wel eens. De CPU de bottleneck laten zijn kan echt niet wanneer je videokaarten test. Wanneer je oudere kaarten met een langzamere processor hebt getest, doe je die tests opnieuw. Het is misschien veel werk, maar het is wat het is: werk en dat behoor je goed te doen. Wat ik ook jammer vind, is dat 2560x1600 niet wordt meegenomen, ook niet als snellere kaarten of SLI opstellingen worden getest. Dat laatste wordt overigens ook niet op Tweakers gedaan. Een gemis volgens mij.
[ Voor 0% gewijzigd door Edmin op 14-09-2010 09:56 ]
Verwijderd
Het eeuwige argument dat het slecht is voor de concurrentie als AMD/ATi een keer de boventoon voert (als het omgekeerd is hoor je dat argument nooit) is onzinnig. AMD kan alleen met Nvidia concurreren zolang ze de financiële middelen hebben om de R&D te betalen om in dit moordende tempo met nieuwe kaarten te komen. De laatste paar series voerde Nvidia de boventoon en verkocht ook een stuk meer. Het is bekend dat de processorlijn van AMD niet de meest winstgevende is, dus ze hebben hun inkomsten uit de videokaarten hard nodig.
De 5000 serie van AMD heeft het stokje van Nvidia overgenomen en is behoorlijk succesvol, met ook behoorlijke verkoopcijfers. Dat is goed nieuws, met het verdiende geld kan R&D betaald worden en wat reserve opgebouwd worden voor de onvermijdelijke tijd dat Nvidia weer de boventoon voert. AMD heeft de laatste jaren wel bewezen niet zomaar failliet te gaan, maar uiteindelijk houdt het wel ergens een keer op natuurlijk. Als Nvidia de markt zou blijven domineren zoals ze voor de 5000 serie deden dan komt er een moment dat AMD de R&D niet meer op kan brengen, en dan is het afgelopen met de concurrentie die zorgt voor snelle ontwikkelingen en lage prijzen.
Om nu te doen alsof AMD al een hele tijd domineert en het goed is voor de concurrentie als Nvidia het weer goed doet is een verkeerde voorstelling van zaken. Dan kijk je wel naar een hele korte termijn, wat in een markt waar de ontwikkeling van een GPU enkele jaren in beslag neemt onzinnig is. Tuurlijk is de 5000 serie nog steeds duur dankzij gebrek aan concurrentie, maar AMD kan die inkomsten voor de lange termijn prima gebruiken. Als je echt voor de concurrentie gaat dan ben je blij met de goede prestaties van de 5000 serie. Zo niet dan ben je waarschijnlijk fan van Nvidia (en dan heb ik het niet over fanboys!). Op zich niks mis mee, maar wees daar dan eerlijk in, en ga je niet verschuilen achter onzinnige verhalen over concurrentie en marktaandeel.
De 5000 serie van AMD heeft het stokje van Nvidia overgenomen en is behoorlijk succesvol, met ook behoorlijke verkoopcijfers. Dat is goed nieuws, met het verdiende geld kan R&D betaald worden en wat reserve opgebouwd worden voor de onvermijdelijke tijd dat Nvidia weer de boventoon voert. AMD heeft de laatste jaren wel bewezen niet zomaar failliet te gaan, maar uiteindelijk houdt het wel ergens een keer op natuurlijk. Als Nvidia de markt zou blijven domineren zoals ze voor de 5000 serie deden dan komt er een moment dat AMD de R&D niet meer op kan brengen, en dan is het afgelopen met de concurrentie die zorgt voor snelle ontwikkelingen en lage prijzen.
Om nu te doen alsof AMD al een hele tijd domineert en het goed is voor de concurrentie als Nvidia het weer goed doet is een verkeerde voorstelling van zaken. Dan kijk je wel naar een hele korte termijn, wat in een markt waar de ontwikkeling van een GPU enkele jaren in beslag neemt onzinnig is. Tuurlijk is de 5000 serie nog steeds duur dankzij gebrek aan concurrentie, maar AMD kan die inkomsten voor de lange termijn prima gebruiken. Als je echt voor de concurrentie gaat dan ben je blij met de goede prestaties van de 5000 serie. Zo niet dan ben je waarschijnlijk fan van Nvidia (en dan heb ik het niet over fanboys!). Op zich niks mis mee, maar wees daar dan eerlijk in, en ga je niet verschuilen achter onzinnige verhalen over concurrentie en marktaandeel.
Ik ben het met je eens dat nuance af en toe wel gebruikt mag worden maar anderzijds hw.info laat wel eens zaken liggen of hebben een hoe zeg ik het afwijkende visie op bepaalde zaken.Verwijderd schreef op dinsdag 14 september 2010 @ 01:17:
@madmaxnl; Wat heeft de HD5970 hiermee te maken? Daarmee wordt de GTX460 in SLI toch helemaal niet direct vergeleken? (en ja, daar wordt dus ook niet alles uitgehaals op bijv. een reso van 1680x1050)
Het ging erom dat ze bij die review er niet alles uit hebben gehaald wat erin zat, getuige de hogere schaling bij vele andere reviews 'oplopend' tot ~80% en dan idd van 72% bij de reso die veruit het meest interessant is bij een dergelijke setup. 72% is toch nog steeds wat anders als nog geen 60% of niet dan?
Je voelt je verder klaarblijkelijk nogal aangesproken over het feit dat ik sommigen hier net iets te overdreven negatief vind jegens HWI. Daarbij heb ik niks tegen kritiek, maar zonder goede argumentatie bij kreten als "Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde", vind ik dit te makkelijk.
Dat zelfde geldt voor bijv. zoiets;
[...]
Kan daar echt niet wat nuance in gebracht worden?
Dat is al jaren zo en zal vast wel zo blijven, en soms is dat ook alleen maar goed om niet achter de kudde aan te lopen maar soms is het ook echt vreemd en zelfs fout/onterecht is mijn ervaring dan.
Ben geen anti hw.info, maar soms zet ik net als een ander dat wel eens doet vraagtekens bij bepaalde reviews en testmethodes/conclusies.
Maar dat heb ik ook wel op tweakers.net en andere hardware sites moet ik er bij vermelden
Ach ja zo heeft elke site wel iets wat voor ze spreekt maar ook tegen ze denk ik dan maar.
Maar laten we weer ontopic gaan nu.
Die GTS 450 kaart is wel een leuke kaart imo maar niet meer dan dat.. te laat en te traag na 11 maanden , ik zag wel dat hij al vanaf 124 euro voor een 1GB variant te krijgen is.
Als daar nog eens +-15 euro af gaat dan denk ik dat kwa prijs/prestatie al een stuk aantrekkelijker word.
Denken jullie niet?
[ Voor 20% gewijzigd door pino85 op 14-09-2010 07:44 ]
Liefhebber van Tweakers
Nee, maar de zwakke euro en de stijgende prijzen voor hardware gaan wel op. In dat licht bezien klaag ik helemaal niet over de prijzen, die zijn heel wat beter dan een jaar geleden hoor. Ja, de HD5870 is veel duurder dan de HD4870 toen de voorraden op moesten maar de HD5770 is toch echt goedkoper en is een completere kaart (qua nieuwe features). Nvidia heeft technisch gezien dan geen wonderproduct neergezet maar ze zetten wel behoorlijk scherpe prijzen neer gezien de kostprijs van hun GPU's. Zie de recente prijsverlagingen van de GTX470/480. Dat, in combinatie met een grotere naamsbekendheid, zorgt alsnog voor een sterke concurrent hoor.ABD schreef op dinsdag 14 september 2010 @ 02:09:
En voor er, naar aanleiding van de door mij genoemde hoge prijzen, weer nonsens volgt over vraag en aanbod, zoals ik eerder op dit forum heb gelezen: dat werkt echt niet als er geen sprake is van volkomen concurrentie.
Door die naamsbekendheid is het een beetje scheef, als NVidia betere kaarten produceert verkoopt ATI relatief gezien geen drol meer en als ATI wat betere kaarten heeft dan gaat het wat betreft verkoop gelijk op. Al gaat dat nu niet helemaal op omdat er veel meer HD5000's dan fermi's zijn gemaakt (toch?).
[ Voor 24% gewijzigd door bwerg op 14-09-2010 07:42 ]
Heeft geen speciale krachten en is daar erg boos over.
daarbij komt nog eens dat de aftermarket-GTX470 nog in de winkels moet komen. Ik vermoed wel dat de GTX460 nog verder omlaag gaat omdat deze akelig dichtbij de GTX470 zit, nu al, maar helaas krijg je daarvoor wel de reference modellen.
Wat we niet moeten vergeten, is dat de GTX460 tegen de HD5830 moet concurreren en de GTX470 meer tegen de HD5850. En als je het dan zo bekijkt is vooral de GTX460 een erg interessante kaart.
Wat we niet moeten vergeten, is dat de GTX460 tegen de HD5830 moet concurreren en de GTX470 meer tegen de HD5850. En als je het dan zo bekijkt is vooral de GTX460 een erg interessante kaart.
Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar
@ ABD,
onzin, als het de moeite loont, testen wij op 2560x1600. Twee keer GTS 450 op 2560x1600 testen is pure tijdsverspilling, twee keer GTX 460 is daarentegen gewoon op 2560x1600 getest.
onzin, als het de moeite loont, testen wij op 2560x1600. Twee keer GTS 450 op 2560x1600 testen is pure tijdsverspilling, twee keer GTX 460 is daarentegen gewoon op 2560x1600 getest.
Ik denk eerder dat iedereen hier voor stevige concurrentie is als dat tot betere kaarten/prijzen voor ons leidt.ABD schreef op dinsdag 14 september 2010 @ 02:09:
Wat ik zo jammer vind is dat een aantal [mbr]users[/] weer zo triomfantelijk lopen te doen, over een bekend gegeven dat Nvidia gefaald heeft met zijn huidige lijn, terwijl ze naar mijn mening eerder zouden moeten janken, omdat AMD/ATI in deze situatie zelf zijn prijzen kan bepalen. Prijzen die hoger zijn dan een jaar geleden bij introductie en dat is een slechte zaak voor ons allen als consument.
Echt, een nieuwe, verbeterde kaart uit een slechte lijn gaat het niet opeens beter doen dan een kaart van de concurrent uit een goede lijn, dat was reeds duidelijk voor de eerste reviews van de GTS450 uitkwamen. Laten we allemaal hopen dat Nvidia bij de volgende generatie videokaarten weer concurrerend is, dat komt ons allen ten goede.
Echter de paradox is dat de situatie dat één vd partijen het al een tijdje relatief matig doet ook voordelen heeft in de ogen van sommige users. Want in hun ogen is nVidia:
- zeer arrogant
- zeer dubieuze praktijken in het TWIMTBP played programma. (AA praktijken)
- kapotte chips, slechte garantieafhandeling
- extreme rebranding
- weinig open (physx, cuda, sli)
Deze users hopen dat de huidige situatie er toe leidt dat het meer open programma van AMD meer voet aan de grond krijgt.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Argument is de 60% wat gewoon niet positief is en daar gaat het bij CF en SLI toch eigenlijk om(schaaling).Verwijderd schreef op dinsdag 14 september 2010 @ 01:17:
Je voelt je verder klaarblijkelijk nogal aangesproken over het feit dat ik sommigen hier net iets te overdreven negatief vind jegens HWI. Daarbij heb ik niks tegen kritiek, maar zonder goede argumentatie bij kreten als "Ze waren zelf positief over de GTX460 SLI die nog niet een 60% schaalde", vind ik dit te makkelijk.
Dat zelfde geldt voor bijv. zoiets;
Nee als je echt nergens je best op gaat doen maar zoveel mogelijk reviews schrijven en zoveel mogelijk systeem adviezen geven zonder ook maar hier je best op te doen dan vind ik niet dat ik iets genuanceerder moet doen. Kwaliteit/kwantiteit verhaaltje...Verwijderd schreef op dinsdag 14 september 2010 @ 01:17:
Kan daar echt niet wat nuance in gebracht worden?
En ja ik kan je wel 100 voorbeelden geven maar dat ben ik niet van plan...
[ Voor 8% gewijzigd door -The_Mask- op 14-09-2010 23:23 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
nvidia is weer aan het "bundelen" geslagen..
er moet eigenlijk zo'n ringtone zijn, ipv Hamsteren! - Bundelen!
http://www.behardware.com...g-products-under-100.html
er moet eigenlijk zo'n ringtone zijn, ipv Hamsteren! - Bundelen!
http://www.behardware.com...g-products-under-100.html
Note that according to our sources there’s also a rather particular GeForce 210 or GT 220 on the market. This is an interesting case which reveals certain doubtful sales practices that are far too common at the low-end of the ranges. This card is equipped with a cut down GT216 with 24 shader units and 8 texture units. NVIDIA sells this version off cheap as the GeForce 210 as long as partners acccept to buy x number of “true” GeForce 210 512 MB cards (based on the GT218 here) at the same time. As these 512 MB cards aren’t particularly attractive to some, NVIDIA sells its card based on the cut down GT216 at a slightly higher price but as a GeForce GT 220
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik loop al een dagje achter maar dit weekend is er weer een software update publiek door nVidia gemaakt om publiciteit te maken voor hun GPU Technology Conference van volgend weekend.
Spijtig daar juist deze toolkit de belangrijkste is door de nieuwe bibliotheken die hiervan onderdeel zullen maken. Onder meer video encoding zou hierdoor nog gemakkelijker kunnen gaan via CUDA. Hopelijk komen dan begin volgend jaar daadwerkelijke implementaties hiervan.. maar dat zal vrees ik toch afwachten worden.
Eigenlijk maken ze nu reclame voor dingen die we pas 2 maanden gaan te zien krijgen, maar een update van Nsight is op zijn eigen ook al niet niks.
Ik vraag me stiekem af of nVidia dan mss met een Fermi2 zal afkomen daar dit de eerste CUDA toolkit update is na de release van Fermi, echter is het versienummer niet 4.0 ofzo dus de kans is wellicht klein
NVIDIA Announces Parallel Nsight 1.5 & CUDA Toolkit 3.2
Let op de cuda 3.2 toolkit zal blijkbaar pas in November ter beschikking komen voor alle ontwikkelaars.Spijtig daar juist deze toolkit de belangrijkste is door de nieuwe bibliotheken die hiervan onderdeel zullen maken. Onder meer video encoding zou hierdoor nog gemakkelijker kunnen gaan via CUDA. Hopelijk komen dan begin volgend jaar daadwerkelijke implementaties hiervan.. maar dat zal vrees ik toch afwachten worden.
Eigenlijk maken ze nu reclame voor dingen die we pas 2 maanden gaan te zien krijgen, maar een update van Nsight is op zijn eigen ook al niet niks.
Ik vraag me stiekem af of nVidia dan mss met een Fermi2 zal afkomen daar dit de eerste CUDA toolkit update is na de release van Fermi, echter is het versienummer niet 4.0 ofzo dus de kans is wellicht klein
Als Fermi 2 begin volgend jaar zou komen hadden we hier al lang wat over gehoord, maar er is naar mijn weten echt helemaal niks over bekend. Dus dat betekend dat het waarschijnlijk sowieso nog wel meer dan een half jaar zal duren (denk zelfs eerder een jaar), wat dan ook niet heel vreemd is als je bedenkt dat de huidige lijn nog niet eens helemaal is geïntroduceerd.
[ Voor 4% gewijzigd door -The_Mask- op 15-09-2010 00:45 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
"Fermi 2.0" zal een eta hebben van Q3/Q4 2011 en zal dan op een 28nm procedé gebakken worden.-The_Mask- schreef op woensdag 15 september 2010 @ 00:45:
Als Fermi 2 begin volgend jaar zou komen hadden we hier al lang wat over gehoord, maar er is naar mijn weten echt helemaal niks over bekend. Dus dat betekend dat het waarschijnlijk sowieso nog wel meer dan een half jaar zal duren (denk zelfs eerder een jaar), wat dan ook niet heel vreemd is als je bedenkt dat de huidige lijn nog niet eens helemaal is geïntroduceerd.
Als je de release's van de afgelopen jaren naast elkaar legt, zal je zien dat Nvidia om de 18 maanden een nieuwe GPU-generatie ontwikkeld. De ene keer een radicale architectuur-verandering (GT200 > GF100), en de andere keer een bestaande architectuur op 'Steroïden' (G80 > GT200).
"Fermi 2.0" is dus wel de juiste benaming voor de opvolger van de GF100 "Fermi".
Als ik concurrent Ati/AMD bekijk, zie ik een 12 maandelijkse cyclus. Architectuur gaat daar ook zo'n 2 tot 3 cyclussen mee, de 'Steroïden'-formule wordt door hen ook dan toegepast. En er zullen, zowel bij Ati/AMD als bij Nvidia, ook altijd kleine architectuur-aanpassingen zijn bij een nieuwe GPU-generatie (cyclus).
Je hebt gelijk dat de Nvidia GT410/GT420/GT440 budget GPU's nog moeten komen, maar ik denk dat dat niet lang meer zal duren.
Ik vergeet G92 nog, dit was alleen een 'Die-Shrink' van 90nm naar 65nm van de G80 GPU, en tevens is de G92 pas 3 maanden voor de release van GT200 gereleased.
Mogelijk is dat Nvidia met de huidige Fermi nog een nieuwe stepping van de GF100 GPU uitbrengt op een verbeterd TSMC 40nm procedé, een soort GF100b met mogelijk 512 Cuda-cores en hogere clocks cq.
minder warmte-ontwikkeling.
Overigens over de cyclussen, mijn GTX295 zal pas vervangen worden door "Fermi 2.0" op 28nm, eerder niet.
Dat betekend voor mij elke 3 jaar een nieuwe High-end GPU, wat ik persoonlijk een perfecte cyclus vind.
Ik weet het, menig Tweaker/Gamer doet het juist anders en vervangt zo'n elke 12-18 maanden zijn GPU.
[ Voor 10% gewijzigd door bitshape op 15-09-2010 03:37 ]
avatar redux
bit 2.0: i7-8700K - Z370 Apex - 32GB 3200c14 - Strix GTX1080 - Prime 850W - LSI 9207-8i - 22TB HDD - 5.5TB SSD
Ik zou het niet te hard roepen.-The_Mask- schreef op woensdag 15 september 2010 @ 00:45:
Als Fermi 2 begin volgend jaar zou komen hadden we hier al lang wat over gehoord, maar er is naar mijn weten echt helemaal niks over bekend. Dus dat betekend dat het waarschijnlijk sowieso nog wel meer dan een half jaar zal duren (denk zelfs eerder een jaar), wat dan ook niet heel vreemd is als je bedenkt dat de huidige lijn nog niet eens helemaal is geïntroduceerd.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Je vergeet 1 ding..bitshape schreef op woensdag 15 september 2010 @ 03:07:
[...]
"Fermi 2.0" zal een eta hebben van Q3/Q4 2011 en zal dan op een 28nm procedé gebakken worden.
Als je de release's van de afgelopen jaren naast elkaar legt, zal je zien dat Nvidia om de 18 maanden een nieuwe GPU-generatie ontwikkeld. De ene keer een radicale architectuur-verandering (GT200 > GF100), en de andere keer een bestaande architectuur op 'Steroïden' (G80 > GT200).
"Fermi 2.0" is dus wel de juiste benaming voor de opvolger van de GF100 "Fermi".
Als ik concurrent Ati/AMD bekijk, zie ik een 12 maandelijkse cyclus. Architectuur gaat daar ook zo'n 2 tot 3 cyclussen mee, de 'Steroïden'-formule wordt door hen ook dan toegepast. En er zullen, zowel bij Ati/AMD als bij Nvidia, ook altijd kleine architectuur-aanpassingen zijn bij een nieuwe GPU-generatie (cyclus).
Je hebt gelijk dat de Nvidia GT410/GT420/GT440 budget GPU's nog moeten komen, maar ik denk dat dat niet lang meer zal duren.
Ik vergeet G92 nog, dit was alleen een 'Die-Shrink' van 90nm naar 65nm van de G80 GPU, en tevens is de G92 pas 3 maanden voor de release van GT200 gereleased.
Mogelijk is dat Nvidia met de huidige Fermi nog een nieuwe stepping van de GF100 GPU uitbrengt op een verbeterd TSMC 40nm procedé, een soort GF100b met mogelijk 512 Cuda-cores en hogere clocks cq.
minder warmte-ontwikkeling.
Overigens over de cyclussen, mijn GTX295 zal pas vervangen worden door "Fermi 2.0" op 28nm, eerder niet.
Dat betekend voor mij elke 3 jaar een nieuwe High-end GPU, wat ik persoonlijk een perfecte cyclus vind.
Ik weet het, menig Tweaker/Gamer doet het juist anders en vervangt zo'n elke 12-18 maanden zijn GPU.
nVidia heeft heel veel vertraging gehad met Fermi 1, in die vertraging kon het team dat aan Fermi2 werkte gewoon door werken. Ik vermoed dat hij dus een heel stuk eerder komt dan Q3 2011
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Als je daarmee bedoelt dat het wel eens korter zou kunnen duren, dan houdt NV dat behoorlijk netjes geheim.
Toch vraag ik me af hoe dit allemaal gaat eindigen nu Intel en AMD GPU's integreren op de CPU en dat zeer behoorlijke prestaties lijkt op te leveren bijv. voor video encoding.lightdestroyer schreef op woensdag 15 september 2010 @ 00:39:
Ik loop al een dagje achter maar dit weekend is er weer een software update publiek door nVidia gemaakt om publiciteit te maken voor hun GPU Technology Conference van volgend weekend.NVIDIA Announces Parallel Nsight 1.5 & CUDA Toolkit 3.2
Let op de cuda 3.2 toolkit zal blijkbaar pas in November ter beschikking komen voor alle ontwikkelaars.
Spijtig daar juist deze toolkit de belangrijkste is door de nieuwe bibliotheken die hiervan onderdeel zullen maken. Onder meer video encoding zou hierdoor nog gemakkelijker kunnen gaan via CUDA. Hopelijk komen dan begin volgend jaar daadwerkelijke implementaties hiervan.. maar dat zal vrees ik toch afwachten worden.
....
Er is immers binnen een paar jaar een gigantische hoeveelheid notebooks, laptops, desktops op de markt die een geintegreerde Intel of AMD CPU+GPU hebben.
Het lijkt me dat Cuda een nichemarkt zal worden voor highend discrete GPU's van nVidia.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Gartner schat dat in 2014 low-end discrete zo goed als weg is.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
^
Met de preview van Sandybridge op Anand in het achterhoofd, maar ook de AMD's zacate, zou het mij helemaal niet verbazen als dat idd het geval is.
Met de preview van Sandybridge op Anand in het achterhoofd, maar ook de AMD's zacate, zou het mij helemaal niet verbazen als dat idd het geval is.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd
Is ook logisch, waarom zou je voor een klein beetje rekenwerk een aparte GPU nodig hebben.
Liefste zie ik de gehele x86 structuur verdwijnen om plaats te maken voor veel efficientere centrale processor units structuren. Laat de beste structuur voor gemiddeld OS en alles erom heen, de hoofdstructuur zijn. De rest kunnen ze erbij doen of niet, zoals grafische en physics structuren.
Dan kan de toekomst ook meteen naar programmeerbare CPU's gaan. Uiteindelijk ook veel goedkoper lijkt me, maak een balans ertussen in, zodat deze redelijk efficient voor meerdere grote markten kan worden geprogrammeerd en dus ook waarschijnlijk langer te gebruiken valt.
Liefste zie ik de gehele x86 structuur verdwijnen om plaats te maken voor veel efficientere centrale processor units structuren. Laat de beste structuur voor gemiddeld OS en alles erom heen, de hoofdstructuur zijn. De rest kunnen ze erbij doen of niet, zoals grafische en physics structuren.
Dan kan de toekomst ook meteen naar programmeerbare CPU's gaan. Uiteindelijk ook veel goedkoper lijkt me, maak een balans ertussen in, zodat deze redelijk efficient voor meerdere grote markten kan worden geprogrammeerd en dus ook waarschijnlijk langer te gebruiken valt.
[H] kraakt GTS450 SLI keihard af: http://www.hardocp.com/ar...0_sli_video_card_review/9
Our GeForce GTS 450 SLI versus Radeon HD 5770 CrossFireX and Radeon HD 5750 CrossFireX comparisons today have revealed that GeForce GTS 450 SLI is on the bottom end of performance in this price range. Two standard GeForce GTS 450 video cards will cost you $260. On the other hand, two Radeon HD 5770 video cards will cost you $10 less at $250 and provide up to 30% better performance in games. Radeon HD 5750 CrossFireX will cost you as little as $210 saving you $50 and providing the same or better performance than GTS 450 SLI.
NVIDIA should be worried, they’ve given us a GPU that is either underpowered in this price range or overpriced, and it seems to take a lot of power to produce substandard performance. The fact is that Radeon HD 5770 cards used to be priced higher, but prices have fallen, a lot. Even the Radeon HD 5750, when it was launched, cost $139.99, right at the price of the GTS 450, and in our tests it is giving us better performance. It took NVIDIA eleven months to produce a video card that doesn’t exactly offer anything new over the Radeon HD 5750 which has been out for almost a year now. NVIDIA is behind this generation folks, there is no denying that. In the 20"-22" display size market, the market that NVIDIA explains the GTS 450 is targeting, there has never been a clearer "winner," and that is the ATI Radeon HD 5770.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
Het is toch onbegrijpelijk dat Nvidia een dergelijke kaart zo op de markt zet? Ze hebben zelf tot in den treure deze kaart kunnen vergelijken met de HD5750 en HD5770 en weten eigenlijk wat ze te doen staat, brengen ze 'm uit met vrijwel hetzelfde prijspeil als de HD5770 en is ie langzamer!
Dan zie je toch al van mijlen ver aankomen wat de conclusies gaan worden in de reviews!
Wat dat betreft hadden ze er nog beter voor kunnen kiezen om de standaard clocks rond de ~850Mhz te zetten en een fractie hoger stroomverbruik voor lief te nemen, dan was de kaart 'standaard' iig ongeveer even snel geweest als de HD5770.
Zonder prijsdaling naar ~110/120 euro gaat deze kaart het bijzonder moeilijk krijgen.
Dan zie je toch al van mijlen ver aankomen wat de conclusies gaan worden in de reviews!
Wat dat betreft hadden ze er nog beter voor kunnen kiezen om de standaard clocks rond de ~850Mhz te zetten en een fractie hoger stroomverbruik voor lief te nemen, dan was de kaart 'standaard' iig ongeveer even snel geweest als de HD5770.
Zonder prijsdaling naar ~110/120 euro gaat deze kaart het bijzonder moeilijk krijgen.
Guru3d heeft na de eerste GTS450 review nu ook een GTS450 SLi review:
http://www.guru3d.com/article/geforce-gts-450-sli-review/17
Mocht er hier nog iemand zijn die Hilbert vertrouwde in zijn oordeel, dan is dat nu echt definitief voorbij, lijkt me.
http://www.guru3d.com/article/geforce-gts-450-sli-review/17
Very little negative can be said about two GeForce GTS 450 cards setup in SLI. In previous articles we have shown you guys already that the performance scaling of two GPUs is something the GTX 400 series is really good at. It was just that heat, noise and power consumptions became a constant nag. And that's just not the case with the GF106 GPU based GeForce GTS 450 cards.
Dus hij geeft toe dat de concurrentie komt van HD5770CFX en dat de GTS450SLi het verliest qua prestaties, maar gaat vervolgens door over de superieure drivers, PhysX en 3d Surround.... met als resultaat een 'Recommended' award voor GTS450SLI.Scaling wise things can not get any better, now there was a good reason for including the R5770 setup in Crossfire in this article, in the end price wise it really is/will become the direct competitor to the GeForce GTS 450. And if we look purely at performance, the Radeon HD 5770 is the overall performance winner. ATI trumped pretty much any scenario when we look at pure and raw unadulterated performance scaling. Two way CrossfireX has gotten so much better and is still getting better and better with each quarter of the year that passes. Especially with the help of the new CrossfireX profile patches scaling really looks much better and games get supported somewhat more quickly. The upper hand of overall driver compatibility however goes to NVIDIA as they have their stuff clearly better supported with user based multi-GPU profiles and driver releases alongside the release of new games. Of course with NVIDIA you get added benefits like PhysX and 3D Surround gaming, so in the end it's probably a choice of which brand you personally prefer the most.
Mocht er hier nog iemand zijn die Hilbert vertrouwde in zijn oordeel, dan is dat nu echt definitief voorbij, lijkt me.
Ik vertrouw hem al heel lang niet meer.
In hun oorspronkelijke 5770 review verbruikte hun systeem in totaal 228W idle, en 321W onder volle load (stock 5770 dus). Exact hetzelfde systeem maar met een Gigabyte 5770 SOC verbruikte zogenaamd maar 176W idle en 264W onder dezelfde load? Knap werk hoor, das een behoorlijk indrukwekkende winst voor een kaart met overclock van de fabriek uit
In hun oorspronkelijke 5770 review verbruikte hun systeem in totaal 228W idle, en 321W onder volle load (stock 5770 dus). Exact hetzelfde systeem maar met een Gigabyte 5770 SOC verbruikte zogenaamd maar 176W idle en 264W onder dezelfde load? Knap werk hoor, das een behoorlijk indrukwekkende winst voor een kaart met overclock van de fabriek uit
Dave Baumann zegt dat er 5W of 10W verschil mag en kan zitten tussen kaarten. in de gevallen van [H] waar een 5750 in idle soms meer verbruikt dan een 5770 komt soms voor. maar 60W? nee.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Dit topic is gesloten.