De houtschroef is natuurlijk de belichaaming van het falen wat nVidia die dag deed. Het was gewoonweg een doosje gebakken lucht wat Jensen in zijn handen hield, waarbij stellig vermeld werd dat het een werkelijke Fermi betrof.
Verwijderd
Laten we het maar bij het nieuws houden ipv oude koeien uit de sloot halen, dat is niets nieuwswaardig en vervelend om tte lezen ook alis het waar..
Kijk nu blijken de geruchten toch wel waar te zijn. Kan ook niet anders want nvidia heeft tijd zat gehad om aan de kepler te werken. 28nm was aleen poosje terug klaar bij nvidia.-AzErTy- schreef op zondag 20 november 2011 @ 17:21:
Nvidia: Next-Gen Kepler Mobile GPUs Win Massive Amount of Notebook Designs
We have more notebook design wins for the Ivy Bridge cycle than we ever had in notebooks; this is likely the most successful notebook cycle we have ever experienced.
Als reden hiervoor wordt dit gezegd:
The reason for our [design win] success, I believe, is because our Kepler generation of GPUs was designed for intense energy efficiency.
Nu is het natuurlijk wel de topman van Nvidia zelf die het claimt maar ik neem aan dat je niet keihard je investors mag voorliegen.
[ Voor 88% gewijzigd door Verwijderd op 21-11-2011 08:58 ]
Ik draag nVidia een warm hart toe, maar ik zou als ik jou was niet te veel hopen op een snelle Kepler/28nm based GPU introductie. Zolang er maar één foundry (TSMC) is die 28nm parts maakt voor complexe chips zoals GPU's moet iedereen inkopen bij die ene foundry en dan hebben we het over AMD en nVidia én bijv. Apple. Schaarste is het gevolg.
En als vervolgens die ene foundrie moeite heeft met de transitie naar het 28nm procede, sja, dan weet je al hoe laat het is. Wordt hoog tijd dat GlobalFoundries eens beter zijn best gaat doen!
En als vervolgens die ene foundrie moeite heeft met de transitie naar het 28nm procede, sja, dan weet je al hoe laat het is. Wordt hoog tijd dat GlobalFoundries eens beter zijn best gaat doen!
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Nee die zullen er ook niet gelijk zijn. Rond maart april of mei komen de snelle 28nm keplers word veel gedacht. Als dat waar is is dat wel een mooie tijd opzich, zeker niet te laat.
[ Voor 24% gewijzigd door Verwijderd op 21-11-2011 09:36 ]
Vier maanden na de concurrentie is anders behoorlijk laat. In het slechtste geval betekent dat namelijk gewoon dat je vier maanden lang zelf geen fatsoenlijke verkoopcijfers kunt laten zien en daar worden aandeelhouders nerveus van. Jij mag het an persoonlijk geen ramp vinen voor je upgrade-cycle, voor een bedrijf is het echt een probleem.
Verwijderd
Gelukkig zit wat dat beteft het grote geld niet in die markt die wat later komt (de high end kaarten).
Het grote geld zit meer in de oems, budget, laptop en tegra's. Nvidia hoeft dus eigenlijk nergens bang voor te zijn, alsze dit wel waren hadden ze ook vast al wel eerder hgih end kaarten op de markt willen brengen en
ookvast wel gedaan.
Het grote geld zit meer in de oems, budget, laptop en tegra's. Nvidia hoeft dus eigenlijk nergens bang voor te zijn, alsze dit wel waren hadden ze ook vast al wel eerder hgih end kaarten op de markt willen brengen en
ookvast wel gedaan.
[ Voor 34% gewijzigd door Verwijderd op 21-11-2011 09:47 ]
Dat is wel waar, maar ook daar spelen high-end kaarten een belangrijke rol. Het is hier al vaker voorbij gekomen, maar het 'halo-effect' van een high-end kaart op de volledige generatie is behoorlijk belangrijk. Daarom wordt er met die kaarten ook zo gesmeten in de marketingcampagnes. GTX580 snel? Dan zal de GTX530 dat ook wel zijn. Dat het zo werkt blijkt wel uit de druk die OEMs uitbrengen om met 'nieuwe' (lees: rebrands) modellen op de markt te komen.
Verwijderd
Mmmm maar dan lopen ze eigenlijk nog niet veel achter gezien amd ook eerst komt met de VLIW4 rebrands als ik het goed heb?
De high end kaarten zorgen toch altijd wel voor de reputatie van het bedrijf.
Maar Nvidia zal niet veel later dan AMD zijn karten introduceren toch?
Maar Nvidia zal niet veel later dan AMD zijn karten introduceren toch?
nVidia zal juist veel later met de high-end komen dan AMD.
Nee.Verwijderd schreef op maandag 21 november 2011 @ 10:02:
als ik het goed heb?
[ Voor 55% gewijzigd door -The_Mask- op 21-11-2011 10:51 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Heb jij een bron daar van dat het zo veel later word want anders ziten we maar wat te speculeren over iets wat niet zeker is en kunnen we het niet aannemen als waarheid. Zowel amd als nvidia hebben eerst de kleintjes klaar en komen zowat te gelijkertijd in het begin van het nieuwe jaar. Als erna de grotere kaarten komen is het ook zowat te gelijkertijd. Maar goed als het zo ver is kom ik daar wel weer een keer op terug.
[ Voor 21% gewijzigd door Verwijderd op 21-11-2011 10:58 ]
Verwijderd
Zolang er geen bronnen zijn zijn het speculaties en niets meer. Ik zal zelf momenteel wel even op zoek gaan naar wat geruchten.
Edit
Kan helaas nog niets zinnigs vinden over de release van nvidia's high end.
Edit
Kan helaas nog niets zinnigs vinden over de release van nvidia's high end.
[ Voor 58% gewijzigd door Verwijderd op 21-11-2011 11:34 ]
Nee, logisch ook want ik zei al dat die veel later kwam en dus is er nog weinig tot niks over bekend.Verwijderd schreef op maandag 21 november 2011 @ 11:22:
Kan helaas nog niets zinnigs vinden over de release van nvidia's high end.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Dat er niets of vrij weinig over bekent is betekend het niet gelijk dat het veel later komt, je mag natuurlijk speculatief zeggen dat hij veel later komt maar daar heeft niemand wat aan omdat het een speculatie is in het niets
Begrijpend lezen is niet jouw sterkste punt volgens mij, dit zei ik al:
-The_Mask- schreef op maandag 21 november 2011 @ 11:19:
Ik speculeer niet
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Wil je stoppen met op de man te reageren. Ed zij dat net ook al in het AMD topic, en het valt gewoon op dat het je bedoeling is om mensen op deze manier te kwellen.
[ Voor 66% gewijzigd door Verwijderd op 21-11-2011 12:05 ]
Verwachten jullie toevallig nog een prijsdaling voor de gtx560 standaard uitvoering?
Vind ik opzich echt een goede kaart, maar mijn laatste aankoop voor mijn pc dropte een week later diep in de prijs. Lekker Nederlandse vraag dus
Vind ik opzich echt een goede kaart, maar mijn laatste aankoop voor mijn pc dropte een week later diep in de prijs. Lekker Nederlandse vraag dus
Citation needed-The_Mask- schreef op maandag 21 november 2011 @ 11:19:
Ik speculeer niet
Het is natuurlijk mooi als je wat informatie hebt en ik (en anderen) weet dat je zo links en rechts wel wat info krijgt, maar vermeld dat dan in ieder geval. Dat voorkomt een hoop vraagtekens (en irritaties) bij sommige anderen. Zeg desnoods dat je het van een niet nader te noemen bron hebt, als je niet kunt linken naar een artikel oid.
Dit vind ik ook nogal een straffe statement, gezien heel veel dat hier en CJs topic voorbijkomt geruchten en speculaties zijn van anonieme bronnen. Alles wat je daarover zou zeggen is daardoor speculatie.-The_Mask- schreef op maandag 21 november 2011 @ 11:19:
Ik speculeer niet
Oftewel, als je dit zegt, zeg dan vervolgens helemaal niet
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Misschien omdat AMD's high-end gpu's al in massaproductie zijn terwijl nVidia z'n GK107 binnenkort als eerst laten produceren waarbij het gaat om kleine(mobiele) chips. De ''high-end'' GK100 van nVidia gaat pas daarna nog komen. Daarvan weten we nu nog niet eens de productiedatum.
Ik heb het al eerder trachten uit te leggen. Er is een bepaalde tijd tussen tape-out en massaproductie rijp product. Ook nVidia is gebonden aan die tijdsduur, omdat het namelijk het productieproces van een wafer-tot-chip betreft.Verwijderd schreef op maandag 21 november 2011 @ 11:50:
Dat er niets of vrij weinig over bekent is betekend het niet gelijk dat het veel later komt, je mag natuurlijk speculatief zeggen dat hij veel later komt maar daar heeft niemand wat aan omdat het een speculatie is in het niets
Feit is dat nVidia KF107 terug heeft mogen ontvangen als sample. Dit is langs gekomen met meerdere bronnen.
http://semiaccurate.com/2...ouse-but-not-the-big-one/ was de eerste die het benoemde, in de tweede helft van september. http://vr-zone.com/articl...-kepler--gk107/13662.html gaat er ook op in, met als basis hetzelfde artikel.
Je kunt terug lezen dat samples ontvangen eind september, betekent dat een productie-rijp product een aantal maanden later beschikbaar zou kunnen zijn. Tel er vervolgens nog eens 2 maanden (6 weken voor productie chip plus nog een 2 weken voor uitsnijden, verschepen, testen, op pcb plaatsen en verschepen naar OEM/distributiekanaal) bij op, plus nog een maand als je ook nog een beetje voorraad wilt hebben voor de launch en dan zie je dat Kepler nog wel eventjes weg is.
De ~3 maanden die nodig zijn tussen eerste samples ontvangen en een productie-rijpe chip hebben ook te maken met die 6 weken van het bakproces, gecombineerd met uitvoerig testen van de chip. Meestal moeten nVidia en AMD 1 a 2 respins nodig met verbeteringen/veranderingen. Dan ben je dus al 12 weken (drie maanden) verder. Dus eind september samples van KF107 terug is al gemakkelijk eindproduct ergens eind maart/begin april 2012.
Aangezien KF100 geen tape-out heeft gehad tot na eind september (kan ondertussen dus al wel een tape-out hebben gehad), moet je daar op zijn minst een paar maanden bij op tellen. Aangezien grote chips sneller/vaker een respin nodig hebben, het langer duurt om voorraad op te bouwen (grote chips, dus minder per wafer) ben je al gauw drie maand verder, ALS tapeout vrijwel direct na ontvangst sample KF107 plaats vond. Er zal echter snel een maand zitten tussen sample-ontvangst KF107 en tape-out KF100 (om te voorkomen dat problemen met het 28nm process zich manifesteren in de grote chip, die men eventueel terug vindt met de kleine KF107).
Met alleen al logisch nadenken kan iedereen dat wel voor zichzelf bedenken, daar hoeft echt niemand een bron voor te hebben. Zie bijvoorbeeld de uitleg van dahakon hierboven.
Volgens mij is er maar één persoon die nogal wat irritaties de laatste pagina's in zowel het AMD als het nVidia topics veroorzaakt en dat ben ik volgens mij niet.Dat voorkomt een hoop vraagtekens (en irritaties) bij sommige anderen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ach, zolang je niet persoonlijk iemand kent bij een fabrikant o.i.d. halen de meesten summiere info van een buitenlands forum af. Het is dan maar net hoe ver je zin hebt om te graven en hoe betrouwbaar je die info acht. Je kan ook tal van Chinese forum's afstruinen en op google translate drukken en daar proberen wat op te pikken.Edmin schreef op maandag 21 november 2011 @ 12:42:
[...]
Citation needed
Het is natuurlijk mooi als je wat informatie hebt en ik (en anderen) weet dat je zo links en rechts wel wat info krijgt, maar vermeld dat dan in ieder geval. Dat voorkomt een hoop vraagtekens (en irritaties) bij sommige anderen. Zeg desnoods dat je het van een niet nader te noemen bron hebt, als je niet kunt linken naar een artikel oid.
De één weet dan iets net wat meer zeker dan een ander, niks ergs en zo gaat het al jaren hier volgens mij...
Verwijderd
Het is gewoon handig als je dingen gaat roepen dat je er dan ook een bron bij doet want de meeste mensen hier snappen niet dat het kan gaan om een insider die wat roept of iemand in die richting, en hetkn net zo goed kletskoek zijn. Er word ook aan anderen gevraagt om eerst met een bron te komen bij speculaties dus het is zeker niet altijd zo gegaan, enhandig trouwens voor de mensen die niet weten waar het over gaat.
Gewoon ja of nee roepen is ongeloof waardig en eerder iets wat niet te zeggen valt.
Gewoon ja of nee roepen is ongeloof waardig en eerder iets wat niet te zeggen valt.
[ Voor 9% gewijzigd door Verwijderd op 22-11-2011 08:40 ]
Als je kijkt naar de posthistorie en reputatie van sommige mensen hier kan je er toch wel van uit gaan dat ze niet uit hun nek staan te lullen.Verwijderd schreef op dinsdag 22 november 2011 @ 08:36:
Het is gewoon handig als je dingen gaat roepen dat je er dan ook een bron bij doet want de meeste mensen hier snappen niet dat het kan gaan om een insider die wat roept of iemand in die richting, en hetkn net zo goed kletskoek zijn. Er word ook aan anderen gevraagt om eerst met een bron te komen bij speculaties dus het is zeker niet altijd zo gegaan, enhandig trouwens voor de mensen die niet weten waar het over gaat.
Gewoon ja of nee roepen is ongeloof waardig en eerder iets wat niet te zeggen valt.
Overigens zijn het meestal alleen reacties die, onder andere, jouw conclusies ontkrachten. (als je het hebt over The_Mask bijvoorbeeld.)
[ Voor 8% gewijzigd door Redblader op 22-11-2011 10:02 ]
Verwijderd
Nou ja in vind dat de mod gewoon gelijk heeft. Ik kan verder niet zo maar conclussies gaan trekken uit mensen die ik niet ken, ook niet uit de posts en vooral op internet. Het is gewoon netter om er een bron bij te vermelden dat scheeld weer een hoop gezeur van mensen die wat kritischer zijn. Hier zijn verder nog helemaal geen conclusies van mij ontkracht zoals van wanneer de high end van uit komt.
Verder vind ik het op de man in gaan met allerlei (voor)oordelen ook niet kunnen, en dat zie ik ook vaak genoeg gebeuren in de vga topics.
Verder vind ik het op de man in gaan met allerlei (voor)oordelen ook niet kunnen, en dat zie ik ook vaak genoeg gebeuren in de vga topics.
[ Voor 115% gewijzigd door Verwijderd op 22-11-2011 10:28 ]
En een dergelijke onderbouwing, ook al was het maar in twee regels, had er bij jou ook best bij gemogen. Desnoods een verwijzing naar een eerdere post waarin het verteld is.-The_Mask- schreef op maandag 21 november 2011 @ 17:15:
[...]
Met alleen al logisch nadenken kan iedereen dat wel voor zichzelf bedenken, daar hoeft echt niemand een bron voor te hebben. Zie bijvoorbeeld de uitleg van dahakon hierboven.
Klachten via TR of DM. Elkaar hier zwart maken dient geen nut.Volgens mij is er maar één persoon die nogal wat irritaties de laatste pagina's in zowel het AMD als het nVidia topics veroorzaakt en dat ben ik volgens mij niet.
Om het af te sluiten (en daarna gaan we ontopic verder): Om de sfeer hier in het topic vriendelijk te houden, is het van belang dat eenieder zijn mening een klein beetje onderbouwd met bronvermelding, uitleg of gewoon met het statement dat het je persoonlijke verwachting is. Vergeet niet dat we hier op schrift met elkaar communiceren en dat het daardoor erg moeilijk is om emoties en nuances over te brengen, zonder overduidelijke uitleg.
EDIT: Oke, Ed_L omdat je twee minuutje's eerder was... 

In het bericht van dahakon, verwijst hij naar http://semiaccurate.com/2...ouse-but-not-the-big-one/
dahakon in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54"Verwijderd schreef op dinsdag 22 november 2011 @ 10:16:
Hier zijn verder nog helemaal geen conclusies van mij ontkracht zoals van wanneer de high end van uit komt.
In het bericht van dahakon, verwijst hij naar http://semiaccurate.com/2...ouse-but-not-the-big-one/
Tot iemand met hard bewijs komt dat SemiAccurate ongelijk heeft, kun je er maar beter vanuit gaan dat hij gelijk heeft.Moving back to the big Kepler, the one the fanbois want, it is still MIA. It is unlikely to tape out until GK107 is fully debugged, and then add a few weeks for the fixes to be backported and those changes laid out. Because of the big chip/small chip problems, there is likely to be an additional spin or two on top of the GK100 tape out, so more time there. Short story, the Kepler part you are expecting is probably mid-2012 best case.
[ Voor 135% gewijzigd door Toettoetdaan op 22-11-2011 11:01 ]
Verwijderd
Die is nog niet ontkracht want er is nog geen bron van wanneer de kaarten wel uit komen en of wanneer er precies aan begonnen is/word . Aan speculeren over hoeveel tijd er tussen kan zitten kan ik niet zo maar 1,2,3 aannemen. Als je het niet erg vind ga ik uit van nieuws en niet van speculaties wan dat past het beste in mijn straatje om op zo'n manier duidelijkheid te krijgen. Kijk als is zo maar alles ga geloven kan het ook goed zijn dat de kaarten wel als eerste komen want is aardig stil momenteel.
Ik zelf durf kan niet zo maar zeggen wat wel of niet gaat gebeuren en van dat soort speculaties neem ik dan ook met een flinke korrel zout.
Ik zelf durf kan niet zo maar zeggen wat wel of niet gaat gebeuren en van dat soort speculaties neem ik dan ook met een flinke korrel zout.
[ Voor 38% gewijzigd door Verwijderd op 22-11-2011 11:09 ]
Verwijderd
Apple Switching Back to for Next-Generation MacBook Pro Graphics Chips?
Ik hou van (echt) nieuws
http://www.macrumors.com/...cbook-pro-graphics-chips/
Ik hou van (echt) nieuws
http://www.macrumors.com/...cbook-pro-graphics-chips/
En waar baseer je dan je conclusie op?Verwijderd schreef op dinsdag 22 november 2011 @ 11:03:
Die is nog niet ontkracht want er is nog geen bron van wanneer de kaarten wel uit komen en of wanneer er precies aan begonnen is/word . Aan speculeren over hoeveel tijd er tussen kan zitten kan ik niet zo maar 1,2,3 aannemen. Als je het niet erg vind ga ik uit van nieuws en niet van speculaties wan dat past het beste in mijn straatje om op zo'n manier duidelijkheid te krijgen. Kijk als is zo maar alles ga geloven kan het ook goed zijn dat de kaarten wel als eerste komen want is aardig stil momenteel.
Ik zelf durf kan niet zo maar zeggen wat wel of niet gaat gebeuren en van dat soort speculaties neem ik dan ook met een flinke korrel zout.
De bron van dit bericht is: *trommel geroffel*Verwijderd schreef op dinsdag 22 november 2011 @ 11:11:
Apple Switching Back to for Next-Generation MacBook Pro Graphics Chips?
Ik hou van (echt) nieuws
http://www.macrumors.com/...cbook-pro-graphics-chips/
http://semiaccurate.com/2...waps-gpu-suppliers-again/
Dus je vind dat SemiAccurate speculeert, maar toch is het nieuw... Ken je SemiAccurate als ik vragen mag?
Of in het bijzonder Charlie Demerjian?
Verwijderd
Op niets want er is nog geen conclusie te maken zonder echt nieuws van hoe en wat.Toettoetdaan schreef op dinsdag 22 november 2011 @ 11:15:
[...]
En waar baseer je dan je conclusie op?
[...]
De bron van dit bericht is: *trommel geroffel*
http://semiaccurate.com/2...waps-gpu-suppliers-again/
Dus je vind dat SemiAccurate speculeert, maar toch is het nieuw... Ken je SemiAccurate als ik vragen mag?
Of in het bijzonder Charlie Demerjian?
Nee die man ken ik niet, maak krijg wel een beetje het idee wat hij wil doen en wil berijken met zijn laat maar zitten want ik wil niet meer verder lezen


http://doazic.wordpress.c...ult-of-charlie-demerjian/
[ Voor 18% gewijzigd door Verwijderd op 22-11-2011 11:24 ]
Verwijderd schreef op dinsdag 22 november 2011 @ 11:20:
[...]
Op niets want er is nog geen conclusie te maken zonder echt nieuws van hoe en wat.
???Verwijderd schreef op dinsdag 22 november 2011 @ 10:16:
Hier zijn verder nog helemaal geen conclusies van mij ontkracht zoals van wanneer de high end van uit komt.
Haha, ja die gast heeft een hoop vijanden gemaaktVerwijderd schreef op dinsdag 22 november 2011 @ 11:20:
Nee die man ken ik niet, maak krijg wel een beetje het idee wat hij wil doen en wil berijken met zijn laat maar zitten want ik wil niet meer verder lezen![]()
![]()
![]()
http://doazic.wordpress.c...ult-of-charlie-demerjian/
Bij zijn laatste negatieve bericht over nVidia daalde het aandeel nVidia met 5%
Bron: http://blogs.marketwatch....-on-fears-of-tegra-delay/
Dus zeker wel iemand om rekening mee te houden, hij heeft al een hoop pijnlijke zaakjes aan het licht gebracht.
Verwijderd
Nvidia zou eigenlijk ook zo'n propaganda figuur moeten hebben. Of eigenlijk ook niet want vind het maar min.
[ Voor 35% gewijzigd door Verwijderd op 22-11-2011 11:37 ]
Hebben ze al meer dan genoeg..Verwijderd schreef op dinsdag 22 november 2011 @ 11:35:
zou eigenlijk ook zo'n propaganda figuur moeten hebben. Of eigenlijk ook niet want vind het maar min.
Ik zou Semiaccurate ook zeker geen propaganda noemen overigens, Charlie heeft vaak wel goede bronnen.
[ Voor 16% gewijzigd door Redblader op 22-11-2011 11:38 ]
Ontmoet: Fuad Abazovic a.k.a fudo van http://fudzilla.com/Verwijderd schreef op dinsdag 22 november 2011 @ 11:35:
Nvidia zou eigenlijk ook zo'n propaganda figuur moeten hebben.
Stiekem zou het wel gaaf zijn als Nvidia met een 670/680 op de proppen kan komen tegelijk met de 7950/7970 launch, maar toch verwacht ik het niet niemand het.
/speculatie
/speculatie
Verwijderd
Dan moeten ze die 2 gelijk een nekschot geven, echt als het mijn bedrijf was had ik er serieus wel een hitman op af gestuurdToettoetdaan schreef op dinsdag 22 november 2011 @ 11:38:
[...]
Ontmoet: Fuad Abazovic a.k.a fudo van http://fudzilla.com/
Ik ga dit soort mensen dus ook niet geloven en of als aanname gebruiken want dit soort personen passen totaal niet in mijn straat, ook al zullen ze af en toe gelijk hebben ik pas dit soort freaks
[ Voor 20% gewijzigd door Verwijderd op 22-11-2011 11:50 ]
Jongens, hoewel Ed hier iets over gezegd zie ik niet veel verandering!
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Er is ook nog niets geweest waar een bron bij moet worden vermelden?
Dan ik maar weer wat nieuws zoeken.
Dan ik maar weer wat nieuws zoeken.
Hoezo? Het is hier toch gezellig?XanderDrake schreef op dinsdag 22 november 2011 @ 11:50:
Jongens, hoewel Ed hier iets over gezegd zie ik niet veel verandering!
Bron: nieuws: Tweakers.net verkozen tot Beste Prijsvergelijker en Beste Community
Charlie is geen marketingman van wie dan ook. Over het algemeen stelt hij gewoon wat er zoal gebeurt. Bij nVidia doet hij dat doorgaans met een lading ironie, sarcasme en cynisme, voornamelijk omdat nVidia hemcals stroman wilde gebruiken voor marketing, waarbij hij wegens weigering door nVidia op de boycotlijst werd geplaatst.
Enfin, Charlies bronnen zijn doorgaans behoorlijk betrouwbaar gebleken, dus daar kun je hem niet op afrekenen. Als we dan in ogenschouw nemen dat het enige echte nieuws over Kepler over de KF107 gaat, dan mag je er redelijk van uit gaan dat het statement dat KF100 pas na samplereturn van eerstgenoemde zijn tape out zal zien, correct is. Een dergelijke tape out gaat namelijk niet gemakkelijk ongemerkt voorbij.
Gezien er geen enkele andere bron is aangaande tape out van KF100, laat staan sample testing, verwis ik graag terug naar mijn eerdere post waarin ik uitleg hoeveel tijd er gemoeit is met het van tape out naar product op de plank krijgen. Het lijkt mij een redelijk duidelijk verhaal met als basis de beste informatie de nu beschikbaar is
Enfin, Charlies bronnen zijn doorgaans behoorlijk betrouwbaar gebleken, dus daar kun je hem niet op afrekenen. Als we dan in ogenschouw nemen dat het enige echte nieuws over Kepler over de KF107 gaat, dan mag je er redelijk van uit gaan dat het statement dat KF100 pas na samplereturn van eerstgenoemde zijn tape out zal zien, correct is. Een dergelijke tape out gaat namelijk niet gemakkelijk ongemerkt voorbij.
Gezien er geen enkele andere bron is aangaande tape out van KF100, laat staan sample testing, verwis ik graag terug naar mijn eerdere post waarin ik uitleg hoeveel tijd er gemoeit is met het van tape out naar product op de plank krijgen. Het lijkt mij een redelijk duidelijk verhaal met als basis de beste informatie de nu beschikbaar is
Onze FP heeft het bericht ook nog eens overgenomen.Toettoetdaan schreef op dinsdag 22 november 2011 @ 11:15:
[...]
De bron van dit bericht is: *trommel geroffel*
http://semiaccurate.com/2...waps-gpu-suppliers-again/
Dus je vind dat SemiAccurate speculeert, maar toch is het nieuw... Ken je SemiAccurate als ik vragen mag?
Of in het bijzonder Charlie Demerjian?
'Apple gaat voor nieuwe Macbook Pro's terug naar Nvidia'
Sowieso een mooie overwinning indien dit waar blijkt te zijn maar in ieder geval zal dit naar alle waarschijnlijkheid de laatste dedicated gpu's in de macbooks worden.De geruchten (en logische conclusies) gaan al langer dat Apple sowieso ooit zijn optische drive uit de macbook wilt halen en deze dan een stuk dunner wil fabriceren, jaja net zoals de air
Eén van de obstakels tot nu toe is het verbruik en dus ook de warmte productie van de cpu + dedicated gpu.
Tot nu kon dit niet anders omdat Apple een krachtige gpu blijft noodzakelijk vinden. Maar doordat Intel beloofd heeft dat zijn volgende igp's na de ivy Bridge stukken krachtiger zullen zijn zit de kans er dus dik in indien Intel zijn claim waar kan maken dat Apple mooi overgaat op (Intel) IGP only. Ofwel de AMD Apu's.
Iets aan performantie inboeten voor een dunnere/minder warme laptop hebben we al eerder gezien (oa de laatse refresh ;p)
Maw, zelfs indien nVidia idd de slag 'wint' (indien zo weten we direct waarop men doelde toen men begon te stoeffen met de vele 'design wins') zal het maar voor een korte duur zijn.
Nu daarnaast hebben apple laptops toch een mooie marketaandeel hoewel diegene met dedicated gpu een stuk minder vertegenwoordigd zijn in de totale apple verkoop.
Hopelijk zegt, opnieuw als het klopt, iets over de verwachtingen/prestaties van de nieuwe mobiele chips wat wel weer eens mocht natuurlijk
Waarom zet ik zoveel keer 'indien, als het klopt, enz...' ?
Héél simpel de bron blijkt dezelfde persoon te zijn die eerder verkondigde dat Apple snel zou overstappen naar AMD APU's. Blijkbaar weet hij het zelf ook nog niet of het nu een intel cpu + nvidia dedicated, intel + intel igp of een AMD APU zal worden. En vermoedelijk weet Apple het logischerwijze momenteel ook nog steeds gewoonweg niet. (Simpel door het feit dat nog niemand hunne kristallen bol perfect staat afgesteld op het performantie kanaal van de komende AMD APU's, Intel IPG's of de mobiele gpu's van AMD en nVidia ..)
http://semiaccurate.com/2...-with-amd-processor-dead/lightdestroyer schreef op dinsdag 22 november 2011 @ 16:13:
Waarom zet ik zoveel keer 'indien, als het klopt, enz...' ?
Héél simpel de bron blijkt dezelfde persoon te zijn die eerder verkondigde dat Apple snel zou overstappen naar AMD APU's. Blijkbaar weet hij het zelf ook nog niet of het nu een intel cpu + nvidia dedicated, intel + intel igp of een AMD APU zal worden. En vermoedelijk weet Apple het logischerwijze momenteel ook nog steeds gewoonweg niet. (Simpel door het feit dat nog niemand hunne kristallen bol perfect staat afgesteld op het performantie kanaal van de komende AMD APU's, Intel IPG's of de mobiele gpu's van AMD en nVidia ..)
In one of those ‘could have been a contender’ moments, SemiAccurate has learned that Apple (NASDAQ:AAPL) had a Llano based MacBook Air on the verge of production. That was canceled last spring or so, but it was really really close to production.
Het is hier veel te gezellig 
Het ARM/CPU gedeelten van Tegra 3 is generiek m.a.w. voor iedereen beschikbaar die het kan betalen en en bijna niemand op enkele uitzonderingen daargelaten past de architectuur aan.
Videochip Tegra 3 langzamer dan Apple A5-chip?
Samsung quad-core Exynos sneller dan Tegra 3
Op het gebied waar dat ding moet uitblinken(grafisch) gaat hij vet hard op zijn bek.Het ARM/CPU gedeelten van Tegra 3 is generiek m.a.w. voor iedereen beschikbaar die het kan betalen en en bijna niemand op enkele uitzonderingen daargelaten past de architectuur aan.
[ Voor 13% gewijzigd door madmaxnl op 22-11-2011 18:29 ]
LOLOLOLOLOLVerwijderd schreef op dinsdag 22 november 2011 @ 11:20:
[...]
Op niets want er is nog geen conclusie te maken zonder echt nieuws van hoe en wat.
Nee die man ken ik niet, maak krijg wel een beetje het idee wat hij wil doen en wil berijken met zijn laat maar zitten want ik wil niet meer verder lezen![]()
![]()
![]()
http://doazic.wordpress.c...ult-of-charlie-demerjian/
"Even with my limited knowledge of screws. It takes 2 seconds of Googling to show that the screws used in the prototype are machine screws not wood screws. More worrying still is asking what kind of person takes this much offense at screws on a prototype."
Nee, die kerel is zeker goed wijs

nVidia focus group ftw.
De persoon in jou blog zegt min of meer dat Charlie indirect zo niet direct gesteund wordt door AMD d.m.v. reclames etc. En dat hij daarom anti-nVidia is. Dit is raar want in 2007 deed hij al gewoon verslag van nVidia wan praktijken: G80 debacle. Hij werkte dus voor the INQUIRER. Daar is hij weg gestuurd omdat hij geen blad voor de mond nam m.b.t. nieuw omtrent bijvoorbeeld nVidia. Hij heeft waarschijnlijk gedacht dat nVidia the INQUIRER geld of zo heeft gegeven om hem eruit te werken en sinds dien is zijn haat voor nVidia alleen maar gegroeid(speculatief).
Hij is dus voor zichzelf begonnen en dat is hem enorm goed gelukt want zijn site SemiAccurate loopt goed. Ondanks dit alles is Charlie iemand die genoeg contacten met de industrie heeft. Of hij is wel heel erg goed in scenario's beschrijven die achteraf ook nog eens blijken te kloppen.
[ Voor 37% gewijzigd door madmaxnl op 22-11-2011 19:15 ]
Jemig wat een slecht product is die Tegra 3. Oh wacht, wat staat daar?
Op deze website zit blijkbaar iemand als Madmax maar die dan redelijk voor Nvidia is, de grapjes. Heeft ie een grafiek waarin ie flash-performance vergelijkt tussen de Tegra 3 en de Apple A5
Zo te zien is de Tegra 3 wel 1000x keer beter.
Oh, dus het zou best eens de andere kant op kunnen gaan. En het is de enige quad-core voor de komende maanden en er zijn ook benchmarks waarin de Tegra 3 de vloer aanveegt met Apple.Fudzilla vernam van haar bronnen dat de GLBenchmark sterk is geoptimaliseerd voor iOS en dat de 'final hardware' van de Tegra 3 betere prestaties zal leveren.
Op deze website zit blijkbaar iemand als Madmax maar die dan redelijk voor Nvidia is, de grapjes. Heeft ie een grafiek waarin ie flash-performance vergelijkt tussen de Tegra 3 en de Apple A5
[ Voor 3% gewijzigd door Max Hunt op 22-11-2011 20:02 ]
Cool1!!!1, iemand zoals ik...
[ Voor 8% gewijzigd door madmaxnl op 22-11-2011 22:26 ]
Sinds wanneer draait flash op Apple producten?Max Hunt schreef op dinsdag 22 november 2011 @ 20:02:
Op deze website zit blijkbaar iemand als Madmax maar die dan redelijk voor Nvidia is, de grapjes. Heeft ie een grafiek waarin ie flash-performance vergelijkt tussen de Tegra 3 en de Apple A5Zo te zien is de Tegra 3 wel 1000x keer beter.

Je hebt het hier wel over iemand zoals ik, mensen zoals ik kunnen alles.spNk schreef op dinsdag 22 november 2011 @ 22:17:
[...]
Sinds wanneer draait flash op Apple producten?
ik snap niet helemaal waarom apple voor nvidia gaat. Ik heb meer verstand van desktop gpu's maar zover ik weet als ze laptops dunner en koeler winnen maken zijn ze beter af met chips met een lagere tdp en zo ver ik weet levert AMD meer prestaties per W.
Op de kleinste chips maakt het elkaar niet zo heel erg veel. Dan komt het er al gauw op neer wat een bedrijf kan bieden (denk aan grote kortingen bijvoorbeeld). NVidia kon een dergelijke win wel gebruiken en als ze daar een dollar per chip (random genomen bedrag) voor moeten inleveren, doen ze dat waarschijnlijk graag.
Verwijderd
De iPhone heeft een krachtige gpu, feit blijft echter dat die dingen veels te duur zijn voor wat je krijgt.
Als er een definitieve smartphone uitkomt met tegra3 mogen ze met benchmarks komen, lijkt mij veel eerlijker dan vergelijkingen maken met prototypes.
Als er een definitieve smartphone uitkomt met tegra3 mogen ze met benchmarks komen, lijkt mij veel eerlijker dan vergelijkingen maken met prototypes.
Verwijderd
Omdat jij dat vindt is het nog geen feit, maar een mening. En wat als het prototype zou winnen van de GPU vanVerwijderd schreef op woensdag 23 november 2011 @ 00:32:
De iPhone heeft een krachtige gpu, feit blijft echter dat die dingen veels te duur zijn voor wat je krijgt.
Als er een definitieve smartphone uitkomt met tegra3 mogen ze met benchmarks komen, lijkt mij veel eerlijker dan vergelijkingen maken met prototypes.
de A5? Dan was het zeker wel eerlijk geweest, ja toch
Dat lijkt me stug, al weet je het natuurlijk nooit zeker. Feit is echter, dat cuda een directe concurrent is van Apples eigen OpenCL. Als het aan Apple licht is OpenCL de standaard die Cuda de markt uit drukt.Verwijderd schreef op woensdag 23 november 2011 @ 08:55:
Zal wel iets van cuda achtr zitten waarom appel nvidia wil hebben.
Misschien gewoon een betere deal, of een beter/ ander toekomstperspectief tov AMD?
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Sorry maar cuda word echt niet de markt uit gedrukt als het beter werkt of in ieder geval goed genoeg werkt.dahakon schreef op woensdag 23 november 2011 @ 09:34:
[...]
Dat lijkt me stug, al weet je het natuurlijk nooit zeker. Feit is echter, dat cuda een directe concurrent is van Apples eigen OpenCL. Als het aan Apple licht is OpenCL de standaard die Cuda de markt uit drukt.
Andersom zal eerder het geval zijn want zie http://www.streamcomputin...l-vs-cuda-misconceptions/
[ Voor 16% gewijzigd door Verwijderd op 23-11-2011 11:22 ]
Hoe haal jij uit die post dat OpenCL eerder zal verdwijnen dan CUDA - hij geeft toch duidelijk aan dat CUDA lang niet zo populair is als men denkt en dat het bij OpenCL vooral schort aan driver support (we zitten inmiddels 5 maanden verder, OpenCL 1.2)? Ik volg je logica niet echt.
Feit is dat Apple al veel via OpenCL doet binnen OS X. Een overstap naar CUDA is niet logisch, want dan zouden ze een hoop van hun "oude" userbase dwars zitten. Aan de andere kant doen ze er niet genoeg mee om CUDA de doorslag te laten geven; sterker nog, als Apple weer NVIDIA chips gaat gebruiken en er iets verandert, is het dat NVIDIA eindelijk wat moeite in OpenCL stopt.
CUDA is leuk, maar het wordt echt bijna nergens gebruikt - in veel gevallen is het ook nog meer een proof-of-concept dan een serieus alternatief voor "traditionele" manieren van werken. De reden mag duidelijk zijn, het werkt op slechts een enkele GPU fabrikant; en dan niet eens hun hele range. Zowel OpenCL als DirectCompute bieden een veel beter toekomst perspectief, maar zolang NVIDIA stijfkoppig aan CUDA blijft hangen zullen ook die twee nooit echt van de grond komen. Resultaat? Wij blijven met halve standaarden zitten die geen hond gebruikt. Even afgezien dat gewoon niet alles kan met CUDA/OpenCL/DirectCompute.
Feit is dat Apple al veel via OpenCL doet binnen OS X. Een overstap naar CUDA is niet logisch, want dan zouden ze een hoop van hun "oude" userbase dwars zitten. Aan de andere kant doen ze er niet genoeg mee om CUDA de doorslag te laten geven; sterker nog, als Apple weer NVIDIA chips gaat gebruiken en er iets verandert, is het dat NVIDIA eindelijk wat moeite in OpenCL stopt.
CUDA is leuk, maar het wordt echt bijna nergens gebruikt - in veel gevallen is het ook nog meer een proof-of-concept dan een serieus alternatief voor "traditionele" manieren van werken. De reden mag duidelijk zijn, het werkt op slechts een enkele GPU fabrikant; en dan niet eens hun hele range. Zowel OpenCL als DirectCompute bieden een veel beter toekomst perspectief, maar zolang NVIDIA stijfkoppig aan CUDA blijft hangen zullen ook die twee nooit echt van de grond komen. Resultaat? Wij blijven met halve standaarden zitten die geen hond gebruikt. Even afgezien dat gewoon niet alles kan met CUDA/OpenCL/DirectCompute.
Verwijderd
Oké thnx voor de uitleg. Ik dacht dat andersom het geval zal zijn omdat het iets beter werkt maar ik wist verder niet dat het weinig gebruikt word. Ik snap dus niet waarom appel dan naar toe wilt gaan, tenzij zoals jij al aangeeft dat OpenCL door nvidia beter word toegepast of iets in die zin?
[ Voor 20% gewijzigd door Verwijderd op 23-11-2011 12:18 ]
Dit is juist niet omdat Nvidia nu dus liever CUDA promote dan dat ze geld stoppen in OpenCL prestaties.Verwijderd schreef op woensdag 23 november 2011 @ 12:16:
Oké thnx voor de uitleg. Ik dacht dat andersom het geval zal zijn omdat het iets beter werkt maar ik wist verder niet dat het weinig gebruikt word. Ik snap dus niet waarom appel dan naar toe wilt gaan, tenzij zoals jij al aangeeft dat OpenCL door nvidia beter word toegepast of iets in die zin?
Werelds bedoelt dus ook dat als Apple weer Nvidia gaat gebruiken dat Nvidia misschien eindelijk wat meer moeite in OpenCL prestaties gaat stoppen.
Dat kan om heel veel redenen zijn, apple maakt van iedere product een aantal varianten in het ontwikkel proces.Verwijderd schreef op woensdag 23 november 2011 @ 12:16:
Oké thnx voor de uitleg. Ik dacht dat andersom het geval zal zijn omdat het iets beter werkt maar ik wist verder niet dat het weinig gebruikt word. Ik snap dus niet waarom appel dan naar nvidia toe wilt gaan.
Uiteindelijk brengen ze alleen de beste uit.
En dat beste is niet altijd performance of verbruik, maar ook leverbaarheid en kosten.
Dan nog kan het zijn dat bijde bedrijven niet tot een zakelijke afspraak komen, dan gaan ze gewoon naar de andere leverancier. Zo denk Charlie dat het komt omdat de Llano deal met AMD niet is door gegaan.
Maar goed misschien horen we ooit nog eens de echte reden.
Wat betreft CUDA. nVidia komt met openacc wat naar mij idee meer gebruikers naar CUDA moet trekken:
http://semiaccurate.com/2011/11/15/nvidias-openacc-standard/
Als nVidia ergens voor bekend staat dan is het wel het feit dat ze op zo'n deals altijd winst (willen) en zullen maken en deze winst zo nodig gaan maximaliseren ten koste van de fabrikant van het uiteindelijke apparaat. Vraag dat maar eens aan de console makersdahakon schreef op dinsdag 22 november 2011 @ 22:54:
Op de kleinste chips maakt het elkaar niet zo heel erg veel. Dan komt het er al gauw op neer wat een bedrijf kan bieden (denk aan grote kortingen bijvoorbeeld). NVidia kon een dergelijke win wel gebruiken en als ze daar een dollar per chip (random genomen bedrag) voor moeten inleveren, doen ze dat waarschijnlijk graag.
Dat heeft hun natuurlijk op lange termijn nogal wat design wins gekost op console vlak ..
Anyway zelf het voordeel van grotere productiecapaciteiten zou zelfs grotendeels kunnen vervallen door de in de toekomste gevreesde tekort aan productiecapiciteit (juist ook dankzij Apple ironisch genoeg ..).
Hier door kan je met een gerust gemoed er vanuit gaan dat nVidia voor zo'n 'win' er echt geen dollars per chip zal voor inleveren. (Maar mss wel additionele software/integratie support wil leveren)
Ik doelde meer op de zekere stelling die hij hiervoor leverde als een al bijna vaststaand feit. De APU's waren maar een gerucht zoals de nVidia chips in de nieuwe macbooks maar een gerucht zijn. Nu een titel met "in de volgende macbook kan er eventueel een nVidia /apu zitten" bekt nu eenmaal veel minder
Met andere blijven met 2 woorden spreken, niets ligt vast tot het product design definitief vast ligt.
Het creëren van prototypes om te kijken wat de mogelijke alternatieven zijn is gelijk maar logisch voor een groot bedrijf zoals Apple , te meer zij enorm afhankelijk zijn van 1 productlijn.
Andere OEM's komen gewoon met meerdere mogelijkheden af en laten de consument min of meer beslissen wat hun meest verkochte reeksen zullen zijn. Apple moet dit veel meer op voorrand plannen en vastleggen. Zij gaan daarbij echt niet over 1 nacht ijs hoor.
Het zou me echt niet verbazen dat de uiteindelijke besluiten pas nipt voor de massaproductie genomen worden. Maw zeker nu nog niet
PS op de OpenCL/CUDA discussie hier ... nVidia's driver support van OpenCL is minstens even goed dan AMD's support. Maw je bent niet verplicht CUDA te gebruiken omdat je een nVidia kaart hebt hoor. Het programmeerde vroeger gewoon een stuk beter dankzij de betere software ondersteuning.
Als er toch een optie reden is waarin nVidia "beter" zou zijn dan AMD dan zou het vooral de hybrid Optimus oplussing kunnen zijn die Apple terug wilt. let op zou want Apple was er blijkbaar (weer volgens onze zelfde bron .. XD) niet zo heel tevreden over. "To much hassle". Zoiets zal veel meer de doorslag gaan geven dan eventuele CUDA die Apple sowieso niet gaat gebruiken, hun intel igp's ondersteunen dit nu éénmaal niet, waarom 2 codebases maken als OpenCL toch uw eigen standaard is en perfect blijft draaien en je hierdoor succesvol bij de volgende generatie weer kan overstappen naar intel/AMD/nVidia en wie weet ooit naar hun eigen gpu' chipset
Zijn er recent nieuwe OpenCL dingen vanuit NVIDIA gekomen dan? Laatste keer dat ik er mee speelde was dat toch echt bar slecht hoor. Heb al een hele tijd niks met OpenCL gedaan verder dus ik weet ook niet wat er bij AMD veranderd is, maar het zat een half jaartje geleden toch stukken beter in elkaar bij AMDlightdestroyer schreef op woensdag 23 november 2011 @ 14:03:
PS op de OpenCL/CUDA discussie hier ... nVidia's driver support van OpenCL is minstens even goed dan AMD's support. Maw je bent niet verplicht CUDA te gebruiken omdat je een nVidia kaart hebt hoor. Het programmeerde vroeger gewoon een stuk beter dankzij de betere software ondersteuning.
Edit: heb het overigens niet direct over driver support, maar support in z'n geheel. Er zitten overal haken en ogen aan OpenCL en CUDA, maar bij AMD was daar meestal makkelijker iets op te vinden.
[ Voor 12% gewijzigd door Werelds op 23-11-2011 14:32 ]
Apple staat anders ook niet bepaald bekend om het aangaan van goedbetaalde contracten. Ik zou zelfs durven zeggen dat Apple nog een stuk verder gaat. Tel daarbij op dat Apple de klant is (als jullie niet lager gaan, gaan we naar de concurrent) en nVidia de laatste jaren nogal wat marktaandeel verloren is de het graag terug wint en het is niet vreemd als ze laag (dat betekent nog niet dat ze geen winst zouden maken) ingezet hebben om de wins te krijgen.
Er spelen natuurlijk ook andere zaken, zoals belofte dat ze een bepaalde hoeveelheid kunnen leveren. Als het om 28nm chips gaat kon het nog wel eens een lastige klus worden voor nVidia alswel AMD. Temeer als je het gerucht dat nVidia 28nm capaciteit terug gegeven heeft aan TSMC.
NVidia komt straks ook nog met een 600m lijn die dezelfde basis heeft als de 500m lijn. Wellicht is het een van die warenhuizen met 500m voorraad die spontaan in een warenhuis met 600m voorraad is veranderd. Het zou niet de eerste keer zijn en het zou nVidia mogenlijk voldoende voorraad geven om Apple te voorzien van chips.
Er spelen natuurlijk ook andere zaken, zoals belofte dat ze een bepaalde hoeveelheid kunnen leveren. Als het om 28nm chips gaat kon het nog wel eens een lastige klus worden voor nVidia alswel AMD. Temeer als je het gerucht dat nVidia 28nm capaciteit terug gegeven heeft aan TSMC.
NVidia komt straks ook nog met een 600m lijn die dezelfde basis heeft als de 500m lijn. Wellicht is het een van die warenhuizen met 500m voorraad die spontaan in een warenhuis met 600m voorraad is veranderd. Het zou niet de eerste keer zijn en het zou nVidia mogenlijk voldoende voorraad geven om Apple te voorzien van chips.
[ Voor 15% gewijzigd door dahakon op 23-11-2011 15:30 . Reden: bloody touchscreens van smartphones zijn (zelfs met 4.3") te klein :) ]
nVidia is allang niet meer zoals vroegâh, ze zullen nu met minder genoegen moeten nemen.
Kijk voor de lol eens naar de GT520M en de GT540M en de daarbij behorende die sizes, verbruik en prestatie. AMD doet het op dat gebied beter, maar AMD wil waarschijnlijk ook nog wat willen verdienen. nVidia blijkbaar niet of minder.
Kijk voor de lol eens naar de GT520M en de GT540M en de daarbij behorende die sizes, verbruik en prestatie. AMD doet het op dat gebied beter, maar AMD wil waarschijnlijk ook nog wat willen verdienen. nVidia blijkbaar niet of minder.
Verwijderd
Hier boven het zijn nog speculaties als het gaat om de 600M series, het is nog niet helemaal duidelijk of het om een kepler gaat of om een rebrand met alleen een die shrink. Nvidia gaat met deze nieuwe 600m vast wel wat verdienen gezien er geen concurent is op dat moment. Nvidia laptop gpu's kennen verder in het verleden zijn problemen maar oon daar na worden ze met bakken verkocht, Volgens mij domineert nvidia deze markt ook?
Ik weet niet of de Galaxy GeForce GTX 580 with Multi-Display Support l langs is geweest.
Beetje oud nieuws maar wel leuk nieuws voor de geintereseerden want niet iedereen vind mijn nieuws goed genoeg maar dat is niet mijn probleem
.
Al moet ik wel zeggen dat 1 vga kaart van dit caliber niet voldoende is voor 3 monitoren om daar op games
(shooters) voluit te kunnen draaien met voldoende fps.
http://www.techpowerup.co...lay-Support-Pictured.html
Ik weet niet of de Galaxy GeForce GTX 580 with Multi-Display Support l langs is geweest.
Beetje oud nieuws maar wel leuk nieuws voor de geintereseerden want niet iedereen vind mijn nieuws goed genoeg maar dat is niet mijn probleem
Al moet ik wel zeggen dat 1 vga kaart van dit caliber niet voldoende is voor 3 monitoren om daar op games
(shooters) voluit te kunnen draaien met voldoende fps.
http://www.techpowerup.co...lay-Support-Pictured.html
De magie van deze kaart zit hem natuurlijk niet in de koeler, maar in de technologie op de printplaat. De speciale VMM 1400 controllerchip van IDT stelt de gebruiker namelijk in staat om drie monitoren aan te sturen via één interne DisplayPort aansluiting op de GPU. De chip voegt de resoluties van de drie schermen aan de mini-HDMI uitgangen samen, zodat er één grote resolutie ontstaan van bijvoorbeeld 5760x1080 (3x Full HD). De videokaartdrivers denken dus dat er één grote monitor aangesloten is, terwijl het er in feite drie zijn (twee kan natuurlijk ook). Daarnaast zit er nog een aparte DisplayPort aansluiting op de videokaart die direct op de GPU is aangesloten. Deze kan dus ook nog gebruikt worden als er drie monitoren aan de mini-HDMI uitgangen zitten.
Met de meegeleverde EZY display setting software kunnen gebruikers de aangesloten schermen configureren voor een multi-monitor opstelling. De GTX 580 heeft in elk geval de rekenkracht die nodig is om games in 5760x1080 resolutie aan te kunnen sturen, maar voor de nieuwste games zal men dan toch een tweede videokaart nodig hebben voor SLI. In dat geval kunnen gamers weer terugvallen op nVidia's eigen 'Surround' technologie, waarmee het voordeel van Galaxy wegvalt


[ Voor 9% gewijzigd door Verwijderd op 24-11-2011 08:16 ]
MSI N580GTX twin frozr kost nog maar 350 euro?
Bij 2 winkels zelfs, dus een prijs fout lijkt me onwaarschijnlijk.
http://tweakers.net/price...ozr-ii-oc.html#tab:prices
Bij 2 winkels zelfs, dus een prijs fout lijkt me onwaarschijnlijk.
http://tweakers.net/price...ozr-ii-oc.html#tab:prices
Verwijderd
Klopt de gtx kaarten zouden qua prijs gaan dalen, nvidia moet er ook vanaf want er moet ruimte komen voor
nieuwere kaarten. Dit stond laatst hiero ook geloof ik ergens in het nieuws.
nieuwere kaarten. Dit stond laatst hiero ook geloof ik ergens in het nieuws.
[ Voor 42% gewijzigd door Verwijderd op 24-11-2011 10:46 ]
Het is één en dezelfde winkel en nee er zijn geen prijsdalingen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Over een week of 3 a 4 komt de HD7000 dus het feest zal wel zo'n beetje beginnen! Ook qua prijzen voor oude meuk. 
Ik denk idd net zoals hierboven staat dat het een foutje is. Echter levers Salland vaak wel bij dit soort dingen, dus sla je slag!
Ik denk idd net zoals hierboven staat dat het een foutje is. Echter levers Salland vaak wel bij dit soort dingen, dus sla je slag!
[ Voor 36% gewijzigd door Format-C op 24-11-2011 10:32 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Oke dan klopte dat nieuws dus niet over de gtx en prijsdalingen.-The_Mask- schreef op donderdag 24 november 2011 @ 10:31:
Het is één en dezelfde winkel en nee er zijn geen prijsdalingen.
Ik baal er van dat ik nog power genoeg heb anders was het misschien een hd7970 geworden als de gtx680 of gtx780 niet sneller is achter af. Dit eigenlijk omdat ik van sli en cf af wil.Format-C schreef op donderdag 24 november 2011 @ 10:31:
Over een week of 3 a 4 komt de HD7000 dus het feest zal wel zo'n beetje beginnen! Ook qua prijzen voor oude meuk.
Ik denk idd net zoals hierboven staat dat het een foutje is. Echter levers Salland vaak wel bij dit soort dingen, dus sla je slag!
[ Voor 52% gewijzigd door Verwijderd op 24-11-2011 10:52 ]
Verwijderd
Typisch voorbeeld van gekoppelde prijzen met de toeleverancier, waar nu dus zeer waarschijnlijk een foutje is gemaakt.WilliamP schreef op donderdag 24 november 2011 @ 09:05:
MSI N580GTX twin frozr kost nog maar 350 euro?
Bij 2 winkels zelfs, dus een prijs fout lijkt me onwaarschijnlijk.
http://tweakers.net/price...ozr-ii-oc.html#tab:prices
De opvolger van de GTX580 zal zeer waarschijnlijk sneller zijn. Net zoals de GTX480 ook de snellere kaart was. De vraag is tegen welke prijs. Hij komt later, dus ze hebben genoeg tijd voor verbeteringen mbt drivers, hogere clocks etc om sneller te zijn. De vraag is hoeveel langer je uiteindelijk moet wachten en hoe het met verbruik, prijs en warmte zit.Verwijderd schreef op donderdag 24 november 2011 @ 10:46:
Ik baal er van dat ik nog power genoeg heb anders was het misschien een hd7970 geworden als de gtx680 of gtx780 niet sneller is achter af. Dit eigenlijk omdat ik van sli en cf af wil.
Al met al is het altijd zo dat als je een kaart koopt met een nieuwe architectuur, je weer een dik jaar vooruit kan. Misschien wel 2. En nV en AMD ontlopen elkaar uiteindelijk niet zoveel.
De GTX5x0 en HD6x00 hebben we nu wel gezien dacht ik. Dat zijn allemaal deriviaten van kaarten van bijna 2 jaar oud. (GTX4x0 en HD5x00) En qua rauwe performance zijn we na de release van de GTX4x0 en HD5x00 niet echt veel meer vooruit gegaan. Alleen een paar procent performance, en wat energie besparing.
De GTX5x0 en HD6x00 hebben we nu wel gezien dacht ik. Dat zijn allemaal deriviaten van kaarten van bijna 2 jaar oud. (GTX4x0 en HD5x00) En qua rauwe performance zijn we na de release van de GTX4x0 en HD5x00 niet echt veel meer vooruit gegaan. Alleen een paar procent performance, en wat energie besparing.
[ Voor 20% gewijzigd door Format-C op 24-11-2011 13:08 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Verwijderd
Verbruik en prijs interesseren mij niet zo heel veel. Als de warmte zoals de gtx580 word dan knijp ik mijn handen dicht want die doet het zeer goed wat warmte betreft als je ziet ook hoeveel verbruik hij heeft, 2 hier van gaan wel 3 jaartjes mee lijkt mij maar dit wil ik in een kaart zien die 3 jaar mee kan gaan voor mij persoonlijk.Paprika schreef op donderdag 24 november 2011 @ 12:59:
[...]
De opvolger van de GTX580 zal zeer waarschijnlijk sneller zijn. Net zoals de GTX480 ook de snellere kaart was. De vraag is tegen welke prijs. Hij komt later, dus ze hebben genoeg tijd voor verbeteringen mbt drivers, hogere clocks etc om sneller te zijn. De vraag is hoeveel langer je uiteindelijk moet wachten en hoe het met verbruik, prijs en warmte zit.
Als nvidia doet wat hij zegt dan zit verbruik en warmte wel goed. Als dat ding meer dan 500 euro gaat kosten moet ik eerst goed na gaan denken. Boven de 750 euro koop ik hem niet. Ook ga ik deze keer wachten tot de kaarten wat goedkoper zijn geworden want hoe het er nu uit ziet hoef ik eigenlijk nog niet aan een andere kaart te denken.
[ Voor 14% gewijzigd door Verwijderd op 24-11-2011 13:28 ]
De GTX580 is dan ook de GTX480 die in 2009 had moeten komen. Dat ie een heel jaar te laat kwam (de kaart had er in november 2009 al moeten zijn, niet in november 2010 met een "beta" versie (GTX48) in maart 2010) zorgde daar (daar = de punten die jij noemt) alleen maar voor. In dat geval zou je dan (mocht die situatie zich herhalen, wat vast niet zo zal zijn) pas in maart 2013 een GTX680, met de naam GTX780, kunnen kopen.
Iets beter gebruik van interpunctie was wel handig geweest. Het kost moeite om de zinnen uit elkaar te houden.
Iets beter gebruik van interpunctie was wel handig geweest. Het kost moeite om de zinnen uit elkaar te houden.
[ Voor 6% gewijzigd door Paprika op 24-11-2011 13:51 ]
Het ziet er naar uit dat de nVidia GTX 560 Ti core 448 uit de wereld van de geruchten stapt en in de realiteit terecht is gekomen. De retail box met een plaatje van de kaart zelf is op komen drijven.
http://www.fudzilla.com/g...-448-poses-for-the-camera

Aan de buitenkant lijkt het meer een 560 en aan de binnenkant een 570. Maar dat wisten we al
http://www.fudzilla.com/g...-448-poses-for-the-camera

Aan de buitenkant lijkt het meer een 560 en aan de binnenkant een 570. Maar dat wisten we al
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
De naamgeving blijft gewoon idioot!
Ben benieuwd hoe ze 'm gaan plaatsen qua prijs en wat het met de prijs van de huidige GTX560 Ti en GTX570 doet...

Ben benieuwd hoe ze 'm gaan plaatsen qua prijs en wat het met de prijs van de huidige GTX560 Ti en GTX570 doet...
Je kan zeggen wat je wilt, maar je weet wel precies wat je krijgt hehe
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Verwijderd
Heb je hier ook een bron van? Dat de 580 sneller is dan z'n AMD concurrent wil niet zeggen dat dat bij de volgende generatie ook zo is.Paprika schreef op donderdag 24 november 2011 @ 12:59:
[...]
De opvolger van de GTX580 zal zeer waarschijnlijk sneller zijn. Net zoals de GTX480 ook de snellere kaart was.
[ Voor 28% gewijzigd door Verwijderd op 24-11-2011 17:54 ]
Het lijkt me dat vipeax bedoelt dat nVidia geen nieuwe topkaart zal lanceren, die trager is dan de GTX580.
Staat er toch:

Als je even van dit plaatje uitgaat (inmiddels alweer bijna een jaar terug, dus huidige drivers kunnen het beeld een beetje anders laten uitzien, maar globaal klopt het wel), dan lijkt het me duidelijk dat nVidia minder hoeft te verbeteren om bij een 200% 6970 te komen dan AMD. Als je dan ook nog later komt met je nieuwe serie (note: het verwachtte verschil van nu zou best nog eens kunnen uitlopen en een tweede GTX480 vs 5-serie "tijdperk" herhalen) zal je #1 prioriteit zijn om sneller te zijn dan de top kaart van de andere speler. Als dat er uiteindelijk voor zorgt dat je een kaart hebt die je eigenlijk ook alleen maar verkoopt als je iemand hebt die alles behalve de FPS op zijn beeld niet belangrijk vindt (hitte, warmte, verbruik aka GTX480) dan is het maar zo, je hebt dan toch je Halo effect bereikt.
En dit betekend niet dat iedereen moet gaan wachten op nVidia (heck, 7970 wordt toch mijn volgende kaart, no matter what
), het is maar een scenario met de grootste verwachting als je alles op een rijtje zet.
Tenzij hun nieuwe ontwerp een gigantische flop is en de 7-serie (7970) van AMD een verbetering van precies 100% (dus 200% van een 6970 eigenlijk) bevat is de kans nogal gering dat hij niet sneller is...Paprika schreef op donderdag 24 november 2011 @ 12:59:
[...]
De opvolger van de GTX580 zal zeer waarschijnlijk sneller zijn. Net zoals de GTX480 ook de snellere kaart was. De vraag is tegen welke prijs. Hij komt later, dus ze hebben genoeg tijd voor verbeteringen mbt drivers, hogere clocks etc om sneller te zijn. De vraag is hoeveel langer je uiteindelijk moet wachten en hoe het met verbruik, prijs en warmte zit.

Als je even van dit plaatje uitgaat (inmiddels alweer bijna een jaar terug, dus huidige drivers kunnen het beeld een beetje anders laten uitzien, maar globaal klopt het wel), dan lijkt het me duidelijk dat nVidia minder hoeft te verbeteren om bij een 200% 6970 te komen dan AMD. Als je dan ook nog later komt met je nieuwe serie (note: het verwachtte verschil van nu zou best nog eens kunnen uitlopen en een tweede GTX480 vs 5-serie "tijdperk" herhalen) zal je #1 prioriteit zijn om sneller te zijn dan de top kaart van de andere speler. Als dat er uiteindelijk voor zorgt dat je een kaart hebt die je eigenlijk ook alleen maar verkoopt als je iemand hebt die alles behalve de FPS op zijn beeld niet belangrijk vindt (hitte, warmte, verbruik aka GTX480) dan is het maar zo, je hebt dan toch je Halo effect bereikt.
En dit betekend niet dat iedereen moet gaan wachten op nVidia (heck, 7970 wordt toch mijn volgende kaart, no matter what
[ Voor 6% gewijzigd door Paprika op 24-11-2011 18:40 ]
@XanderDrake, ik denk dat meneer Cartman in de comments daaro wel eens heel goed gelijk kan hebben...
Gewoon een smerige rebrand?The card is LIMITED EDITION, and its 320 memory bus and 1280 mb of memory id bet they have a lot of GTX 470 that nobody wanna buy, so they just put GTX 560Ti sticker and look a new great card...
Dat zou inderdaad gewoon kunnen de specs komen goed overeen met de GTX 470, misschien dat ze als enige verschil dus hogere kloksnelheden kunnen draaien omdat het 40nm proces nu goed werkt en het energieverbruik dus redelijk normaal blijft?spNk schreef op donderdag 24 november 2011 @ 18:35:
@XanderDrake, ik denk dat meneer Cartman in de comments daaro wel eens heel goed gelijk kan hebben...
[...]
Gewoon een smerige rebrand?
Anders zal deze kaart ook wel een heel stuk meer gaan verbruiken dan een normale GTX 560 Ti.
Edit: Als het echt een GTX 470 rebrand is dan moeten de kloksnelheden wel een stuk hoger want anders is deze kaart dus niet sneller dan een GTX 560 Ti.
[ Voor 19% gewijzigd door Redblader op 24-11-2011 18:49 ]
Voor mij is het simpel. Presteert deze kaart meer richting de GTX 570 dan 560 Ti , heeft het thermals die minder zijn dan de GTX 570 (wat volgens mij niet kan als het een GTX 470 rebrand is), en de prijs ligt rond de 200€?spNk schreef op donderdag 24 november 2011 @ 18:35:
Gewoon een smerige rebrand?
Smerige rebrand, nieuwe kaart of Holy Handgranate, dan maakt het me niet uit wat het is.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
We kunnen straks bij de reviews wel aan het stroomverbruik zien of het een rebrand is.
Edit; ik denk dat ie 250 gaat kosten:
GTX560Ti: 200
GTX560Ti c448: 250
GTX570: 300
GTX580: 440
Edit; ik denk dat ie 250 gaat kosten:
GTX560Ti: 200
GTX560Ti c448: 250
GTX570: 300
GTX580: 440
[ Voor 39% gewijzigd door Format-C op 24-11-2011 20:02 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Totdat je hem koopt om in SLI te plaatsen met je andere GTX560...XanderDrake schreef op donderdag 24 november 2011 @ 19:36:
Smerige rebrand, nieuwe kaart of Holy Handgranate, dan maakt het me niet uit wat het is.
Dat zou sowieso niet werken, bij Nvidia moet je sowieso al precies dezelfde GPU hebben als ik het me goed herinner.dahakon schreef op donderdag 24 november 2011 @ 20:09:
[...]
Totdat je hem koopt om in SLI te plaatsen met je andere GTX560...
Bij AMD kan je bijvoorbeeld een 5850+5870 crossfire opstelling hebben maar bij Nvidia zal bijv. een GTX570+GTX580 niet samen werken hoewel het toch dezelfde chip is waar bij de GTX 570 wat meer dingen uitgeschakeld zijn.
[ Voor 13% gewijzigd door Redblader op 24-11-2011 20:26 ]
En wat is het "probleem" nu? Iedereen met een beetje basic knowledge weet dat je geen kaarten van nV met verschillende GPU's in SLi kan zetten...
Edit; ik denk dat dit al een beetje een vroegtijdig/ angstig antwoord is op de HD7800 serie (die volgende maand komt?).
Als AMD daarmee komt, en deze kaartjes zijn net zo snel als een HD6970 voor zo'n 200 euries met minder stroomverbruik, dan zal nV er toch iets "competitiefs" tegenover moeten (proberen te) zetten?
In wezen is alles wat ze (nV) nu releasen zinloos imho. AMD is ze een grote stap voor. En daar kunnen ze niks aan doen. Het enige wat ze eventueel hebben, is een week of 4 tot 6 de "crown" in het 200-250 segment. Daarna ist weer AMD.
Dan is het AMD die zegt; zwaai zwaai nV! Tot maart/ april!
Het zal mij biet wezen. Ik zit echt te wachten op een nieuwe serie. En niet op afgeleiden- van.
Ik denk dat t HD7970 CFX wordt in januari. (Lets op they're out then)
Edit; ik denk dat dit al een beetje een vroegtijdig/ angstig antwoord is op de HD7800 serie (die volgende maand komt?).
Als AMD daarmee komt, en deze kaartjes zijn net zo snel als een HD6970 voor zo'n 200 euries met minder stroomverbruik, dan zal nV er toch iets "competitiefs" tegenover moeten (proberen te) zetten?
In wezen is alles wat ze (nV) nu releasen zinloos imho. AMD is ze een grote stap voor. En daar kunnen ze niks aan doen. Het enige wat ze eventueel hebben, is een week of 4 tot 6 de "crown" in het 200-250 segment. Daarna ist weer AMD.
Het zal mij biet wezen. Ik zit echt te wachten op een nieuwe serie. En niet op afgeleiden- van.
Ik denk dat t HD7970 CFX wordt in januari. (Lets op they're out then)
[ Voor 87% gewijzigd door Format-C op 24-11-2011 20:43 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Een leek heeft een GTX560 en ziet nu een GTX560Ti. Deze persoon denkt: Oh, een GTX560, must buy!Format-C schreef op donderdag 24 november 2011 @ 20:34:
En wat is het "probleem" nu? Iedereen met een beetje basic knowledge weet dat je geen kaarten van nV met verschillende GPU's in SLi kan zetten...
Eenmaal thuis...
Ja maar mijn punt is meer dat deze kaart dus niks veranderd met hoe het al is, je kan nu ook een GTX 560 kopen en SLI proberen te draaien met een GTX 560 Ti wat niet gaat werken.Paprika schreef op donderdag 24 november 2011 @ 20:27:
Dat was zijn punt.
Punt is dan ook dat je twee verschillende versies krijgt van de GTX560Ti. Denk je dat een doorsnee consument weet dat degene in de winkel een ander type kan zijn dan die hij thuis heeft?Redblader schreef op donderdag 24 november 2011 @ 21:12:
[...]
Ja maar mijn punt is meer dat deze kaart dus niks veranderd met hoe het al is, je kan nu ook een GTX 560 kopen en SLI proberen te draaien met een GTX 560 Ti wat niet gaat werken.
Ik dacht dat het wel duidelijk was, maar blijkbaar heeft nVidia zijn voorwerk al lang gedaan.
Ik bedoel alleen dat het niet echt iets nieuws is, Nvidia's naamgeving is al jaren erg vreemd, je had eerst bijvoorbeeld ook 2 verschillende GTX 260's waarbij de GTX 260 core 216 op een ander procedé zat zelfs.dahakon schreef op donderdag 24 november 2011 @ 21:32:
[...]
Punt is dan ook dat je twee verschillende versies krijgt van de GTX560Ti. Denk je dat een doorsnee consument weet dat degene in de winkel een ander type kan zijn dan die hij thuis heeft?
Ik dacht dat het wel duidelijk was, maar blijkbaar heeft nVidia zijn voorwerk al lang gedaan.

Ben het met je eens dat het inderdaad verwarrend kan zijn voor een doorsnee consument maar het lijkt erop dat dit ook niet echt een veel verkocht model zal worden als ik het berucht op fudzilla mag geloven blijft het ''limited''.
Verwijderd
Ik kan me trouwens niet voorstellen dat het oude GTX470 chips zijn die ze hier gebruiken, want dan gaat (i.c.m. een hogere clock) het stroomverbruik veel te hoog liggen. Lijkt me eerder een gevalletje van GF110 chips die niet geheel werken (1 of 2 Streaming Multiprocessors niet werkend) en ze op de plank hadden liggen en deze nu gebruiken om nog wat geld binnen te harken voor de kerst.
MW1F heeft gelijk. GF110 is nu al lang in productie en waarschijnlijk dat ze al sinds dat ding in productie is gegaan chips aan het opsparen zijn. Weggooien is zonden en nu kunnen ze er nog geld mee binnen halen. Weliswaar onder de kost prijs maar ze lopen wel verlies in dat ze zouden hebben gelopen als ze de chips hadden weg gegooid.
Verwijderd
Alleen bij dieshrinks waarbij er niets anders wordt gewijzigd dan de kloksnelheid werkt het zo. Zodra de architectuur wordt aangepast en zeker bij een nieuwe architectuur, is het altijd afwachten hoe e.e.a. uitpakt. We hebben het hier over het ontwikkelen van nieuwe technologie, soms gaat dat precies zoals men had gedacht, heel soms zelfs beter, maar soms ook slechter. Zowel AMD/ATi als Nvidia hebben series gehad die onverwacht goed, en series gehad die onverwacht slecht presteerden. Daarnaast heeft het schrappen van het 35nm proces door TSMC wel aangetoond dat beide fabrikanten soms met omstandigheden te maken hebben die e.e.a. moeilijker maken, om het over yields en stroomverbruik maar helemaal niet te hebben.Paprika schreef op donderdag 24 november 2011 @ 18:05:
Staat er toch:
[...]
Tenzij hun nieuwe ontwerp een gigantische flop is en de 7-serie (7970) van AMD een verbetering van precies 100% (dus 200% van een 6970 eigenlijk) bevat is de kans nogal gering dat hij niet sneller is...
[afbeelding]
Als je even van dit plaatje uitgaat (inmiddels alweer bijna een jaar terug, dus huidige drivers kunnen het beeld een beetje anders laten uitzien, maar globaal klopt het wel), dan lijkt het me duidelijk dat nVidia minder hoeft te verbeteren om bij een 200% 6970 te komen dan AMD.
En dit betekend niet dat iedereen moet gaan wachten op nVidia (heck, 7970 wordt toch mijn volgende kaart, no matter what), het is maar een scenario met de grootste verwachting als je alles op een rijtje zet.
Het idee dat als Nvidia nu een voorsprong heeft zij het makkelijker hebben omdat AMD die eerst in moet lopen is echt te simpel gedacht. GPU design ligt een stuk complexer, dat kun je niet zo stellen. Het is echt een kwestie van afwachten, hoe goed het 28nm proces van TSMC is, hoe goed VLIW4 uitpakt voor AMD, of Nvidia de warmteproductie op 28nm onder controle krijgt, hoe lekker de ontwerpen klokken, etc, etc, etc. Het enige wat vrij zeker lijkt te zijn is dat AMD wat eerder is dan Nvidia, maar wie van de twee de snellere chip zal ontwerpen daar durf ik mijn hand niet voor in het vuur te steken.
Gezien de overgang van 40nm naar 28nm is die kans inderdaad bijzonder klein, maar dat zegt voor de reist weinig over beide kaarten.dahakon schreef op donderdag 24 november 2011 @ 17:59:
Het lijkt me dat vipeax bedoelt dat nVidia geen nieuwe topkaart zal lanceren, die trager is dan de GTX580.
[ Voor 7% gewijzigd door Verwijderd op 24-11-2011 23:29 ]