[Algemeen] nVidia Nieuws & Discussie Topic - Deel 40 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 5 6 Laatste
Acties:
  • 25.443 views

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logies nadenken
Ja, een nep-kaart laten zien bij een persconferentie is logischerwijs ook onmogelijk. ;) Dat vond ik eigenlijk verder gaan. Opzich dus geen reden meer om dat soort dingen op voorhand af te wijzen.

En voor de duidelijkheid, ik vind het ook geen reden om het meteen wèl te geloven. Maar dat je het te ver vind gaan is helaas geen reden meer om het meteen nìet te geloven tegenwoordig.

[ Voor 27% gewijzigd door bwerg op 06-11-2009 11:27 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

bwerg schreef op vrijdag 06 november 2009 @ 11:24:
[...]


Ja, een nep-kaart laten zien bij een persconferentie is logischerwijs ook onmogelijk. ;) Dat vond ik eigenlijk verder gaan. Opzich dus geen reden meer om dat soort dingen op voorhand af te wijzen.
Mee eens. Wat is de mens toch slecht he :'(

Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logisch nadenken
Het is logischer dat Nvidia alles probeerd te doen om die Lucid Hydra hardwarematig te blacklisten en dwars te zitten, net zoals ze met dedicated Physx kaarten doen i.c.m. ATI videokaarten. :(
Nvidia verdient namelijk geld met hun SLI licenties, die vergeleken met deze hardware vreselijk achterlopen kwa features, en niets meer voorstellen dan wat softwarematige code wat door de CPU word afgehandeld.

@ GPUz screenie
GPUz stats, of beter gezegd, de specificaties van videokaarten op papier, zijn al jaren waardeloos, dus ik snap sowieso al niet waar iemand de moeite voor neemt om zoiets te verzinnen. Van de Geforce 256 tot de Geforce 7 serie was alles nog makkelijk te berekenen op papier (ik maakte hele lijsten :+ ) en kwamen daaruit cijfers die je heel eenvoudig kan vertalen naar IRL performance. Helaas (of gelukkig?) werkt dat niet meer zo gezien de kaarten zo grandioos complex zijn geworden en enorm van elkaar veschillen kwa architectuur.

[ Voor 36% gewijzigd door SirNobax op 06-11-2009 11:39 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik heb helemaal geen vertrouwen in die chip omdat het alleemaal nog ingewikkelder zit dan sli en cfx.
En dan vooral met de driver ondersteuning in games en OS zelf want de renderingen van beide kaarten werken totaal anders als je een ati met een nvidia kaart zamen wil laten werken.

Ik wil wel eens zien op papier hoe het in zijn werk zal gaan want daar heb ik nog niets over kunnen vinden
over de techniek en dan vooral hoe het softwarematig werkt.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

.

[ Voor 100% gewijzigd door Help!!!! op 06-11-2009 12:19 . Reden: Verkeerde Topic ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:32:
Ik heb helemaal geen vertrouwen in die chip omdat het alleemaal nog ingewikkelder zit dan sli en cfx.
En dan vooral met de driver ondersteuning in games en OS zelf want de renderingen van beide kaarten werken totaal anders als je een ati met een nvidia kaart zamen wil laten werken.

Ik wil wel eens zien op papier hoe het in zijn werk zal gaan want daar heb ik nog niets over kunnen vinden
over de techniek en dan vooral hoe het softwarematig werkt.
Ik heb op dit moment even geen links bij de hand, maar ik geloof dat PC Perspective en Anandtech ooit eens hebben uitgelegd hoe het werkt.

De Lucid Hydra chip kan alle renderingmogelijkheden die CrossFireX en SLI ook kunnen (dus AFR en SFR), maar kan ook Object Based Rendering doen. Wat dit inhoudt is dat bv objecten als dieren/mensen in een 3D scene aan GPU 1 wordt toegewezen, terwijl de omgeving door GPU 2 gerenderd wordt. Het kan voor perfecte scaling zorgen omdat de workload verdeeld wordt op basis van de kracht van de gekoppelde GPU. De chip bepaalt welke renderingmethode het beste gebruikt kan worden.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 304087

CJ schreef op vrijdag 06 november 2009 @ 12:39:
[...]


Ik heb op dit moment even geen links bij de hand, maar ik geloof dat PC Perspective en Anandtech ooit eens hebben uitgelegd hoe het werkt.

De Lucid Hydra chip kan alle renderinmogelijkheden die CrossFireX en SLI ook kunnen (dus AFR en SFR), maar kan ook Object Based Rendering doen. Wat dit inhoudt is dat bv objecten als dieren/mensen in een 3D scene aan GPU 1 wordt toegewezen, terwijl de omgeving door GPU 2 gerenderd wordt. Het kan voor perfecte scaling zorgen omdat de workload verdeeld wordt op basis van de kracht van de gekoppelde GPU. De chip bepaald welke renderingmethode het beste gebruikt kan worden.
Intessant vind ik Opject based rendering. Als ik zo naar jou'n reactie kijkt begin ik er toch wel over te twijvelen.
Hier kan nog wel eens flink wat performance winst in gaan zitten.

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Het lijkt mij een stuk efficiënter dan SLI/CFX iig...

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
Als object based rendering zo fantastisch is, waarom doen nVidia's SLI en AMD's crossfire dat dan nog niet? Ik bedoel: als datgene wat Lucid Hydra doet zo geweldig is ten opzicht van SLI of crossfire, dan zouden nVidia/AMD wel gek zijn om het niet in hun eigen drivers (voor SLI/crossfire) te implementeren.

Kortom: ik kan me niet voorstellen dat Lucid Hydra beter schaalt dan SLI of Crossfire. Het enige voordeel zal hem dan zitten in het gebruiken van verschillende kaarten (eventueel van verschillende fabrikanten). Zelfs als Lucid Hydra beter schaalt dan SLI of Crossfire, dan is het slechts een kwestie van tijd voordat nVidia/AMD dezelfde technieken in hun eigen drivers implementeren.

Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.

Maar voordat ik onafhankelijke benchmarks heb gezien geloof ik niet dat Lucid Hydra het miraculeuze wondermiddel is voor dat het schalingsprobleem bij videokaarten oplost.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
[...]


Tjah daar ga ik niet over oordelen of het fake is of niet we zien wel als het kaartje er is


[...]


Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logies nadenken
Nou sorry hoor maar gezien nVidia's history had dit prima waar kunnen zijn. In dat opzicht zijn ze net zo nasty als Intel of wat zeg ik ik denk zelfs dat nVidia nog wel eens wat erger kan zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Maar het is niet waar volgens CJ :)

[ Voor 8% gewijzigd door Anoniem: 304087 op 06-11-2009 14:18 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
The Flying Dutchman schreef op vrijdag 06 november 2009 @ 13:59:
Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.
Dat dus.

Ook al zit er een zielig NF200 chipje van Nvidia op het moederboard wat "voor SLI zorgt", het enige wat er gebeurd is dat de drivers zien 'hier mogen we SLI inschakelen' en dan worden de drivers/CPU aan het werk gezet.

Punt is, (wat ik begrepen heb) dat Object Based Rendering veel haken en ogen heeft wat veel ondersteuning en optimalisatie nodig heeft om bugloos te werken. Begrijpelijk niet iets waar Nvidia en ATI om staan te springen gezien die al hun tijd al gebruiken om de drivers te tweaken en bugs te fixen.

@hierboven
Neemt niet weg dat nvidia hier niet blij mee is, en hier mogelijk alsnog een stokje voor gaat steken. CJ ontkracht alleen dat MSI snel wat namen heeft aangepast en foto's hebben gephotoschopped omdat die Lucid chip geen zin had.

[ Voor 12% gewijzigd door SirNobax op 06-11-2009 14:35 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Die lucid chip, het lijkt me toch stug dat dit echt gaat werken. Als je kijkt naar de verschillen tussen de nieuwe generatie Ati en (oude) nVidia dan is er toch een behoorlijk verschil in IQ? Dat zou dus betekenen dat bij object based rendering IQ verschil krijgt ?

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Ja, dat vroeg ik me ook af. Dat lijkt me dus wel. Maar sowieso hoef je met bijvoorbeeld oude kaarten geen goede IQ te verwachten als je die nog wilt gebruiken. Ik denk ook niet dat deze chip veel gebruikt zal worden om een HD5870 naast een FX5600 te zetten.

En ook al zie je verschil: dat weet je van tevoren maar de optie is er in ieder geval. ;)

Maar ik ben benieuwd naar de eerste reviews, daar zullen dit soort vragen hopelijk beantwoord worden.

[ Voor 17% gewijzigd door bwerg op 06-11-2009 14:49 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
The Flying Dutchman schreef op vrijdag 06 november 2009 @ 13:59:
Als object based rendering zo fantastisch is, waarom doen nVidia's SLI en AMD's crossfire dat dan nog niet? Ik bedoel: als datgene wat Lucid Hydra doet zo geweldig is ten opzicht van SLI of crossfire, dan zouden nVidia/AMD wel gek zijn om het niet in hun eigen drivers (voor SLI/crossfire) te implementeren.

Kortom: ik kan me niet voorstellen dat Lucid Hydra beter schaalt dan SLI of Crossfire. Het enige voordeel zal hem dan zitten in het gebruiken van verschillende kaarten (eventueel van verschillende fabrikanten). Zelfs als Lucid Hydra beter schaalt dan SLI of Crossfire, dan is het slechts een kwestie van tijd voordat nVidia/AMD dezelfde technieken in hun eigen drivers implementeren.

Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.
Zoals hierboven ook al aangegeven... Je geeft zelf het antwoord al op je vraag. Lucid Hydra is een hardwarematige oplossing. Het is een real time distributed processing engine.

De huidige gebruikte technieken van NV en AMD zijn ook verre van perfect. Ze hebben profielen nodig om goed te werken en kunnen dan alsnog last hebben van zaken als microstuttering. Doordat de Hydra een aparte chip is (een parallelle graphics processor) kan je deze issues sowieso omzeilen.
Maar voordat ik onafhankelijke benchmarks heb gezien geloof ik niet dat Lucid Hydra het miraculeuze wondermiddel is voor dat het schalingsprobleem bij videokaarten oplost.
In theorie zou de scaling bij Object Based Rendering ideaal moeten zijn voor mix 'n match oplossingen. De chip berekent in real time welke objecten door welke GPU gerenderd moeten worden nadat het geanalyseerd heeft hoeveel processingpower elke GPU heeft en de toegewezen workload per GPU in real time aanpast. Zoals je zelf ook al aangeeft zouden NV en AMD dit in hun drivers moeten implementeren. Dit zou dan een software oplossing worden. En wil men mix 'n match gaan implementeren dan wordt het helemaal een ingewikkeld verhaal. Elke week komen nieuwe videokaarten uit en dat moet allemaal in de drivers geregistreerd worden wil je er voor kunnen zorgen dat je die nieuwe kaarten ook kunt koppelen aan andere kaarten met de juiste loadbalancing.

Tot nu toe gold eigenlijk altijd dat: dedicated hardware solution > software solution. Maar dat wil niet zeggen dat deze oplossing de holy grail is. Object Based Rendering heeft ook zo z'n nadelen, maar de Lucid oplossing is wel een stuk flexibeler dan de huidige SLI en CFX oplossingen.

Maar AMD en NV staan ook niet stil wat betreft ontwikkeling op multi-GPU gebied. AMD schijnt al enkele leuke vernieuwingen in de pipeline te hebben op het gebied van het adresseren van bepaalde multi-GPU problemen. AMD heeft zelfs al aangegeven dat als de Lucid technologie werkt en levert wat Lucid belooft, ze deze technologie zullen omarmen.

Hands-on Lucid Hydra:
http://www.legitreviews.com/article/1093/1/
http://www.anandtech.com/video/showdoc.aspx?i=3646

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Charlie heeft zijn MSI Big Bang artikel een update gegeven, met een reactie van Garrett Wu van MSI erin. Wat je ook van hem vindt en wat hij soms ook roept, hij is in ieder geval niet te kinderachtig om een echte update te geven, in plaats van stealth-edits om zijn 'betrouwbaarheid' hoog te houden.

Update: MSI's Garrett Wu responded, and while he is not the person we were talking to, his response is as follows.

“The MSI P55 Big Bang with NVIDIA NF200 was already planned in December 2008, almost one year ago. MSI showcased this board on Cebit 2009 which was reported by many media like http://www.tcmagazine.com/comments.php?id=24935&catid=2 and there are also photos which show very clearly the NF200 chip: http://images.hardware.info/news/cebit-day2-23.jpg. MSI Big Bang Trinergy (NF200) is already announced and will go into mass production by the end of November.

The MSI Big Bang Fuzion (Hydra 200) hardware is ready. Currently Lucid is optimizing the driver for Windows 7 so that it works stable and in all configurations (Including Mix & Match mode). Because MSI is dedicated to bring high quality and stable product on the market we decided to postpone the Big Bang Fuzion (Hydra 200) pending the MSI internal qualification assurance test. The Big Bang Fuzion (Hydra 200) will be released when it’s driver is finished which is most likely Q1 2010.

MSI also states that all Big Bang info can be found here. We linked this site several times in the above story.

I would also like to add that I personally saw that board at CeBIT, and wrote it up on the same day as the TCMagazine story. My story on it is here. We hear MSI is readying a response piece, and we will respond to that when we see it.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

NVIDIA says no to multi-GPU HYDRA



With the emerge of MSI Big Bang Trinergy,creative and practical HYDRA developed by Lucid has come into practice.However,it has biggest roadblock,NVIDIA.

The Hydra multi-GPU engine allows vendor-neutral and model-neutral GPU performance upscaling, without adhering to proprietary technologies such as NVIDIA SLI or ATI CrossfireX.Lucid HYDRA has posed a great threat to SLI.It is necessary to be forced out.Interestingly,NVIDIA just criticized Intel due to USB 3.0 delay.

NVIDIA claims that it is working on its drivers to ensure that its GeForce GPUs don’t work on platforms that use Hydra.All above force MSI to cancell the use of Lucid HYDRA.In fact,MSI is planning to make a series products with this motherboard,named:Big Bang Fuzion.

NVIDIA、Lucid、MSI is yet to give official remark on this.Expects to have a feasible solution for major players.


Report: NVIDIA Plans to Block Lucid’s Hydra Chip



If you’re wondering why the highly-anticipated MSI Big Bang Trinergy motherboard turned out to be using NVIDIA’s nForce 200 SLI chip, with no sign of the Lucid Hydra 200 chip as it promised, the answer is simple - NVIDIA does not like it.

Considering the product would impact NVIDIA’s profit coming from SLI fee, the green giant decides that it’s time to do something. Firstly, they will break support for Lucid’s chip at the driver part, and by unknown means force MSI to postpone their “Big Bang” motherboard. Though MSI claims the Big Bang Fusion powered by Hydra engine will be released by the end of 2009, we don’t think so, exactly. The site Overclock3D believes the board will be delayed to early next year, or even be killed finally.

The multi-GPU solution has opened up a totally different battlefield, but NVIDIA is apparently unprepared yet or unwilling to fight.



Zie ik dus net :?

[ Voor 36% gewijzigd door -The_Mask- op 06-11-2009 22:30 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

In een eerdere post vergeleek Jen Hsung NV met Apple. ik zie dat hier volledig terug. Als NV het voorelkaar krijgt om een eigen CPU te bouwen (http://www.tomshardware.c...6-gpu-cpu,news-32190.html), dan zie ik ze inderdaad volledig die kant op gaan. Het zou me niets verbazen als NV zich de komende jaren echt 100% op de Pro markt gaat focussen.

Acties:
  • 0 Henk 'm!

Anoniem: 292676

hebben ze wel de licenties van intel en amd?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 292676 schreef op zaterdag 07 november 2009 @ 00:26:
hebben ze wel de licenties van intel en amd?
Ze kunnen natuurlijk ook non x86-structuur processors maken, bijvoorbeeld op ARM gebasseerde processors.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Daarbij denk ik niet dat Intel en AMD ermee weg komen om hun tech volledig weg te houden van NV. Dat zal behoorlijk wat legal issues opwerpen.

Acties:
  • 0 Henk 'm!

Anoniem: 292676

waarom wou nVidia VIA kopen dan?

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Omdat dat de nog eenvoudigere stap zou zijn. VIA heeft al licensies op de x86 structuur en die zou NV zo in de koop meenemen. Licensies direct bij Intel en AMD halen ligt een stuk ingewikkelder.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 16-05 19:07

RuddyMysterious

a smorgasbord of waywardness

Ah, ik meende gelezen te hebben dat Intel zijn x86-licenties had verstrekt met een clausule waarbij gesteld wordt dat de licentie komt te vervallen bij de overname van het bedrijf, dus het overnemen van Via zou gelijk staan met het vernietigd worden van de x86-licentie. Klopt dat?

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
CJ schreef op vrijdag 06 november 2009 @ 14:59:
[...]


Zoals hierboven ook al aangegeven... Je geeft zelf het antwoord al op je vraag. Lucid Hydra is een hardwarematige oplossing. Het is een real time distributed processing engine.
Aan de andere kant heeft mijn processor nog wel wat cores over die meestal uit hun neus staan te vreten tijdens het gamen. Ik denk dat zo'n core ook prima gebruikt zou kunnen worden om de workload te verdelen.
De huidige gebruikte technieken van NV en AMD zijn ook verre van perfect. Ze hebben profielen nodig om goed te werken en kunnen dan alsnog last hebben van zaken als microstuttering. Doordat de Hydra een aparte chip is (een parallelle graphics processor) kan je deze issues sowieso omzeilen.
Wat gebeurd er dan bijvoorbeeld met de z-buffer in de gpu's? Hoe weet hydra wat er in de z-buffer van gpu A en van gpu B staat? Heeft hydra zijn eigen z-buffer? En heeft hydra zijn eigen framebuffers? De meeste render engine's zijn ontzettend complex. Ik weet dat je over het algemeen heel goed op de hoogte bent, maar ook hiervoor geldt dat ik eerst nog wel eens wil zien of hydra alle games perfect zonder profielen kan draaien. Misschien hebben ze het beestje gewoon een andere naam gegeven en moeten sommige games `ondersteuning in de driver' krijgen voordat ze goed werken?
[...]


In theorie zou de scaling bij Object Based Rendering ideaal moeten zijn voor mix 'n match oplossingen. De chip berekent in real time welke objecten door welke GPU gerenderd moeten worden nadat het geanalyseerd heeft hoeveel processingpower elke GPU heeft en de toegewezen workload per GPU in real time aanpast. Zoals je zelf ook al aangeeft zouden NV en AMD dit in hun drivers moeten implementeren. Dit zou dan een software oplossing worden. En wil men mix 'n match gaan implementeren dan wordt het helemaal een ingewikkeld verhaal. Elke week komen nieuwe videokaarten uit en dat moet allemaal in de drivers geregistreerd worden wil je er voor kunnen zorgen dat je die nieuwe kaarten ook kunt koppelen aan andere kaarten met de juiste loadbalancing.
Ja, dat is natuurlijk waar. Persoon vind ik mix 'n match echter niet zo heel erg interessant en ik denk eigenlijk dat de meeste mensen die twee videokaarten kopen toch twee van hetzelfde type nemen.
Tot nu toe gold eigenlijk altijd dat: dedicated hardware solution > software solution. Maar dat wil niet zeggen dat deze oplossing de holy grail is. Object Based Rendering heeft ook zo z'n nadelen, maar de Lucid oplossing is wel een stuk flexibeler dan de huidige SLI en CFX oplossingen.

Maar AMD en NV staan ook niet stil wat betreft ontwikkeling op multi-GPU gebied. AMD schijnt al enkele leuke vernieuwingen in de pipeline te hebben op het gebied van het adresseren van bepaalde multi-GPU problemen. AMD heeft zelfs al aangegeven dat als de Lucid technologie werkt en levert wat Lucid belooft, ze deze technologie zullen omarmen.

Hands-on Lucid Hydra:
http://www.legitreviews.com/article/1093/1/
http://www.anandtech.com/video/showdoc.aspx?i=3646
Ik ben in ieder geval erg benieuwd. Maar voorlopig blijf ik sceptisch. Ben ook erg benieuwd waar nVidia en AMD nog mee gaan komen.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
DevilsProphet schreef op zaterdag 07 november 2009 @ 08:59:
Ah, ik meende gelezen te hebben dat Intel zijn x86-licenties had verstrekt met een clausule waarbij gesteld wordt dat de licentie komt te vervallen bij de overname van het bedrijf, dus het overnemen van Via zou gelijk staan met het vernietigd worden van de x86-licentie. Klopt dat?
Ja dat klopt, dat geldt (afaik) ook voor AMD's x86-64 licentie. :)

Dit is wat ik tegenkwam, stukje uit de licentieovereenkomst tussen AMD en Intel anno 2001. (betreft x86-64 dus)
3. GRANT OF RIGHTS

3.1. AMD License to Intel. Subject to the terms and conditions of this
--------------------
Agreement, AMD hereby grants to Intel a non-exclusive,
non-transferable ***** worldwide license, without the right to
sublicense, under AMD's Patents to:
Hetzelfde geldt voor de x86 licentie, die verder identiek is, alleen daar staan de namen omgeswitched 8)7 .

[ Voor 42% gewijzigd door SirNobax op 07-11-2009 11:51 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Hmmm, dat wist ik dan weer niet. In dat licht bezien zou het alleen maar om de kennis gaan, lijkt me.

Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Bedankt voor die link, echt een super interessante thread, vooral het gedeelte over batman.
En dan dit, de reactie van degene die voor AMD werkt
http://forums.hexus.net/h...gamers-5.html#post1808312

Vind wel dat de meneer van NVIDIA die hij quote toch niet erg sterk spreekt op dat forum en er niet goed uit komt, maar goed, ik houd die thread in de gaten, moet wel zeggen dat ze er hard in gaan beiden maar dat hoort er bij denk ik?
Is dat al vaker voor gekomen dat dit soort mensen van 2grootmachten op een forum zo te keer gaan? zou wat zijn als dit ook hier zou gebeuren( niet dat dat gebeurd maar zou wel interessant zijn)

Edit:

Hexus maakt er een mooi artikel van

http://www.hexus.net/content/item.php?item=20991

[ Voor 30% gewijzigd door pino85 op 07-11-2009 12:01 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Domokoen
  • Registratie: Januari 2003
  • Laatst online: 21-05 11:09
Die werd al eerder gepost op pagina 12, laten we hopen dat die discussie van 5 pagina's nu niet weer opgerakeld wordt...

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
pino22 schreef op zaterdag 07 november 2009 @ 11:51:
[...]
Is dat al vaker voor gekomen dat dit soort mensen van 2grootmachten op een forum zo te keer gaan? zou wat zijn als dit ook hier zou gebeuren( niet dat dat gebeurd maar zou wel interessant zijn)
Ga er maar van uit dat elke post in deze discussie die beide heren maken goedgekeurd is door de communicatieafdelingen van beide bedrijven, naast het feit dat het waarschijnlijk ook volledig goedgekeurd is door de juridische afdelingen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 26-05 03:22

pino85

Im just a Bird in the Sky

Mr.Chinchilla schreef op zaterdag 07 november 2009 @ 15:03:
[...]

Die werd al eerder gepost op pagina 12, laten we hopen dat die discussie van 5 pagina's nu niet weer opgerakeld wordt...
Offtopic:

Tja ik reageerde puur op wat iemand had gepost ver na die pagina en zag toen op hexus dat item staan, ik heb niet elke pagina uitgeplozen in dit topic, heb er misschien paar in het begin door gelezen.
Kun je me vergeven?


Ontopic:

@ CJ

Lijkt me idd ook, maar dan nog vind ik het niet iets wat ik dan iig vaak heb gezien is voor mij wel bijzonder om dat te lezen.
Maar zoals al gezegd door de beste meneer hier boven, het was blijkbaar allemaal al lang gepost dus ik zal er niet meer over door gaan
iemand die nog een nieuw hot item /nieuws flash heeft?

[ Voor 25% gewijzigd door pino85 op 07-11-2009 15:16 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Nvidia to Ramp Up Production of Fermi Graphics Cards Only in 2010.

Nvidia Corp.’s chief executive officer said during quarterly conference call with financial analysts that the company would only ramp up production of its next-generation flagship Fermi-G300 graphics processing unit in the company’s first quarter of fiscal year 2011, which means January – April timeframe.

“Next year it is going to be an interesting first quarter because, in fact, we will need more wafers than ever in Q1. The reason for that is because – and I mean more 40nm wafers than ever in Q1 –we are […] fully ramping Fermi for three different product lines: GeForce, Quadro and Tesla,” said Jen-Hsun Huang, chief executive officer of Nvidia, in the conference call with financial analysts.

Nvidia’s first quarter of fiscal year 2011 begins on the 26th of January and ends on the 26th of April, 2010. Therefore, the claim by Mr. Huang means that Nvidia will only be able to start commercial shipments its next-generation graphics cards based on Fermi architecture in calendar 2010, not in calendar 2009, as the company promised originally.

Besides the next-generation high-end graphics processor, which is usually called Fermi (also known as NV60, G300, GT300), Nvidia will also ramp up manufacturing of its next-generation core-logic for Intel Core 2 processors and other products.

“We will be fully ramping MCP89. We will be fully ramping Tegra. Not to mention the 40nm products that we currently have that are fully ramped up, and so I am expecting Q1 to be a pretty exciting quarter for us because we just have so many new products,” added Mr. Huang.

Nvidia on Thursday reported revenue of $903.2 million for the third quarter of fiscal 2010 ended October 25, 2009, up 16% from the previous quarter and up slightly from $897.7 million reported in the same period a year earlier.

On a GAAP basis, the company recorded net income of $107.6 million, or $0.19 per diluted share, compared with net income of $61.7 million, or $0.11 per diluted share a year ago. Third quarter GAAP results included a benefit to operating income of $25.1 million related to insurance reimbursements received during the quarter. On a non-GAAP basis – excluding the insurance reimbursements and stock-based compensation, as well as their associated tax impact − net income was $110.3 million, or $0.19 per diluted share, compared with $111.4 million, or $0.20 per diluted share, a year earlier.

"We continued to make progress in the third quarter with healthy market demand across the board. Revenue was up from a year ago, with improvement in each of our PC, professional solutions and consumer businesses. It’s great to see us shipping orders with our Tegra mobile-computing solution, and growing enthusiasm for our Tesla platform for parallel computing in the server and cloud-computing markets," said the chief executive officer of Nvidia.
Financieel ging het dus goed t/m het afgelopen kwartaal, maar Fermi gaat pas in januari echt van de band rollen. Verkrijgbaarheid voor februari lijkt me dan uiterst onwaarschijnlijk.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
dit is dus hoe ze een paper launch aankondigen.

Ik neem ook aan dat lucid alleen werkt met 3d kaarten met de zelfde generatie aan specificaties?

Zoals een dx11 kaart bij een dx11 kaart.

[ Voor 60% gewijzigd door tomcatha op 08-11-2009 02:15 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
tomcatha schreef op zondag 08 november 2009 @ 02:13:
dit is dus hoe ze een paper launch aankondigen.

Ik neem ook aan dat lucid alleen werkt met 3d kaarten met de zelfde generatie aan specificaties?

Zoals een dx11 kaart bij een dx11 kaart.
Die Lucid doet a.t.m. alleen DX9 en DX10.
Verder, als je een DX9 kaart naast een DX10 kaart zet, werkt dat gewoon goed samen, maar enkel in DX9 modus. Of hij die DX9 kaart uitschakel zodra je een DX10 spel wil starten weet ik niet.

Pentaxiaan


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Edmin schreef op zaterdag 07 november 2009 @ 20:49:

Nvidia to Ramp Up Production of Fermi Graphics Cards Only in 2010.

[...]

Financieel ging het dus goed t/m het afgelopen kwartaal, maar Fermi gaat pas in januari echt van de band rollen. Verkrijgbaarheid voor februari lijkt me dan uiterst onwaarschijnlijk.
Nice ben benieuwd naar de prestaties, zoals gewoonlijk zal hij wel weer zeer snel zijn, denk zelf dat hret weer de snelste singlecore chip word op dat moment.
SirNobax schreef op vrijdag 06 november 2009 @ 14:26:
[...]

Dat dus.

Ook al zit er een zielig NF200 chipje van Nvidia op het moederboard wat "voor SLI zorgt", het enige wat er gebeurd is dat de drivers zien 'hier mogen we SLI inschakelen' en dan worden de drivers/CPU aan het werk gezet.

Punt is, (wat ik begrepen heb) dat Object Based Rendering veel haken en ogen heeft wat veel ondersteuning en optimalisatie nodig heeft om bugloos te werken. Begrijpelijk niet iets waar Nvidia en ATI om staan te springen gezien die al hun tijd al gebruiken om de drivers te tweaken en bugs te fixen.

@hierboven
Neemt niet weg dat nvidia hier niet blij mee is, en hier mogelijk alsnog een stokje voor gaat steken. CJ ontkracht alleen dat MSI snel wat namen heeft aangepast en foto's hebben gephotoschopped omdat die Lucid chip geen zin had.
Lol dat zielige chipje zorgt niet voor sli maar meer lanes en deze chip is dus wel handig vind ik. Ook een uitkomt voor ati kaarten want dit is de eenigste optie voor zelfs 4x de volle 16x en dat voor maar 30 euro ofzo ?
Ik weet het niet maar vind deze chip juist een goede chip en zou ook niet zonder die chip willen als ik 3 gfx kaarten zou hebben. Ik snap die haat niet tegen deze chip want als je hem niet wilt hebben dan ga je toch lekker op zoek naar een ander moederbord met minder lanes als je die extra lanes niet nodig hebt? Uit eindelijk is het ziek om deze chip af te zeiken zolang je de keuze hebt dat je kunt kiezen tussen wel of niet. Er zitten alleen maar voordelen aan die de nadelen in het niets brengen

[ Voor 54% gewijzigd door Anoniem: 304087 op 08-11-2009 12:46 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:28:
[...]
Nice ben benieuwd naar de prestaties....
Ik ben ook wel benieuwd naar de prestaties.
Niet zozeel om te weten hoe "zeer snel" dat hij gaat worden, maar of hij uberhaupt wel, in verhouding, sneller is als concurentie. Zoals het er nu allemaal op lijkt hebben ze een 'alleskunner' gebouwd (in tegenstelling tot ATI), en dat laat dat nou net de reden zijn waarom we 3D rendering van de CPU naar de GPU hebben verhuisd.
(en ja, ik begrijp dat Parallel processing veel lijkt op GPU rendering, maar het gaat om het 'dedicated'/alleskunner idee)
Lol dat zielige chipje zorgt niet voor sli maar meer lanes en deze chip is dus wel handig vind ik.
Zielig, omdat het net zo goed een USB stick zou kunnen zijn die 'SLI' unlocked, of zelfs een serial-code bij installatie van de nvidia drivers. 8)7
En 3 of meer videokaarten hebben echt een geweldige marktpenetratie om die extra PCI-E lanes te verantwoorden.

Verder kunnen PCI-e controller chips van Texas Instruments, PLX Technlogies, Integrated Device Technology, etc, precies hetzelfde, en die kosten echt geen 30$.

[ Voor 32% gewijzigd door SirNobax op 08-11-2009 13:26 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:28:
Nice ben benieuwd naar de prestaties, zoals gewoonlijk zal hij wel weer zeer snel zijn, denk zelf dat hret weer de snelste singlecore chip word op dat moment.
Probleem is, dat als de ramp up pas echt plaats gaat vinden na 26 januari, dat kaarten echt niet snel beschikbaar zullen zijn. Dat zou best eens kunnen betekenen dat ze niet veel eerder dan maart op de consumentenmarkt komen. Dat zou als gevolg kunnen hebben dat ze het tegen een refresh van de HD5870 op moeten nemen.

Aangezien de prestaties van de GF100 nu niets meer is dan nattevingerwerk en zelfs nVidia weinig zinnigs heeft durven uitten, kun je je afvragen hoeveel sneller de kaart kan/zal zijn dan de HD5870. Het zou dus ook nog eens zo kunnen zijn dat de refresh mee kan komen danwel sneller is dan de GF100.

Er is wel een andere garantie, het zal zeker weer de grootste nieuwe single-core GPU zijn (tot Larrabee uit komt in ieder geval).

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Maar als je toch wel met meer dan 2 kaarten gaat werken dan wil je toch ook dat chipje hebben teminste ikke wel
altijd beter dan 4x 4x 4x 4x. En sli word niet mogelijk gemaakt met die chip maar extra lanes

Omdat die markt niet groot is wil nog niet zeggen dat dat chipje niet handig is voor die markt.
Je hebt altijd nog de keuze om hem niet te kopen dus je moet hem niet kopen dus uiteindelijk ook niet klagen
over dat chipje.

Als je 4 kaarten gaat gebruiken en het geld daar voor hebt ga je natuurlijk ook voor de nf200 chip die 30 euro
kan er dan ook nog wel af sterker nog ik zou niet eens 4 kaarten nemen als die chip er niet was

[ Voor 54% gewijzigd door Anoniem: 304087 op 08-11-2009 12:59 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:53:
Maar als je toch wel met meer dan 2 kaarten gaat werken dan wil je toch ook dat chipje hebben teminste ikke wel
altijd beter dan 4x 4x 4x 4x. En sli word niet mogelijk gemaakt met die chip maar extra lanes
Zonder die chip zou de boel op 8x 8x 8x 8x draaien met 4 kaarten, niet op 4x. Daarbij kun je in je achterhoofd houden dat een HD5870 op 8 lanes amper trager is dan op 16 lanes (denk aan ~2%) terwijl het momenteel de snelste single-chip kaart op de markt is. Met sli/crossfire zou het misschien een iets groter verschil worden, maar of je het verschil merkt met of zonder die ~30 euro chip, betwijfel ik, temeer omdat 4X crossfire/4X SLI bij lange na nog niet geoptimaliseerd is en je een kegel van een CPU-limited situatie krijgt.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

dahakon schreef op zondag 08 november 2009 @ 13:07:
[...]


Zonder die chip zou de boel op 8x 8x 8x 8x draaien met 4 kaarten, niet op 4x. Daarbij kun je in je achterhoofd houden dat een HD5870 op 8 lanes amper trager is dan op 16 lanes (denk aan ~2%) terwijl het momenteel de snelste single-chip kaart op de markt is. Met sli/crossfire zou het misschien een iets groter verschil worden, maar of je het verschil merkt met of zonder die ~30 euro chip, betwijfel ik, temeer omdat 4X crossfire/4X SLI bij lange na nog niet geoptimaliseerd is en je een kegel van een CPU-limited situatie krijgt.
Klopt maar een bencher wil die 2% niet missen teminste je bent gek als je 4 kaarten neemt en 2% moet gaan missen daar voor kost het allemaal te veel. Ik ben zelf een bencher en andere benchers zullen het met mij eens zijn.
Die kopen een bord met de nf200 chip om de beste score te halen. Die 30 euro is dan niets. En mensen die dit werk niet doen zijn niet verplicht om hem te kopen om gebruikt te kunnen maken van sli of cfx
Correctie 8x bedoel ik idd foutje.

Ik zou zelf niet zonder kunnen met benchen iig omdat daar door een wereld record van af kan hangen dus zo'n
voordeel heeft deze chip en dat voor maar 30 eu

Mensen die gamen en deze chip niet willen en die het niet waard vinden zijn niet alleen op de wereld :X

[ Voor 10% gewijzigd door Anoniem: 304087 op 08-11-2009 13:23 ]


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Anoniem: 304087 schreef op zondag 08 november 2009 @ 13:12:
[...]


Klopt maar een bencher wil die 2% niet missen teminste je bent gek als je 4 kaarten neemt en 2% moet gaan missen daar voor kost het allemaal te veel. Ik ben zelf een bencher en andere benchers zullen het met mij eens zijn.
offtopic:
Zeker ook een tevreden gebruiker van zo'n KillerNIC ? :')

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Luppie, ik ben anders niet zo overtuigd van het nut van die NF200. Zie ook: http://enthusiast.hardocp...y_sli_preliminary_results

Elders op die site:
We have previously looked into what the NF200 chipset, that extends extra lanes to SLI and Triple SLI setups, and what it actually does for gaming at this point in time and it does nothing but seemingly add latency.
http://enthusiast.hardocp...s_p6t7_ws_supercomputer/6

[ Voor 49% gewijzigd door Edmin op 08-11-2009 14:32 ]


Acties:
  • 0 Henk 'm!

  • michaelvt
  • Registratie: Juli 2006
  • Laatst online: 12:37

michaelvt

Tweaky Gonzalez

Edmin schreef op zondag 08 november 2009 @ 14:28:
Luppie, ik ben anders niet zo overtuigd van het nut van die NF200. Zie ook: http://enthusiast.hardocp...y_sli_preliminary_results
Eens, zie ook onderstaande:

It's interesting how Nvidia is trying to promote the NF200 chip as a solution for quad x16 PCIe slots to the board makers, when it in fact can't do anysuch thing. The problem with the NF200 is that it can't add extra PCIe lanes, so to reach that magical four-slot design, each chip splits 16 PCIe lanes into two

offtopic: sneller F5en Ed :P

[ Voor 3% gewijzigd door michaelvt op 08-11-2009 14:38 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Nvidia is overigens ook bezig met een FUD-show, tegen Intel deze keer. Ze zijn blijkbaar ergens kwaad over...

Afbeeldingslocatie: http://images.nvidia.com/blogs/ntersect/feature_image03.jpg

http://www.intelsinsides.com/page/home.html

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Jejking schreef op zondag 08 november 2009 @ 15:09:
Nvidia is overigens ook bezig met een FUD-show, tegen Intel deze keer. Ze zijn blijkbaar ergens kwaad over...
Mooie was dat in de Q2 con-call een nvidia manager juist aangaf "we are executing like clockwork"

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Edmin schreef op zondag 08 november 2009 @ 14:28:
Luppie, ik ben anders niet zo overtuigd van het nut van die NF200. Zie ook: http://enthusiast.hardocp...y_sli_preliminary_results

Elders op die site:

[...]

http://enthusiast.hardocp...s_p6t7_ws_supercomputer/6
Veel overklokkers denken er toch anders over hoor. Ik ben het er mee eens dat voor de gewone gamer het weining uit maakt. Maar een wereldrecord benchmark kan er van af hangen. Ik kon zelf wel een verschil merken
in punten door meer lanes te gebruiken toen ik nog 3 8800 ultra's had

[ Voor 8% gewijzigd door Anoniem: 304087 op 08-11-2009 20:48 ]


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 29-04 23:35
Jejking schreef op zondag 08 november 2009 @ 15:09:
Nvidia is overigens ook bezig met een FUD-show, tegen Intel deze keer. Ze zijn blijkbaar ergens kwaad over...

[afbeelding]

http://www.intelsinsides.com/page/home.html
Wuahahaha geniaal _O-

Acties:
  • 0 Henk 'm!

  • biggydeen2
  • Registratie: Augustus 2009
  • Laatst online: 02-04 16:24
Zojuist lees ik een behoorlijk droevig bericht ( maar andere kant wel verwacht.

Fermi komt pas begin fiscaal jaar 2011 ( dus ergens Q1 2010 )

Ziet er dus naar uit dat we nog wel even kunnen wachten :(

Bron: http://www.digitimes.com/news/a20091109PD208.html

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Jeps de gaming markt komt op de 2e plaats bij nvidia !! Ze zien het grote geld in de
bedrijven markt. Logies dat ze dan daar op gaan hameren

Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 27-05 03:08
biggydeen2 schreef op maandag 09 november 2009 @ 11:06:
Zojuist lees ik een behoorlijk droevig bericht ( maar andere kant wel verwacht.

Fermi komt pas begin fiscaal jaar 2011 ( dus ergens Q1 2010 )

Ziet er dus naar uit dat we nog wel even kunnen wachten :(

Bron: http://www.digitimes.com/news/a20091109PD208.html
En als zelfs Fuad het al zegt....
Nvidia Fermi launch slips into January 2010
Written by Fuad Abazovic
Monday, 09 November 2009 10:14

Showcasing in December

Just as it happened last year with the Geforce GTX 295, Nvidia will most likely showcase Fermi-based cards in December and will start shipping them out in January.

Nvidia cannot make it in time for a late November or early December launch as it had originally planned, and the A2 silicon that has currently taped out of the fab will not be the final silicon. Nvidia will move to A3 silicon for its final retail products. Our multiple internal sources have confirmed that Nvidia has samples but it keeps them within the company, heavily guarded and they won’t be shipping in 2009.

Nvidia did the same with GTX 295 when a few select hacks got cards and posted reviews on December 18th, 2008 while the official launch took place on January 8th, 2009. Jensen is not happy with the slight product delays, but Nvidia wants to have massive availability at launch. On another note, the fact that ATI has sold out of its Radeon HD 5870 actually works in Nvidia’s favour. For those enthusiasts who demand DirectX 11 card for the holidays, the Radeon HD 5870 is going to be the only option until CES 2010 comes around.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Daar wordt zelfs gehint naar een launch in april :S
However, Nvidia may see its market share begin to wane if it delays the launch of GT300 to April 2010

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Als nv al samples hebben waarom laten ze dan nog geen benchmarkjes zien.
Teminste als ik nv was had ik dat al lang laten zien om mensen de kop gek te maken.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Als je Con-Call beluisterd van nVidia geven ze aan dat de massaproductie van Fermi pas in Q1 verwachten (dus vanaf 26 Januari)

Als uit de laatste spin blijkt dat er nog onoverkomelijke problemen in het ontwerp zitten tel er nog maar eens twee of drie maanden bij.

Iedereen die verkoop verwacht op 26 Januari komt bedrogen uit.

[ Voor 50% gewijzigd door neliz op 09-11-2009 11:57 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 304087 schreef op maandag 09 november 2009 @ 11:50:
Als nv al samples hebben waarom laten ze dan nog geen benchmarkjes zien.
Teminste als ik nv was had ik dat al lang laten zien om mensen de kop gek te maken.
Misschien omdat de performance van de kaarten niet representatief zijn? Er is al eerder gehint op een probleem met de memory controller in GT215 en Fermi en voor zover ik weet zijn de issues daarmee erg groot tot op het punt dat Fermi op dit moment niet "snel" te noemen is door lage kloksnelheden.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel

[ Voor 28% gewijzigd door Anoniem: 304087 op 09-11-2009 12:06 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
ehrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr.

Misschien als ik het er zo neerzet dat je het dan wel begrijpt:

de Fermi chips die al beschikbaar en getest zijn voldoen niet aan de gestelde eisen met betrekking tot kloksnelheden van zowel de shader cores als de memory interface. De kaart is in die hoedanigheid dan ook niet competitief. Om dat wel te worden was/is een respin nodig om de gewenste kloksnelheden te halen.

Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)

[ Voor 3% gewijzigd door neliz op 09-11-2009 12:10 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 10:15

Darkasantion

Just keep swimming!

Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
Het probleem van de GT300 en de GT215 was/is, weet het niet 100% zeker, het feit dat de onboard geheugencontroller nogal kieskeurig op het gebied van wel/niet werken met het geheugen.

Men moest erg snel geclockt geheugen hebben om de controller enigzins goed te kunnen laten werken, want anders verliest men teveel "power" omdat de controller simpelweg niet goed was.

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

Anoniem: 304087

neliz schreef op maandag 09 november 2009 @ 12:09:
[...]


ehrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr.

Misschien als ik het er zo neerzet dat je het dan wel begrijpt:

de Fermi chips die al beschikbaar en getest zijn voldoen niet aan de gestelde eisen met betrekking tot kloksnelheden van zowel de shader cores als de memory interface. De kaart is in die hoedanigheid dan ook niet competitief. Om dat wel te worden was/is een respin nodig om de gewenste kloksnelheden te halen.

Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)
Jeps ik begrijp het het zijn dus alle snelheden wat jij bedoelt.

[ Voor 83% gewijzigd door Anoniem: 304087 op 09-11-2009 12:14 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 27-05 23:01
Dat klopt, echter gaat het hier wel over geheugen snelheden.

Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 30-03 21:55
If (physx != HW_ACCELERATED){
use_framerate_multiplier (0.18);
}

http://www.tomshardware.c...rkham-asylum,2465-10.html

Zit je dan met je 4.2 GHz core i7, 18% in gebruik, dus ruimte zat voor 5 keer hogere fps met zowel 'normal' als 'high' physx settings.

Jammer dat ze niet ook een geforce gebruiken voor de software Physx test, want ik vraag me af of er daar niet ook ergens een vendor_id check verstopt zit.

[ Voor 28% gewijzigd door SneakyNL op 09-11-2009 13:08 ]


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 22-05 20:15
SneakyNL schreef op maandag 09 november 2009 @ 12:58:
If (physx != HW_ACCELERATED){
use_framerate_multiplier (0.18);
}

http://www.tomshardware.c...rkham-asylum,2465-10.html

Zit je dan met je 4.2 GHz core i7, 18% in gebruik, dus ruimte zat voor 5 keer hogere fps met zowel 'normal' als 'high' physx settings.
Man man man... als dit ook waar is... lijkt me erg slechte reclame voor nVidia. Het is in ieder geval heel erg merkwaardig dat het cpu gebruik lager is als Physix aan staat!!! Een framecap lijkt een goede verklaring hiervoor...

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

SneakyNL schreef op maandag 09 november 2009 @ 12:58:
Jammer dat ze niet ook een geforce gebruiken voor de software Physx test, want ik vraag me af of er daar niet ook ergens een vendor_id check verstopt zit.
Zowel CPU als GPU hebben een PhysX factor van 5 in B:AA waar bij CPU 1 zou moeten staan.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • SirNobax
  • Registratie: Mei 2007
  • Laatst online: 19-07-2023
Verklaard ook gelijk wat ik al eerder gezegd had:
SirNobax schreef op donderdag 22 oktober 2009 @ 13:11:
Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps. 8)7
Wat DevilsProphet ook al opmerkte. Naja, blijkbaar kom je met "iets anders aan de hand" wel aardig in de buurt :X .

[ Voor 21% gewijzigd door SirNobax op 09-11-2009 13:38 ]

Pentaxiaan


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 28-05 18:58

Format-C

Tracing Rays

neliz schreef op maandag 09 november 2009 @ 12:09:

Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)
Mmm, dan lijkt het erop dat ze problemen hebben met de geheugencontroller.... Edit; misschien kan die de hoge snelheden van GDDR5 niet aan.

ATi heeft daar al een paar jaar mee kunnen oefenen, en plukt er de vruchten van.

nV heeft dan (misschien) te lang gewacht met de overstap van GDDR3 naar GDDR4 en GDDR5.

[ Voor 7% gewijzigd door Format-C op 09-11-2009 13:50 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
RappieRappie schreef op maandag 09 november 2009 @ 13:47:
[...]

Mmm, dan lijkt het erop dat ze problemen hebben met de geheugencontroller.... Edit; misschien kan die de hoge snelheden van GDDR5 niet aan.

ATi heeft daar al een paar jaar mee kunnen oefenen, en plukt er de vruchten van.

nV heeft dan (misschien) te lang gewacht met de overstap van GDDR3 naar GDDR4 en GDDR5.
AMD heeft misschien iets meer dan anderhalf jaar met GDDR5 kunnen werken, maar veel tijd voor praktijkervaring was er niet omdat GDDR5 nu eenmaal niet veel vroeger klaar was dan de HD4k serie.

Maar je kunt je wellicht herinneren waarom mensen AMD aan het bashen waren voor hoge idle-verbruik van de HD4870/HD4890. Nieuw geheugen met een geheel nieuwe manier van aanpak. Blijkbaar kost het redelijk veel moeite om GDDR5 goed te laten functioneren, maar als je het eenmaal te pakken hebt, dan kan het ook ECHT goed functioneren, getuige de idle-verbruiken van de HD5k serie.

Ik vrees dat nVidia zijn huiswerk niet goed gedaan heeft de laatste jaren, wellicht niet eens verwacht had dat GDDR5 geheugen daadwerkelijk beschikbaar zou komen en daarom opeens het laatste jaar erg hard moet werken om het toch functioneel te krijgen.


Wat ik persoonlijk niet begrijp in zo'n geval, is dat terwijl de geheugenbus best wel erg breed blijft bij nVidia, ze niet naar GDDR4 kijken. Ten opzichte van GDDR3 is het grootste verschil toch alleen de te behalen kloksnelheden, waardoor GDDR4 opzich nog best interessant kan zijn voor nVidia.

In ieder geval kan ik me wel voorstellen dat nVidia geen chip naar buiten wil brengen die zelfs idle nog 100+ watt verstookt, omdat de geheugencontroller gewoon niet goed met GDDR5 kan werken, of andere rare dingen kan tegenkomen door de moeilijke synergy.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Alle GT21x GPU's ondersteunenn GDDR5. hoeveel kaarten met GDDR5 zijn het afgelopen jaar door nVidia uitgebracht (ik weet het echt zelf niet op dit moment)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
neliz schreef op maandag 09 november 2009 @ 18:58:
Alle GT21x GPU's ondersteunenn GDDR5. hoeveel kaarten met GDDR5 zijn het afgelopen jaar door nVidia uitgebracht (ik weet het echt zelf niet op dit moment)
Uitgaande van de pricewatch zijn er precies 0 nVidiakaarten met GDDR5 te leveren. Natuurlijk niet geheel 100% betrouwbaar voor de hele markt, maar in deze volgens mij aardig accuraat. De eerste kaart die echt baat bij GDDR5 zou hebben, is dan ook de GT240, die nog op de markt moet verschijnen. De vraag zal zijn hoeveel daarvan met GDDR5 uitgerust gaan worden.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

dahakon schreef op maandag 09 november 2009 @ 19:04:
Uitgaande van de pricewatch zijn er precies 0 nVidiakaarten met GDDR5 te leveren. Natuurlijk niet geheel 100% betrouwbaar voor de hele markt, maar in deze volgens mij aardig accuraat. De eerste kaart die echt baat bij GDDR5 zou hebben, is dan ook de GT240, die nog op de markt moet verschijnen. De vraag zal zijn hoeveel daarvan met GDDR5 uitgerust gaan worden.
Inderdaad... geannonceerd op 17 Oktober.... heeft op de site van Salland gestaan.. en is nu?


*poef*

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 292676

neliz schreef op maandag 09 november 2009 @ 18:58:
Alle GT21x GPU's ondersteunenn GDDR5. hoeveel kaarten met GDDR5 zijn het afgelopen jaar door nVidia uitgebracht (ik weet het echt zelf niet op dit moment)
ja dat is waar maar de mem controller werkt alleen als de frequenties op zeer hoge snelheden staan.
Dit betekent dat
  • nV duurste gddr5 varianten moet kopen (dus de kostprijs aanzienelijk hoger jaagt)
  • hogere idle verbruik

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Edit

Ff verwijderd verkeerde topic sorry jongens

[ Voor 86% gewijzigd door Anoniem: 304087 op 09-11-2009 19:50 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Anoniem: 292676 schreef op maandag 09 november 2009 @ 19:12:
ja dat is waar maar de mem controller werkt alleen als de frequenties op zeer hoge snelheden staan.
Dit betekent dat
  • nV duurste gddr5 varianten moet kopen (dus de kostprijs aanzienelijk hoger jaagt)
  • hogere idle verbruik
Ik weet niet of dat hier heeft gestaan (ik denk het niet) maar het prijsverschil tussen 1GB GDDR3 en GDDR5 is kwartjeswerk. Zelfs met de extreem dure variant praat je niet over extreem hoge meerkosten aangezien het ook performance met zich meebrengt.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Volgens mij wordt GDDR4 niet gebruikt door eender welke fabrikant. Dat zou betekenen dat alleen voor NV de productie opgestart zou moeten worden, wat extra $$$ moet kosten. Geen optie voor NV dus.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
AMD had GDDR4 in gebruik voor zijn HD3870 en Sapphire heeft nog altijd een speciale HD4670 met GDDR4 in zijn lijn van kaarten. De productie zal ondertussen wel niet echt meer plaatshebben, maar als nVidia zich optijd bedacht had, hadden ze er zo gebruik van kunnen maken.

Ik denk echter dat het voordeel dat GDDR5 biedt gewoonweg te groot is om GDDR4 te overwegen en dat het belang van het gebruiken van 'de nieuwste technieken' ook wel meespeelt. Hoe verkoop je het je klanten dat je nog steeds 'ouderwets (g)DDR3 gebruikt, terwijl de competitie al meer dan een jaar op GDDR5 draait.

Acties:
  • 0 Henk 'm!

Anoniem: 58485

Enige voordeel van GDDR4 tov GDDR3 was is dat het ietsjes zuiniger in verbruik was. Maar verder ook niet.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 58485 schreef op maandag 09 november 2009 @ 20:13:
Enige voordeel van GDDR4 tov GDDR3 was is dat het ietsjes zuiniger in verbruik was. Maar verder ook niet.
http://www.overclock.net/...ddr3-vs-gddr4-review.html

Er is wel iets meer dan dat.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

http://www.tomshardware.c...6-CPU-GPU-Huang,9026.html

NV niet in de x86 markt, zegt Jen

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Nvidia Fermi launch slips into January 2010

Just as it happened last year with the Geforce GTX 295, Nvidia will most likely showcase Fermi-based cards in December and will start shipping them out in January.

Nvidia cannot make it in time for a late November or early December launch as it had originally planned, and the A2 silicon that has currently taped out of the fab will not be the final silicon. Nvidia will move to A3 silicon for its final retail products. Our multiple internal sources have confirmed that Nvidia has samples but it keeps them within the company, heavily guarded and they won’t be shipping in 2009.

Nvidia did the same with GTX 295 when a few select hacks got cards and posted reviews on December 18th, 2008 while the official launch took place on January 8th, 2009. Jensen is not happy with the slight product delays, but Nvidia wants to have massive availability at launch. On another note, the fact that ATI has sold out of its Radeon HD 5870 actually works in Nvidia’s favour. For those enthusiasts who demand DirectX 11 card for the holidays, the Radeon HD 5870 is going to be the only option until CES 2010 comes around.
Als zelfs FUD meldt dat 2009 niet gehaald wordt... :+

Aan de andere kant staat hier wel weer een hoop crap in. Er wordt gemeld dat NV in december zal showcasen, terwijl ze naar A3 silicon moeten. Elke andere site verwacht op zijn vroegst een showcase op CES. En een productie die pas in januari ramped ligt echt niet met CES al in de winkels.
Dit wordt imho zeker niet voor maart, misschien zelfs april. :S

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Edmin schreef op dinsdag 10 november 2009 @ 13:38:

Nvidia Fermi launch slips into January 2010

Aan de andere kant staat hier wel weer een hoop crap in. Er wordt gemeld dat NV in december zal showcasen, terwijl ze naar A3 silicon moeten. Elke andere site verwacht op zijn vroegst een showcase op CES. En een productie die pas in januari ramped ligt echt niet met CES al in de winkels.
Dit wordt imho zeker niet voor maart, misschien zelfs april. :S
"Tesla" 55nm (GT200b) werd ook gedemonstreerd met B2 (in Mei/Juni) en kwam in September mondjesmaat op de markt (B2) en pas vanaf november beter als B3 (Tesla/GTX) en als "ultiem product" pas in de GTX295 in January. Dan praat je dus over 7 maanden voor het goed en wel verwerken van een spin en het op de markt brengen van het uiteindelijke product.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Overigens was het A3 verhaal wel nieuw voor me. Ik dacht dat A2 pas net een paar weken was gesampled?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Edmin schreef op dinsdag 10 november 2009 @ 13:55:
Overigens was het A3 verhaal wel nieuw voor me. Ik dacht dat A2 pas net een paar weken was gesampled?
Ze weten nu al dat ze een A3 nodig hebben, vandaar dat in de Conference Call wordt aangegeven dat nvidia verwacht pas in Q1 volgend jaar met massaproductie te kunnen beginnen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 25-03 01:26

SECURITEH

Man of legend.

Ik geloof dat iemand Jen-Hsun Huang een keer op de hoogte moet brengen dat er geen nVidia hardware meer in Apple computers zit, de volgende zin wist mij namelijk erg aan het lachen te krijgen:
Apple uses the best technology for its [computers]…and says to its customers: if you buy a computer from us, you can be sure we have selected the best technology inside for you. That is their promise to consumers.
Bron.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Ik postte eerder al dat ik het gevoel heb dat NV jaloers is op het bizz model van Apple en dat ze daar dichter tegenaan willen schurken. Nu weet ik het zeker.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
Dit klopt als je verschillende architecturen vergelijkt kun je clockspeeds niet als vergelijkings materiaal gebruiken. Dan is het gewoon een van de dingen die de uiteindelijke performance bepaald. Als de architectuur hetzelfde is gaat dit natuurlijk wel op. Bij de stap van GT200 naar GT300 is de architectuur verandert dus 1:1 vergelijken kan niet. Maar hij lijkt er nog wel sterk op. Meer dan op de RV870 van AMD.

En wat ze hier bedoelen is dat er bv gemikt wordt op 700 MHz en er nu maar 500 gedraaid kan worden. Het zou mij niets verbazen als de huidige Fermi samples trager zijn dan een HD5870 of een GTX295. En dat ze echt die bugs moeten oplossen om de performance goed te krijgen. De eerste geruchten hebben het over 20-30% sneller dan de HD5870 (met Cat 9.10 Drivers).


En over dat GDDR4. GDDR4 kon veel hogere clockspeeds halen. Maar had wel hogere latency's waardoor 1 GHz GDDR3 sneller was als 1.1 GHz GDDR4. Wou je echt sneller zijn moest je omhoog met de clockspeeds naar 1.4+ GHz. Maar dat soort snelle GDDR4 chips zijn tot nu toe nooit gebruikt voor High performance VGA kaarten. AMD is toen meteen over gegaan naar GDDR5. De HD3870 is volgens mij de enige kaart van AMD die GDDR4 gebruikte. Het geheugen was wel degelijk sneller dan GDDR3 maar niet snel genoeg voor wat AMD er mee wou gaan doen. Zie HD4850 vs HD4870.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Tijdens de presentatie van de meest recente kwartaalcijfers was nVidia's vice-president Jen-Hsun Huang bereid enkele vragen van de pers te beantwoorden. Huang's bevestigde onder meer wat velen al vermoedden, namelijk dat we dit jaar geen DirectX 11 videokaarten, met codenaam Fermi, op de markt hoeven te verwachten. Een zogenaamde paper launch wordt niet uitgesloten, maar het eerste kwartaal van volgend jaar zal het meest interessant blijken. Ook bevestigde Huang dat Fermi in drie verschillende varianten op de markt zal komen, te weten als Tesla, Quadro en GeForce.

Dit laatste volgde naar aanleiding van een vraag waarom tijdens het uit de doeken doen van de Fermi architectuur er vrijwel alleen maar aandacht uitging de GPGPU-mogelijkheden van de chip, wat de focus van nVidia's Tesla GPU's is. Volgens de vice-president van nVidia zal over de grafische prestaties van Fermi, die voor de Quadro en GeForce videokaarten van belang zijn, meer duidelijk worden wanneer het moment van introductie aanbreekt. Voor het zover is zal nVidia echter nog flink wat extra wafers moeten zien te bemachtigen, want - zo werd aangegeven - het bedrijf zal een grote hoeveelheid 40 nm wafers nodig hebben om Fermi in zowel GeForce-, Quadro- als Tesla-producten onder te kunnen brengen.

Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft. nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Astennu schreef op woensdag 11 november 2009 @ 10:16:
En over dat GDDR4. GDDR4 kon veel hogere clockspeeds halen. Maar had wel hogere latency's waardoor 1 GHz GDDR3 sneller was als 1.1 GHz GDDR4. Wou je echt sneller zijn moest je omhoog met de clockspeeds naar 1.4+ GHz. Maar dat soort snelle GDDR4 chips zijn tot nu toe nooit gebruikt voor High performance VGA kaarten. AMD is toen meteen over gegaan naar GDDR5. De HD3870 is volgens mij de enige kaart van AMD die GDDR4 gebruikte. Het geheugen was wel degelijk sneller dan GDDR3 maar niet snel genoeg voor wat AMD er mee wou gaan doen. Zie HD4850 vs HD4870.
Ben je de 2900 nu al vergeten?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 10:15

Darkasantion

Just keep swimming!

Dit laatste volgde naar aanleiding van een vraag waarom tijdens het uit de doeken doen van de Fermi architectuur er vrijwel alleen maar aandacht uitging de GPGPU-mogelijkheden van de chip, wat de focus van nVidia's Tesla GPU's is. Volgens de vice-president van nVidia zal over de grafische prestaties van Fermi, die voor de Quadro en GeForce videokaarten van belang zijn, meer duidelijk worden wanneer het moment van introductie aanbreekt. Voor het zover is zal nVidia echter nog flink wat extra wafers moeten zien te bemachtigen, want - zo werd aangegeven - het bedrijf zal een grote hoeveelheid 40 nm wafers nodig hebben om Fermi in zowel GeForce-, Quadro- als Tesla-producten onder te kunnen brengen.
Oftewel, de finale specs van Fermi zijn nog niet bekend, en gaan ervan afhangen hoeveel prestatie zij eruit kunnen krijgen met hun huidige "problemen" met Fermi :+
Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft. nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
FAIL!
RV870=/RV770......
Waarvij RV770 ook een totale vernieuwing was qua architectuur, en de RV870 hier verder op heeft gebouwd, maar dan wel grondig aangepast en verbeterd is. Want als je RV770 en RV870 gaat vergelijken, moet je op zijn allerminst zeggen dat RV870= ~2xRV770
Mister Huang is dus bezig om alles goed te praten, terwijl er niet veel goeds is :X

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 29-05 22:49

superwashandje

grofheid alom

Anoniem: 304087 schreef op woensdag 11 november 2009 @ 10:47:
Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft.
weinig meer? toch al snel het dubbele.
nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
ja...of niet natuurlijk. tot nu toe lijkt het volgens mij meer op niet dan wel.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
Alsof een volledig nieuwe architectuur een garantie is voor betere, laat staan ongekende, prestaties?

Denk bijvoorbeeld maar eens aan de 2900XT en de FX5900.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
neliz schreef op woensdag 11 november 2009 @ 11:05:
[...]


Ben je de 2900 nu al vergeten?
In welk opzicht ? Want de HD2900 gebruikte GDDR3 gekoppeld aan een 512 Bit bus.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

FX5800 .. de 5900 en 5950 waren "redelijk"

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
neliz schreef op woensdag 11 november 2009 @ 11:45:
FX5800 .. de 5900 en 5950 waren "redelijk"
Typo, moest inderdaad 5800 zijn. :o

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
Darkasantion schreef op woensdag 11 november 2009 @ 11:05:
[...]

Oftewel, de finale specs van Fermi zijn nog niet bekend, en gaan ervan afhangen hoeveel prestatie zij eruit kunnen krijgen met hun huidige "problemen" met Fermi :+


[...]

FAIL!
RV870=/RV770......
Waarvij RV770 ook een totale vernieuwing was qua architectuur, en de RV870 hier verder op heeft gebouwd, maar dan wel grondig aangepast en verbeterd is. Want als je RV770 en RV870 gaat vergelijken, moet je op zijn allerminst zeggen dat RV870= ~2xRV770
Mister Huang is dus bezig om alles goed te praten, terwijl er niet veel goeds is :X
Grappig dat hij zo praat over de RV870. En hun idiote acties dan ? 8800 GT = 9800 GTX = 9800 GTX+ = 9800 GT = GTS250 = Allemaal G92 waarvan een op 65nm en een op 55nm.

En dan beginnen hun te zeggen dat de RV870 een RV770 is met DX11 hou toch snel even op zeg :o Er zitten meer vernieuwende dingen in dan hun in hun GT21x chips hebben zitten. Zoals nieuwe UVD en Eyefinity.

En als we zo gaan kijken is RV870 = R600 allemaal dezelfde basis alleen door ontwikkeld. Net zo goed als de GT200 dan gelijk is aan de G80. Hetzelfde met veel tweaks en doorontwikkelingen.

Als ik het goed heb begrepen komt AMD bij de volgende generatie kaarten ook met een nieuwe Architectuur.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 58485

Maar vergeet niet dat Nvidia zelf een hele reeks heeft zitten herbakken.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29

frankknopers

Goud is geen geld

Astennu schreef op woensdag 11 november 2009 @ 11:43:
[...]


In welk opzicht ? Want de HD2900 gebruikte GDDR3 gekoppeld aan een 512 Bit bus.
De HD2900XT 1GB was met GDDR4 chips. Verder hadden ook de Radeon X1950XTX, de HD3870 en de HD2600 (speciale versie van Sapphire) GDDR4 geheugen. Ten opzichte van GDDR3 was het wel duurder, maar niet zo veel sneller. De kloksnelheden konden iets hoger, maar eigenlijk niet genoeg om de meerprijs boven GDDR3 te rechtvaardigen. Met GDDR5 is dat wel gelukt..

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Stpan
  • Registratie: Januari 2005
  • Laatst online: 06-04 10:33
*knip*

Mijn diepste excuus aan de moderators als ik regels overtreed.

Ik heb liever dat je je gewoon aan de regels houdt.

[ Voor 62% gewijzigd door Edmin op 11-11-2009 13:05 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 28-05 20:28
frankknopers schreef op woensdag 11 november 2009 @ 12:16:
[...]

De HD2900XT 1GB was met GDDR4 chips. Verder hadden ook de Radeon X1950XTX, de HD3870 en de HD2600 (speciale versie van Sapphire) GDDR4 geheugen. Ten opzichte van GDDR3 was het wel duurder, maar niet zo veel sneller. De kloksnelheden konden iets hoger, maar eigenlijk niet genoeg om de meerprijs boven GDDR3 te rechtvaardigen. Met GDDR5 is dat wel gelukt..
Je hebt gelijk ja. Daar had ik even niet aan gedacht. Die X1950XTX en de 1GB versie van de 2900 had ik moeten weten :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 27-05 03:08
Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft. nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
Ik sluit me aan bij superwashandje, dit zegt in principe niks.

Slechts een incrementele stap zetten, dat hoeft helemaal niet slecht te zijn. Als het vorige product goed was (en dat was de hd4000 serie toch?) en je weet dit verder te perfectioneren, wat is daar mis mee?

Dat Fermi vanaf de grond opgebouwd is, kan wel grote voordelen opleveren, maar is in zo'n geval vaak op een specifiek punt gericht. Het zou mij niet verbazen als hij 'met ongekende prestaties' de gpgpu of cuda prestaties bedoelt. Als je daar je pijlen op richt bij het vanaf de grond opnieuw opbouwen van je GPU, tja, dan is het logisch dat die prestaties onevenredig veel beter zijn dan de vorige GPU. In dat geval zegt het niet zo veel over de gaming prestaties van die kaart. Maar je hebt ook opnieuw te maken met kinderziektes en andere problemen waar je geen of minder last van hebt als je voortborduurt op een bestaand ontwerp.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 21-10-2024
Ik heb een nieuwe TS aangemaakt voor deeltje 41:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41

Hierin ben ik eindelijk begonnen aan de update van het mobiele gedeelte (moet nog veel bijkomen...)

Hopelijk wordt het een mooi nieuw on-topic deeltje zodat dit topic kan blijven voortbestaan + laten we hopen dat we eens wat positiever nieuws erin gaan krijgen qua nVidia en hun nieuwe gaming GPU's .
(hun website begint zich meer en meer op ander stuff te richten atm heb ik de indruk :/)

Ohja, bijna vergeten, zoals altijd zijn vragen/opmerkingen/correcties steeds meer dan welkom ;)

[ Voor 8% gewijzigd door lightdestroyer op 11-11-2009 17:32 ]

Specs


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 27-05 03:08
lightdestroyer schreef op woensdag 11 november 2009 @ 17:30:
Ik heb een nieuwe TS aangemaakt voor deeltje 41:

[Algemeen] nVidia Nieuws & Discussie Topic - Deel 41

Hierin ben ik eindelijk begonnen aan de update van het mobiele gedeelte (moet nog veel bijkomen...)

Hopelijk wordt het een mooi nieuw on-topic deeltje zodat dit topic kan blijven voortbestaan + laten we hopen dat we eens wat positiever nieuws erin gaan krijgen qua nVidia en hun nieuwe gaming GPU's .
(hun website begint zich meer en meer op ander stuff te richten atm heb ik de indruk :/)

Ohja, bijna vergeten, zoals altijd zijn vragen/opmerkingen/correcties steeds meer dan welkom ;)
Bij de toekomstige kaarten: gt300 'midden oktober' gaan ze niet meer halen vrees ik

En voor je mobiele chips, misschien is het wel aardig om ook hier een linkje naartoe te geven zodat je duidelijk kan zien welke chip nou hoe snel ongeveer is:
http://www.notebookcheck....-Graphic-Cards.130.0.html

[ Voor 12% gewijzigd door whiteguy op 11-11-2009 17:53 ]


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 28-05 14:09

Edmin

Crew Council

get on my horse!

Pagina: 1 ... 5 6 Laatste

Dit topic is gesloten.

Let op:
Houd de discussie open en eerlijk. Overtuigen doen we met argumenten. Voor ATi vs. NVidia flamewars is hier geen plaats. Voor het gebruik van termen als 'fanboy' en aanverwante zaken is er geen tolerantie!