Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ah, ik dacht dat hij bedoelde in het mobo te zagen. Dit truukje ken ik al, maar is zonde van je videokaart.
Homey — Critics are those without skills to create.
Dat bedoel ik ook, LINK.WeeJeWel schreef op donderdag 05 november 2009 @ 17:38:
[...]
Ah, ik dacht dat hij bedoelde in het mobo te zagen.
[ Voor 9% gewijzigd door SirNobax op 05-11-2009 18:34 ]
Pentaxiaan
http://forums.hexus.net/h...-neglecting-gamers-2.html
0.3.4 stamt alweer uit 29 april 2009, oftewel: dikke fake want het was pas vele maanden later dat er enigszins werkende samples van Fermi uit de fabrieken terugkwamen.
Anoniem: 258128
Ja ik gebruik zelf zelden GPU-Z dus ben daar niet zo in thuis, maar bedankt voor het uitlichten.Jejking schreef op vrijdag 06 november 2009 @ 01:56:
We zitten ondertussen al op GPU-z 0.3.6...
0.3.4 stamt alweer uit 29 april 2009, oftewel: dikke fake want het was pas vele maanden later dat er enigszins werkende samples van Fermi uit de fabrieken terugkwamen.
Die persoon die dit gemaakt heeft heeft niet eens zijn best gedaan een goede fake te maken:Anoniem: 258128 schreef op vrijdag 06 november 2009 @ 01:03:
Hmmm
Is dit al bekend? (Zal wel nep zijn)
[afbeelding]
Just incase..
VendorID 10DB = kaart gemaakt door Rohm Research

DeviceID 0000, Als de deviceID 0000 is kent GPU-Z de bijbehorende aantal rop's en shaders niet (haalt GPU-Z uit een database adhv vendor/deviceID
DirectX support 11/SM4.0
Anoniem: 304087
Hoeft niet fake te zijn hoor, ligt er maar niet aan welke gpuz de tester op het systeem heeft gezet ogJejking schreef op vrijdag 06 november 2009 @ 01:56:
We zitten ondertussen al op GPU-z 0.3.6...
0.3.4 stamt alweer uit 29 april 2009, oftewel: dikke fake want het was pas vele maanden later dat er enigszins werkende samples van Fermi uit de fabrieken terugkwamen.
nog heeft staan. Dus gelijk roepen dat het fake is is een beetje overdreven vind ik.
De rest van de foutjes in gpuzkomt mischien wel omdat het progamma niet up to date is met de gtx380.
Ik zeg niet of het nep is of echt wat daar kan ik geen oordeel over geven,
Cj nog bedankt over die bull shit van charlie iedereen trapte er al weer in behalve ik
[ Voor 20% gewijzigd door Anoniem: 304087 op 06-11-2009 10:55 ]
DeviceID in GPU-Z wordt direct van de kaart gelezen dus GPU-Z afbeelding is fakeAnoniem: 304087 schreef op vrijdag 06 november 2009 @ 10:50:
[...]
Hoeft niet fake te zijn hoor, ligt er maar niet aan welke gpuz de tester op het systeem heeft gezet og
nog heeft staan. Dus gelijk roepen dat het fake is is een beetje overdreven vind ik.
De rest van de foutjes in gpuzkomt mischien wel omdat het progamma niet up to date is met de gtx380.
Ik zeg niet of het nep is of echt wat daar kan ik geen oordeel over geven,
Cj nog bedankt over die bull shit van charlie iedereen trapte er al weer in behalve ik
Ik trapte er in omdat hij het de vorige keren het wel goed had..... Dus ja, bij deze heeft hij een fout gemaakt, maar zijn argumentatie was goed, hoewel, zoals CJ al had aangegeven, hij had wat meer onderzoek kunnen doen voordat hij zijn conclusies trok.Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 10:50:
[...]
Hoeft niet fake te zijn hoor, ligt er maar niet aan welke gpuz de tester op het systeem heeft gezet og
nog heeft staan. Dus gelijk roepen dat het fake is is een beetje overdreven vind ik.
De rest van de foutjes in gpuzkomt mischien wel omdat het progamma niet up to date is met de gtx380.
Ik zeg niet of het nep is of echt wat daar kan ik geen oordeel over geven,
Cj nog bedankt over die bull shit van charlie iedereen trapte er al weer in behalve ik
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 304087
Tjah daar ga ik niet over oordelen of het fake is of niet we zien wel als het kaartje er isBlastpe schreef op vrijdag 06 november 2009 @ 11:08:
[...]
DeviceID in GPU-Z wordt direct van de kaart gelezen dus GPU-Z afbeelding is fake
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logies nadenkenDarkasantion schreef op vrijdag 06 november 2009 @ 11:11:
[...]
Ik trapte er in omdat hij het de vorige keren het wel goed had..... Dus ja, bij deze heeft hij een fout gemaakt, maar zijn argumentatie was goed, hoewel, zoals CJ al had aangegeven, hij had wat meer onderzoek kunnen doen voordat hij zijn conclusies trok.
[ Voor 98% gewijzigd door Anoniem: 304087 op 06-11-2009 11:14 ]
Ja, een nep-kaart laten zien bij een persconferentie is logischerwijs ook onmogelijk.Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logies nadenken
En voor de duidelijkheid, ik vind het ook geen reden om het meteen wèl te geloven. Maar dat je het te ver vind gaan is helaas geen reden meer om het meteen nìet te geloven tegenwoordig.
[ Voor 27% gewijzigd door bwerg op 06-11-2009 11:27 ]
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 304087
Mee eens. Wat is de mens toch slecht hebwerg schreef op vrijdag 06 november 2009 @ 11:24:
[...]
Ja, een nep-kaart laten zien bij een persconferentie is logischerwijs ook onmogelijk.Dat vond ik eigenlijk verder gaan. Opzich dus geen reden meer om dat soort dingen op voorhand af te wijzen.
Het is logischer dat Nvidia alles probeerd te doen om die Lucid Hydra hardwarematig te blacklisten en dwars te zitten, net zoals ze met dedicated Physx kaarten doen i.c.m. ATI videokaarten.Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logisch nadenken
Nvidia verdient namelijk geld met hun SLI licenties, die vergeleken met deze hardware vreselijk achterlopen kwa features, en niets meer voorstellen dan wat softwarematige code wat door de CPU word afgehandeld.
@ GPUz screenie
GPUz stats, of beter gezegd, de specificaties van videokaarten op papier, zijn al jaren waardeloos, dus ik snap sowieso al niet waar iemand de moeite voor neemt om zoiets te verzinnen. Van de Geforce 256 tot de Geforce 7 serie was alles nog makkelijk te berekenen op papier (ik maakte hele lijsten
[ Voor 36% gewijzigd door SirNobax op 06-11-2009 11:39 ]
Pentaxiaan
Anoniem: 304087
En dan vooral met de driver ondersteuning in games en OS zelf want de renderingen van beide kaarten werken totaal anders als je een ati met een nvidia kaart zamen wil laten werken.
Ik wil wel eens zien op papier hoe het in zijn werk zal gaan want daar heb ik nog niets over kunnen vinden
over de techniek en dan vooral hoe het softwarematig werkt.
Ik heb op dit moment even geen links bij de hand, maar ik geloof dat PC Perspective en Anandtech ooit eens hebben uitgelegd hoe het werkt.Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:32:
Ik heb helemaal geen vertrouwen in die chip omdat het alleemaal nog ingewikkelder zit dan sli en cfx.
En dan vooral met de driver ondersteuning in games en OS zelf want de renderingen van beide kaarten werken totaal anders als je een ati met een nvidia kaart zamen wil laten werken.
Ik wil wel eens zien op papier hoe het in zijn werk zal gaan want daar heb ik nog niets over kunnen vinden
over de techniek en dan vooral hoe het softwarematig werkt.
De Lucid Hydra chip kan alle renderingmogelijkheden die CrossFireX en SLI ook kunnen (dus AFR en SFR), maar kan ook Object Based Rendering doen. Wat dit inhoudt is dat bv objecten als dieren/mensen in een 3D scene aan GPU 1 wordt toegewezen, terwijl de omgeving door GPU 2 gerenderd wordt. Het kan voor perfecte scaling zorgen omdat de workload verdeeld wordt op basis van de kracht van de gekoppelde GPU. De chip bepaalt welke renderingmethode het beste gebruikt kan worden.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 304087
Intessant vind ik Opject based rendering. Als ik zo naar jou'n reactie kijkt begin ik er toch wel over te twijvelen.CJ schreef op vrijdag 06 november 2009 @ 12:39:
[...]
Ik heb op dit moment even geen links bij de hand, maar ik geloof dat PC Perspective en Anandtech ooit eens hebben uitgelegd hoe het werkt.
De Lucid Hydra chip kan alle renderinmogelijkheden die CrossFireX en SLI ook kunnen (dus AFR en SFR), maar kan ook Object Based Rendering doen. Wat dit inhoudt is dat bv objecten als dieren/mensen in een 3D scene aan GPU 1 wordt toegewezen, terwijl de omgeving door GPU 2 gerenderd wordt. Het kan voor perfecte scaling zorgen omdat de workload verdeeld wordt op basis van de kracht van de gekoppelde GPU. De chip bepaald welke renderingmethode het beste gebruikt kan worden.
Hier kan nog wel eens flink wat performance winst in gaan zitten.
Kortom: ik kan me niet voorstellen dat Lucid Hydra beter schaalt dan SLI of Crossfire. Het enige voordeel zal hem dan zitten in het gebruiken van verschillende kaarten (eventueel van verschillende fabrikanten). Zelfs als Lucid Hydra beter schaalt dan SLI of Crossfire, dan is het slechts een kwestie van tijd voordat nVidia/AMD dezelfde technieken in hun eigen drivers implementeren.
Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.
Maar voordat ik onafhankelijke benchmarks heb gezien geloof ik niet dat Lucid Hydra het miraculeuze wondermiddel is voor dat het schalingsprobleem bij videokaarten oplost.
The Flying Dutchman
Nou sorry hoor maar gezien nVidia's history had dit prima waar kunnen zijn. In dat opzicht zijn ze net zo nasty als Intel of wat zeg ik ik denk zelfs dat nVidia nog wel eens wat erger kan zijn.Anoniem: 304087 schreef op vrijdag 06 november 2009 @ 11:12:
[...]
Tjah daar ga ik niet over oordelen of het fake is of niet we zien wel als het kaartje er is
[...]
Ik wist het gelijk al wel. Sommige dingen kunnen te ver gaan ook voor nvidia zelf. Beetje logies nadenken
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
[ Voor 8% gewijzigd door Anoniem: 304087 op 06-11-2009 14:18 ]
Dat dus.The Flying Dutchman schreef op vrijdag 06 november 2009 @ 13:59:
Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.
Ook al zit er een zielig NF200 chipje van Nvidia op het moederboard wat "voor SLI zorgt", het enige wat er gebeurd is dat de drivers zien 'hier mogen we SLI inschakelen' en dan worden de drivers/CPU aan het werk gezet.
Punt is, (wat ik begrepen heb) dat Object Based Rendering veel haken en ogen heeft wat veel ondersteuning en optimalisatie nodig heeft om bugloos te werken. Begrijpelijk niet iets waar Nvidia en ATI om staan te springen gezien die al hun tijd al gebruiken om de drivers te tweaken en bugs te fixen.
@hierboven
Neemt niet weg dat nvidia hier niet blij mee is, en hier mogelijk alsnog een stokje voor gaat steken. CJ ontkracht alleen dat MSI snel wat namen heeft aangepast en foto's hebben gephotoschopped omdat die Lucid chip geen zin had.
[ Voor 12% gewijzigd door SirNobax op 06-11-2009 14:35 ]
Pentaxiaan
En ook al zie je verschil: dat weet je van tevoren maar de optie is er in ieder geval.
Maar ik ben benieuwd naar de eerste reviews, daar zullen dit soort vragen hopelijk beantwoord worden.
[ Voor 17% gewijzigd door bwerg op 06-11-2009 14:49 ]
Heeft geen speciale krachten en is daar erg boos over.
Zoals hierboven ook al aangegeven... Je geeft zelf het antwoord al op je vraag. Lucid Hydra is een hardwarematige oplossing. Het is een real time distributed processing engine.The Flying Dutchman schreef op vrijdag 06 november 2009 @ 13:59:
Als object based rendering zo fantastisch is, waarom doen nVidia's SLI en AMD's crossfire dat dan nog niet? Ik bedoel: als datgene wat Lucid Hydra doet zo geweldig is ten opzicht van SLI of crossfire, dan zouden nVidia/AMD wel gek zijn om het niet in hun eigen drivers (voor SLI/crossfire) te implementeren.
Kortom: ik kan me niet voorstellen dat Lucid Hydra beter schaalt dan SLI of Crossfire. Het enige voordeel zal hem dan zitten in het gebruiken van verschillende kaarten (eventueel van verschillende fabrikanten). Zelfs als Lucid Hydra beter schaalt dan SLI of Crossfire, dan is het slechts een kwestie van tijd voordat nVidia/AMD dezelfde technieken in hun eigen drivers implementeren.
Het enige wat nog verschil zou kunnen maken is dat Lucid Hydra hardwarematig de load verdeelt. Misschien dat huidige SLI of Crossfire oplossingen dit alleen maar softwarematig kunnen en dat daar een bottleneck ontstaat.
De huidige gebruikte technieken van NV en AMD zijn ook verre van perfect. Ze hebben profielen nodig om goed te werken en kunnen dan alsnog last hebben van zaken als microstuttering. Doordat de Hydra een aparte chip is (een parallelle graphics processor) kan je deze issues sowieso omzeilen.
In theorie zou de scaling bij Object Based Rendering ideaal moeten zijn voor mix 'n match oplossingen. De chip berekent in real time welke objecten door welke GPU gerenderd moeten worden nadat het geanalyseerd heeft hoeveel processingpower elke GPU heeft en de toegewezen workload per GPU in real time aanpast. Zoals je zelf ook al aangeeft zouden NV en AMD dit in hun drivers moeten implementeren. Dit zou dan een software oplossing worden. En wil men mix 'n match gaan implementeren dan wordt het helemaal een ingewikkeld verhaal. Elke week komen nieuwe videokaarten uit en dat moet allemaal in de drivers geregistreerd worden wil je er voor kunnen zorgen dat je die nieuwe kaarten ook kunt koppelen aan andere kaarten met de juiste loadbalancing.Maar voordat ik onafhankelijke benchmarks heb gezien geloof ik niet dat Lucid Hydra het miraculeuze wondermiddel is voor dat het schalingsprobleem bij videokaarten oplost.
Tot nu toe gold eigenlijk altijd dat: dedicated hardware solution > software solution. Maar dat wil niet zeggen dat deze oplossing de holy grail is. Object Based Rendering heeft ook zo z'n nadelen, maar de Lucid oplossing is wel een stuk flexibeler dan de huidige SLI en CFX oplossingen.
Maar AMD en NV staan ook niet stil wat betreft ontwikkeling op multi-GPU gebied. AMD schijnt al enkele leuke vernieuwingen in de pipeline te hebben op het gebied van het adresseren van bepaalde multi-GPU problemen. AMD heeft zelfs al aangegeven dat als de Lucid technologie werkt en levert wat Lucid belooft, ze deze technologie zullen omarmen.
Hands-on Lucid Hydra:
http://www.legitreviews.com/article/1093/1/
http://www.anandtech.com/video/showdoc.aspx?i=3646
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Update: MSI's Garrett Wu responded, and while he is not the person we were talking to, his response is as follows.
“The MSI P55 Big Bang with NVIDIA NF200 was already planned in December 2008, almost one year ago. MSI showcased this board on Cebit 2009 which was reported by many media like http://www.tcmagazine.com/comments.php?id=24935&catid=2 and there are also photos which show very clearly the NF200 chip: http://images.hardware.info/news/cebit-day2-23.jpg. MSI Big Bang Trinergy (NF200) is already announced and will go into mass production by the end of November.
The MSI Big Bang Fuzion (Hydra 200) hardware is ready. Currently Lucid is optimizing the driver for Windows 7 so that it works stable and in all configurations (Including Mix & Match mode). Because MSI is dedicated to bring high quality and stable product on the market we decided to postpone the Big Bang Fuzion (Hydra 200) pending the MSI internal qualification assurance test. The Big Bang Fuzion (Hydra 200) will be released when it’s driver is finished which is most likely Q1 2010.
MSI also states that all Big Bang info can be found here. We linked this site several times in the above story.
I would also like to add that I personally saw that board at CeBIT, and wrote it up on the same day as the TCMagazine story. My story on it is here. We hear MSI is readying a response piece, and we will respond to that when we see it.
NVIDIA says no to multi-GPU HYDRA
With the emerge of MSI Big Bang Trinergy,creative and practical HYDRA developed by Lucid has come into practice.However,it has biggest roadblock,NVIDIA.
The Hydra multi-GPU engine allows vendor-neutral and model-neutral GPU performance upscaling, without adhering to proprietary technologies such as NVIDIA SLI or ATI CrossfireX.Lucid HYDRA has posed a great threat to SLI.It is necessary to be forced out.Interestingly,NVIDIA just criticized Intel due to USB 3.0 delay.
NVIDIA claims that it is working on its drivers to ensure that its GeForce GPUs don’t work on platforms that use Hydra.All above force MSI to cancell the use of Lucid HYDRA.In fact,MSI is planning to make a series products with this motherboard,named:Big Bang Fuzion.
NVIDIA、Lucid、MSI is yet to give official remark on this.Expects to have a feasible solution for major players.
Report: NVIDIA Plans to Block Lucid’s Hydra Chip
If you’re wondering why the highly-anticipated MSI Big Bang Trinergy motherboard turned out to be using NVIDIA’s nForce 200 SLI chip, with no sign of the Lucid Hydra 200 chip as it promised, the answer is simple - NVIDIA does not like it.
Considering the product would impact NVIDIA’s profit coming from SLI fee, the green giant decides that it’s time to do something. Firstly, they will break support for Lucid’s chip at the driver part, and by unknown means force MSI to postpone their “Big Bang” motherboard. Though MSI claims the Big Bang Fusion powered by Hydra engine will be released by the end of 2009, we don’t think so, exactly. The site Overclock3D believes the board will be delayed to early next year, or even be killed finally.
The multi-GPU solution has opened up a totally different battlefield, but NVIDIA is apparently unprepared yet or unwilling to fight.
Zie ik dus net
[ Voor 36% gewijzigd door -The_Mask- op 06-11-2009 22:30 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Ze kunnen natuurlijk ook non x86-structuur processors maken, bijvoorbeeld op ARM gebasseerde processors.Anoniem: 292676 schreef op zaterdag 07 november 2009 @ 00:26:
hebben ze wel de licenties van intel en amd?
Aan de andere kant heeft mijn processor nog wel wat cores over die meestal uit hun neus staan te vreten tijdens het gamen. Ik denk dat zo'n core ook prima gebruikt zou kunnen worden om de workload te verdelen.CJ schreef op vrijdag 06 november 2009 @ 14:59:
[...]
Zoals hierboven ook al aangegeven... Je geeft zelf het antwoord al op je vraag. Lucid Hydra is een hardwarematige oplossing. Het is een real time distributed processing engine.
Wat gebeurd er dan bijvoorbeeld met de z-buffer in de gpu's? Hoe weet hydra wat er in de z-buffer van gpu A en van gpu B staat? Heeft hydra zijn eigen z-buffer? En heeft hydra zijn eigen framebuffers? De meeste render engine's zijn ontzettend complex. Ik weet dat je over het algemeen heel goed op de hoogte bent, maar ook hiervoor geldt dat ik eerst nog wel eens wil zien of hydra alle games perfect zonder profielen kan draaien. Misschien hebben ze het beestje gewoon een andere naam gegeven en moeten sommige games `ondersteuning in de driver' krijgen voordat ze goed werken?De huidige gebruikte technieken van NV en AMD zijn ook verre van perfect. Ze hebben profielen nodig om goed te werken en kunnen dan alsnog last hebben van zaken als microstuttering. Doordat de Hydra een aparte chip is (een parallelle graphics processor) kan je deze issues sowieso omzeilen.
Ja, dat is natuurlijk waar. Persoon vind ik mix 'n match echter niet zo heel erg interessant en ik denk eigenlijk dat de meeste mensen die twee videokaarten kopen toch twee van hetzelfde type nemen.[...]
In theorie zou de scaling bij Object Based Rendering ideaal moeten zijn voor mix 'n match oplossingen. De chip berekent in real time welke objecten door welke GPU gerenderd moeten worden nadat het geanalyseerd heeft hoeveel processingpower elke GPU heeft en de toegewezen workload per GPU in real time aanpast. Zoals je zelf ook al aangeeft zouden NV en AMD dit in hun drivers moeten implementeren. Dit zou dan een software oplossing worden. En wil men mix 'n match gaan implementeren dan wordt het helemaal een ingewikkeld verhaal. Elke week komen nieuwe videokaarten uit en dat moet allemaal in de drivers geregistreerd worden wil je er voor kunnen zorgen dat je die nieuwe kaarten ook kunt koppelen aan andere kaarten met de juiste loadbalancing.
Ik ben in ieder geval erg benieuwd. Maar voorlopig blijf ik sceptisch. Ben ook erg benieuwd waar nVidia en AMD nog mee gaan komen.Tot nu toe gold eigenlijk altijd dat: dedicated hardware solution > software solution. Maar dat wil niet zeggen dat deze oplossing de holy grail is. Object Based Rendering heeft ook zo z'n nadelen, maar de Lucid oplossing is wel een stuk flexibeler dan de huidige SLI en CFX oplossingen.
Maar AMD en NV staan ook niet stil wat betreft ontwikkeling op multi-GPU gebied. AMD schijnt al enkele leuke vernieuwingen in de pipeline te hebben op het gebied van het adresseren van bepaalde multi-GPU problemen. AMD heeft zelfs al aangegeven dat als de Lucid technologie werkt en levert wat Lucid belooft, ze deze technologie zullen omarmen.
Hands-on Lucid Hydra:
http://www.legitreviews.com/article/1093/1/
http://www.anandtech.com/video/showdoc.aspx?i=3646
The Flying Dutchman
Ja dat klopt, dat geldt (afaik) ook voor AMD's x86-64 licentie.DevilsProphet schreef op zaterdag 07 november 2009 @ 08:59:
Ah, ik meende gelezen te hebben dat Intel zijn x86-licenties had verstrekt met een clausule waarbij gesteld wordt dat de licentie komt te vervallen bij de overname van het bedrijf, dus het overnemen van Via zou gelijk staan met het vernietigd worden van de x86-licentie. Klopt dat?
Dit is wat ik tegenkwam, stukje uit de licentieovereenkomst tussen AMD en Intel anno 2001. (betreft x86-64 dus)
Hetzelfde geldt voor de x86 licentie, die verder identiek is, alleen daar staan de namen omgeswitched3. GRANT OF RIGHTS
3.1. AMD License to Intel. Subject to the terms and conditions of this
--------------------
Agreement, AMD hereby grants to Intel a non-exclusive,
non-transferable ***** worldwide license, without the right to
sublicense, under AMD's Patents to:

[ Voor 42% gewijzigd door SirNobax op 07-11-2009 11:51 ]
Pentaxiaan
Bedankt voor die link, echt een super interessante thread, vooral het gedeelte over batman.Edmin schreef op vrijdag 06 november 2009 @ 00:32:
Huddy en Weinand gaan op Hexus' forum nog even gezellig door:
http://forums.hexus.net/h...-neglecting-gamers-2.html
En dan dit, de reactie van degene die voor AMD werkt
http://forums.hexus.net/h...gamers-5.html#post1808312
Vind wel dat de meneer van NVIDIA die hij quote toch niet erg sterk spreekt op dat forum en er niet goed uit komt, maar goed, ik houd die thread in de gaten, moet wel zeggen dat ze er hard in gaan beiden maar dat hoort er bij denk ik?
Is dat al vaker voor gekomen dat dit soort mensen van 2grootmachten op een forum zo te keer gaan? zou wat zijn als dit ook hier zou gebeuren( niet dat dat gebeurd maar zou wel interessant zijn)
Edit:
Hexus maakt er een mooi artikel van
http://www.hexus.net/content/item.php?item=20991
[ Voor 30% gewijzigd door pino85 op 07-11-2009 12:01 ]
Liefhebber van Tweakers
Die werd al eerder gepost op pagina 12, laten we hopen dat die discussie van 5 pagina's nu niet weer opgerakeld wordt...pino22 schreef op zaterdag 07 november 2009 @ 11:51:
[...]
Hexus maakt er een mooi artikel van
http://www.hexus.net/content/item.php?item=20991
Ga er maar van uit dat elke post in deze discussie die beide heren maken goedgekeurd is door de communicatieafdelingen van beide bedrijven, naast het feit dat het waarschijnlijk ook volledig goedgekeurd is door de juridische afdelingen.pino22 schreef op zaterdag 07 november 2009 @ 11:51:
[...]
Is dat al vaker voor gekomen dat dit soort mensen van 2grootmachten op een forum zo te keer gaan? zou wat zijn als dit ook hier zou gebeuren( niet dat dat gebeurd maar zou wel interessant zijn)
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Offtopic:Mr.Chinchilla schreef op zaterdag 07 november 2009 @ 15:03:
[...]
Die werd al eerder gepost op pagina 12, laten we hopen dat die discussie van 5 pagina's nu niet weer opgerakeld wordt...
Tja ik reageerde puur op wat iemand had gepost ver na die pagina en zag toen op hexus dat item staan, ik heb niet elke pagina uitgeplozen in dit topic, heb er misschien paar in het begin door gelezen.
Kun je me vergeven?
Ontopic:
@ CJ
Lijkt me idd ook, maar dan nog vind ik het niet iets wat ik dan iig vaak heb gezien is voor mij wel bijzonder om dat te lezen.
Maar zoals al gezegd door de beste meneer hier boven, het was blijkbaar allemaal al lang gepost dus ik zal er niet meer over door gaan
iemand die nog een nieuw hot item /nieuws flash heeft?
[ Voor 25% gewijzigd door pino85 op 07-11-2009 15:16 ]
Liefhebber van Tweakers
Nvidia to Ramp Up Production of Fermi Graphics Cards Only in 2010.
Financieel ging het dus goed t/m het afgelopen kwartaal, maar Fermi gaat pas in januari echt van de band rollen. Verkrijgbaarheid voor februari lijkt me dan uiterst onwaarschijnlijk.Nvidia Corp.’s chief executive officer said during quarterly conference call with financial analysts that the company would only ramp up production of its next-generation flagship Fermi-G300 graphics processing unit in the company’s first quarter of fiscal year 2011, which means January – April timeframe.
“Next year it is going to be an interesting first quarter because, in fact, we will need more wafers than ever in Q1. The reason for that is because – and I mean more 40nm wafers than ever in Q1 –we are […] fully ramping Fermi for three different product lines: GeForce, Quadro and Tesla,” said Jen-Hsun Huang, chief executive officer of Nvidia, in the conference call with financial analysts.
Nvidia’s first quarter of fiscal year 2011 begins on the 26th of January and ends on the 26th of April, 2010. Therefore, the claim by Mr. Huang means that Nvidia will only be able to start commercial shipments its next-generation graphics cards based on Fermi architecture in calendar 2010, not in calendar 2009, as the company promised originally.
Besides the next-generation high-end graphics processor, which is usually called Fermi (also known as NV60, G300, GT300), Nvidia will also ramp up manufacturing of its next-generation core-logic for Intel Core 2 processors and other products.
“We will be fully ramping MCP89. We will be fully ramping Tegra. Not to mention the 40nm products that we currently have that are fully ramped up, and so I am expecting Q1 to be a pretty exciting quarter for us because we just have so many new products,” added Mr. Huang.
Nvidia on Thursday reported revenue of $903.2 million for the third quarter of fiscal 2010 ended October 25, 2009, up 16% from the previous quarter and up slightly from $897.7 million reported in the same period a year earlier.
On a GAAP basis, the company recorded net income of $107.6 million, or $0.19 per diluted share, compared with net income of $61.7 million, or $0.11 per diluted share a year ago. Third quarter GAAP results included a benefit to operating income of $25.1 million related to insurance reimbursements received during the quarter. On a non-GAAP basis – excluding the insurance reimbursements and stock-based compensation, as well as their associated tax impact − net income was $110.3 million, or $0.19 per diluted share, compared with $111.4 million, or $0.20 per diluted share, a year earlier.
"We continued to make progress in the third quarter with healthy market demand across the board. Revenue was up from a year ago, with improvement in each of our PC, professional solutions and consumer businesses. It’s great to see us shipping orders with our Tegra mobile-computing solution, and growing enthusiasm for our Tesla platform for parallel computing in the server and cloud-computing markets," said the chief executive officer of Nvidia.
Ik neem ook aan dat lucid alleen werkt met 3d kaarten met de zelfde generatie aan specificaties?
Zoals een dx11 kaart bij een dx11 kaart.
[ Voor 60% gewijzigd door tomcatha op 08-11-2009 02:15 ]
Die Lucid doet a.t.m. alleen DX9 en DX10.tomcatha schreef op zondag 08 november 2009 @ 02:13:
dit is dus hoe ze een paper launch aankondigen.
Ik neem ook aan dat lucid alleen werkt met 3d kaarten met de zelfde generatie aan specificaties?
Zoals een dx11 kaart bij een dx11 kaart.
Verder, als je een DX9 kaart naast een DX10 kaart zet, werkt dat gewoon goed samen, maar enkel in DX9 modus. Of hij die DX9 kaart uitschakel zodra je een DX10 spel wil starten weet ik niet.
Pentaxiaan
Anoniem: 304087
Nice ben benieuwd naar de prestaties, zoals gewoonlijk zal hij wel weer zeer snel zijn, denk zelf dat hret weer de snelste singlecore chip word op dat moment.Edmin schreef op zaterdag 07 november 2009 @ 20:49:Nvidia to Ramp Up Production of Fermi Graphics Cards Only in 2010.
[...]
Financieel ging het dus goed t/m het afgelopen kwartaal, maar Fermi gaat pas in januari echt van de band rollen. Verkrijgbaarheid voor februari lijkt me dan uiterst onwaarschijnlijk.
Lol dat zielige chipje zorgt niet voor sli maar meer lanes en deze chip is dus wel handig vind ik. Ook een uitkomt voor ati kaarten want dit is de eenigste optie voor zelfs 4x de volle 16x en dat voor maar 30 euro ofzo ?SirNobax schreef op vrijdag 06 november 2009 @ 14:26:
[...]
Dat dus.
Ook al zit er een zielig NF200 chipje van Nvidia op het moederboard wat "voor SLI zorgt", het enige wat er gebeurd is dat de drivers zien 'hier mogen we SLI inschakelen' en dan worden de drivers/CPU aan het werk gezet.
Punt is, (wat ik begrepen heb) dat Object Based Rendering veel haken en ogen heeft wat veel ondersteuning en optimalisatie nodig heeft om bugloos te werken. Begrijpelijk niet iets waar Nvidia en ATI om staan te springen gezien die al hun tijd al gebruiken om de drivers te tweaken en bugs te fixen.
@hierboven
Neemt niet weg dat nvidia hier niet blij mee is, en hier mogelijk alsnog een stokje voor gaat steken. CJ ontkracht alleen dat MSI snel wat namen heeft aangepast en foto's hebben gephotoschopped omdat die Lucid chip geen zin had.
Ik weet het niet maar vind deze chip juist een goede chip en zou ook niet zonder die chip willen als ik 3 gfx kaarten zou hebben. Ik snap die haat niet tegen deze chip want als je hem niet wilt hebben dan ga je toch lekker op zoek naar een ander moederbord met minder lanes als je die extra lanes niet nodig hebt? Uit eindelijk is het ziek om deze chip af te zeiken zolang je de keuze hebt dat je kunt kiezen tussen wel of niet. Er zitten alleen maar voordelen aan die de nadelen in het niets brengen
[ Voor 54% gewijzigd door Anoniem: 304087 op 08-11-2009 12:46 ]
Ik ben ook wel benieuwd naar de prestaties.Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:28:
[...]
Nice ben benieuwd naar de prestaties....
Niet zozeel om te weten hoe "zeer snel" dat hij gaat worden, maar of hij uberhaupt wel, in verhouding, sneller is als concurentie. Zoals het er nu allemaal op lijkt hebben ze een 'alleskunner' gebouwd (in tegenstelling tot ATI), en dat laat dat nou net de reden zijn waarom we 3D rendering van de CPU naar de GPU hebben verhuisd.
(en ja, ik begrijp dat Parallel processing veel lijkt op GPU rendering, maar het gaat om het 'dedicated'/alleskunner idee)
Zielig, omdat het net zo goed een USB stick zou kunnen zijn die 'SLI' unlocked, of zelfs een serial-code bij installatie van de nvidia drivers.Lol dat zielige chipje zorgt niet voor sli maar meer lanes en deze chip is dus wel handig vind ik.

En 3 of meer videokaarten hebben echt een geweldige marktpenetratie om die extra PCI-E lanes te verantwoorden.
Verder kunnen PCI-e controller chips van Texas Instruments, PLX Technlogies, Integrated Device Technology, etc, precies hetzelfde, en die kosten echt geen 30$.
[ Voor 32% gewijzigd door SirNobax op 08-11-2009 13:26 ]
Pentaxiaan
Probleem is, dat als de ramp up pas echt plaats gaat vinden na 26 januari, dat kaarten echt niet snel beschikbaar zullen zijn. Dat zou best eens kunnen betekenen dat ze niet veel eerder dan maart op de consumentenmarkt komen. Dat zou als gevolg kunnen hebben dat ze het tegen een refresh van de HD5870 op moeten nemen.Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:28:
Nice ben benieuwd naar de prestaties, zoals gewoonlijk zal hij wel weer zeer snel zijn, denk zelf dat hret weer de snelste singlecore chip word op dat moment.
Aangezien de prestaties van de GF100 nu niets meer is dan nattevingerwerk en zelfs nVidia weinig zinnigs heeft durven uitten, kun je je afvragen hoeveel sneller de kaart kan/zal zijn dan de HD5870. Het zou dus ook nog eens zo kunnen zijn dat de refresh mee kan komen danwel sneller is dan de GF100.
Er is wel een andere garantie, het zal zeker weer de grootste nieuwe single-core GPU zijn (tot Larrabee uit komt in ieder geval).
Anoniem: 304087
altijd beter dan 4x 4x 4x 4x. En sli word niet mogelijk gemaakt met die chip maar extra lanes
Omdat die markt niet groot is wil nog niet zeggen dat dat chipje niet handig is voor die markt.
Je hebt altijd nog de keuze om hem niet te kopen dus je moet hem niet kopen dus uiteindelijk ook niet klagen
over dat chipje.
Als je 4 kaarten gaat gebruiken en het geld daar voor hebt ga je natuurlijk ook voor de nf200 chip die 30 euro
kan er dan ook nog wel af sterker nog ik zou niet eens 4 kaarten nemen als die chip er niet was
[ Voor 54% gewijzigd door Anoniem: 304087 op 08-11-2009 12:59 ]
Zonder die chip zou de boel op 8x 8x 8x 8x draaien met 4 kaarten, niet op 4x. Daarbij kun je in je achterhoofd houden dat een HD5870 op 8 lanes amper trager is dan op 16 lanes (denk aan ~2%) terwijl het momenteel de snelste single-chip kaart op de markt is. Met sli/crossfire zou het misschien een iets groter verschil worden, maar of je het verschil merkt met of zonder die ~30 euro chip, betwijfel ik, temeer omdat 4X crossfire/4X SLI bij lange na nog niet geoptimaliseerd is en je een kegel van een CPU-limited situatie krijgt.Anoniem: 304087 schreef op zondag 08 november 2009 @ 12:53:
Maar als je toch wel met meer dan 2 kaarten gaat werken dan wil je toch ook dat chipje hebben teminste ikke wel
altijd beter dan 4x 4x 4x 4x. En sli word niet mogelijk gemaakt met die chip maar extra lanes
Anoniem: 304087
Klopt maar een bencher wil die 2% niet missen teminste je bent gek als je 4 kaarten neemt en 2% moet gaan missen daar voor kost het allemaal te veel. Ik ben zelf een bencher en andere benchers zullen het met mij eens zijn.dahakon schreef op zondag 08 november 2009 @ 13:07:
[...]
Zonder die chip zou de boel op 8x 8x 8x 8x draaien met 4 kaarten, niet op 4x. Daarbij kun je in je achterhoofd houden dat een HD5870 op 8 lanes amper trager is dan op 16 lanes (denk aan ~2%) terwijl het momenteel de snelste single-chip kaart op de markt is. Met sli/crossfire zou het misschien een iets groter verschil worden, maar of je het verschil merkt met of zonder die ~30 euro chip, betwijfel ik, temeer omdat 4X crossfire/4X SLI bij lange na nog niet geoptimaliseerd is en je een kegel van een CPU-limited situatie krijgt.
Die kopen een bord met de nf200 chip om de beste score te halen. Die 30 euro is dan niets. En mensen die dit werk niet doen zijn niet verplicht om hem te kopen om gebruikt te kunnen maken van sli of cfx
Correctie 8x bedoel ik idd foutje.
Ik zou zelf niet zonder kunnen met benchen iig omdat daar door een wereld record van af kan hangen dus zo'n
voordeel heeft deze chip en dat voor maar 30 eu
Mensen die gamen en deze chip niet willen en die het niet waard vinden zijn niet alleen op de wereld

[ Voor 10% gewijzigd door Anoniem: 304087 op 08-11-2009 13:23 ]
Anoniem: 304087 schreef op zondag 08 november 2009 @ 13:12:
[...]
Klopt maar een bencher wil die 2% niet missen teminste je bent gek als je 4 kaarten neemt en 2% moet gaan missen daar voor kost het allemaal te veel. Ik ben zelf een bencher en andere benchers zullen het met mij eens zijn.
Pentaxiaan
Elders op die site:
http://enthusiast.hardocp...s_p6t7_ws_supercomputer/6We have previously looked into what the NF200 chipset, that extends extra lanes to SLI and Triple SLI setups, and what it actually does for gaming at this point in time and it does nothing but seemingly add latency.
[ Voor 49% gewijzigd door Edmin op 08-11-2009 14:32 ]
Eens, zie ook onderstaande:Edmin schreef op zondag 08 november 2009 @ 14:28:
Luppie, ik ben anders niet zo overtuigd van het nut van die NF200. Zie ook: http://enthusiast.hardocp...y_sli_preliminary_results
It's interesting how Nvidia is trying to promote the NF200 chip as a solution for quad x16 PCIe slots to the board makers, when it in fact can't do anysuch thing. The problem with the NF200 is that it can't add extra PCIe lanes, so to reach that magical four-slot design, each chip splits 16 PCIe lanes into two
offtopic: sneller F5en Ed
[ Voor 3% gewijzigd door michaelvt op 08-11-2009 14:38 ]

http://www.intelsinsides.com/page/home.html
Mooie was dat in de Q2 con-call een nvidia manager juist aangaf "we are executing like clockwork"Jejking schreef op zondag 08 november 2009 @ 15:09:
Nvidia is overigens ook bezig met een FUD-show, tegen Intel deze keer. Ze zijn blijkbaar ergens kwaad over...
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087
Veel overklokkers denken er toch anders over hoor. Ik ben het er mee eens dat voor de gewone gamer het weining uit maakt. Maar een wereldrecord benchmark kan er van af hangen. Ik kon zelf wel een verschil merkenEdmin schreef op zondag 08 november 2009 @ 14:28:
Luppie, ik ben anders niet zo overtuigd van het nut van die NF200. Zie ook: http://enthusiast.hardocp...y_sli_preliminary_results
Elders op die site:
[...]
http://enthusiast.hardocp...s_p6t7_ws_supercomputer/6
in punten door meer lanes te gebruiken toen ik nog 3 8800 ultra's had
[ Voor 8% gewijzigd door Anoniem: 304087 op 08-11-2009 20:48 ]
Wuahahaha geniaalJejking schreef op zondag 08 november 2009 @ 15:09:
Nvidia is overigens ook bezig met een FUD-show, tegen Intel deze keer. Ze zijn blijkbaar ergens kwaad over...
[afbeelding]
http://www.intelsinsides.com/page/home.html

Fermi komt pas begin fiscaal jaar 2011 ( dus ergens Q1 2010 )
Ziet er dus naar uit dat we nog wel even kunnen wachten
Bron: http://www.digitimes.com/news/a20091109PD208.html
Anoniem: 304087
bedrijven markt. Logies dat ze dan daar op gaan hameren
En als zelfs Fuad het al zegt....biggydeen2 schreef op maandag 09 november 2009 @ 11:06:
Zojuist lees ik een behoorlijk droevig bericht ( maar andere kant wel verwacht.
Fermi komt pas begin fiscaal jaar 2011 ( dus ergens Q1 2010 )
Ziet er dus naar uit dat we nog wel even kunnen wachten
Bron: http://www.digitimes.com/news/a20091109PD208.html
Nvidia Fermi launch slips into January 2010
Written by Fuad Abazovic
Monday, 09 November 2009 10:14
Showcasing in December
Just as it happened last year with the Geforce GTX 295, Nvidia will most likely showcase Fermi-based cards in December and will start shipping them out in January.
Nvidia cannot make it in time for a late November or early December launch as it had originally planned, and the A2 silicon that has currently taped out of the fab will not be the final silicon. Nvidia will move to A3 silicon for its final retail products. Our multiple internal sources have confirmed that Nvidia has samples but it keeps them within the company, heavily guarded and they won’t be shipping in 2009.
Nvidia did the same with GTX 295 when a few select hacks got cards and posted reviews on December 18th, 2008 while the official launch took place on January 8th, 2009. Jensen is not happy with the slight product delays, but Nvidia wants to have massive availability at launch. On another note, the fact that ATI has sold out of its Radeon HD 5870 actually works in Nvidia’s favour. For those enthusiasts who demand DirectX 11 card for the holidays, the Radeon HD 5870 is going to be the only option until CES 2010 comes around.
However, Nvidia may see its market share begin to wane if it delays the launch of GT300 to April 2010
Anoniem: 304087
Teminste als ik nv was had ik dat al lang laten zien om mensen de kop gek te maken.
Als uit de laatste spin blijkt dat er nog onoverkomelijke problemen in het ontwerp zitten tel er nog maar eens twee of drie maanden bij.
Iedereen die verkoop verwacht op 26 Januari komt bedrogen uit.
[ Voor 50% gewijzigd door neliz op 09-11-2009 11:57 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Misschien omdat de performance van de kaarten niet representatief zijn? Er is al eerder gehint op een probleem met de memory controller in GT215 en Fermi en voor zover ik weet zijn de issues daarmee erg groot tot op het punt dat Fermi op dit moment niet "snel" te noemen is door lage kloksnelheden.Anoniem: 304087 schreef op maandag 09 november 2009 @ 11:50:
Als nv al samples hebben waarom laten ze dan nog geen benchmarkjes zien.
Teminste als ik nv was had ik dat al lang laten zien om mensen de kop gek te maken.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
[ Voor 28% gewijzigd door Anoniem: 304087 op 09-11-2009 12:06 ]
ehrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr.Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
Misschien als ik het er zo neerzet dat je het dan wel begrijpt:
de Fermi chips die al beschikbaar en getest zijn voldoen niet aan de gestelde eisen met betrekking tot kloksnelheden van zowel de shader cores als de memory interface. De kaart is in die hoedanigheid dan ook niet competitief. Om dat wel te worden was/is een respin nodig om de gewenste kloksnelheden te halen.
Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)
[ Voor 3% gewijzigd door neliz op 09-11-2009 12:10 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het probleem van de GT300 en de GT215 was/is, weet het niet 100% zeker, het feit dat de onboard geheugencontroller nogal kieskeurig op het gebied van wel/niet werken met het geheugen.Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
Men moest erg snel geclockt geheugen hebben om de controller enigzins goed te kunnen laten werken, want anders verliest men teveel "power" omdat de controller simpelweg niet goed was.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Anoniem: 304087
Jeps ik begrijp het het zijn dus alle snelheden wat jij bedoelt.neliz schreef op maandag 09 november 2009 @ 12:09:
[...]
ehrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr.
Misschien als ik het er zo neerzet dat je het dan wel begrijpt:
de Fermi chips die al beschikbaar en getest zijn voldoen niet aan de gestelde eisen met betrekking tot kloksnelheden van zowel de shader cores als de memory interface. De kaart is in die hoedanigheid dan ook niet competitief. Om dat wel te worden was/is een respin nodig om de gewenste kloksnelheden te halen.
Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)
[ Voor 83% gewijzigd door Anoniem: 304087 op 09-11-2009 12:14 ]
use_framerate_multiplier (0.18);
}
http://www.tomshardware.c...rkham-asylum,2465-10.html
Zit je dan met je 4.2 GHz core i7, 18% in gebruik, dus ruimte zat voor 5 keer hogere fps met zowel 'normal' als 'high' physx settings.
Jammer dat ze niet ook een geforce gebruiken voor de software Physx test, want ik vraag me af of er daar niet ook ergens een vendor_id check verstopt zit.
[ Voor 28% gewijzigd door SneakyNL op 09-11-2009 13:08 ]
Man man man... als dit ook waar is... lijkt me erg slechte reclame voor nVidia. Het is in ieder geval heel erg merkwaardig dat het cpu gebruik lager is als Physix aan staat!!! Een framecap lijkt een goede verklaring hiervoor...SneakyNL schreef op maandag 09 november 2009 @ 12:58:
If (physx != HW_ACCELERATED){
use_framerate_multiplier (0.18);
}
http://www.tomshardware.c...rkham-asylum,2465-10.html
Zit je dan met je 4.2 GHz core i7, 18% in gebruik, dus ruimte zat voor 5 keer hogere fps met zowel 'normal' als 'high' physx settings.
The Flying Dutchman
Zowel CPU als GPU hebben een PhysX factor van 5 in B:AA waar bij CPU 1 zou moeten staan.SneakyNL schreef op maandag 09 november 2009 @ 12:58:
Jammer dat ze niet ook een geforce gebruiken voor de software Physx test, want ik vraag me af of er daar niet ook ergens een vendor_id check verstopt zit.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Wat DevilsProphet ook al opmerkte. Naja, blijkbaar kom je met "iets anders aan de hand" wel aardig in de buurtSirNobax schreef op donderdag 22 oktober 2009 @ 13:11:
Met Batman op mijn Q6600 (i.c.m. 2900XT), op zowel 2.8Ghz, 3.2Ghz en 3.6Ghz getest; constant 30% CPU usage of lager. Dit met drops naar ~10fps ofzo, op de meest onzinnige plekken (lege kamers en gangen enzo), terwijl op drukke scenes waar menig wc-rol gesneuveld is, met overal dampige fog effecten, heb ik 40fps.

[ Voor 21% gewijzigd door SirNobax op 09-11-2009 13:38 ]
Pentaxiaan
Mmm, dan lijkt het erop dat ze problemen hebben met de geheugencontroller.... Edit; misschien kan die de hoge snelheden van GDDR5 niet aan.neliz schreef op maandag 09 november 2009 @ 12:09:
Sterker nog GT300+GDDR3 werkt, GT300+GDDR5 werkt niet (A1)
ATi heeft daar al een paar jaar mee kunnen oefenen, en plukt er de vruchten van.
nV heeft dan (misschien) te lang gewacht met de overstap van GDDR3 naar GDDR4 en GDDR5.
[ Voor 7% gewijzigd door Format-C op 09-11-2009 13:50 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
AMD heeft misschien iets meer dan anderhalf jaar met GDDR5 kunnen werken, maar veel tijd voor praktijkervaring was er niet omdat GDDR5 nu eenmaal niet veel vroeger klaar was dan de HD4k serie.RappieRappie schreef op maandag 09 november 2009 @ 13:47:
[...]
Mmm, dan lijkt het erop dat ze problemen hebben met de geheugencontroller.... Edit; misschien kan die de hoge snelheden van GDDR5 niet aan.
ATi heeft daar al een paar jaar mee kunnen oefenen, en plukt er de vruchten van.
nV heeft dan (misschien) te lang gewacht met de overstap van GDDR3 naar GDDR4 en GDDR5.
Maar je kunt je wellicht herinneren waarom mensen AMD aan het bashen waren voor hoge idle-verbruik van de HD4870/HD4890. Nieuw geheugen met een geheel nieuwe manier van aanpak. Blijkbaar kost het redelijk veel moeite om GDDR5 goed te laten functioneren, maar als je het eenmaal te pakken hebt, dan kan het ook ECHT goed functioneren, getuige de idle-verbruiken van de HD5k serie.
Ik vrees dat nVidia zijn huiswerk niet goed gedaan heeft de laatste jaren, wellicht niet eens verwacht had dat GDDR5 geheugen daadwerkelijk beschikbaar zou komen en daarom opeens het laatste jaar erg hard moet werken om het toch functioneel te krijgen.
Wat ik persoonlijk niet begrijp in zo'n geval, is dat terwijl de geheugenbus best wel erg breed blijft bij nVidia, ze niet naar GDDR4 kijken. Ten opzichte van GDDR3 is het grootste verschil toch alleen de te behalen kloksnelheden, waardoor GDDR4 opzich nog best interessant kan zijn voor nVidia.
In ieder geval kan ik me wel voorstellen dat nVidia geen chip naar buiten wil brengen die zelfs idle nog 100+ watt verstookt, omdat de geheugencontroller gewoon niet goed met GDDR5 kan werken, of andere rare dingen kan tegenkomen door de moeilijke synergy.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Uitgaande van de pricewatch zijn er precies 0 nVidiakaarten met GDDR5 te leveren. Natuurlijk niet geheel 100% betrouwbaar voor de hele markt, maar in deze volgens mij aardig accuraat. De eerste kaart die echt baat bij GDDR5 zou hebben, is dan ook de GT240, die nog op de markt moet verschijnen. De vraag zal zijn hoeveel daarvan met GDDR5 uitgerust gaan worden.neliz schreef op maandag 09 november 2009 @ 18:58:
Alle GT21x GPU's ondersteunenn GDDR5. hoeveel kaarten met GDDR5 zijn het afgelopen jaar door nVidia uitgebracht (ik weet het echt zelf niet op dit moment)
Inderdaad... geannonceerd op 17 Oktober.... heeft op de site van Salland gestaan.. en is nu?dahakon schreef op maandag 09 november 2009 @ 19:04:
Uitgaande van de pricewatch zijn er precies 0 nVidiakaarten met GDDR5 te leveren. Natuurlijk niet geheel 100% betrouwbaar voor de hele markt, maar in deze volgens mij aardig accuraat. De eerste kaart die echt baat bij GDDR5 zou hebben, is dan ook de GT240, die nog op de markt moet verschijnen. De vraag zal zijn hoeveel daarvan met GDDR5 uitgerust gaan worden.
*poef*
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 292676
ja dat is waar maar de mem controller werkt alleen als de frequenties op zeer hoge snelheden staan.neliz schreef op maandag 09 november 2009 @ 18:58:
Alle GT21x GPU's ondersteunenn GDDR5. hoeveel kaarten met GDDR5 zijn het afgelopen jaar door nVidia uitgebracht (ik weet het echt zelf niet op dit moment)
Dit betekent dat
- nV duurste gddr5 varianten moet kopen (dus de kostprijs aanzienelijk hoger jaagt)
- hogere idle verbruik
Anoniem: 304087
Ff verwijderd verkeerde topic sorry jongens
[ Voor 86% gewijzigd door Anoniem: 304087 op 09-11-2009 19:50 ]
Ik weet niet of dat hier heeft gestaan (ik denk het niet) maar het prijsverschil tussen 1GB GDDR3 en GDDR5 is kwartjeswerk. Zelfs met de extreem dure variant praat je niet over extreem hoge meerkosten aangezien het ook performance met zich meebrengt.Anoniem: 292676 schreef op maandag 09 november 2009 @ 19:12:
ja dat is waar maar de mem controller werkt alleen als de frequenties op zeer hoge snelheden staan.
Dit betekent dat
- nV duurste gddr5 varianten moet kopen (dus de kostprijs aanzienelijk hoger jaagt)
- hogere idle verbruik
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ik denk echter dat het voordeel dat GDDR5 biedt gewoonweg te groot is om GDDR4 te overwegen en dat het belang van het gebruiken van 'de nieuwste technieken' ook wel meespeelt. Hoe verkoop je het je klanten dat je nog steeds 'ouderwets (g)DDR3 gebruikt, terwijl de competitie al meer dan een jaar op GDDR5 draait.
Anoniem: 58485
http://www.overclock.net/...ddr3-vs-gddr4-review.htmlAnoniem: 58485 schreef op maandag 09 november 2009 @ 20:13:
Enige voordeel van GDDR4 tov GDDR3 was is dat het ietsjes zuiniger in verbruik was. Maar verder ook niet.
Er is wel iets meer dan dat.
Nvidia Fermi launch slips into January 2010
Als zelfs FUD meldt dat 2009 niet gehaald wordt...Just as it happened last year with the Geforce GTX 295, Nvidia will most likely showcase Fermi-based cards in December and will start shipping them out in January.
Nvidia cannot make it in time for a late November or early December launch as it had originally planned, and the A2 silicon that has currently taped out of the fab will not be the final silicon. Nvidia will move to A3 silicon for its final retail products. Our multiple internal sources have confirmed that Nvidia has samples but it keeps them within the company, heavily guarded and they won’t be shipping in 2009.
Nvidia did the same with GTX 295 when a few select hacks got cards and posted reviews on December 18th, 2008 while the official launch took place on January 8th, 2009. Jensen is not happy with the slight product delays, but Nvidia wants to have massive availability at launch. On another note, the fact that ATI has sold out of its Radeon HD 5870 actually works in Nvidia’s favour. For those enthusiasts who demand DirectX 11 card for the holidays, the Radeon HD 5870 is going to be the only option until CES 2010 comes around.
Aan de andere kant staat hier wel weer een hoop crap in. Er wordt gemeld dat NV in december zal showcasen, terwijl ze naar A3 silicon moeten. Elke andere site verwacht op zijn vroegst een showcase op CES. En een productie die pas in januari ramped ligt echt niet met CES al in de winkels.
Dit wordt imho zeker niet voor maart, misschien zelfs april.
"Tesla" 55nm (GT200b) werd ook gedemonstreerd met B2 (in Mei/Juni) en kwam in September mondjesmaat op de markt (B2) en pas vanaf november beter als B3 (Tesla/GTX) en als "ultiem product" pas in de GTX295 in January. Dan praat je dus over 7 maanden voor het goed en wel verwerken van een spin en het op de markt brengen van het uiteindelijke product.Edmin schreef op dinsdag 10 november 2009 @ 13:38:Nvidia Fermi launch slips into January 2010
Aan de andere kant staat hier wel weer een hoop crap in. Er wordt gemeld dat NV in december zal showcasen, terwijl ze naar A3 silicon moeten. Elke andere site verwacht op zijn vroegst een showcase op CES. En een productie die pas in januari ramped ligt echt niet met CES al in de winkels.
Dit wordt imho zeker niet voor maart, misschien zelfs april.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ze weten nu al dat ze een A3 nodig hebben, vandaar dat in de Conference Call wordt aangegeven dat nvidia verwacht pas in Q1 volgend jaar met massaproductie te kunnen beginnen.Edmin schreef op dinsdag 10 november 2009 @ 13:55:
Overigens was het A3 verhaal wel nieuw voor me. Ik dacht dat A2 pas net een paar weken was gesampled?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Bron.Apple uses the best technology for its [computers]…and says to its customers: if you buy a computer from us, you can be sure we have selected the best technology inside for you. That is their promise to consumers.
Dit klopt als je verschillende architecturen vergelijkt kun je clockspeeds niet als vergelijkings materiaal gebruiken. Dan is het gewoon een van de dingen die de uiteindelijke performance bepaald. Als de architectuur hetzelfde is gaat dit natuurlijk wel op. Bij de stap van GT200 naar GT300 is de architectuur verandert dus 1:1 vergelijken kan niet. Maar hij lijkt er nog wel sterk op. Meer dan op de RV870 van AMD.Anoniem: 304087 schreef op maandag 09 november 2009 @ 12:02:
Klock snelheden zeggen vrij weinig over de snelheid helemaal bij nvidia kaarten.
Een kaart met 500mhz kan een stuk sneller zijn dan een kaart met 1000mhz
Ik denk ook niet dat de performance minder zal zijn dan de hd5870, lijkt mij
namijn zeer sterk maar kan natuurlijk wel
En wat ze hier bedoelen is dat er bv gemikt wordt op 700 MHz en er nu maar 500 gedraaid kan worden. Het zou mij niets verbazen als de huidige Fermi samples trager zijn dan een HD5870 of een GTX295. En dat ze echt die bugs moeten oplossen om de performance goed te krijgen. De eerste geruchten hebben het over 20-30% sneller dan de HD5870 (met Cat 9.10 Drivers).
En over dat GDDR4. GDDR4 kon veel hogere clockspeeds halen. Maar had wel hogere latency's waardoor 1 GHz GDDR3 sneller was als 1.1 GHz GDDR4. Wou je echt sneller zijn moest je omhoog met de clockspeeds naar 1.4+ GHz. Maar dat soort snelle GDDR4 chips zijn tot nu toe nooit gebruikt voor High performance VGA kaarten. AMD is toen meteen over gegaan naar GDDR5. De HD3870 is volgens mij de enige kaart van AMD die GDDR4 gebruikte. Het geheugen was wel degelijk sneller dan GDDR3 maar niet snel genoeg voor wat AMD er mee wou gaan doen. Zie HD4850 vs HD4870.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 304087
Tijdens de presentatie van de meest recente kwartaalcijfers was nVidia's vice-president Jen-Hsun Huang bereid enkele vragen van de pers te beantwoorden. Huang's bevestigde onder meer wat velen al vermoedden, namelijk dat we dit jaar geen DirectX 11 videokaarten, met codenaam Fermi, op de markt hoeven te verwachten. Een zogenaamde paper launch wordt niet uitgesloten, maar het eerste kwartaal van volgend jaar zal het meest interessant blijken. Ook bevestigde Huang dat Fermi in drie verschillende varianten op de markt zal komen, te weten als Tesla, Quadro en GeForce.
Dit laatste volgde naar aanleiding van een vraag waarom tijdens het uit de doeken doen van de Fermi architectuur er vrijwel alleen maar aandacht uitging de GPGPU-mogelijkheden van de chip, wat de focus van nVidia's Tesla GPU's is. Volgens de vice-president van nVidia zal over de grafische prestaties van Fermi, die voor de Quadro en GeForce videokaarten van belang zijn, meer duidelijk worden wanneer het moment van introductie aanbreekt. Voor het zover is zal nVidia echter nog flink wat extra wafers moeten zien te bemachtigen, want - zo werd aangegeven - het bedrijf zal een grote hoeveelheid 40 nm wafers nodig hebben om Fermi in zowel GeForce-, Quadro- als Tesla-producten onder te kunnen brengen.
Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft. nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
Ben je de 2900 nu al vergeten?Astennu schreef op woensdag 11 november 2009 @ 10:16:
En over dat GDDR4. GDDR4 kon veel hogere clockspeeds halen. Maar had wel hogere latency's waardoor 1 GHz GDDR3 sneller was als 1.1 GHz GDDR4. Wou je echt sneller zijn moest je omhoog met de clockspeeds naar 1.4+ GHz. Maar dat soort snelle GDDR4 chips zijn tot nu toe nooit gebruikt voor High performance VGA kaarten. AMD is toen meteen over gegaan naar GDDR5. De HD3870 is volgens mij de enige kaart van AMD die GDDR4 gebruikte. Het geheugen was wel degelijk sneller dan GDDR3 maar niet snel genoeg voor wat AMD er mee wou gaan doen. Zie HD4850 vs HD4870.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Oftewel, de finale specs van Fermi zijn nog niet bekend, en gaan ervan afhangen hoeveel prestatie zij eruit kunnen krijgen met hun huidige "problemen" met FermiDit laatste volgde naar aanleiding van een vraag waarom tijdens het uit de doeken doen van de Fermi architectuur er vrijwel alleen maar aandacht uitging de GPGPU-mogelijkheden van de chip, wat de focus van nVidia's Tesla GPU's is. Volgens de vice-president van nVidia zal over de grafische prestaties van Fermi, die voor de Quadro en GeForce videokaarten van belang zijn, meer duidelijk worden wanneer het moment van introductie aanbreekt. Voor het zover is zal nVidia echter nog flink wat extra wafers moeten zien te bemachtigen, want - zo werd aangegeven - het bedrijf zal een grote hoeveelheid 40 nm wafers nodig hebben om Fermi in zowel GeForce-, Quadro- als Tesla-producten onder te kunnen brengen.
FAIL!Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft. nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
RV870=/RV770......
Waarvij RV770 ook een totale vernieuwing was qua architectuur, en de RV870 hier verder op heeft gebouwd, maar dan wel grondig aangepast en verbeterd is. Want als je RV770 en RV870 gaat vergelijken, moet je op zijn allerminst zeggen dat RV870= ~2xRV770
Mister Huang is dus bezig om alles goed te praten, terwijl er niet veel goeds is

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
weinig meer? toch al snel het dubbele.Anoniem: 304087 schreef op woensdag 11 november 2009 @ 10:47:
Verder bekende Huang dat concurrent AMD een snelle DirectX 11 chip op de markt heeft weten te brengen, maar relativeerde dit gelijk door te stellen dat deze ook weer niet zó snel is en in feite weinig meer dan een RV770 met DirectX 11 ondersteuning betreft.
ja...of niet natuurlijk. tot nu toe lijkt het volgens mij meer op niet dan wel.nVidia's Fermi architectuur daarentegen betreft geen incrementele stap, maar is volledig vanaf de grond opgebouwd; iets dat de chipfabrikant weer voor het eerst in vier jaar heeft gedaan voor haar nieuwe generatie videokaarten. Mede hierdoor zal Fermi ongekende prestaties weten te realiseren, aldus Huang.
Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.
Dit topic is gesloten.
Houd de discussie open en eerlijk. Overtuigen doen we met argumenten. Voor ATi vs. NVidia flamewars is hier geen plaats. Voor het gebruik van termen als 'fanboy' en aanverwante zaken is er geen tolerantie!