dus die zin betekend niks ?
Die zin zegt wat je mag doen met vertouwelijke informatie. Deze informatie gebruiken voor doeleinden in het voordeel van NVIDIA. Dit betekent zo ongeveer alles wat niet valt onder het delen van de vertrouwelijke informatie. Een voorbeeld hiervan is het opstellen van de review (daar gaat immers tijd inzitten), zonder deze op een platform beschikbaar te stellen waar mensen die niet onder de NDA vallen ook toegang toe hebben. Je ontvangt de informatie en/of producten met een reden. De reden is 'in favor of NVIDIA'.
[ Voor 9% gewijzigd door Paprika op 25-06-2018 21:51 ]
Verwijderd
vind het typisch zo'n zin die een juridisch uit te buiten is omdat het een vrij brede statement is.
maar goed ik ben geen jurist dus kan daar niet over oordelen.
maar goed ik ben geen jurist dus kan daar niet over oordelen.
[ Voor 25% gewijzigd door Verwijderd op 25-06-2018 21:54 ]
@Paprika
Wat maakt jou de NDA expert
Heise.de is geen kleine site en heeft ongetwijfeld regelmatig te maken met NDA's in de techindustrie.
Als die hun juridische afdeling ernaar heeft laten kijken heb ik daar voorlopig wel vertrouwen in dat dit afwijkend is in de relatie bedrijf vs journalist.
Wat maakt jou de NDA expert
Heise.de is geen kleine site en heeft ongetwijfeld regelmatig te maken met NDA's in de techindustrie.
Als die hun juridische afdeling ernaar heeft laten kijken heb ik daar voorlopig wel vertrouwen in dat dit afwijkend is in de relatie bedrijf vs journalist.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Je hoeft geen expert te zijn als je er maar genoeg hebt gezien (in mijn geval XX-range). Zie ook: https://www.reddit.com/r/...urnalists_with_some_very/
Succes met het vinden van 1 iemand (met een Engelse achtergrond*) die een NDA heeft gezien of een legal achtergrond heeft en hier wel van wakker ligt. Zonder het GPP verhaal had niemand hier ook maar 1 woord over geroepen.
Iemand op reddit linkt ook naar een goede google search:
https://www.google.com/search?q=nda+%22for+the+benefit+of%22
Als ze het er niet mee eens zijn dan hadden ze beter onderling met NVIDIAkunnen schakelen over een wijziging van die ene zin. In andere talen dit anders vertalen dan 'en zal dus niet'? Drama. Gelukkig tellen reviews als vertrouwelijke informatie als ze in het publieke domein beschikbaar zijn en de NDA is verlopen. Oh wacht, het document zegt van niet. Gelukkig kunnen de tech sites zo weer een dagje clickbate titles creëren ter compensatie van het niet hebben van nieuws.
Ik moet overigens wel toegeven dat ik het niet erg vind als iedereen ze boycot. Dan worden de kaarten vanzelf goedkoper...
[ Voor 84% gewijzigd door Paprika op 25-06-2018 22:17 ]
Tja, ik heb er ook genoeg gezien maar dat wil nog niet zeggen dat je er dan ook genoeg van weet.Paprika schreef op maandag 25 juni 2018 @ 21:55:
[...]
Je hoeft geen expert te zijn als je er maar genoeg hebt gezien (in mijn geval XX-range). Zie ook: https://www.reddit.com/r/...urnalists_with_some_very/
Wat je als niet-jurist denkt dat er staat, hoe logisch het ook lijkt, is het vaak niet. Laat staan dat je de implicaties goed kunt doorgronden.
Verder ga ik er geen uitspraak over doen want ik acht me dus niet gekwalificeerd. Ook omdat ik niet weet wat normaal is in deze branche tussen bedrijven en journalisten.
Het feit dat een site als Heise dit vindt na overleg met hun juridische afdeling en het ook nog publiceert is voor mij voorlopig voldoende. Als ze de plank mis slaan zullen ze snel genoeg moeten rectificeren. En nieuwe juristen aannemen
Zie verder ook niet hoe dat draadje bij Reddit nu bewijst dat Heise ernaast zit. Maar kan ook niet bewijzen dat ze het goed hebben.
Het past voor mij verder volledig in het straatje van nVidia dus we zullen zien.
[ Voor 3% gewijzigd door Help!!!! op 25-06-2018 22:22 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Zit jij toevallig bij een nVidia focusgroep? Toevallig een NDA getekend hiervoor?
Enfin, bagatelliseer het maar weer
Enfin, bagatelliseer het maar weer

Fijn, toch een duimpje voor deze.madmaxnl schreef op maandag 25 juni 2018 @ 22:18:
Zit jij toevallig bij een nVidia focusgroep? Toevallig een NDA getekend hiervoor?
@Help!!!!, ik ben het overigens niet oneens met je laatste post, maar de hype die er ontstaat vind ik niet terecht. Als ze communicatie hadden gehad en er dan (nog) niet uitkwamen zou ik pas de brandstapel willen aansteken. Gezien de gegevens ontvangst- en retour datums vind ik het echter erg stil, terwijl geen enkele andere website er iets over roept, wat juist een "moment of fame" zou zijn gezien de recente GPP situatie. De 5 jaar periode vind ik overigens dan wel nog apart gezien dit wel heel lang is. Tenzij je vanaf dag 1 bij de ontwikkeling van een nieuwe serie bent betrokken en ik kan geen informatie bedenken die NVIDIA zou delen in zo'n vroeg stadium (met journalisten) die zo relevant kan zijn over zo'n lange periode.
[ Voor 65% gewijzigd door Paprika op 25-06-2018 22:56 ]
Verwijderd
Zie FreeSync2.Help!!!! schreef op maandag 25 juni 2018 @ 18:40:
NVIDIA G-Sync HDR Module Adds $500 to Monitor Pricing
ASUS ROG Swift PG27UQ 27" 4K 144Hz G-SYNC Monitor: True HDR Arrives on the Desktop
Damn.Wat zou dit kosten als we niet opgezadeld zaten met lock in mechanismen.....
Zit er niet meestal ook een zwijgplicht in zo'n NDA?Help!!!! schreef op maandag 25 juni 2018 @ 19:30:
Volgende schandal in the making :
NVIDIA’s new Non-Disclosure Agreement leaked
Heise.de: In eigener Sache: Nvidia-NDA als Maulkorb für Journalisten
[...]
Misschien goed om even na te vragen bij Tweakers en HWI of ze al krabbeltje gezet hebben![]()
[ Voor 41% gewijzigd door Verwijderd op 26-06-2018 00:15 ]
Verwijderd
maar is het gebruikelijk voor journalisten ? voor werknemers zullen andere NDA's gelden dan voor journalisten lijkt mij, NDA"s voor journalisten vind ik zowiezo gek.
Dus mischien is het wel gebruikelijk voor werknemrs maar niet voor journlaisten want die worden zo ind wel de mond gesnoerd.
Dus mischien is het wel gebruikelijk voor werknemrs maar niet voor journlaisten want die worden zo ind wel de mond gesnoerd.
Verwijderd
NDA's voor journalisten is gebruikelijk maar normaal gesproken gaat het om een zwijgplicht over prouducten tussen het krijgen van een sample of het zien van persslides en datum waarop het product verkrijgbaar is, dit om die mensen voldoende tijd te geven om het product te reviewen. Dat dan in de praktijk de meeste reviews nog steeds slecht zijn om uiteenlopende reden is een ander verhaal...
Ik zie opzich ook weinig vreemds aan die NDA, ik zou het eerder vreemd vinden als er geen NDA's waren binnen de techreview wereld (de journalisten) en de fabrikanten.
Ik kan me echt niet voorstellen dat Intel, AMD en noem ze allemaal maar op niet soortgelijke documenten hebben.
Ik kan me echt niet voorstellen dat Intel, AMD en noem ze allemaal maar op niet soortgelijke documenten hebben.
NDA's zijn heel normaal, maar die zijn anders. Normaal gesproken gaat de NDA over het product en wat erbij hoort en die begint dan bijvoorbeeld twee weken voor de lancering van het desetreffende product en loopt af na de lancering. Gaat erom dat men niks lekt en dat alle reviews allemaal tegelijk online komen. Deze is heel anders en daarom valt Heise daarover.
[ Voor 12% gewijzigd door -The_Mask- op 26-06-2018 00:39 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
AMD had niet zo heel lang geleden een soortgelijk relletje waarbij ze een reviewer bepaalde titels dwongen aan te nemen. Moment dat er op negatieve manier druk wordt uitgeoefend kun je als reviewer twee dingen doen, je rug recht houden en het aan de kaak stellen en voortaan geen samples meer ontvangen of je mond houden en er aan mee werken. Een NDA, streng of soepel geformuleerd, hoeft niet het probleem te zijn. Het wordt pas een probleem wanneer er wat mee gebeurd (groot deel van terms of service staat ook vol onzin waar je eigenlijk helemaal niet mee akkoord wil gaan).Dennism schreef op dinsdag 26 juni 2018 @ 00:15:
Ik zie opzich ook weinig vreemds aan die NDA, ik zou het eerder vreemd vinden als er geen NDA's waren binnen de techreview wereld (de journalisten) en de fabrikanten.
Ik kan me echt niet voorstellen dat Intel, AMD en noem ze allemaal maar op niet soortgelijke documenten hebben.
Overigens lijkt het zo op het eerste gezicht meer om een Duits - Amerikaanse cultuur clash te gaan dan dat er echt iets heel afwijkends in staat tov de gemiddelde NDA. Op reddit staat deze zoekterm waarbij je 700.000+ search results krijgt https://www.google.com/search?q=nda+%22for+the+benefit+of%22
[ Voor 55% gewijzigd door sdk1985 op 26-06-2018 01:34 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Engineering bord met Gddr6 is op de foto gekomen.
https://videocardz.com/76...h-gddr6-smiles-for-camera
https://videocardz.com/76...h-gddr6-smiles-for-camera
Wie goed doet, die goed ontmoet.
Verwijderd
Beetje een zwaktebod vind je niet?
GPP of financiële onderwerpen worden hier ook vaak besproken. Of gameworks wat ook meer software dan hardware gerelateerd is.
Ik vind een Nvidia NDA wel gerelateerd.Dit is een discussietopic. Hierin is de bedoeling dat je hier discussieerd over alles wat gerelateerd is aan de grafische kaarten van nVidia.
Of hebben jullie hem al getekend en snoeren jullie ons nu de mond ?
[ Voor 28% gewijzigd door dion_b op 26-06-2018 16:06 ]
Nou kom, we discussiëren over nieuws in het "nieuwsdiscussie" topic. Dan kan je flauw gaan doen over dat het technisch moet zijn maar dan vind ik dat jullie tech referenties ook moeten gaan verbieden in General Chat. Verzuiling is dan het devies toch?
spoiler:

Hoe groot is de kans dat nVidia afstapt van HBM2 voor hun Tesla kaarten?AtlAntA schreef op dinsdag 26 juni 2018 @ 08:34:
Engineering bord met Gddr6 is op de foto gekomen.
https://videocardz.com/76...h-gddr6-smiles-for-camera
Ik acht de kans namelijk vrij groot dat GDDR6 voor GTX kaarten bedoeld gaat zijn, in dat geval hebben we opeens een glimp gezien van hoe groot de volgende chip zou kunnen worden.
[ Voor 16% gewijzigd door dion_b op 26-06-2018 16:07 ]
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Volgens enkele analyses is de package size ongeveer hetzelfde als die van de de tesla kaart. Maar daar zit het geheugen op de die (HBM2) en dat is bij Gddr6 niet het geval. Dus de mogelijkheid tot een zeer grote chip is er wel degelijk.Blaat schreef op dinsdag 26 juni 2018 @ 13:28:
[...]
Nou kom, we discussiëren over nieuws in het "nieuwsdiscussie" topic. Dan kan je flauw gaan doen over dat het technisch moet zijn maar dan vind ik dat jullie tech referenties ook moeten gaan verbieden in General Chat. Verzuiling is dan het devies toch?
spoiler:
[...]
Hoe groot is de kans dat nVidia afstapt van HBM2 voor hun Tesla kaarten?
Ik acht de kans namelijk vrij groot dat GDDR6 voor GTX kaarten bedoeld gaat zijn, in dat geval hebben we opeens een glimp gezien van hoe groot de volgende chip zou kunnen worden.
Wie goed doet, die goed ontmoet.
@Werelds Je had het laatst over G-sync. Moet je het deel over de G-sync module op de tweede bladzijde eens lezen.
De G-sync module voor HDR schermen is niet bepaald gering qua hardware en zal al snel honderden dollars kosten. Voor zover er nog twijfel was of Nvidia VRR gaat ondersteunen. Ik betwijfel het omdat ik Nvidia uiteindelijk alsnog een leuke zakcentje zie verdienen per scherm.
https://www.pcper.com/rev...e-HDR-Arrives-Desktop/Tea
Daarnaast is het hele 4K 144Hz verhaal eigenlijk onzin. Je hebt gewoon niet genoeg bandbreedte om 144Hz te doen op die resolutie, met de kwaliteit van HDR. Tenminste niet met Displayport 1,4. Zijn ook al mensen aan het klagen over blurry beeldkwaliteit. Tot zover inderdaad G-sync als kwaliteitsmerk. Afijn, andere discussie die Gamingmonitoren - de ontwikkelingen hoort.
Tesla = HPC. De grote groeimarkt daarbinnen is AI. Van wat ik daarvan begrijp is er voor dergelijk onderzoek zeer snel geheugen, met zeer lage acces times noodzakelijk. HBM2 maakt welke GDDR versie dan ook helemaal af als het gaat om acces times.
Dan het engineering sample. Tja, Nvidia heeft nooit een aparte Quadro lijn gehad. Quadro is eigenlijk niks meer dan de beste GeForce lijn chips met een uitgebreide driverstack voor compute taken. De top SKU is vaak wel een Tesla. Ik betwijfel dus of het een speciale Quadro architectuur is. Een Tesla lijn chip is het ook niet want daar gaat Nvidia echt niet meer weg van HBM2. Blijft over GeForce, Turing dus want dat lijkt nu wel zeker.
Ik vind het wel opvallend wat er op het bord zit. 12GB GDDR6 VRAM en hoogstwaarschijnlijk een 384bit bus zal je circa 672GB/s geven. Verder lijkt het op een acht fasen VRM, maar dat valt moeilijk te controleren omdat vrijwel alles bedekt is door die ventilatoren. Maar het opvallendste is de omvang. Het PCB lijkt wat hoger te zijn dan veel andere reference kaarten, maar alsnog lijkt deze chip enorm te zijn.

Zelf ga ik al tijden uit van een 4608 of 5372 cuda core chip met 128x6x6 of 128x7x6 cuda cores/SM's/Raster Engines. GP102 was 128x5x6, en daar moet Nvidia nu overheen. Iets fundamenteel nieuws verwacht ik eigenlijk niet qua architectuur waardoor je op een nieuwe Maxwell refresh uitkomt. Een extra SM per Raster Engine zou circa 20% sneller moeten zijn dan een Titan XP met vergelijkbare clockspeeds. Ik vermoed dus dat dit GT102 is, de Titan dus.
Blijft over het formaat. Het PCB lijkt hoger te zijn dan de meeste, in ieder geval hoger dan het afdekplaatje van je PC, waar reference kaarten normaal gesproken niet overheen gaan. Verder nemen de contactpunten voor de GPU behoorlijk wat ruimte in. Bij mij roept dit dus de vraag op of Nvidia wel naar 7nm gaat? Is dit GT102, dan zie ik zo snel niet waarom deze groter zou zijn dan GP102. Zeker als het "maar" een 4608c chip is die ik wat waarschijnlijker acht. Dit omdat GM200 een 128x4x6 was, GP102 een 128x5x6, en dan zou GT102 een mooie 128x6x6 zijn voor een totaal van 4608 cuda cores.
De G-sync module voor HDR schermen is niet bepaald gering qua hardware en zal al snel honderden dollars kosten. Voor zover er nog twijfel was of Nvidia VRR gaat ondersteunen. Ik betwijfel het omdat ik Nvidia uiteindelijk alsnog een leuke zakcentje zie verdienen per scherm.
https://www.pcper.com/rev...e-HDR-Arrives-Desktop/Tea
Daarnaast is het hele 4K 144Hz verhaal eigenlijk onzin. Je hebt gewoon niet genoeg bandbreedte om 144Hz te doen op die resolutie, met de kwaliteit van HDR. Tenminste niet met Displayport 1,4. Zijn ook al mensen aan het klagen over blurry beeldkwaliteit. Tot zover inderdaad G-sync als kwaliteitsmerk. Afijn, andere discussie die Gamingmonitoren - de ontwikkelingen hoort.
Minder dan nul.Blaat schreef op dinsdag 26 juni 2018 @ 13:28:
Hoe groot is de kans dat nVidia afstapt van HBM2 voor hun Tesla kaarten?
Ik acht de kans namelijk vrij groot dat GDDR6 voor GTX kaarten bedoeld gaat zijn, in dat geval hebben we opeens een glimp gezien van hoe groot de volgende chip zou kunnen worden.
Tesla = HPC. De grote groeimarkt daarbinnen is AI. Van wat ik daarvan begrijp is er voor dergelijk onderzoek zeer snel geheugen, met zeer lage acces times noodzakelijk. HBM2 maakt welke GDDR versie dan ook helemaal af als het gaat om acces times.
Dan het engineering sample. Tja, Nvidia heeft nooit een aparte Quadro lijn gehad. Quadro is eigenlijk niks meer dan de beste GeForce lijn chips met een uitgebreide driverstack voor compute taken. De top SKU is vaak wel een Tesla. Ik betwijfel dus of het een speciale Quadro architectuur is. Een Tesla lijn chip is het ook niet want daar gaat Nvidia echt niet meer weg van HBM2. Blijft over GeForce, Turing dus want dat lijkt nu wel zeker.
Ik vind het wel opvallend wat er op het bord zit. 12GB GDDR6 VRAM en hoogstwaarschijnlijk een 384bit bus zal je circa 672GB/s geven. Verder lijkt het op een acht fasen VRM, maar dat valt moeilijk te controleren omdat vrijwel alles bedekt is door die ventilatoren. Maar het opvallendste is de omvang. Het PCB lijkt wat hoger te zijn dan veel andere reference kaarten, maar alsnog lijkt deze chip enorm te zijn.

Zelf ga ik al tijden uit van een 4608 of 5372 cuda core chip met 128x6x6 of 128x7x6 cuda cores/SM's/Raster Engines. GP102 was 128x5x6, en daar moet Nvidia nu overheen. Iets fundamenteel nieuws verwacht ik eigenlijk niet qua architectuur waardoor je op een nieuwe Maxwell refresh uitkomt. Een extra SM per Raster Engine zou circa 20% sneller moeten zijn dan een Titan XP met vergelijkbare clockspeeds. Ik vermoed dus dat dit GT102 is, de Titan dus.
Blijft over het formaat. Het PCB lijkt hoger te zijn dan de meeste, in ieder geval hoger dan het afdekplaatje van je PC, waar reference kaarten normaal gesproken niet overheen gaan. Verder nemen de contactpunten voor de GPU behoorlijk wat ruimte in. Bij mij roept dit dus de vraag op of Nvidia wel naar 7nm gaat? Is dit GT102, dan zie ik zo snel niet waarom deze groter zou zijn dan GP102. Zeker als het "maar" een 4608c chip is die ik wat waarschijnlijker acht. Dit omdat GM200 een 128x4x6 was, GP102 een 128x5x6, en dan zou GT102 een mooie 128x6x6 zijn voor een totaal van 4608 cuda cores.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als het 'gewoon' een test bordje is voor chip performance en stroomverbruik etcetera dan maakt het formaat van het pcb in dit stadium niet zoveel uit toch? We weten niet hoe oud deze foto is. Het kan best zo zijn dat deze foto van begin dit jaar is.DaniëlWW2 schreef op dinsdag 26 juni 2018 @ 14:55:
@Werelds Je had het laatst over G-sync. Moet je het deel over de G-sync module op de tweede bladzijde eens lezen.![]()
De G-sync module voor HDR schermen is niet bepaald gering qua hardware en zal al snel honderden dollars kosten. Voor zover er nog twijfel was of Nvidia VRR gaat ondersteunen. Ik betwijfel het omdat ik Nvidia uiteindelijk alsnog een leuke zakcentje zie verdienen per scherm.
https://www.pcper.com/rev...e-HDR-Arrives-Desktop/Tea
Daarnaast is het hele 4K 144Hz verhaal eigenlijk onzin. Je hebt gewoon niet genoeg bandbreedte om 144Hz te doen op die resolutie, met de kwaliteit van HDR. Tenminste niet met Displayport 1,4. Zijn ook al mensen aan het klagen over blurry beeldkwaliteit. Tot zover inderdaad G-sync als kwaliteitsmerk. Afijn, andere discussie die Gamingmonitoren - de ontwikkelingen hoort.
[...]
Minder dan nul.![]()
Tesla = HPC. De grote groeimarkt daarbinnen is AI. Van wat ik daarvan begrijp is er voor dergelijk onderzoek zeer snel geheugen, met zeer lage acces times noodzakelijk. HBM2 maakt welke GDDR versie dan ook helemaal af als het gaat om acces times.
Dan het engineering sample. Tja, Nvidia heeft nooit een aparte Quadro lijn gehad. Quadro is eigenlijk niks meer dan de beste GeForce lijn chips met een uitgebreide driverstack voor compute taken. De top SKU is vaak wel een Tesla. Ik betwijfel dus of het een speciale Quadro architectuur is. Een Tesla lijn chip is het ook niet want daar gaat Nvidia echt niet meer weg van HBM2. Blijft over GeForce, Turing dus want dat lijkt nu wel zeker.
Ik vind het wel opvallend wat er op het bord zit. 12GB GDDR6 VRAM en hoogstwaarschijnlijk een 384bit bus zal je circa 672GB/s geven. Verder lijkt het op een acht fasen VRM, maar dat valt moeilijk te controleren omdat vrijwel alles bedekt is door die ventilatoren. Maar het opvallendste is de omvang. Het PCB lijkt wat hoger te zijn dan veel andere reference kaarten, maar alsnog lijkt deze chip enorm te zijn.
[afbeelding]
Zelf ga ik al tijden uit van een 4608 of 5372 cuda core chip met 128x6x6 of 128x7x6 cuda cores/SM's/Raster Engine. GP102 was 128x5x6, en daar moet Nvidia nu overheen. Iets fundamenteel nieuws verwacht ik eigenlijk niet. Dat zou circa 30% sneller moeten zijn dan een Titan XP met vergelijkbare clockspeeds. Ik vermoed dat dit GT102 is, de Titan dus.
Blijft over het formaat. Het PCB lijkt hoger te zijn dan de meeste, in ieder geval hoger dan het afdekplaatje van je PC, waar reference kaarten normaal gesproken niet overheen gaan. Verder nemen de contactpunten voor de GPU behoorlijk wat ruimte in. Bij mij roept dit dus de vraag op of Nvidia wel naar 7nm gaat? Is dit GT102, dan zie ik zo snel niet waarom deze groter zou zijn dan GP102. Zeker als het "maar" een 4608c chip is die ik wat waarschijnlijker acht. Dit omdat GM200 een 128x4x6 was, GP102 een 128x5x6, en dan zou GT102 een mooie 128x6x6 zijn.
Wie goed doet, die goed ontmoet.
Ik gebruik het PCB dan ook als referentie om in te schatten hoe groot de substraat met daarop de GPU zal zijn.AtlAntA schreef op dinsdag 26 juni 2018 @ 15:09:
[...]
Als het 'gewoon' een test bordje is voor chip performance en stroomverbruik etcetera dan maakt het formaat van het pcb in dit stadium niet zoveel uit toch? We weten niet hoe oud deze foto is. Het kan best zo zijn dat deze foto van begin dit jaar is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Snelle dirty paint-job (PCI-E uitgelijnd en dan de GPU van de GTX1080Ti over die van het testbord geplaatst):
https://i.imgur.com/zubsSFp.jpg
https://i.imgur.com/iyzz4Ib.jpg
Iets groter dan een GP102 lijkt me dan als ik de uitlijning iets zou corrigeren. Richting GF100 dus?
https://i.imgur.com/zubsSFp.jpg
https://i.imgur.com/iyzz4Ib.jpg
Iets groter dan een GP102 lijkt me dan als ik de uitlijning iets zou corrigeren. Richting GF100 dus?
[ Voor 31% gewijzigd door Paprika op 26-06-2018 15:35 ]
Verwijderd
offtopic:
Ik zie ook geen problemen met een discussie over NDA's aangezien het nu eenmaal actueel nieuws over Nvidia in de techverslaggeving, zolang het hier niet een uitgebreide juridische discussie wordt.
Ik zie ook geen problemen met een discussie over NDA's aangezien het nu eenmaal actueel nieuws over Nvidia in de techverslaggeving, zolang het hier niet een uitgebreide juridische discussie wordt.
Zelfs de meeste mensen die een 1070,1070 Ti, 1080, 1080 Ti kopen zullen niet zo'n monitor kopen. Hoe minder mensen zo'n monitor kopen hoe hoger de prijs voor die mensen die het wel kopen. Ik ben benieuwd hoe levensvatbaar dit is voor de lange termijn.DaniëlWW2 schreef op dinsdag 26 juni 2018 @ 14:55:
@Werelds Je had het laatst over G-sync. Moet je het deel over de G-sync module op de tweede bladzijde eens lezen.![]()
De G-sync module voor HDR schermen is niet bepaald gering qua hardware en zal al snel honderden dollars kosten. Voor zover er nog twijfel was of Nvidia VRR gaat ondersteunen. Ik betwijfel het omdat ik Nvidia uiteindelijk alsnog een leuke zakcentje zie verdienen per scherm.
https://www.pcper.com/rev...e-HDR-Arrives-Desktop/Tea
Volgens wccftech kosten die gsync modules wel 500 dollar.
https://wccftech.com/nvid...k-stunning-but-expensive/
https://wccftech.com/nvid...k-stunning-but-expensive/
Wie goed doet, die goed ontmoet.
Verwijderd
Voor dat geld heb je een volledige 1440p 144 Hz. IPS/VA monitor.AtlAntA schreef op dinsdag 26 juni 2018 @ 15:29:
Volgens wccftech kosten die gsync modules wel 500 dollar.
https://wccftech.com/nvid...k-stunning-but-expensive/
categorie: Monitoren
Je moet dan alleen wel nog een 1080p-scherm of 4k-scherm ernaast hebben als je HD-video's bekijkt.
Ik heb een gsync 1440p scherm en ik zou echt niet anders willen. Dus voor mij was het toen de gsync tax wel waard. Maar 500 dollar voor de nieuwste module's is wel erg duur. Er zit een FPGA op met 3gb ram dus de kostten zijn er wel. Daarbij komt nog dat true 4k@144hz blijkbaar niet haalbaar is op die nieuwe super de luxe schermen dankzij deze module waardoor ik toch twijfel aan de weg die Nvidia is ingeslagen met gsync.Verwijderd schreef op dinsdag 26 juni 2018 @ 15:40:
[...]
Voor dat geld heb je een volledige 1440p 144 Hz. IPS/VA monitor.
categorie: Monitoren
Je moet dan alleen wel nog een 1080p-scherm of 4k-scherm ernaast hebben als je HD-video's bekijkt.
Bronnen: https://www.pcper.com/rev...-True-HDR-Arrives-Desktop
YouTube: Nvidia Teased Next-Gen GPUs? Intel Z390 Just A Z370 Refresh.
Wie goed doet, die goed ontmoet.
Nog een update. Techpowerup heeft een schatting gemaakt gebaseerd op het formaat van de GDD6 chips. Ze komen uit op 676mm². Klopt dan, dan kan het haast niet anders dat deze op de 12nm node van TSMC is geproduceerd. 
https://www.techpowerup.c...ower-delivery-gtx-1180-ti
https://www.techpowerup.c...ower-delivery-gtx-1180-ti
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Vanuit Nvidia bezien is het niet zo'n gekke stap aangezien Pascal zo'n kleine GPU's had en Nvidia dus ruimte over heeft om eerst die groter te maken alvorens ze een nieuwe (in het begin duurdere) node gebruiken. De kaarten worden toch wel verkocht met winst en Nvidia is nu pak hem beet een half jaar (als het niet meer is) eerder dan AMD met een nieuwe generatie.
In welk geval het voor de hand ligt dat deze kaarten in 2018 nog uitkomen aangezien er in de eerste helft van 2019 een 7 nm. node gebruikt zou kunnen worden. Dat kan nog interessant worden in het <€450 segment (die 7 nm. Navi zou een relatief kleine GPU worden) als AMD wacht op de 7 nm. node van TSMC/GF.DaniëlWW2 schreef op dinsdag 26 juni 2018 @ 16:04:
Nog een update. Techpowerup heeft een schatting gemaakt gebaseerd op het formaat van de GDD6 chips. Ze komen uit op 676mm². Klopt dan, dan kan het haast niet anders dat deze op de 12nm node van TSMC is geproduceerd.
https://www.techpowerup.c...ower-delivery-gtx-1180-ti
[ Voor 19% gewijzigd door Verwijderd op 26-06-2018 16:27 ]
Dat kan haast niet kloppen. Een dergelijk chipoppervlak zal behoorlijk slechte yields en bizar hoge prijzen per chip opleveren.DaniëlWW2 schreef op dinsdag 26 juni 2018 @ 16:04:
Nog een update. Techpowerup heeft een schatting gemaakt gebaseerd op het formaat van de GDD6 chips. Ze komen uit op 676mm². Klopt dan, dan kan het haast niet anders dat deze op de 12nm node van TSMC is geproduceerd.
https://www.techpowerup.c...ower-delivery-gtx-1180-ti
Dat weet jij vast beter dan ik, maar is er ooit een chip geweest die dat oppervlak heeft geëvenaard? Volgens mij niet toch?
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Yup.
Dit ding gaat minstens €1200 kosten...Verwijderd schreef op dinsdag 26 juni 2018 @ 16:23:
[...]
In welk geval het voor de hand ligt dat deze kaarten in 2018 nog uitkomen aangezien er in de eerste helft van 2019 een 7 nm. node gebruikt zou kunnen worden. Dat kan nog interessant worden in het <€450 segment (die 7 nm. Navi zou een relatief kleine GPU worden) als AMD wacht op de 7 nm. node van TSMC/GF.
Nee, deze is totaal irrelevant voor de gemiddelde gamer. Verder heeft Nvidia betaald voor een speciale variant van TSMC haar 12nm procedé, welke zulke enorme chips moet faciliteren zonder waardeloze yields. Dat procedé gebruiken ze al voor hun gestoorde 815mm2 GV100. Gezien deze schatting van Techpowerup, zou ik zou willen speculeren, dat het prijstechnisch voor Nvidia interessanter is om er meer chips op te produceren, dan de overstap naar 7nm te maken en het risico te lopen tegen zeer slechte yields aan te lopen. Als je toch al hebt betaald voor een op maat gemaakt procedé, gebruik het dan.
Is dit ding echt 650mm2+, dan wordt deze daarop geproduceerd. De rest van de lijn zal dan ook op 12nm geproduceerd worden. GT104 misschien ook nog op het speciale procedé, terwijl GT106 etc waarschijnlijk op het normale 12nm procedé.
Ik wou er al net op ingaan. GV100 is nog veel groter.Blaat schreef op dinsdag 26 juni 2018 @ 16:32:
[...]
Dat kan haast niet kloppen. Een dergelijk chipoppervlak zal behoorlijk slechte yields en bizar hoge prijzen per chip opleveren.
Dat weet jij vast beter dan ik, maar is er ooit een chip geweest die dat oppervlak heeft geëvenaard? Volgens mij niet toch?
Voorheen was de grootste GPU ooit de GM200 met 601mm2. De tweede was Fiji met 596mm2. Beiden op het toen zeer volwassen 28nm procedé van TSMC. Daarna kwam GP100 nog met 610 mm² op het 16nm procedé van TSMC. Die werd alleen vrij snel al achterhaald door GV100. TSMC heeft dus aardig wat expertise met gigantische chips. Zelfs dan nog is het waarschijnlijk alleen mogelijk om een chip groter dan 600mm2 te ontwerpen en produceren omdat Nvidia een speciaal 12nm procedé heeft voor dit soort monsters.
En voor de gein nog wat andere Nvidia monsters:
GK110 = 551mm2 (GTX 780-Titan)
GF110 = 520mm2 (GTX560Ti-GTX580)
GT200 = 576mm2 (GTX260-GTX280)
GT200B = 470mm2 (GTX260 216-GTX285)
G80 = 484mm2 (Eerste 8800 serie)
ATi/AMD vermijd de chips boven de 400mm2 eigenlijk. Ze hebben er ook nooit geluk mee gehad...
[ Voor 11% gewijzigd door DaniëlWW2 op 26-06-2018 23:52 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Vega is groter (dan 400)...
[ Voor 22% gewijzigd door Paprika op 26-06-2018 16:58 ]
En daar hebben ze dan ook geen geluk mee.Paprika schreef op dinsdag 26 juni 2018 @ 16:56:
Vega is groter (dan 400)...
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Verwijderd
Aanzienlijk groter!Paprika schreef op dinsdag 26 juni 2018 @ 16:56:
Vega is groter (dan 400)...
Te groot voor deze architectuur bij gaming. ik geloof dan ook het gerucht dat AMD voor Navi geen grote GPU uitbrengt al zou ik wel graag zien dat er iets uitkomt wat tussen de volle Polaris en de cut van Vega in zit.
[ Voor 16% gewijzigd door Verwijderd op 26-06-2018 17:09 ]
Voor een monitor die zo duur is, is het volgende wel uit PCPer review behoorlijk af doen aan het totaalplaatje bij mij:DaniëlWW2 schreef op dinsdag 26 juni 2018 @ 14:55:
@Werelds Je had het laatst over G-sync. Moet je het deel over de G-sync module op de tweede bladzijde eens lezen.![]()
De G-sync module voor HDR schermen is niet bepaald gering qua hardware en zal al snel honderden dollars kosten. Voor zover er nog twijfel was of Nvidia VRR gaat ondersteunen. Ik betwijfel het omdat ik Nvidia uiteindelijk alsnog een leuke zakcentje zie verdienen per scherm.
https://www.pcper.com/rev...e-HDR-Arrives-Desktop/Tea
Daarnaast is het hele 4K 144Hz verhaal eigenlijk onzin. Je hebt gewoon niet genoeg bandbreedte om 144Hz te doen op die resolutie, met de kwaliteit van HDR. Tenminste niet met Displayport 1,4. Zijn ook al mensen aan het klagen over blurry beeldkwaliteit. Tot zover inderdaad G-sync als kwaliteitsmerk. Afijn, andere discussie die Gamingmonitoren - de ontwikkelingen hoort.
-------------
One caveat though, with HDR enabled at 4K, the maximum refresh rate is limited to 98Hz.
While this isn't a problem for today, where graphics cards can barely hit 60 FPS at 4K, it is certainly something to be aware of when buying a $2,000 product that you would expect to last for quite a long time to come.
Edit:
For clarification, the 98Hz limit represents the refresh rate at which the monitor switches from 4:4:4 chroma subsampling to 4:2:2 subsampling. While this shouldn't affect things such as games and movies to a noticeable extent, 4:2:2 can result in blurry or difficult to read text in certain scenarios. For more information on Chroma Subsampling, see this great article over at Rtings.
For the moment, given the lack of available GPU products to push games above 98Hz at 4K, we feel like keeping the monitor in 98Hz mode is a good compromise. However, for a display this expensive, it's a negative that may this display age faster than expected.
Here is the full capability of the PG27UQ across different refresh rates and modes:
SDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB, 144 Hz (overclocked) 8-bit YCbCr422
HDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB (dithered, only with Win10 RS4), 120 Hz 10-bit YCbCr422, 144 Hz (overclocked) 10-bit YCbCr422
-------------
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Precies ja.
Oh ik was er even snel doorheen gegaan en heb dit gemist. Voor €2000 is dit wel een flinke dealbreaker ja.Help!!!! schreef op dinsdag 26 juni 2018 @ 17:17:
[...]
Voor een monitor die zo duur is, is het volgende wel uit PCPer review behoorlijk af doen aan het totaalplaatje bij mij:
-------------
One caveat though, with HDR enabled at 4K, the maximum refresh rate is limited to 98Hz.
While this isn't a problem for today, where graphics cards can barely hit 60 FPS at 4K, it is certainly something to be aware of when buying a $2,000 product that you would expect to last for quite a long time to come.
Edit:
For clarification, the 98Hz limit represents the refresh rate at which the monitor switches from 4:4:4 chroma subsampling to 4:2:2 subsampling. While this shouldn't affect things such as games and movies to a noticeable extent, 4:2:2 can result in blurry or difficult to read text in certain scenarios. For more information on Chroma Subsampling, see this great article over at Rtings.
For the moment, given the lack of available GPU products to push games above 98Hz at 4K, we feel like keeping the monitor in 98Hz mode is a good compromise. However, for a display this expensive, it's a negative that may this display age faster than expected.
Here is the full capability of the PG27UQ across different refresh rates and modes:
SDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB, 144 Hz (overclocked) 8-bit YCbCr422
HDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB (dithered, only with Win10 RS4), 120 Hz 10-bit YCbCr422, 144 Hz (overclocked) 10-bit YCbCr422
-------------

Maar eigenlijk niet Nvidia haar fout, maar ASUS. Afijn, hoort echt bij de monitoren, niet die dingen die in het geval van 4K 60Hz+, bijna wanhopig proberen om er beeld op te krijgen.
[ Voor 83% gewijzigd door DaniëlWW2 op 27-06-2018 00:02 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik koop een scherm voor 5 jaar minimaal dus het mag in principe wat kosten maar dit zijn dingen waar we over 2 gpu generaties al tegen aan lopen dus ik laat hem staan.Help!!!! schreef op dinsdag 26 juni 2018 @ 17:17:
[...]
Voor een monitor die zo duur is, is het volgende wel uit PCPer review behoorlijk af doen aan het totaalplaatje bij mij:
-------------
One caveat though, with HDR enabled at 4K, the maximum refresh rate is limited to 98Hz.
While this isn't a problem for today, where graphics cards can barely hit 60 FPS at 4K, it is certainly something to be aware of when buying a $2,000 product that you would expect to last for quite a long time to come.
Edit:
For clarification, the 98Hz limit represents the refresh rate at which the monitor switches from 4:4:4 chroma subsampling to 4:2:2 subsampling. While this shouldn't affect things such as games and movies to a noticeable extent, 4:2:2 can result in blurry or difficult to read text in certain scenarios. For more information on Chroma Subsampling, see this great article over at Rtings.
For the moment, given the lack of available GPU products to push games above 98Hz at 4K, we feel like keeping the monitor in 98Hz mode is a good compromise. However, for a display this expensive, it's a negative that may this display age faster than expected.
Here is the full capability of the PG27UQ across different refresh rates and modes:
SDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB, 144 Hz (overclocked) 8-bit YCbCr422
HDR: 98 Hz 10-bit RGB, 120 Hz 8-bit RGB (dithered, only with Win10 RS4), 120 Hz 10-bit YCbCr422, 144 Hz (overclocked) 10-bit YCbCr422
-------------
Wie goed doet, die goed ontmoet.
Is nog al opvallend dat Tweakers hier niet over bericht, terwijl het nieuwsbericht wel is ingestuurd. Je zou bijna denken dat ze het ondertekend hebben en er niet over mogen praten.Help!!!! schreef op maandag 25 juni 2018 @ 19:30:
Misschien goed om even na te vragen bij Tweakers en HWI of ze al krabbeltje gezet hebben![]()
@Olaf @willemdemoor @Xtuv
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Gezien nu langzaam de andere grote sites artikelen plaatsen...
https://www.computerbase....stellungnahme-nvidia-nda/When Heise writes "In other words: Journalists are only allowed to write what fits Nvidia in the junk." This is wrong in our view. For with publication and thus the end of the lock-up period to a product, we may write anything, before we can not publish the information received from Nvidia simply.
Statements such as " Who signs this Nvidia NDA, must therefore bow to the will of the American manufacturer for five years " are in our view deliberately polarizing, misleading and far removed from any practice in the cooperation between media and manufacturers.
https://www.guru3d.com/ne...argo-stirs-things-up.htmlThat said, allow me to give you my take (the Guru3D side) of this topic slash story. Press embargoes have been here for years and from anyone. From AIB partners we work with, to (at the time) Intel, to Nvidia towards AMD. If a new Intel Chipset motherboard is released? We receive such NDA from MSI, ASUS, Gigabyte and onwards. So basically, the minute you get your hands on samples that are not released yet, you'll need to have signed a non-disclosure agreement. While I do not feel a need to defend NVIDIA whatsoever, the new long-term NDA from NVIDIA is not very different from older ones ergo, I was not at all that surprised by its contents. Interesting, however, is the line: "Shall not: post news stories based on confidential information". But here again, that's not very different from what we have seen in the past and certainly not very different from NDAs we receive from other parties in the technology industry.
https://www.techpowerup.c...ses-eyebrows-our-thoughtsTechPowerUp did receive this NDA around the 20th, and promptly signed it, because we aren't reading too much into the controversial lines pointed out by Heise. I'm sure you won't spare us the criticism in the comments of this article. We've come across the phrase "in favor of" in many NDAs, not just from NVIDIA, and never once interpreted it as "favorable." This NDA is not going to stop TechPowerUp from pointing out any shortcomings of NVIDIA products, and none of NVIDIA's NDAs in the past ever have. During the review process, all NVIDIA does is check on progress, and whether we have encountered any abnormalities that they might be able to help with. Completely ignoring that inquiry is fine, and we've done so many times. Whenever we've come across bad products from NVIDIA, such as the GeForce GTX 480, or bad implementations of NVIDIA cards by its AIC partners, we've never hesitated to bring them to the attention of our readers, and will never stop doing so. One could easily argue that the drama after the GTX 480 launch was for the benefit of NVIDIA, because it pushed them in the right direction, to improve their product, which has led to their market dominance today.
Public perception of NVIDIA has already taken a beating in the wake of the GPP controversy, and it's the duty of press to point out similar misadventures by the company, but maybe not based on misinterpretations of internal documents. We feel that Heise is overreacting and possibly looking to become a martyr, by just following the trend of bashing NVIDIA.
[ Voor 8% gewijzigd door Paprika op 27-06-2018 00:48 ]
Wat ik begrijp is dat er onder deze NDA bijv. niet over GPP bericht had kunnen worden.
Je ziet nu al dat Tweakers nog niks over deze NDA bericht heeft terwijl het hun lezers wel degelijk kan raken. Nu verwacht ik van deze site bijzonder weinig qua kritisch vermogen tav partijen als nvidia maar zij hebben hem dus ongetwijfeld getekend.
Een NDA als deze zal denk ik al snel tot zelfcensuur leiden in die zin dat bij twijfel er niet bericht wordt over (de shady) praktijken van nVidia. Op elke scheet van nVidia zal nu stempeltje confidential/vallend onder nda staan.
Nu klinkt het allemaal wel leuk dat sites denken dat het hen niet raakt maar hoeveel durven het risico te nemen dat ze met hun vrij lege zakken moeten opnemen tegen de nVidia lawyers?
Zou GPP 2.0 of iets dergelijks nu snel volgen
Onder de streep denk ik dat het tekenen door reviewsites van de betreffende NDA mij als consument nul voordeel biedt tov de situatie dat deze NDA niet zou bestaan.
De hele gang van zaken, geen duidelijk antwoord op wat er mis was met de oude NDA's, de twee dagen response tijd, de afhankelijkheid die reviewsites hebben tov deze bijna monopolist, de historie van nVidia.
Ik zie niks positiefs aan deze NDA voor mij als consument.
Je ziet nu al dat Tweakers nog niks over deze NDA bericht heeft terwijl het hun lezers wel degelijk kan raken. Nu verwacht ik van deze site bijzonder weinig qua kritisch vermogen tav partijen als nvidia maar zij hebben hem dus ongetwijfeld getekend.
Een NDA als deze zal denk ik al snel tot zelfcensuur leiden in die zin dat bij twijfel er niet bericht wordt over (de shady) praktijken van nVidia. Op elke scheet van nVidia zal nu stempeltje confidential/vallend onder nda staan.
Nu klinkt het allemaal wel leuk dat sites denken dat het hen niet raakt maar hoeveel durven het risico te nemen dat ze met hun vrij lege zakken moeten opnemen tegen de nVidia lawyers?
Zou GPP 2.0 of iets dergelijks nu snel volgen
Onder de streep denk ik dat het tekenen door reviewsites van de betreffende NDA mij als consument nul voordeel biedt tov de situatie dat deze NDA niet zou bestaan.
De hele gang van zaken, geen duidelijk antwoord op wat er mis was met de oude NDA's, de twee dagen response tijd, de afhankelijkheid die reviewsites hebben tov deze bijna monopolist, de historie van nVidia.
Ik zie niks positiefs aan deze NDA voor mij als consument.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik heb iig niks ondertekend en imho is het nogal een storm in een glas water. Elke fabrikant heeft embargo's, en die zijn vooral bedoeld om geen info voor release te lekken. Daar houden we ons netjes aan, tenzij die info in public domain beschikbaar is. Maar we hebben nog nooit een nda gezien of getekend die ons verbiedt objectief over een product te schrijven. En dat zullen we ook niet doen, en anders hebben we een uitgebreide juridische afdeling die netjes kunnen verwoorden waarom dergelijke eisen geen steek houden.
Dat gezegd hebbende, Jelle doet videokaartreviews, dus hij zou die nda gekregen moeten hebben. Hij is echter op vakantie, dus heeft sowieso niks getekend
Dat gezegd hebbende, Jelle doet videokaartreviews, dus hij zou die nda gekregen moeten hebben. Hij is echter op vakantie, dus heeft sowieso niks getekend
^
Dat is dan weer positief. Maar vind het wel vreemd dat dit onderwerp geen item is op de frontpage.
Dat is dan weer positief. Maar vind het wel vreemd dat dit onderwerp geen item is op de frontpage.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Het is wat ons betreft (nieuwsredactie) niet echt nieuwswaardig. Het is inderdaad een cringeworthy nda, met daarin twijfelachtige passages, maar dat is meer regel dan uitzondering. Het is daarbij meer een juridische discussie dan een technisch onderwerp. In de praktijk wordt de soep niet zo heet gegeten.Help!!!! schreef op woensdag 27 juni 2018 @ 10:30:
^
Dat is dan weer positief. Maar vind het wel vreemd dat dit onderwerp geen item is op de frontpage.
Je aanname dat een dergelijke nda ons ervan zou weerhouden om iets over GPP te schrijven, is gewoonweg onjuist. Dat zou wellicht zo zijn als die informatie over GPP door Nvidia zelf naar buiten gebracht zou zijn, maar dat is niet het geval. Alle controverse over GPP is 'gelekt' door anderen, daarmee valt het direct al buiten zo'n NDA. En zelfs dan nog, stel dat wij een nda zouden tekenen en dat een partij een groot schandaal besluit te delen, dan kunnen we dat nog altijd naar buiten brengen als de nieuwswaarde belangrijk is. Dat is onze journalistieke plicht.
Voorbeeldje: wij tekenen vaak nda's of embargo's voor bijvoorbeeld de aankondiging van een nieuwe smartphone. Dan ontvangen we vooraf de informatie zodat we een nieuwsbericht/preview kunnen maken. Die informatie die we van de fabrikant ontvangen, mogen we niet gebruiken voor het aflopen van het embargo en dat doen we ook niet. Maar als er op Twitter (bijvoorbeeld bij @evleaks) dan enkele dagen voor het embargo afloopt alle informatie verschijnt, publiceren we dat wel. Daarmee breken we niet het nda, want we baseren wat we publiceren op de informatie die publiek beschikbaar is. Fabrikanten zijn daar niet blij mee, maar zo werkt dat nu eenmaal in de praktijk.
Ik begrijp wel waar de argwaan vandaan komt. Het is ook prima om als lezer kritisch te zijn. Maar juist Tweakers heeft de mogelijkheid om kritisch te zijn door onze volledige redactionele onafhankelijkheid en door het feit dat wij een groot bedrijf (De Persgroep) achter ons hebben staan met een bijbehorende professionele juridische afdeling en de financiële zekerheid die dat meebrengt. De redactie werkt volledig los van de salesafdeling en voor zover ik weet is Nvidia ook niet echt een grote adverteerder bij ons, dus daar zijn we zeker niet van afhankelijk. Ook voor de samples hoeven we het niet te doen... als Nvidia of partij X die besluit niet meer te geven, dan halen we ze zelf wel in huis...
Bedankt voor je reactie, wordt gewaardeerd!Xtuv schreef op woensdag 27 juni 2018 @ 10:55:
[...]
Het is wat ons betreft (nieuwsredactie) niet echt nieuwswaardig. Het is inderdaad een cringeworthy nda, met daarin twijfelachtige passages, maar dat is meer regel dan uitzondering. Het is daarbij meer een juridische discussie dan een technisch onderwerp. In de praktijk wordt de soep niet zo heet gegeten.
Je aanname dat een dergelijke nda ons ervan zou weerhouden om iets over GPP te schrijven, is gewoonweg onjuist. Dat zou wellicht zo zijn als die informatie over GPP door Nvidia zelf naar buiten gebracht zou zijn, maar dat is niet het geval. Alle controverse over GPP is 'gelekt' door anderen, daarmee valt het direct al buiten zo'n NDA. En zelfs dan nog, stel dat wij een nda zouden tekenen en dat een partij een groot schandaal besluit te delen, dan kunnen we dat nog altijd naar buiten brengen als de nieuwswaarde belangrijk is. Dat is onze journalistieke plicht.
Voorbeeldje: wij tekenen vaak nda's of embargo's voor bijvoorbeeld de aankondiging van een nieuwe smartphone. Dan ontvangen we vooraf de informatie zodat we een nieuwsbericht/preview kunnen maken. Die informatie die we van de fabrikant ontvangen, mogen we niet gebruiken voor het aflopen van het embargo en dat doen we ook niet. Maar als er op Twitter (bijvoorbeeld bij @evleaks) dan enkele dagen voor het embargo afloopt alle informatie verschijnt, publiceren we dat wel. Daarmee breken we niet het nda, want we baseren wat we publiceren op de informatie die publiek beschikbaar is. Fabrikanten zijn daar niet blij mee, maar zo werkt dat nu eenmaal in de praktijk.
Ik begrijp wel waar de argwaan vandaan komt. Het is ook prima om als lezer kritisch te zijn. Maar juist Tweakers heeft de mogelijkheid om kritisch te zijn door onze volledige redactionele onafhankelijkheid en door het feit dat wij een groot bedrijf (De Persgroep) achter ons hebben staan met een bijbehorende professionele juridische afdeling en de financiële zekerheid die dat meebrengt. De redactie werkt volledig los van de salesafdeling en voor zover ik weet is Nvidia ook niet echt een grote adverteerder bij ons, dus daar zijn we zeker niet van afhankelijk. Ook voor de samples hoeven we het niet te doen... als Nvidia of partij X die besluit niet meer te geven, dan halen we ze zelf wel in huis...
Het voorbeeld zoals jij het beschrijft lijkt mij een logische en acceptabele NDA. De nieuwe NDA lijkt hier toch wel van af te wijken op een ongunstige manier.
De vraag is natuurlijk hoeveel leaks er nog zullen zijn naarmate er meer partijen deze NDA ondertekend hebben.
Anyway, ik waardeer je reactie en goed dat tweakers haar positie neerzet. Het heeft mij er desalniettemin niet van overtuigd dat deze NDA positief is voor mij als consument .
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
@Help!!!! Graag gedaan en bedankt voor je begrip
Ik denk ook zeker niet dat deze NDA positief is voor consumenten. Het is echter ook niet per definitie negatief, mits publicaties (zowel websites, magazines als YouTubers) hun journalistieke principes niet laten varen.
Verwijderd
Goed dat jij reageert.willemdemoor schreef op woensdag 27 juni 2018 @ 10:26:
Ik heb iig niks ondertekend en imho is het nogal een storm in een glas water. Elke fabrikant heeft embargo's, en die zijn vooral bedoeld om geen info voor release te lekken. Daar houden we ons netjes aan, tenzij die info in public domain beschikbaar is. Maar we hebben nog nooit een nda gezien of getekend die ons verbiedt objectief over een product te schrijven. En dat zullen we ook niet doen, en anders hebben we een uitgebreide juridische afdeling die netjes kunnen verwoorden waarom dergelijke eisen geen steek houden.
Dat gezegd hebbende, Jelle doet videokaartreviews, dus hij zou die nda gekregen moeten hebben. Hij is echter op vakantie, dus heeft sowieso niks getekend
Ik moet zeggen dat ik ernaar neig om het ermee eens te zijn dat het een beetje (nogal is misschien wat overdreven?) een storm in en glas water is. Dat zeg ik als iemand die regelmatig walgt van allerlei Nvidia-praktijken (PhysX, Gameworks en voorlopers (beide vallen onder het kopje proprietary en vendor lock-in), GPP, de arrogantie die het bedrijf steeds uitstraalt...).
Ik heb gisteren het gesprekje tussen Steve van GamersNexus en een advocaat gehoord die het contract besprak, afgaande op de argumenten lijkt het mee te vallen. Het grootste probleem is de woordkeuze van Nvidia dat informatie enkel in het voordeel van Nvidia gebruikt mag worden. Als je echter kijkt naar de praktische consequenties dan lijkt het mee te vallen. Ze mogen verslag doen over al hun eigen bevindingen, ze mogen reageren op alles wat publiekelijk bekend is en op het moment dat ze willen stoppen dan kunnen ze per direct het contract opzeggen. Een probleem is wel dat ze daarna een zwijgplicht van 5 jaar hebben (voor iets wat niet publiekelijk bekend is). Grotendeels lijkt het een normale NDA te zijn, in ieder geval naar USA-begrippen, met die ene heel erg ongelukkig geformuleerde zin.
Dat is twijfelachtig, daar hadden ze over kunnen berichten omdat het dankzij HardOCP publieke informatie werd tenzij de betreffende media-mensen ook van Nvidia informatie hadden gekregen over GPP (en dan nog is het juridisch betwistbaar) maar waarom zou Nvidia zulke informatie delen? Daarnaast lijkt mij het probleem veel meer in de soft-power te zitten: dat Nvidia kan besluiten om je geen kaarten meer te (laten) sturen (denk ook aan AIC's) als je onvoldoende positief bericht naar Nvidia hun smaak. Daar zit naarm ijn bescheiden mening een grotere dreiging dan bij zo'n NDA. Een belangrijke reden dat ik het ermee eens ben dat dit een storm in een glas water te zijn, die m.i. gevoed wordt door het GPP-schandaal.Help!!!! schreef op woensdag 27 juni 2018 @ 10:20:
Wat ik begrijp is dat er onder deze NDA bijv. niet over GPP bericht had kunnen worden.
Dat is een hele grote mits...maar het is natuurlijk ook aan ons lezers/kijkers/luisteraars (daar reken ik jullie ook toe, jullie zijn waarschijnlijk ook meer consument dan schrijver/reviewer in de zin dat jullie meer andere publicaties volgen dan zelf publiceren) om kritisch te bekijken welke publicaties wel en niet onze aandacht verdienen. Wij hebben de afgelopen jaren een paar kansen gehad om gemakkelijk het kaf van het koren te scheiden.Xtuv schreef op woensdag 27 juni 2018 @ 11:31:
@Help!!!! Graag gedaan en bedankt voor je begripIk denk ook zeker niet dat deze NDA positief is voor consumenten. Het is echter ook niet per definitie negatief, mits publicaties (zowel websites, magazines als YouTubers) hun journalistieke principes niet laten varen.
[ Voor 30% gewijzigd door Verwijderd op 27-06-2018 20:47 ]
PhysX hebben we het weleens over gehad toch? Heel kort samen gevat was het AMD die de eerste kans kreeg om Ageia over te kopen. Een bedrijf dat op dat moment met een losse kaart van pak hem beet 200-300 dollar op de markt kwam om de cpu te ontlasten en games realistischer te maken. AMD wilde niet en een jaar later heeft Nvidia het bedrijf gekocht, de techniek vervolgens in diverse projecten gebruikt (cuda) en Physx zelf. Tegen verwachting in kregen alle Geforce klanten gratis toegang tot een deel van de techniek. Dat heeft het bereik enorm vergroot. Op dat moment was de geldende mening, ook hier op tweakers, dat we vast zaten op cpu vlak qua rekenkracht en was dit allemaal enorm logisch en veelbelovend. De praktijk is anders gelopen. Zelf heb ik ooit 1 game gehad die beter liep met Phycs via de gpu (waar het ooit bedoelt voor was, niet de gekke extra graphic details). Dat was de racegame blur. Met ontwikkelingen als Conroe en Sandy bridge samen met het multi core verhaal werd het offloaden van physics allemaal niet zo nuttig meer. Wat resteerde was de oninteressante graphics extra's waars vrijwel geen enkele game iets mee deed.Verwijderd schreef op woensdag 27 juni 2018 @ 20:34:
[...]
Goed dat jij reageert.![]()
Ik moet zeggen dat ik ernaar neig om het ermee eens te zijn dat het een beetje (nogal is misschien wat overdreven?) een storm in en glas water is. Dat zeg ik als iemand die regelmatig walgt van allerlei Nvidia-praktijken (PhysX, Gameworks en voorlopers (beide vallen onder het kopje proprietary en vendor lock-in), GPP, de arrogantie die het bedrijf steeds uitstraalt...).
Als je rondom physics iets wil mopperen dan kun je je pijlen beter richten op Intel dat Havok effectief de das om heeft gedaan en AMD die simpelweg kansen hebben laten schieten. Bovendien was Ati ook bezig en dat is zo ver ik weet allemaal de nek om gedraaid. Nvidia is nu net de enige partij die het bereik van betere physics enorm heeft vergroot. Dat dit niet gelukt is doet daar niets aan af.
[ Voor 3% gewijzigd door sdk1985 op 27-06-2018 21:42 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Tegelijkertijd werden alle gamers die geen Nvidia-kaart hadden, alle gamers die wel een Nvidia-kaart hadden en die combineerden met een AMD-kaart en zelfs veel gamers die twee Nvidia-kaarten hadden (verschillende generatie) uitgesloten van het gebruiken van PhysX. Zij konden op geen enkele manier PhysX gebruiken tenzij ze enkel twee Nvidia-kaarten van dezelfde generatie gebruikten (misschien ook tot op zekere hoogte bij een verschillende generatie voor zo ver Nviida dat toestond, dat laat ik in het midden). Dat heeft gaming niet bepaald geholpen. Had Nvidia het beste voorgehad met gaming dan had Nvidia niet een suboptimale en achterhaalde instructiesets gebruikt om PhysX via de CPU te laten renderen wanneer het niet via de GPU wordt gerenderd.sdk1985 schreef op woensdag 27 juni 2018 @ 21:40:
Tegen verwachting in kregen alle Geforce klanten gratis toegang tot een deel van de techniek. Dat heeft het bereik enorm vergroot.
Ik neem aan dat jij weet wie David Kanter is, de man van RealWorldTech die wordt gezien als een van de meeste deskundige mensen in de technische journalistiek. Hij kwam ook als eerste met een wat grotere analyse van Ryzen.
Voor de liefhebber: http://www.linleygroup.com/mpr/article.php?id=11666 , je kan het in PDF-formaat downloaden, enjoy
Hij schreef in 2010 (juli) een longread artikel (PhysX87: Software Deficiency) over PhysX: https://www.realworldtech.com/physx87/4/
Hier een klein citaat. Het artikel is 7 pagina's groot (exclusief een groot plaatje) en ik citeer ongeveer 20%.
The x87 floating point instructions are positively ancient, and have been long since deprecated in favor of the much more efficient SSE2 instructions (and soon AVX). Intel started discouraging the use of x87 with the introduction of the P4 in late 2000. AMD deprecated x87 since the K8 in 2003, as x86-64 is defined with SSE2 support; VIA’s C7 has supported SSE2 since 2005. In 64-bit versions of Windows, x87 is deprecated for user-mode, and prohibited entirely in kernel-mode. Pretty much everyone in the industry has recommended SSE over x87 since 2005 and there are no reasons to use x87, unless software has to run on an embedded Pentium or 486.
x87 uses a stack of 8 registers with an extended precision 80-bit floating point format. However x87 data is primarily stored in memory with a 64-bit format that truncates the extra 16 bits. Because of this truncation, x87 code can return noticeably different results if the data is spilled to cache and then reloaded. x87 instructions are scalar by nature, and even the highest performance CPUs can only execute two x87 operations per cycle.
In contrast, SSE has 16 flat registers that are 128 bits wide. Floating point numbers can be stored in a single precision (32-bit) or double precision (64-bit) format. A packed (i.e. vectorized) SSE2 instruction can perform two double precision operations, or four single precision operations. Thus a CPU like Nehalem or Shanghai can execute 4 double precision operations, or 8 single precision operations per cycle. With AVX, that will climb to 8 or 16 operations respectively. SSE also comes in a scalar variety, where only one operation is executed per instruction. However, scalar SSE code is still somewhat faster than x87 code, because there are more registers, SSE instructions are slightly lower latency than the x87 equivalents and stack manipulation instructions are not needed. Additionally, some SSE non-temporal memory accessses are substantially faster (e.g. 2X for AMD processors) as they use a relaxed consistency model. So why is PhysX using x87?
PhysX is certainly not using x87 because of the advantages of extended precision. The original PPU hardware only had 32-bit single precision floating point, not even 64-bit double precision, let alone the extended 80-bit precision of x87. In fact, PhysX probably only uses single precision on the GPU, since it is accelerated on the G80, which has no double precision. The evidence all suggests that PhysX only needs single precision.
PhysX is certainly not using x87 because it contains legacy x87 code. Nvidia has the source code for PhysX and can recompile at will.
PhysX is certainly not using x87 because of a legacy installed base of older CPUs. Any gaming system purchased since 2005 will have SSE2 support, and the PPU was not released till 2006. Ageia was bought by Nvidia in 2008, and almost every CPU sold since then (except for some odd embedded ones) has SSE2 support. PhysX is not targeting any of the embedded x86 market either; it’s designed for games.
The truth is that there is no technical reason for PhysX to be using x87 code. PhysX uses x87 because Ageia and now Nvidia want it that way.
... [knip naar pagina 5 op de website]
Realistically, Nvidia could use packed, single precision SSE for PhysX, if they wanted to take advantage of the CPU. Each instruction would execute up to 4 SIMD operations per cycle, rather than just one scalar operation. In theory, this could quadruple the performance of PhysX on a CPU, but the reality is that the gains are probably in the neighborhood of 2X on the current Nehalem and Westmere generation of CPUs.
Dat is mijn probleem met PhysX. Nvidia bood niet enkel iets extra voor mensen die een Nvidia-kaart kochten - en zelfs dat niet altijd - maar Nvidia sloot ook alle overige gamers uit van deze functionaliteit door het op een slechte manier te compileren. Je kan erover discussiëren of dat dit met opzet was (jij kan mijn vermoeden raden), waarschijnlijk wel aangezien Intel met klem waarschuwde om niet X87 te gebruiken en ze bij Nvidia niet zo dom zijn dat ze per ongeluk suboptimaal compileren. PhysX en Gameworks zijn DE middelen waarmee Nvidia dat grote marktaandeel heeft verworven, hiermee gaven ze gamers het gevoel iets te missen wanneer ze een kaart van een ander merk kochten. Elke gamer wil graag alle functionaliteit krijgen en Nvidia zorgde met deze vendor lock-in ervoor dat enkel gamers die een Nvidia kaart kochten deze functionaliteit kregen. Daarom is dit ook nu nog relevant, het verklaart waarom de gamers zo blindeling een Nvida-kaart kochten, zelfs wanneer ATI/AMD de betere kaarten had.
[ Voor 14% gewijzigd door Verwijderd op 27-06-2018 23:01 ]
@Verwijderd
Nvidia is toch geen communistisch staats bedrijf. Het zou te gek voor woorden zijn als die als beursgenoteerd bedrijf 150 miljoen dollar uitgeven aan Ageia en dan de techniek vervolgens gaan delen met de concurrentie. Dat kun je echt niet verwachten. Wanneer ze het kunnen maakt AMD precies dezelfde keuze. Zie Mantle en True audio, beiden proprietary. Zo lang je de games nog kunt spelen is dat ook helemaal geen probleem. Laat het ze lekker proberen... Slaat het aan dan komt er toch wel een tegenhanger. Slaat het niet aan dan sterft het een stille dood (true audio) of wordt het alsnog opensource (mantle).
Overigens betwist ik dat Physx een positieve impact de verkoop cijfers heeft gehad. Immers heeft Nvidia na de introductie van PhysX een flinke daling in marktaandeel meegemaakt. Samen met het beperkt aantal PC games dat er uberhaupt iets mee doet onderstreept dit dat PhysX als marketing instrument echt is geflopt. Sterker nog de gok op acceleratie (CUDA) heeft in het begin geresulteerd in een achterstand op Radeon kaarten. Zie ook deze figuur:

Dus nee de consument is zeker niet naar de winkel gerend om een Nvidia gpu aan te schaffen puur omdat je dan Physx kon aanzetten in Mafia en Borderlands. AMD kon juist extra van de 5xxx serie slijten.
Uberhaupt vind ik het nooit zo zinnig om steeds AMD de hand boven het hoofd te houden door alle problemen neer te leggen bij de ethiek van de concurrentie. Want waarom haalde Radeon het marktaandeel van Geforce niet in gedurende de gouden tijden in 2010? AMD geeft daar zelf antwoord op:
Zo kan ik nog wel een heel pleidooi houden over de fouten die AMD heeft gemaakt en hoe zonde dat voor Radeon is maar dat wordt een heel lang verhaal en eigenlijk offtopic. Dus edit: te veel offtopic. Hoofdpunt is en blijft dat Physx geen geschikt voorbeeld is voor machtsmisbruik van Nvidia. Het is zowel geflopt als het zou commercieel onzinnig zijn om het aan de hele wereld gratis beschikbaar te maken.
Nvidia is toch geen communistisch staats bedrijf. Het zou te gek voor woorden zijn als die als beursgenoteerd bedrijf 150 miljoen dollar uitgeven aan Ageia en dan de techniek vervolgens gaan delen met de concurrentie. Dat kun je echt niet verwachten. Wanneer ze het kunnen maakt AMD precies dezelfde keuze. Zie Mantle en True audio, beiden proprietary. Zo lang je de games nog kunt spelen is dat ook helemaal geen probleem. Laat het ze lekker proberen... Slaat het aan dan komt er toch wel een tegenhanger. Slaat het niet aan dan sterft het een stille dood (true audio) of wordt het alsnog opensource (mantle).
Overigens betwist ik dat Physx een positieve impact de verkoop cijfers heeft gehad. Immers heeft Nvidia na de introductie van PhysX een flinke daling in marktaandeel meegemaakt. Samen met het beperkt aantal PC games dat er uberhaupt iets mee doet onderstreept dit dat PhysX als marketing instrument echt is geflopt. Sterker nog de gok op acceleratie (CUDA) heeft in het begin geresulteerd in een achterstand op Radeon kaarten. Zie ook deze figuur:

Dus nee de consument is zeker niet naar de winkel gerend om een Nvidia gpu aan te schaffen puur omdat je dan Physx kon aanzetten in Mafia en Borderlands. AMD kon juist extra van de 5xxx serie slijten.
Uberhaupt vind ik het nooit zo zinnig om steeds AMD de hand boven het hoofd te houden door alle problemen neer te leggen bij de ethiek van de concurrentie. Want waarom haalde Radeon het marktaandeel van Geforce niet in gedurende de gouden tijden in 2010? AMD geeft daar zelf antwoord op:
Geen gameworks, geen phsyx, geen marktafspraken. Het was simpelweg een gebrek aan voortschrijdend inzicht door te weinig productie in te kopen. Iets wat overigens meerdere jaren terugkomt.Graphics net revenue of $1.7 billion in 2010 increased 43% compared to net revenue of $1.2 billion in 2009. The increase was due to a 49% increase in net revenue from sales of GPU products. Net revenue from sales of GPU products increased primarily due to an increase in both GPU unit shipments and average selling price. Unit shipments increased due to strong demand for our DX 11—ATI Radeon™ products. However, the increase was limited by supply constraints primarily related to constrained wafer foundry capacity in the first half of 2010. Supply constraints improved in the third quarter of 2010, and we did not experience any supply constraints during the fourth quarter of 2010. GPU average selling price increased due to a favorable shift in our product mix to higher end GPU products.
Zo kan ik nog wel een heel pleidooi houden over de fouten die AMD heeft gemaakt en hoe zonde dat voor Radeon is maar dat wordt een heel lang verhaal en eigenlijk offtopic. Dus edit: te veel offtopic. Hoofdpunt is en blijft dat Physx geen geschikt voorbeeld is voor machtsmisbruik van Nvidia. Het is zowel geflopt als het zou commercieel onzinnig zijn om het aan de hele wereld gratis beschikbaar te maken.
[ Voor 66% gewijzigd door sdk1985 op 28-06-2018 02:15 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Nog een quote van Kyle Bennet over NDA:
"Got an email from a source today.... "You also inspired them to create this fine piece of content (NDA) so that disobedience does not take momentum ."
"Got an email from a source today.... "You also inspired them to create this fine piece of content (NDA) so that disobedience does not take momentum ."
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Beetje verneukeratief dit statement imo. Nu worden er door een derde partij woorden in de mond van nVidia gelegd en ik vind dat erg gevaarlijk.Help!!!! schreef op donderdag 28 juni 2018 @ 08:21:
Nog een quote van Kyle Bennet over NDA:
"Got an email from a source today.... "You also inspired them to create this fine piece of content (NDA) so that disobedience does not take momentum ."
Van objectiviteit is natuurlijk nog maar weinig sprake (voor zover dat überhaupt nog mogelijk is tegenwoordig).
Op een dergelijke manier met modder smijten doet wel af aan de geloofwaardigheid van Kyle in mijn optiek.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Gevaarlijk
Moddersmijten
Dat heb je toch met bronnen, die geven je inside informatie. En bij Kyle heb ik hem nog niet kunnen betrappen op onjuiste statements.
Het is imo overigens totaal geen verrassend statement.
Dat heb je toch met bronnen, die geven je inside informatie. En bij Kyle heb ik hem nog niet kunnen betrappen op onjuiste statements.
Het is imo overigens totaal geen verrassend statement.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
De zinsnede "fine piece of content" suggereert maar wat sterk dat het om een mening gaat en niet over inside informatie. Stemmingmakerij heet dat.Help!!!! schreef op donderdag 28 juni 2018 @ 09:26:
GevaarlijkModdersmijten
![]()
Dat heb je toch met bronnen, die geven je inside informatie. En bij Kyle heb ik hem nog niet kunnen betrappen op onjuiste statements.
Het is imo overigens totaal geen verrassend statement.
Of wat hij zegt inhoudelijk juist is of niet, het is gevuld met emotie en daarom niet objectief.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Tja, het HardOCP forum geilt op de NDA story. Is ook het enige forum waar ik dat heb zien gebeuren. Als "NVIDIA dit NVIDIA dat" je enige troef is de komende jaren zul je het al snel moeten uitmelken. De berichten van iedere andere site bevestigt voor mij wat ik eerder al zei: zonder GPP was dit niet eens nieuws geweest. Nu is het "hip" en "cool" om te bashen. Wanneer er straks echt technieuws komt kunnen we weer met z'n allen normaal doen.
[ Voor 45% gewijzigd door Paprika op 28-06-2018 11:07 ]
De waarheid ligt zoals altijd in het midden. Ik denk dat we het met z'n allen wel erover eens zijn dat nVidia er op z'n minst wel weinig sympathieke bedrijfsstrategieën op nahoudt. In die zin vind ik het ook niet verkeerd dat ze met argusogen in gaten gehouden worden.Paprika schreef op donderdag 28 juni 2018 @ 11:03:
Tja, het HardOCP forum geilt op de NDA story. Is ook het enige forum waar ik dat heb zien gebeuren. Als "NVIDIA dit NVIDIA dat" je enige troef is de komende jaren zul je het al snel moeten uitmelken. De berichten van iedere andere site bevestigt voor mij wat ik eerder al zei: zonder GPP was dit niet eens nieuws geweest. Nu is het "hip" en "cool" om te bashen. Wanneer er straks echt technieuws komt kunnen we weer met z'n allen normaal doen.
Terugvallen op stemming maken en publiekelijke uitspraken doen die richting bashen gaan, gaat mij te ver echter.
Ik ben het persoonlijk ook niet eens met de manier waarop nVidia hun zaakjes aanpakt, daarom kies ik niet voor ze, ook al hebben ze voor mijn doelgroep betere producten op de markt gezet t.o.v. AMD. Niets ten nadele echter van mensen die daar wel voor kiezen. De grens van "je principes" ligt bij iedereen anders.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Zag net ineens dat de Inno3D 1070 TI naar 429 euro is gezakt bij Alternate. Hopelijk zet deze dalende prijstrend door 
pricewatch: Inno3D iChill GeForce GTX 1070 Ti X3 V2
pricewatch: Inno3D iChill GeForce GTX 1070 Ti X3 V2
Verwijderd
maar waarom moest het dan aangepast worden ? wat stond er in de vorige als dit blijkbaar de standaard is...Verwijderd schreef op donderdag 28 juni 2018 @ 12:00:
YouTube: Talking to an Actual Lawyer on NVIDIA's NDA
Niets aan de hand wat betreft Nvidia’s NDA.
En volgens mij viel Heise er meer over dat het niet product specifiek was en er niet specifiek datums instonden wat niet mag volgens de duitse wet.
En nog even een voorbeeldje, was hypothetisch het 3,5 +05 Gb optijd naar voren gekomen voor release en reviews met deze nieuwe NDA ? zodat preorders geinformeerd een aankoop kunnen doen ?
[ Voor 15% gewijzigd door Verwijderd op 28-06-2018 12:40 ]
Verwijderd
Normaal gesproken zijn NDA’s product afhankelijk.Verwijderd schreef op donderdag 28 juni 2018 @ 12:27:
[...]
maar waarom moest het dan aangepast worden ? wat stond er in de vorige als dit blijkbaar de standaard is...
En volgens mij viel Heise er meer over dat het niet product specifiek was en er niet specifiek datums instonden wat niet mag volgens de duitse wet.
En nog even een voorbeeldje, was het 3,5 +05 Gb optijd naar voren gekomen voor release en reviews met deze nieuwe NDA ? zodat preorders geinformeerd een aankoop kunnen doen ?
Wat Nvidia nu gedaan heeft is dat het nu ook geldt voor alle toekomstige producten. Dat is hetzelfde als de andere NDA’s alleen nu geldt het dus niet voor 1 product.
Verwijderd
Klopt en dat is eigenlijk waar Heise over valt want dat mag blijkbaar niet in duitsland (ben niet bekend met duitste wet)
Hoe zou dit naar voren moeten komen vóór de release en reviews? Reviewers hebben altijd onder NDA producten ontvangen en zouden er dus nooit iets over kunnen roepen voordat de release / opheffing van NDA datum heeft plaatsgevonden. Zelfs als ze het dus wel op tijd hadden ontdekt had je er pas na de release iets over gehoord...Verwijderd schreef op donderdag 28 juni 2018 @ 12:27:
[...]
En nog even een voorbeeldje, was hypothetisch het 3,5 +05 Gb optijd naar voren gekomen voor release en reviews met deze nieuwe NDA ? zodat preorders geinformeerd een aankoop kunnen doen ?
Juist het feit dat de NDA expliciet zegt dat het speelveld vrij komt op het moment dat iemand anders het al heeft gelekt zorgt ervoor dat dit soort issues nooit stil zullen blijven. Met andere woorden: niets om je zorgen over te maken. Reviewers verdienen geld aan hun reviews bij de release van een nieuwe serie en zelfs dan zie je dat er enkele dagen voor de release al praktisch alles bekend is. Dat geeft al aan hoe lek het journalisten wereldje is voor positieve geluiden. Voor negatieve situaties zal dit nog veel sneller gaan.
[ Voor 41% gewijzigd door Paprika op 28-06-2018 13:05 ]
Er hadden al andere Duitse techpublicaties een reactie gegeven, hun juridische afdeling zag geen probleem met de NDA.Verwijderd schreef op donderdag 28 juni 2018 @ 12:46:
Klopt en dat is eigenlijk waar Heise over valt want dat mag blijkbaar niet in duitsland (ben niet bekend met duitste wet)
Reacties van:
Duitsland:
PCGH
TomsHardware (Duitsland)
3DCenter
Engels:
Guru3D
TechPowerUp
AnandTech
HardOCP
GamersNexus
Fins:
IO-Tech
De algemene tendens is dat Heisse hier alleen staat in hun mening over de NDA van Nvidia. Ze hebben dan steun van HardOCP, maar die reactie is duidelijk gemotiveerd op de animositeit die Kyle Bennet heeft richting Nvidia na het GPP debacle.
Verwijderd
Ryan Shrout van PCPerspective deed ook een duitje in het zakje. Hij is van mening dat het een storm in een glas water is. De strekking is ongeveer dit. "Ik lees nauwelijks de NDA's, ook omdat ik geen website zoals WCCFTech heb. Je vertrouwt elkaar en die NDA's dienen enkel voor extreme gevallen zoals wanneer een jouarnalist naar de concurrent zou stappen om informatie te geven, in dat geval kan het bedrijf een rechtszaak starten."
AMD heeft Mantle opensourced door het aan de Khronos Group te doneren als basis voor de opvolger van OpenGL (Vulkan).
Ik zou niet stellen dat TrueAudio heeft gefaald, conceptueel werkt het prima, het voegt veel toe aan de spelervaring (vooral als je enigszins fatsoenlijke speakers hebt, iets wat de meeste gamers sterk verwaarlozen), reviewers waren zeer positief over de impact bij Thief en - het belangrijkste - Nvidia heeft het gekopiëerd voor Pascal. Waarom wordt het dan toch weinig gebruikt door developers? Ik weet het niet, mogelijker verklaringen die ik zie:
- de meeste gamers spelen met slechte of matige speakers (niet dat zij dat in de gaten hebben en die marketing voor slechte headsets gaat er niet bij helpen), developers zijn daarom niet bereid om dit te ondersteunen
- het is voor developers te lastig om het voor zowel Nvidia als AMD te implementeren
- developers onderschatten de impacht van goed geluid op de spelbeleving omdat ze zelf te weinig in aanraking zijn gekomen met goed geluid
PhysX daarentegen faalde omdat de FPS er teveel onder lijdt en omdat het Nvidia-exclusief is. Is het verkeerd van Nvidia dat ze hun speeltje voor zichzelf houden? Daar kan je van mening over verschillen, je kan stellen dat een commerciëel bedrijf het recht heeft om dat te doen (jouw stelling) en je kan stellen dat het nogal anti-gaming is en dat gaming meer vooruit zou worden geholpen als je het speeltje deelt.
Maar goed, laat dit even buiten beschouwing. Waar het naar mijn mening echt om gaat is de volgende twee punten.
- Nvidia dwarsboomde het renderen van PhyX via de CPU door een zeer oude en achterhaalde instructieset te gebruiken die op 10 jaar oude CPU's al een factor 2 keer zo'n hoge load geeft voor exact hetzelfde resultaat, het gebruik van deze instructieset werd dan ook met klem afgeraden door Intel.
- Nvidia blokkeerde PhysX softwarematig terwijl het hardware-matig goed werkte als de gamer ofwel een Nvidia-kaart combineerde met een AMD-kaart ofwel een combinatie van Nvidia-kaarten had die Nvidia niet beviel (verschillende generaties, te groot verschil in tier). Stel je voor dat jij zo'n gamer bent: jij koos een AMD-kaart op het moment dat die meer waarde bood voor hetzelfde geld (naar jouw mening, voor jouw toepassingen) en jij koopt daarnaast een Nvidia-kaart met de belofte dat jij PhysX krijgt, en dan blokkeert Nvidia het ineens.
Op deze twee punten val ik Nvidia aan, niet omdat ze het speeltje kochten en voor zichzelf hielden. Stel dat Nvidia niet CPU-rendeirng van PhysX had gedwarsboomd dan hadden gamers met twee Nvidia-kaarten, als PhysX via de GPU niet werd geblokkeerd door Nvidia, 60+ FPS terwijl spelers met een AMD-kaart 30-35 FPS hadden met PhysX op vol. Is dat nog niet genoeg?
Ik ben het ook niet eens met die strategie om dit soort toepassingen proprietary te maken/houden en bij mij werkt het zelfs averechts (voor mij was het een reden om geen Nvidia-kaart te kopen) maar dat terzijde, ik geloof dat heel de industrie er meer baat bij heeft als je dit soort dingen opensourcet. Er is genoeg waar je de concurrentie mee aan kan gaan. Als je dit soort features opensourcet dan is het gamen leuker, ondersteunen developers de features veel beter, wordt de code beter geoptimaliseerd => je verkoopt dan met zijn allen gemakkelijker nieuwe grafische kaarten en spellen. Naar mijn overtuiging werkt het zero-sum spel hier averechts en levert het een betere resultaat op als de API’s en alle gebruikte bibliotheken opensource zijn. Het beste zou het zijn als developers ook meewerken aan het ontwikkelen van die bibliotheken, deze opensourcen en dat andere mensen die beter zijn in code optimaliseren deze code verfijnen. win/win/win (hardware-bedrijven, developers en gamers)
Verder uit jij terechte kritiek op AMD m.b.t. dat ze kansen hebben laten liggen maar dat is voor hier offtoipic, dat is voor de AMD-draad.
Een paar kanttekeningen.sdk1985 schreef op donderdag 28 juni 2018 @ 00:19:
@Verwijderd
Nvidia is toch geen communistisch staats bedrijf. Het zou te gek voor woorden zijn als die als beursgenoteerd bedrijf 150 miljoen dollar uitgeven aan Ageia en dan de techniek vervolgens gaan delen met de concurrentie. Dat kun je echt niet verwachten. Wanneer ze het kunnen maakt AMD precies dezelfde keuze. Zie Mantle en True audio, beiden proprietary. Zo lang je de games nog kunt spelen is dat ook helemaal geen probleem. Laat het ze lekker proberen... Slaat het aan dan komt er toch wel een tegenhanger. Slaat het niet aan dan sterft het een stille dood (true audio) of wordt het alsnog opensource (mantle).
Overigens betwist ik dat Physx een positieve impact de verkoop cijfers heeft gehad. Immers heeft Nvidia na de introductie van PhysX een flinke daling in marktaandeel meegemaakt. Samen met het beperkt aantal PC games dat er uberhaupt iets mee doet onderstreept dit dat PhysX als marketing instrument echt is geflopt. Sterker nog de gok op acceleratie (CUDA) heeft in het begin geresulteerd in een achterstand op Radeon kaarten. Zie ook deze figuur:
[afbeelding]
Dus nee de consument is zeker niet naar de winkel gerend om een Nvidia gpu aan te schaffen puur omdat je dan Physx kon aanzetten in Mafia en Borderlands. AMD kon juist extra van de 5xxx serie slijten.
Uberhaupt vind ik het nooit zo zinnig om steeds AMD de hand boven het hoofd te houden door alle problemen neer te leggen bij de ethiek van de concurrentie. Want waarom haalde Radeon het marktaandeel van Geforce niet in gedurende de gouden tijden in 2010? AMD geeft daar zelf antwoord op:
[...]
Geen gameworks, geen phsyx, geen marktafspraken. Het was simpelweg een gebrek aan voortschrijdend inzicht door te weinig productie in te kopen. Iets wat overigens meerdere jaren terugkomt.
Zo kan ik nog wel een heel pleidooi houden over de fouten die AMD heeft gemaakt en hoe zonde dat voor Radeon is maar dat wordt een heel lang verhaal en eigenlijk offtopic. Dus edit: te veel offtopic. Hoofdpunt is en blijft dat Physx geen geschikt voorbeeld is voor machtsmisbruik van Nvidia. Het is zowel geflopt als het zou commercieel onzinnig zijn om het aan de hele wereld gratis beschikbaar te maken.
AMD heeft Mantle opensourced door het aan de Khronos Group te doneren als basis voor de opvolger van OpenGL (Vulkan).
Ik zou niet stellen dat TrueAudio heeft gefaald, conceptueel werkt het prima, het voegt veel toe aan de spelervaring (vooral als je enigszins fatsoenlijke speakers hebt, iets wat de meeste gamers sterk verwaarlozen), reviewers waren zeer positief over de impact bij Thief en - het belangrijkste - Nvidia heeft het gekopiëerd voor Pascal. Waarom wordt het dan toch weinig gebruikt door developers? Ik weet het niet, mogelijker verklaringen die ik zie:
- de meeste gamers spelen met slechte of matige speakers (niet dat zij dat in de gaten hebben en die marketing voor slechte headsets gaat er niet bij helpen), developers zijn daarom niet bereid om dit te ondersteunen
- het is voor developers te lastig om het voor zowel Nvidia als AMD te implementeren
- developers onderschatten de impacht van goed geluid op de spelbeleving omdat ze zelf te weinig in aanraking zijn gekomen met goed geluid
PhysX daarentegen faalde omdat de FPS er teveel onder lijdt en omdat het Nvidia-exclusief is. Is het verkeerd van Nvidia dat ze hun speeltje voor zichzelf houden? Daar kan je van mening over verschillen, je kan stellen dat een commerciëel bedrijf het recht heeft om dat te doen (jouw stelling) en je kan stellen dat het nogal anti-gaming is en dat gaming meer vooruit zou worden geholpen als je het speeltje deelt.
Maar goed, laat dit even buiten beschouwing. Waar het naar mijn mening echt om gaat is de volgende twee punten.
- Nvidia dwarsboomde het renderen van PhyX via de CPU door een zeer oude en achterhaalde instructieset te gebruiken die op 10 jaar oude CPU's al een factor 2 keer zo'n hoge load geeft voor exact hetzelfde resultaat, het gebruik van deze instructieset werd dan ook met klem afgeraden door Intel.
- Nvidia blokkeerde PhysX softwarematig terwijl het hardware-matig goed werkte als de gamer ofwel een Nvidia-kaart combineerde met een AMD-kaart ofwel een combinatie van Nvidia-kaarten had die Nvidia niet beviel (verschillende generaties, te groot verschil in tier). Stel je voor dat jij zo'n gamer bent: jij koos een AMD-kaart op het moment dat die meer waarde bood voor hetzelfde geld (naar jouw mening, voor jouw toepassingen) en jij koopt daarnaast een Nvidia-kaart met de belofte dat jij PhysX krijgt, en dan blokkeert Nvidia het ineens.
Op deze twee punten val ik Nvidia aan, niet omdat ze het speeltje kochten en voor zichzelf hielden. Stel dat Nvidia niet CPU-rendeirng van PhysX had gedwarsboomd dan hadden gamers met twee Nvidia-kaarten, als PhysX via de GPU niet werd geblokkeerd door Nvidia, 60+ FPS terwijl spelers met een AMD-kaart 30-35 FPS hadden met PhysX op vol. Is dat nog niet genoeg?
Ik ben het ook niet eens met die strategie om dit soort toepassingen proprietary te maken/houden en bij mij werkt het zelfs averechts (voor mij was het een reden om geen Nvidia-kaart te kopen) maar dat terzijde, ik geloof dat heel de industrie er meer baat bij heeft als je dit soort dingen opensourcet. Er is genoeg waar je de concurrentie mee aan kan gaan. Als je dit soort features opensourcet dan is het gamen leuker, ondersteunen developers de features veel beter, wordt de code beter geoptimaliseerd => je verkoopt dan met zijn allen gemakkelijker nieuwe grafische kaarten en spellen. Naar mijn overtuiging werkt het zero-sum spel hier averechts en levert het een betere resultaat op als de API’s en alle gebruikte bibliotheken opensource zijn. Het beste zou het zijn als developers ook meewerken aan het ontwikkelen van die bibliotheken, deze opensourcen en dat andere mensen die beter zijn in code optimaliseren deze code verfijnen. win/win/win (hardware-bedrijven, developers en gamers)
Verder uit jij terechte kritiek op AMD m.b.t. dat ze kansen hebben laten liggen maar dat is voor hier offtoipic, dat is voor de AMD-draad.
[ Voor 8% gewijzigd door Verwijderd op 28-06-2018 13:57 ]
Grappig om telkens het zelfde te lezen over Nvidia ik vraag me dan ook af of er nog wel andere GPU fabrikanten zijn en zo ja, of het dan ook wel de moeite waard is om daar voor te gaan want als ik het zo lees werken games alleen maar op Nvidia kaarten?
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Zag hem inderdaad op pepper voorbij komen. Mooie prijs:stin00 schreef op donderdag 28 juni 2018 @ 11:30:
Zag net ineens dat de Inno3D 1070 TI naar 429 euro is gezakt bij Alternate. Hopelijk zet deze dalende prijstrend door
pricewatch: Inno3D iChill GeForce GTX 1070 Ti X3 V2
https://m.alternate.nl/IN...nel=34&s2m_exaffid=177515
Ik snap het sentiment maar puur vanuit zakelijk perspectief is open source vaak een drama. Zelf heb ik natuurlijk veel met linux te maken maar dan nog wordt er vaak gekozen voor partijen die er een propriatary sausje overheen gooien. Op die manier heb je namelijk recht op support en een aanspreek punt. Bij echte opensource systemen ontbreekt dat aanspreek punt.Ik ben het ook niet eens met die strategie om dit soort toepassingen proprietary te maken/houden en bij mij werkt het zelfs averechts (voor mij was het een reden om geen Nvidia-kaart te kopen) maar dat terzijde, ik geloof dat heel de industrie er meer baat bij heeft als je dit soort dingen opensourcet. Er is genoeg waar je de concurrentie mee aan kan gaan. Als je dit soort features opensourcet dan is het gamen leuker, ondersteunen developers de features veel beter, wordt de code beter geoptimaliseerd => je verkoopt dan met zijn allen gemakkelijker nieuwe grafische kaarten en spellen. Naar mijn overtuiging werkt het zero-sum spel hier averechts en levert het een betere resultaat op als de API’s en alle gebruikte bibliotheken opensource zijn. Het beste zou het zijn als developers ook meewerken aan het ontwikkelen van die bibliotheken, deze opensourcen en dat andere mensen die beter zijn in code optimaliseren deze code verfijnen. win/win/win (hardware-bedrijven, developers en gamers)
Via die logica snap ik heel goed dat systemen als DirectX (voorgekauwde effecten) en GameWorks (nog meer voorgekauwde effecten) heel populair zijn terwijl er voor de doe het zelf implementaties (vulkan, dx12) weinig animo blijkt te bestaan.
Begrijp me niet verkeerd ik ben ook voorstander van het open systeem dat microsoft ooit heeft bedacht. Echter binnen het open systeem moet je ook de vrijheid hebben om voor propriatary technieken te kiezen. Ga je dat dwarsbomen dan zal op termijn de kwaliteit dalen omdat de zakelijke partijen dan massaal gaan overstappen naar andere systemen.
PhysX bestaat overigens uit meer dan alleen de extra grafische settings. Via de driver kon je na de introductie kiezen waar het wordt afgehandeld:

Hier heb ik destijds veel mee geexperimenteerd en de conclusie was natuurlijk redelijk voorspelbaar. In games waarbij jij al GPU limited was kon je het beter op cpu zetten en omgekeerd. Daarom kom ik dus met de game Blur. Die game was zo zwaar voor de cpu dat Phsyx op de gpu draaien een flinke fps boost opleverde. In alle andere games liep het via de cpu beter. Sinds die tijd staat het al 8 jaar op auto en ga ik er vanuit dat hij tegenwoordig via de cpu loopt.
[ Voor 16% gewijzigd door sdk1985 op 28-06-2018 15:23 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Maar wel bij Alternate. Een beetje risky?grote_oever schreef op donderdag 28 juni 2018 @ 15:01:
[...]
Zag hem inderdaad op pepper voorbij komen. Mooie prijs:
https://m.alternate.nl/IN...nel=34&s2m_exaffid=177515

Hopelijk gaan winkels die wat meer te vertrouwen zijn erin mee.
[ Voor 8% gewijzigd door Verwijderd op 28-06-2018 15:41 ]
Hoezo is alternate niet te vertrouwen??Verwijderd schreef op donderdag 28 juni 2018 @ 15:40:
[...]
Maar wel bij Alternate. Een beetje risky?
Hopelijk gaan winkels die wat meer te vertrouwen zijn erin mee.
Als daar iets op voorraad is, dan heb je het ook gewoon de volgende dag.
Verwijderd
Slechte beoordelingen naar aanleiding van allerlei service-gerelateerde problemen. Ik ben al eens genaaid door zo'n winkel die niet slechter werd beoordeeld en kort daarna failliet ging. Ik raad aan om elke winkel die niet een uitstekende beoordeling heeft van een groot aantal klanten te mijden maar aan ieder om die risicoafweging voor zichzelf te maken (X keer minder betalen maar wel vroeg of laat op je bek gaan).
Een paar illustraties van medewerkers van andere bedrijven die bijdragen aan Linux. Iemand die een Corsair Strafe heeft klaagde op Reddit - zeer terecht - over Corsair, een medewerker van Corsair las dit en hij schreef in zijn vrije tijd de software-ondersteuning voor dit toetsenbord. Nu werkt het toetsenbord hetzelfde als bij Windows en als je het wil kan je ook al die effecten programmeren (niet heel erg moeilijk).
Een ander voorbeeld: TR heeft een 'bug' voor die passthrough bij virtualisatie moeilijker maakt, een medewerker van een bedrijf wat systemen verkoopt regelde een patch (een dirty hack die wel goed werkt).
https://passthroughpo.st/...h-submitted-linux-kernel/
Deze man ontwikkelde ook looking glass, LG maakt het mogelijk (samen met KVM+QEMU en VFIO) om in een virtuele machine zonder performance-verlies te gamen (als je 1 CPU-kern kan missen voor de Linux-omgeving).
Ik stel sinds ongeveer 2 jaar dat de Khronos Group 1 grote fout maakt met Vulkan. Ze zouden een bedrijf moeten oprichten wat service verleent aan developers om van alles te implementeren. Dat bedrijf zou eveneens allerlei bibiliotheken kunnen schrijven en dit kan bekostigd worden met de opbrengsten van die service. Als de KG dat zou doen dan zou Vulkan snel veel populairder worden. Dat neemt niet weg dat Vulkan al flink in de lift zit, het wordt langzaam maar zeker voor meer spellen gebruikt. Zo heeft recent bijv. ook het spel RotTR native Linux support gekregen, hiervoor is uiteraard Vulkan gebruikt.
Pijnlijk genoeg zal TW3 niet naar Linux komen, de fallout richting CDPR was nogal lelijk omdat de port van TW2 erg problematisch was (slechtere performance dan met wine).
Overigens wordt ook die KG ondersteunt door flink wat bedrijven, waaronder AMD, Nvidia en Microsoft (contributor member). Gekker nog, een Nvidia-medewerker is al heel erg lang de baas van de KG die zo Vulkan promoot wat op de middenlange termijn in het voordeel van AMD en in het nadeel van Nvidia zou zijn.
Ik denk dat wij wat dat betreft aardig op dezelfde lijn zitten.
Het goede bij Linux is dat je kan betalen voor serviceverlening terwijl je de software krijgt, kan inzien en kan wijzigen. Dankzij een actieve gemeenschap en ook - ironisch - dankzij bijdragen van proprietary bedrijven (waaronder MS die het een en ander heeft bijgedragen aan de kernels) en medewerkers van allerlei bedrijven blijkt Linux voor de meeste mensen goed te werken. Met de kanttekening dat je een beetje moet distrohoppen om de distro te vinden die het best werkt met je hardware.sdk1985 schreef op donderdag 28 juni 2018 @ 15:16:
[...]
Ik snap het sentiment maar puur vanuit zakelijk perspectief is open source vaak een drama. Zelf heb ik natuurlijk veel met linux te maken maar dan nog wordt er vaak gekozen voor partijen die er een propriatary sausje overheen gooien. Op die manier heb je namelijk recht op support en een aanspreek punt. Bij echte opensource systemen ontbreekt dat aanspreek punt.
Via die logica snap ik heel goed dat systemen als DirectX (voorgekauwde effecten) en GameWorks (nog meer voorgekauwde effecten) heel populair zijn terwijl er voor de doe het zelf implementaties (vulkan, dx12) weinig animo blijkt te bestaan.
Begrijp me niet verkeerd ik ben ook voorstander van het open systeem dat microsoft ooit heeft bedacht. Echter binnen het open systeem moet je ook de vrijheid hebben om voor propriatary technieken te kiezen. Ga je dat dwarsbomen dan zal op termijn de kwaliteit dalen omdat de zakelijke partijen dan massaal gaan overstappen naar andere systemen.
Een paar illustraties van medewerkers van andere bedrijven die bijdragen aan Linux. Iemand die een Corsair Strafe heeft klaagde op Reddit - zeer terecht - over Corsair, een medewerker van Corsair las dit en hij schreef in zijn vrije tijd de software-ondersteuning voor dit toetsenbord. Nu werkt het toetsenbord hetzelfde als bij Windows en als je het wil kan je ook al die effecten programmeren (niet heel erg moeilijk).
Een ander voorbeeld: TR heeft een 'bug' voor die passthrough bij virtualisatie moeilijker maakt, een medewerker van een bedrijf wat systemen verkoopt regelde een patch (een dirty hack die wel goed werkt).
https://passthroughpo.st/...h-submitted-linux-kernel/
Deze man ontwikkelde ook looking glass, LG maakt het mogelijk (samen met KVM+QEMU en VFIO) om in een virtuele machine zonder performance-verlies te gamen (als je 1 CPU-kern kan missen voor de Linux-omgeving).
Ik stel sinds ongeveer 2 jaar dat de Khronos Group 1 grote fout maakt met Vulkan. Ze zouden een bedrijf moeten oprichten wat service verleent aan developers om van alles te implementeren. Dat bedrijf zou eveneens allerlei bibiliotheken kunnen schrijven en dit kan bekostigd worden met de opbrengsten van die service. Als de KG dat zou doen dan zou Vulkan snel veel populairder worden. Dat neemt niet weg dat Vulkan al flink in de lift zit, het wordt langzaam maar zeker voor meer spellen gebruikt. Zo heeft recent bijv. ook het spel RotTR native Linux support gekregen, hiervoor is uiteraard Vulkan gebruikt.
Pijnlijk genoeg zal TW3 niet naar Linux komen, de fallout richting CDPR was nogal lelijk omdat de port van TW2 erg problematisch was (slechtere performance dan met wine).
Overigens wordt ook die KG ondersteunt door flink wat bedrijven, waaronder AMD, Nvidia en Microsoft (contributor member). Gekker nog, een Nvidia-medewerker is al heel erg lang de baas van de KG die zo Vulkan promoot wat op de middenlange termijn in het voordeel van AMD en in het nadeel van Nvidia zou zijn.
Ik denk dat wij wat dat betreft aardig op dezelfde lijn zitten.
[ Voor 8% gewijzigd door Verwijderd op 28-06-2018 16:06 ]
Ik hoop dat gamedevelopers wat meer gaan doen met de audio mogelijkheden van Nvidia en AMD. Het is altijd een beetje een ondergeschoven kindje. Het voegd zoveel extra toe mits goed geimplementeerd.
Gezien ik niet echt bekend ben met audio libraries.Het zou mooi zijn als er een soort van standaard hiervoor was, iets waar Nvidia en AMD aan samenwerken.
Wat offtopic:
Nog wat over die domme NDA, is het gebruikelijk dat een NDA 5 jaar duurt? Het is normaal toch tot een product launch.
Gezien ik niet echt bekend ben met audio libraries.Het zou mooi zijn als er een soort van standaard hiervoor was, iets waar Nvidia en AMD aan samenwerken.
Wat offtopic:
Nog wat over die domme NDA, is het gebruikelijk dat een NDA 5 jaar duurt? Het is normaal toch tot een product launch.
Alternate is wel te vertrouwen. Ik denk dat jij MAX ICT bedoelt of SIcomputers.Verwijderd schreef op donderdag 28 juni 2018 @ 15:40:
[...]
Maar wel bij Alternate. Een beetje risky?
Hopelijk gaan winkels die wat meer te vertrouwen zijn erin mee.
Verwijderd
Ik kan helemaal niet opmaken dat dat zo unaniem beoordeeld is.CMD-Snake schreef op donderdag 28 juni 2018 @ 13:28:
[...]
Er hadden al andere Duitse techpublicaties een reactie gegeven, hun juridische afdeling zag geen probleem met de NDA.
Reacties van:
Duitsland:
PCGH
TomsHardware (Duitsland)
3DCenter
Engels:
Guru3D
TechPowerUp
AnandTech
HardOCP
GamersNexus
Fins:
IO-Tech
De algemene tendens is dat Heisse hier alleen staat in hun mening over de NDA van Nvidia. Ze hebben dan steun van HardOCP, maar die reactie is duidelijk gemotiveerd op de animositeit die Kyle Bennet heeft richting Nvidia na het GPP debacle.
ik laat het vooralsnog in het midden wie er nou gelijk heeft maar om het even over andere duitste sites te hebben;
PCGH
Tomshardware.deAntwoord: Ik denk het niet, nee. In details zeker, maar in wezen zien NDA's van andere fabrikanten er niet veel anders uit. Overal dreigen straffen, en soms zelfs meerdere jaren van informatie-uitsluiting.
Vraag: Maar iedereen schrijft dat je alleen informatie kunt publiceren "ten gunste van Nvidia".
Antwoord: ik ben geen advocaat,
En de praktische ervaring van meer dan 20 jaar laat me eenvoudig zien dat gestandaardiseerde NDA's volgens de Amerikaanse wetgeving NOOIT zo heet worden gegeten als ze toch gekookt worden. Zeg: u hoeft niet alles letterlijk of serieus te nemen. Heise zou ook moeten weten dat er de afgelopen jaren altijd massale spanningen waren met Nvidia.
3D center:maar sommige formuleringen in de NDA zijn echt een beetje optimistisch wat betreft de Duitse juridische en emotionele situatie. Maar het is ook zo dat men deze dingen misschien ook openlijk en in dialoog kan ophelderen, zonder zich onmiddellijk te vergeven in de Schmollecke of zelfs het winterpaleis te bestormen. Dus waarom niet proberen om je eigen (Duitse) versie aan te bieden als je het huidige document te grof vindt?
Persoonlijk vind ik zo'n NDA zeker niet leuk (zeker niet in deze vorm), er hoeft niet over gesproken te worden. Maar iedereen kan en moet voor zichzelf afwegen wat hij er voor zichzelf en zijn lezers aan ontleent en welke conclusies hij trekt.
dat is een beetje te kort door de bocht om Heise zomaar in het domhoekje te zetten, de mening van zijn duitse collegas is niet zo haaks op wat Heise aangeeft.De NDA in haar huidige vorm kan verenigbaar zijn met de Amerikaanse wettelijke conceptie, maar het zou nooit op de denkbeeldige manier werken in DE als het er op aan komt
[ Voor 6% gewijzigd door Verwijderd op 28-06-2018 17:23 ]
Dat komt omdat Mantle in AMD beheer nergens meer heen ging. Battlefield 4 was de enige titel die Mantle ondersteuning had, maar het gaf AMD kaarten niet echt een voordeel ten opzichte van Nvidia kaarten. Daarna is Mantle op een laag pitje komen te staan bij AMD.Verwijderd schreef op donderdag 28 juni 2018 @ 13:51:
AMD heeft Mantle opensourced door het aan de Khronos Group te doneren als basis voor de opvolger van OpenGL (Vulkan).
Dit is een beetje je standaard tekst aan het worden bij elk terecht stukje repliek waarbij AMD betrokken is.Verder uit jij terechte kritiek op AMD m.b.t. dat ze kansen hebben laten liggen maar dat is voor hier offtoipic, dat is voor de AMD-draad.
Niemand zet Heisse in het domhoekje neer, maar geen van die publicaties heeft echt bezwaar tegen de NDA van Nvidia. Ze lijken het allemaal als de prijs te zien die nodig is om verder te kunnen werken.Verwijderd schreef op donderdag 28 juni 2018 @ 17:17:
dat is een beetje te kort door de bocht om Heise zomaar in het domhoekje te zetten, de mening van zijn duitse collegas is niet zo haaks op wat Heise aangeeft.
Verwijderd
Het zou voor iedereen die iets met gaming/gaming-hardware te maken heeft goed zijn. Het vergroot sterk de kans dat developers het gebruiken.[b]Sp3ci3s8472 schreef op donderdag 28 juni 2018 @ 17:01:
Gezien ik niet echt bekend ben met audio libraries.Het zou mooi zijn als er een soort van standaard hiervoor was, iets waar Nvidia en AMD aan samenwerken.
Het is zeer ongebruikelijk dat die NDA voor meer dan 1 product geldt.Wat offtopic:
Nog wat over die domme NDA, is het gebruikelijk dat een NDA 5 jaar duurt? Het is normaal toch tot een product launch.
Nee, maar het wordt niet gewaardeerd om al te veel offtopic te gaan en niets houdt jou en anderen tegen tegen om dit in de AMD-draad te plaatsen en dan zal ik daar wel reageren. ;-)CMD-Snake schreef op donderdag 28 juni 2018 @ 20:27:
Dit is een beetje je standaard tekst aan het worden bij elk terecht stukje repliek waarbij AMD betrokken is.
Ik heb het zelf laatst gedaan (actualiteiten): gereageerd op een offtopic-reactie in de draad die daar wel voor dient.
Alternate had een paar jaar geleden nog overwegend goede reviews, nu zitten er ook veel negatieve reviews tussen en worden er de nodige problemen gemeld.
Kijk hier zelf maar, er zitten naar mijn smaak teveel reviews tussen waarbij klanten 0-2 sterren geven voor verzending en service, voor mij zijn dat red flags.
https://tweakers.net/shop...nate-punt-nl/shopreviews/
[ Voor 71% gewijzigd door Verwijderd op 28-06-2018 21:17 ]
Kyle Bennet en IP lawyer:
Got sign off on a statement from my attorney that specializes in IP law...for 20 years. And keep in mind this is casual conversation between him and I, not a drafted statement. And he does make comment on GN's attorney's take.
"If I’m a reporter, I probably would not sign it. I could pick on several elements but basically, it is intended to provide a strong control over work product of the reporters. The definition of confidential information is way too broad. Broadest I’ve ever seen, and I’ve seen and drafted and enforced a large number of these. Also, the typical exclusions to confidential information are not provided, but they exist at common law anyway. The 5 year duration of the obligation is just stupid for this type of technology. It’s pretty ridiculous top to bottom.
I don’t really agree with the interviewed attorney. He seems to think it very reasonable and “not that onerous.” I have to wonder what he thinks is. It’s a very heavy-handed way to deal with the media."
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Verwijderd
Aan de andere kant, ook zonder dit document kan Nvidia elk moment beslissen om je geen kaarten meer te laten ontvangen (niet enkel van Nvidia, ook van MSI, EVGA, ASUS...).
Ik heb daarom de indruk dat het Nvidia vooral om soft power te doen is, via zo'n document proberen meer favorable coverage te krijgen zoals ze dat in de USA noemen. Ook al zal Nvidia geen van hen aanklagen, de suggestie wekken dat je beter positief verslag doet en niet uit de school klapt kan erg effectief zijn.
De deadline van 5 jaar is inderdaad absurd lang, in extreme gevallen krjigen die mensen in de media 1 jaar van tevoren informatie over nieuwe producten.
Maar goed, iemand die zeer deskundig is in NDA's geeft nu dus aan dat dit een nogal extreme NDA is. Dat is nu duidelijk.
Ik heb daarom de indruk dat het Nvidia vooral om soft power te doen is, via zo'n document proberen meer favorable coverage te krijgen zoals ze dat in de USA noemen. Ook al zal Nvidia geen van hen aanklagen, de suggestie wekken dat je beter positief verslag doet en niet uit de school klapt kan erg effectief zijn.
De deadline van 5 jaar is inderdaad absurd lang, in extreme gevallen krjigen die mensen in de media 1 jaar van tevoren informatie over nieuwe producten.
Maar goed, iemand die zeer deskundig is in NDA's geeft nu dus aan dat dit een nogal extreme NDA is. Dat is nu duidelijk.
[ Voor 33% gewijzigd door Verwijderd op 29-06-2018 12:19 ]
Ik weet niet hoor, de ene jurist zegt dit, de andere zegt dat. En iedereen gelooft wat overeen komt met z'n mening.
Hier kom je nooit uit op deze manier.
Hier kom je nooit uit op deze manier.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Nvidia heeft nogal wat pers uitgenodigd voor gamescom. Hoeft niks nieuws te betekenen maar imho toch nieuwswaardig.
https://videocardz.com/ne...or-gamescom#disqus_thread
https://videocardz.com/ne...or-gamescom#disqus_thread
Wie goed doet, die goed ontmoet.
Wat is er mis met SIComputers? Heb daar wel een paar keer besteld, en ook te maken gehad met aftersales wat bij mij gewoon prima ging. Toen ik een moederbord na een jaar terugstuurde die eigenlijk niet stuk was (bleek later kortsluiting in m'n kast te zijn), hebben ze hem zelfs nog helemaal getest, gevonden dat hij prima werkte, en behalve de verzendkosten gratis weer teruggestuurd. De shop reviews zitten ook op hetzelfde niveau als die van Alternate.grote_oever schreef op donderdag 28 juni 2018 @ 17:12:
[...]
Alternate is wel te vertrouwen. Ik denk dat jij MAX ICT bedoelt of SIcomputers.
Niet dat mijn anekdote moet betekenen dat het een top winkel is, maar ik vroeg me vooral af waar je dat op baseerd.
Omdat SiComputers er een handje van heeft zichzelf met nieuwe producten bovenin te pricewatch te plaatsten (met lage prijzen) en vervolgens niet te leveren. Lees de levertijden topics er maar op na, er wordt steen en been over geklaagd.thescorpi0n schreef op vrijdag 29 juni 2018 @ 13:39:
[...]
Wat is er mis met SIComputers? Heb daar wel een paar keer besteld, en ook te maken gehad met aftersales wat bij mij gewoon prima ging. Toen ik een moederbord na een jaar terugstuurde die eigenlijk niet stuk was (bleek later kortsluiting in m'n kast te zijn), hebben ze hem zelfs nog helemaal getest, gevonden dat hij prima werkte, en behalve de verzendkosten gratis weer teruggestuurd. De shop reviews zitten ook op hetzelfde niveau als die van Alternate.
Niet dat mijn anekdote moet betekenen dat het een top winkel is, maar ik vroeg me vooral af waar je dat op baseerd.
Als ze iets op voorraad hebben kan je er echter prima bestellen.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Na al dat anti Nvidia gezeik, wat we overigens hier wel gewend zijn nu echt iets nieuws waardigs.
Lekje. NVIDIA Launching Next-Generation Graphics Cards At Gamescom 2018 Zoals ik al vermoedde over "long time" is het waarschijnlijk pure marketing om nog wat Pascal te verkopen.
Ik ben zelf zeer tevreden over Alternate, ik blijf daar daarom ook kopen.
Edit
Ik zie nu net dat het al gepost was voor ik weer gezeur krijg.
Lekje. NVIDIA Launching Next-Generation Graphics Cards At Gamescom 2018 Zoals ik al vermoedde over "long time" is het waarschijnlijk pure marketing om nog wat Pascal te verkopen.
Ik ben zelf zeer tevreden over Alternate, ik blijf daar daarom ook kopen.
Edit
Ik zie nu net dat het al gepost was voor ik weer gezeur krijg.
[ Voor 9% gewijzigd door Gekke Jantje op 29-06-2018 14:47 ]
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Aangezien je geen bron linkt. Dit komt van wccftech en die het weer hebben van videocardz.Gekke Jantje schreef op vrijdag 29 juni 2018 @ 14:43:
Na al dat anti Nvidia gezeik, wat we overigens hier wel gewend zijn nu echt iets nieuws waardigs.
Lekje. NVIDIA Launching Next-Generation Graphics Cards At Gamescom 2018 Zoals ik al vermoedde over "long time" is het waarschijnlijk pure marketing om nog wat Pascal te verkopen.
Ik ben zelf zeer tevreden over Alternate, ik blijf daar daarom ook kopen.
Edit
Ik zie nu net dat het al gepost was voor ik weer gezeur krijg.
Ten eerste heeft Wccftech de datum van Gamescom fout. In hun bericht staat 2 Augustus, terwijl Gamescom van 21 tot 25 Augustus is. Daarnaast wordt er in de uitnodiging niet gesproken over nieuwe hardware, maar enkel een hands-on presentatie met nieuwe games. Dat staat dan weer in het bericht van Videocardz. Het is weer een lekker clickbait artikeltje van Wccftech, zoals we dat inmiddels wel gewend zijn.
[ Voor 6% gewijzigd door hubhib op 29-06-2018 15:00 ]
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Ja ik heb dat stuk van wccftech ook gelezen en ik snap nu hoe ze aan hun reputatie zijn gekomen.hubhib schreef op vrijdag 29 juni 2018 @ 14:57:
[...]
Aangezien je geen bron linkt. Dit komt van wccftech en die het weer hebben van videocardz.
Ten eerste heeft Wccftech de datum van Gamescom fout. In hun bericht staat 2 Augustus, terwijl Gamescom van 21 tot 25 Augustus is. Daarnaast wordt er in de uitnodiging niet gesproken over nieuwe hardware, maar enkel een hands-on presentatie met nieuwe games. Dat staat dan weer in het bericht van Videocardz. Het is weer een lekker clickbait artikeltje van Wccftech, zoals we dat inmiddels wel gewend zijn.

Wie goed doet, die goed ontmoet.
Af wachten, het kan gewoon wel kloppen, maar ik ben het er mee eens dat WCCFtech er ook vaker naast zit.
Asrock Z370 Extreme4 i9 9900k 16gb NightHawk 3200mhz MSI GTX1080Ti gaminingX 2 Evo 512gb m.2 over chipset pcie lanes Corair hx750i
Het is niet alleen dat maar in dit specifieke stuk geeft de auteur zichzelf wel erg vaak schouderklopjes en klopt zichzelf nog vaker op de borst.Gekke Jantje schreef op vrijdag 29 juni 2018 @ 15:14:
Af wachten, het kan gewoon wel kloppen, maar ik ben het er mee eens dat WCCFtech er ook vaker naast zit.
Wie goed doet, die goed ontmoet.
Een Vietnamese webshop heeft een product pagina neergezet voor de GTX 1180. Volgens de pagina zal de kaart vanaf 28 september a.s. te bestellen zijn.
Specs:
GPU: GT104
3584 CUDA cores
Memory type: GDDR6 Micron - new architecture
Size: 16GB
Memory BUS: 256-bit
Memory Speed: 14.0 Gbps
Bron
Pagina is in het Vietnamees, en natuurlijk voor zolang deze nog online blijft staan. De foto's op de pagina zijn duidelijke photoshops van de 1080. Dit schijnt wel een respectabele webshop te zijn in Vietnam, dus mogelijk dat de specs wel kloppen net als de datum.
Specs:
GPU: GT104
3584 CUDA cores
Memory type: GDDR6 Micron - new architecture
Size: 16GB
Memory BUS: 256-bit
Memory Speed: 14.0 Gbps
Bron
Pagina is in het Vietnamees, en natuurlijk voor zolang deze nog online blijft staan. De foto's op de pagina zijn duidelijke photoshops van de 1080. Dit schijnt wel een respectabele webshop te zijn in Vietnam, dus mogelijk dat de specs wel kloppen net als de datum.
Verwijderd
Een rebranding van de 1080 Ti op een ietwat gewijzigde node, met een lager aantal bits voor het geheugen maar wel het snellere GDDR6. Dat klinkt erg realistisch.
Ik ben benieuwd wat het gaat kosten. De MSRP van de 1080 bedroeg $600.
Ik ben benieuwd wat het gaat kosten. De MSRP van de 1080 bedroeg $600.
[ Voor 70% gewijzigd door Verwijderd op 01-07-2018 23:58 ]
Dat is gewoon om pageviews te krijgen natuurlijk. Die webshop weet vanzelfsprekend ook niks meer.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Als ik het goed begrijp staat er dat het een pre order is voor 28/9 en dat je een bonus krijgt voor wie voor 10/7 besteld.
Maar goed stel even da the het klopt dan duurt het vermoedelijk nog een maand voor de x70 en x60 in de winkel liggen en daarna nog een maand voor de custom kaarten er zijn cq de prijzen normaliseren. Geduld hebben tot in ieder geval November dus voor wie opzoek is naar een nieuwe videokaart.
Maar goed stel even da the het klopt dan duurt het vermoedelijk nog een maand voor de x70 en x60 in de winkel liggen en daarna nog een maand voor de custom kaarten er zijn cq de prijzen normaliseren. Geduld hebben tot in ieder geval November dus voor wie opzoek is naar een nieuwe videokaart.
[ Voor 54% gewijzigd door sdk1985 op 02-07-2018 01:08 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Volgens mij gaat Turing een Pascal refresh worden op 12nm. We zitten inmiddels al zo dicht bij 7nm dat een compleet nieuwe architectuur voor zo'n korte periode te duur is voor nVidia. Het zou me niets verbazen als een GTX 1180 een GTX 1080 Ti is op 12nm met 256 bit GDDR6. Als deze ergens in augustus / september uitkomen, dan heeft nVidia nog een half jaar de tijd voor de release van hun 7nm kaarten. Ik ben benieuwd of die 7nm kaarten dan de GTX 1180 Ti / Titan T worden, of een compleet nieuwe serie.
Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x
Op zich kan een 7nm lijn gewoon. Risicoproductie begon vorig jaar, en massaproductie begon in mei 2018. Verder is TSMC bezig met de productiecapaciteit voor dit procedé te vergroten. Het probleem zal eerder yields zijn. Ik maak echt geen enkele illusies over hoe dat zal gaan, zeker met de grotere chips. Ik vermoed dat defect density zo groot kan zijn dat je op het moment nauwelijks chips groter dan 200mm2 kan produceren. Klopt mijn hypothese, dan gaat Nvidia naar 12nm. Gezien het gelekte PCB, is dat zeker geen vreemde aanname. Ik weet vrijwel zeker dat het een prototype GT102 bordje was. Kijk je naar de aansluitingen voor de GPU en de substraat van deze chip, dan is het een monster. Dat kan niet anders dan 12nm zijn.hubhib schreef op maandag 2 juli 2018 @ 10:17:
Volgens mij gaat Turing een Pascal refresh worden op 12nm. We zitten inmiddels al zo dicht bij 7nm dat een compleet nieuwe architectuur voor zo'n korte periode te duur is voor nVidia. Het zou me niets verbazen als een GTX 1180 een GTX 1080 Ti is op 12nm met 256 bit GDDR6. Als deze ergens in augustus / september uitkomen, dan heeft nVidia nog een half jaar de tijd voor de release van hun 7nm kaarten. Ik ben benieuwd of die 7nm kaarten dan de GTX 1180 Ti / Titan T worden, of een compleet nieuwe serie.
Verder zal deze chip wel een 384bit bus hebben. Dat is het maximum voor GDDR6. Verder hebben alle videokaarten gewoon geheugen bandbreedte nodig. Zeker een nieuwe Maxwell refresh, waar ik eigenlijk ook vanuit ga.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waarom? Je wint sowieso bandbreedte met de overstap naar GDDR6 en er moet ook nog ruimte zijn voor een snellere 1180Ti. Mij lijkt het logischer dat ze deze dan een 256bit bus mee zouden geven.DaniëlWW2 schreef op maandag 2 juli 2018 @ 10:51:
[...]Verder zal deze chip wel een 384bit bus hebben. Dat is het maximum voor GDDR6. Verder hebben alle videokaarten gewoon geheugen bandbreedte nodig. Zeker een nieuwe Maxwell refresh, waar ik eigenlijk ook vanuit ga.
Echter, er wordt wel gesuggereerd dat de nieuwe kaart 12GB zou hebben, dan is 256bit weer niet logisch.
Blijft gissen ook he.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Omdat ik het al doorgerekend had, en anderen het met me eens waren.Blaat schreef op maandag 2 juli 2018 @ 11:00:
[...]
Waarom? Je wint sowieso bandbreedte met de overstap naar GDDR6 en er moet ook nog ruimte zijn voor een snellere 1180Ti. Mij lijkt het logischer dat ze deze dan een 256bit bus mee zouden geven.
Echter, er wordt wel gesuggereerd dat de nieuwe kaart 12GB zou hebben, dan is 256bit weer niet logisch.
Blijft gissen ook he.
Het lijkt te gaan om 14GB/s GDDR6 chips van Micron. Als die 672GB/s opleveren met een 384bit bus, dan blijft er nog maar 448GB/s over met een 256bit bus. Dan vergoot je het aantal rekeneenheden met 20 of 40%, afhankelijk of het de configuratie met 4608c of 5376c word, en dan lever je in op geheugen bandbreedte waardoor je tegen een gigantische bottleneck aan gaat lopen. Ik durf ergens te betwijfelen of dat gebeurd...
Eerder zou ik er maar vanuit gaan dan de GT104 chip met een 256bit bus zit, en 3840c. Ja, dat zou Titan XP zijn met iets minder geheugen bandbreedte. Ga dus ook maar uit van €800 voor die chip, en €1200 voor de GT102.

[ Voor 4% gewijzigd door DaniëlWW2 op 02-07-2018 11:14 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waarom?DaniëlWW2 schreef op maandag 2 juli 2018 @ 10:51:
[...]
Verder zal deze chip wel een 384bit bus hebben.
Waarom is dat de max?Dat is het maximum voor GDDR6.
Welke Maxwell refresh?Zeker een nieuwe Maxwell refresh, waar ik eigenlijk ook vanuit ga.
Nee bandbreedte winst heb je niet van de overstap van GDDR5X naar GDDR6. Beide gaan van 10 t/m 16Gbps (JEDEC spec). Voordeel is dat de maximale geheugencapaciteit per chip dubbel zo hoog ligt. GDDR5X heeft een max van 16Gb en GDDR6 dus 32Gb. Dus in combinatie met een 256 bit geheugenbus kom je dus op 16GB uit voor GDDR5X en max 32GB voor GDDR6. Overigens geld voor zowel GDDR5X als GDDR6 dat de maximale capaciteit en snelheid beide niet in productie is en dus ook niet gebruikt zal worden dit jaar.Blaat schreef op maandag 2 juli 2018 @ 11:00:
[...]
Je wint sowieso bandbreedte met de overstap naar GDDR6.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Je ziet met de overstap van Maxwell naar Pascal ook geen (grote) sprong in geheugenbandbreedte in gelijk gepositioneerde kaarten. Dit is deels te wijten aan betere compressie waardoor je ook minder bandbreedte nodig hebt. Ik zou me zomaar kunnen voorstellen dat dit bij Turing ook het geval gaat zijn.DaniëlWW2 schreef op maandag 2 juli 2018 @ 11:13:
[...]
Omdat ik het al doorgerekend had, en anderen het met me eens waren.(oke op Reddit, maar Buildzoid zat er ook bij wat Reddit weer een beetje compenseert
)
Het lijkt te gaan om 14GB/s GDDR6 chips van Micron. Als die 672GB/s opleveren met een 384bit bus, dan blijft er nog maar 448GB/s over met een 256bit bus. Dan vergoot je het aantal rekeneenheden met 20 of 40%, afhankelijk of het de configuratie met 4608c of 5376c word, en dan lever je in op geheugen bandbreedte waardoor je tegen een gigantische bottleneck aan gaat lopen. Ik durf ergens te betwijfelen of dat gebeurd...
Eerder zou ik er maar vanuit gaan dan de GT104 chip met een 256bit bus zit, en 3840c. Ja, dat zou Titan XP zijn met iets minder geheugen bandbreedte. Ga dus ook maar uit van €800 voor die chip, en €1200 voor de GT102.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
En wat nu of de opvolger van de GTX 1080 16Gbps of zelfs 18Gbps Samsung GDDR6 krijgt?DaniëlWW2 schreef op maandag 2 juli 2018 @ 11:13:
[...]
Omdat ik het al doorgerekend had, en anderen het met me eens waren.(oke op Reddit, maar Buildzoid zat er ook bij wat Reddit weer een beetje compenseert
)
Het lijkt te gaan om 14GB/s GDDR6 chips van Micron. Als die 672GB/s opleveren met een 384bit bus, dan blijft er nog maar 448GB/s over met een 256bit bus. Dan vergoot je het aantal rekeneenheden met 20 of 40%, afhankelijk of het de configuratie met 4608c of 5376c word, en dan lever je in op geheugen bandbreedte waardoor je tegen een gigantische bottleneck aan gaat lopen. Ik durf ergens te betwijfelen of dat gebeurd...
Eerder zou ik er maar vanuit gaan dan de GT104 chip met een 256bit bus zit, en 3840c. Ja, dat zou Titan XP zijn met iets minder geheugen bandbreedte. Ga dus ook maar uit van €800 voor die chip, en €1200 voor de GT102.
https://news.samsung.com/...advanced-graphics-systems
Met 16Gbps krijg je al een bandbreedte van 512GB/s, een winst van maar liefst 60% tegenover de 320GB/s van de GTX 1080 met dezelfde 256 bit geheugenbus. 18Gbps geeft zefls 576GB/s, maar liefst 80% meer bandbreedte.
Kun je bij de opvolger van de GTX 1070 prima 12Gbps of 14Gbps GDDR6 nemen van Hynix, Micron of ook Samsung. Dat is beschikbaar bij alle drie en moet ook meer dan genoeg zijn.
Met dan ook nog een beetje verbetering in geheugencompressie, kun je ook nog iets minder bandbreedte nodig hebben. Hoe dan ook een 384 bit geheugenbus is nergens voor nodig, tenzij je er vanuit gaat dat de opvolger van de GTX 1080 meer dan 100% sneller gaat zijn.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
De huidige 1080 zit op 320-352 Gb/s. Pak even de recente historie erbij en je ziet 980 op 224 Gb/s (256 bit) en de 980 ti op 336 Gb/s. Nu gaan praten over 600+ Gb/s zou wel een hele grote breuk zijn van de huidige realiteit. Zeker als je bedenkt dat bij een echte nieuwe generatie de delta color compression techniek meestal ook weer beter wodt. Combineer dat met de economische realiteit en de mening van Nvidia dat effiency=performance. Dat bij elkaar maakt een 384 bits bus voor de nieuwe x80 niet logisch. In ieder geval niet voor GDDRx. Dus nee ik kan @DaniëlWW2 niet volgen in zijn voorspelling.
Verder is er voor mij momenteel geen pijl op te trekken mbt het 7nm verhaal. Het kan natuurlijk altijd een refresh worden, maar dan hebben ze daar wel erg lang mee gewacht. Aan de andere kant krijgt pro meestal als eerste de nieuwe technieken en die heb ik nog niet op 7nm gezien. Het blijft afwachten dus. Het is in ieder geval zeker dat een hoop consumenten teleurgesteld gaan zijn als dit een refresh betreft (ondanks dat Nvidia niets heeft losgelaten behalve dat het nog 'lang' gaat duren). Maar ja alles kan. Dus wie weet is dit een simpele 15% (geindexeerd) refresh en komen er binnen een paar maanden wat Pro spullen op een nieuwe architectuur en moet Geforce wachten tot zomer 2019.
Met betrekking tot de prijs is er geen enkele reden om aan te nemen dat de MSRP hoger gaat worden. Het zal dus wel weer $599 worden ($699 voor founders edition).
Verder is er voor mij momenteel geen pijl op te trekken mbt het 7nm verhaal. Het kan natuurlijk altijd een refresh worden, maar dan hebben ze daar wel erg lang mee gewacht. Aan de andere kant krijgt pro meestal als eerste de nieuwe technieken en die heb ik nog niet op 7nm gezien. Het blijft afwachten dus. Het is in ieder geval zeker dat een hoop consumenten teleurgesteld gaan zijn als dit een refresh betreft (ondanks dat Nvidia niets heeft losgelaten behalve dat het nog 'lang' gaat duren). Maar ja alles kan. Dus wie weet is dit een simpele 15% (geindexeerd) refresh en komen er binnen een paar maanden wat Pro spullen op een nieuwe architectuur en moet Geforce wachten tot zomer 2019.
Met betrekking tot de prijs is er geen enkele reden om aan te nemen dat de MSRP hoger gaat worden. Het zal dus wel weer $599 worden ($699 voor founders edition).
[ Voor 24% gewijzigd door sdk1985 op 02-07-2018 13:46 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.