Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
TSMC raises prices on AMD and Nvidia
TSMC is de afgelopen tijd hard bezig om het AMD en nVidia moeilijk te maken.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Het blijft wel zo dat je bij het ontwerp van een chip rekening moet houden met het proces waar je het wil gaan produceren, als er echt een grote AMD migratie gaat plaats vinden zullen we dit te zien krijgen met de 7xxx en 8xxx series te zien krijgen (de low end 7xxx zullen al bij GloFo geproduceerd worden als ik het goed heb).
Verwijderd
de vorm van cuda. Ik kan die bron zo niet weer vinden, het zou oa te meken hebben met het geheugen.
Kan iemand hhier meer over vertellen?
Over het geheugen: dat ken ik tot nu toe alleen van de playstation 3, vrij gaming-geörienteerd, vind ik zelf. Oke, XDR en geen XDR2 maar waar XDR2 voor gebruikt word weet ik eigenlijk niet, volgens mij wordt het nog nergens massaal gebruikt.
[ Voor 30% gewijzigd door bwerg op 09-09-2011 12:55 ]
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
Een tegenhanger er van doel ik opBlue-Tiger schreef op vrijdag 09 september 2011 @ 12:53:
CUDA is van nVidia, dus dat lijkt me sterk.
Ik leid niet aan tunnelvisie en ik houd alle mogelijkheden open.Blue-Tiger schreef op donderdag 08 september 2011 @ 23:55:
Wat voor relevants zeg je hier nu eigenlijk in deze zelftegenspraak?
Maar opzich zeg je dus niets relevants.madmaxnl schreef op vrijdag 09 september 2011 @ 20:45:
[...]
Ik leid niet aan tunnelvisie en ik houd alle mogelijkheden open.
Verwijderd
AMD gaat net als nvidia gewoon in begin 2012 voor de massa. Er voor zal enkel amd met een
paar kaarten op de markt komen?
Zo hebben ze ook de HD6k lijn gelanceerd. Eerst kwamen er de Barts, kort erop gevolgd door Cayman. Pas dit jaar zijn de lagere segment kaarten erbij gekomen, zijnde Turks en Caicos.
Verwijderd
Ze komen dus aardig gelijk voor ons consumeten op gang van zowel amd als nvidia
Welke kaarten het gaan zijn is nog onduidelijk want dat staat er niet bij.
[ Voor 30% gewijzigd door Verwijderd op 10-09-2011 12:50 ]
Punt is dat het artikel dat ze aanhalen, dat van Semi-Accurate, geen enkele aanleiding geeft om zo stellig die conclusie te trekken. Volgens Charlie, de auteur van het orginele artikel, rollen de wafers van de opvolger van Cayman momenteel al door TSMC's fabrieken. Of ze er ook al uitrollen, durfde hij niets over te melden op het forum, maar hij heeft zich altijd hard gemaakt dat AMD gewoon dit jaar zal launchen, wat normaal gesproken met een zekere beschikbaarheid gepaard gaat. Meestal is het wel zo dat beschikbaarheid altijd lager is dan de vraag, omdat er altijd erg veel mensen direct de nieuwe kaart willen hebben.Verwijderd schreef op zaterdag 10 september 2011 @ 12:48:
Ik zeg ook niet dat in een keer de hele lijn klaar is. Ik zeg dat amd de kaarten in december lanceerd en dat de bechikbaarheid pas in januari/februari op gang is waneer nvidia ook zijn kaarten gaat lanceren.
Ze komen dus aardig gelijk voor ons consumeten op gang van zowel amd als nvidia
Welke kaarten het gaan zijn is nog onduidelijk want dat staat er niet bij.
Wanneer nVidia's nieuwe kaarten komen, moet nog maar blijken. Vooralsnog lijken ze eerst die-shrinks te maken van bestaande producten en lijkt de opvolger nog wel een paar maanden verder weg.
Verwijderd
in nieuwsbronnen. Nvidia komt dan gewoon met de kepler uit en niet met een die shrink van huidige kaarten, maar dit was al lang wel duidelijk gezien het nieuws wa er allemaal al is
En voor zo ver ik weet hebben bijde bedrijven het 28nm proces goed op orde iig wel nvidia want dat is ook in het nieuws geweest.
[ Voor 29% gewijzigd door Verwijderd op 10-09-2011 13:12 ]
Als we Charlie op zijn woord mogen geloven, in ieder geval absoluut geen XDR2 in HD7k. Iets verderop in de thread zegt hij nog even tussen neus en lippen door dat de eerste kaarten alleen later komen, als het proces van TSMC niet mee wil werken.
Ik zou ook met Charlie meegaan op dit onderdeel. XDR2 lijkt namelijk niet relevant.dahakon schreef op zaterdag 10 september 2011 @ 13:38:
Als we Charlie op zijn woord mogen geloven, in ieder geval absoluut geen XDR2 in HD7k. Iets verderop in de thread zegt hij nog even tussen neus en lippen door dat de eerste kaarten alleen later komen, als het proces van TSMC niet mee wil werken.
Aangezien hij de afgelopen weken weer op bezoek is geweest bij AMD en daar hoogstwaarschijnljk het laatste nieuws heeft opgepikt zou ik hem maar weer in de gaten houden
Als hij iets zegt over de nieuwe high-end kaart met performance van de 6990 heeft hij het waarschijnlijk niet uit z'n duim gezogen.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Verwijderd
omdat TSMC de prijzen van haar 28 nm wafers zou gaan verhogen.
http://nl.hardware.info/n...van-28-nm-wafers-verhogen
Kijk anders een paar posts omhoog en laat je hoofd zakken uit schaamte. Of je kan het excuus gebruiken dat je geen Engels begrijpt. =)Verwijderd schreef op maandag 12 september 2011 @ 12:49:
Het gerucht : AMD en Nvidia zullen de nieuwe video kaarten en hoger prijskaartje moeten geven
omdat TSMC de prijzen van haar 28 nm wafers zou gaan verhogen.
http://nl.hardware.info/n...van-28-nm-wafers-verhogen
Verwijderd
Waar ik wel last van heb is dat ik zeer vergeetachtig ben de laatste tijden.
[ Voor 28% gewijzigd door Verwijderd op 12-09-2011 13:14 ]
Dan weten we voor huidige en toekomstige uitspreken hoe veel of weinig zout we moeten toevoegen
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
De overschakeling naar 28nm transistors maakt zo'n sprong inderdaad mogelijk. Zo was de Radeon HD 5870 met zijn 40nm transistors en 1600 shader units ook bijna even snel als de Radeon HD 4870 X2 met twee RV770 cores op het 55nm procedé en met eveneens 1600 shader units.neliz schreef op zaterdag 10 september 2011 @ 23:55:
[...]
Als hij iets zegt over de nieuwe high-end kaart met performance van de 6990 heeft hij het waarschijnlijk niet uit z'n duim gezogen.
In dat geval moet de high-end videokaart van de nieuwe generatie wel meer dan 2048 shader units hebben, of de snelheid moet richting de 1,2 GHz core gaan en dat lijkt me niet waarschijnlijk.
Goud is geen geld
Verwijderd
Met minder meer kunnen bvb.
Of Tahiti heeft een andere architectuur?In dat geval moet de high-end videokaart van de nieuwe generatie wel meer dan 2048 shader units hebben, of de snelheid moet richting de 1,2 GHz core gaan en dat lijkt me niet waarschijnlijk.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Nee hoor, 32nm is door TSMC gewoon geannuleerd, daar viel helaas niets te kiezen. 130/110, 90/80, 65/55 zijn allemaal wel gewoon gebruikt (voor zover m'n geheugen me niet in de steek laat tenminste).Verwijderd schreef op maandag 12 september 2011 @ 16:14:
Volgens mij klopt dat niet helemaal (correct me if I'm wrong): De laatste tijd slaan GPUs altijd een halfnode over (er zijn bijvoorbeeld geen GPUs op 45 nm geweest). In diezelfde trend zouden AMD en nVidia eigenlijk ook 32 nm overslaan, normaal gesproken. Maar of dit de regel is weet ik niet.
[ Voor 6% gewijzigd door Werelds op 12-09-2011 16:29 ]
Verwijderd
Toen zijn ze gelijk naar 40 gegaan?Verwijderd schreef op maandag 12 september 2011 @ 17:44:
Ja, klopt, mijn punt was meer dat het al niet echt normaal was dat ze uberhaupt voor 32 nm kozen. Of wilden kiezen.Maar als ze echt al die nodes gebruikten dan klopt mijn verhaal ook niet nee... Ik dacht er iets over gelezen te hebben, maar wellicht heb ik dat verkeerd geinterpreteerd of onthouden. Vraag ik me wel af waarom 45 nm was over geslagen.
http://www.geeks3d.com/20...y-amd-graphics-core-next/
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Als het gaat om geruchten rondom productie van nieuwe chips hebben Charlie's verhalen naar mijn weten altijd een kern van waarheid, of zijn ze gewoon compleet waar. Daarnaast houdt hij zich nog bezig met de ook hier veelvoorkomende sabotagepraktijken van NVidia, die zijn niet echt 100% te bewijzen of te ontkrachten dus die zal ik maar in het midden laten.XanderDrake schreef op maandag 12 september 2011 @ 14:19:
Hmmmm nu ik er over nadenk, zijn er hier mensen die bijhouden of de voorspelling die Charlie doet uiteindelijk ook uitkomen en zo ja in welke vorm?
Dan weten we voor huidige en toekomstige uitspreken hoe veel of weinig zout we moeten toevoegen
Maar Charlie is ondanks zijn duidelijke voorkeur meestal wel een goede bron gebleken hoor, daar hecht ik wel enige waarde aan.
Heeft geen speciale krachten en is daar erg boos over.
Verwijderd
De 7970 leest als muziek op digitaal papierHelp!!!! schreef op maandag 12 september 2011 @ 19:07:
Waren de "specs" al in deze tabel vorm gepost?
http://www.geeks3d.com/20...y-amd-graphics-core-next/
Ziet er naar uit dat de prestaie winst tegenover de hd6970 wel super moet zijn.
[ Voor 11% gewijzigd door Verwijderd op 12-09-2011 19:55 ]
Dat zijn de tabellen van NordicHardware dus ja.Help!!!! schreef op maandag 12 september 2011 @ 19:07:
Waren de "specs" al in deze tabel vorm gepost?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Anyway, ze zijn in elk geval wel al goed op weg bij AMD:
http://www.xbitlabs.com/n...ern_Islands_at_Event.html
[ Voor 26% gewijzigd door Verwijderd op 14-09-2011 00:25 ]
Als TS van het Radeon ND draadje voel ik me vrijwel verplicht om zelf ook een AMD videokaart te hebben. Nou krijg ik morgen een GTX560Ti TF2 om eens mee te spelen tot de launch van SI en gaat mijn HD6950 de deur uit.
* Fid3lity vind jullie in ieder geval allemaal nog heel erg lievv en hoopt op jullie vergevingsgezindheid.
- einde bericht -
Blue-Tiger schreef op vrijdag 09 september 2011 @ 21:40:
[...]
Maar opzich zeg je dus niets relevants.
Shame on you!Blue-Tiger schreef op zaterdag 17 september 2011 @ 00:39:
* Sinester heeft iets te bekennen...
Als TS van het Radeon ND draadje voel ik me vrijwel verplicht om zelf ook een AMD videokaart te hebben. Nou krijg ik morgen een GTX560Ti TF2 om eens mee te spelen tot de launch van SI en gaat mijn HD6950 de deur uit.
* Sinester vind jullie in ieder geval allemaal nog heel erg lievv en hoopt op jullie vergevingsgezindheid.
- einde bericht -
Een langzamere nVidia in je pc plaatsen
Hello there
Zolang je het topic maar niet in de steek laat BT
Verwijderd
DX11.1 Is er weer nieuwe hardware nodig?
http://translate.google.n...6bih%3D563%26prmd%3Dimvns
Of is dit weer zo'n marketing truuk, om anderen dwars te zitten?
[ Voor 8% gewijzigd door Verwijderd op 18-09-2011 11:05 ]
Elke DirectX versie heeft nieuwe hardware nodig gehad om compliant te zijn, maar er zitten in 11.1 voor zover ik tot nu toe heb gezien geen dingen die echt nieuwe hardware vereisen.
Verwijderd
Net zo dom toen als met dx10 .1 want ook niets toevoegde en je er wel een aparte hw voor nodig was,
wat uiteindelijk ook een flop werd. Puur dwars bomen.
Dwars bomen van wie? Alleen AMD en Nvidia hebben hier mee te schaften en AMD zowel als Nvidia hebben geen deals met microsoft over DX..Verwijderd schreef op zondag 18 september 2011 @ 12:12:
Microsoft of microsoft in zamen werking met een fabriekant
Net zo dom toen als met dx10 .1 want ook niets toevoegde en je er wel een aparte hw voor nodig was,
wat uiteindelijk ook een flop werd. Puur dwars bomen.
En dat Microsoft AMD en Nvidia wil dwars bomen zie ik geen reden toe aangezien Microsoft geen concurrent is
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Je vergeet de allergrootste!Xenomorphh schreef op zondag 18 september 2011 @ 12:17:
[...]
Dwars bomen van wie? Alleen AMD en Nvidia hebben hier mee te schaften en AMD zowel als Nvidia hebben geen deals met microsoft over DX..
En dat Microsoft AMD en Nvidia wil dwars bomen zie ik geen reden toe aangezien Microsoft geen concurrent is
http://www.xbitlabs.com/n...raphics_Capabilities.html
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Je zoekt hier een complot theorie die er niet is
[ Voor 8% gewijzigd door Werelds op 18-09-2011 12:39 ]
Ze hebben anders wel een console. Hoe minder mensen op een PC gamen hoe beter voor hun. Ik wil niet beweren dat ze met DX AMD/Nvidia willen dwarsbomen, maar ze hebben al genoeg laten zien dat ze geen interesse meer hebben in PC als gaming platform.Werelds schreef op zondag 18 september 2011 @ 12:39:
Microsoft heeft zelf geen GPUs, dus wie willen ze dwarsbomen?
Ook was er niet zo lang geleden een artikel hier op tweakers waar AMD zei dat game developers directe toegang tot de GPU wouden hebben om games beter te kunnen optimaliseren (zoals dat op consoles kan). Waarom is er geen low-level API daarvoor? Immers, Microsoft weet heus ook wel wat game developers willen.
[ Voor 4% gewijzigd door Hyperz op 18-09-2011 13:06 ]
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Verwijderd
Klopt die had ik nog gemist.neliz schreef op zondag 18 september 2011 @ 12:25:
[...]
Je vergeet de allergrootste!
http://www.xbitlabs.com/n...raphics_Capabilities.html
Met dwarsbomen bedoel ik ook dat ze het in gmes gaan stoppen
en dat dan je gpu van amd of nvidia er niet mee om kan gaan. Zoals in het verleden met
10.1
Een console die sowieso al jaren niet meer compliant is en op een halve DX8/9 hybride versie draait? Waar een behoorlijk verouderde ATI GPU in zit (grotendeels een R520, ofwel X1000)? Ja, ik denk dat ze daarom zorgen dat DirectX steeds meer kan. Als je voor de grap eens even kijkt wat er nu daadwerkelijk in DX 11.1 zit zul je zien dat het vooral software optimalisaties zijn, met een flinke dosis GPGPU gerelateerde dingen. MS is verbazingwekkend stimulerend, DX neemt constant features op die het makkelijker maken voor de gemiddelde developer om krachtige features te gebruiken op elke kaart die het ondersteunt. Zo komt er in 11.1 bijvoorbeeld ook een API om stereo 3D af te handelen, wat betekent dat wij als gamers hopelijk van rotzooi als NVIDIA 3DVision en AMD HD3D af kunnen. Tegelijkertijd zullen monitor fabrikanten met "generic" 3D hardware gaan komen; dan wordt 3D ineens interessant.Hyperz schreef op zondag 18 september 2011 @ 13:05:
[...]
Ze hebben anders wel een console. Hoe minder mensen op een PC gamen hoe beter voor hun. Ik wil niet beweren dat ze met DX AMD/Nvidia willen dwarsbomen, maar ze hebben al genoeg laten zien dat ze geen interesse meer hebben in PC als gaming platform.
Dat was Carmack die dat zei. En op de consoles zit men ook nog deels met een API, dat is nog steeds niet wat Carmack bedoelde. Ze kunnen wel beter aan sommige onderdelen, maar directe toegang hebben ze ook daar niet.Ook was er niet zo lang geleden een artikel hier op tweakers waar AMD zei dat game developers directe toegang tot de GPU wouden hebben om games beter te kunnen optimaliseren (zoals dat op consoles kan). Waarom is er geen low-level API daarvoor? Immers, Microsoft weet heus ook wel wat game developers willen.
Daarnaast is D3D juist een uitkomst voor veel kleinere developers, omdat die relatief snel de graphics op orde kunnen hebben, zonder zich daarbij druk te hoeven maken om de vendor-specific dingen. Dat is nu juist het hele punt van een API. Wat Carmack even vergeet is dat we 15 jaar geleden al met die situatie zaten, waardoor 3DFX met hun briljante Glide even alles van de kaart gooide. Aan de andere kant hadden sommige games bijvoorbeeld extra ondersteuning voor een aantal Matrox kaarten (heb zelf nog een Matrox kaart gekocht voor Toonstruck toentertijd). Nee, geef mij maar gewoon 1 centrale API in plaats van meerdere vendor-specific APIs (ook de reden waarom ik zo'n grafhekel aan HD3D/3DVision, PhysX heb).
Op sommige vlakken zou een API om directere toegang tot de GPUs wel nuttig zijn, maar voor het grootste deel zijn dingen als D3D en OGL gewoon nodig.
En wat bereiken ze er mee als de GPUs van AMD en NVIDIA er niet mee om kunnen gaan? Precies hetzelfde als met DX 10.1, helemaal niks. Het zal dan gewoon niet gebruikt worden. Verschil is alleen dat DX 11.1 meer verspreid zal zijn dan DX 10.1, dus interessanter voor AMD en NVIDIA.Verwijderd schreef op zondag 18 september 2011 @ 13:14:
[...]
Klopt die had ik nog gemist.
Met dwarsbomen bedoel ik ook dat ze het in gmes gaan stoppen
en dat dan je gpu van amd of nvidia er niet mee om kan gaan. Zoals in het verleden met
10.1
Echt jongens, jullie zijn een beetje paranoide. DX 11.1 zal geen grote impact hebben, maar er zit ook echt geen motief van MS achter om mensen naar de 360 te lokken of wat dan ook. Daarvoor zouden ze eerst magisch deze dingen wel mogelijk moeten maken op die lompe doos en dat zit er simpelweg niet in.
[ Voor 22% gewijzigd door Werelds op 18-09-2011 13:32 ]
Stel je gebruikt dx11 in een spel en je kaart kan geen dx11 aan, dan valt het spel terug op dx10 of dx10.1. Dus je hindert er niemand mee.Verwijderd schreef op zondag 18 september 2011 @ 13:14:
[...]
Klopt die had ik nog gemist.
Met dwarsbomen bedoel ik ook dat ze het in gmes gaan stoppen
en dat dan je gpu van amd of nvidia er niet mee om kan gaan. Zoals in het verleden met
10.1
Het voordeel van dx10.1 was dat in bepaalde spellen (assasins creed) je de anti-aliasing en hdr in een shader pass kon stoppen wat performance winst gaf als je kaart dx10.1 had. Had je dat niet dan ging het terug naar dx10 of dx9 (hangt er van af wat je hebt).
Met nieuwere versies van dx boycot je niemand, je zal hooguit nieuwe functionaliteit/beter performance krijgen als je kaart het ondersteunt of dat nou intel is of nvidia, amd.
Je kan pas van een boycot spreken als een game developer express dx9 en dx10 uit een spel laat en alleen dx10.1 toestaat.
Dus je zou het juist moeten toejuichen dat er weer een nieuwe versie komt. Behalve als je net een nieuwe kaart hebt gekocht die het niet heeft
DX11.1 zal ook met updates komen ten opzichte van DX11. AMD en nVidia zullen ter zijner tijd dan ook wel met nieuwe hardware komen die het ondersteunen.
MSDN: Direct3D 11.1 Features (Windows Developer Preview)
Zie boven de veranderingen die DX11.1 brengen ten opzichte van DX11.
Microsoft heeft de DX iteraties redelijk parallel lopen met het uitbrengen van besturingssystemen en houdt de DX versies dan ook vaak exclusief voor deze besturingssystemen. De marketing truc hier is dat alleen met een nieuwe versie van windows - en een nieuwe videokaart - de nieuwe functionaliteit kan worden gebruikt. Ze geven mensen (zeg maar gamers) een directe aanleiding een nieuwe PC te kopen.
Aan de andere kant is het zo dat implementatie van nieuwe DX ondersteuning op zijn hoogst mondjesmaat is. In de praktijk zijn er een beperkt aantal games die uitkomen met de nieuwe DX versie; terwijl werkelijke marktpenetratie veel langer duurt. Zo zijn DX11 games, die werkelijk voordeel hebben van de nieuwe mogelijkheden, op anderhalve hand te tellen, en waarschijnlijk heeft dat heel veel te maken met zogenaamde ports. De praktijk wijst uit dat je in het eerste jaar na verschijnen van een DX versie je nog niet druk zou hoeven maken...
License to use this text for use in LLM-related products and services can be purchased for €1.000
Zoals ik al zei, ik wil niet beweren dat Microsoft met DirectX GPU bakkers voor de voeten wil lopen, maar dat het in hun beste interesse is om zoveel mogelijk (PC) gamers naar Xbox 360 te pushen. Of ze dat ook actief doen d.m.v. PC game development of GPU bakkers op één of andere manier voor de voeten te lopen laat ik in het midden. Ik zie geen bewijs dat sugereert dat het zo is, maar het KAN, en ze zouden er profijt bij hebben. Het feit dat consoles outdated zijn heeft hier totaal niets mee te maken.Werelds schreef op zondag 18 september 2011 @ 13:24:
[...]
Een console die sowieso al jaren niet meer compliant is en op een halve DX8/9 hybride versie draait? Waar een behoorlijk verouderde ATI GPU in zit (grotendeels een R520, ofwel X1000)? Ja, ik denk dat ze daarom zorgen dat DirectX steeds meer kan. Als je voor de grap eens even kijkt wat er nu daadwerkelijk in DX 11.1 zit zul je zien dat het vooral software optimalisaties zijn, met een flinke dosis GPGPU gerelateerde dingen. MS is verbazingwekkend stimulerend, DX neemt constant features op die het makkelijker maken voor de gemiddelde developer om krachtige features te gebruiken op elke kaart die het ondersteunt. Zo komt er in 11.1 bijvoorbeeld ook een API om stereo 3D af te handelen, wat betekent dat wij als gamers hopelijk van rotzooi als NVIDIA 3DVision en AMD HD3D af kunnen. Tegelijkertijd zullen monitor fabrikanten met "generic" 3D hardware gaan komen; dan wordt 3D ineens interessant.
http://www.engadget.com/2...-to-go-away-says-amd-man/
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Miss you CJ....:'( en nee... ik kan niet aan samples komen
MS kan met nog zo veel DX versies komen als het wil, geen developer zal ze gaan gebruiken als er geen hardware ondersteuning voor is. MS kan dus nooit op die manier proberen om mensen naar de XBOX te duwen. DX updates hebben over het algemeen verbeteringen, door extra functies en/of efficientie-verhoging.Hyperz schreef op zondag 18 september 2011 @ 15:01:
Zoals ik al zei, ik wil niet beweren dat Microsoft met DirectX GPU bakkers voor de voeten wil lopen, maar dat het in hun beste interesse is om zoveel mogelijk (PC) gamers naar Xbox 360 te pushen. Of ze dat ook actief doen d.m.v. PC game development of GPU bakkers op één of andere manier voor de voeten te lopen laat ik in het midden. Ik zie geen bewijs dat sugereert dat het zo is, maar het KAN, en ze zouden er profijt bij hebben. Het feit dat consoles outdated zijn heeft hier totaal niets mee te maken.
Verder is er slechts 1 keer een harde scheiding tussen OS en DX ondersteuning gemaakt en dat was met de overstap van DX9 naar DX10. Dit was omdat DX10 een heleboel zaken heel anders aan pakt en er geen backwards compatibiliteit meer was, iets wat in stand was gehouden tot en met DX9. Ondertussen heeft Vista gewoon keurig DX11 ondersteuning gekregen en is de kans groot genoeg dat DX11.1 ook beschikbaar zal zijn op Vista/7.
Dat kunnen ze wel. Wat dacht je van de overhead die DirectX met zich meebrengt? Of beter nog, het feit dat er nog altijd geen directe toegang tot de GPU mogelijk is (lees trouwens dat artikel die ik linkte en de bron eens)? Microsoft verwaarloost DX niet. Maar vraag je eens af hoe het PC landschap er nu uit zou zien moest de Xbox er nooit geweest zijn en hun focus dus al die tijd 100% op PC zou zijn gericht. Again, ik wil niets suggereren. Maar het is food for thought.dahakon schreef op zondag 18 september 2011 @ 15:09:
[...]
MS kan met nog zo veel DX versies komen als het wil, geen developer zal ze gaan gebruiken als er geen hardware ondersteuning voor is. MS kan dus nooit op die manier proberen om mensen naar de XBOX te duwen. DX updates hebben over het algemeen verbeteringen, door extra functies en/of efficientie-verhoging.
Verder is er slechts 1 keer een harde scheiding tussen OS en DX ondersteuning gemaakt en dat was met de overstap van DX9 naar DX10. Dit was omdat DX10 een heleboel zaken heel anders aan pakt en er geen backwards compatibiliteit meer was, iets wat in stand was gehouden tot en met DX9. Ondertussen heeft Vista gewoon keurig DX11 ondersteuning gekregen en is de kans groot genoeg dat DX11.1 ook beschikbaar zal zijn op Vista/7.
Asus P8P67 EVO | i5 2500k (4.8 GHz) | Sapphire HD 7970 Vapor-X GHz Ed. | 8 GB DDR3 1600 | 1 TB HDD
Verwijderd
http://www.nordichardware...7000-delayed-to-2012.html
http://nl.hardware.info/n...d-7000-reeks-uit-tot-2012
Verwijderd
Maar als het waar zou zijn ziet het er niet goed uit voor AMD. Laat nvidia nu maar eens eerder komen zodat amd op het laatst nog zijn kaarten sneller kan maken. Het zelfde wat nvidia dus ook altijd doet.
[ Voor 31% gewijzigd door Verwijderd op 20-09-2011 10:36 ]
Natuurlijk kun je wel zeggen dat een fabrikant niet meteen al zijn kruid verschiet door niet het maximale uit de chip te halen, maar wat is hiervan het voordeel ? Gewoon meteen een zo goed mogelijk product neerzetten is financieel gezien het beste.
2011 is over iets meer dan 3 maanden alweer om. Dus zo gek is 2012 ook weer niet.Verwijderd schreef op dinsdag 20 september 2011 @ 10:35:
Als het waar is wat die man van powercoler zegt, het is nog maar het zo veelste gerucht.
Je kunt toch altijd nog een snellere kaart releasen? Dat is geen reden om te wachten.Maar als het waar zou zijn ziet het er niet goed uit voor AMD. Laat nvidia nu maar eens eerder komen zodat amd op het laatst nog zijn kaarten sneller kan maken. Het zelfde wat nvidia dus ook altijd doet.
Ik hoop trouwens wel dat de nieuwe kaarten wat korter worden. De 69xx zijn erg lang en passen niet in veel kasten.
[ Voor 8% gewijzigd door Olaf van der Spek op 20-09-2011 12:51 ]
Meestal zitten dit soort systemen toch in 'full' towers. Mid towers zijn voor mid-end systemen
Sinds wanneer is een 6950 een über high-end kaart?madmaxnl schreef op dinsdag 20 september 2011 @ 12:58:
Waarom zou je een über high-end kaart in een kast gaan duwen waar die niet in past.
Meestal zitten dit soort systemen toch in 'full' towers. Mid towers zijn voor mid-end systemen
Het is de Radeon HD 4870 van 2011, echte high-end denk ik toch aan GTX 580/590 en HD 6990 inderdaad.Olaf van der Spek schreef op dinsdag 20 september 2011 @ 13:19:
[...]
Sinds wanneer is een 6950 een über high-end kaart?
Goud is geen geld




GTX9800(+) is de langste van al deze bovenstaande kaarten.
In deze kast passen gewoon twee HD6990s. 50 euro en m-ATX met rete veel fans en features. Als videokaarten dus niet in je kast passen ben je daar in mijn ogen toch echt zelf bij.
YouTube: #1155 - In Win Dragon Slayer Case Video Review - YouTube
[ Voor 27% gewijzigd door madmaxnl op 20-09-2011 13:48 ]
Wat wil je met die plaatjes? Daar kun je de (relatieve) grootte toch niet uit afleiden?madmaxnl schreef op dinsdag 20 september 2011 @ 13:42:
Lang is anders:
Jawel, namelijk tov PCI-E connector.Olaf van der Spek schreef op dinsdag 20 september 2011 @ 14:26:
[...]
Wat wil je met die plaatjes? Daar kun je de (relatieve) grootte toch niet uit afleiden?
De 6 serie is niet erg lang, de GTX280(Uit mijn hoofd) was langer en uiteraard de 1 PCB dual kaarten.
Maar mensen die dit soort kaarten kopen hebben ook meestal hiervoor speciale kasten aangeschaft.
Hoe lang is "niet erg lang"?Bejit schreef op dinsdag 20 september 2011 @ 14:34:
De 6 serie is niet erg lang, de GTX280(Uit mijn hoofd) was langer en uiteraard de 1 PCB dual kaarten.
Maar mensen die dit soort kaarten kopen hebben ook meestal hiervoor speciale kasten aangeschaft.
Nogmaals, een 6950 is echt niet zo'n bijzonder kaart.
HD6990 daarentegen is wel lang wat mij betreft.
[ Voor 26% gewijzigd door madmaxnl op 20-09-2011 14:43 ]
Hoe lang zijn "niet lang" en "wel lang" volgens jou? Ik heb het liever over millimeters dan over plaatjes.madmaxnl schreef op dinsdag 20 september 2011 @ 14:42:
HD6950 is wat mij betreft ook niet lang. Zie bovenstaande plaatjes.
HD6990 daarentegen is wel lang wat mij betreft.
[ Voor 8% gewijzigd door Olaf van der Spek op 20-09-2011 14:49 ]
Ik heb hier een 6950 van 287mm: http://xfxforce.com/en-gb...0series/6950Standard.aspxWerelds schreef op dinsdag 20 september 2011 @ 15:00:
6950 is 274mm, 6990 is 305mm - 3,1 cm verschil, vrij behoorlijk
De XFX 4870 is 241mm: http://xfxforce.com/en-us...hd%204000series/4870.aspx
Niemand beweert dat de 6950 en 6990 even groot zijn.
[ Voor 12% gewijzigd door Olaf van der Spek op 20-09-2011 15:10 ]
Verwijderd
http://images.anandtech.c...s/1382/IMG_0297_575px.JPG
Muhaha.
XFX Radeon HD 6870 2 GByte: Lohnt sich mehr Grafikspeicher?
Conclusie 2GB doet niks.Wel opmerkelijk een HD6990 sloopt een GTX590. Hij is gewoon sneller, goedkoper, zuiniger en stabieler
[ Voor 3% gewijzigd door madmaxnl op 26-09-2011 03:16 ]
Mijn XFX 6950 is anders maar 25,9 cm: http://xfxforce.com/en-gb...0series/6950Standard.aspx.Olaf van der Spek schreef op dinsdag 20 september 2011 @ 15:05:
[...]
Ik heb hier een 6950 van 287mm: http://xfxforce.com/en-gb...0series/6950Standard.aspx
De XFX 4870 is 241mm: http://xfxforce.com/en-us...hd%204000series/4870.aspx
Niemand beweert dat de 6950 en 6990 even groot zijn.
D'r staat daar bij Specs anders gewoon:Sj44k13 schreef op maandag 26 september 2011 @ 06:59:
[...]
Mijn XFX 6950 is anders maar 25,9 cm: http://xfxforce.com/en-gb...0series/6950Standard.aspx.
Physical
Cooling Fansink
Profile: Double
Dimensions (Imperial): 11.3 x 4.38 x 1.5
Dimensions (Metric): 28.7 x 11.12 x 3.81
Zonder heatsink is het PCB ongeveer ~27 cm lang (slot cover niet meegerekend)...
Voor multiscreen doeleinden zal die 2gb toch wel wat meer power er uit geven njamadmaxnl schreef op maandag 26 september 2011 @ 03:06:XFX Radeon HD 6870 2 GByte: Lohnt sich mehr Grafikspeicher?
Conclusie 2GB doet niks.
Wel opmerkelijk een HD6990 sloopt een GTX590. Hij is gewoon sneller, goedkoper, zuiniger en stabieler
de prijs van de 2gb 6870 is dan ook bijna z oduur als een 6870x2 kaart
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Dat is natuurlijk onzin, ik zie die kaart daar im Presivergleich gewoon voorbij komen a zo'n 180 euro, wat opzich nog wel duur is natuurlijk maar het komt bij lange na niet aan de prijs van een HD6870x2.yzx schreef op maandag 26 september 2011 @ 07:14:
[...]
de prijs van de 2gb 6870 is dan ook bijna z oduur als een 6870x2 kaart
Bij release was de eyefinity 6870 toch 300$ ergens op newegg gezienBlue-Tiger schreef op maandag 26 september 2011 @ 07:22:
[...]
Dat is natuurlijk onzin, ik zie die kaart daar im Presivergleich gewoon voorbij komen a zo'n 180 euro, wat opzich nog wel duur is natuurlijk maar het komt bij lange na niet aan de prijs van een HD6870x2.
en hier in de winkels liggen ze voor 300euries Belgie het PC land bij uitstek
[ Voor 11% gewijzigd door yzx op 26-09-2011 07:26 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Hier in de PW is de E6 kaart te vinden voor zo'n 220 euro...yzx schreef op maandag 26 september 2011 @ 07:24:
[...]
Bij release was de eyefinity 6870 toch 300$ ergens op newegg gezien
Stomme Belgenen hier in de winkels liggen ze voor 300euries Belgie het PC land bij uitstek![]()
Zie net dat de eyefinity van Club3D maar 220 kost iddBlue-Tiger schreef op maandag 26 september 2011 @ 07:27:
[...]
Hier in de PW is de E6 kaart te vinden voor zo'n 220 euro...
[...]
Stomme Belgen![]()
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
HD6870x2 wellicht?yzx schreef op maandag 26 september 2011 @ 07:30:
[...]
Zie net dat de eyefinity van Club3D maar 220 kost iddwas ook duurder een weekje of 2 terug of was dat een andere 6870
zou het niet meer weten
Tones.be is toch best wel in orde geloof ik zo[...]
marginale PC winkels dat het zijn staan 5000 bodyguards buiten als je begrijpt wat ik bedoel tevens heb je ook de goede winkels maar ze lopen wat achter

Neu neu anders had ik er al 1tje
Jep maar is ver weg van mijn thuis[...]
Tones.be is toch best wel in orde geloof ik zo
Niet slecht bedoel ofzo
[ Voor 3% gewijzigd door yzx op 26-09-2011 07:36 ]
Hey, waar is Perry? III Hoezo Mentos verslaving ? III
Dat is inderdaad wel zo, maar da's (of lijkt iig) een kwestie van vraag en aanbod..Olaf van der Spek schreef op maandag 26 september 2011 @ 17:32:
Maar niet wat het was. Geen een model beschikbaar in 10+ winkels dat echt goedkoper is dan de 2gb variant.
Vind jij het bijvoorbeeld heel erg dat ze nu relatief moeilijker te krijgen zijn?
Dit topic is gesloten.