[Algemeen] ATi Nieuwsdiscussie Topic - Deel 101 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 46.575 views

Acties:
  • 0 Henk 'm!

  • denheer
  • Registratie: Oktober 2004
  • Laatst online: 12-04 19:32
Even wat interessants calculeren...

LET OP: dit klopt alleen als de getoonde wafer ook werkelijk van de nieuwe DX 11 GPU is!

Gegeven:
* De wafer is 300mm in diameter
* horizontaal passen er zo'n 25 stuks op de wafer
* Vertikaal passen er net iets meer dan 19 stuks op de wafer, laten we voor het gemak zeggen dat de gebruikte hoogte hier 285mm is.

300 / 25 = 12mm breedte
285 / 19 = 15mm hoogte

12 x 15 = 180mm oppervlakte. Volgens CJ precies de sweetspot voor een 256bit interface. We kunnen dus met vrij grote zekerheid zeggen dat deze GPU een 256bit interface heeft.


Nu nog de relatieve grootte van Evergreen vergelijken met de RV770...

Edit: lol voor het bericht hier net boven van Astennu. :)

Ok dan, hier een verdere calculatie:

RV770:
* 260mm
* 55nm
* 956 miljoen transistoren

Evergreen:
* 180mm
* 40nm
* ??? miljoen transistoren

Oppervlakte winst (door gebruik van 40nm i.p.v. 55nm):
55^2 / 40^2 = ~1,9

Oppervlakteverlies (door shrink van 260mm naar 180mm):
260 / 180 = ~0,7

Totale winst:
1,9 * 0,7 = ~1,3

Transistoren (lekker lomp vermenigvuldigen):
956 * 1,3 = ~1243 miljoen transistoren.

[ Voor 107% gewijzigd door denheer op 03-06-2009 11:41 ]


Acties:
  • 0 Henk 'm!

Anoniem: 264799

Over die xbitlabs review; Kan iemand mij uitleggen waarom ze altijd adaptive AA aanzetten bij Ati?

Ik zet die bij een aantal van mijn spellen niet aan omdat het niet werkt en dus geen betere IQ oplevert. (werkt dan gewoon niet met die specifieke game) Helaas zie ik dan soms wel een performancedrop.

Acties:
  • 0 Henk 'm!
Deze slide is toch wel het interessants jongens...

Lees eens goed wat er in kleine letters onder staat....

Gelezen? Datum gezien?

En bedenk je nu maar eens hoe geloofwaardig Hardware-Infos en Bright Side Of News zijn met hun nieuws dat G(T)300 vorige maand al hun tape-out hadden gehad op 40nm.... Zou TSMC dan ook niet zo'n waver + plague aan NVIDIA hebben gegeven als er al een werkende DX11 GPU van NVIDIA van de band zou zijn gerold? :7

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!
denheer schreef op woensdag 03 juni 2009 @ 10:50:
Even wat interessants calculeren...


Edit: lol voor het bericht hier net boven van Astennu. :)

Ok dan, hier een verdere calculatie:

RV770:
* 260mm
* 55nm
* 956 miljoen transistoren

Evergreen:
* 180mm
* 40nm
* ??? miljoen transistoren

Oppervlakte winst (door gebruik van 40nm i.p.v. 55nm):
55^2 / 40^2 = ~1,9

Oppervlakteverlies (door shrink van 260mm naar 180mm):
260 / 180 = ~0,7

Totale winst:
1,9 * 0,7 = ~1,3

Transistoren (lekker lomp vermenigvuldigen):
956 * 1,3 = ~1243 miljoen transistoren.
toon volledige bericht
Kom je op hetzelfde uit als die man van PC perspective :)

Nu is dus alleen de vraag hoeveel transistors ze nodig hadden voor DX11. Maar die 1200 Shaders blijven goed mogelijk echter ben ik dan wel benieuwd hoe ze die 80% boost willen halen. Dan ga ik toch eerder voor 50-60%. Of de clocks veel hoger zullen zijn is ook nog maar de vraag. Maar misschien hebben ze meer veranderd. BV TMU's en ROPS.
Anoniem: 264799 schreef op woensdag 03 juni 2009 @ 11:16:
Over die xbitlabs review; Kan iemand mij uitleggen waarom ze altijd adaptive AA aanzetten bij Ati?

Ik zet die bij een aantal van mijn spellen niet aan omdat het niet werkt en dus geen betere IQ oplevert. (werkt dan gewoon niet met die specifieke game) Helaas zie ik dan soms wel een performancedrop.
Hun vinden dat de IQ dan gelijk is aan die van nVidia. Terwijl ik vind dat het bij ATi dan wat mooier is. Het is dan inderdaad wel wat zwaarder. Het is vooral te zien bij hekken en bomen waar dan wel goed AA toegepast kan worden waar dat normaal niet lukt.
CJ schreef op woensdag 03 juni 2009 @ 11:34:
[...]


Deze slide is toch wel het interessants jongens...

Lees eens goed wat er in kleine letters onder staat....

Gelezen? Datum gezien?

En bedenk je nu maar eens hoe geloofwaardig Hardware-Infos en Bright Side Of News zijn met hun nieuws dat G(T)300 vorige maand al hun tape-out hadden gehad op 40nm.... Zou TSMC dan ook niet zo'n waver + plague aan NVIDIA hebben gegeven als er al een werkende DX11 GPU van NVIDIA van de band zou zijn gerold? :7
Je bedoelt dat June 2009 ? Ik gok dat er al eerder iets van de band gerold moet zijn anders hadden ze daar geen werkende hardware kunnen laten zien.

Maar Inderdaad als nVidia iets had gehad hadden ze dat ook wel laten zien. Maar misschien vandaar die DX10.1 GPU's ? of is dat maar HOAX info ?

[ Voor 20% gewijzigd door Astennu op 03-06-2009 11:41 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • denheer
  • Registratie: Oktober 2004
  • Laatst online: 12-04 19:32
En weer even verder speculeren

Als we kijken naar het aantal stream processing units per model dan zien we het volgende:
ModelTransistoren (miljoen)SPU'sTrans. verschil t.o.v. vorige generatieSPU verschil t.o.v. vorige generatieSpeculated Trans/SPU
RV730514320
RV7408266403123200,975
RV7709568001301600,8125


Trekken we dit met zeer nat vingerwerk door naar Evergreen dan brengt ons dat het volgende:
1243 - 956 = 283 miljoen extra transistoren

283 / 0,8125 = ~353 extra SPU's. Waarschijnlijk kunnen we dit doortrekken naar 400 vanwege de redundant SPU's die al aanwezig zijn (wederom enorme speculatie!).

800 + 400 = 1200 SPU's voor Evergreen.

1200 SPU's is niet echt veel meer power dan de RV770, bovendien heeft Evergreen ook nog eens DX11 ingebakken die waarschijnlijk ook extra transistoren kosten zodat het aantal SPU's nog lager uit kan vallen. Dit kan een aantal dingen betekenen:
1. Evergreen moet het vooral van z'n nieuwe featureset hebben.
2. Evergreen is een een redesign welke per transistor een stuk meer power heeft.
3. Evergreen zal met meerdere core's in 1 die gestopt worden en zich als 1 grote GPU gedragen zonder crossfire nodig te hebben.
4. ???

Acties:
  • 0 Henk 'm!
We praten niet over meer cores in een GPU. Die SIMD Array's zou je als eens soort core kunnen zien. De RV770 is al heel modulair. Ze kunnen als ze willen zo een versie maken met 1200 shaders of zelfs 1600 door er gewoon meer SIMD array's in the zetten. Maar dan krijg je weer een grote die en dat wil AMD niet. Ik denk dat we ook goed moeten kijken naar de grote van de RV740 en wat daar allemaal in zit aangezien die al op 40nm gemaakt is.

Die is namelijk 136mm2 voor 640 shaders. 16 ROP's en 32 TMU's. Echter wel een 128 Bit memory controller maar of een 256 Bit controller veel groter is vraag ik me af. Wel moet je een groot genoege die hebben vanwege de connecties naar de PCB.

We halen ook het volgende plaatje er weer even bij:

Afbeeldingslocatie: http://img4.imageshack.us/img4/9049/decapring.jpg

Daar zie je bv de UDV Engine. Die zal denk ik ook niet heel veel groter gaan worden. (misschien wel wat door de nieuwe features die in de UDV3.0 komen) Maar het aantal ROPs en TMU's zou wel omhoog kunnen gaan. Ik vraag me af wat die blauwe ring is. Lijkt me wat te groot voor alleen de ROP's.

[ Voor 58% gewijzigd door Astennu op 03-06-2009 11:51 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 263719

CJ schreef op woensdag 03 juni 2009 @ 11:34:
[...]


Deze slide is toch wel het interessants jongens...

Lees eens goed wat er in kleine letters onder staat....

Gelezen? Datum gezien?

En bedenk je nu maar eens hoe geloofwaardig Hardware-Infos en Bright Side Of News zijn met hun nieuws dat G(T)300 vorige maand al hun tape-out hadden gehad op 40nm.... Zou TSMC dan ook niet zo'n waver + plague aan NVIDIA hebben gegeven als er al een werkende DX11 GPU van NVIDIA van de band zou zijn gerold? :7
Tja, in het artikel op HWI staat ook dat AMD garandeert dat ze voor grote concurrent Nvidia met een DX11 GPU op de markt komen...

Als je zo 'n uitspraken doet moet je er toch 100% zeker zijn, niet?

Acties:
  • 0 Henk 'm!
Er zijn er zat die dingen roepen terwijl ze het niet zeker weten. En ook zeggen dat dat het echt gaat worden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
MSI R3870X2-T2D1G-OC - ATI Radeon HD 3870 GPU x 2

https://maxict.nl/product..._2?btwview=in&rs=tweakers

150 euro niet echt duur voor een 3870x2 of wel :P

Acties:
  • 0 Henk 'm!
peakaboo schreef op woensdag 03 juni 2009 @ 12:01:
MSI R3870X2-T2D1G-OC - ATI Radeon HD 3870 GPU x 2

https://maxict.nl/product..._2?btwview=in&rs=tweakers

150 euro niet echt duur voor een 3870x2 of wel :P
Nope maar een HD4870 1 GB is ook een klap sneller dan die kaart. En die is niet veel duurder.
ATI RV870 / R800 to launch

DirectX 11 hardware likely before Windows 7

Both are DirectX 11 and both are based on the same chip with the exception that the R800 card has two RV870, 40nm chips.

Our sources are quite confident that ATI should have these cards launched either in very late Q3 (late September time), or very early Q4 2009, that starts in October.

Since Windows 7 officially launches on October 22nd, you should expect ATI to have at least two, most likely three DirectX 11 cards to jump on the DirectX 11 bandwagon.

We are not sure about the games and currently we can only hope that Nvidia's DirectX 11 can also come in 2009, as many people are starting to whisper that Nvidia's DirectX 11 in 40n, is early 2010 rather than late 2009.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 31-03 21:55
CJ schreef op woensdag 03 juni 2009 @ 11:34:
[...]


Deze slide is toch wel het interessants jongens...

Lees eens goed wat er in kleine letters onder staat....

Gelezen? Datum gezien?

En bedenk je nu maar eens hoe geloofwaardig Hardware-Infos en Bright Side Of News zijn met hun nieuws dat G(T)300 vorige maand al hun tape-out hadden gehad op 40nm.... Zou TSMC dan ook niet zo'n waver + plague aan NVIDIA hebben gegeven als er al een werkende DX11 GPU van NVIDIA van de band zou zijn gerold? :7
Dus AMD en TSMC waren dus het eerst met 40nm en DirectX11. (en Nvidia was dus later)
In recognition kan nog altijd betekenen dat dit al lang geleden gebeurd is. Dit is waarschijnlijk een wafer van enkele maanden geleden. Die datum eronder wil gewoon zeggen dat het in juni getekend is. Lijkt me sterk dat die wafer ook in juni gemaakt is. Dus als AMD en TSMC eerst waren dan is het nog altijd mogelijk dat dit in januari gebeurt is en dat Nvidia bijvoorbeeld in maart een wafer geproduceerd hebben. Na de eerste wafer kan er dan eventueel nog een revision gebeuren.
Ik vind deze plaque geen bevestiging dat Nvidia nog geen tape-out gedaan heeft of al een werkende wafer heeft.

En naar mijn weten betekend tape-out nog altijd dat het design af is en dat het design (die vroeger op een tape stond vandaar de naam) naar de fabrikant gestuurd wordt om een 'mask' van te maken en van die ene 'mask' wordt dan dus een productierun gemaakt. Na de tape-out is het nog altijd een tijdje wachten tot de eerste chips geproduceerd moeten worden.

Edit:
Volgens Theinq is er +- 10 weken tussen tape-out en de eerste chips van een wafer en dan +- 12 tot daadwerklijke productie. En is de GT300 tape-out geplanned voor Juni.

[ Voor 10% gewijzigd door penetreerbeer op 03-06-2009 12:22 ]


Acties:
  • 0 Henk 'm!
Mijn vorige bericht was dan ook niet echt als speculatie bedoelt, maar meer als feit met inside-info in m'n achterhoofd. ;)

Ze mogen blij zijn als ze Q4 halen met GT300. En ik verwacht dit keer ook weer "Are You Ready" achtige praktijken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!
CJ schreef op woensdag 03 juni 2009 @ 12:36:
Mijn vorige bericht was dan ook niet echt als speculatie bedoelt, maar meer als feit met inside-info in m'n achterhoofd. ;)

Ze mogen blij zijn als ze Q4 halen met GT300. En ik verwacht dit keer ook weer "Are You Ready" achtige praktijken.
nVidia kennende gaan ze de boel weer hypen en ook op dit moment hebben ze best veel aanhang die het gaat geloven. In de tijd van de NV30 hadden ze de sterkte GF1,2,3 en 4 Gehad. Nu ook weer een relatief sterkte GF8 en GT200 serie. Dus ik vrees dat potentiële kopers het dit keer oon wel zullen geloven.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 134818

De marketing blah komt er vast wel ja. Ik hoop dat AMD/ATI hun lijn van agressieve marketing ook door zetten. Vecht vuur met vuur.

Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 13:25
Anoniem: 134818 schreef op woensdag 03 juni 2009 @ 12:51:
De marketing blah komt er vast wel ja. Ik hoop dat AMD/ATI hun lijn van agressieve marketing ook door zetten. Vecht vuur met vuur.
Ik denk dat de marketing blah niet meer zo veel zal uitmaken als de prijs/prestatie verhouding goed is. Ik koop gewoon het beste product binnen budget, en ik denk dat er maar een klein percentage van de gamers zijn aanschaf van marketing laat afhangen.

Ati kan zich beter storten op betere cont(r)acten met de grote systeembouwers. Aangezien de meeste mensen nog steeds een compleet systeem aanschaffen, en ik het idee heb dat nvidia doorgaans de keuze is van de systeembouwers.

Acties:
  • 0 Henk 'm!

  • jorisw86
  • Registratie: Januari 2004
  • Laatst online: 07-05 17:04
weet niet of dit het goede topic is hiervoor.

anders gaarne na de goede verwijzen.

heb een ati kaartje om 2 schermen aan te sturen gewoon voor werk.

hoe heet de software waarmee je dus apps van scherm 1 naar 2 kan verplaatsen en weer terug door middel van key shortcuts?

Acties:
  • 0 Henk 'm!
Hydravision: http://ati.amd.com/products/hydravision/index.html (incl. downloadlinks)

En dit is inderdaad niet het goede topic daarvoor.

[ Voor 29% gewijzigd door CJ op 03-06-2009 13:08 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 134818

whiteguy schreef op woensdag 03 juni 2009 @ 13:05:
[...]

Ik denk dat de marketing blah niet meer zo veel zal uitmaken als de prijs/prestatie verhouding goed is. Ik koop gewoon het beste product binnen budget, en ik denk dat er maar een klein percentage van de gamers zijn aanschaf van marketing laat afhangen.

Ati kan zich beter storten op betere cont(r)acten met de grote systeembouwers. Aangezien de meeste mensen nog steeds een compleet systeem aanschaffen, en ik het idee heb dat nvidia doorgaans de keuze is van de systeembouwers.
Wij zijn tweakers dat is heel anders. Voor het gros zegt het niets. Vandaar de 9500GT 1GBs, HD4650 1GBs. Veel geheugen waar je niets aan hebt, maar het gros zegt die heeft meer dus beter. Helaas zal het een grotere gros zin dan je denkt.

Dat ben ik zeker met je eens. Al begint dat ook te veranderen. Zie recente bericht van Dell. Ze moeten denk ik ook nog wat intensiever gaan samenwerken met game makers. Zeker voor CF is het toch de profielen die de performance maken of breken. Hoe sneller die goed zitten hoe beter.

Acties:
  • 0 Henk 'm!
whiteguy schreef op woensdag 03 juni 2009 @ 13:05:
[...]

Ik denk dat de marketing blah niet meer zo veel zal uitmaken als de prijs/prestatie verhouding goed is. Ik koop gewoon het beste product binnen budget, en ik denk dat er maar een klein percentage van de gamers zijn aanschaf van marketing laat afhangen.

Ati kan zich beter storten op betere cont(r)acten met de grote systeembouwers. Aangezien de meeste mensen nog steeds een compleet systeem aanschaffen, en ik het idee heb dat nvidia doorgaans de keuze is van de systeembouwers.
Owhnee ? ik denk dat marketing heel veel uit maakt. Doordat je altijd een nVidia plaatje ziet bij elk spel wat je speelt zul je een nVidia kaart kopen als je er geen verstand van hebt. Ook al die duurder is. Marketing doet heel veel. Met marketing kun je van een slecht product een top seller maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
AMD moet juist véél meer aan samenwerking met game developers gaan doen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 13:25
Anoniem: 134818 schreef op woensdag 03 juni 2009 @ 13:10:
[...]

Wij zijn tweakers dat is heel anders. Voor het gros zegt het niets. Vandaar de 9500GT 1GBs, HD4650 1GBs. Veel geheugen waar je niets aan hebt, maar het gros zegt die heeft meer dus beter. Helaas zal het een grotere gros zin dan je denkt.

Dat ben ik zeker met je eens. Al begint dat ook te veranderen. Zie recente bericht van Dell. Ze moeten denk ik ook nog wat intensiever gaan samenwerken met game makers. Zeker voor CF is het toch de profielen die de performance maken of breken. Hoe sneller die goed zitten hoe beter.
Crossfire... tja. Leuk voor de benchmarks enzo, maar hoeveel mensen draaien daadwerkelijk hun videokaarten in crossfire of sli? Juist:
http://store.steampowered.com/hwsurvey

2,00 % Nvidia SLI (dual)
0,23 % Ati crossfire
0,03 % Nvidia SLI (quad)
0,02 % Nvidia SLI (triple)

Het gros zal toch gewoon gaan voor een single chip kaart in de midrange. Wat dat betreft is het jammer om te lezen dat die 4770 yields momenteel zo laag zijn. Dat is imo echt een hele leuke kaart om het crossfire percentage omhoog te krijgen.

Acties:
  • 0 Henk 'm!
Jep meer samen werken en dat ook meer laten blijken aan de klant. Want hoe vaak zie je nu AMD en ATi logo's ? en hoe vaak nVidia en Intel logo's ? Het helpt gewoon mee aan de naams bekendheid.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
whiteguy schreef op woensdag 03 juni 2009 @ 13:28:
[...]

Crossfire... tja. Leuk voor de benchmarks enzo, maar hoeveel mensen draaien daadwerkelijk hun videokaarten in crossfire of sli? Juist:
http://store.steampowered.com/hwsurvey

2,00 % Nvidia SLI (dual)
0,23 % Ati crossfire
0,03 % Nvidia SLI (quad)
0,02 % Nvidia SLI (triple)

Het gros zal toch gewoon gaan voor een single chip kaart in de midrange. Wat dat betreft is het jammer om te lezen dat die 4770 yields momenteel zo laag zijn. Dat is imo echt een hele leuke kaart om het crossfire percentage omhoog te krijgen.
Vergeet niet dat Crossfire ook gebruikt wordt voor X2 kaarten (4870 X2 etc).

March of the Eagles


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 13:25
Hacku schreef op woensdag 03 juni 2009 @ 13:32:
[...]


Vergeet niet dat Crossfire ook gebruikt wordt voor X2 kaarten (4870 X2 etc).
Ik ging er stiekem wel een beetje vanuit dat dat in dat percentage verwerkt zat. Hoewel het dan misschien wel ERG laag is die 0,23%

Acties:
  • 0 Henk 'm!

Anoniem: 134818

Jahoor, alsof steam wat zegt over alle gamers. CF/SLi groeit steeds en steeds meer. Zeker onder gamers die wat meer eisen.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
whiteguy schreef op woensdag 03 juni 2009 @ 13:33:
[...]

Ik ging er stiekem wel een beetje vanuit dat dat in dat percentage verwerkt zat. Hoewel het dan misschien wel ERG laag is die 0,23%
Ik gok die kaarten gewoon onder HD 4800 Serie staan en niet onder Crossfire.

[ Voor 62% gewijzigd door XWB op 03-06-2009 13:34 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Stephan224
  • Registratie: Maart 2002
  • Laatst online: 31-10-2022
Hacku schreef op woensdag 03 juni 2009 @ 13:21:
AMD moet juist véél meer aan samenwerking met game developers gaan doen.
Sterk opgemerkt, ik zat hier dus ook al aan te denken. De hoofdzakelijke reden dat nVidia met de introductie van DirectX 10 zo goed van de grond kwam was door de samenwerking (support) van de game ontwikkelaars. AMD/ATI moet haast wel hetzelfde doen willen ze zich positioneren als eerste en de beste voor DirectX 11.

Software Developer, checkout my bitcoin software at my website www.haasonline.com (Trade Bots and more...)


Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 13:25
Anoniem: 134818 schreef op woensdag 03 juni 2009 @ 13:33:
[...]

Jahoor, alsof steam wat zegt over alle gamers. CF/SLi groeit steeds en steeds meer. Zeker onder gamers die wat meer eisen.
Het zal niet 100% representatief zijn, maar ik denk wel dat de mensen die een dual videokaart setup draaien juist eerder steam gebruiken dan mensen die op een geintegreerd videokaartje rollercoaster tycoon 1 spelen.
Wat dat betreft zou die hardware survey juist in het voordeel moeten zijn van high-end systemen.
Stephan224 schreef op woensdag 03 juni 2009 @ 13:35:
[...]


Sterk opgemerkt, ik zat hier dus ook al aan te denken. De hoofdzakelijke reden dat nVidia met de introductie van DirectX 10 zo goed van de grond kwam was door de samenwerking (support) van de game ontwikkelaars. AMD/ATI moet haast wel hetzelfde doen willen ze zich positioneren als eerste en de beste voor DirectX 11.
Ik dacht een tijdje geleden gelezen te hebben dat Ati hard aan de weg aan het timmeren was met blizzard, maar dat is alweer even terug en alweer een tijdje stil, of heb ik er overheen gelezen?
Misschien dat het bij release diablo3 enzo los gaat komen...

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Voor zover bekend is wordt Diablo 3 een DirectX 10.11 titel.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 134818

whiteguy schreef op woensdag 03 juni 2009 @ 13:43:
[...]

Het zal niet 100% representatief zijn, maar ik denk wel dat de mensen die een dual videokaart setup draaien juist eerder steam gebruiken dan mensen die op een geintegreerd videokaartje rollercoaster tycoon 1 spelen.
Wat dat betreft zou die hardware survey juist in het voordeel moeten zijn van high-end systemen.
Umm nee. Nog steeds niet. Ga maar eens in de samenstelling topics zitten. JE ziet steeds meer systemen met CF/SLI komen. Het blijft gewoon groeien. Zeker met het idee van small core 2 op een pcb word dat alleen nog maar meer.

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Reinman, je overschat het percentuele aandeel van tweakers in de consumenten markt. Ik kan garanderen dat die 2% spot-on is wat betreft retail verkoop in de grootste computer winkel van Nederland. Geen consument kent het en als deze het al kent (5%) dan besluit meer dan de helft om voor een single card per year tactiek te gaan omdat dit vaak net zoveel bang for the buck oplevert als SLi/CF per twee jaar :) .

Nee, die 2% zal niet overdreven zijn. Het is -zeker- geen 5%, bij zijn lange leven niet. Punt :p .

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 12:41

Pubbert

random gestoord

Weet iemand trouwens of er van de HD4770 of 4850/4830 modellen met singleslot coolers en HDMI zijn? Ik heb hier in één van de vorige topics ooit een aankondiging van gezien, maar vind het niet meer terug wel merk of type dit was.

Fatsoenlijke singleslot coolers zijn helaas ook niet echt verkrijbaar.

[ Voor 20% gewijzigd door Pubbert op 03-06-2009 14:41 ]

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Acties:
  • 0 Henk 'm!

  • Meekoh
  • Registratie: April 2005
  • Laatst online: 06-05 10:07
Help!!!! schreef op dinsdag 02 juni 2009 @ 20:17:
Is de DX11 api eigenlijk al helemaal af :?

Zou toch wel moeten om uberhaupt een DX 11 chip te kunnen ontwerpen, laat staan bakken.....

En komt DX11 nou wel of niet al standaard in W7 :?
Om iemand van 2 pagina's terug maar antwoord te geven.
Ja die is al geruime tijd af (op minor bugfixing na) en zal standaard in Windows 7 zitten. Daarnaast zal hij ook te installeren zijn op windows Vista.

Computer says no


Acties:
  • 0 Henk 'm!
Thund3r schreef op woensdag 03 juni 2009 @ 14:39:
Weet iemand trouwens of er van de HD4770 of 4850/4830 modellen met singleslot coolers en HDMI zijn?
Je kunt toch gewoon een verloopje van DVI naar HDMI gebruiken?

Niet dan wordt het zoeken. ;)

[ Voor 43% gewijzigd door -The_Mask- op 03-06-2009 14:49 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

AMD shows its new ATI Theater chip

HDTV for desktops and notebooks

In addition to a lot of product announcements during this week, AMD has also announced a new addition to the ATI Theater lineup, the ATI Theater HD 750 PC TV chip.

This little baby will offer HDTV for desktop and notebook PC systems and supports NTSC, ATSC, DVB-T, Clear-QAM, digital TV and PAL/SECAM, FM and DVB-T radio. (In other words, it supports everything out there.sub.ed.) It can be used for capturing and converting recorded TV content to popular formats such as H.264, AVI, MPEG, DviX, WMV and MPEG4. It also supports ATI's Stream when paired up with an ATI Radeon Stream capable card.

The new ATI Theater HD 750 should be available later this year as a PCI-Express add-on card, USB stick and any other way of implementing this chip for some HDTV action.

Afbeeldingslocatie: http://www.fudzilla.com/images/stories/2009/June/General%20News/ati_theaterhd750_1.jpg

Bron: Fudzilla

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
kunnen ze in de toekomst ook niet gewoon nieuwe directx functies via de driver toevoegen?
natuurlijk is dat dan een softwarematige oplossing en komt het de snelheid niet ten goede maar ja: wat moet een geforce 8600 of lager of een radeon 3400 etc. nou met hardwarematige dx10?

bijvoorbeeld: een geforce 8400 met dx10 of een 7900gtx met softwarematige dx10. ik denk dat de performance dan op de 7900gtx met dx10 nog sneller is.... zelfde met een ati 2600 ofzo t.o.v. de x1950xtx.

volgens mij gaat het ook zo werken ongeveer met larrabee (waarbij ze natuurlijk extra ''cores'' gaan toevoegen voor de highend)

gewoon een gedachte....

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
meljor schreef op woensdag 03 juni 2009 @ 18:06:
kunnen ze in de toekomst ook niet gewoon nieuwe directx functies via de driver toevoegen?
natuurlijk is dat dan een softwarematige oplossing en komt het de snelheid niet ten goede maar ja: wat moet een geforce 8600 of lager of een radeon 3400 etc. nou met hardwarematige dx10?

bijvoorbeeld: een geforce 8400 met dx10 of een 7900gtx met softwarematige dx10. ik denk dat de performance dan op de 7900gtx met dx10 nog sneller is.... zelfde met een ati 2600 ofzo t.o.v. de x1950xtx.

volgens mij gaat het ook zo werken ongeveer met larrabee (waarbij ze natuurlijk extra ''cores'' gaan toevoegen voor de highend)

gewoon een gedachte....
Of de snellere DX9 kaart met softwaregestuurde DX10/11 sneller zal zijn dan de 'tragere' DX10 compliant kaart, zal voornamelijk afhangen van je CPU. Die moet namelijk alles overnemen wat de videokaart niet kan doen, naast wat de CPU sowieso al moet doen voor de game. Dit kan in sommige gevallen dus betekenen dat er te veel rekenkracht onttrokken wordt voor het softwarematig renderen van DX10(.1)/11 zaken, waardoor er te weinig overblijft voor de game zelf, met als gevolg een performancehit. Dit zou ook kunnen leiden tot prestaties van je GF7950/Radeon X1950XTX die lager zijn dan die van de Radeon HD2600XT.

Acties:
  • 0 Henk 'm!
meljor schreef op woensdag 03 juni 2009 @ 18:06:
kunnen ze in de toekomst ook niet gewoon nieuwe directx functies via de driver toevoegen?
natuurlijk is dat dan een softwarematige oplossing en komt het de snelheid niet ten goede maar ja: wat moet een geforce 8600 of lager of een radeon 3400 etc. nou met hardwarematige dx10?

bijvoorbeeld: een geforce 8400 met dx10 of een 7900gtx met softwarematige dx10. ik denk dat de performance dan op de 7900gtx met dx10 nog sneller is.... zelfde met een ati 2600 ofzo t.o.v. de x1950xtx.

volgens mij gaat het ook zo werken ongeveer met larrabee (waarbij ze natuurlijk extra ''cores'' gaan toevoegen voor de highend)

gewoon een gedachte....
Nieuwe DX functies toevoegen via de driver = LRB. Het heeft voordelen en nadelen. Nadeel: de dedicated hardwarematige oplossing zal voorlopig sneller zijn. Voordeel: het is gemakkelijker om voor LRB te programmeren. Of het programmeervoordeel genoeg zal zijn om het snelheidsnadeel op te heffen betwijfel ik... tenminste in het begin zullen zowel nVidia als AMD sneller zijn met hun GPUs dan Intel.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
CJ schreef op woensdag 03 juni 2009 @ 18:20:
[...]


Nieuwe DX functies toevoegen via de driver = LRB. Het heeft voordelen en nadelen. Nadeel: de dedicated hardwarematige oplossing zal voorlopig sneller zijn. Voordeel: het is gemakkelijker om voor LRB te programmeren. Of het programmeervoordeel genoeg zal zijn om het snelheidsnadeel op te heffen betwijfel ik... tenminste in het begin zullen zowel nVidia als AMD sneller zijn met hun GPUs dan Intel.
ik ga er vanuit dat ze voorlopig nog sneller blijven, en wellicht nog een hele lange tijd.

feit blijft wel dat wanneer intel directx functies kan toevoegen aan hun oudere larrabee kaarten (dx12 bijv.), ze toch weer een enorm marketingvoordeel hebben. (directx upgradable graphics!)

leek me dus logisch dat die mogelijkheid er ook voor nvidia en ati moet zijn. en gezien mijn voorbeeld (7900gtx soft dx10 vs 8400 hardware dx10) misschien ook voor gebruikers erg nuttig.

en wat het cpu gebruik betreft: met de huidige multicore cpu's moet dan geen probleem zijn lijkt mij?
het aantal quad's gaat alleen maar stijgen en voorlopig blijven veel games nog wel speelbaar op de dualcores dus heb je 2 cores over voor wat software dx functies....

wellicht kunnen ze via opencl de cpu weer wat ontlasten van deze taak door de gpu alsnog te laten helpen (zonder dus de snellere hardwarematig directe functies te hebben)

Acties:
  • 0 Henk 'm!
Wat voor zin heeft het om bv DX12 functies toe te voegen aan LRB als dezelfde LRB in DX11 al 2x of 3x trager is dan een HD5870X2 of GTX380? Ja het is gemakkelijk, maar ik denk niet dat gamedevelopers er op zitten te wachten om slide-show games uit te brengen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
voor de duidelijkheid: het gaat me niet om de max. snelheid.
nogmaals: wat voor zit heeft een 8400gs met dx10?

sterker nog: de laatste igp's van intel ondersteunen dx10! slaat nergens op maar verkoopt wel.... dat is het punt.

persoonlijk mogen ze van mij ALLE low-end kaartjes iedere generatie achterwege laten met de laatste dx functies. staat leuk op de doos en veel mensen denken dat het bruikbaar is, en dat is erg misleidend.

maar dat was het punt nu even niet....

Acties:
  • 0 Henk 'm!
meljor schreef op woensdag 03 juni 2009 @ 18:42:
voor de duidelijkheid: het gaat me niet om de max. snelheid.
nogmaals: wat voor zit heeft een 8400gs met dx10?
DX10 was voor MS de kans om compleet opnieuw te beginnen. Een nieuw drivermodel, nieuwe hardware vereisten. MS heeft er voor gezorgd dat de processortime een stuk gereduceerd is tov DX9. En daar heeft zelfs een 8400GS of HD4350 voordeel bij boven een kaart die slechts DX9 is.
sterker nog: de laatste igp's van intel ondersteunen dx10! slaat nergens op maar verkoopt wel.... dat is het punt.
Omdat die het minimum ondersteunen, goedkoop zijn en Intel een grote speler is met veel macht (bundeling van processor + GPU = korting etc). Als de IGP slechts DX9 ondersteunde, dan zou deze geen Vista certificering krijgen en zou deze een stuk slechter verkocht worden... geen enkele notebook OEM of desktop OEM die zich er waarschijnlijk aan zou durven wagen... dat weet ik wel zeker, anders had men nog lang goedkope snellere DX9 kaarten zoals een 7900GTX kunnen blijven bakken op bv een kleiner process met hogere snelheid. Ze hadden misschien zelfs nog wel DX7 kaarten kunnen blijven bakken voor OEMs... Maar dat doet men niet omdat het de DX10 functies mist die belangrijk zijn om goed te functioneren in bv Vista.
persoonlijk mogen ze van mij ALLE low-end kaartjes iedere generatie achterwege laten met de laatste dx functies. staat leuk op de doos en veel mensen denken dat het bruikbaar is, en dat is erg misleidend.

maar dat was het punt nu even niet....
DX10 is niet alleen bedoelt voor betere graphics en snellere performance in games. Ook dingen waar je normaal niet bij stil staat hebben er voordeel bij. Het gaat niet alleen om de kleine groep mensen die tot de diehardgamers, fps-freaks of IQ-freaks behoren.

[ Voor 3% gewijzigd door CJ op 03-06-2009 18:55 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

CJ schreef op woensdag 03 juni 2009 @ 18:53:
DX10 was voor MS de kans om compleet opnieuw te beginnen. Een nieuw drivermodel, nieuwe hardware vereisten. MS heeft er voor gezorgd dat de processortime een stuk gereduceerd is tov DX9. En daar heeft zelfs een 8400GS of HD4350 voordeel bij boven een kaart die slechts DX9 is.
Maar dat is toch geen reden dat de LRB met DX12 geen voordeel zal hebben boven DX11? Of weet je al dat DX12 enkel verbeteringen zal inhouden t.o.v. DX11 zoals DX9 dat deed t.o.v. DX8? Zonder andere verbeteringen zoals bij DX10?

Acties:
  • 0 Henk 'm!
Je snapt denk ik het punt niet helemaal wat ik wil maken.

Je moet LRB zien als een CPU die GPU functies kan uitvoeren. We zitten nu ook niet massaal met Pentium 3 PCs die Vista draaien. Technisch gezien zou het mogelijk kunnen zijn, maar heeft het nut? Nee, want het is te traag. Zelfde verhaal met LRB. Je kan een LRB updaten met DX12, maar je zult hoogst waarschijnlijk een vernieuwde versie nodig hebben van LRB met meer cores om de boel goed te kunnen draaien. Intel is niet gek. Die willen ook geld verdienen....

Een GPU bouwen die continue opwaardeerbaar is via software updates EN ook nog eens tegelijkertijd genoeg snelheid heeft om die APIs goed te kunnen draaien, is volgens mij de heilige (en onbereikbare) graal... Nieuwe APIs vereisen meer rekenkracht. En die krijg je er niet zo maar bij (kleine uitzondering is multi-GPU setups, maar daar houdt het ook een keertje op bij 4 videokaarten).

Overigens over die berekening hierboven van de grootte van de DX11 GPU van AMD... men gaat er nu even voor de leukigheid uit dat dit RV870/Evergreen is. Dit is nergens vermeldt. Het zou net zo goed RV830 of RV840 kunnen zijn. ;)

[ Voor 11% gewijzigd door CJ op 03-06-2009 19:26 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

Ja, maar daar bracht iemand tegenin dat een GF8400 ook te traag is om te kunnen genieten van DX10. Jij stelt daar tegenover dat DX10 meer is dan zomaar een update, het is een heuse upgrade. Ik stel dan dat LRB eventueel ook nut kan hebben bij DX12 indien die ook meer is dan een simpele update van DX11. Niet?

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
precies.

het gaat me dus helemaal niet om de snelheid maar om de functies die ondersteund worden (software of hardwarematig maakt dan niet uit)

intel ondersteund dx10 ook voornamelijk softwarematig met de huidige igp's.

dat de low-end dx10 moet hebben voor certificering voor vista gaat dus ook niet op: een 7900gtx die het softwarematig ondersteund zou hebben had het dan ook gekregen.

look at it this way: ATi ondersteund nu dx10.1 (hw matig) en nvidia niet. zouden ze nu dx10.1 functies kunnen toevoegen via de driver dan hadden ze op zijn minst hetzelfde stickertje op de doos kunnen zetten (alleen danmet hele kleine lettertjes (software matig).

hetzelfde dus straks met LRB: dx12 komt uit en dezelfde dag heeft intel een driverupdate met dx12 ondersteuning. draait voor geen meter qua fps maar werkt wel!

als SMC op dat moment net afgebrand is (noem maar een reden) en de dx12 kaartjes van ATi en NV zijn nog niet op de markt, wie scoort er dan de meeste onwetende klanten? (of misschien wel alle klanten als LRB qua dx11 al even snel zou zijn....)

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
meljor schreef op woensdag 03 juni 2009 @ 18:06:
kunnen ze in de toekomst ook niet gewoon nieuwe directx functies via de driver toevoegen?
natuurlijk is dat dan een softwarematige oplossing en komt het de snelheid niet ten goede maar ja: wat moet een geforce 8600 of lager of een radeon 3400 etc. nou met hardwarematige dx10?

bijvoorbeeld: een geforce 8400 met dx10 of een 7900gtx met softwarematige dx10. ik denk dat de performance dan op de 7900gtx met dx10 nog sneller is.... zelfde met een ati 2600 ofzo t.o.v. de x1950xtx.

volgens mij gaat het ook zo werken ongeveer met larrabee (waarbij ze natuurlijk extra ''cores'' gaan toevoegen voor de highend)

gewoon een gedachte....
Nee, dat is helemaal niet mogelijk. DirectX 10 vereist unified shaders wat een 7900GTX helemaal niet heeft, en je met software ook niet gaat emuleren.

March of the Eagles


Acties:
  • 0 Henk 'm!
CJ schreef op woensdag 03 juni 2009 @ 19:24:
Overigens over die berekening hierboven van de grootte van de DX11 GPU van AMD... men gaat er nu even voor de leukigheid uit dat dit RV870/Evergreen is. Dit is nergens vermeldt. Het zou net zo goed RV830 of RV840 kunnen zijn. ;)
Daar zat ik wel even aan te denken ja. RV830 lijkt me niet dan eerder de RV840. Maar dan zou die al een hele klap sneller zijn dan de HD4890. Maar niet dat ik het erg vind hoor :P

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
Hacku schreef op woensdag 03 juni 2009 @ 19:43:
[...]


Nee, dat is helemaal niet mogelijk. DirectX 10 vereist unified shaders wat een 7900GTX helemaal niet heeft, en je met software ook niet gaat emuleren.
kan wel, MS doet het toch ook met warp10?

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nogmaals, dat wil je helemaal niet (tenzij je met onderstaande framerates genoegen neemt):

Afbeeldingslocatie: http://tweakers.net/ext/f/QWvnlcHpOeXSeR8c5oUBrrYS/full.png

March of the Eagles


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
nee, intel g35 is snel zeker? en snelheid is dus niet het punt.

en warp10 is dus compleet op de cpu. kan me voorstellen dat er ook functies in dx10 zitten die een dx9 kaart ook kan, waardoor het alweer stukken sneller is.

misschien voorgaande posts ook even goed lezen, wellicht snap je mijn punt dan beter.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Een DX9 kaart heeft, zoals eerder vermeld, geen unified shaders. Daardoor zal het dus ook nooit DX10 calls kunnen doen, omdat deze nu eenmaal die unified shaders nodig heeft. Daardoor zullen alle DX10 calls via de CPU verwerkt moeten worden.

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-05 18:03
Afbeeldingslocatie: http://images.hardwareinfo.net/extcontent/messages_normal/00485920.jpg
Als ik naar die wafer shots kijk denk ik ... dual shader engine ...

[ Voor 21% gewijzigd door oeLangOetan op 03-06-2009 20:40 ]


Acties:
  • 0 Henk 'm!
oeLangOetan schreef op woensdag 03 juni 2009 @ 20:38:
[afbeelding]
Als ik naar die wafer shots kijk denk ik ... dual shader engine ...
Ik zie denk ik niet wat je bedoelt. Enige wat ik zie is dat er in elke die 4 blokjes zichtbaar zijnn maar het is nog maar de vraag of dat wat betekend. Denk het niet gezien de geschatte die grote.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 12:39
CJ schreef op woensdag 03 juni 2009 @ 19:24:


Overigens over die berekening hierboven van de grootte van de DX11 GPU van AMD... men gaat er nu even voor de leukigheid uit dat dit RV870/Evergreen is. Dit is nergens vermeldt. Het zou net zo goed RV830 of RV840 kunnen zijn. ;)
Die suggestie wordt natuurlijk wel gewekt door de demo (links boven in de hoek) samen met de wafer te tonen
Afbeeldingslocatie: http://resources.vr-zone.com//uploads/7136/IMG_2977.JPG

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

meljor schreef op woensdag 03 juni 2009 @ 20:19:
nee, intel g35 is snel zeker? en snelheid is dus niet het punt.

en warp10 is dus compleet op de cpu. kan me voorstellen dat er ook functies in dx10 zitten die een dx9 kaart ook kan, waardoor het alweer stukken sneller is.

misschien voorgaande posts ook even goed lezen, wellicht snap je mijn punt dan beter.
Ben je zeker dat DX10 te emuleren valt op een DX9 kaartje? Indien niet, moet het volledig via de cpu, en dan lijkt het mij onzinnig om DX functionaliteit die hoger ligt dan wat het kaartje hardwarematig aankan in de driver te integreren, als het om meer gaat dan puur het hebben van de functionaliteit. Grafische kaarten om te gamen hebben er dus niets aan (nog altijd aangenomen dat DX10 niet geëumuleerd kan worden op een DX9 kaartje) omdat daar de prestaties van het allergrootste belang zijn.

Daartegenover begrijp ik best dat een GF8400 kaartje hardwarematig DX10 heeft, en dat is omdat het een afgestompt GF8800 kaartje is, welk hardwarematige DX10 moet hebben om competitief te zijn in de gamersmarkt. HW DX10 is dus een neveneffect van het feit dat een GF8400 geen apart ontwerp is, alhoewel het niet echt nodig is in die categorie. Daarom zal Intel DX10 ook niet volledig hardwarematig integreren, omdat het niet nodig is, aangezien HW DX10 enkel voor betere prestaties zorgt; iets wat niet nodig is in de markt van Intel's IGP's.

Nu weet ik echter niet in hoeverre Intel zich op de gamersmarkt wil focussen met de nieuwe LRB, en waarom ze een bepaalde versie van DX wel of niet hardwarematig willen implementeren. Kan iemand hier klaarheid scheppen?

Acties:
  • 0 Henk 'm!

  • sn33ky
  • Registratie: Juni 2004
  • Laatst online: 04-05 21:08
Is deze score normaal voor mijn setup? zou het graag willen weten omdat ik totaal geen idee heb.

3D mark vantage P16289 3DMarks

i7 920
4870 1GB + 4850X2 1GB

Acties:
  • 0 Henk 'm!
sn33ky schreef op woensdag 03 juni 2009 @ 21:09:
Is deze score normaal voor mijn setup? zou het graag willen weten omdat ik totaal geen idee heb.

3D mark vantage P16289 3DMarks

i7 920
4870 1GB + 4850X2 1GB
GoT 3DMark Challenge deel 6

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-05 18:03
Astennu schreef op woensdag 03 juni 2009 @ 20:47:
[...]


Ik zie denk ik niet wat je bedoelt. Enige wat ik zie is dat er in elke die 4 blokjes zichtbaar zijnn maar het is nog maar de vraag of dat wat betekend. Denk het niet gezien de geschatte die grote.
4 blokjes, 2 iets kleiner, 2 iets groter
Met veel verbeelding denk ik aan 2x (een groep ALU's + een stuk fixed function logic). Elke core kan aan 1 shader programma werken.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
DevilsProphet schreef op woensdag 03 juni 2009 @ 20:59:
[...]


Nu weet ik echter niet in hoeverre Intel zich op de gamersmarkt wil focussen met de nieuwe LRB, en waarom ze een bepaalde versie van DX wel of niet hardwarematig willen implementeren. Kan iemand hier klaarheid scheppen?
naar eigen zeggen komt intel begin volgend jaar met een kaart die gelijkwaardig is qua 3d prestaties aan de gtx280. de vraag is natuurlijk of dat waarheid gaat worden maar klinkt veelbelovend voor een eerste poging sinds jaren om een goede 3d kaart te maken. LRB bestaat voornamelijk uit heel veel cores die gebaseerd zijn op pentium (1?) processors die samen flink wat parralelle berekeningen kunnen gaan doen en die dus makkelijk uitbreidbaar zijn d.m.v. extra cores in te bakken.

zover als ik begrepen heb (verbeter me aub als ik het mis heb) gaat deze gpu dus 3d berekeningen (dx, opengl, opencl etc. ) doen met x86 instructies. dus volgens mij gebeurt er erg veel softwarematig en kan op die manier ook makkelijk de functionaliteit vergroot worden (oftewel, nieuwere dx set toevoegen).

vandaar mijn verhaal of het niet zinnig is voor ati/nv om dat laatste ook te kunnen doen (natuurlijk wel ook snellere hartdwarematige kaarten maken, doet intel ook straks met LRB) via software/drivers.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 03-05 19:40

RuddyMysterious

a smorgasbord of waywardness

Het is maar afwachten of Intel dat hard kan maken, dat ze grafische instructies kunnen emuleren met voldoende hoge prestaties als gevolg.

Acties:
  • 0 Henk 'm!
oeLangOetan schreef op woensdag 03 juni 2009 @ 21:28:
[...]

4 blokjes, 2 iets kleiner, 2 iets groter
Met veel verbeelding denk ik aan 2x (een groep ALU's + een stuk fixed function logic). Elke core kan aan 1 shader programma werken.
Het zou zo maar kunnen. Maar goed we moeten nog even een maandje of 3 wachten voordat we daar achter zijn. Ik ben wel erg benieuwd wat het gaat worden. AMD heeft ook redelijk wat verandert toen ze van de RV670 naar de RV770 gingen. Meer dan je in de eerste instantie zou verwachten.

[ Voor 12% gewijzigd door Astennu op 03-06-2009 22:10 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Het valt me op dat niemand nog hierover is begonnen... deze slide:

Afbeeldingslocatie: http://www.pcper.com/images/reviews/724/20.jpg

Vooral punt nr 2. ISVs (Independent Software Vendors aka de gamedevelopers) krijgen deze maand al werkende DX11 hardware van AMD.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
ASUS EAH4890 Formula with F1 design influences

Afbeeldingslocatie: http://www.nordichardware.com/image3.php?id=8015

ASUS' specially designed cooler will be 33% more efficient than the reference cooler, while the dust-free fan will make the cooler up to 30% quieter. This is enough for ASUS to push the GPU clock frequency to 950MHz while the memory is stuck at the reference 3900MHz. Price was not revealed, but the card should appear shortly.

http://www.nordichardware.com/news,9415.html

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!
CJ schreef op woensdag 03 juni 2009 @ 22:17:
Het valt me op dat niemand nog hierover is begonnen... deze slide:

[afbeelding]

Vooral punt nr 2. ISVs (Independent Software Vendors aka de gamedevelopers) krijgen deze maand al werkende DX11 hardware van AMD.
Dat is interessant ja. Maar AMD lijkt nu ook heel erg zeker van hun zaak. Want je ziet het overal dat hun de eerste gaan zijn mte DX11 hardware. Ik denk dat we kunnen concluderen dat ze weer back in the game zijn. Ze lopen zeker een maand of 3 voor op nVidia als niet meer. Stel al is de GT300 een monster dan is het nog geen ramp omdat ze first to market zijn. Dat scheelt vaak ook al in de verkopen. + ze zijn dan ook al met de opvolger bezig.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 10:59
hahaha erg gave koeler van asus, nice.

ongelooflijk eigenlijk dat ATi een half jaar later was met dx10 en ze nu (waarschijnlijk) maanden eerder dan nvidia zijn met dx11. geweldige prestatie, zeker gezien het feit dat de prestaties ook weer aardig gelijk liggen en de r600 toendertijd aardig tekort schoot ook.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Bullus schreef op woensdag 03 juni 2009 @ 22:28:
ASUS EAH4890 Formula with F1 design influences
Die marketingafdeling mag me toch eens uitleggen wat het zo efficiënt mogelijk creëren van een zo hoog mogelijke neerwaardse druk te maken heeft met het zo efficiënt mogelijk transporteren van warmte van en koelblok naar lucht en die lucht vervolgens zo snel en efficiënt mogelijk afvoeren. _O-

Acties:
  • 0 Henk 'm!

  • whiteguy
  • Registratie: Januari 2000
  • Laatst online: 13:25
meljor schreef op woensdag 03 juni 2009 @ 22:42:
hahaha erg gave koeler van asus, nice.

ongelooflijk eigenlijk dat ATi een half jaar later was met dx10 en ze nu (waarschijnlijk) maanden eerder dan nvidia zijn met dx11. geweldige prestatie, zeker gezien het feit dat de prestaties ook weer aardig gelijk liggen en de r600 toendertijd aardig tekort schoot ook.
Is gewoon een goede gok gebleken.
Ik vind overigens dit artikel wel een must-read die in de OP mag:
http://www.anandtech.com/video/showdoc.aspx?i=3469
Een hoop leeswerk, maargoed het is het wel waard.

Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 07-05 22:19

Splinter Cell

Glasvezel MASTER RACE

Afbeeldingslocatie: http://www.plaatjesupload.nl/bekijk/2009/06/03/1244066343-280.jpg
Compute Shader accelerates video transcoding: 21,74 vs. 28,57 fps
http://www.pcgameshardwar...ctX-11-GPUs-in-40nm/News/

Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 06-05 20:00
Gek is dat ze in het plaatje hebben over niet accelerated vs accelerated, en in het onderschrift bij het plaatje over allebei accelerated maar de rechter dan via compute shaders...
Ik neem maar aan dat ze allebei accelerated zijn, anders zou het echt het lompste verschil ooit zijn en totaal geen aanprijzing voor de compute shaders..!

Acties:
  • 0 Henk 'm!

  • Zeus
  • Registratie: Juni 2003
  • Laatst online: 12:15
Lees net op beyond3d dat 40nm bij TSMC voor de komende weken stil ligt totdat de problemen opgelost zijn.

"Zeus was so enamored by Europa that he decided to seduce and ravage her. "


Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 24-04 21:47

Ultraman

Moderator Harde Waren

Boefje

whiteguy schreef op woensdag 03 juni 2009 @ 23:48:
[...]

Is gewoon een goede gok gebleken.
Ik vind overigens dit artikel wel een must-read die in de OP mag:
http://www.anandtech.com/video/showdoc.aspx?i=3469
Een hoop leeswerk, maargoed het is het wel waard.
Volgens mij is die ook al lang en breed langs gekomen in het topic. Het is dan ook al best een oud verhaal.
Maar blijft mooi :)

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!
Heer Hertog schreef op donderdag 04 juni 2009 @ 01:33:
Lees net op beyond3d dat 40nm bij TSMC voor de komende weken stil ligt totdat de problemen opgelost zijn.
Dat is oud nieuws en in halfbakken Engels gepost... zou in de verleden tijd moeten zijn gepost. Op deze manier komen dus rare/valse geruchten de wereld in.... ;) Problemen zijn opgelost en een soort van vernieuwd/getweakt 40nm proces wordt toegepast op de RV740 en alle andere aankomende 40nm producten. Vandaar dat mass production voor bijna alle 40nm producten van zowel nVidia (GT216/218) en AMD (RV740/etc) in Augustus gepland staat.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29
CJ schreef op donderdag 04 juni 2009 @ 01:55:
[...]


Dat is oud nieuws en in halfbakken Engels gepost... zou in de verleden tijd moeten zijn gepost. Op deze manier komen dus rare/valse geruchten de wereld in.... ;) Problemen zijn opgelost en een soort van vernieuwd/getweakt 40nm proces wordt toegepast op de RV740 en alle andere aankomende 40nm producten. Vandaar dat mass production voor bijna alle 40nm producten van zowel nVidia (GT216/218) en AMD (RV740/etc) in Augustus gepland staat.
Kun je iets zeggen over de yields die nu gehaald worden met 40nm TSMC? Ik zag iets verder terug in het topic 20% of minder langskomen voor de HD4770. Tot welk percentage is dit nu verhoogd?

Goud is geen geld


Acties:
  • 0 Henk 'm!
Deels offtopic:
Intels toekomstige discrete videokaart, met de codenaam Larrabee, zou wat betreft prestaties ongeveer de gelijke zijn van Nvidia's GTX285. Intel geeft echter te kennen dat Larrabee 'market dominating' tijdens de introductie zal zijn.

Terwijl de Computex-beursin volle gang is en Intel tot nog toe niets loslaat over zijn op stapel staande videokaart, genaamd Larrabee, probeerde Tom's Hardware erachter te komen hoe snel Larrabee nu ongeveer is. Volgens een anonieme bron zouden de prestaties van Larrabee in de buurt liggen van die van Nvidia's GeForce GTX285. De GTX285 beschikt over Nvidia's snelste gpu van dit moment, maar de introductie van zowel Nvidia's als AMD's nieuwe generatie gpu's zou min of meer samenvallen met het uitbrengen van Larrabee.

De anonieme bron wist verder nog te vertellen dat er het een en ander zou kunnen veranderen aan het chipontwerp, maar het ligt niet in de lijn der verwachting dat Intel meteen mee gaat strijden in het high-end-segment. Intel daarentegen zegt dat het met Larrabee dezelfde aanpak volgt als met zijn ssd's: het zonder veel bombarie afleveren van producten die sneller zijn dan al het andere dat op de markt is. Vooralsnog blijft het echter vooral giswerk naar de prestaties van Larrabee, aangezien deze op een compleet andere wijze werkt dan de huidige videokaarten.
Ik snap niet hoe LRB dan market dominating kan zijn. Willen ze dat ding dan als mid range kaart tov de RV840 zetten voor een bedrag van 100 euro ? Met GTX285 performance hebben ze gewoon niet genoeg in huis. Ik verwacht dat nVidia met de GT300 daar met 60-80% overheen gaat. En ATi met hun X2 70-100%. Dus dan stelt LRB niet veel voor. En het is nog maar de vraag of de performance van LRB in alle games rond GTX285 level zit. (al moet ik zeggen dat ik GTX285 performance nog erg netjes vind had er zelf nog minder van verwacht.)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik snap niet hoe LRB dan market dominating kan zijn.
Dat zijn ze toch al, Intel heeft het grootste marktaandeel in graphics.
Met GTX285 performance hebben ze gewoon niet genoeg in huis.
De huidige samples leveren GTX285 performance. Ze kunnen gewoon cores toevoegen als er meer performance nodig is. Ze wachten wel even af tot de nieuwe grafische kaarten van AMD en nVidia op de markt zijn.

March of the Eagles


Acties:
  • 0 Henk 'm!
Hacku schreef op donderdag 04 juni 2009 @ 11:13:
[...]


Dat zijn ze toch al, Intel heeft het grootste marktaandeel in graphics.


[...]


De huidige samples leveren GTX285 performance. Ze kunnen gewoon cores toevoegen als er meer performance nodig is. Ze wachten wel even af tot de nieuwe grafische kaarten van AMD en nVidia op de markt zijn.
Tja als je het zo gaat bekijken.... Dan is intel markt dominating LRB niet. Ik ben benieuwd maar ik moet het allemaal eerst zien voor ik het geloof. Gezien de huidige die size van AMD kunnen ze ook nog wel het een en ander er bij plakken. Dus een nog veel krachtigere RV890 moet geen probleem zijn. + Hoeveel cores heeft intel nodig om GTX285 performance te halen ? hoe groot zijn die ? wat verbruiken die ? Helaas weten we daar nog veel te weinig over.

Ik vind het eigenlijk maar niets dat Intel mee gaat doen in de high end. Ze zijn al veel te groot. Straks gaat nVidia er misschien nog wel aan. Of snoepen ze behoorlijk wat marktaandeel weg en gaat er uiteindelijk een van de huidige spelers aan onderdoor. Een ding is zeker dat Intel blijft bestaan. Misschien is het in de eerste instantie goed voor de consument maar uiteindelijk ? Intel heeft namelijk hele andere budgetten. En dat is ook de rede dat LRB nu zo snel is omdat ze gewoon ontzettend veel geld en resources hebben. Het zou me niets verbazen als in de toekomst AMD en nVidia helemaal niet meer bestaan. En Intel als enige over is. Qua VGA en CPU´s. Want AMD staat er al niet al te sterk voor (altijd al in een moeilijke positie gezeten).

Misschien is dit wel weer wat veel doom scenario denken maar zo denk ik er nou een maal over.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op donderdag 04 juni 2009 @ 11:41:
Misschien is dit wel weer wat veel doom scenario denken maar zo denk ik er nou een maal over.
Zo snel zal het niet gaan, vergeet niet dat we ook nog Neelie Kroes hebben. :D

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 01-05 09:33
ik denk dat velen vergeten dat intel qua techniek verder staat dan AMD of nVidia
het is niet alleen het toevoegen van cores, de huidige samples draaien wellicht op een relatief lage kloksnelheid (meestal is dat toch zo)
de snelste Ati kaarten zitten rond de 1GHz, veel kans dat intel z'n Larabee op minstens 2GHz zal draaien of hoger
bij een dergelijk groot verschil in kloksnelheid moet je toch opletten denk ik

(persoonlijk snap ik dan ook niet waarom Ati of nVidia de kloksnelheden niet drastisch omhoog gooien)

Acties:
  • 0 Henk 'm!
catfish schreef op donderdag 04 juni 2009 @ 11:49:
ik denk dat velen vergeten dat intel qua techniek verder staat dan AMD of nVidia
het is niet alleen het toevoegen van cores, de huidige samples draaien wellicht op een relatief lage kloksnelheid (meestal is dat toch zo)
de snelste Ati kaarten zitten rond de 1GHz, veel kans dat intel z'n Larabee op minstens 2GHz zal draaien of hoger
bij een dergelijk groot verschil in kloksnelheid moet je toch opletten denk ik

(persoonlijk snap ik dan ook niet waarom Ati of nVidia de kloksnelheden niet drastisch omhoog gooien)
Clocks zeggen helemaal niets :) Het gaat om het gene dat er onder ziet. Zie 5,5 GHz P4 vs een Intel Core 2 Op 3.4 GHz.

Wat anders leuks Anandtech heeft een OC test gedaan met de GTX275. En die tov de resultaten met de HD4890 1 GHz gezet. Het stroomverbruik is het leukste stukje van het resultaat:

Afbeeldingslocatie: http://images.anandtech.com/graphs/gtx275overclock_052609173423/19166.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/gtx275overclock_052609173423/19167.png

Ok idle is hij zuiniger en ik moet zelf ook toegeven dat ik dat belangrijker vind. Maar wel grappig dat die kaar zo veel meer gaat gebruiken met MAX oc. En dat hij zelfs meer verbruikt dan een HD4890 1 GHz.

Afbeeldingslocatie: http://images.anandtech.com/graphs/gtx275overclock_052609173423/19187.png

Qua performance was dit de slechte test voor ATi rest won de HD4890 en een test was na genoeg gelijk.

Afbeeldingslocatie: http://images.anandtech.com/graphs/gtx275overclock_052609173423/19187.png

[ Voor 9% gewijzigd door Astennu op 04-06-2009 12:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-04 21:46
catfish schreef op donderdag 04 juni 2009 @ 11:49:
ik denk dat velen vergeten dat intel qua techniek verder staat dan AMD of nVidia
het is niet alleen het toevoegen van cores, de huidige samples draaien wellicht op een relatief lage kloksnelheid (meestal is dat toch zo)
de snelste Ati kaarten zitten rond de 1GHz, veel kans dat intel z'n Larabee op minstens 2GHz zal draaien of hoger
bij een dergelijk groot verschil in kloksnelheid moet je toch opletten denk ik

(persoonlijk snap ik dan ook niet waarom Ati of nVidia de kloksnelheden niet drastisch omhoog gooien)
Vergeet niet dat we ook geen idee hebben wat de die-size is van de Larabee. Aangezien alles softwarematig gesimuleerd moet worden kan het maar al te goed zijn dat Intel wat meer transistors nodig heeft om GTX285 niveau te bereiken dan nVidia of AMD. Wat nou als Intel op 45nm (of maken ze hem direct op 32nm??) een die-size nodig heeft vergelijkbaar met de huidige GTX285? Kunnen ze misschien nog wel wat winst boeken door de snelheden nog wat op te schroeven, maar dan is er niet veel ruimte meer voor extra cores.

Je kunt zeggen wat je wilt, maar ik geloof eigenlijk gewoon niet dat Intel (ook al is het Intel) met vergelijkbaar productieproces en vergelijkbare die-size een product neer kan zetten dat softwarematig de AMD en nVidia kaarten verslaat die hardwarematige versnelling bieden (en vergeet niet dat zowel AMD als nVidia al heel wat jaren krachtige videokaarten bouwen).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik vind het eigenlijk maar niets dat Intel mee gaat doen in de high end.
Mwah, ik kijk er eigenlijk wel naar uit. Vooral qua developing op LRB ben ik erg benieuwd.
Straks gaat nVidia er misschien nog wel aan.
Intel is al goed bezig met nVidia eruit te drukken. Met chipsets is het sowieso al game over, enkel voor socket 775 kunnen ze nog chipsets maken maar dat zal ooit wel eens ophouden. En vergis je niet; chipsets zijn een groot deel van hun omzet.
Misschien is het in de eerste instantie goed voor de consument maar uiteindelijk ?
Het lijkt me alles behalve goed wanneer nVidia ervan tussen gaat.
Het zou me niets verbazen als in de toekomst AMD en nVidia helemaal niet meer bestaan.
AMD staat sowieso goed sinds de overname van ATI: ze hebben cpu's, gpu's en chipsets. Intel en AMD gaan straks veel zaken in de CPU wegwerken (PCI-E controller e.d., onboard graphics etc) en wat heeft nVidia op dat gebied? Rien.
Want AMD staat er al niet al te sterk voor (altijd al in een moeilijke positie gezeten).
Hoewel ze nu al heel lang verlies maken hebben ze juist wel een goed aanbod qua producten (cpu's, gpu's, chipsets). Daarnaast is AMD vaak innovatief: een doorsnee ander bedrijf zou in de financiële positie van AMD al lang failliet zijn.
Zo snel zal het niet gaan, vergeet niet dat we ook nog Neelie Kroes hebben. :D
Als Kroes er niet uit gaat tenminste ;)
Vergeet niet dat we ook geen idee hebben wat de die-size is van de Larabee. Aangezien alles softwarematig gesimuleerd moet worden kan het maar al te goed zijn dat Intel wat meer transistors nodig heeft om GTX285 niveau te bereiken dan nVidia of AMD. Wat nou als Intel op 45nm (of maken ze hem direct op 32nm??) een die-size nodig heeft vergelijkbaar met de huidige GTX285? Kunnen ze misschien nog wel wat winst boeken door de snelheden nog wat op te schroeven, maar dan is er niet veel ruimte meer voor extra cores.
Daarnaast zegt de GTX285 performance helemaal niks, dit is vast de ruwe performance, het aantal teraflop dat LRB kan leveren. Maar dat zegt niks over bv ingame performance.

[ Voor 23% gewijzigd door XWB op 04-06-2009 12:05 ]

March of the Eagles


Acties:
  • 0 Henk 'm!
Astennu schreef op donderdag 04 juni 2009 @ 11:41:
[...]


Tja als je het zo gaat bekijken.... Dan is intel markt dominating LRB niet. Ik ben benieuwd maar ik moet het allemaal eerst zien voor ik het geloof. Gezien de huidige die size van AMD kunnen ze ook nog wel het een en ander er bij plakken. Dus een nog veel krachtigere RV890 moet geen probleem zijn. + Hoeveel cores heeft intel nodig om GTX285 performance te halen ? hoe groot zijn die ? wat verbruiken die ? Helaas weten we daar nog veel te weinig over.
Erg groot. Volgens de laatste berichten is het huidige snelste model zo'n 600mm2 groot.

Over dat doomscenario. Zo'n vaart zal het wel niet lopen. En ik verwelkom een grote derde speler in de 3D Gamingmarkt met open armen. Ben erg benieuwd naar de prestaties van LRB. Intel heeft zelf al aangegeven dat ze met de eerste generatie niet specifiek mikken op de gamersmarkt, dus ik heb zelf nog geen hoge verwachtingen.... zeker gezien het feit dat LRB erg afhankelijk is van de drivers en Intel op graphicsgebied niet bekend staat om z'n goede drivers. Maar goed, dat er veel talent bij Intel rond loopt is wel duidelijk, zeker ook als je bedenkt dat er veel ATI en NVIDIA mensen in dienst zijn genomen bij Intel en je bedenkt dat het RV770 project geleid werd door een ex-Intel man.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-04 21:46
CJ schreef op donderdag 04 juni 2009 @ 12:24:
[...]


Erg groot. Volgens de laatste berichten is het huidige snelste model zo'n 600mm2 groot.

Over dat doomscenario. Zo'n vaart zal het wel niet lopen. En ik verwelkom een grote derde speler in de 3D Gamingmarkt met open armen. Ben erg benieuwd naar de prestaties van LRB. Intel heeft zelf al aangegeven dat ze met de eerste generatie niet specifiek mikken op de gamersmarkt, dus ik heb zelf nog geen hoge verwachtingen.... zeker gezien het feit dat LRB erg afhankelijk is van de drivers en Intel op graphicsgebied niet bekend staat om z'n goede drivers. Maar goed, dat er veel talent bij Intel rond loopt is wel duidelijk, zeker ook als je bedenkt dat er veel ATI en NVIDIA mensen in dienst zijn genomen bij Intel en je bedenkt dat het RV770 project geleid werd door een ex-Intel man.
Ja, ik ben het wel met je eens. Een derde speler is leuk en wie weet schaf ik wel een Larrabee aan om mee te spelen (als in: voor ontwikkelen). Het lijkt me fantastisch om op zo'n ding je eigen raytracer te maken oid. Ik ben heel erg benieuwd hoe Larrabee uitpakt en om eerlijk te zijn hoop ik gewoon ook dat ze het goed doen, want het idee is mooi en het geeft developpers veel meer vrijheid.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
Ik kijk ook uit naar LRB.
Al was het maar omdat het erg interessant is om te zien wat Intel met al hun resources ervan bakt.

Ondanks al hun resources vraag ik me af of ze in staat zijn drivers af te leveren die acceptabele/competitieve resultaten opleveren in nieuwe maar ook de oude games. Tevens is stabiliteit vd drivers natuurlijk belangrijk.

Zelf kan ik het me moeilijk voorstellen dat ze in 1 keer op het niveau van AMD of nVidia terecht kunnen komen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Wat info rechtstreeks van Computex waar mijn spion vandaag met de DX11 bak heeft kunnen spelen. De kaart had 1 powerconnector en een dual slot... cases met sidewindow ftw. En de demo was erg cool om te zien.

Evergreen is de gehele DX11 familie naam. Het staat dus inderdaad voor de familie planten/bomen die het gehele jaar door groen zijn zoals Cypress en Juniper. Cypress is de highend (RV870), Juniper is de midrange.

Oh en de wafer-shots... zijn omgedraaid. AMD wist dat de pers close-up shots zou maken en men dan naar de architectuur zou gaan zitten gissen. Daarom hebben ze 'm omgedraaid.

Edit: Hoorde net een erg sappig bericht.... dat GT300 naar volgend jaar is verschoven door NVIDIA. Het schijnt dat ze 'm niet goed aan de praat krijgen op 40nm. Ik ga nog ff door met onderzoeken.... eens zien of ik dezelfde feedback van meerdere bronnen terug kan krijgen....

[ Voor 39% gewijzigd door CJ op 04-06-2009 14:05 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Dooievriend
  • Registratie: Juni 2008
  • Niet online

Dooievriend

gitlab.com/JoD/exact

Misschien niet helemaal on-topic, maar vast wel interessant:
Europees onderzoekscenter TSMC in IMEC te Leuven

=> Ik fiets elke dag door het IMEC heen :D

'Mushrooming' is a marketing term that means feeding them sh*t and keeping them in the dark.


Acties:
  • 0 Henk 'm!

  • penetreerbeer
  • Registratie: Februari 2005
  • Laatst online: 31-03 21:55
CJ schreef op donderdag 04 juni 2009 @ 13:41:
Wat info rechtstreeks van Computex waar mijn spion vandaag met de DX11 bak heeft kunnen spelen. De kaart had 1 powerconnector en een dual slot... cases met sidewindow ftw. En de demo was erg cool om te zien.

Evergreen is de gehele DX11 familie naam. Het staat dus inderdaad voor de familie planten/bomen die het gehele jaar door groen zijn zoals Cypress en Juniper. Cypress is de highend (RV870), Juniper is de midrange.

Oh en de wafer-shots... zijn omgedraaid. AMD wist dat de pers close-up shots zou maken en men dan naar de architectuur zou gaan zitten gissen. Daarom hebben ze 'm omgedraaid.

Edit: Hoorde net een erg sappig bericht.... dat GT300 naar volgend jaar is verschoven door NVIDIA. Het schijnt dat ze 'm niet goed aan de praat krijgen op 40nm. Ik ga nog ff door met onderzoeken.... eens zien of ik dezelfde feedback van meerdere bronnen terug kan krijgen....
6-pin of 8-pin?

Slim dat ze de wafer omgedraaid hebben, ik was al bezig met extreem inzoomen om iets van structuur te kunnen zien.

Nvidia heeft wel al een DirectX 10(.1) 40nm klaar staan voor release eind deze maand of volgende maand. GT300 zal wel wat foutjes hebben.

Acties:
  • 0 Henk 'm!
CJ schreef op donderdag 04 juni 2009 @ 13:41:
Wat info rechtstreeks van Computex waar mijn spion vandaag met de DX11 bak heeft kunnen spelen. De kaart had 1 powerconnector en een dual slot... cases met sidewindow ftw. En de demo was erg cool om te zien.

Evergreen is de gehele DX11 familie naam. Het staat dus inderdaad voor de familie planten/bomen die het gehele jaar door groen zijn zoals Cypress en Juniper. Cypress is de highend (RV870), Juniper is de midrange.

Oh en de wafer-shots... zijn omgedraaid. AMD wist dat de pers close-up shots zou maken en men dan naar de architectuur zou gaan zitten gissen. Daarom hebben ze 'm omgedraaid.

Edit: Hoorde net een erg sappig bericht.... dat GT300 naar volgend jaar is verschoven door NVIDIA. Het schijnt dat ze 'm niet goed aan de praat krijgen op 40nm. Ik ga nog ff door met onderzoeken.... eens zien of ik dezelfde feedback van meerdere bronnen terug kan krijgen....
Het kan dus ook zo maar dat die DX11 kaart daar de RV840 was en niet de RV870. Hetzelfde geld voor die waver. En die vlakjes die wij zagen zijn dus de interconnects geweest :P Ach ja ze staan er tot nu toe goed voor. LRB zal er ook pas in 2010 zijn. Dus dan heeft AMD dit jaar de DX11 markt voor zichzelf. Als ze nu maar genoeg chips kunnen maken om aan de vraag te voldoen. Echter denk ik dat de vraag groter zal zijn als het aanbod.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
CJ schreef op donderdag 04 juni 2009 @ 13:41:
Wat info rechtstreeks van Computex waar mijn spion vandaag met de DX11 bak heeft kunnen spelen. De kaart had 1 powerconnector en een dual slot... cases met sidewindow ftw. En de demo was erg cool om te zien.
Welke kaart zat er dan in die bak, kan me niet voorstellen dat een high-end kaart maar 1 power connector nodig heeft.
cases met sidewindow ftw
GSM en foto nemen, of staat er een AMD knokploeg bij? :)
En de demo was erg cool om te zien.
Ja, demo's zijn leuk om te zien maar laten ook altijd meer zien dan we ooit in een game zullen zien. Hoe dan ook, dit jaar hoeven we DirectX 11 games te verwachten.
Edit: Hoorde net een erg sappig bericht.... dat GT300 naar volgend jaar is verschoven door NVIDIA. Het schijnt dat ze 'm niet goed aan de praat krijgen op 40nm. Ik ga nog ff door met onderzoeken.... eens zien of ik dezelfde feedback van meerdere bronnen terug kan krijgen....
Voor Q4 hoef je hem sowieso niet te verwachten ...

March of the Eagles


Acties:
  • 0 Henk 'm!
Nog geen antwoord op gekregen. Je hoort het later vandaag.
Slim dat ze de wafer omgedraaid hebben, ik was al bezig met extreem inzoomen om iets van structuur te kunnen zien.
Yep. Ze zijn erg slim bezig. :+
Nvidia heeft wel al een DirectX 10(.1) 40nm klaar staan voor release eind deze maand of volgende maand. GT300 zal wel wat foutjes hebben.
Mass production staat volgens hun eigen NV productslides voor augustus gepland. Partners krijgen begin juni pas de designkits van de 40nm GPUs (GT216 en GT218). Als de MP pas in Augustus begint dan hebben ze nu op dit moment nog niks klaar staan. Ja, een paperlaunch misschien. ;)

En GT300 die "wat foutjes" heeft? Hij kwam dood terug volgens m'n bron. Dus ja... foutjes inderdaad.

[ Voor 3% gewijzigd door CJ op 04-06-2009 14:33 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 13:21

superwashandje

grofheid alom

Astennu schreef op donderdag 04 juni 2009 @ 14:30:
[...]
Echter denk ik dat de vraag groter zal zijn als het aanbod.
wat weer te hoge prijzen inhoud :S

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op donderdag 04 juni 2009 @ 14:30:
[...]


Het kan dus ook zo maar dat die DX11 kaart daar de RV840 was en niet de RV870. Hetzelfde geld voor die waver. En die vlakjes die wij zagen zijn dus de interconnects geweest :P Ach ja ze staan er tot nu toe goed voor. LRB zal er ook pas in 2010 zijn. Dus dan heeft AMD dit jaar de DX11 markt voor zichzelf. Als ze nu maar genoeg chips kunnen maken om aan de vraag te voldoen. Echter denk ik dat de vraag groter zal zijn als het aanbod.
Niet dat ik je droom wil ontnemen, maar over welke DirectX 11 markt heb je het dan? Zoals gezegd, voor 2010 hoef je helemaal geen DirectX 11 games te verwachten. AMD heeft natuurlijk als voordeel dat developers als eerste met hun hardware aan de slag kunnen. Dat is deze maand volgens een slide hierboven. Maar dan heb je onmogelijk over een half jaar al DirectX 11 games op de markt.

March of the Eagles


Acties:
  • 0 Henk 'm!
CJ schreef op donderdag 04 juni 2009 @ 14:33:
[...]


Nog geen antwoord op gekregen. Je hoort het later vandaag.


[...]


Yep. Ze zijn erg slim bezig. :+


[...]


Mass production staat volgens hun eigen NV productslides voor augustus gepland. Partners krijgen begin juni pas de designkits van de 40nm GPUs (GT216 en GT218). Als de MP pas in Augustus begint dan hebben ze nu op dit moment nog niks klaar staan. Ja, een paperlaunch misschien. ;)

En GT300 die "wat foutjes" heeft? Hij kwam dood terug volgens m'n bron. Dus ja... foutjes inderdaad.
toon volledige bericht
Ik vind het nog steeds vaag dat ze nu ineens wel met DX10.1 kaarten aan komen zetten. Misschien zagen ze de problemen met de GT300 al aankomen ?
Hacku schreef op donderdag 04 juni 2009 @ 14:40:
[...]


Niet dat ik je droom wil ontnemen, maar over welke DirectX 11 markt heb je het dan? Zoals gezegd, voor 2010 hoef je helemaal geen DirectX 11 games te verwachten. AMD heeft natuurlijk als voordeel dat developers als eerste met hun hardware aan de slag kunnen. Dat is deze maand volgens een slide hierboven. Maar dan heb je onmogelijk over een half jaar al DirectX 11 games op de markt.
Zie ook de GF8 serie hoe die het in het begin deed. Toen waren er ook geen DX10 games. Maar veel mensen kochten toen een GF8 1: omdat hij echt super snel was 2: klaar was voor de toekomst.

Ik gok dat dit bij de HD58xx serie ook zo zal zijn mits de performance een beetje goed is maar dat lijkt goed te komen.
superwashandje schreef op donderdag 04 juni 2009 @ 14:35:
[...]


wat weer te hoge prijzen inhoud :S
Hogere misschien wel. Maar gok nog steeds op +-300 euro voor de HD5870 en iets van 550 voor de HD5870 X2. Daar na is het wachten op nVidia en dan worden de prijzen bij gesteld indien nodig zodat de prijs performance weer net zo is als bij de HD48xx serie.

[ Voor 11% gewijzigd door Astennu op 04-06-2009 15:02 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik vind het nog steeds vaag dat ze nu ineens wel met DX10.1 kaarten aan komen zetten. Misschien zagen ze de problemen met de GT300 al aankomen ?
Dat is een mogelijkheid, een DirectX 11 game zou - als het klopt uiteraard - vlotter draaien op DirectX 10.1 hardware dan op DirectX 10 hardware.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07-05 07:12

SG

SG surft naar info hardewaren

DX10.1 is belangrijk voor de OEM klant waar het grotere cijferspel voor marketing goed gebruikt kan worden.
Notebook OEM's zouden dus ATI prefereren. Misschien dat hun vertegenwoordigers van nV daar vaker op gewezen zijn.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 07-04 15:29
superwashandje schreef op donderdag 04 juni 2009 @ 14:35:
[...]


wat weer te hoge prijzen inhoud :S
Als concurrent nVidia geen antwoord heeft hebben ze inderdaad meer ruimte om met de prijzen te gaan spelen. Toch zal dat denk ik niet gebeuren, omdat AMD zoveel mogelijk marktaandeel wil verkrijgen en het liefst zo snel mogelijk DX11 penetratie in de markt heeft voordat nVidia op de markt komt.

Zelfde als met de 8800GTX destijds, bijna iedereen had een DX10 GPU van nVidia dus als je een DX10 game ging bouwen hield je vooral rekening met de architectuur van die GPU's. Ditmaal kan AMD deze pioniersrol vervullen.

[ Voor 54% gewijzigd door frankknopers op 04-06-2009 15:37 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 13:21

superwashandje

grofheid alom

frankknopers schreef op donderdag 04 juni 2009 @ 15:33:
[...]

Als concurrent nVidia geen antwoord heeft hebben ze inderdaad meer ruimte om met de prijzen te gaan spelen. Toch zal dat denk ik niet gebeuren, omdat AMD zoveel mogelijk marktaandeel wil verkrijgen en het liefst zo snel mogelijk DX11 penetratie in de markt heeft voordat nVidia op de markt komt.
Ik hoop het in ieder geval, ze zijn nu denk ik ook mooi bezig weer wat marktaandeel van nvidia weg te halen. Van de andere kant kan ik me goed voorstellen dat het wel heel verleidelijk is om de kaarten wat hoger te prijzen als er toch geen antwoord/concurrentie is.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!