[Algemeen] ATi Nieuwsdiscussie Topic - Deel 95 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 6 Laatste
Acties:
  • 38.498 views

Verwijderd

Cheetah schreef op donderdag 11 december 2008 @ 18:24:
[...]
Maakt het dan zoveel uit of je 2 PCB's horizontaal of vertikaal aan elkaar 'vastplakt'?
Als de 4850X2 vertikaal aan elkaar was vastgeplakt als de GX2 dan had ie bijv. veel makkelijker (en in veel meer) kasten gepast... dus een "sandwich" kan ook voordelen hebben.
Ik denk dat de engineering/manufacturing afdeling het makkelijker vind om een single PCB te hebben ;)

maar goed. "elk nadeel heb ze voordeel"

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Cheetah schreef op donderdag 11 december 2008 @ 21:33:

@hieronder: Zeker joh. 1.) wederom niet lezen wat ik probeer te zeggen, en 2.) lijnrecht ingaan tegen wat ik net rechtstreeks quote van de FiringSquad review, want 't past niet in 't ATi straatje. Blij te zien dat er weinig is veranderd in dit topic...
Totdat jij kwam met je betweterige gezwam ging het prima hoor ;) Zoals altijd weet je er weer een mooie draai aan te geven.

Ontopic. Dubbel PCB design schiet zowiezo niet, de mogelijkheid voor een aftermarket koeler wordt je zo ontnomen, laat staan de mogelijkheid om er een waterblok op te doen, wat geen overbodige luxe is op zo'n warme kaart.

[ Voor 18% gewijzigd door Demon_Eyez op 11-12-2008 22:59 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Demon_Eyez schreef op donderdag 11 december 2008 @ 22:51:
[...]
Ontopic. Dubbel PCB design schiet zowiezo niet, de mogelijkheid voor een aftermarket koeler wordt je zo ontnomen, laat staan de mogelijkheid om er een waterblok op te doen, wat geen overbodige luxe is op zo'n warme kaart.
Ik kan mij wel waterblokken herinneren voor de 7950GX2 (en 7900GX2). Maar het maakt het wel lastiger ja, en vooral duurder. Ook zijn de traces tussen chips langer, wat zaken als signaalintegriteit iets meer aandacht doet vergen (in de praktijk maakt het overigens niks uit voor de nVidia vs. ATi oplossingen). Verder is er wel degelijk een voordeel aan twee PCBs i.p.v. een, daar je minder lagen nodig zal hebben (als je het handig aanpakt). Meer lagen maken PCBs duurder, en dat kan best een realistische afweging zijn voor zowel nVidia als ATi.
offtopic:
sowieso ;)

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

Verwijderd

Dan vraag ik me toch af wat er duurder is. Een enkele PCB met wat lagen meer of een tweede PCB met alle gevolgen voor constructie, verbindingen (alles moet via dat ene bruggetje op die plek) en koeling van dien.
Gebaseerd op het feit dat we het alleen bij high-end kaarten ontworpen voor de absoluut beste prestaties zien zou ik er op gokken dat een tweede PCB duurder is, maar dat is dan ook niet maar dan dat: een pure gok. :)

Acties:
  • 0 Henk 'm!

  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 06-08 17:19
TGEN schreef op donderdag 11 december 2008 @ 20:57:
[...]

Dat is geen verandering ten opzichte van 'normale' x86 CPUs, maar een uitbreiding van SSE. De Larrabee cores zullen net zo goed backwards compatible zijn met SSE2, waardoor generieke x86-64 code zal werken.
Ja maar met 1/4 van de performantie die je van larabee zou verwachten en wellicht nog minder omdat de cores in-order zijn & er weinig cache per core is (zie post SG).
Als je performante code wilt op de larabee draaien zal je sterk moeten optimaliseren voor die architectuur. Met OpenCL is het tenminste mogelijk om op een hoger niveau zuiver over je data & kernels te denken waardoor je oplossing op meerdere architecturen kan werken & compilers beter kunnen optimaliseren.
Ik vrees dat je met oude code weinig kan doen op larrabee, de architectuur verschilt te sterk met klassieke smp out of order processoren.
... het is het probleemdomein wat dicteert hoe parallel je je algoritme implementeert.
Ik weet niet 100% zeker wat je hiermee bedoelt maar ik ga niet akkoord ;)

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op donderdag 11 december 2008 @ 21:38:
Zie je wat een wereld van verschil het is?
Ja, want wat je stelt is ook iets anders dan wat zowel FiringSquad als ik proberen te zeggen.
FS heeft het over de lengte van het 4850X2 PCB, ik heb het - als mogelijke oplossing daarvoor - over een 'sandwich' van 2 PCB's en jij hebt het over de 4850X2 koeler. Maar lees 't nog eens rustig door :)
Demon_Eyez schreef op donderdag 11 december 2008 @ 22:51:
Ontopic. Dubbel PCB design schiet zowiezo niet, de mogelijkheid voor een aftermarket koeler wordt je zo ontnomen, laat staan de mogelijkheid om er een waterblok op te doen, wat geen overbodige luxe is op zo'n warme kaart.
Er even van uitgaande dat het koelerdesign stil en efficient is, wat zoals ook reeds eerder aangetoont prima mogelijk is, dan is het aantal mensen dat perse een aftermarket cooler wil monteren - en de kaart daarom eventueel niet zou kopen - minimaal... dermate gering dat het me voor een bedrijf commercieel gezien niet of nauwelijks interessant lijkt om daar rekening mee te houden.
Verwijderd schreef op vrijdag 12 december 2008 @ 01:49:
Dan vraag ik me toch af wat er duurder is. Een enkele PCB met wat lagen meer of een tweede PCB met alle gevolgen voor constructie, verbindingen (alles moet via dat ene bruggetje op die plek) en koeling van dien.
Gebaseerd op het feit dat we het alleen bij high-end kaarten ontworpen voor de absoluut beste prestaties zien zou ik er op gokken dat een tweede PCB duurder is, maar dat is dan ook niet maar dan dat: een pure gok. :)
Het is natuurlijk ook alleen bij high-end kaarten interessant. Als je de performance van 2 midrange kaarten in SLI/CF wilt hebben kun je beter gewoon 1 high-end kaart kopen. Wil je echter de performance van 2 (of 4) high-end kaarten, dan komt 1x (of 2x) een dual kaart in beeld (m.n. als je geen x16/x16 SLI/CF mobo hebt) :)

[ Voor 13% gewijzigd door Cheetah op 12-12-2008 06:15 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
AMD says PhysX will die http://www.bit-tech.net/n...xec-says-physx-will-die/1
"There is no plan for closed and proprietary standards like PhysX," said Cheng. "As we have emphasised with our support for OpenCL and DX11, closed and proprietary standards will die."
"It should be noted that title support for GPU accelerated physics simulation is NOT the end game. The end game is having GPU physics as an integral part of game play and not just eye candy. If it is optional eye candy, GPU physics will not gain traction. The titles we have seen today with shattering glass and cloth waving in the wind is not integral to game play and the impact on the game's experience is minimal. We are looking for ways to integrate GPU physics better into game play. Or even things like AI instead of focusing on eye candy / effects physics."

Cheng's final words make a lot of sense and I find myself agreeing with him. We said something similar when Nvidia announced that the PC version of Mirror's Edge was delayed because of the PhysX implementation which, following a brief hands-on preview last week, does nothing but add some additional eye candy. None of it influences the actual gameplay experience.

However, it still remains to be seen when we're actually going to see Havok Physics running on Radeon GPUs - we get the feeling that Intel is holding the aces back until Larrabee hits the scene. All we're hearing at the moment are buzzwords like OpenCL and DirectX 11 Compute - but they're not here today and Radeon owners are expected to play a waiting game.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 05:58:
[...]
Ja, want wat je stelt is ook iets anders dan wat zowel FiringSquad als ik proberen te zeggen.
FS heeft het over de lengte van het 4850X2 PCB, ik heb het - als mogelijke oplossing daarvoor - over een 'sandwich' van 2 PCB's en jij hebt het over de 4850X2 koeler. Maar lees 't nog eens rustig door :)
Nee, daar heb ik het helemaal niet over. Jij zegt dit
maakt het dan zoveel uit of je 2 PCB's horizontaal of vertikaal aan elkaar 'vastplakt'?
Als de 4850X2 vertikaal aan elkaar was vastgeplakt als de GX2 dan had ie bijv. veel makkelijker (en in veel meer) kasten gepast... dus een "sandwich" kan ook voordelen hebben.
Jij stelt daar dat de 4850X2 in veel minder kasten zou passen, waar als hij een sandwich koeler had gehad, dit wel had gekunt. Dat de is FUD. In de meeste kasten waar een grote videokaart in past, past de 4850X2 ook in. Waarbij ik aangeef dat de sandwich ook bij de HD4850X2 niet nodig is, gezien de HD4870X2 gewoon even lang is als de andere grote kaarten. Dus als ze dat design pakken, hij ook gewoon even lang is. Dat sapphire een slecht design af leverd(de decibels jeez :| ), hoeft nog niet betekenen dat de sandwich design korter zou zijn.

[ Voor 11% gewijzigd door Verwijderd op 12-12-2008 09:53 ]


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

oeLangOetan schreef op vrijdag 12 december 2008 @ 02:11:
[...]

Ja maar met 1/4 van de performantie die je van larabee zou verwachten en wellicht nog minder omdat de cores in-order zijn & er weinig cache per core is (zie post SG).
Als je performante code wilt op de larabee draaien zal je sterk moeten optimaliseren voor die architectuur. Met OpenCL is het tenminste mogelijk om op een hoger niveau zuiver over je data & kernels te denken waardoor je oplossing op meerdere architecturen kan werken & compilers beter kunnen optimaliseren.
Ik vrees dat je met oude code weinig kan doen op larrabee, de architectuur verschilt te sterk met klassieke smp out of order processoren.
Mijn punt was ook niet de performance, want dat tunen zal zeker wel moeten gebeuren, maar de platform bring-up. Dat kost ook een significant deel van de tijd, en is voor Intel in dit geval praktisch nul. Overigens zou ik out-of-order architecturen niet klassiek willen noemen in vergelijking met een in-order architectuur ;).
[...]

Ik weet niet 100% zeker wat je hiermee bedoelt maar ik ga niet akkoord ;)
Wat ik daarmee bedoelde is dat problemen als het berekenen van fysische interacties tussen objecten een probleem is wat zich bij uitstek leent voor parallelisatie, en waar dat ook zeer makkelijk is. Ook al zouden de huidige implementaties van de nodige algoritmes in Havok sequentieel zijn, dan nog is het relatief een peulenschil om ze naar massief parallele varianten om te zetten. Er zijn in het simuleren van fysica weinig problemen die inherent sterk sequentieel zijn, en zeker niet op de precisieschaal van games.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
TGEN schreef op vrijdag 12 december 2008 @ 00:49:
[...]

Ik kan mij wel waterblokken herinneren voor de 7950GX2 (en 7900GX2). Maar het maakt het wel lastiger ja, en vooral duurder. Ook zijn de traces tussen chips langer, wat zaken als signaalintegriteit iets meer aandacht doet vergen (in de praktijk maakt het overigens niks uit voor de nVidia vs. ATi oplossingen). Verder is er wel degelijk een voordeel aan twee PCBs i.p.v. een, daar je minder lagen nodig zal hebben (als je het handig aanpakt). Meer lagen maken PCBs duurder, en dat kan best een realistische afweging zijn voor zowel nVidia als ATi.
offtopic:
sowieso ;)
Ze zijn er inderdaad wel, maar de keuze is beperkt en daarbij zijn ze ontzettend duur en alleen bruikbaar op 1 kaart. Geef mij maar een kaart waar ik een bestaand waterblock op kan zetten, dat op meerdere kaarten past.

Meer lagen maakt het wel duurder ja , maar met twee afzonderlijke PCB's heb je ook twee maal zo veel componenten nodig.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Demon_Eyez schreef op vrijdag 12 december 2008 @ 10:01:
[...]
Ze zijn er inderdaad wel, maar de keuze is beperkt en daarbij zijn ze ontzettend duur en alleen bruikbaar op 1 kaart. Geef mij maar een kaart waar ik een bestaand waterblock op kan zetten, dat op meerdere kaarten past.

Meer lagen maakt het wel duurder ja , maar met twee afzonderlijke PCB's heb je ook twee maal zo veel componenten nodig.
Dat valt mee; voor twee chips op een PCB heb je ook meerdere componenten nodig, en zwaardere die weer duurder zijn (denk aan FETs voor de spanningsregulatie). Het is ook niet zo dat de tertiaire componenten (i.e. alles wat niet de GPU of een RAM chip is) nou zo duur zijn in verhouding, en een besparing van 50% daarop haal je zeker niet door een enkele PCB te gebruiken.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hij heeft wel gelijk. PhysX voegt op dit moment niets extra's aan de gameplay van een game toe. Het is nu nog puur een extra sausje over de game heen die bestaat uit special effects. Waar games in mijn ogen naar toe zouden moeten gaan is dat physics echt een integraal onderdeel worden van de game. De enige game waar dit tot nu toe een beetje het geval was, was de (overigens crap) game Cell Factor.

En voorlopig zal PhysX dan ook echt niet gebruikt worden door gamedevelopers om vergelijkbare resultaten te halen. Ze beperking dan namelijk gelijk hun afzetmarkt op de PC markt met 50% omdat niet iedereen een GeForce kaart heeft. Tel daarbij op dat de consoles geen GPU physics kunnen verrichten (misschien dan de Xbox360 nog wel) waardoor het moeilijker wordt om games te porten met dezelfde ervaring. Wat voor de hand ligt is dat ze dan PhysX gebruiken voor effects-physics, maar niet voor gameplay-physics.

PhysX op zich is helemaal geen slechte physics-tool, maar zo lang je het alleen via propriety-standaarden als CUDA kan doen en niet met open-standaarden zoals OpenCL, zal het niet het succes krijgen die het misschien verdient. NV beperkt zichzelf dus eigenlijk ook in dat opzicht.

Overigens ook interessant is dit gedeelte over de physics plannen van AMD:
"Our guidance was end of this year or early next year but, first and foremost, it will be driven by the milestones that we hit. To put some context behind GPU based physics acceleration, it is really just at the beginning. Like 3D back in the early 1990s. Our competition has made some aggressive claims about support for GPU physics acceleration by the end of this year. I.e. Support in many titles....but we can count the titles on one hand or just one or two fingers," added Cheng.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Xbox heeft toch een ATI GPU(Xenos AKA R500, eerste unified shader gpu)? Dan zou het nog niet kunnen toch? Gezien ATI het niet ondersteund.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Verwijderd schreef op vrijdag 12 december 2008 @ 11:02:
Xbox heeft toch een ATI GPU(Xenos AKA R500, eerste unified shader gpu)? Dan zou het nog niet kunnen toch? Gezien ATI het niet ondersteund.
Eerste unified shader architectuur was de R600 -> HD2000 serie. De R520/580 hadden nog gewoon gescheiden pixel en vertex shaders.

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

Ja de R520, maar niet de Xenos AKA R500.

Wikipedia: Xbox 360 hardware
The chip was developed under the name "C1" and "R500" was often used to refer to it.
Wikipedia: Radeon R600
The "R600" is the first personal computer graphics processing unit (GPU) from ATI based on a unified shader architecture. It is ATI's second generation unified shader design and is based on the "Xenos" GPU implemented in the Xbox 360 game console, which used the world's first such shader architecture.

[ Voor 89% gewijzigd door Verwijderd op 12-12-2008 11:20 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Reinman heeft gelijk hoor. De R500 was de eerste unified shader architectuur van ATI en dat is de Xenos GPU in de Xbox360.

GPU physics, zoals dat in de planning lag bij Havok met de Havok FX engine, was mogelijk op GPUs die minimaal SM3.0 ondersteunden. De Xbox360 GPU zit min of meer tussen DX9 en DX10 in en sommige mensen duiden het aan als "SM3.0+" of "SM3.5". Dus die zou geschikt moeten zijn voor GPU Physics. De PS3 heeft een GF7900 achtige GPU en zoals we weten was die een stuk minder goed in dit soort dingen dan de vergelijkbare ATI SM3.0 GPUs.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Oh op die manier, ik had je een beetje verkeerd begrepen. Ik dacht dat je bedoelde dat PhysX op de 360 zou gaan werken :P.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Mjah, wat dan nog? Een chip die programmeerbare shaders heeft kun je sowieso gebruiken om physics op te doen, het is alleen een stuk lastiger. Zelf heb ik bij een `Advanced computer graphics' course vorig jaar een fluid simulation op de gpu gedaan die gebruik maakte van OpenGL en de cg shader language. Ik neem aan dat hetzelfde prima te bereiken is met DirectX en HLSL (maar daar heb ik nog nooit mee gewerkt) en eigenlijk gewoon iedere programmeerbare chip. Het kan prima, alleen maken dingen als Cuda en OpenCL het een stuk gemakkelijker.

The Flying Dutchman


Acties:
  • 0 Henk 'm!

Verwijderd

Er is een verschil tussen kunnen en gedaan worden. Dat moet je niet uit het oog verliezen. Hoe veel 'demo's' hebben we al gezien van physX? Toch al heel wat, maar echt door breken? Dat moet nog komen. Het kan, maar word nauwlijks gedaan. :9

[ Voor 9% gewijzigd door Verwijderd op 12-12-2008 11:26 ]


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 16:38

Splinter Cell

Glasvezel MASTER RACE

ATI Catalyst 8.12 Analysis - XP & Vista:

http://www.tweaktown.com/...lysis_xp_vista/index.html

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 29-07 21:57
Verwijderd schreef op vrijdag 12 december 2008 @ 11:25:
Er is een verschil tussen kunnen en gedaan worden. Dat moet je niet uit het oog verliezen. Hoe veel 'demo's' hebben we al gezien van physX? Toch al heel wat, maar echt door breken? Dat moet nog komen. Het kan, maar word nauwlijks gedaan. :9
Je hebt gelijk, wat ik eigenlijk met mijn post wilde zeggen, in reactie op mensen die beweerden dat gelijk 50% van de markt uitgesloten wordt als je physix iets functioneels laat doen in een game, is dat het wel kan, maar dat het niet zo interessant is omdat het zoveel moeilijker is op wat oudere chips en op chips die geen Cuda/Physixs of whatever ondersteunen.

Ik begrijp dus ook maar al te goed dat physics in games nog geen functionele rol vervullen, maar het is dus niet zo dat het écht niet kan (aan de andere kant: Havok draait toch alleen op cpu's momenteel? dan zie ik eigenlijk geen belemmering voor functionele toepassingen van physics).

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
Modbreak:-1 Troll

[ Voor 90% gewijzigd door Ultraman op 12-12-2008 13:05 ]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • hpt870
  • Registratie: Maart 2007
  • Laatst online: 21:12

Offtopic:
Ah een beetje kritsich perspectief zorgt er voor dat iedereen wat uitgebreider nadenkt over de gepresenteerde feiten. Als emoties niet zo'n grote rol zouden spelen, zou het absoluut ten goede komen aan de discussie (en het niveau ervan).

Acties:
  • 0 Henk 'm!

Verwijderd

Hey, ik zie dat de 'RV770XT' hier nog niet is langsgekomen?

Volgens de eerste geruchten worden het mooie specs :
840 Shaders @ 900Mhz
512MB 256bit GDDR5 @ 4Ghz (effectief)

Ik denk dat dit wel leuke performance gaat geven, maar of de RV770XT-X2 sneller wordt dan de NVidia GTX295 betwijfel ik. (denk het niet als SLI goed schaalt)

bron: http://forums.vr-zone.com/showthread.php?t=365030

Acties:
  • 0 Henk 'm!

Verwijderd

The Flying Dutchman schreef op vrijdag 12 december 2008 @ 11:50:
[...]


Je hebt gelijk, wat ik eigenlijk met mijn post wilde zeggen, in reactie op mensen die beweerden dat gelijk 50% van de markt uitgesloten wordt als je physix iets functioneels laat doen in een game, is dat het wel kan, maar dat het niet zo interessant is omdat het zoveel moeilijker is op wat oudere chips en op chips die geen Cuda/Physixs of whatever ondersteunen.
Physics niet, maar PhysX wel. Dat is de specifieke implementatie. Daar ging het nu om. Als ATI zegt dat doen we niet, mis je dus 50% van de markt(qua non integrated solutions staan ATI en Nvidia ongeveer gelijk) in pc games. Waarbij de consoles het nog moelijker gaat worden(Wii gaat niet willen, te weinig power. PS3, Nvidia maar geen unified shaders, lastig, maar wel mogelijk, X360 R500 mogelijk, maar van ATI). De mogelijkheden zijn er natuurlijk gewoon en Havok draait al tijden goed op een CPU. Je markt is dus nog kleiner dan alleen oude chips :).
Verwijderd schreef op vrijdag 12 december 2008 @ 12:41:
Hey, ik zie dat de 'RV770XT' hier nog niet is langsgekomen?

Volgens de eerste geruchten worden het mooie specs :
840 Shaders @ 900Mhz
512MB 256bit GDDR5 @ 4Ghz (effectief)

Ik denk dat dit wel leuke performance gaat geven, maar of de RV770XT-X2 sneller wordt dan de NVidia GTX295 betwijfel ik. (denk het niet als SLI goed schaalt)

bron: http://forums.vr-zone.com/showthread.php?t=365030
Er staan een paar bladzijden terug iets over de mogelijke specs. Die waren wat meer dan deze. Gezien de vorige keer met hun misinformatie campagne zou ik het niet kunnen zeggen. CJ weet misschien wel iets, maar of ie iets mag zeggen :+ .

[ Voor 28% gewijzigd door Verwijderd op 12-12-2008 12:45 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op vrijdag 12 december 2008 @ 12:41:
Ik denk dat dit wel leuke performance gaat geven, maar of de RV770XT-X2 sneller wordt dan de NVidia GTX295 betwijfel ik. (denk het niet als SLI goed schaalt)
Waarom niet? De HD4850X2 scoort nu ook gelijkwaardig aan de GTX280. Het zou mij juist verbazen als de RV775XT X2 niet sneller zou zijn dan de GTX295/GTX285.

Volgens de geruchten zou de GTX295, 10% sneller zijn dan de huidige GTX280. Maar goed, de tijd zal het leren. (< 3 mnd.)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Het zijn maar geruchten, maar de GTX295 zou 2 GT200 pgu's bevatten...

[ Voor 9% gewijzigd door Verwijderd op 12-12-2008 12:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Wat me wel opvalt bij die RV775XT is dat de 'Die Size' en 'Transitor Count' kleiner is tov RV770... sideport weggelaten???

Afbeeldingslocatie: http://en.expreview.com/img/2008/12/12/rv775.jpg

Bron : http://en.expreview.com/2...-give-nvidia-a-punch.html

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 09:48:
Jij stelt daar dat de 4850X2 in veel minder kasten zou passen, waar als hij een sandwich koeler had gehad, dit wel had gekunt. Dat de is FUD. In de meeste kasten waar een grote videokaart in past, past de 4850X2 ook in.
Precies, je zegt het goed: in de meeste kasten waar een grote videokaart in past.
Da's dus al een beperking van je selectie kasten.

Als de 4850X2 een sandwich model was geweest had hij vermoedelijk niet of nauwelijks langer geweest dan een single 4850 en dus zonder moeite in (bijna) alle kasten gepast. Mini, midi of maxi. Door de 28,6 centimeter (11,25") die de 4850X2 nu lang is past hij in vrijwel geen enkele kleine tower of micro-atx case, en moet je ook bij veel miditowers uitkijken of het wel goed gaat.
Ik heb zelf bijvoorbeeld een Antec P180 gehad, toch wel een vrij populaire case en geen kleintje, en daar ging de 8800GTX (~10,5") net in. Iets groters zou een probleem zijn geweest.
Grappig, er wordt vanalles aan gedaan om realisme en IQ in games te verbeteren, PhysX doet dat, maar is dan plots niet belangrijk omdat het zogenaamd 'de gameplay' niet verbeterd, maar "slechts" realisme en IQ.

Verder:
"There is no plan for closed and proprietary standards like PhysX," said Cheng. "As we have emphasised with our support for OpenCL and DX11, closed and proprietary standards will die."
"Closed and proprietary standards will die", maar wel in zee gaan met Havok (die nog niet eens ondersteuning bied voor GPU physics overigens)? Want dat is geen closed en proprietary standaard toch?

Marketingtalk, altijd leuk :)

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Indy91 schreef op vrijdag 12 december 2008 @ 12:53:
[...]

Waarom niet? De HD4850X2 scoort nu ook gelijkwaardig aan de GTX280. Het zou mij juist verbazen als de RV775XT X2 niet sneller zou zijn dan de GTX295/GTX285.

Volgens de geruchten zou de GTX295, 10% sneller zijn dan de huidige GTX280. Maar goed, de tijd zal het leren. (< 3 mnd.)
De GTX 285 is een 55nm versie van de GTX 280. Dus weer 512-bits bus met GDDR3 en 240 shader units.
De GTX 295 is een dual GPU kaart met twee 55nm GT200 chips met 240 actieve shaders maar een kleinere 448-bits geheugenbus.

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Cheetah schreef op vrijdag 12 december 2008 @ 13:07:
[...]
Grappig, er wordt vanalles aan gedaan om realisme en IQ in games te verbeteren, PhysX doet dat, maar is dan plots niet belangrijk omdat het zogenaamd 'de gameplay' niet verbeterd, maar "slechts" realisme en IQ.
Het is niet dat Physics niet belangrijk is, maar het totale gebrek aan games die de PhysX-variant ervan ondersteunen. Het gebrek maakt PhysX ondergeschikt (aan Havok in dit geval).
"Closed and proprietary standards will die", maar wel in zee gaan met Havok (die nog niet eens ondersteuning bied voor GPU physics overigens)? Want dat is geen closed en proprietary standaard toch?

Marketingtalk, altijd leuk :)
De reden waarom Havok juist zoveel gebruikt wordt, is omdat het relatief simpel op alle systemen toe te passen is. Daardoor is het min of meer de 'de facto' standaard. AMD heeft besloten om hun support ervoor uit te spreken, gedeeltelijk omdat ze de mogelijkheid hebben gekregen om te kijken of ze calls van de Havok engine kunnen onderscheppen en om te leiden van CPU naar GPU. Op die manier kun je Havok dus op elk systeem gebruiken, maar zul je betere prestaties zien wanneer je gebruik maakt van een AMD GPU.

En hoewel ook Havok zeker gezien kan worden als proprietary, is het wel zo dat er veel meer bedrijven daadwerkelijke steun geven aan deze 'standaard' en toegang hebben tot de API om er mee te werken, zonder extra kosten. Dit in tegenstelling tot de PhysX-api.

Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 13:07:
[...]
Precies, je zegt het goed: in de meeste kasten waar een grote videokaart in past.
Da's dus al een beperking van je selectie kasten.

Als de 4850X2 een sandwich model was geweest had hij vermoedelijk niet of nauwelijks langer geweest dan een single 4850 en dus zonder moeite in (bijna) alle kasten gepast. Mini, midi of maxi. Door de 28,6 centimeter (11,25") die de 4850X2 nu lang is past hij in vrijwel geen enkele kleine tower of micro-atx case, en moet je ook bij veel miditowers uitkijken of het wel goed gaat.
Ik heb zelf bijvoorbeeld een Antec P180 gehad, toch wel een vrij populaire case en geen kleintje, en daar ging de 8800GTX (~10,5") net in. Iets groters zou een probleem zijn geweest.
Dus slaat jouw antwoord van "dat hij in de meeste kasten niet zou passen" nergens op, want daar zouden andere kaarten ook al niet in passen, dat is toch een scheve vergelijking!! Die kasten waar een GTX 280 oid in past en deze versie van de HD4850X2 zullen schaars zijn. Ben blij dat je het nu eindelijk snapt.

[ Voor 5% gewijzigd door Verwijderd op 12-12-2008 13:54 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 12:42:
Physics niet, maar PhysX wel. Dat is de specifieke implementatie. Daar ging het nu om. Als ATI zegt dat doen we niet, mis je dus 50% van de markt(qua non integrated solutions staan ATI en Nvidia ongeveer gelijk) in pc games. Waarbij de consoles het nog moelijker gaat worden(Wii gaat niet willen, te weinig power. PS3, Nvidia maar geen unified shaders, lastig, maar wel mogelijk, X360 R500 mogelijk, maar van ATI). De mogelijkheden zijn er natuurlijk gewoon en Havok draait al tijden goed op een CPU. Je markt is dus nog kleiner dan alleen oude chips :).
De Steam survey laat toch wel een wat andere verhouding zien dan 50/50, en zeker als je kijkt in de door PhysX beoogde markt (DX10+ capable kaarten).

Verder zal PhysX hardware support natuurlijk worden ingezet als extensie voor systemen met ondersteunde hardware. Indien niet aanwezig wordt uiteraard teruggevallen naar een software physx path. Geen enkele developper gaat exclusief hardware PhysX support inbouwen in zijn games.
Het wordt bij betr. games dus niet of hardware PhysX of niets, maar hardware PhysX indien mogelijk, anders fallback naar software. Bijv. net zoals DX10 ondersteunende games niet exclusief DX10 zijn maar ook altijd een fallbackpath naar DX9 hebben indien DX10 niet ondersteund wordt door de hardware.
dahakon schreef op vrijdag 12 december 2008 @ 13:37:
Het is niet dat Physics niet belangrijk is, maar het totale gebrek aan games die de PhysX-variant ervan ondersteunen. Het gebrek maakt PhysX ondergeschikt (aan Havok in dit geval). De reden waarom Havok juist zoveel gebruikt wordt, is omdat het relatief simpel op alle systemen toe te passen is. Daardoor is het min of meer de 'de facto' standaard.
PhysX is de belangrijkste concurrent van Havok, en hoewel Havok een grotere marketshare heeft (150+ games) is het verschil niet dramatisch als je kijkt naar deze niet uitputtende supported-software lijst op wikipedia.

Verder had Ageia natuurlijk lang niet de slagkracht en marktimpact om bij gamedev's dingen voor elkaar te krijgen als nVidia die heeft. Ik denk dat het een aardige misrekening zou zijn om het tandem nVidia en PhysX te onderschatten. Zeker omdat hardware PhysX een feature is die wel degelijk zichtbaar zoden aan de dijk zet en er gewoon op dit moment nog geen alternatief ervoor (serieus) in zicht is. Er wel wordt wat geroepen over OpenCL en DX11, maar er is nog niets concreet daarover... terwijl PhysX zeer concreet en functionerend is.
Verwijderd schreef op vrijdag 12 december 2008 @ 13:45:
Dus slaat jouw antwoord van "dat hij in de meeste kasten niet zou passen" nergens op, want daar zouden andere kaarten ook al niet in passen, dat is toch een scheve vergelijking!! Die kasten waar een GTX 280 oid in past en deze versie van de HD4850X2 zullen schaars zijn. Ben blij dat je het nu eindelijk snapt.
Ik weet niet hoe lang je nog van plan bent me te blijven misquoten, maar ik ga er niet meer op reageren.

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Ah...dan heb ik GTX 285 met de GTX 295 verwisseld. My bad. 8)7
Cheetah schreef op vrijdag 12 december 2008 @ 13:07:
[...]
Precies, je zegt het goed: in de meeste kasten waar een grote videokaart in past.
Da's dus al een beperking van je selectie kasten.
[...]
Grappig, er wordt vanalles aan gedaan om realisme en IQ in games te verbeteren, PhysX doet dat, maar is dan plots niet belangrijk omdat het zogenaamd 'de gameplay' niet verbeterd, maar "slechts" realisme en IQ.
Wacht even, waar heb ik dat eerder gehoord.... NVidia vond destijds DX10.1 toch ook niet belangrijk genoeg omdat het zogenaamd niets zou toevoegen (oa verbeterde IQ).

Marketingpraat bljift inderdaad leuk. :+

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 13:55:
[...]
Ik weet niet hoe lang je nog van plan bent me te blijven misquoten, maar ik ga er niet meer op reageren.
Misquote? Jij zegt het toch, ik niet. Het is gewoon zo dat het onzin is dat hij in de meeste kasten niet zou passen waar een grote kaart wel in kan, want als die andere kaart er in niet in past, waarom moet die kaart er dan wel in passen 8)7 . Jij overdrijft door dat te zeggen en daarmee probeer jij alleen maar die kaart in diskrediet te brengen, in voordeel van nvidia. Dat is en blijf ONZIN!
De Steam survey laat toch wel een wat andere verhouding zien dan 50/50, en zeker als je kijkt in de door PhysX beoogde markt (DX10+ capable kaarten).

Verder zal PhysX hardware support natuurlijk worden ingezet als extensie voor systemen met ondersteunde hardware. Indien niet aanwezig wordt uiteraard teruggevallen naar een software physx path. Geen enkele developper gaat exclusief hardware PhysX support inbouwen in zijn games.
Het wordt bij betr. games dus niet of hardware PhysX of niets, maar hardware PhysX indien mogelijk, anders fallback naar software. Bijv. net zoals DX10 ondersteunende games niet exclusief DX10 zijn maar ook altijd een fallbackpath naar DX9 hebben indien DX10 niet ondersteund wordt door de hardware.
Jah, steam is ook echt zo ontzettend betrouwbaar, sarcasm. ATI heeft inmiddels meer dan 2 miljoen HD48 kaarten verkocht! Het markt aandeel stijgt dus!
Jah, want physX loopt ook zo goed op de CPU, again sarcasm. Anders kan nvidia toch niet roepen dat je maar zon kaart moet kopen?! Oh en die vent van swiftshader, die had het daar ook al over. PhysX op de CPU is brak by design.

[ Voor 46% gewijzigd door Verwijderd op 12-12-2008 14:07 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Indy91 schreef op vrijdag 12 december 2008 @ 13:56:
Wacht even, waar heb ik dat eerder gehoord.... NVidia vond destijds DX10.1 toch ook niet belangrijk genoeg omdat het zogenaamd niets zou toevoegen (oa verbeterde IQ).
DX10.1 verbeterde IQ t.o.v. DX10? Waar? Uitgebreide tests met AC wezen uit dat alleen 1 randje ergens in het menu wat beter anti-aliased werd, ingame geen verschil te bekennen :)
DX10/SM4 voegde qua IQ al vrijwel niets toe aan DX9/SM3. DX10.1 voegt op dat vlak nog minder toe aan DX10.
Dude, voor de laatste keer: jouw interpretatie van wat ik gezegd heb klopt helemaal niet, en staat ook nergens in mijn tekst. Dat heb ik nou al meerdere keren proberen uit te leggen. Ik ga er niet nogmaals op in.

[ Voor 22% gewijzigd door Cheetah op 12-12-2008 14:10 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 14:08:
[...]
DX10.1 verbeterde IQ t.o.v. DX10? Waar? Uitgebreide tests met AC wezen uit dat alleen 1 randje ergens in het menu wat beter anti-aliased werd, ingame geen verschil te bekennen :)
DX10/SM4 voegde qua IQ al vrijwel niets toe aan DX9/SM3. DX10.1 voegt op dat vlak nog minder toe aan DX10.
EPIC FAIL: Here you go, proof :9

10.0 4x AA
Afbeeldingslocatie: http://farm4.static.flickr.com/3074/3093345414_a4334d3030.jpg?v=0

10.1 4x AA
Afbeeldingslocatie: http://farm4.static.flickr.com/3092/3093344912_779625d874.jpg?v=0


Blijkbaar moet ik die post nog een keer quoten.
Maakt het dan zoveel uit of je 2 PCB's horizontaal of vertikaal aan elkaar 'vastplakt'?
Als de 4850X2 vertikaal aan elkaar was vastgeplakt als de GX2 dan had ie bijv. veel makkelijker (en in veel meer) kasten gepast... dus een "sandwich" kan ook voordelen hebben.
Het is gewoon zo dat het onzin is dat hij in de meeste kasten niet zou passen waar een grote kaart wel in kan, want als die andere kaart er in niet in past, waarom moet die kaart er dan wel in passen 8)7 . Jij overdrijft door dat te zeggen en daarmee probeer jij alleen maar die kaart in diskrediet te brengen, in voordeel van nvidia. Dat is en blijf ONZIN!

[ Voor 35% gewijzigd door Verwijderd op 12-12-2008 14:13 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 12 december 2008 @ 13:06:
Wat me wel opvalt bij die RV775XT is dat de 'Die Size' en 'Transitor Count' kleiner is tov RV770... sideport weggelaten???

[afbeelding]

Bron : http://en.expreview.com/2...-give-nvidia-a-punch.html
Appart.... 55nm, kleiner en dan ook nog meer shaders en een hogere clock. Dan moeten ze aardig wat redesign werk gedaan hebben. En dan betekend het dat de RV870 nog wel even zou duren.

Uhmm dat als X2 is erg leuk :P Maar goed is moet het eerst zien voordat ik het geloof. Misschien dat ze wat van hun backup shaders er bij gepakt hebben. Mja je ziet ook dat er meer texture units zijn. Dus dat er een SMID bij is gekomen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2008 @ 14:10:
[...]


EPIC FAIL: Here you go, proof :9
Misschien zie ik het niet helemaal goed, maare... ik bespeur geen enkel verschil.
Kloppen de plaatjes wel met de omschrijving?

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheetah schreef op vrijdag 12 december 2008 @ 14:08:
[...]
DX10.1 verbeterde IQ t.o.v. DX10? Waar? Uitgebreide tests met AC wezen uit dat alleen 1 randje ergens in het menu wat beter anti-aliased werd, ingame geen verschil te bekennen :)
DX10/SM4 voegde qua IQ al vrijwel niets toe aan DX9/SM3. DX10.1 voegt op dat vlak nog minder toe aan DX10.
Heb jij effe iets gemist :z

Ergens aan het begin van dit topic stond een review over de kwaliteit van AA (0xAA, 4xAA, 8xAA) icm DX9, DX10 en DX10.1 in Far Cry 2 dacht ik. Oh boy, DX10.1-AA zag er toch overal in het scherm een tandje beter uit en de performance kakte niet of amper in in. Edit: harder refreshen Jejking, doel op het artikel waar Reinman net 2 plaatjes uit postte.

En je zegt het zelf al: DX10.1 levert ergens een mooier randje op tov DX10. Dat betekent dus betere kwaliteit ;)

[ Voor 6% gewijzigd door Jejking op 12-12-2008 14:20 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op vrijdag 12 december 2008 @ 14:18:
[...]


Misschien zie ik het niet helemaal goed, maare... ik bespeur geen enkel verschil.
Kloppen de plaatjes wel met de omschrijving?
Je ziet geen verschil :| Dude, kijk eens naar de randen van de bladeren. Performance van DX10.1 en DX10 zijn in dit programma gelijk, maar AA op alpha textures is beter.

@Jejking

Zijn mijn eigen plaatjes hoor :P. Heb ik zelf geknipt :)

[ Voor 19% gewijzigd door Verwijderd op 12-12-2008 14:20 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Het is vrijdag en het is een lange dag geweest, maar met welk artikel ben ik dan in de war? Die screens lijken er verrekte veel op in ieder geval :P

Acties:
  • 0 Henk 'm!

Verwijderd

Nee, het was van Unigine Tropics Engine makers wat wel voorbij kwam, wat ik idd ook gebruikt heb(de Unigene Tropics Engine). Die laten ook het verschil zien tussen 10 en 10.1 op alpha textures, maar ik ben daar mee aan het testen. Niets gezien over FC2 :).

ik post zo wel ff wat vergrotingen.

Zo vergroting

DX10 4x AA
Afbeeldingslocatie: http://farm4.static.flickr.com/3037/3101809671_7bfc7dbbea.jpg?v=0

DX10.1 4x AA
Afbeeldingslocatie: http://farm4.static.flickr.com/3090/3101809451_27b2188251.jpg?v=0

[ Voor 46% gewijzigd door Verwijderd op 12-12-2008 14:30 ]


Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Wil niet veel zeggen maar ik zie ook geen verschil hoor Reinman. Heb je geen betere screenies?
Want voor de rest ben ik het wel met je eens betreft DX10 vs. DX10.1. Heb zelf ook uitgebreid de Unigine getest en het verschil is behoorlijk groot! Daarnaast is DX10.1 ook performance-gewijs een stuk beter.
Maar nogmaals het verschil is groot, maar niet in jouw screenies te bespeuren. (of de vrijdag moet wel een hele grote impact hebben bij mij :D )

Acties:
  • 0 Henk 'm!

Verwijderd

Zien jullie echt die randen op de bladeren niet? Al die blokjes :| Ook niet op de ingezoemde beelden. Denk dat het komt omdat jullie resolutie gewoon VEEL groter is.

Ok, heel dik ingezoemd: Nadeel, word waziger en waziger. Ik heb maar een 17" tft mensen :P

DX10
http://farm4.static.flick...01828049_4ef4bdb668_o.jpg

DX10.1
http://farm4.static.flick...01828435_64f76e4dfd_o.jpg

[ Voor 84% gewijzigd door Verwijderd op 12-12-2008 14:40 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 14:10:
EPIC FAIL: Here you go, proof :9

10.0 4x AA
[afbeelding]

10.1 4x AA
[afbeelding]
Blijkbaar moet ik die post nog een keer quoten.
Kun je misschien ook de bron hiervan posten die mijn 'epic fail' bevestigd?
Zou voor het eerst zijn dat er zichtbaar ingame verschil is, en ik wil het graag lezen :)
Het is gewoon zo dat het onzin is dat hij in de meeste kasten niet zou passen waar een grote kaart wel in kan, want als die andere kaart er in niet in past, waarom moet die kaart er dan wel in passen 8)7 . Jij overdrijft door dat te zeggen en daarmee probeer jij alleen maar die kaart in diskrediet te brengen, in voordeel van nvidia. Dat is en blijf ONZIN!
Mezelf quoten kan ik ook hoor:
Precies, je zegt het goed: in de meeste kasten waar een grote videokaart in past.
Da's dus al een beperking van je selectie kasten.

Als de 4850X2 een sandwich model was geweest had hij vermoedelijk niet of nauwelijks langer geweest dan een single 4850 en dus zonder moeite in (bijna) alle kasten gepast. Mini, midi of maxi. Door de 28,6 centimeter (11,25") die de 4850X2 nu lang is past hij in vrijwel geen enkele kleine tower of micro-atx case, en moet je ook bij veel miditowers uitkijken of het wel goed gaat.
Ik heb zelf bijvoorbeeld een Antec P180 gehad, toch wel een vrij populaire case en geen kleintje, en daar ging de 8800GTX (~10,5") net in. Iets groters zou een probleem zijn geweest.
Dat zeg ik. Ik geef alleen aan dat een sandwiched 4850X2 vermoedelijk moeiteloos in vrijwel alle kasten had kunnen passen. Niets meer en niets minder.
Wat jij er verder bij sleurt, inclusief vergelijkingen met andere kaarten, komt niet bij mij vandaan.
Nog afgezien van dat ~2cm extra op een formaat dat in veel kleinere kasten al vrij moeilijk te managen is (10.5") wel degelijk een aardig verschil is. Maar die opmerking zal wel bijna godslastering zijn in je optiek :/
"Imagine no religion" als avatar. Hoe ironisch.
Modbreak:Op de man spelen is nergens voor nodig. En geloofsopvattingen zijn hier volledig off-topic

[ Voor 2% gewijzigd door dion_b op 12-12-2008 18:46 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Cheetah schreef op vrijdag 12 december 2008 @ 13:55:
[...]

[...]
PhysX is de belangrijkste concurrent van Havok, en hoewel Havok een grotere marketshare heeft (150+ games) is het verschil niet dramatisch als je kijkt naar deze niet uitputtende supported-software lijst op wikipedia.
En wat staat er boven die lijst?
The following games feature PhysX hardware support (although most of them don't work with the Geforce PhysX, and have no support from Nvidia
Precies en da's nu juist waar het aantal post terug ook op werd gewezen.
Veel marketing gepraatgeblaat over Physix, maar echt veel verder dan een paar demo's en enkele titels is het niet gekomen.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 14:41:
[...]
Kun je misschien ook de bron hiervan posten die mijn 'epic fail' bevestigd?
Zou voor het eerst zijn dat er zichtbaar ingame verschil is, en ik wil het graag lezen :)

[...]
Mezelf quoten kan ik ook hoor:
[...]
Dat zeg ik. Ik geef alleen aan dat een sandwiched 4850X2 vermoedelijk moeiteloos in vrijwel alle kasten had kunnen passen. Niets meer en niets minder.
Wat jij er verder bij sleurt, inclusief vergelijkingen met andere kaarten, komt niet bij mij vandaan.
Nog afgezien van dat ~2cm extra op een formaat dat in veel kleinere kasten al vrij moeilijk te managen is (10.5") wel degelijk een aardig verschil is. Maar die opmerking zal wel bijna godslastering zijn in je optiek :/
"Imagine no religion" als avatar. Hoe ironisch.
Dat zijn mijn eigen screenshots van mijn eigen onderzoek met behulp van Unigine Tropics Engine. Probeer het zelf zou ik zeggen: http://unigine.com/

Nee jij zegt dat hij in veel kasten niet gaat passen. Dat is gewoon rond uit niet waar, hij zal nog in veel kasten gaan passen, waar die andere grote kaarten ook in passen. Die grote kaarten passen ook niet in alle kasten. Streep die kasten weg en je houd nog zo veel kasten over waar hij wel in gaat passen.

Ik heb geen religion en ik heb zowel Nvidia kaarten als Ati kaarten(lees hier me reviews maar). Ik word alleen moe van de onzin die jij verkondigt, beetje zoals die mensen die aan de deur komen en je iets(een geloof) willen aanpraten.
Modbreak:Op de man spelen is nergens voor nodig. En geloofsopvattingen zijn hier volledig off-topic

[ Voor 14% gewijzigd door dion_b op 12-12-2008 18:45 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op vrijdag 12 december 2008 @ 14:31:
Zien jullie echt die randen op de bladeren niet?
Is vrij duidelijk hoor. ;)
Vooral bij het grote blad links.

En nu niet meer zeuren jongens. :N

[ Voor 11% gewijzigd door -The_Mask- op 12-12-2008 14:48 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 14:46:
Dat zijn mijn eigen screenshots van mijn eigen onderzoek met behulp van Unigene Tropics Engine. Probeer het zelf zou ik zeggen: http://unigine.com/
Ok. Dus 2 niet zo heel duidelijke screenshots die jij zelf hebt gemaakt met één (1) nog in ontwikkeling zijnde engine waarbij we weinig tot niets weten van de inhoudelijke implementatie zijn Het Bewijs. Goed.
Nee jij zegt dat hij in veel kasten niet gaat passen. Dat is gewoon rond uit niet waar, hij zal nog in veel kasten gaan passen, waar die andere grote kaarten ook in passen.
"Het is absoluut niet waar dat hij in veel kasten niet past, want hij past alleen maar in kasten waar ook andere grote videokaarten in passen". Dit heet een Contradictio in terminis.

Mind you dat ik zelf nooit de beperking "waar andere grote kaarten ook in passen" heb genoemd.

En nou ga ik er echt over ophouden.
Ik heb geen religion en ik heb zowel Nvidia kaarten als Ati kaarten. Ik word alleen moe van de onzin die jij verkondigt, beetje zoals die mensen die aan de deur komen en je iets willen aanpraten.
Zo'n 97% van de religieuzen die ik ken zijn minder fanatiek en fel in hun geloof als jij hier mij blijft aanvallen en misquoten bent over een eenvoudige, relatief neutrale, en aantoonbaar correcte statement over de lengte van de Sapphire 4850X2... een statement die in oorsprong niet eens van mij maar uit de FiringSquad review komt.
Modbreak:Offtopic en op de man spelend. Nokken!

[ Voor 3% gewijzigd door dion_b op 12-12-2008 18:47 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Met die grote plaatjes is het inderdaad echt veel beter te zien :)

@hierboven
Waarom zeuren? Cheetah gaat er immers vanuit dat hij altijd gelijk heeft. Dat is nu ook weer te lezen, eigenlijk in al z'n posts, maakt niet uit wat het onderwerp is. Of het nu over Physix gaat, grootte van kaarten of over een betere performance van DX10.1 tov. 10.0 btw, zijn eerste post daarover spreek boekdelen wat betreft z'n houding tegenover anderen . Het is gewoon altijd hetzelfde liedje. Het gaat niet om de inhoud, als hij de discusie maar kan winnen. Inmiddels ontzettend off-topic, maar ik word er echt niet goed van. Wekenlang hoor je niets en na twee drie posts is het al meteen raak, waarbij wordt geprobeerd om CJ uit z'n tent te lokken.

edit. Dat Cheetah nu ook begint over de avatar van Reinman vind ik helemaal typerend.
Vooral zaken die er niets toe doen erbij halen, om iemand nog verder uit z'n tent te lokken...

Modbreak:Bewaar dit soort zaken aub voor topicreports. Post on-topic, behulpzaam en vriendelijk of post niet :o

[ Voor 18% gewijzigd door dion_b op 12-12-2008 18:47 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • movo.
  • Registratie: April 2007
  • Laatst online: 30-08 10:58
Tjezus, er komen weer 5 nieuwe kaarten uit. 2 uit het groene kamp en 3 uit het rode kamp. Maar die ene uit het rode kamp is nogal groot dus laten we dan maar ff 2 pagina's vol spammen. :P

Het verschil tussen DX10 en DX10.1 is wel duidelijk. Je moet eens naar het gras kijken.

Acties:
  • 0 Henk 'm!

Verwijderd

Cheetah schreef op vrijdag 12 december 2008 @ 15:00:
[...]
Ok. Dus 2 niet zo heel duidelijke screenshots die jij zelf hebt gemaakt met één (1) nog in ontwikkeling zijnde engine waarbij we weinig tot niets weten van de inhoudelijke implementatie zijn Het Bewijs. Goed.

[...]
"Het is absoluut niet waar dat hij in veel kasten niet past, want hij past alleen maar in kasten waar ook andere grote videokaarten in passen". Dit heet een Contradictio in terminis.

Mind you dat ik zelf nooit de beperking "waar andere grote kaarten ook in passen" heb genoemd.

En nou ga ik er echt over ophouden.

[...]
Zo'n 97% van de religieuzen die ik ken zijn minder fanatiek en fel in hun geloof als jij hier mij aan het aanvallen en misquoten bent over een eenvoudige, relatief neutrale, en aantoonbaar correcte statement over de lengte van de Sapphire 4850X2.
Grappig, krijg je het bewijs, kan je het zelfs niet eens op waarde schatten omdat het niet in je straatje past

Contradictie in term? hell nee, als jij het goed las staat er dat JIJ beweerst dat hij in veel kasten niet zou gaan passen. Daar ben ik het niet mee eens. Waar ik aan geef dat de andere concurrerende kaarten in die kasten ook niet zullen passen. Helaas wil jij gewoon constant aan het vergeten. De woord keuze zal wat ongelukkig gevallen zijn, maar blijkbaar is dat je enige argument nog maar. Jammer he, geen echte argumenten hebben.

Ik ben fel, omdat jij onzin verkoopt, ik kan niet tegen onzin.
Modbreak:En hoe noem je dit dan? On-topic? Jij ook nokken!

[ Voor 6% gewijzigd door dion_b op 12-12-2008 18:49 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Cheetah schreef op vrijdag 12 december 2008 @ 15:00:
[...]
Ok. Dus 2 niet zo heel duidelijke screenshots die jij zelf hebt gemaakt met één (1) nog in ontwikkeling zijnde engine waarbij we weinig tot niets weten van de inhoudelijke implementatie zijn Het Bewijs. Goed.
Dus zouden de pics wél geloofwaardig zijn als:
1. ze van groter formaat waren
2. ze niet gemaakt zijn door Reinman ( je flamet hier natuurlijk niet :z )
3. je inzicht hebt in de implementatie van de engine (kijk voor de grap eens op de genoemde site)

Wanneer heb jij dan wel ''voldoende inzicht'' daarin? Zo kan je wel aan de gang blijven. We weten niet exact hoe de engine van Far Cry 2 in elkaar steekt (voorbeeld), dus wat we zien is onzin. Right...

Acties:
  • 0 Henk 'm!

Verwijderd

Hij kan het ook zelf testen! Ik heb hem de link gegeven. Kan hij het zelf proberen is het niet?

Ik ben bezig met rechtstreekse screens te uploaden. 3mb stuk dus jah :P

Hier, in een rar. :)
http://www.filedropper.com/screenshots_6

[ Voor 15% gewijzigd door Verwijderd op 12-12-2008 15:23 ]


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Jejking schreef op vrijdag 12 december 2008 @ 15:16:
Dus zouden de pics wél geloofwaardig zijn als:
1. ze van groter formaat waren
2. ze niet gemaakt zijn door Reinman ( je flamet hier natuurlijk niet :z )
3. je inzicht hebt in de implementatie van de engine (kijk voor de grap eens op de genoemde site)

Wanneer heb jij dan wel ''voldoende inzicht'' daarin? Zo kan je wel aan de gang blijven. We weten niet exact hoe de engine van Far Cry 2 in elkaar steekt (voorbeeld), dus wat we zien is onzin. Right...
Wat ik probeer te zeggen is dat we niet weten hoe de AA implementatie onder die engine exact in elkaar zit. Wie weet werkt AA onder DX10 wel helemaal niet (goed) in de gebruikte implementatie. AA ziet er onder DX10.0 in FarCry2 namelijk bijzonder goed uit, en zo ook in diverse andere games.

We hebben tot nu toe nergens ingame een verschil gezien tussen 10.0 en 10.1 (1 elementje op 1 plek in AC daar gelaten), dan kunnen we m.i. niet door een particulier gemaakte screenshots van een nog niet uitontwikkelde engine als Het Grote Bewijs gaan aandragen dat DX10.1 pur sang 'enorm' IQ verschil oplevert... en al helemaal niet om een opmerking dat we er nog niet echt wat concreets van gezien hebben als "epic fail" te rechtvaardigen.

Ik vraag me trouwens sowieso af waarom op een normale manier reageren blijkbaar zo moeilijk is en er direct termen als "onzin", "FUD" en "epic fail" - inclusief een zooi misquotes, ad hominems en ongegronde verdachtmakingen - over tafel moeten.
Modbreak:Hou jij even op over "ongegronde verdachtmakingen". Over potten en ketesl... Hou het on-topic of post niet in dit topic.

[ Voor 12% gewijzigd door dion_b op 12-12-2008 18:51 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Verwijderd schreef op vrijdag 12 december 2008 @ 15:20:
Hij kan het ook zelf testen! Ik heb hem de link gegeven. Kan hij het zelf proberen is het niet?

Ik ben bezig met rechtstreekse screens te uploaden. 3mb stuk dus jah :P

Hier, in een rar. :)
http://www.filedropper.com/screenshots_6
Da's toch wel een aardig verschil! Vooral de randen van de vegetatie, maar ook beneden helemaal vooraan op de steiger waar je het water door een gat in de planken ziet.

@hierboven. Ga niet weer de gebeten hond uithangen zoals altijd, jij gebruikt weliswaar andere termen, maar je doet precies hetzefde. Zelf reageer je ook niet normaal door constant je eigen gelijk te ventileren
Modbreak:Don't feed the trolls...

[ Voor 71% gewijzigd door dion_b op 12-12-2008 18:51 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

Verwijderd

Jah, maar jullie zullen toch op de rest moeten wachten, voor ik mijn onderzoek publiceer. 87 benchruns gedaan en 33 screenshots. Moeten er nog veel meer worden. Ik hoop het nog dit jaar af te krijgen.

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 15:20:
Hij kan het ook zelf testen! Ik heb hem de link gegeven. Kan hij het zelf proberen is het niet?

Ik ben bezig met rechtstreekse screens te uploaden. 3mb stuk dus jah :P

Hier, in een rar. :)
http://www.filedropper.com/screenshots_6
Het verschil is inderdaad zichtbaar.
Het verschil in performance is echter ook zichtbaar rechtsboven, en erg groot:
* DX10.0 4xAA = 27fps
* DX10.1 4xAA = 15fps

10.1 4xAA zit op grofweg de helft van het aantal fps, terwijl 10.1 sneller zou moeten zijn met AA?
Ik vraag me serieus af of AA wel werkt in je 10.0 screenshot, en zeker als we performance meebekijken.

Misschien klopt het allemaal wel hoor, maar dit 'detail' illustreert wel precies wat ik bedoelde te zeggen hier.
Leuke om mee te nemen in je onderzoek in ieder geval ;)

[ Voor 7% gewijzigd door Cheetah op 12-12-2008 15:50 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

Verwijderd

Wat je ziet zijn drops, die wel eens voor komen(namelijk, F6 load, dan direct screenshot. Het waait namelijk dus wil ik het zo snel mogelijk bij elkaar hebben), dus geen gemiddelde effect of score.

DX10 no AI
974

DX10.1 no AI
974

DX9 AI
1104

DX10 AI
1027

DX10.1 AI
1033

DX10 4x AA AI
851

DX10.1 4X AA AI
850

Daar heb je de scores, en wat zie je nu? DX10.1 is niet alleen mooier, maar ook nog sneller! Mensen met een HD4870 melden zelfs dat DX10.1 10% sneller is :o. Het is wel zo dat zonder catalyst AI het verschil tussen DX10 en 10.1 al MINIMAAL is. Zie ook het verschil non oc vs oc. Daar zie je dat het verschil tussen OCed dx10 en 10.1 kleiner is dan bij niet oced. Blijkbaar zit daar ergens een bottlenek die vergroot word. Het is niet mijn CPU dat heb ik ook al getest. Dat gaat ik ook nog uit zoeken.

Afbeeldingslocatie: http://farm4.static.flickr.com/3065/3065731740_68c084608c.jpg?v=0
Gemiddelden zonder cat AI, daar ben ik nog mee aan het testen. Die geeft dus performance winst. Waar DX10.1 het dus nu wint van DX10 of ongeveer gelijk is(fout marge)

[ Voor 59% gewijzigd door Verwijderd op 12-12-2008 16:05 ]


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
Cheetah schreef op vrijdag 12 december 2008 @ 15:47:
[...]
Het verschil is inderdaad zichtbaar.
Het verschil in performance is echter ook zichtbaar rechtsboven, en erg groot:
* DX10.0 4xAA = 27fps
* DX10.1 4xAA = 15fps

10.1 4xAA zit op grofweg de helft van het aantal fps, terwijl 10.1 sneller zou moeten zijn met AA?
Ik vraag me serieus af of AA wel werkt in je 10.0 screenshot, en zeker als we performance meebekijken.

Misschien klopt het allemaal wel hoor, maar dit 'detail' illustreert wel precies wat ik bedoelde te zeggen hier.
Leuke om mee te nemen in je onderzoek in ieder geval ;)
je weet best dat één enkele screenshot niets zegt over gemiddelde of totale frame rate, daarvoor doe je een benchmark.
Maar grappig hoe jij het ene moment verder totaal geen conclusies aan z'n bevindingen wil verbinden (hij is toch immers een particulier die zelf maar wat plaatjes schiet van een nog verder te onwikkelen engine, zoals je het zelf verwoord) en dan het andere moment dan weer wel voor waarheid aanneemt. Het is maar net hoe het je uitkomt... U meneer, bent een draaikont.
Modbreak:En door dit zo te stellen ben jij een flamer :/


Ja, in mij ogen wel ja, jij kiest ervoor om altijd tegen alles en iedereen maar in te gaan, dit soort discussies uit te lokken en je gelijk te halen. Dat het paar keer gebeurt ala, maar zo gaat het al maanden zo niet jaren. En daar ga ik nu tegenin, ben blijkbaar niet de enige.

edit. De kwoot staat er weer in hoor.
Maar goed, ik lees al een tijd lang met heel veel plezier dit topic, totdat jij hier tegen zere benen aan gaat schopen. heb het gewoon gehad met dat gedrag en dat mag je weten ook. je kan best een mening hebben, maar die van jou dring je anderen op en als iemand anders z'n mening niet bij de jouwe aansluit ga je netzo lang door om die persoon van jou superieure kennis/mening te overtuigen tot we elke keer op dit soort gesprekken uitkomen die alleen nog maar gaan over het gelijk hebben/halen/krijgen.
dit is het laatste wat ik er over zeg

Ik bied hierbij mijn welgemeende excuses aan de Mods en de ander lezers in dit topic. Sorry om het zo ver door te laten gaan, maar na een paar jaar elke keer ditzelfde gezeur ben ik het gewoon helemaal zat. :(
Je zal van mij geen posts meer lezen hierover.

Modbreak:Ah, nog eentje die temidden van het posten van trolls roept niet meer erover te zullen posten |:(

Hou het on-topic, laat het modereren aan de mods over, maak TRs aan voor onacceptabel gedrag en post gewoonweg on-topic en meer niet :o

[ Voor 42% gewijzigd door dion_b op 12-12-2008 18:54 ]

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Zonder verder op je post in te gaan Demon-Eyes, vraag ik me af of bovenstaand nou werkelijk zo nodig is?

<edit>
En om er toch op in te gaan: ik wacht inderdaad een professionele analyse af voordat ik definitief een mening vorm. Dat wil niet zeggen dat andere initiatieven in de tussentijd niet interessant kunnen zijn om in het achterhoofd te houden. Waarom dat me op "u meneer bent een draaikont" moet komen te staan is me onduidelijk. <edit2> en is nu inmiddels ook weer weg terug zie ik. Jammer dat het zo moet gaan hier...

<edit 3> Excuse me for having an opinion that you don't share, maar gelukkig ben ik in ieder geval over het algemeen niet degene die loopt te trollen.
Modbreak:Hou het on-topic en meld fout gedrag van anderen in topicreports. Of beter nog: sta even bij stil hoe het met jouw zonde staat voordat je stenen werpt

[ Voor 95% gewijzigd door dion_b op 12-12-2008 18:57 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Toaby
  • Registratie: Juni 2007
  • Laatst online: 19:26
Cheetah schreef op vrijdag 12 december 2008 @ 16:12:
Zonder verder op je post in te gaan Demon-Eyes, vraag ik me af of bovenstaand nou werkelijk zo nodig is?

......
Ik vraag me af of al die discussies wel zo nodig zijn
Modbreak:Ik *WEET* dat al deze posts niet nodig zijn. Doe ze dan ook niet, maak gewoon een TR aan :o

[ Voor 93% gewijzigd door dion_b op 12-12-2008 18:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Als dit zo vaak gebeurt cheetah(dit is niet de eerste keer dat mensen hier over je heen vallen), zou het mischien aan jouw kunnen liggen?
Modbreak:Offtopic.

[ Voor 63% gewijzigd door dion_b op 12-12-2008 18:58 ]


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
Cheetah, je wilde nog meer bewijs zien? Zoek even screenshots van STALKER: Clear Sky met die nieuwste patch, daar zit DX10.1 support in... Je ziet heel duidelijk dat alles VEEL better ge-anti-aliased is.

Acties:
  • 0 Henk 'm!

Verwijderd

XFX goes ATI
We've managed to confirm that XFX will join the ATI camp at the start of the new year. XFX won't drop Nvidia products either, but obviously, Nvidia won't be thrilled by this turn of events.

There's been a lot of talk of Nvidia partner defections and reshuffles in recent months, and some have already gone red. XFX is just following the trend and leaving Nvidia in a rather awkward situation of having just a single powerful Nvidia exclusive partner - EVGA.

We can't say we're surprised, after all we've reported about strains in Nvidia-AIB partner relations on many occasions. Low margins, the lack of competitive products in several market segments, coupled with the economic slowdown which is exasperating the situation further, are obviously pushing Nvidia AIBs to embrace ATI.
Bron : http://www.fudzilla.com/i...sk=view&id=10918&Itemid=1

Acties:
  • 0 Henk 'm!

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Verwijderd schreef op vrijdag 12 december 2008 @ 16:24:
Als dit zo vaak gebeurt cheetah(dit is niet de eerste keer dat mensen hier over je heen vallen), zou het mischien aan jouw kunnen liggen?
Het afschieten van de messenger ligt lang niet altijd aan de messenger.
En als je dan kijkt waar ik hier op afgeschoten wordt (en wat ik daarbij allemaal naar m'n hoofd geslingerd krijg)... om een opmerking - van FS! - over de lengte van de Sapp 4850X2 en m'n persoonlijke mening over physx :X
Modbreak:Je wordt niet aangevallen op je inhoudelijke uitspraken, maar over je trollerige stijl van posten. Waar je overigens al eens eerder voor gebanned bent geweest...

Los daarvan, je hebt meermaals geroepen hier niet op in te gaan. Het zou je sieren als je een man van je woord zou zijn
Avalaxy schreef op vrijdag 12 december 2008 @ 16:31:
Cheetah, je wilde nog meer bewijs zien? Zoek even screenshots van STALKER: Clear Sky met die nieuwste patch, daar zit DX10.1 support in... Je ziet heel duidelijk dat alles VEEL better ge-anti-aliased is.
Heb je misschien een link voor me? Heb net even een Google search gedaan op "STALKER Clear Sky dx10.1 screenshots" maar ik kom niet veel tegen. En in wat ik wel tegenkwam (bovenaan in search) wordt juist wat anders beweerd:
Environment: water, sun rays blah. Just looks prettier and prettier with DX10 shaders and AA (I could not really see what the big difference is between DX10 and DX10.1 though. Did notice a slight drop on fps so I turned DX10.1 extensions off).

[ Voor 9% gewijzigd door dion_b op 12-12-2008 18:59 ]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Met AF is nV weer beter.

En zo blijven we aan de gang... }:|

Als de beelden bewegen zie je maar bar weinig verschil qua IQ tussen DX10 of DX10.1 als je het mij vraagt. (Of tussen de AF van nV en ATi.) Het is mooi dat een stilstaand plaatje er uitvergroot iets beter aliased uitziet, maar ik ga niet urenlang naar een plaatje zitten staren, of stilstaan in een game, omdat de AA zo veel beter is met DX10.1. Daar komt bij dat nV vroeg of laat ook DX10.1 of 11 (waar het uiteraard ook inzit) zal gaan gebruiken, en dan is het hele DX10.1 verhaal weer geen discussie.

Zowieso zijn we over een half jaar de GTX280 en HD4870 weer "vergeten" (niet echt natuurlijk, maar je weet wat ik bedoel), en dan gaat de discussie weer ergens anders over. Dan is er weer een ander verschil waar "we" ons druk om kunnen maken...

Tijdverspilling deze discussies. Er komt toch niemand als winnaar uit de bus, en jullie worden het toch niet eens. Dat is 1 van de redenen waarom ik niet meer in discussie ga. We kunnen elkaar toch niet overtuigen, en er is altijd wel iets of iemand te vinden die weer het tegendeel van een standpunt bewijst/ post.

Op ATi kan je goed gamen, en op nV ook. Niet te druk om maken. Klaar.

Ga gamen en geniet ervan, zou ik zeggen.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ik denk dat sowieso bij een benchmark veel meer ziet van de randjes en de kantjes, dan als je een beetje een flitsende game aan het spelen bent. Dan zie je dat al niet meer, omdat te druk bezig bent met de game. Al moet ik toch zeggen dat ik me wel aan randjes kan ergeren en dus wel echt met AA wil gamen. Het viel mij juist bij deze benchmark wel op wat het verschil was tussen DX10 en 10.1, en ik vond Wide Tent en Narrow Tent ook duidelijk meer blurry dan edge detect.

[ Voor 27% gewijzigd door Verwijderd op 12-12-2008 16:53 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Zonder AA is iets anders dan met AA. 2x AA of geen AA is een wereld van verschil. Dat vind ik ook.

Zonder AA gamen, dát is pas erg. Het verschil tussen de IQ van DX10 en 10.1 is zo minimaal dat het niet eens een discussie waard is imho.

Dat geldt trouwens voor het HELE IQ verhaal. "Ze" doen weinig voor elkaar onder.

[ Voor 14% gewijzigd door Format-C op 12-12-2008 16:54 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Persoonlijk wil ik toch wel 4x aa eigenlijk. Liefst met Edge Detect aan :o

Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 20:50
Cheetah schreef op vrijdag 12 december 2008 @ 16:45:
[...]
Heb je misschien een link voor me? Heb net even een Google search gedaan op "STALKER Clear Sky dx10.1 screenshots" maar ik kom niet veel tegen. En in wat ik wel tegenkwam (bovenaan in search) wordt juist wat anders beweerd:
Hmm, ze zijn inderdaad vreselijk moeilijk te vinden. CJ had eerst een paar schermschoten gepost waarop je duidelijk veel betere IQ zag met AA, en de performance was gelijk (of zelfs hoger).

Misschien kan CJ ze posten? Ik heb heel google al uitgepluist.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Verwijderd schreef op vrijdag 12 december 2008 @ 16:54:
Persoonlijk wil ik toch wel 4x aa eigenlijk. Liefst met Edge Detect aan :o
Edge detect is leuk, maar niet echt bijzonder. 4x supersample of transparency AA is meer dan zat. Vind ik.

In race games is 8x (SS of TR) AA weer mooier, maar op 1920x1200 is in een hoop recente games 4x edge detect ook alweer teveel van het goeie. Dat is meer iets voor de iets oudere games.

In shooters of RPG's is 4xAA al zat vind ik.

Ik denk dat we over een half jaar videokaarten hebben die nagenoeg geen performancehit meer geven met AA. Als er SUPER snel GDDR5 op komt te zitten zodat je in de buurt van de 200GB/s bandbreedte komt, dan merk je het niet eens meer als je 4xAA aanzet denk ik.

[ Voor 8% gewijzigd door Format-C op 12-12-2008 17:00 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Verwijderd

Ik hoop het, er word al jaren geroepen van "free AA", daar heb ik er persoonlijk nog weinig van gemerkt, al moet ik zeggen dat percentueel mijn HD4850 minder hit krijg dan mijn G80 GTS.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ik merk weinig verschil tussen de performance hit met AA tussen de HD4870X2 en GTX260/ 280 SLi. De huidige kaarten zijn al BIJNA zo snel dat 4x AA al bijna "gratis" is. De hit valt reuze mee... Maar dan heb ik het over multi GPU. Dan heb je power "over" op de een of andere manier. Net of je een 1 of andere overhead/ bottleneck hebt waardoor AA weinig hit heeft..

De HD4870X2 en GTX2x0 SLi zijn zó gruwelijk snel met AA... Het verschilt per merk (ATi of Nv) per game, maar het is: heerlijk gamen. _/-\o_

Ik bedoel; als je Bioshock al kan spelen onder XP met 8xAA, wat wil je nog meer? COD met 4x of 8xA? Fallout 3 met 4xAA? Overlord met 4xAA? GRID met 8xAA? Dat is gewoon schandalig snel! :o Er zijn niet echt veel games die de huidige generatie kaarten op hun knieen krijgen.

Alles draait perfect.

En qua IQ en performance zijn "ze" beide nagenoeg even goed als je alle plussen en minnen wegstreept. :) Niet te druk om maken. :)

[ Voor 64% gewijzigd door Format-C op 12-12-2008 17:17 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Hmm. Zo te zien is het hier weer gedaan met de 'rust'. Het speelkwartier is weer voorbij jongens. ;) Hoog tijd voor wat sappige geruchten/nieuwtjes om over te discussieren...

XFX echt rood of niet... ben benieuwd...

En die screens kwamen van de Unigine site... Deze dus:

DX10 No AA
Afbeeldingslocatie: http://unigine.com/press-releases/081030-tropics-1.1/0_noAA_sm.png

DX10 4x AA
Afbeeldingslocatie: http://unigine.com/press-releases/081030-tropics-1.1/0_4xAA_10.0_sm.png

DX10.1 4x AA
Afbeeldingslocatie: http://unigine.com/press-releases/081030-tropics-1.1/0_4xAA_10.1_sm.png

Klik voor de grote versies hier: http://unigine.com/press-releases/081030-tropics-1.1/

Alleen de laatste heeft correcte multisampling AA dankzij de verbeteringen die DX10.1 biedt boven DX10. NV ondersteunt dit gedeelte ook wel, maar voldoet dus niet aan alle DX10 vereisten om hun kaarten als DX10.1 te kunnen bestempelen. Reken maar dat ze dat wel gedaan hadden als ze wel alles zouden ondersteunen. Tot die tijd geldt de regel: "Downplay a feature until you have it yourself".

Edit: Ter info voor Cheetah aangezien hij blijkbaar nog niet genoeg background info over Far Cry 2 heeft opgezocht.... Far Cry 2 gebruikt de DX10.1 implementatie van AA op o.a. de foliage. En dat is dus net dat gedeelte van DX10.1 wat NV wel ondersteunt in hun GPUs. Dus DX10.1 zinloos? Nee, absoluut niet... anders had de AA in Far Cry er niet zo goed uit gezien.

[ Voor 169% gewijzigd door CJ op 12-12-2008 17:57 ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Splinter Cell
  • Registratie: November 2005
  • Laatst online: 16:38

Splinter Cell

Glasvezel MASTER RACE

GameKings Hardware woensdag: HIS 4870X2 (voor wat het waard is)

http://www.gamekings.tv/i...ag-his-radeon-hd-4870-x2/

[ Voor 8% gewijzigd door Splinter Cell op 12-12-2008 18:34 ]


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Die 900MHz core clock op de RV775XT is wel verassend, op een RV770(XT) lukt dat (bijna?) niemand... Dat van die 40 shaders extra kan ik me nog wel realistisch voorstellen, als de yields dusdanig goed zijn dat de redundante blocks ook gebruikt kunnen worden.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
TGEN schreef op vrijdag 12 december 2008 @ 20:44:
Die 900MHz core clock op de RV775XT is wel verassend, op een RV770(XT) lukt dat (bijna?) niemand... Dat van die 40 shaders extra kan ik me nog wel realistisch voorstellen, als de yields dusdanig goed zijn dat de redundante blocks ook gebruikt kunnen worden.
Hoe bedoel je dat van die RV770(XT)?
Weliswaar met hogere voltage dmv voltmods, maar ik zie er toch wel veel 900MHz doen op Xtreme bijvoorbeeld. Dus kan me goed voorstellen dat het met de nieuwe RV775XT wel lukt.

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Demon_Eyez schreef op vrijdag 12 december 2008 @ 20:58:
[...]
Hoe bedoel je dat van die RV770(XT)?
Weliswaar met hogere voltage dmv voltmods, maar ik zie er toch wel veel 900MHz doen op Xtreme bijvoorbeeld. Dus kan me goed voorstellen dat het met de nieuwe RV775XT wel lukt.
Ik denk niet dat ze die op echt hogere voltages willen laten draaien; ze hebben immers een bepaald TDP target, en stroomverbruik, waar ze niet graag flink overheen willen gaan. De RV775XT moet ontworpen zijn met 'minder optimale' koelingsmogelijkheden in het achterhoofd (lees: behuizingen met slechte airflow in warme landen op een zeer zonnige dag midden in de zomer ;)). Ze zullen toch niet van je verwachten minstens waterkoeling te gebruiken? :P

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Dat doen ze ook niet, zou onrealistisch zijn.

Ik wilde bijna gaan zeggen dat een kleiner procede vrij waarschijnlijk een lager verbruik met zich meebrengt, totdat ik me realiseerde dat RV775XT ook op 55nm gebakken zou worden.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
TGEN schreef op vrijdag 12 december 2008 @ 20:44:
Die 900MHz core clock op de RV775XT is wel verassend, op een RV770(XT) lukt dat (bijna?) niemand... Dat van die 40 shaders extra kan ik me nog wel realistisch voorstellen, als de yields dusdanig goed zijn dat de redundante blocks ook gebruikt kunnen worden.
Die 40 extra shaders zijn dus eigenlijk heel erg onlogisch... .zeker als je die zgn 48 extra TMUs er bij neemt....

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Demon_Eyez
  • Registratie: Juni 2001
  • Laatst online: 05-06 20:40
TGEN schreef op vrijdag 12 december 2008 @ 21:19:
[...]

Ik denk niet dat ze die op echt hogere voltages willen laten draaien; ze hebben immers een bepaald TDP target, en stroomverbruik, waar ze niet graag flink overheen willen gaan. De RV775XT moet ontworpen zijn met 'minder optimale' koelingsmogelijkheden in het achterhoofd (lees: behuizingen met slechte airflow in warme landen op een zeer zonnige dag midden in de zomer ;)). Ze zullen toch niet van je verwachten minstens waterkoeling te gebruiken? :P
Nee dat snap ik ook, maar wat ik zeggen is, dat als het end-users het 'redelijk' makkelijk voor elkaar krijgen om met iets meer sap al de 900MHz te bereiken, dan is het in mijn ogen niet zo onrealistisch dat het ATI ook lukt om dit te doen met minder voltage en een verbeterd chip ontwerp.
Uiteraard ga ik ervan dat het ATi lukt om dat te doen zonder er 1.4v doorheen te jassen en een waterblock erop te zetten zoals het nu bij de RV770 gedaan wordt :)

i7-3770K @ 4800 MHz | 2x4096 G.Skill F3-2400C10D-8GTX @ 2400 MHz | Gigabyte Z77X-UD5H-WB WIFI | Asus HD7950 DCU2 met Swiftech Komodo Ful Cover


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

CJ schreef op vrijdag 12 december 2008 @ 21:33:
[...]


Die 40 extra shaders zijn dus eigenlijk heel erg onlogisch... .zeker als je die zgn 48 extra TMUs er bij neemt....
8 extra TMUs, niet overdrijven he ;). Dit zou dan moeten duiden op een significant aangepast ontwerp, en respin? Wanneer worden deze modellen eigenlijk op de markt verwacht?

Overigens nog iets anders wat ik me afvraag, wordt die RV775Pro uitgerust met GDDR4 gezien de clocks van 1400MHz, dus 2800MHz effectief?

[ Voor 14% gewijzigd door TGEN op 12-12-2008 21:58 ]

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
TGEN schreef op vrijdag 12 december 2008 @ 21:53:
Overigens nog iets anders wat ik me afvraag, wordt die RV775Pro uitgerust met GDDR4 gezien de clocks van 1400MHz, dus 2800MHz effectief?
Alhoewel ik sowieso vraagtekens heb bij de specs van een eventuele RV775, is er qua geheugen wel wat aan het veranderen.

Er is ook GDDR5 geheugen (al dan niet al beschikbaar) dat aanzienlijk sneller kan draaien (ik meen iets van 7GHz effectief) dan het geheugen dat nu wordt gebruikt op de RV770XT. Die 1400MHz zou technisch dus ook die snellere GDDR5 kunnen behelzen.

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

dahakon schreef op vrijdag 12 december 2008 @ 22:50:
[...]


Alhoewel ik sowieso vraagtekens heb bij de specs van een eventuele RV775, is er qua geheugen wel wat aan het veranderen.

Er is ook GDDR5 geheugen (al dan niet al beschikbaar) dat aanzienlijk sneller kan draaien (ik meen iets van 7GHz effectief) dan het geheugen dat nu wordt gebruikt op de RV770XT. Die 1400MHz zou technisch dus ook die snellere GDDR5 kunnen behelzen.
Nou, in dat geval zouden zowel de Pro als de XT even snel geheugen krijgen, wat mij onrealistisch lijkt. De huidige XT (HD4870) heeft 900MHz GDDR5, en zou dus een significante boost krijgen om de snellere clocks en meer shaders te kunnen voeden. De huidige Pro (HD4850) is in bepaalde gevallen duidelijk bandwidth-bottlenecked met zijn GDDR3, dus daar zou GDDR4 wel een uitkomst kunnen zijn; op dit moment is er iig in de grafische markt weinig vraag naar die producten (productie van de HD3870 is al een tijd geleden gestopt), en de geheugencontroller van ATi kan ook daar makkelijk mee overweg. Dus al met al lijkt me dat wel realistisch.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

Verwijderd

hmm zou de naam HD4875 & HD 4855 mogelijk zijn?

gewoon het id van de vernieuwingen van HD 4870 en HD 4850 :)

En aangezien dat die RV775's 55nm zijn zou je nog meer juice er uit kunnen halen bettere OC's maybe :) een X2 variant zou miscien niet eens zo gek zijn maar of het nu echt waard is is ten tweede, dat ATi beter aan RV870 en R800 kan werken in plaats van een HD 4875 X2 ooit.

[ Voor 55% gewijzigd door Verwijderd op 13-12-2008 05:43 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
TGEN schreef op zaterdag 13 december 2008 @ 00:59:
[...]

Nou, in dat geval zouden zowel de Pro als de XT even snel geheugen krijgen, wat mij onrealistisch lijkt. De huidige XT (HD4870) heeft 900MHz GDDR5, en zou dus een significante boost krijgen om de snellere clocks en meer shaders te kunnen voeden. De huidige Pro (HD4850) is in bepaalde gevallen duidelijk bandwidth-bottlenecked met zijn GDDR3, dus daar zou GDDR4 wel een uitkomst kunnen zijn; op dit moment is er iig in de grafische markt weinig vraag naar die producten (productie van de HD3870 is al een tijd geleden gestopt), en de geheugencontroller van ATi kan ook daar makkelijk mee overweg. Dus al met al lijkt me dat wel realistisch.
Ik heb de tabel nog eens opgezocht (al weer een paar bladzijdes terug) en zag idd dat de 1400MHz (x2) werd gemeld bij de pro. Het lijkt me alleen een lichtelijk vreemde keuze. Als ze inderdaad GDDR4 erop zetten, en dan het GDDR4 dat dergelijke snelheden gemakkelijk haalt, dan zou het dus het geheugen van bv Samsung kunnen zijn dat ook 1600MHz haalt. Dat, de hogere core-snelheid en de extra shaders laat deze mogelijke kaart direct in het vaarwater zitten van de HD4870 (iets langzamer lopend geheugen, ~3200MHz effectief) maar wel een efficientere core.
Ze zouden die kaart relatief goedkoop in de markt moeten zetten, om de RV775XT versie maar niet onnodig uit de markt te prijzen, maar ook omdat de HD4850, die hij zou moeten opvolgen, juist zo populair is omdat deze zo ongelovelijk betaalbaar is voor wat je krijgt.

De vraag is of er nog fabrikanten zijn die nog GDDR4 maken, of het maken in oplages die nodig zijn voor een dergelijke kaart. De meesten richten hun pijlen ondertussen al op GDDR5, aangezien ook Nvidia nu toch duidelijk de voordelen ziet.

Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Opvallend stukje uit de recensie van de HD4850X2 door Benchmarkreviews:

Eerste getal is idle verbruik, het tweede staat voor de honger naar wattjes onder load.

*Sapphire Radeon HD 4850 X2 11139-00-40R 65 W 160 W
Palit Radeon HD 4870 Sonic Dual Edition (Turbo Mode) 88 W 233 W
ZOTAC GeForce GTX 280 AMP! Edition ZT-X28E3LA-FCP 54 W 235 W
Sapphire Radeon HD 4870 X2 102-B50902-00-AT 100 W 320 W
When I first tested (and published) this article, I wasn't certain that my results were accurate because of a very low power draw reading. After a full week of testing and re-testing, I can now be certain that my results were accurate all along. To my surprise, the Sapphire Radeon HD 4850 X2 exhibited such a low consumption at idle that it actually measured slightly less than a single Radeon HD 4850. But that's not the real news, because once I confirmed the results of my testing under full load this product stepped out and demanded my attention. At a mere 160W of VGA power consumption under load, the Sapphire Radeon HD 4850 X2 actually consumes 10W less power than the GeForce 9800 GX2. This might not mean anything to you yet, but consider this: it also consumes 83W less power than a single Radeon 4870, and a full 160W less than the 4870 X2 under load. That's very impressive energy efficiency in my book, and something that Sapphire should be quite proud of.

If enough power is supplied to the Sapphire 11139-00-40, a green LED glows from near the underside PCB heatsink. Without proper power, red LEDs glow to indicate a problem.

Keeping in mind that the Radeon HD 4850 X2 is NOT an AMD/ATI product, there's a lot to consider when you look at the phased power circuitry. Sapphire may have used a pair of ATI RV770 GPUs in their 4850 X2, but that's the end of the common parts list. Benchmark Reviews is still awaiting Sapphires official statement on the specifics of their engineering, but suffice it to say that they've managed to do something AMD couldn't: create an energy efficient Radeon video card.
Bron: http://benchmarkreviews.c...=72&limit=1&limitstart=10
Enerzijds geeft dit te denken hoe ''goed'' ATi wel niet is in het bouwen van zuinige circuitjes, aan de andere kant kan een dergelijk alternatief PCB ook weer goed zijn voor de verkoop.

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 11-09 14:49

Ultraman

Moderator Harde Waren

Boefje

Je vergeet één ding Jejking.
In het artikel staat op dit moment bovenaan in vette letters ook:
EDITORS NOTE 11/20/2008: The Power consumption results for this product are being re-tested. Due to unfortunate circumstances, the Kill A Watt EZ provided to Benchmark Reviews by P3 International has been determined to be defective and inconsistent. We apologize for any confusion this has caused to our visitors.
Wel al even geleden, maar hoe betrouwbaar zijn de resultaten is de vraag...

[ Voor 7% gewijzigd door Ultraman op 13-12-2008 11:40 ]

Als je stil blijft staan, komt de hoek wel naar jou toe.


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Kanarie. Ik had het wel zien staan maar in de conclusie staat er ook een editors note. Heb even de data door elkaar gehaald. We gaan zien in de nabije toekomst wat ervan waar is :)

Acties:
  • 0 Henk 'm!

  • WiXX
  • Registratie: Juni 2001
  • Laatst online: 08-09 21:17

WiXX

Kijk uit malloot een...

Had deze vraag ook al gevraagd in het radeon 48xx topic, maar waarschijnlijk weet iemand hier het antwoord ook erop.

Ik heb een 4870 kaart van 3dclub erin hangen. Vandaag heb ik mijn 10 meter HDMI kabel besteld zodat ik hem ook op mijn tv kan aansluiten. Maar kan ik dan 2 verschillende reso's laten lopen?

Dus gewoon een 720p signaal naar mijn tv sturen en de 1280x1024 reso op mijn pc houden?

Ik wil mijn tv alleen gebruiken voor films, dus ik blijf gamen op mijn pc monitor. Want ik kan me nogal inbeelden dat dit ook te maken heeft met of ik het beeld clone of dat ik hem extend.

Acties:
  • 0 Henk 'm!

Verwijderd

WiXX schreef op zaterdag 13 december 2008 @ 14:34:
Had deze vraag ook al gevraagd in het radeon 48xx topic, maar waarschijnlijk weet iemand hier het antwoord ook erop.

Ik heb een 4870 kaart van 3dclub erin hangen. Vandaag heb ik mijn 10 meter HDMI kabel besteld zodat ik hem ook op mijn tv kan aansluiten. Maar kan ik dan 2 verschillende reso's laten lopen?

Dus gewoon een 720p signaal naar mijn tv sturen en de 1280x1024 reso op mijn pc houden?

Ik wil mijn tv alleen gebruiken voor films, dus ik blijf gamen op mijn pc monitor. Want ik kan me nogal inbeelden dat dit ook te maken heeft met of ik het beeld clone of dat ik hem extend.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!


verder: ja.

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

dahakon schreef op zaterdag 13 december 2008 @ 09:26:
Als ze inderdaad GDDR4 erop zetten, en dan het GDDR4 dat dergelijke snelheden gemakkelijk haalt, dan zou het dus het geheugen van bv Samsung kunnen zijn dat ook 1600MHz haalt. Dat, de hogere core-snelheid en de extra shaders laat deze mogelijke kaart direct in het vaarwater zitten van de HD4870 (iets langzamer lopend geheugen, ~3200MHz effectief) maar wel een efficientere core.
Aangezien ze op hetzelfde procede geproduceerd worden lijkt het me dat ATi direct switched, en dan hoef je alleen nog maar voorraden weg te werken. Dat kan door de introductieprijs een korte tijd hoger te houden dan normaal, of eerst een voorraad RV775's aan te leggen alvorens ze op de markt te zetten.
Ze zouden die kaart relatief goedkoop in de markt moeten zetten, om de RV775XT versie maar niet onnodig uit de markt te prijzen, maar ook omdat de HD4850, die hij zou moeten opvolgen, juist zo populair is omdat deze zo ongelovelijk betaalbaar is voor wat je krijgt.

De vraag is of er nog fabrikanten zijn die nog GDDR4 maken, of het maken in oplages die nodig zijn voor een dergelijke kaart. De meesten richten hun pijlen ondertussen al op GDDR5, aangezien ook Nvidia nu toch duidelijk de voordelen ziet.
Ik heb geen idee of er nog actief GDDR4 wordt geproduceerd. :)

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • WiXX
  • Registratie: Juni 2001
  • Laatst online: 08-09 21:17

WiXX

Kijk uit malloot een...

Verwijderd schreef op zaterdag 13 december 2008 @ 15:06:
[...]

Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!


verder: ja.
sorry meneer

Acties:
  • 0 Henk 'm!

  • Iska
  • Registratie: November 2005
  • Laatst online: 24-08 21:44

Iska

In case of fire, use stairs!

Maar het antwoord is ja ;)

-- All science is either physics or stamp collecting


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

Ja leuk de RV775 maar wat niemand hier opvald. Of heb het gemist door al het pagina's offtopic gezever.

is de 5% meer shaders vs 20% meer TMU.
Dit houd in dat ze aan de grote shader TMU blokken gesleuteld hebben.

(4 TMU + (14 shaderbloken * 5 shaders/blok) ) * 12 // gok ik

RV770XT vs RV775pro/XT
RV775PRO = klok 29/30 RV770
RV775__XT = klok 6 / 5 RV770

Pro Mem 7/9 22% minder
XT mem 10/9 11% meer.
Pro/XT US 21/20
Pro US performance klok 29/30 * 21/20 1,5% meer
XT US performance klok 6/5 * 21/20 26% meer
Pro/XT TMU 6/5
Pro TMU texelrate klok 29/30 * 6/5 16% meer
XT TMU texelrate klok 6/5 * 6/5 16% 44% meer

RV775XT vs RV770XT
Geheugen 11% nou 30" gamers merken mischien niet zo veel van.
Kwa UnifiedShaders een kwart vooruit niet slecht en daarmee 50+% voorsprong op GTX280.
Kwa TMU power 44% dat kan je dus goed in texel en fillrate afhankelijke games merken. Mits het geheugen geen bottle neck is. Hiermee wat dichter in balance tov nV.
Maar voor nV verwcht ik daar juist meer shader power.

RV775pro. vs RV770
Kwa geheugen met 22% stuk minder dus allergies voor 30" shermen
Op ander gebieden marginale verbetering. Iets meer TMU power. Mogelijk betere keuze voor kleinere shermen tot 22"

De RV775XT zie ik liever in een 1GB uitvoering

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
SG schreef op zaterdag 13 december 2008 @ 17:13:


Pro Mem 7/9 22% minder
XT mem 10/9 11% meer.
Pro/XT US 21/20

RV775pro. vs RV770
Kwa geheugen met 22% stuk minder dus allergies voor 30" shermen
Op ander gebieden marginale verbetering. Iets meer TMU power. Mogelijk betere keuze voor kleinere shermen tot 22"
Je hebt een ding over het hoofd gezien. De gestelde geheugensnelheid voor de RV775pro zou 1400MHzx2 zijn, dus 40% sneller dan de RV770pro, hem erg dicht bij de geheugensnelheid van de RV770xt brengend.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Ik hoop dat ze hd4860 en hd4880 gaan heten. Zo wel zo logisch zijn.

Acties:
  • 0 Henk 'm!

  • Ultraman
  • Registratie: Februari 2002
  • Laatst online: 11-09 14:49

Ultraman

Moderator Harde Waren

Boefje

tomcatha schreef op zaterdag 13 december 2008 @ 17:53:
Ik hoop dat ze hd4860 en hd4880 gaan heten. Zo wel zo logisch zijn.
Als de performance in diezelfde lijnen valt wel ja.

Als je stil blijft staan, komt de hoek wel naar jou toe.

Pagina: 1 ... 3 ... 6 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!