Acties:
  • 0 Henk 'm!

  • Dint
  • Registratie: Februari 2006
  • Laatst online: 14-09 21:30
Stomme vraag misschien, maar.. zitten er nog verschillen tussen de Radeon HD5870 van Sapphire en de Radeon HD5870 van XFX?

Ik heb gister namelijk een Sapphire bij CD-ROM-LAND besteld, maar heb nu een XFX gekregen.

Acties:
  • 0 Henk 'm!

  • i7x
  • Registratie: Maart 2009
  • Laatst online: 31-08 21:24

i7x

Emoji fan 👽🦑🦋🍓

Nee er zit op dit moment nog geen verschil in. De XFX ziet er wel vetter uit. :P

🦅 U.S. ETFs kopen in Europa? https://europoor.com/ 📈 ARKK, 📈 UPRO, 📈 TECL, 📈 QQQJ, ...


Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 23-07 00:46
Welke driver (voor 5870) is op dit moment de beste?

Kepi_nl


Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 23-07 00:46
Dus beter de 66RC6 dan 66RC7?

Kepi_nl


Acties:
  • 0 Henk 'm!

Verwijderd

jeps vind ik wel en veel mensen op 3dguru zeggen van ook

Acties:
  • 0 Henk 'm!

  • rabor
  • Registratie: September 2002
  • Laatst online: 23-07 00:46
Ok ff testen dan.. tx.

Kepi_nl


Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 02 oktober 2009 @ 13:50:
Doet ati ook AFR 2 voor 2 kaarten in cf?
AMD heeft alleen maar 1 AFR mode. Ze werken dus net met AFR en AFR2 zoals NVIDIA dat doet. AFR2 is overigens niets meer dan AFR, maar dan met enkele compatibility flags die je aan en uit kan zetten om compatibiliteit in bepaalde games (bekend probleem is bv Gothic in donkere ruimtes die door torches verlicht worden waar de fps gigantisch naar beneden ging) te verbeteren. Door die flags aan te vinken kan je zelf uittesten of AFR iets beter mee schaalt.

AMD maakt hoofdzakelijk alleen gebruik van AFR als hoofd multirendering modus. SFR (of Scissors zoals het bij AMD genoemd wordt) wordt in een enkele geval gebruikt, maar niet veel meer. En Supertiling wordt alleen als noodmiddel gebruikt (het kan ook zijn dat dit inmiddels compleet is verwijderd, maar dat zal ik even moeten navragen aan m'n contactpersonen bij AMD).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Axelfoley007
  • Registratie: Juni 2007
  • Laatst online: 01:17
Verwijderd schreef op vrijdag 02 oktober 2009 @ 11:13:

Marketing machine is weer aan het draaien, waarom gooien ze niet meteen met cijfers ? procenten? hoeveel sneller die nog niet bestaande Fermi wel niet is? Beetje jammer voor Nvidia dat hun gewenste prijs nooit behaald gaat worden.als die geruchten klopen van 20% +\- 30% dan een standaard 5870 maar gelukkig zijn er ook nog mensen die voor hun zelf kunnen denken. En die al die subliminal messages niet toestaan :9

Hemlock = poison waarom zou dat nou zo zijn? :+
Zou het echt alleen maar marketing zijn, dit soort berichten ? Is het alleen maar bedoeld om de aandacht te trekken ?
Zou er geen bron van waarheid in zitten ?

Ik moet zeggen dat die foto's inderdaad erg slecht waren, maar dat moeten ze toch ook wel zelf doorhebben ? of is de drama daar zo groot dat ze met alles gooien wat ze hebben? Misschien is het de bedoeling van nVidia om deze discussie van "triest nieuws ect" te starten om een bepaalde reden (waar ik nog niet achter ben dan...).

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Gezien een paar reacties in de nVidia-thread, lijkt het me haast dat ze een serieuze poging deden, in de hoop dat er genoeg mensen zijn die niet verder kijken dan de bling en shine en de belofte van het nieuwste snelheidsmonster. De mensen die Charlie bij voorbaat nooit geloven, alleen omdat het Charlie is.

Ik vrees voor nVidia echter dat ze deze keer hun hand hebben overspeeld en dat AMD rustig zijn kaarten zal blijven verkopen, zeker wanneer de feestdagen dichterbij komen. Als de voorraden van HD5k kaarten vanaf halverwege oktober echt beginnen te komen, dan zit AMD waarschijnlijk wel eventjes gebeiteld.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Het is gewoon een aloud truukje van het afleiden van de aandacht aan iets dat wél gelanceerd is, om verdeeldheid te zaaien in de kampen waarvoor eerst alle of de meeste aandacht ging naar de nieuwe kaartjes die er zijn en om potentiële klanten van het andere kamp te doen twijfelen.

Kan iemand trouwens zeggen of er verschil is tussen het lawaai dat nVidia nu maakt, vergeleken met het lawaai dat ATI maakte enkele maanden voor de launch van de RV870?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
DevilsProphet schreef op vrijdag 02 oktober 2009 @ 18:15:
Kan iemand trouwens zeggen of er verschil is tussen het lawaai dat nVidia nu maakt, vergeleken met het lawaai dat ATI maakte enkele maanden voor de launch van de RV870?
AMD maakte eigenlijk heel weinig lawaai in de aanloop naar de presentatie van de kaart (10 september) en de feitenlijke launch. Ze lieten werkende DX11 kaarten zien, om te laten zien dat ze al heel ver zijn en dat de launch werkenlijk zal plaatsvinden op het geplande tijdstip (voor de Win 7 launch). Pas vlak voor de presentatie begonnen ze een beetje te hypen en kwamen er wat virals, maar dat was mijns inziens relatief bescheiden.

NVidia maakt statements, of laat anderen dat doen, dat alles koek en ei is met de GT300. Hij zou eerst ook als eerste DX11 kaart gelanceerd worden (alhoewel ik niet zeker ben of dit ook zo uitgedragen werd door nVidia zelf). Vervolgens is DX11 maar onbelangrijk, nadat AMD toch eerder was. Daarnaast zou de nieuwe kaart beschikbaar zijn bij de 'back-to-school' periode. Die hebben ze echter gemist. Vervolgens is de claim dat de kaarten goed leverbaar zouden moeten zijn voor Black Saturday (4e vrijdag van november, na Thanksgiving) Of ze dat halen blijft de vraag.

Boven alles, liet AMD al werkende kaarten zien voor de officiele release, waar nVidia tijdens de 'officiele' aankondiging (geplande specs zijn gegeven) niet eens een echte demo-kaart konden tonen.

Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
dahakon schreef op vrijdag 02 oktober 2009 @ 19:02:
[...]

AMD maakte eigenlijk heel weinig lawaai in de aanloop naar de presentatie van de kaart (10 september) en de feitenlijke launch. Ze lieten werkende DX11 kaarten zien, om te laten zien dat ze al heel ver zijn en dat de launch werkenlijk zal plaatsvinden op het geplande tijdstip (voor de Win 7 launch). Pas vlak voor de presentatie begonnen ze een beetje te hypen en kwamen er wat virals, maar dat was mijns inziens relatief bescheiden.

NVidia maakt statements, of laat anderen dat doen, dat alles koek en ei is met de GT300. Hij zou eerst ook als eerste DX11 kaart gelanceerd worden (alhoewel ik niet zeker ben of dit ook zo uitgedragen werd door nVidia zelf). Vervolgens is DX11 maar onbelangrijk, nadat AMD toch eerder was. Daarnaast zou de nieuwe kaart beschikbaar zijn bij de 'back-to-school' periode. Die hebben ze echter gemist. Vervolgens is de claim dat de kaarten goed leverbaar zouden moeten zijn voor Black Saturday (4e vrijdag van november, na Thanksgiving) Of ze dat halen blijft de vraag.

Boven alles, liet AMD al werkende kaarten zien voor de officiele release, waar nVidia tijdens de 'officiele' aankondiging (geplande specs zijn gegeven) niet eens een echte demo-kaart konden tonen.
Dat lijkt mij een verkoop truc, zodat mensen wachten met Ati kaarten kopen, omdat 'Fermi zo komt', maar ik denk dat het zeker 4x zo lang gaat duren, als de tijd die Ati nodig had tussen een werkende kaart en verkoop. Ik denk trouwens dat nvidia haar advertising departement gigantisch is..

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zoek benchmark statistieken van de 5870 en 4850 CF, zou graag het verschil willen zien. Iemand een link? :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op vrijdag 02 oktober 2009 @ 20:12:
Ik zoek benchmark statistieken van de 5870 en 4850 CF, zou graag het verschil willen zien. Iemand een link? :)
HD4850 CF zie je niet vaak. Je kunt het denk ik vergelijken met een HD4870 X2 - 35-40%. HD4850 is een 512 mb kaart dus dat is al 15% performance hit en verschil HD4850 en HD4870 is ook nog eens 20-25%.

[ Voor 15% gewijzigd door Astennu op 02-10-2009 20:37 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • warp
  • Registratie: Januari 2000
  • Niet online
De HD4850 is ook met 1GB te krijgen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
warp schreef op vrijdag 02 oktober 2009 @ 21:16:
[...]

De HD4850 is ook met 1GB te krijgen.
Ja die krijgt alleen geen performance boost van 15%. Daar is het maar 3% of zo. Omdat er gewoon niet genoeg bandbreedte is om het te benutten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 11-09 16:26

GekkeR

key = key

Met de beta drivers van Ati voor W7-64 (9.10 RC6) kreeg ik geen 24hz mogelijkheid.
Aangezien ik een 5870 heb, had ik niet veel keus voor zover drivers.
Gelukkig hadden de 9.8A drivers op de driver cd wel de juiste opties (24hz werkt gewoon).

Tip voor mensen die zich rot zoeken :p

--edit

Nevermind, de optie zit verstopt onder Displays dan rechtermuis op de !KLEINE! monitor en configure.
Daarna HDTV en 1080p24 aanvinken :)

[ Voor 20% gewijzigd door GekkeR op 03-10-2009 10:09 ]

[ pctje te zien hier ] - Miauw


Acties:
  • 0 Henk 'm!

  • Jeroenit
  • Registratie: Februari 2004
  • Laatst online: 02-06 20:25
ik heb net 2 Club 3D HD5850 kaarten besteld! Volgens de internetshop zijn ze binnen 6 tot 10 dagen binnen.

Nu heb ik net ontdekt dat mijn moederbord (Gigabyte P35-DQ6) wel 2 PCI-E sloten heeft, maar de eerste 16x is en de tweede slechts 4x. Heeft het nu wel veel zin om een 2e kaart in crossfire aan te sluiten? Ik ben bewust niet voor de 5870 gegaan omdat deze net niet in mijn kast past (of ik zou de harddrive bay voor een deel eruit moeten slopen) ..

Maar het feit dat het 2e PCI-E slot maar op 1/4 snelheid werkt tov het 1e baart me toch wel een beetje zorgen, ik ga geen 2e kaart aansluiten die maar voor een deel werkt of daardoor maar een klein beetje sneldheidswinst opleverd. Of zet hij de snelheden dan om naar 8x en 8x? Ik heb ook gelezen dat deze kaarten het best functioneren met een PCI-E 2.0 slot..
Toch ook maar een nieuw moederbord dan??

GigabyteX670GamingX-Ryzen7800X3D-DeepcoolLT720-32GB CorsairDominator DDR5-6000-GigabyteRTX4070-Logitech G513/G903/+PowerplayZ-5500-ProX Wireless-GTOmegaRacing-T300+Ferrrari+F1 Wheel-TH8A Shifter-Fanatec Clubsport V2-Moza HBP-AOC U3277FWQ-HP Reverb G2 V2


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Tja 4x (niet 2.0) is opzich best langzaam natuurlijk.... maar het moet vast wel kunnen:
http://www.techpowerup.co...I-Express_Scaling/25.html
Afbeeldingslocatie: http://tpucdn.com/reviews/AMD/HD_5870_PCI-Express_Scaling/images/perfrel.gif
Je zit dus tussen 1x @ 2.0 en 4x 2.0 in. (4x 2.0 = 8x)... Ik zou er wel een kopen als ik jou was.

[ Voor 16% gewijzigd door Paprika op 02-10-2009 22:26 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
DaChosen1 schreef op vrijdag 02 oktober 2009 @ 22:23:
Heeft het nu wel veel zin om een 2e kaart in crossfire aan te sluiten?
Nope, met zo'n moederbord zal het slechter spelen met 2 kaarten dan met 1. :p
Paprika schreef op vrijdag 02 oktober 2009 @ 22:26:
Tja 4x (niet 2.0) is opzich best langzaam natuurlijk.... maar het moet vast wel kunnen:
http://www.techpowerup.co...I-Express_Scaling/25.html
[afbeelding]
Je zit dus tussen 1x @ 2.0 en 4x 2.0 in. (4x 2.0 = 8x)... Ik zou er wel een kopen als ik jou was.
Dat gaat volgens mij niet over CrossFire, want het zal namelijk niet echt speelbaar zijn met twee kaarten op dat mobo, microstuttering noemen ze dat maar bij hem zal het meer op megastuttering lijken. :+

[ Voor 57% gewijzigd door -The_Mask- op 02-10-2009 22:28 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

DaChosen1 schreef op vrijdag 02 oktober 2009 @ 22:23:
Nu heb ik net ontdekt dat mijn moederbord (Gigabyte P35-DQ6) wel 2 PCI-E sloten heeft, maar de eerste 16x is en de tweede slechts 4x.
Het is wel fysiek x16? Anders moet je even een inkeping maken aan de achterkant :)

Acties:
  • 0 Henk 'm!

  • Jeroenit
  • Registratie: Februari 2004
  • Laatst online: 02-06 20:25
-The_Mask- schreef op vrijdag 02 oktober 2009 @ 22:26:
[...]

Nope, met zo'n moederbord zal het slechter spelen met 2 kaarten dan met 1. :p


[...]

Dat gaat volgens mij niet over CrossFire, want het zal namelijk niet echt speelbaar zijn met twee kaarten op dat mobo, microstuttering noemen ze dat maar bij hem zal het meer op megastuttering lijken. :+
Wat bedoel je daar precies mee? Waarom is dit moederbord niet geschikt voor deze kaarten of Crossfire?
Waar moet een moederbord dan vooral aan voldoen? Ik hoopte dat dit moederbord wel geschikt zou zijn, tenminste daar werd juist mee geadverteerd toen. Ik moet nl ook een andere proc aanschaffen als ik een nieuw mobo aanschafd denk ik... :|

GigabyteX670GamingX-Ryzen7800X3D-DeepcoolLT720-32GB CorsairDominator DDR5-6000-GigabyteRTX4070-Logitech G513/G903/+PowerplayZ-5500-ProX Wireless-GTOmegaRacing-T300+Ferrrari+F1 Wheel-TH8A Shifter-Fanatec Clubsport V2-Moza HBP-AOC U3277FWQ-HP Reverb G2 V2


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
DaChosen1 schreef op vrijdag 02 oktober 2009 @ 22:32:
[...]

Wat bedoel je daar precies mee? Waarom is dit moederbord niet geschikt voor deze kaarten of Crossfire?
Een PCIe x4 slot (of PCIe x16 slot met 4 lanes beschikbaar) is gewoon een veel te grote bottleneck voor die kaart. Waarschijnlijk lopen de games namelijk vloeiender met 1 kaart dan met 2 op dit moederbord.
Waar moet een moederbord dan vooral aan voldoen?
Minstens twee PCIe 2.0 x8 sloten.
Ik hoopte dat dit moederbord wel geschikt zou zijn, tenminste daar werd juist mee geadverteerd toen.
Is gewoon een beperking van de chipset, waarschijnlijk was er ook niks beter in die tijd. ;)
Ik moet nl ook een andere proc aanschaffen als ik een nieuw mobo aanschafd denk ik... :|
Q6600 kan nog wel even mee vooral als je gaat overklokken 3,6GHz zou mooi zijn.
Een tweedehands P45 mobo'tje met twee PCIe 2.0 x8 sloten zou ik naar gaan kijken. :)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Of een P45/X38/X48 chipset kopen... dan kan je processor nog gewoon mee. Tevens is dit een Nieuws discussie topic ;).

@ The_Mask,

zou het zo erg zijn... 't zou natuurlijk kunnen. 8x 2.0 (P45 X-fire) doet het in principe goed zat met 48** kaarjes, maar dit zou met 4x 1.0 maar 1/4e van zijn met snellere kaarten.... auch idd.

[ Voor 7% gewijzigd door Paprika op 02-10-2009 22:38 ]


Acties:
  • 0 Henk 'm!

  • Jeroenit
  • Registratie: Februari 2004
  • Laatst online: 02-06 20:25
dank jullie voor de uitleg, ik ga eens kijken of ik nu ook mijn mobo upgrade, dan wordt het inderdaad een X48 bord of iets dergelijks of ik het voorlopig met 1 5850 kaart ga doen.. (of de zaag pakken en toch 1 5870 kopen)

GigabyteX670GamingX-Ryzen7800X3D-DeepcoolLT720-32GB CorsairDominator DDR5-6000-GigabyteRTX4070-Logitech G513/G903/+PowerplayZ-5500-ProX Wireless-GTOmegaRacing-T300+Ferrrari+F1 Wheel-TH8A Shifter-Fanatec Clubsport V2-Moza HBP-AOC U3277FWQ-HP Reverb G2 V2


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Edit; mijn excuses. Verkeerd topic. :|

[ Voor 72% gewijzigd door Format-C op 02-10-2009 22:52 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
offtopic:
verkeerde topic schijnbaar... Foei Rappie! (nu moet ik die van mij ook editten :') )

[ Voor 92% gewijzigd door Paprika op 02-10-2009 22:55 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Astennu schreef op vrijdag 02 oktober 2009 @ 13:32:

[afbeelding]

Hier zie je bv dat de CF setup een keer even in de fout gaat met de fps maar de rest van de tijd goed scoort vs de single HD5850.
Ik vind dit goeie crossfire performance van de hd5850. Als je kijkt naar de meeste dipjes word het gewoon gelijk getrokken met 1 hd5850. Zou dat de cpu bottleneck zijn?

Ik vind het in iedergeval fijn om nog een arma 2 benchmark te zien. Het is gewoon de zwaarste game die er is die niet slecht gecode is.

Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30



Ik zag in dit filmpje dat als je eyefinity wil gebruiken op zn minst 1 monitor moet hebben die native een display port heeft, terwijl er toch echt een displayport naar DVI connector mee geleverd wordt, kan iemand dit beaamen?

Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 15:56

superwashandje

grofheid alom

dat ziet eruit als mijn monitor. gelukkig zit er een display port op :)

staat dat niet aangegeven in die slides die een tijd geleden voor de launch zijn gelekt?

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

Verwijderd

In z'n 2 minute Eyefinity Set-Up guide is inderdaad te zien dat 1 monitor native DP heeft en de andere 2 DVI.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Dat maakt eyefinity wel iets minder interessant. Mijn broer heeft nu al 3 schermen maar die zijn DVI en D-SUB. Dus dat houd in dat hij 3 nieuwe schermen moet kopen als je eyefinity wil gebruiken. Want je wil wel dezelfde schermen hebben en niet een andere. Dan krijg je kleur verschillen en verschil in hoe ze er uit zien hoe hoog de voet is de randen alles.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • superwashandje
  • Registratie: Februari 2007
  • Laatst online: 15:56

superwashandje

grofheid alom

+ ik geloof dat de display port schermen nog niet in de goedkoopste monitor regionen voorkomen. wat er op neerkomt dat je 3 dure monitoren zal moeten aanschaffen wil je 3 dezelfde.

Life is not the opposite of Death, Death is the opposite of Birth. Life is eternal.


Acties:
  • 0 Henk 'm!

  • SneakyNL
  • Registratie: Februari 2008
  • Laatst online: 10-09 18:20
Je kijkt toch veelal alleen naar het middelste scherm (helemaal in spellen), dus tenzij je erg struikelt over verschillen hoef je maar èèn monitor te vervangen.

Of iets als een actieve converter gebruiken. Zoiets meende ik ergens gelezen te hebben. Die zouden echter dan weer wat prijzig zijn.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Astennu schreef op zaterdag 03 oktober 2009 @ 11:33:
Dat maakt eyefinity wel iets minder interessant. Mijn broer heeft nu al 3 schermen maar die zijn DVI en D-SUB. Dus dat houd in dat hij 3 nieuwe schermen moet kopen als je eyefinity wil gebruiken. Want je wil wel dezelfde schermen hebben en niet een andere. Dan krijg je kleur verschillen en verschil in hoe ze er uit zien hoe hoog de voet is de randen alles.
Afbeeldingslocatie: http://www.techpowerup.com/reviews/AMD/HD_5000_Leaks/images/displays4.jpg

Volgens dit plaatje zou het toch mogelijk moeten zijn 2x DVI en 1 keer d-sub aan te sluiten.

Acties:
  • 0 Henk 'm!

  • Bullus
  • Registratie: Oktober 2006
  • Laatst online: 12-09-2024
Moet trouwens ook, omdat je maar 1x DP 1x HDMI en 2x DVI op je kaart hebt.
ATI looked at the effort required to enable all six outputs at the same time and made it so, thus the RV870 GPU can output to a maximum of six displays at the same time. Not all cards support this as you first need to have the requisite number of display outputs on the card itself. The standard Radeon HD 5870 can drive three outputs simultaneously: any combination of the DVI and HDMI ports for up to 2 monitors, and a DisplayPort output independent of DVI/HDMI. Later this year you'll see a version of the card with six mini-DisplayPort outputs for driving six monitors.

For our Eyefinity tests I chose to use every single type of output on the card, that's one DVI, one HDMI and one DisplayPort:
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/5870/tripleoutput.jpg
http://www.anandtech.com/video/showdoc.aspx?i=3643&p=9

[ Voor 98% gewijzigd door Bullus op 03-10-2009 11:48 ]

|2600k|Asus 290|


Acties:
  • 0 Henk 'm!

Verwijderd

^^^Je kan alleen geen coverter van dp naar dvi gebruiken.

Dit maakt eyefinity inderdaad voor 99% van de mensen een beetje onzinnig. Het kopen van een 3d monitor met nvidia 3d glasses lijkt nog zinniger :S

Ik denk dat weinige dit als gaming-setup gaan gebruiken vanwege de prijs en de performance die je gpu moet hebben om het fatsoenlijk te kunnen draaien. Het blijft alleen wel heel erg nuttig voor business-dingen.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Astennu schreef op zaterdag 03 oktober 2009 @ 11:33:
Dat maakt eyefinity wel iets minder interessant. Mijn broer heeft nu al 3 schermen maar die zijn DVI en D-SUB. Dus dat houd in dat hij 3 nieuwe schermen moet kopen als je eyefinity wil gebruiken. Want je wil wel dezelfde schermen hebben en niet een andere. Dan krijg je kleur verschillen en verschil in hoe ze er uit zien hoe hoog de voet is de randen alles.
Eén DisplayPort monitor is genoeg. Je kunt er dan twee DVI/VGA/HDMI monitoren naast zetten. Alleen als je drie identieke schermen wilt moet je dus wel flink gaan investeren..

Goud is geen geld


Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zaterdag 03 oktober 2009 @ 11:40:
[...]

[afbeelding]

Volgens dit plaatje zou het toch mogelijk moeten zijn 2x DVI en 1 keer d-sub aan te sluiten.
Nope, ik heb het bij AMD zelf gevraagd. Eén monitor _moet_ een DisplayPort aansluiting hebben. Anders gaat het feest met drie schermen niet op.

Overigens, mensen met een Radeon 5000 kaart: op het net zweeft een Russische S.T.A.L.K.E.R.: Call of Pripyat versie rond, schijnt final te zijn. Als je DirectX 11 dus wil benutten dan kan je nu aan de slag, of wachten tot Q1 2010 voor de EN versie.

Acties:
  • 0 Henk 'm!

  • CILLER
  • Registratie: December 2007
  • Laatst online: 11-09 18:42
Ik ga wel voor eyefinity
Het is idd lastig om een monitor te vinden die dp heeft en betaalbaar is. Gelukkig past de DELL p2210 qua formaat gelijk aan mijn 2 Samsung 226BW

Ik was eigenlijk van plan om een triplehead2go te gaan halen maar dit is een goedkopere oplossing die ook nog eens via drivers geregeld wordt.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zaterdag 03 oktober 2009 @ 12:13:
Nope, ik heb het bij AMD zelf gevraagd. Eén monitor _moet_ een DisplayPort aansluiting hebben. Anders gaat het feest met drie schermen niet op.
Dan is het dus minder flexibel dan de slides claimen. Maar goed, met de beschikbaarheid van de 5k serie zal ook langzaamaan de beschikbaarheid van betaalbare monitors met displayport toenemen. Bedrijven als Samsung en LG hebben over het algemeen wel oor naar leuke marketing-mogelijkheden en als er maar eerst 1 of 2 schapen over de dam zijn, blijft het gros over het algemeen niet lang achter. 2010 zal ons moeten tonen wat de markt gaat doen.

Acties:
  • 0 Henk 'm!

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

Ik dacht dat samsung aan speciale eyefinity monitoren werkte, met hele dunne randen ofzo?

Lijkt me dat ze die toch ook wel met displayport aansluiting doen, anders kan je er alsnog niks mee.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Marce schreef op zaterdag 03 oktober 2009 @ 12:43:
Ik dacht dat samsung aan speciale eyefinity monitoren werkte, met hele dunne randen ofzo?

Lijkt me dat ze die toch ook wel met displayport aansluiting doen, anders kan je er alsnog niks mee.
Er werden in ieder geval plannen gedemonstreerd voor een monitor met 3 panels met daartussen dunne randen. Maar ik denk dat het gros toch liever 3 losse monitoren heeft met displayports erop, omdat dit natuurlijk iets flexibelere mogelijkheden biedt. Maar ook die zullen vast wel komen.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zaterdag 03 oktober 2009 @ 12:27:
[...]


Dan is het dus minder flexibel dan de slides claimen. Maar goed, met de beschikbaarheid van de 5k serie zal ook langzaamaan de beschikbaarheid van betaalbare monitors met displayport toenemen. Bedrijven als Samsung en LG hebben over het algemeen wel oor naar leuke marketing-mogelijkheden en als er maar eerst 1 of 2 schapen over de dam zijn, blijft het gros over het algemeen niet lang achter. 2010 zal ons moeten tonen wat de markt gaat doen.
AMD had het opzettelijk niet in de slides gezet omdat het anders wat negatief kon overkomen. Maar goed, twee DVI/HDMI max, dat is een technische limitatie. DisplayPort is een compleet ander signaal.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Verwijderd schreef op zaterdag 03 oktober 2009 @ 11:52:
^^^Je kan alleen geen coverter van dp naar dvi gebruiken.

Dit maakt eyefinity inderdaad voor 99% van de mensen een beetje onzinnig. Het kopen van een 3d monitor met nvidia 3d glasses lijkt nog zinniger :S

Ik denk dat weinige dit als gaming-setup gaan gebruiken vanwege de prijs en de performance die je gpu moet hebben om het fatsoenlijk te kunnen draaien. Het blijft alleen wel heel erg nuttig voor business-dingen.
Ehm.. is dat niet een beetje bezijdens de waarheid? er zijn gewoon converters voor dp naar hdmi/dvi.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op zaterdag 03 oktober 2009 @ 13:04:
[...]


Ehm.. is dat niet een beetje bezijdens de waarheid? er zijn gewoon converters voor dp naar hdmi/dvi.
Alleen een beetje converter schijnt nogal aardig wat te kosten. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
neliz schreef op zaterdag 03 oktober 2009 @ 13:04:
[...]


Ehm.. is dat niet een beetje bezijdens de waarheid? er zijn gewoon converters voor dp naar hdmi/dvi.
Die zijn duur want het moet een active convertor zijn die het HDPC signaal kan doorsturen. + voor de benodigde 1920x1200 reso zorgen. Want een passive convertor gaat ook maar tot 1920x1080.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • M4gick
  • Registratie: September 2009
  • Laatst online: 02-09 22:43
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 13:06:
[...]

Alleen een beetje converter schijnt nogal aardig wat te kosten. ;)
Pfftt ik heb wel eens gezocht in de mediamarkt naar zo'n ding (had hem dringend nodig), en daar kost een DVI Hdmi dongel converter 25 euro ofzo 8)7

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zaterdag 03 oktober 2009 @ 11:52:
^^^Je kan alleen geen coverter van dp naar dvi gebruiken.

Dit maakt eyefinity inderdaad voor 99% van de mensen een beetje onzinnig. Het kopen van een 3d monitor met nvidia 3d glasses lijkt nog zinniger :S

Ik denk dat weinige dit als gaming-setup gaan gebruiken vanwege de prijs en de performance die je gpu moet hebben om het fatsoenlijk te kunnen draaien. Het blijft alleen wel heel erg nuttig voor business-dingen.
Steeds meer games zijn geoptimaliseerd voor console. Dit betekend dat de meerwaarde van een high-end videokaart steeds minder wordt t.o.v. een performance-kaart. Een gros van de markt kan tegenwoordig prima uit de voeten met een HD48xx of HD57xx kaart met native resoluties tot 1920 of 1680.

Eyefinity moet je meer zien als een nieuwe mogelijkheid voor zetten van een hogere gameplay-ervarings-standaard, dit niet alleen voor competitieve redenen maar ook om behoefte van toekomstige high-end kaarten te garanderen.
Over een jaar zie ik de volgende posts al verschijnen; "ik kan spel x prima spelen op één monitor maar wil een snellere/tweede kaart kopen om ook op drie te kunnen spelen...."

Op financieel oogpunt lijkt dit in eerste instantie duur. Maar een high-end kaart is nu zeker 200 euro goedkoper dan een aantal jaar geleden. Dus één monitor is al verdiend. Daarnaast zijn meerdere 22" of 24" monitoren per pixel een stuk goedkoper dan 30"
Een ander punt is dat niet alleen ATI, maar ook monitor fabrikanten belangen hebben bij deze markt. Ik dacht dat SAMSUNG al speciale "small bezel" modellen in de pijplijn heeft zitten. Deze zullen ongetwijfeld allemaal een dp interface hebben. De huidige situatie is niks meer dan enkel opstart problemen.

Overigens heeft nVidia altijd wel een woordje klaar m.b.t. de nutteloosheid van ATI-features, tot nu toe nog 0.0 gehoord over Eyefinity. Zal me niks verbazen dat ze achter de schermen wat engineers aan het werk hebben gezet onder het motto "nieuwe markt inzichten".

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Astennu schreef op zaterdag 03 oktober 2009 @ 13:17:
Die zijn duur want het moet een active convertor zijn die het HDPC signaal kan doorsturen. + voor de benodigde 1920x1200 reso zorgen. Want een passive convertor gaat ook maar tot 1920x1080.
€20passive: 1920x1200. http://www.startech.com/i...le-Adapter-Converter.aspx
active (met usb power) gaat inderdaad hoger. (€100)

maar dan praat je over iemand die net €5000 aan 30"2560x1600 schermen heeft uitgegeven! het "ja maar ik moet dan een active converter kopen" argument is de grootste nonsens! helemaal omdat je scherm dan waarschijnlijk al DP heeft.

[ Voor 11% gewijzigd door neliz op 03-10-2009 13:23 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Marce
  • Registratie: Oktober 2007
  • Laatst online: 31-07 11:30

Marce

Het is Marc met een C!

Astennu schreef op zaterdag 03 oktober 2009 @ 13:17:
[...]


Die zijn duur want het moet een active convertor zijn die het HDPC signaal kan doorsturen. + voor de benodigde 1920x1200 reso zorgen. Want een passive convertor gaat ook maar tot 1920x1080.
Gaat de kwaliteit dan erg achteruit ofzo, of is het enige nadeel dat je vast zit an 1920x1080?

Opzicht vind ik dat dan nog niet eens zo verkeerd. zon adapter (passief) kost nog geen 20 euro.
en ja, dan zit je met dat je die 120 pixels mist. Als ik ooit aan een eyefinity setup gaan dan zou ik ze toch in pivot zetten denk ik, dus dan heb je geen andere hoogte.

Edit, je kan dus ook naar 1920x1200. dus dan maakt het helemaal niet uit.
die 20 euro op 3 schermen met hdmi maakt dan ook niet meer uit.

[ Voor 9% gewijzigd door Marce op 03-10-2009 13:29 ]


Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

Marce schreef op zaterdag 03 oktober 2009 @ 13:26:
[...]


Gaat de kwaliteit dan erg achteruit ofzo, of is het enige nadeel dat je vast zit an 1920x1080?

Opzicht vind ik dat dan nog niet eens zo verkeerd. zon adapter (passief) kost nog geen 20 euro.
en ja, dan zit je met dat je die 120 pixels mist. Als ik ooit aan een eyefinity setup gaan dan zou ik ze toch in pivot zetten denk ik, dus dan heb je geen andere hoogte.
1920x1200 dus, en dat is omdat DVI maar een beperkte bandbreedte per link aankan (165 MHz als ik me niet vergis). Voor hogere resoluties op DVI heb je twee links nodig, Dual Link DVI dus, maar DisplayPort (en ook HDMI) hebben maar een link, die wel op hogere kloksnelheden kan draaien. Een passieve convertor zal dus niet dat hogere invoersignaal kunnen omzetten naar twee DVI links, en een actieve convertor wel. De kwaliteit gaat in principe niet achteruit, want de signalen zijn digitaal.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
neliz schreef op zaterdag 03 oktober 2009 @ 13:22:
[...]


€20passive: 1920x1200. http://www.startech.com/i...le-Adapter-Converter.aspx
active (met usb power) gaat inderdaad hoger. (€100)

maar dan praat je over iemand die net €5000 aan 30"2560x1600 schermen heeft uitgegeven! het "ja maar ik moet dan een active converter kopen" argument is de grootste nonsens! helemaal omdat je scherm dan waarschijnlijk al DP heeft.
Het is niet voor mij als je dat denkt :P Mijn broer wil dat hebben die heeft 3x Samsung 226BW. En die lijkt dit geweldig. Maar ja student net een eigen huisje je weet het geen geld..... Dus moet goedkoop. Kaartje valt mee 5850 van 200 euro oude HD4890 verkopen voor 120 kost je 80.
Marce schreef op zaterdag 03 oktober 2009 @ 13:26:
[...]


Gaat de kwaliteit dan erg achteruit ofzo, of is het enige nadeel dat je vast zit an 1920x1080?

Opzicht vind ik dat dan nog niet eens zo verkeerd. zon adapter (passief) kost nog geen 20 euro.
en ja, dan zit je met dat je die 120 pixels mist. Als ik ooit aan een eyefinity setup gaan dan zou ik ze toch in pivot zetten denk ik, dus dan heb je geen andere hoogte.

Edit, je kan dus ook naar 1920x1200. dus dan maakt het helemaal niet uit.
die 20 euro op 3 schermen met hdmi maakt dan ook niet meer uit.
Ja ok maar dan kun je eyefinity gewoon niet gebruiken. Je moet dat HDPC signaal hebben als ik me niet vergis. Vraag mij ook niet waarom ik heb het niet bedacht.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30
Bij mn 4870 zat al een DVI naar HDMI converter blokje, zou je die ook reversed kunnen gebruiken dan?

Toch in princiepe zijn 3 monitoren niet zo heel speciaal, ze helpen je alleen met een omgevings gevoel net als abilight, uiteindelijk kijk je er niet zo heel vaak op denk ik. Ik denk dat een enkele 28" of groter scherm minstens zo goed zal werken.

[ Voor 55% gewijzigd door Bulls op 03-10-2009 14:01 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Bulls schreef op zaterdag 03 oktober 2009 @ 13:59:
Bij mn 4870 zat al een DVI naar HDMI converter blokje, zou je die ook reversed kunnen gebruiken dan?

Toch in princiepe zijn 3 monitoren niet zo heel speciaal, ze helpen je alleen met een omgevings gevoel net als abilight, uiteindelijk kijk je er niet zo heel vaak op denk ik. Ik denk dat een enkele 28" of groter scherm minstens zo goed zal werken.
Nou ik heb een 30" en als ik dat eyfinity zie denk ik wel dat dat nog mooier is. Dan wel met 3x24" of zo. En smalle randen. Maar sommige zullen er niet som geven. Ik vind het er geweldig uit zien.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Bulls schreef op zaterdag 03 oktober 2009 @ 13:59:
Ik denk dat een enkele 28" of groter scherm minstens zo goed zal werken.
Je ziet dan nog altijd alleen het beeld voor je en een 30-inch met 2560x1600 ziet horizontaal nog altijd minder dan 3x 1680 (5040) of 3x 1920 (5760). Het gaat er net om dat je om je heen veel ziet.

Afbeeldingslocatie: http://img370.imageshack.us/img370/2918/dsc00096ed3.jpg
Afbeeldingslocatie: http://img76.imageshack.us/img76/1255/imgp1802.jpg
Afbeeldingslocatie: http://freelancer.modacity.net/pics/softth/LotRO/SoftTH_LotRO_006.jpg
Afbeeldingslocatie: http://wsgfmedia.com/uploads/paddywak/screenshots/gta4/GTA4-20.jpg

Wat ik me afvraag is of je misschien een 5850/5870 icm iets als een 4350 kunt gebruiken om eyefinity te laten lopen op 3 DVI poorten.

[ Voor 8% gewijzigd door Paprika op 03-10-2009 14:23 ]


Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30
Ik zie wel vaak dat ze de randen van de schermen naast elkaar tegen elkaar aan hebben staan. Lijkt me misschien handig om de 2 schermen die je links en rechts van het middelste scherm hebt een beetje achter de rand te plaatsen. Zo kun je een beetje smokkelen en blijft er misschien maar een stuk rand over zo breed als 1 of anderhalf rand.


Ik heb ook ooit een keer in een PCActive blad van uit 1999 ofzo een scherm gezien dat eigenlijk een scherm was van 3 schermen in 1, ook een beetje schuin, maar dan volledig zonder tussen randen op 1 voetstuk.
Ik heb het nooit meer ergens gezien, en op internet valt het ook niet te vinden ik weet niet eens hoe ik moet zoeken.
Ookal zou het nog bestaan dan zullen de specificaties om te huilen zijn (hoge responsetijd slechte kleuren en contrast en ook nog geen eens breedbeeld) Maar het idee was eigenlijk ver voor zn tijd uit waarschijnlijk voor matrox tripplehead ontworpen ofzo. Het was dus een compleet 3 schermen monitor met enkel een knik in het panel als scheiding. Wellicht kunnen ze met oled zelfs wel een vloeiend scherm maken die een bepaalde bolling heeft voor panorama beeld.


Edit:
iets als dit ongeveer alleen heeft deze 4 beeldschermen.
http://video.tomshardware.co.uk/video/iLyROoaftDNz.html

Edit:

[YouTube: http://www.youtube.com/watch?v=BugK1Ral680]


Ach en anders hang je een Philips 21.9 cinema op :9~

[ Voor 9% gewijzigd door Bulls op 03-10-2009 15:15 ]


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Heeft iemand dit wel eens geprobeerd?

http://forums.guru3d.com/showthread.php?t=293467

Werkt dat?

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Naluh!
  • Registratie: Juni 2003
  • Niet online
Ach, dat hele Eyefinity kan me totaal niet boeien. Geneuzel in de marge van de markt. Voor de doorsnee gamer gaat het om prijs en power :)

Specs


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Paprika schreef op zaterdag 03 oktober 2009 @ 14:19:
[...]

Je ziet dan nog altijd alleen het beeld voor je en een 30-inch met 2560x1600 ziet horizontaal nog altijd minder dan 3x 1680 (5040) of 3x 1920 (5760). Het gaat er net om dat je om je heen veel ziet.

[afbeelding]
[afbeelding]
[afbeelding]
[afbeelding]

Wat ik me afvraag is of je misschien een 5850/5870 icm iets als een 4350 kunt gebruiken om eyefinity te laten lopen op 3 DVI poorten.
Dat kun je vergeten want dan had het nu ook met bv 2x HD4870 moeten werken. En zodra je CF aan zet kan die 2e kaart geen beeld meer geven. + de 4350 moet dan he beeld renderen voor dat scherm en die is te traag. Dus nee dat gaat niet gebeuren. Een 2e HD5870 in de toekomst wel. Zie ook de demo met 4x HD5870 Six met 24 schermen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

neliz schreef op zaterdag 03 oktober 2009 @ 13:22:
[...]


€20passive: 1920x1200. http://www.startech.com/i...le-Adapter-Converter.aspx
active (met usb power) gaat inderdaad hoger. (€100)

maar dan praat je over iemand die net €5000 aan 30"2560x1600 schermen heeft uitgegeven! het "ja maar ik moet dan een active converter kopen" argument is de grootste nonsens! helemaal omdat je scherm dan waarschijnlijk al DP heeft.
Een passive connector werkt dus volgens mij gewoon helemaal niet. Je monitor moet per se DP ondersteunen wil je er 3 aansluiten. Zo'n actieve gaat waarschijnlijk wel werken maar die is 100 euro.

Hierdoor gaat de flexibiliteit erg hard omlaag. DP monitors zijn erg duur en mensen kunnen hun oude dvi monitors alleen gebruiken icm met een DP monitor of actieve adapter. In bedie gevalleen betekent dit een verschil in inputlag dus dat gaat een beetje gek beeld geven.

Waarschijnlijk is er iets in het pcb van de hd5870 die het niet toelaat dat er meer dan 2 dvi/hdmi connectors gebruikt kunnen worden. Misschien heeft het iets met de bandbreedte te maken?

Je kunt dacht ik wel de vga + 2 dvi connectors gebruiken. Dit geeft misschien wel wat andere kleuren enzo maar het kan als eerst geprobeert worden VOORDAT je 3 DP-monitors aanschaft.

Dat pc gaming op grafisch vlak enzo aan het uitsterven is wordt echt al jaren geroepen. Er wordt ook geroepen dat pc-gaming in het algemeen aan het uitsterven is. Na een beetje onderzoek kom je er al snel achter dat dit onzin is.

Kijk gewoon even hier naar:
http://www.pcgamingallian...es/tabid/383/Default.aspx

Dat games vaker vanuit de console geport worden is waar maar volgens mij komen we nu wel een beetje op een keerpunt. Veel games maken de stap naar bijvoorbeeld dx10 maar met moeite. Met dx 11 zal dit wel een klein beetje gaan veranderen omdat het niet heel ontwikkel-intensief is.

Verder vind ik dat veel ports onterecht worden afgekraakt. Op een pc ziet het er meestal gewoon een stuk fraaier uit.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Afbeeldingslocatie: http://tpucdn.com/reviews/HIS/HD_5850/images/gpuz_oc2.gif
Iemand die al opgevallen?
Ik had hem nog niet gezien iig.
Voltage van de GPU van de HD5850 staat standaard op 1,09V met 1,3V haalde W1zzard simpel 1GHz. :D

Bron: HIS Radeon HD 5850 1 GB review. Afbeeldingslocatie: http://tweakers.net/ext/f/FOQ6qWAuRTJIKWgH5AyXUg1z/full.gif

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Astennu schreef op zaterdag 03 oktober 2009 @ 15:21:
Dat kun je vergeten want dan had het nu ook met bv 2x HD4870 moeten werken. En zodra je CF aan zet kan die 2e kaart geen beeld meer geven. + de 4350 moet dan he beeld renderen voor dat scherm en die is te traag. Dus nee dat gaat niet gebeuren. Een 2e HD5870 in de toekomst wel. Zie ook de demo met 4x HD5870 Six met 24 schermen.
Dat het ook op 2x HD4870 had moeten werken gaat natuurlijk niet op, omdat er belangrijke veranderingen in de GPU zijn gemaakt om eyefinity mogelijk te maken. Aangezien die veranderingen niet in de HD4870 zitten, zul je dus niet in staat zijn om 3+ schermen aan te sturen.

Waar vipeax aan denkt, is de optie om zowel IGP als een dedicated AMD-videokaart te gebruiken om tot maximaal 4 schermen aan te sturen (wat al mogenlijk is sinds ten minste de 690G chipset). Dan heb je echter nog steeds 4 losse schermen in plaats van 1 groot display.

Wat overigens wel interessant kan zijn, is of het mogelijk is om eyefinity te gebruiken met 3 schermen (dus met 1 displayport) en vervolgens een los scherm (je flatpanel TV bv.) via de IGP als aparte desktop te gebruiken, voor het kijken van films bijvoorbeeld.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 15:31:
[afbeelding]
Iemand die al opgevallen?
Ik had hem nog niet gezien iig.
Voltage van de GPU van de HD5850 staat standaard op 1,09V met 1,3V haalde W1zzard simpel 1GHz. :D

Bron: HIS Radeon HD 5850 1 GB review. [afbeelding]
Ik had wel zo'n vermoeden dat ze dat gedaan hadden. Bij de HD5870 is dit 1.15v. OC'ers verwachten makkelijk 1100 MHz uit die cores te gaan halen.
dahakon schreef op zaterdag 03 oktober 2009 @ 15:35:
[...]

Dat het ook op 2x HD4870 had moeten werken gaat natuurlijk niet op, omdat er belangrijke veranderingen in de GPU zijn gemaakt om eyefinity mogelijk te maken. Aangezien die veranderingen niet in de HD4870 zitten, zul je dus niet in staat zijn om 3+ schermen aan te sturen.

Waar vipeax aan denkt, is de optie om zowel IGP als een dedicated AMD-videokaart te gebruiken om tot maximaal 4 schermen aan te sturen (wat al mogenlijk is sinds ten minste de 690G chipset). Dan heb je echter nog steeds 4 losse schermen in plaats van 1 groot display.

Wat overigens wel interessant kan zijn, is of het mogelijk is om eyefinity te gebruiken met 3 schermen (dus met 1 displayport) en vervolgens een los scherm (je flatpanel TV bv.) als aparte desktop te gebruiken, voor het kijken van films bijvoorbeeld.
Nee dat weet ik wel. Maar dat was mijn reactie op iemand die vroeg of het ook met een HD5870 en een 4350 kon. Mijn opmerking toen was als dat zou werken zou het ook met HD4870's kunnen. Dat is het juist AMD heeft iets gedaan waardoor je die DP nodig hebt.

Volgens mij heeft het er mee te maken dat elke kaart 6 uitgangen heeft. Maar om een dual link DVI te maken heb je 2 uitgangen nodig. Voor DP kun je 1 op 1 door linken en zo kunnen ze een HD5870 Six maken. Echter moet je dan wel 6 DP ready schermen hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30
Toch snap ik niet waarom het DP ready moet zijn, als je nou gewoon 6 DP->DVI converters hebt dan moet het toch gewoon werken, hoe weet die kaart nou of je er native DP aan hebt zitten, het is toch gewoon uitzenden van een signaal (1/6e deel van het beeld naar elke poort) en hoe de monitor dat wil vertonen moet ie toch zelf weten?

:S

[ Voor 4% gewijzigd door Bulls op 03-10-2009 16:09 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Ik vind de performance van die overgeclockte HD5850 wel een beetje tegen vallen:

Afbeeldingslocatie: http://tpucdn.com/reviews/HIS/HD_5850/images/perf_oc.gif

Ik ga er even van uit dat dit op 1000-1250 is. Ik heb W1zzard hier een mailtje over gestuurd om de clocks te bevestigen. Niet dat dit op 835-1250 is. Maar gezien de temp zal dit wel op 1.3v zijn.

Anyway oc van 25% resulteerde in een 15% boost in performance. In dat geval heeft de HD5870 nog zeker meer waarde. Want die kun je ook naar 1GHz tillen.

Ter vergelijking een HD5870 op 890-1275:

Afbeeldingslocatie: http://tpucdn.com/reviews/ATI/Radeon_HD_5870/images/perf_oc.gif

OC is 5% voor de core 6% voor mem. Gain was 4,9%.

[ Voor 16% gewijzigd door Astennu op 03-10-2009 16:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Astennu schreef op zaterdag 03 oktober 2009 @ 16:17:
Ik vind de performance van die overgeclockte HD5850 wel een beetje tegen vallen:
Ik niet een HD5850 kost 200 euro en met een beetje getweak haal je de performance van een HD5870 die 100 euro meer kost. Dat je die ook kan overklokken is natuurlijk waar maar dat maakt de HD5850 niet minder.

Dat een OC van 33% (geen 25% die jij noemt van 750 naar 1000 is altijd nog een derde meer. ;) ) voor de GPU niet zal resulteren in een performance winst van 33% is vrij logische er zijn veel factoren afhankelijk voor de performance. ;)
OC is 5% voor de core 6% voor mem. Gain was 4,9%.
Klopt toch ook hoe kleiner de OC hoe groter in verhouding de performance vooruitgang, als dat niet zo is dan wordt die dus ergens gebottleneckt.

[ Voor 20% gewijzigd door -The_Mask- op 03-10-2009 16:29 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • kluyze
  • Registratie: Augustus 2004
  • Niet online
Bulls schreef op zaterdag 03 oktober 2009 @ 16:08:
Toch snap ik niet waarom het DP ready moet zijn, als je nou gewoon 6 DP->DVI converters hebt dan moet het toch gewoon werken, hoe weet die kaart nou of je er native DP aan hebt zitten, het is toch gewoon uitzenden van een signaal (1/6e deel van het beeld naar elke poort) en hoe de monitor dat wil vertonen moet ie toch zelf weten?

:S
Ja, met actieve convertors gaat dat. Maar bij een passieve convertor moet de kaart detecteren dat er een convertor aan zit en zelf het dvi signaal op die dp poort zetten.

Dus een actieve convertor zou moeten werken maar dan moet die convertor wel zijn werk goed doen. Het zou niet de eerste convertor zijn die niet altijd en overal werkt. Denk bv usb-rs232 convertors. Zolang de standaarden perfect gevolgd worden en het ook toegelaten is, zal het waarschijnlijk wel werken.

Verder is ook volgens de dia's dat 2 DP's gebruikt worden voor 1 DL-DVI aansluiting. Waarschijnlijk zijn er maar 4 DP-poorten die geschikt zijn om ook het DVI signaal uit te zenden, waardoor je 2 DVI aansluitingen krijgt. Als ze de laatste 2 DP-poorten die zelfde mogelijkheid geven dan is de hardware weer iets complexer en dus ook duurder om te maken. En dan is het een afweging van hoeveel mensen echt die 3de DVI aansluiting gaan gebruiken en daar meer willen voor betalen. En dus of het de moeite waard is.

Waarom volgens AMD geen 2 x DVI + 1xVGA mogelijk is, geen idee misschien hebben ze de 2 DAC's nodig bij de 2 x DVI omdat ze die ook een analoog signaal willen mee geven.
Dat zou ook kunnen verklaren waarom er geen 3 x DVI op kan, omdat er maar 2 DAC's aanwezig zijn, die misschien ook nodig zijn voor het analoge signaal bij de DVI.

Het enige wat ik niet snap op de dia is dat ze 2 x DP nodig hebben voor 1 DL-DVI ik dacht dat DP al meer als DVI aan kon kwa resolutie? Is 1 DP niet genoeg voor 1 DL-DVI dan?

Ik speculeer natuurlijk ook maar wat, voor echt uitsluitsel zou je met een engineer bij AMD moeten kunnen spreken. Kunnen we zo iemand niet even naar hier halen :p om hier op de thread mee te discussiëren? Zou wel tof zijn.

[ Voor 42% gewijzigd door kluyze op 03-10-2009 17:09 ]


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Astennu schreef op zaterdag 03 oktober 2009 @ 16:17:
Ik vind de performance van die overgeclockte HD5850 wel een beetje tegen vallen:

[afbeelding]

Ik ga er even van uit dat dit op 1000-1250 is. Ik heb W1zzard hier een mailtje over gestuurd om de clocks te bevestigen. Niet dat dit op 835-1250 is. Maar gezien de temp zal dit wel op 1.3v zijn.

Anyway oc van 25% resulteerde in een 15% boost in performance. In dat geval heeft de HD5870 nog zeker meer waarde. Want die kun je ook naar 1GHz tillen.

Ter vergelijking een HD5870 op 890-1275:

[afbeelding]

OC is 5% voor de core 6% voor mem. Gain was 4,9%.
Sommige mensen zijn nooit tevreden :)

Acties:
  • 0 Henk 'm!

  • Cassius
  • Registratie: Januari 2002
  • Niet online

Cassius

Moogles!

Lekker tweak kaartje zoals ik het zie Astennu? Ga je niet over op muggeziften nu ;) ?

De meeste mensen deugen!


Acties:
  • 0 Henk 'm!

Next generation Radeons in Q3 2010?

De geruchtenmolen kan weer van voren af aan beginnen. Yay! *O*
AMD just launched Radeon HD 5870 and HD 5850. The cards have impressed us in many ways with top notch performance and impressive energy efficiency when idle. The Radeon HD 5700 series isn't far off now, and after it we have the entry level series and not the least Radeon HD 5870X2 sporting two Cypress/RV870 GPUs on same PCB. While we expect AMD to introduce a refresh this Spring, we have learned the next generation is slated for launch in Q3 2010.
Just like with the just launched Radeon HD 5800 series, the name has not been set at this point and the name right now is Radeon 100, which is subject to change though as the product materializes. Three ASICs are in the works that we know of. We're awaiting confirmation on the names, but they sound a bit Greek to us (think gargantuan).
http://www.nordichardware.com/news,9997.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
Wat zullen die snel zijn :)

Edit: Kan ik natuurlijk niet weten maar ik denk het wel.

[ Voor 52% gewijzigd door EdwardvGelder op 03-10-2009 17:43 ]


Acties:
  • 0 Henk 'm!
Ik denk het ook wel. En de eerste geruchten wijzen op een nieuwe architectuur. Maar goed, dat zeggen de geruchten elke keer. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • glennvho
  • Registratie: Mei 2009
  • Laatst online: 12:43
Amai, dat zou wel rap zijn zeg!

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
Cj, ik hoorde op XS-forum dat de NDA voor de 5870X2 verloopt op 19 oktober. Kan je dit bevestigen? Of ontkennen :P

Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30
Hmmz dus op naar DX 11.1 (is beter) of DX 12? En voordat DX 11 een beetje ingeburgerd is zijn de game developers alweer bezig met DX 12, zodat je weer met unsupported DX 11 kaartje in je PC zit. Leuk is dat.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Bulls schreef op zaterdag 03 oktober 2009 @ 19:27:
Hmmz dus op naar DX 11.1 (is beter) of DX 12? En voordat DX 11 een beetje ingeburgerd is zijn de game developers alweer bezig met DX 12, zodat je weer met unsupported DX 11 kaartje in je PC zit. Leuk is dat.
Een nieuwe serie betekent niet automatisch een nieuwe DX-versie.

Kijk voor de lol eens naar de DX9 series kaarten.
Bij ATI waren daar de Radeon 9700 -> X800 -> X1800/X1900 kaarten met refreshes tussendoor, dus 3 series in zekere zin.
Bij nVidia begon het met de Gforce 5 serie -> 6k serie -> 7k serie.

Het was bij DX10 niet veel anders geweest, als ATI niet in de problemen was gekomen met de R600 en nVidia niet overging op rebranding ipv echt nieuwe gpu's ontwikkelen.

Desalniettemin kun je stellen dat bij AMD het min of meer de HD2900 -> HD3870 -> HD4870 was
Bij nVidia is er min of meer de 8800GTX/S -> 9800GTX -> GTX280

Zowel bij AMD als bij nVidia was er misschien niet veel performancewinst te vinden tussen de eerste en tweede DX10 kaart-serie, maar er waren inwendig wel verbeteringen (met name bij ATI, aangezien er veel moest veranderen in de HD2900 om competatief te worden)

[ Voor 6% gewijzigd door dahakon op 03-10-2009 19:40 ]


Acties:
  • 0 Henk 'm!

  • Herr Flicker
  • Registratie: Januari 2007
  • Laatst online: 12-09 13:36
Afbeeldingslocatie: http://img32.imageshack.us/img32/3476/picture005lv.jpg
5870X2 , damn wat een LANG ding.

Acties:
  • 0 Henk 'm!

  • frankknopers
  • Registratie: December 2003
  • Laatst online: 05-08 17:43

frankknopers

Goud is geen geld

Crap, ik begin haast te twijfelen of ik wel twee HD5870's wil hebben. Ik heb er nu twee van verschillende merken in de pre-order staan bij een webwinkel, maar als die HD5870 X2 echt zo snel komt dan heb ik wel genoeg aan één HD5870 voor de overbrugging. Ik zit nu op een XFX HD4890 Black Edition (eentje, andere is al verkocht) en die kaart doet eigenlijk al alles wat ik van hem vraag. :P

Waarom dan toch upgraden als de HD4890 volstaat? Gewoon omdat het kan 8)

ik kan me trouwens niet voorstellen dat deze HD5870 X2 echt voor minder dan $500 te koop zal zijn. AMD heeft al moeite om te voldoen aan de vraag naar HD5870 kaarten, dus waarom zouden ze twee GPU's op een bord van $500 plakken als ze ook twee videokaarten van elk $350 kunnen bouwen? Daar verdienen ze veel meer op en zolang de Fermi van nVidia er nog niet is is er geen enkele tijdsdruk...

[ Voor 27% gewijzigd door frankknopers op 03-10-2009 19:54 ]

Goud is geen geld


Acties:
  • 0 Henk 'm!

  • Bulls
  • Registratie: Augustus 2004
  • Laatst online: 17-05 22:30
frankknopers schreef op zaterdag 03 oktober 2009 @ 19:50:
[...]

Crap, ik begin haast te twijfelen of ik wel twee HD5870's wil hebben. Ik heb er nu twee van verschillende merken in de pre-order staan bij een webwinkel, maar als die HD5870 X2 echt zo snel komt dan heb ik wel genoeg aan één HD5870 voor de overbrugging. Ik zit nu op een XFX HD4890 Black Edition (eentje, andere is al verkocht) en die kaart doet eigenlijk al alles wat ik van hem vraag. :P

Waarom dan toch upgraden als de HD4890 volstaat? Gewoon omdat het kan 8)
Waarvoor zou je in het begin gelijk 2 5870's moeten hebben 1 is eerst wel snel genoeg en je kan er later altijd 1 bij halen als de kaart te sloom is geworden en de prijs gedaald is.

Maarja je moet je geld toch ergens aan uitgeven :D

[ Voor 3% gewijzigd door Bulls op 03-10-2009 19:54 ]


Acties:
  • 0 Henk 'm!

  • peakaboo
  • Registratie: Mei 2007
  • Niet online
Frank frank frank.... gewoon wachten op de echte kaart, dit is kattenpis :+

Acties:
  • 0 Henk 'm!

  • cPT.cAPSLOCK
  • Registratie: September 2009
  • Laatst online: 17-08 10:21
Bulls schreef op zaterdag 03 oktober 2009 @ 19:53:

Waarvoor zou je in het begin gelijk 2 5870's moeten hebben 1 is eerst wel snel genoeg en je kan er later altijd 1 bij halen als de kaart te sloom is geworden en de prijs gedaald is.
Dat is ook wat ik ga doen, maar dan met 5850.
Vind zelf de 5870 niet die 100 euro extra waard binnen een budget van €900, en voor de komende tijd is 1 HD5850 al snel zat (vooral vergeleken met mijn huidige 7800 GT'tje :X ). Over jaartje of iets dergelijks gewoon een tweede er in en klaar.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Hoeveel geheugen krijgt de HD5870X2 eigenlijk?

Edit; 2 losse kaarten is zowieso beter toch? Als CF dan niet werkt kan je het uitzetten. Dat kon bij de HD4870X2 toch niet?

[ Voor 57% gewijzigd door Format-C op 03-10-2009 20:08 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • EdwardvGelder
  • Registratie: December 2007
  • Laatst online: 30-07 21:04
RappieRappie schreef op zaterdag 03 oktober 2009 @ 20:07:
Hoeveel geheugen krijgt de HD5870X2 eigenlijk?

Edit; 2 losse kaarten is zowieso beter toch? Als CF dan niet werkt kan je het uitzetten. Dat kon bij de HD4870X2 toch niet?
Ik denk 2/4gb, tenminste dat lijkt mij het meest logische.

Acties:
  • 0 Henk 'm!

  • Gurneyhck
  • Registratie: April 2002
  • Laatst online: 18-08 11:10
RappieRappie schreef op zaterdag 03 oktober 2009 @ 20:07:
Hoeveel geheugen krijgt de HD5870X2 eigenlijk?

Edit; 2 losse kaarten is zowieso beter toch? Als CF dan niet werkt kan je het uitzetten. Dat kon bij de HD4870X2 toch niet?
Je kan crossfire wel uitzetten op een X2, disable catalyst AI resulteert in het gebruik van één gpu. Verder verbruikt een X2 minder en is hij meestal iets sneller dan 2 losse kaarten. Zie HD4870 in CF vs. 4870X2.

Kaart komt met 2GB en 4GB varianten denk ik, maar sowieso 4GB 8)

Acties:
  • 0 Henk 'm!

  • TGEN
  • Registratie: Januari 2000
  • Laatst online: 10-09 21:36

TGEN

Hmmmx_

frankknopers schreef op zaterdag 03 oktober 2009 @ 19:50:
[...]

Crap, ik begin haast te twijfelen of ik wel twee HD5870's wil hebben. Ik heb er nu twee van verschillende merken in de pre-order staan bij een webwinkel, maar als die HD5870 X2 echt zo snel komt dan heb ik wel genoeg aan één HD5870 voor de overbrugging. Ik zit nu op een XFX HD4890 Black Edition (eentje, andere is al verkocht) en die kaart doet eigenlijk al alles wat ik van hem vraag. :P

Waarom dan toch upgraden als de HD4890 volstaat? Gewoon omdat het kan 8)

ik kan me trouwens niet voorstellen dat deze HD5870 X2 echt voor minder dan $500 te koop zal zijn. AMD heeft al moeite om te voldoen aan de vraag naar HD5870 kaarten, dus waarom zouden ze twee GPU's op een bord van $500 plakken als ze ook twee videokaarten van elk $350 kunnen bouwen? Daar verdienen ze veel meer op en zolang de Fermi van nVidia er nog niet is is er geen enkele tijdsdruk...
Hoe minder HD5870's jij koopt, hoe meer er overblijven voor de rest met deze schaarste :P.

Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

De grote hamvraag is naaturlijk óf die kaart wel met 4GB gaat komen.

Aangezien eyefinity met CF niet werkt (toch?) zou imho 2GB genoeg zijn. Volgens mij is meer dan 1GB per core alleen nodig als je op die extreme 5760 x 1200 reso gaat gamen.

Mja, een X2 tov 2 losse kaarten heeft z'n voordelen en nadelen. Het verbruik load zal misschien beter zijn bij de X2, maar meestal zijn de kaarten toch idle. En losse kaarten kun je hoger overklokken ivm koeling. Overklokruimte is er iig genoeg. De HD5870 met stock cooler wordt load maar max 73 graden. :)

Op zich is 1 kaart in een PC ook wel prettig werken. Ik denk dat de kast dan iets koeler blijft van binnen. Ik denk dat 2 PCB's meer warmte afgeven.
frankknopers schreef op zaterdag 03 oktober 2009 @ 19:50:


ik kan me trouwens niet voorstellen dat deze HD5870 X2 echt voor minder dan $500 te koop zal zijn. AMD heeft al moeite om te voldoen aan de vraag naar HD5870 kaarten, dus waarom zouden ze twee GPU's op een bord van $500 plakken als ze ook twee videokaarten van elk $350 kunnen bouwen? Daar verdienen ze veel meer op en zolang de Fermi van nVidia er nog niet is is er geen enkele tijdsdruk...
Ik vraag me ook af wat de X2 gaat kosten. Zal wel zo'n 600 dollar zijn. 550 tot 600 euro. Kan ook meer zijn. Maar idd, aan losse kaarten verdienen ze denk ik meer... :)
TGEN schreef op zaterdag 03 oktober 2009 @ 20:18:
[...]

Hoe minder HD5870's jij koopt, hoe meer er overblijven voor de rest met deze schaarste :P.
Volgens mij is het geen schaarste, maar zodra een winkel ze op voorraad heeft zijn ze een kwartier later al verkocht. :P Alternate had gisteren of eergisteren 50 HD5850's (vertelde een medewerker me over de telefoon) en die waren volgens mij binnen een uur weg. :D

[ Voor 55% gewijzigd door Format-C op 03-10-2009 20:29 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
dahakon schreef op zaterdag 03 oktober 2009 @ 19:36:
[...]
Bij nVidia is er min of meer de 8800GTX/S -> 9800GTX -> GTX280
Veel verbetering tussen de 8800GTX -> 9800GTX was er überhaupt niet... :P

procedé: 90nm -> 65nm
transistors: 681 mill -> 754 mill
stream processors: 128 -> 128
bus grootte: 384 -> 256
memory bandwidth (GBps): 86.4 -> 70.4
memory grootte (MB): 768 -> 512
ROPs: 24 -> 16
Texture Filtering Units: 64 -> 64
Texture Filtering Rate: 36.8 -> 43.2

Als je het zo bekijkt zou je zelfs kunnen zeggen dat als je kijkt naar vooruitgang, ze met de 9800GTX 3 onderdelen verbeterd hebben (procedé, transistors & texture fill rate) en 4 andere verslechterd (bus, memory bandwidth, geheugen grootte & aantal ROPs). :')

Zoiets geeft dan dit soort resultaten:

Call of Duty 4, AAx4, AFx16, Max settings...
1024x768, 9800GTX: 150 FPS, 8800GTX: 125 FPS,
1280x1024, 9800GTX: 118 FPS, 8800GTX: 114 FPS (dat scheelt veel, drop van 36 FPS vs 7 FPS),
1680x1050, 9800GTX: 97 FPS, 8800GTX: 93 FPS,
1920x1200, 9800GTX: 68 FPS, 8800GTX: 76 FPS).
(bron: http://www.overclockersclub.com/reviews/xfx_9800gtx/9.htm)

maar het kan ook de andere kant op:

Companies of Heroes, 8x AA, Max settings...
1024x768, 9800GTX: 52 FPS, 8800GTX: 50 FPS,
1280x1024, 9800GTX: 46 FPS, 8800GTX: 40 FPS,
1680x1050, 9800GTX: 41 FPS, 8800GTX: 33 FPS,
1920x1200, 9800GTX: 41 FPS, 8800GTX: 32 FPS).
(bron: http://www.overclockersclub.com/reviews/xfx_9800gtx/12.htm)

Moet je dus ook nog gaan kijken of de top kaart van de nieuwe serie beter is dan de oude voor de games die JIJ speelt op JOUW resolutie. -O-

[ Voor 4% gewijzigd door Paprika op 03-10-2009 20:29 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 16:26:
[...]

Ik niet een HD5850 kost 200 euro en met een beetje getweak haal je de performance van een HD5870 die 100 euro meer kost. Dat je die ook kan overklokken is natuurlijk waar maar dat maakt de HD5850 niet minder.

Dat een OC van 33% (geen 25% die jij noemt van 750 naar 1000 is altijd nog een derde meer. ;) ) voor de GPU niet zal resulteren in een performance winst van 33% is vrij logische er zijn veel factoren afhankelijk voor de performance. ;)


[...]

Klopt toch ook hoe kleiner de OC hoe groter in verhouding de performance vooruitgang, als dat niet zo is dan wordt die dus ergens gebottleneckt.
Ja klopt inderdaad. Maar 835 is ook geen 25% dan weet ik even niet hoe hij daar aan is gekomen. Dit is gequote uit zijn artiekel vandaar. Ik vond de scaling van de 5870 wel erg mooi. Bijna perfect.

Edit: Core had een 15% oc mem 26%. Dus dan klopt het allemaal wel.
Cassius schreef op zaterdag 03 oktober 2009 @ 17:30:
Lekker tweak kaartje zoals ik het zie Astennu? Ga je niet over op muggeziften nu ;) ?
Ghehe :D nja kijk de HD5850 zou iets van 15% trager zijn op gelijke clocks. Dit door zijn uitgeschakelde SMID's. Ik vind het dan de uitdaging om em zo te tweaken dat hij toch sneller is :P Nu ik het zit na te rekenen klopt het ook wel tov een 5870 is hij qua clocks lang geen 15% hoger geclockt dus dan klopt het wel dat de FPS net wat lager uitvalt.
Gurneyhck schreef op zaterdag 03 oktober 2009 @ 20:12:
[...]

Je kan crossfire wel uitzetten op een X2, disable catalyst AI resulteert in het gebruik van één gpu. Verder verbruikt een X2 minder en is hij meestal iets sneller dan 2 losse kaarten. Zie HD4870 in CF vs. 4870X2.

Kaart komt met 2GB en 4GB varianten denk ik, maar sowieso 4GB 8)
Het probleem is dan wel dat je meer dan alleen CF uitzet. Daardoor was mijn HD4870 X2 trager dan mijn HD4850 op 750-1100. Maar goed met CF aan had ik in Flatout UC maar 1/3e van de fps :P

[ Voor 17% gewijzigd door Astennu op 03-10-2009 20:42 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
RappieRappie schreef op zaterdag 03 oktober 2009 @ 20:19:
Ik vraag me ook af wat de X2 gaat kosten. Zal wel zo'n 600 dollar zijn. 550 tot 600 euro. Kan ook meer zijn. Maar idd, aan losse kaarten verdienen ze denk ik meer... :)
Voor zover bekend gaat die inderdaad 600 DOLLAR(! :$) kosten (wat neerkomt op rond de $560 in de bekende hardware winkels als Newegg)
5870 zou $400 kosten en kun je nu kopen op Newegg voor $380
5850 zou $300 kosten en kun je nu pre-orderen op Newegg voor $260
5870X2 zou dus $600 kosten en die zal je dan vast wel kunnen kopen voor $560

5870 van Newegg naar Nederland -> 320 euro.
5850 van Newegg naar Nederland -> 220 euro.
5870X2 van Newegg naar Nederland -> 475 euro

Klinkt als een mooi afgerond bedrag... daar doen we het voor (de kans dat dit klopt is natuurlijk klein, maar speculeren is altijd leuk). O-)

PS: Dezelfde berekening pre-launch bleek wel te kloppen voor zowel de prijzen van de 5850 als de 5870 in zowel NL als de US... >:)

[ Voor 11% gewijzigd door Paprika op 03-10-2009 20:47 . Reden: Bedankt TheMask, voor de 1000e keer :). ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Oke heb net een mailtje terug gehad van W1zzard en de scores die je zag waren op 835-1250 :)

Dus me gevoel klopte wel een 1000-1250 MHz lopende HD5850 zal een HD5870 stock outperformen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Paprika schreef op zaterdag 03 oktober 2009 @ 20:38:
[...]

Voor zover bekend gaat die inderdaad 600 eurodollar ;) kosten (wat neerkomt op rond de $560 in de bekende hardware winkels als Newegg)
Astennu schreef op zaterdag 03 oktober 2009 @ 20:40:
Oke heb net een mailtje terug gehad van W1zzard en de scores die je zag waren op 835-1250 :)
Heeft die het nu ook veranderd want het staat er nu wel bij iig. :P

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
-The_Mask- schreef op zaterdag 03 oktober 2009 @ 20:45:
[...]


[...]

Heeft die het nu ook veranderd want het staat er nu wel bij iig. :P
Ja klopt hij zij dat hij het wat duidelijker zou maken. Heb gevraagd of hij toevallig ook scores heeft van de kaart op 1 GHz :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Paprika schreef op zaterdag 03 oktober 2009 @ 20:25:
[...]

Veel verbetering tussen de 8800GTX -> 9800GTX was er überhaupt niet... :P

procedé: 90nm -> 65nm
transistors: 681 mill -> 754 mill
stream processors: 128 -> 128
bus grootte: 384 -> 256
memory bandwidth (GBps): 86.4 -> 70.4
memory grootte (MB): 768 -> 512
ROPs: 24 -> 16
Texture Filtering Units: 64 -> 64
Texture Filtering Rate: 36.8 -> 43.2

Als je het zo bekijkt zou je zelfs kunnen zeggen dat als je kijkt naar vooruitgang, ze met de 9800GTX 3 onderdelen verbeterd hebben (procedé, transistors & texture fill rate) en 4 andere verslechterd (bus, memory bandwidth, geheugen grootte & aantal ROPs). :')
Bij sommige dingen kun je je afvragen of 'achteruitgang' niet vooruitgang is.
Als je namelijk hetzelfde lijstje maakt van een HD2900XT vs een HD3870, dan zou de laatste practisch geen enkele vooruitgang geboekt hebben. Toch is deze kaart in staat om de HD2900XT in het stof te laten bijten.

De kleinere geheugenbus is bijvoorbeeld een discutabel punt om als 'slechter' aan te geven. Uiteindelijk kan een gpu maar zoveel bandbreedte nuttig gebruiken en is de rest gewoon verspild (HD2900 was daar een heel erg goed voorbeeld van).

Het spijtigste van de 9800GTX zou toch moeten zijn dat ze, in tegenstelling tot ATI, geen DX10.1 hebben toegevoegd en dat de prijs wederom niet courant aan de prestaties was, twee dingen die ATI wel goed deed.

Acties:
  • 0 Henk 'm!

Verwijderd

dahakon schreef op zaterdag 03 oktober 2009 @ 22:16:
[...]

Bij sommige dingen kun je je afvragen of 'achteruitgang' niet vooruitgang is.
Als je namelijk hetzelfde lijstje maakt van een HD2900XT vs een HD3870, dan zou de laatste practisch geen enkele vooruitgang geboekt hebben. Toch is deze kaart in staat om de HD2900XT in het stof te laten bijten.

De kleinere geheugenbus is bijvoorbeeld een discutabel punt om als 'slechter' aan te geven. Uiteindelijk kan een gpu maar zoveel bandbreedte nuttig gebruiken en is de rest gewoon verspild (HD2900 was daar een heel erg goed voorbeeld van).

Het spijtigste van de 9800GTX zou toch moeten zijn dat ze, in tegenstelling tot ATI, geen DX10.1 hebben toegevoegd en dat de prijs wederom niet courant aan de prestaties was, twee dingen die ATI wel goed deed.
De 3870 was wel wat meer dan wat je zegt. AMD had de AA performance gefixt door deze niet meer door de shaders te laten doen. nVidia had geen performance verbeteringen toegevoegd aan de core.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zaterdag 03 oktober 2009 @ 23:27:
[...]


De 3870 was wel wat meer dan wat je zegt. AMD had de AA performance gefixt door deze niet meer door de shaders te laten doen. nVidia had geen performance verbeteringen toegevoegd aan de core.
De fillrates waren ook hoger door een hogere kloksnelheid, die mogelijk waren door het kleinere procede. Tuurlijk er waren verbeteringen naast DX10.1, maar dat waren dan over het algemeen de zaken waarmee ze ook de boot in waren gegaan met de HD2900XT, die aangepakt werden. Dit geldt natuurlijk veel minder voor de G80 -> G92, aangezien er eigenlijk geen echte problemen waren met de G80, waardoor men dus met minder veranderingen af kon.

Acties:
  • 0 Henk 'm!

  • RuddyMysterious
  • Registratie: Maart 2003
  • Laatst online: 28-07 22:08

RuddyMysterious

a smorgasbord of waywardness

Is de overgang van 8800GTX naar 9800GTX even groot als van X2900XT naar HD3870, qua evolutie tussen 2 generaties?

Hoe zit het trouwens met de clocks van al die componenten op de 9800GTX? Er moet toch een reden zijn waarom die de 8800GTX nog deftig kon bijhouden met al die zogezegde achteruitgangen?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Afbeeldingslocatie: http://img338.imageshack.us/img338/9111/gpuzgt4.png
Dat was die van mij toen der tijd... Best hoge clocks met overclock, maar dat kon een 8800GT ook aanraken met voltmods & goede koeling.

Je zou kunnen zeggen dat waar het geheugen uitmaakte de 8800GTX won, als de core eigenlijk de beslissing maakte, dan was het de 9800GTX. De 8800GTX was dus vaker de winnaar met hoge resoluties/AA & AF-filters.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op zaterdag 03 oktober 2009 @ 23:27:
[...]


De 3870 was wel wat meer dan wat je zegt. AMD had de AA performance gefixt door deze niet meer door de shaders te laten doen. nVidia had geen performance verbeteringen toegevoegd aan de core.
Niet te vergeten DX10.1 en UVD2.
DevilsProphet schreef op zaterdag 03 oktober 2009 @ 23:52:
Is de overgang van 8800GTX naar 9800GTX even groot als van X2900XT naar HD3870, qua evolutie tussen 2 generaties?

Hoe zit het trouwens met de clocks van al die componenten op de 9800GTX? Er moet toch een reden zijn waarom die de 8800GTX nog deftig kon bijhouden met al die zogezegde achteruitgangen?
In mijn ogen niet. De 9800 GTX had gewoon dezelfde core als de 8800GT alleen nu met alle 128 shaders actief. Het was meer een refresh/kosten besparing. En er was een kleine bump in performance mogelijk.

Bij de HD3870 sprak je ook wel van een soort refresh en die shrink maar AMD heeft er ook features aan toe gevoegd zoals DX10.1 waar dit bij de HD29xx nog DX10.0 was. Daar naast werd de UVD verbeterd. En de AA performance werd inderdaad een stuk verbeterd.

Zonder AA was de HD3870 een 5% sneller. Met AA werd dat 12%-13% zie ook:

http://www.computerbase.d...rformancerating_qualitaet

[ Voor 61% gewijzigd door Astennu op 04-10-2009 00:29 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 6 ... 11 Laatste

Dit topic is gesloten.

Let op:
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!

Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!

Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.

Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!