De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
Verwijderd
*editje*
@hieronder:
ik heb een sapphire gepreorderd op 20 juni. ik vermoed dat ze hem morgen binnenkrijgen en direct verzenden eigenlijk *hoop*. Ik heb namelijk een nieuw systeem twv €1800 besteld, maar heb alleen de videokaart nog niet... en dan kan je er vrij weinig mee
[ Voor 61% gewijzigd door Verwijderd op 06-07-2008 17:11 ]
Verwijderd
Jep, welke heb jij eigenlijk bij Azerty? van welk merk?Verwijderd schreef op zondag 06 juli 2008 @ 15:51:
ok, thx voor de reply. nu hopen dat ik em ook snel krijg. azerty is blijkbaar niet de snelste...

De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
GPU-Z geeft niet de correcte settings aan wanneer je videokaart Idle is. In ieder geval, met de HD3870 in mijn pc blijft GPU-z 800 MHz aangeven terwijl CCC 300 MHz aangeeft. Ik zou dus niet blind vertrouwen op de cijfers van GPU-Z aangaande Powerplay.Sergej schreef op zondag 06 juli 2008 @ 15:05:
Hoort Powerplay te werken met HD3xxx kaarten of moet dat ook nog worden gefixt met nieuwe drivers?
Ik heb een Club3D HD3450 low profile ( CGAX-3456 ), winXP SP2 met alle recente updates en Catalyst 8.6 (driver en ccc). Powerplay werkt niet, gpu blijft op 600MHz en mem 400MHz. Dit heb ik met GPU-Z gecontroleerd. Met Overdrive kan ik de gpu clock verlagen naar 300MHz maar spanning (voltage) blijft onveranderd waardoor temp niet zakt.
Mobo= asus k8v-vm (VIA K8M890 )
Op de site van Club3D vind ik geen info hierover.
Best idioot eigenlijk, waarom beweren ze dat Powerplay werkt/bestaat als het op moment van uitbrengen nog niet werkt en pas achteraf moet worden gefixt? Op een notebook kreeg ik dit ook niet werkend ( Intel 965PM, HD2400, driver 8.5 ).
Verwijderd
/jealousTroonStaal schreef op zondag 06 juli 2008 @ 16:15:
Dit zat er bij mijn Sapphire trouwens:
[afbeelding]
Waar heb jij hem weg? En wat was de prijs?
Verwijderd
Het kan heter http://youtube.com/watch?v=vQdrJCPsWF0RappieRappie schreef op zondag 06 juli 2008 @ 12:30:
Damn zeg. Ik heb een extra side fan geplaatst, en 1 van de 2 kaarten wordt 97C!!!! Ik weet alleen niet welke van de 2.
Tjeejz. Dit is niet normaal wat heet...
werkt helaas niet met Vista 64bit
EDIT: Ik was vergeten overdrive uit te zetten het werkt nu perfect
830mhz stabiel
[ Voor 42% gewijzigd door Verwijderd op 06-07-2008 21:05 ]
AlternateVerwijderd schreef op zondag 06 juli 2008 @ 16:19:
[...]
/jealous
Waar heb jij hem weg? En wat was de prijs?
[ Voor 8% gewijzigd door Vrijdag op 06-07-2008 16:25 ]
De ware eloquente, hoogbegaafde en goedgeïnformeerde kwaliteitsposter begint een post met "Let wel", "In mijn optiek", "Iets met..."of "Je vergeet dat..." en eindigt met "...dat moeten we niet willen". Jíj bent die kwaliteitsposter!
klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel
Voor degenen die zich afvragen wat het verschil is tussen GDDR3 en GDDR5 in combinatie met de RV770... Hardware FR heeft een HD4850 en een HD4870 genomen en deze beide op 725Mhz core geklokt. Het geheugen blijft op de standaard snelheden draaien.
Nu de cores op gelijke snelheid draaien is goed te zien dat GDDR5 (en de daarbijbehorende enorme sloot aan bandbreedte) toch nog redelijk wat voordelen heeft:

Zoals je ziet lopen de verschillen op... van weinig verschil (2%) in Company of Heroes tot zo'n 23% in Rainbow Six Vegas met AA. De HD4850 is dus duidelijk bandbreedte gelimiteerd en deze limiet wordt min of meer opgeheven door de RV770 te koppelen aan snel GDDR5 geheugen.
Complete review (in het Frans): http://www.hardware.fr/ar...-hd-4800-gddr5-utile.html
[ Voor 3% gewijzigd door CJ op 06-07-2008 16:57 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Als je naar tab Sensors van GPU-Z kijkt dan moet het wel kloppen, dat is altijd mijn ervaring geweest. Ik denk dat Powerplay hier niet werkt omdat:dahakon schreef op zondag 06 juli 2008 @ 16:16:
[...]
GPU-Z geeft niet de correcte settings aan wanneer je videokaart Idle is. In ieder geval, met de HD3870 in mijn pc blijft GPU-z 800 MHz aangeven terwijl CCC 300 MHz aangeeft. Ik zou dus niet blind vertrouwen op de cijfers van GPU-Z aangaande Powerplay.
1.heatsink wordt erg warm ( temp in GPU-Z is 49 graden wat wel meevalt, passief gekoeld)
2.hele powerplay gedeelte is bij mij niet te zien in ccc, Overdrive wel en in het grijze deel daarvan staat 600MHz. Meest recente .NET Framework is geinstalleerd dus daar kan het ook niet aan liggen denk ik.
3. Als ik met Overdrive de gpu clock verlaag naar 300MHz dan laat GPU-Z (Sensors) wel 300MHz zien.
Is er iemand die kan bevestigen dat Powerplay werkt onder XP met een HD3450?
Verwijderd
De 4850 @725Mhz wel ja, maar op stock snelheid misschien net niet meer.CJ schreef op zondag 06 juli 2008 @ 16:35:
De HD4850 is dus duidelijk bandbreedte gelimiteerd en deze limiet wordt min of meer opgeheven door de RV770 te koppelen aan snel GDDR5 geheugen.
Maar idd dus interessant dat een 4850 overklokken resulteert in het gebottlenecked worden door geheugensnelheid.
Verwijderd
http://www.overclex.net/d...0/amdgpuclocktool-9.8.rar
Schijnt hiermee te moeten lukken volgens overclock.net
Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme
Die doet het gewoon. Mijn HD4870 heb ik voor de gein even overgeklokt naar 825Mhz core en 1125Mhhz mem.PainkillA schreef op zondag 06 juli 2008 @ 19:19:
kan iemand met een 4870 of 4850 deze utility testen om software matig voer te klokken voorbij de CCC max?
http://www.overclex.net/d...0/amdgpuclocktool-9.8.rar
Schijnt hiermee te moeten lukken volgens overclock.net
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
door de gpu en mem lager te clocken, scheelt het al snel 40W.
Maar de 4850 is: 30% goedkoper.CJ schreef op zondag 06 juli 2008 @ 16:35:
Newsflash: Hardware FR test verschillen tussen GDDR3 (HD4850) en GDDR5 (HD4870)
Voor degenen die zich afvragen wat het verschil is tussen GDDR3 en GDDR5 in combinatie met de RV770... Hardware FR heeft een HD4850 en een HD4870 genomen en deze beide op 725Mhz core geklokt. Het geheugen blijft op de standaard snelheden draaien.
Nu de cores op gelijke snelheid draaien is goed te zien dat GDDR5 (en de daarbijbehorende enorme sloot aan bandbreedte) toch nog redelijk wat voordelen heeft:
[afbeelding]
Zoals je ziet lopen de verschillen op... van weinig verschil (2%) in Company of Heroes tot zo'n 23% in Rainbow Six Vegas met AA. De HD4850 is dus duidelijk bandbreedte gelimiteerd en deze limiet wordt min of meer opgeheven door de RV770 te koppelen aan snel GDDR5 geheugen.
Complete review (in het Frans): http://www.hardware.fr/ar...-hd-4800-gddr5-utile.html
maar de 4870 is weer verder te overclocken wat met gddr5 exponentioneel beter zal presteren per extra mhz tegenover gdr3. En je betaald uiteraard ook voor de betere componenten( stroom regeling behoeft geen koeling op 4870 ) en dual slot koeler.




http://www.hardware.info/...pphire_Radeon_HD4850_1GB/
bron
http://vga.zol.com.cn/98/983441.html
[ Voor 42% gewijzigd door Bullus op 06-07-2008 22:36 ]
|2600k|Asus 290|
En dit zijn orginele pics ? vind t namelijk wat fake eruit zien..Bullus schreef op zondag 06 juli 2008 @ 21:56:
Blauwe Sapphire Radeon HD4850 1GB
[afbeelding]
http://www.hardware.info/...pphire_Radeon_HD4850_1GB/
Zoals de Picture die er op staat ; z'n slechte 'afdruk'kwaliteit ..
maar goed t gaat om dekaart zelf natuurlijk
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Hou er dan ook rekening mee dat de test gedaan is met een overklokte 4850. Dus die 2 tot 22% verschil komt enkel door het geheugen, de cores liepen gelijk. De 30% goedkopere 4850 die jij vernoemt heeft ook tragere core.
Nuja de 4850 is uiteraard nog altijd beter wat betreft prijs/performance maar zoveel slechter is de 4870 nu ook weer niet.
Lijkt op een standaard koeler met een blauw frontje erover, stock koeler kun je er gewoon doorheen zien.
Goed koper is duurder dan slecht koper
Zoals Timo al zei, je kan de stock cooler eronder zien.

Pentaxiaan
Ten eerste: tegen de tijd dat de 9800GTX+ €150,00 kost, zal de HD4870 ook voor minder dan € 200,00 worden aangeboden.[b]Frietjemet schreef op zaterdag 05 juli 2008 @ 20:49:[/b
...
Ik zelf zit nu toch een 4870 serieus te overwegen, voor 200 euro is het toch een héél mooie kaart voor zijn geld, maar ik w8 nog even af wat de gtx+ gaat kosten, als deze 150 euro wordt neem ik de nvidia, die paar fps zijn me 50 euro niet waard.
...
Ten tweede: de geruchten gaan dat nVidia vanaf Q4 2008/Q1 2009 met DX10.1 kaarten komt en dus ook DX10.1 games gaat ondersteunen. De HD4850 (nu voor €150,00) zal dan in de DX10.1 games naar mijn verwachting, veel beter presteren op IQ en/of performance gebied dan de 9800GTX+.
Ik vermoed dat de 9800GTX+ dus niet persé de betere keus zal zijn.
[ Voor 7% gewijzigd door Indy91 op 06-07-2008 23:15 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Verwijderd
Bron : http://www.nordichardware.com/news,7921.htmlThings are not really as expected over at NVIDIA. The tide has turned and the people have taken the Radeon HD 4800 series to their hearts. Somehow just having the fastest card around didn't pan out. NVIDIA is firm in its belief though and from we've heard it has another card that will dethrone Radeon HD 4870X2 when it arrives (we do expect 4870X2 to take GeForce GTX 280 and so does NVIDIA apparently). It has not been confirmed, but it may very well be something 55nm, most likely G200b. Since Radeon HD 4870X2 is slated for late August, we should see NVIDIA's new monster around when the moon starts another lap and August turn into September.
Ik geloof er precies niet veel van...

Maar lijkt me eerder hoax.
[ Voor 5% gewijzigd door Avalaxy op 06-07-2008 23:31 ]
Uit de conclusie:
Lees hier het hele artikel: http://www.phoronix.com/s...m=ati_radeonhd_4870&num=1With all of that said, we are very pleased with the ATI Radeon HD 4870 512MB graphics card. This graphics card was introduced with same-day Linux support, superb 2D support compared to NVIDIA on Linux, and the best OpenGL performance we have seen that's able to annihilate the NVIDIA competition when using advanced image quality settings. In addition, they have new features and other improvements going into not only their proprietary fglrx driver but also the two open-source graphics drivers that AMD supports: xf86-video-ati and xf86-video-radeonhd.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
varianten op zijn 4870 te plakken?
Drive-in rijtjeshuis 1970 170m2, 87m2 VV, 4 T22 radiatoren, HR+ glas, volledig na geïsoleerd, 5550WP (15 panelen), Quatt Hybrid 6kw. 4/4 Zonneplan PV, energie, laadpaal, 20 kWh Nexus, EvaPower + 5 Mates. Tesla model 3 Performance (2024).
VF1000 past op de HD4850 dus zal ook wel op de HD4870 passen maar ik zou lekker de stock cooler gebruiken. Mooi die warme lucht de kast uit. En hij is nog stil ook nog. Fan speed gewoon beetje omhoog en je bent klaar. Die zalman zal op max speed de kaart rond de 70c houden en maakt ongeveer even veel lawaai in 3D als de Stock cooler alleen de stock cooler gaat vanzelf netjes terug naar een lagere stand.Shandar04 schreef op maandag 07 juli 2008 @ 02:13:
Heeft iemand toevallig al geprobeerd een Zalman http://www.zalman.co.kr/ENG/product/Product_Read.asp?idx=283 of een van de andere
varianten op zijn 4870 te plakken?
Heb nu de HD4870 van me broer er in zitten dus even wat stroom verbruik cijvers:
--------------------------HD4850:---------HD4870
Windows CPU Load: ---315-------360
Windows idle:--------------261--------305
Full Load CPU + GPU: 420----------442
Het mag duidelijk zijn dat Powerplay op de HD4870 niet werkt
Ik heb even wat metingen gedaan en wat ik dacht klopt Powerplay clockt alleen naar beneden:
Voltage in idle is 1.275v waar dat bij de HD4850 netjes naar beneden gaat naar 1.084 en met een andere bios 0.98v (is mogelijk niet standaard) .
3D draait hij ook die 1.275 dan loopt hij iets op naar 1.298. De HD4850 heeft daar stock 1.141 met mod bios 1.189. Dus geen wonder dat die HD4870 zo veel hoger komt met overclocken
Het GDDR 5 geheugen loopt trouwens op 1.5v. GDDR 3 van de HD4850 loopt 2.0v.
Edit ben nu naar de bios aan het kijken en daar staat inderdaad ook 1.26v voor alle clock speeds. Ik ga deze eens aanpassen. Ik heb GPU-Z 0.25 dus als het goed is moet ik dan geen problemen krijgen.
Edit even een overclockje gedaan met de HD4870
GPU-Z geeft 153.6 GB aan memory bandbreedte aan
[ Voor 36% gewijzigd door Astennu op 07-07-2008 09:26 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Kan dat met deze 2 toevallig ook?
Je krijgt haast niks meer voor die 1950 pro, terwel het echt een heel goed kaartje is.
Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
Mijn 1950 begint wel z'n ouderdom te vertonen, performance wise dan.
@ Astennu, met welke CPU en de rest v/d part zijn die verbruikscijfers?
btw. ik denk dat Ati lessen heeft getrokken uit de 1950pro, want destijds was het ook een erg goeie prijs/prestatie verhouding. Hij heette ook RV580
[ Voor 40% gewijzigd door Dani86 op 07-07-2008 12:58 ]
Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme
Ik schat dat je 4850 ongeveer 4 keer zo snel is als je 1950 pro. Dat was ooit wel een mooie kaart, maar is inmiddels simpelweg verouderd.Deorgere schreef op maandag 07 juli 2008 @ 12:49:
Wat ik mij af vroeg.. Ik heb een Asus 4850 in mijn pc, en nu heb ik hier een MSI 1950 Pro liggen, ik las ooit ergens dat je die kaarten met elkaar kon combineren.
Kan dat met deze 2 toevallig ook?
Je krijgt haast niks meer voor die 1950 pro, terwel het echt een heel goed kaartje iswas.
Crossfire of Crossfire-X maakt in dit geval niet uit. Officieel kunnen kaarten uit verschillende series niet met elkaar in Crossfire(-X) werken. Het is mensen wel gelukt de 2xxx en 3xxx serie te combineren en volgens mij ook al eens de 3- en 4-serie, maar de winst is in de meeste gevallen nihil en je ziet vaak zelfs dat de performance minder wordt. Dus zelfs al was het mogelijk zou je het waarschijnlijk nog niet willen. Ik zou hem lekker verkopen nu je er nog 50 euro voor kunt krijgen.Verwijderd schreef op maandag 07 juli 2008 @ 12:49:
Volgens mij is een 1950 Pro een CF kaart, en geen CF-X kaart. Heb er zelf ook eentje.
Gaat inderdaad niet werken.Verwijderd schreef op maandag 07 juli 2008 @ 12:49:
Volgens mij is een 1950 Pro een CF kaart, en geen CF-X kaart. Heb er zelf ook eentje.
Je kunt ze wel naast elkaar zetten voor meer monitor aansluitingen, maar CF gaat niet werken.
http://www.fudzilla.com/i...sk=view&id=8310&Itemid=34
Ik hoop iniedergeval dat ATi dit zo volhoud en ook de volgende generatie zo goed is. Ik vraag mij af of we nu het bewijs te zien krijgen dat nVidia alleen op korte termijn de juiste strategie heeft gekozen, en ATi voor de langere termijn. Tijd zal het leren.
Feit is iniedergeval wel dat nVidia ernstige verliezen lijkt te leiden dankzij ATi. David vs Goliath
Verwijderd
En met je feitelijke conclusie lijk je te vergeten dat nvidia nog steeds een hele rits 8serie en 9serie kaarten hebben, en die verkopen nog steeds heel aardig, en in heel veel laptops zitten nvidia chips, dus dat verlies lijden valt heel aardig mee hoor
Dat een nieuwe serie duur is ten opzichte van de concurent wil nog niet zeggen dat deze meteen verlies maakt hoor, ati is degene die verlies lijdt, maar dit komt door amd, wel gaat het beter de laatste tijd, mede door ati
ik ga david ook helpen btw
140 euro voor een gtx260... dat klinkt mij erg niet kloppend in de orenChessSpider schreef op maandag 07 juli 2008 @ 17:30:
In het nVidia topic is te lezen dat de GTX260 omlaag gaat naar de 222USD, oftewel 140 euro. Ik vraag mij af of ATi ook de prijzen dan omlaag gaan doen.
Ik hoop iniedergeval dat ATi dit zo volhoud en ook de volgende generatie zo goed is. Ik vraag mij af of we nu het bewijs te zien krijgen dat nVidia alleen op korte termijn de juiste strategie heeft gekozen, en ATi voor de langere termijn. Tijd zal het leren.
Feit is iniedergeval wel dat nVidia ernstige verliezen lijkt te leiden dankzij ATi. David vs Goliath.
klik hier voor de specs van m'n systeem || ook al is INTEL nog zo snel AMD achterhaalt hem wel
Verwijderd
Hacku in "[Algemeen] nVidia Nieuws & Discussie Top..."waterking schreef op maandag 07 juli 2008 @ 18:18:
[...]
140 euro voor een gtx260... dat klinkt mij erg niet kloppend in de oren
Maar inderdaad, ik vraag mij af of hij niet het tekentje heeft verwisseld. 222usd is wel heel erg laag.
@frietjemet, Dat klopt, maar dit is de aller-,allernieuwste generatie waar wij het over hebben van nvidia. Er komt waarschijnlijk nog een verbetering van de core die kleine verbeteringen doorvoerd, maar meer niet. Dat zelfde zal hopelijk ook komen voor de RV770, en daar is de prijs niet ruim 100 gedaald in de afgelopen week
@onder; ah dat had ik gemist.. Iets te blij geweest dus
[ Voor 4% gewijzigd door ChessSpider op 07-07-2008 18:54 ]
Verwijderd
En de reactie van CJ erop :ChessSpider schreef op maandag 07 juli 2008 @ 18:29:
[...]
Hacku in "[Algemeen] nVidia Nieuws & Discussie Top..."
Maar inderdaad, ik vraag mij af of hij niet het tekentje heeft verwisseld. 222usd is wel heel erg laag.
Let wel op dat het AIB prijzen zijn.
Dus $165 inkoopprijs voor de AIB, wat uiteindelijk resulteert in $199 winkelprijs. Dat zijn dus de prijzen die al bekend waren, maar nu ook voor de AIB dus goedkoper.
Verwijderd
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i

Bij Sampsa
Dus het zou goed kunnen kloppen dat we volgende week bij een select aantal sites een preview zien.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hmm, komen er dus 2 versie aan? 1 met 1gb ddr3 geheugen en 1 super R700 met 2gb ddr5?We are sure that there will be a substantial difference between the 1GB GDDR3 version of the Radeon HD 4870 X2 and its 2GB GDDR5 brother, but at this time we don’t know the real pricing. We are certain that currently this matter is alive and ATI is checking its options due to the weaker position of its competitor.
2gb, beetje overkill of je moet hem aansluiten op een HD tv.
Alleen daarvan is de resolutie ook maar 1920x1080....
bron
http://www.fudzilla.com/i...sk=view&id=8299&Itemid=65
[ Voor 10% gewijzigd door Bullus op 07-07-2008 20:21 ]
|2600k|Asus 290|
Toch?
Hmm, maar wanneer komt de HD4870 1GB GDDR5 dan es in de schappen?CJ schreef op maandag 07 juli 2008 @ 19:09:
Net te horen gekregen dat we volgende week op de 14de waarschijnlijk al een soort van (performance) preview krijgen van de R700. Een beetje hetzelfde idee als de performancepreview van de HD4850. De echte launch zou dan 2 a 3 weken later zijn. Ik zal nog even navragen of dit klopt.
Het blijft nu angstvallig stil nu.
| DELL XPS 15 Haswell QHD | APPLE iPhone X Silver | APPLE iPad Air |
Verwijderd
De 4870x2 2gb, is dat 2x 1gb voor iedere GPU? dus effectief maar 1Gb? Of is het daadwerkelijk 2Gb want dat lijkt me niet echt noodzakelijk en onnodig duur...
edit: Hmm, als ik die link bekijk wordt het dus gewoon echt de volle 2gb. bizar
[ Voor 13% gewijzigd door Verwijderd op 07-07-2008 21:17 ]
http://www.techpowerup.co...ected_More_From_AMD_.htmlRadeon PhysX Creator: 'NVIDIA Offered To Help Us', 'Expected More From AMD'
In a dramatic turnaround of events, NGOHQ.com, the creators of a special system software that allowed users of the ATI Radeon graphics accelerators to use proprietary features of NVIDIA graphics accelerators such as GPU-accelerated version of the NVIDIA PhysX game physics API, claim that in fact NVIDIA wanted to help them with this effort. On June, the 26th we had covered reports of the said outfit improvising a driver after proving that NVIDIA's proprietary GPGPU architecture, CUDA was flexible enough to work on a ATI RV670 graphics processor.......
The dramatic turnaround of events has caused a little more than a ripple across the industry, the team at NGOHQ.com now claims that NVIDIA actually offered help to them and that they want to strengthen the industry position of CUDA as a viable competitor to Intel and its processing technologies
Topic van ngohq.com
http://www.ngohq.com/news...ration-radeon-update.htmlPosted by Regeneration on July 3rd, 2008, 10:36 PM
I would like to update you about what’s going on. First, we were very pleased to see so many users and readers have applied to our Beta Test Program! To be specific: 191 users, 5 spies and 2 double agents have submitted applications during the last week. Those that will be chosen will be informed early before the beta is available – we can’t still point to “when” at this stage.
The bad news is we still don’t have access to any HD 4800 hardware yet. It is very important for this project to receive AMD’s support on both developer and PR levels. It seems that AMD still is not being cooperative, we get the feeling that they want this project to fail. Perhaps their plans are to strangle PhysX since AMD and Intel have Havok. We truly hope this is not the case since “format wars” are really bad for the consumers (For example: Blu-ray vs. HD-DVD).
Before we get to the good news, I’m going to ask you to hold on to something steady as some of you are going to feel a bit dizzy after you hear this. The truth is… Nvidia is now helping us with the project and it seems they are giving us their blessings. It’s very impressive, inspiring and motivating to see Nvidia's view on this. Why they help us? My best guess would be: They probably want to take on Intel with CUDA and to deal with the latest Havok threat from both AMD and Intel.
Some other good news, we are getting a lot of help from cool journalists like Theo Valich to address the HD 4800 access issue. I can confirm that our CUDA Radeon library is almost done and everything is going as planned on this side. There are some issues that need to be addressed, since adding Radeon support in CUDA isn’t a big deal - but it’s not enough! We also need to add CUDA support on AMD’s driver level and its being addressed as we speak.
Here are some answers to your questions:
Q: Is this complete CUDA-to-ATI project, or just Physx-2-ATI?
A: CUDA-to-ATI project and PhysX.
Q: How come you have screenshots and its taking you so much to finish the project?
A: There is a lot of difference between partial support and full support. We don’t want to release incomplete project with a lot of bugs. We want to finish our project and to offer full support for PhysX and CUDA.
Q: Stop whining! Buy the damn card.
A: Budget/money is not an issue here. The issue here is the lack of world-wide availability of the HD 4800 series. We started this project a few days after AMD launched their HD 4800 series. We can’t acquire cards from AMD because they refuse to sell in low volumes and it’s unavailable via shops in our region (Forget about eBay! my eBay account is banned for no reason and they refuse to tell me why). So our only chance is either waiting for shops or asking from AMD. We don’t like to wait, it slows us down. If you can get AMD/their partners to sell in low volumes, we would love buy that damn card.
Q: It’s not that they aren't supporting this site; it’s that this site is potentially damaging AMD/ATI technology.
A: We emailed AMD before they launched the new HD 4800 family and asked to borrow samples. They ignored our emails and that was before we even thought about this project.
Q: Stop complaining about everything
A: It’s our obligation to report everything to our users/readers.
Q: To get corporate backing of a mission to support competitor’s technology is insane
A: This technology could make their Radeon brand even more attractive. Nvidia will use their popular The Way It Meant to be Played program to promote PhysX and everyone knows that Nvidia has better relations with game developers then AMD. If Radeons would support both PhysX and Havok it should make the brand more attractive to consumers.
Q: AMD/ATI has no-doubt already thrown millions into their physics technology
A: AMD received Havok license for free.
Q: Why don`t you try making Havok running on GeForce, and see how cooperative Nvidia will be.
A: It’s being investigated for some time now.
Q: Would it be possible to put an Nvidia graphics card in as a dedicated PhysX card to work alongside ATI cards that are doing the graphics?
A: No. But I think its possible with some software modifications.
Wel een voordeel voor de radeons, PhysX en Havoc
[ Voor 75% gewijzigd door Bullus op 07-07-2008 23:03 ]
|2600k|Asus 290|
2x1 jaVerwijderd schreef op maandag 07 juli 2008 @ 21:14:
Ja, ik check ook dagelijks de pricewatch voor wat custom 4870's maar schiet nog niet echt op.
De 4870x2 2gb, is dat 2x 1gb voor iedere GPU? dus effectief maar 1Gb? Of is het daadwerkelijk 2Gb want dat lijkt me niet echt noodzakelijk en onnodig duur...
edit: Hmm, als ik die link bekijk wordt het dus gewoon echt de volle 2gb. bizar
[ Voor 96% gewijzigd door KiLLaHeRTz op 07-07-2008 22:33 ]
Je haalt me de woorden uit de mond. Ik check ook tevergeefs elke dag pricewatch...MelvinB schreef op maandag 07 juli 2008 @ 19:51:
[...]
Hmm, maar wanneer komt de HD4870 1GB GDDR5 dan es in de schappen?
Het blijft nu angstvallig stil nu.
Forever raver!
Specs: Workstation Server
Bij deze dan een gratis tip:CaptainM schreef op maandag 07 juli 2008 @ 22:48:
[...]
Je haalt me de woorden uit de mond. Ik check ook tevergeefs elke dag pricewatch...
1) Kijk niet in de pricewatch maar in dit topic en op de websites van de fabrikanten. Als ze geintroduceerd worden vind je ze 't snelst hier en daar.
2) Mocht het dan zo zijn dat je 't hier een link vind naar de introductie van een nieuwe kaard, check dan snel de website van de fabrikant voor officiele specs en voer dan de gegevens in in de pricewatch. Dit laatste kan ik niet genoeg benadrukken, als niemand de artikelen invoert in de pricewatch zal je ze er ook niet zo snel vinden
Mijn ervaring is dat de meeste producten 1 tot 2 dagen na invoeren van de specs terug te vinden zijn in de pricewatch (mits er webshops zijn die het product leveren).
Het wijzigen van een product gaat vaak minder lekker... ik heb nou al tig keer een tweede artikelnummer toegevoegd aan de powercolor 4850 omdat de webshops blijkbaar een ander nummer hebben dan wat er op de powercolor website staat maar tot op de dag van vandaag kan ik 'm nog niet terugvinden

[ Voor 25% gewijzigd door Huppie op 08-07-2008 00:01 ]
Proud member of TCF - D2OL is zooooo 2005
Vergeet het voorlopig maar even.CaptainM schreef op maandag 07 juli 2008 @ 22:48:
[...]
Je haalt me de woorden uit de mond. Ik check ook tevergeefs elke dag pricewatch...
De 1GB versies komen pas als de productie van de 512MB versies van de HD4870 goed en wel op gang zijn. En die is pas een paar weken geleden goed op gang gekomen. Je zal eerder 1GB versies zien van de HD4850 omdat deze al enkele weken langer in productie is.
Geduld dus nog. Als ze er aan komen dan is dit topic het eerste waar het vermeldt wordt. Continue melden dat iets er nog niet is, helpt de beschikbaarheid niet beter worden en is ook nog eens tegen de topicregels in.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Q9450 op 3533 MHz 1.225vDani86 schreef op maandag 07 juli 2008 @ 12:52:
Je kan het altijd proberen. Als het werkt ( ik zeg als ), dan wordt je 4850 extreem gebottlenecked denk ik.
Mijn 1950 begint wel z'n ouderdom te vertonen, performance wise dan.
@ Astennu, met welke CPU en de rest v/d part zijn die verbruikscijfers?
btw. ik denk dat Ati lessen heeft getrokken uit de 1950pro, want destijds was het ook een erg goeie prijs/prestatie verhouding. Hij heette ook RV580
Gigabyte DQ6
2x2 GB OCZ Reaper
2x400 GB en 2x640 GB HD
Auzentech Prelude
1000 Watt coolermaster
Verder zit er op die stekkerdoos ook nog een Dell 2405. Die gebruikt al 60 watt.
De HD4850 gebruikt op 1.25v trouwens 3-5 watt meer dan de HD4870 op 1.28-1.29. Dus dat GDDR5 is een 10-20 watt zuiniger dan GDDR 3.
Powerplay bios voor de HD4870 was geen succes beeld ging flitsen. Volgens mij bij het schakelen van laag naar hoog. Zal anders Sapphire eens gaan mailen over het feit dat powerplay niets doet.
HD4850 en HD4870 in CF werkt trouwens prima. had iets meer dan 19K in 2006 waar ik bij de HD4850 alleen 15K haalde. Sommige game tests hadden een 100% boost andere Rond de 30%. (CPU bottelnek). En dit alles op een hele gare windows installatie
[ Voor 10% gewijzigd door Astennu op 08-07-2008 08:49 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
ik denk off topic;
Ik heb een AMD X2 5000+ op 3Ghz op een Gigabyte DS5. Ik wil graag crossfire met de 4850/70's gaan draaien, maar dan wordt de game performance dus gebottlenecked door mijn processor???
Als jouw CPU al bottlenecked, wat moet je dan in hemelsnaam hebben om de 4870's in crossfire volledig te benutten?
Jij draaide toch ook altijd op hogere resoluties? (ik draai liefst 1900*1200 Full aaa en edge detect)
(Allereerste post, excuses voor fouten/offtopic)
Dit was het geval in 3DMark 06. Die game tests zijn op een of andere manier CPU limited hoe ze dat voor elkaar krijgen weet ik niet. Als je 1920-1200 gebruikt met AA en AF heb je geen CPU bottelnek in shooters. AA en AF belasten alleen maar de kaarten niet de cpu. Dus dan zul je zeker winst hebben met CF. Games zoals starcraft 2 en supreme commander zijn een ander verhaal. Maar bij shooters en race games zal je GPU de limiet bepalen. Mijn HD3870 X2 deed het met max AA en AF even goed op een Quad 3.2 of een 5600+ X2 cpu. Ik merkte daar met Team Fortress 2 geen verschil. Max FPS zal wat lager zijn maar de game ervaring was het zelfde. Liep gewoon soepel.Verwijderd schreef op dinsdag 08 juli 2008 @ 10:25:
@Astennu:
ik denk off topic;
Ik heb een AMD X2 5000+ op 3Ghz op een Gigabyte DS5. Ik wil graag crossfire met de 4850/70's gaan draaien, maar dan wordt de game performance dus gebottlenecked door mijn processor???
Als jouw CPU al bottlenecked, wat moet je dan in hemelsnaam hebben om de 4870's in crossfire volledig te benutten?
Jij draaide toch ook altijd op hogere resoluties? (ik draai liefst 1900*1200 Full aaa en edge detect)
(Allereerste post, excuses voor fouten/offtopic)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Bedankt voor de info, het wordt zeer gewaardeerd.
4870X2 will release full HD gaming for me then! Cant wait.
Verwijderd
Mjah het probleem is enkelt dat je waarschijnlijk niet één core kan uitschakelen bij de 4870X2 als crossfire niet lekker loopt en dat heb ik vaak geneog gelezen bij 3870X2. Daarom ben ik ook voorstander van 2x 4870 1 gig kaarten. Het tekort aan GDDR5 zal ook zeker een rol spelen. Ik hoop dan wel dat het een hardlanch wordt voor de 4870X2 kaarten, anders gaan we alweer richting volgende generatie kaartenath92 schreef op dinsdag 08 juli 2008 @ 10:47:
Ik denk dat het uitblijven van de HD4870 1GB vooral te make heeft met het tekort aan GDDR5. Ze wilen eerst genoeg X2's in stock hebben, voordat ze een 1GB 4870 maken, denk ik.
Het kan wel door Catalyst AI uit te zetten. Maar ik vind het soms ook wel makkelijk om een kaart even in een andere pc te kunnen zetten. Echter kan het zijn dat de HD4870 X2 dit keer leuke performance winst laat zien door die nieuwe HUB. Dus dan is het wel erg interessant.Verwijderd schreef op dinsdag 08 juli 2008 @ 11:04:
[...]
Mjah het probleem is enkelt dat je waarschijnlijk niet één core kan uitschakelen bij de 4870X2 als crossfire niet lekker loopt en dat heb ik vaak geneog gelezen bij 3870X2. Daarom ben ik ook voorstander van 2x 4870 1 gig kaarten. Het tekort aan GDDR5 zal ook zeker een rol spelen. Ik hoop dan wel dat het een hardlanch wordt voor de 4870X2 kaarten, anders gaan we alweer richting volgende generatie kaarten
Edit:
Zie trouwens op fud dat AMD's 790GX stock al 2k in 3Dmark 06 haalt. Erg grappig dat na genoeg niemand Vantage gebruikt. Ik denk echt dat dat komt doordat je voor Vantage moet betalen. 3DMark 2006 blijft de standaard.
[ Voor 12% gewijzigd door Astennu op 08-07-2008 11:33 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Zit bij je mobo geen CF brug dan? Dat is het meest gebruikelijk namelijk...Verwijderd schreef op dinsdag 08 juli 2008 @ 11:53:
Bij mijn msi 4850 zat jammer genoeg geen crossfire bridge, wel het spel Grid. Ik heb denk ik wel één of twee lange bruggen nodig voor op mijn maximus formula mobo. Beetje afzetterij 10 euro per stuk
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Urhm... niet dus. CrossFire bridges hoor je altijd bij de videokaart te krijgen. Wanneer je het bij een mobo krijgt is het meer uitzondering dan regel. Dat is meer iets voor NV om bij SLI mobo's een SLI bridge mee te leveren, maar hoort niet bij de ATI/AMD strategie.Cheetah schreef op dinsdag 08 juli 2008 @ 12:46:
[...]
Zit bij je mobo geen CF brug dan? Dat is het meest gebruikelijk namelijk...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dat kan wel kloppen want bij mijn sli mobo zat een sli-brigde en bij mijn videokaarten zat er geen.CJ schreef op dinsdag 08 juli 2008 @ 13:09:
[...]
Urhm... niet dus. CrossFire bridges hoor je altijd bij de videokaart te krijgen. Wanneer je het bij een mobo krijgt is het meer uitzondering dan regel. Dat is meer iets voor NV om bij SLI mobo's een SLI bridge mee te leveren, maar hoort niet bij de ATI/AMD strategie.
Hoe lager de resolutie, hoe meer de cpu de bottleneck vormt, hoe hoger de resolutie (en aa/af etc), hoe meer de kaart de bottleneck vormt.
Dus als in een game, je op lage reso dezelfde fps haalt als hoge, dan weet ej dat je je cpu kunt upgraden.
Verwijderd schreef op dinsdag 08 juli 2008 @ 10:43:
Gelukkig! Ik was al bang dat ik weer een nieuw systeem kon gaan uitzoeken![]()
Bedankt voor de info, het wordt zeer gewaardeerd.
4870X2 will release full HD gaming for me then! Cant wait.
[ Voor 10% gewijzigd door Bert2000 op 08-07-2008 15:20 ]
We also need to add CUDA support on AMD’s driver level and its being addressed as we speak.
It appears that Nvidia does not mind running PhysX on ATI Radeon (or just about any other GPU) cards.
[ Voor 21% gewijzigd door Format-C op 08-07-2008 15:41 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Redelijk logisch lijkt me, hoe meer ondersteuning des te meer kans dat ontwikkelaars het daadwerkelijk gaan gebruiken.
En aangezien het een techniek van nVidia is, kunnen ze als ze het goed spelen meer licenties erop verkopen en hun eigen kaarten toch net iets beter ermee om gaan.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
[ Voor 91% gewijzigd door peakaboo op 08-07-2008 17:52 ]
In dit geval is het wel heel erg logisch. Ze moeten namelijk wel.RappieRappie schreef op dinsdag 08 juli 2008 @ 17:29:
Zo logisch is het niet dat nVidia dit doet. nVidia houdt normaliter zoveel mogelijk aan zichzelf voorbehouden.
Om van PhysX een succes te maken, moeten ze een groot draagvlak hebben. Nu de meerderheid van de games nog altijd gebruik maakt van Havok physics en deze in handen is van een grootmacht als Intel, moet men zo veel mogelijk steun achter zich zien te krijgen. Dit lukt alleen door van PhysX een open platform te maken en anderen toe te staan om er gebruik van te maken.
Nu AMD heeft aangegeven dat ze met Havok in zee gaan en niet met PhysX, moet NV zelf gaan zitten pushen om Radeons ook ondersteuning te laten bieden voor PhysX. AMD heeft het op dit punt goed voor elkaar... door voor Havok te kiezen, dwingen ze NV om de boel nog meer open te stellen... doen ze dit niet... dan zal PhysX een flinke kluif hebben om tegen het geweld van Intel, Havok en AMD op te moeten boxen. En nu hoeven ze zelf weinig resources te pompen in de ondersteuning voor PhysX... want dat doen anderen wel...
Vergeet niet dat ook Havok engine sinds kort gratis beschikbaar is voor developers om te gebruiken. En Havok werkt op alle CPUs, dus het draagvlak is vooralsnog groter dan PhysX op GPUs. Als AMD straks de Havok calls onderschept en door de GPUs laat uitvoeren, en daarnaast ook nog eens PhysX ondersteunt dankzij dit projectje van NV/NGO... dan eten ze mooi van twee walletjes.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
shoquerend off-topic: Lord have mercy, wat is dat ding übergeilviper83 schreef op dinsdag 08 juli 2008 @ 15:19:
Fudzilla meldt : Diamond's HD 4870 XOC Black Edition
[afbeelding]
PhysX is ook gratis op het moment dat je alleen de binaries gebruikt, wil je de source code zelf kunnen gebruiken of het op de 360 gebruiken kost het $50k per applicatie.
Ik neem aan dat je zelf kunnen inzien bedoelt. Om gebruik te maken van PhysX heb je niet meer nodig dan de binaries.Vincentio schreef op dinsdag 08 juli 2008 @ 19:44:
Hoe gratis is gratis?
PhysX is ook gratis op het moment dat je alleen de binaries gebruikt, wil je de source code zelf kunnen gebruiken of het op de 360 gebruiken kost het $50k per applicatie.
... zo krijg je bij veel 3D-engines ook niet de sourcecode ter beschikking (of je lapt ineens een gigantisch bedrag).
Proud member of TCF - D2OL is zooooo 2005
Ohh ja sorry voor de lichte off-topic maar als het werkt
[ Voor 43% gewijzigd door Apoca op 08-07-2008 20:37 ]
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Verwijderd
[ Voor 7% gewijzigd door Verwijderd op 08-07-2008 20:47 ]
¿Que?Verwijderd schreef op dinsdag 08 juli 2008 @ 20:46:
Kan iemand hier mij vertellen hoeveel GigaTransactions per second (GT/s, dus niet pixel fillrate of texture fillrate) een HD4870 produceert? CJ of Astennu wellicht?
Bedoel je misschien FLOPS? De HD4870 doet rond de 1.2 TeraFLOPS.
GT/s staat trouwens voor GigaTransfers/second, niet voor GigaTransactions
Nee gebruik maken van de source in de mate van dat je er meer mee kan dan alleen standaard calls naar de binaries en wat die standaard ondersteunen.Huppie schreef op dinsdag 08 juli 2008 @ 20:03:
[...]
Ik neem aan dat je zelf kunnen inzien bedoelt. Om gebruik te maken van PhysX heb je niet meer nodig dan de binaries.
... zo krijg je bij veel 3D-engines ook niet de sourcecode ter beschikking (of je lapt ineens een gigantisch bedrag).
Bovendien zit er bij de gratis versie dus ook geen support voor het 360 platform bij.
The NVIDIA PhysX SDK (binary) is 100% free and available right now for download by developers. In addition to the free software offering, NVIDIA offers additional support plans and a paid license program which enables developers to modify the SDK to suit their needs.
The binary version of the PC SDK is offered at no charge as outlined below. Source code (for integration purposes) is available for a fee as provided below:
Verwijderd
Ik weet dat deze afkorting onder andere bij het aangeven van de snelheid van PCI-e wordt gebruikt. Daar wilde ik dus ook naar toe: in hoeverre zal een PCI-e 1.1 bus een bottleneck voor een HD4870X2 zijn. GT/s is een meeteenheid voor de hoeveelheid verkeer dat over een bus kan gaan (wordt bv ook gebruikt om de snelheid van Intel's nieuwe CSI aan te geven). Ik wil dus graag weten hoeveel een HD4870 aan verkeer (data in- / output van de CPU) nodig heeft om naar behoren te functioneren.
Ik weet dat vragen naar bottlenecks bij PCI-e 1 en de nieuwe kaartjes al een aantal keer zijn gesteld hier, maar ik wil het graag zelf ook kunnen beredeneren. Dan hoef ik niet bij elke nieuwe kaart die langs komt dezelfde vraag te stellen
[ Voor 14% gewijzigd door Verwijderd op 08-07-2008 21:12 ]
Moet je dit niet groter zien?CJ schreef op dinsdag 08 juli 2008 @ 18:33:
[...]
In dit geval is het wel heel erg logisch. Ze moeten namelijk wel.
Om van PhysX een succes te maken, moeten ze een groot draagvlak hebben. Nu de meerderheid van de games nog altijd gebruik maakt van Havok physics en deze in handen is van een grootmacht als Intel, moet men zo veel mogelijk steun achter zich zien te krijgen. Dit lukt alleen door van PhysX een open platform te maken en anderen toe te staan om er gebruik van te maken.
Nu AMD heeft aangegeven dat ze met Havok in zee gaan en niet met PhysX, moet NV zelf gaan zitten pushen om Radeons ook ondersteuning te laten bieden voor PhysX. AMD heeft het op dit punt goed voor elkaar... door voor Havok te kiezen, dwingen ze NV om de boel nog meer open te stellen... doen ze dit niet... dan zal PhysX een flinke kluif hebben om tegen het geweld van Intel, Havok en AMD op te moeten boxen. En nu hoeven ze zelf weinig resources te pompen in de ondersteuning voor PhysX... want dat doen anderen wel...
Vergeet niet dat ook Havok engine sinds kort gratis beschikbaar is voor developers om te gebruiken. En Havok werkt op alle CPUs, dus het draagvlak is vooralsnog groter dan PhysX op GPUs. Als AMD straks de Havok calls onderschept en door de GPUs laat uitvoeren, en daarnaast ook nog eens PhysX ondersteunt dankzij dit projectje van NV/NGO... dan eten ze mooi van twee walletjes.
cuda is de toekomst voor nvidia. zij hebben niet de beschikking over een cpu (samenwerking met via is een hoax), geen licentie voor intels nehalem. Dit is hun "roadmap" / offensief tegen intel's larrabee en AMD's fusion.
Yep ben er mee aan het testen. Maar het is echt een een verhaal van stroomverbruik stijgt giga performance amper. Hij draait hier op 1.23v 775 MHz. 25 watt er bij gekomen toc 1.19v met 750 MHz.Apoca schreef op dinsdag 08 juli 2008 @ 20:35:
Zijn er mensen hier welke een V-mod op hun 4850 kaartjes hebben gedaan?
Ohh ja sorry voor de lichte off-topic maar als het werkt![]()
Stock draait een HD4850 in de via de bios 1.14 dit kun je via de bios verhogen naar 1.19.
Ik gebruik een VF1000 cooler niet het meest ideaal omdat dit nog steeds 60+ temps geeft. Maar v-mod heeft wel wat nut niet heel veel. Ter vergelijking de HD4870 gebruiken 1.28v en die hebben ook een dikke cooler nodig. Qua performance per watt is die 1.14v ideaal.
Ik ga ook de mem mod testen. Als die 1175 mogelijk maakt is dat wel nuttig ( met 2.1v ipv 2.0 ) Want de HD4850 heeft niet genoeg bandbreedte.
Er zijn trouwens al mensen die de HD4850 tegen de 900 MHz pushen alleen dan wel met H2O en 1.45+ volts. Er is ook al een HD4870 die de 1000-1205 gehaald heeft. Met alleen een v-core mod en natuurlijk LN2.
Bedoel je wat GPU-Z aangeeft ?Verwijderd schreef op dinsdag 08 juli 2008 @ 20:46:
Kan iemand hier mij vertellen hoeveel GigaTransactions per second (GT/s, dus niet pixel fillrate of texture fillrate) een HD4870 produceert? CJ of Astennu wellicht?
Bij GPU-Z voor Pixel 10.0 G en voor Texture: 24.0 G.
Ik heb wel waardes uit 3DMark 2001 waar fillrate getest wordt van mijn HD4850 op 700 MHz. Die staan 1-2 topics terug op de eerste pagina geloof ik.
Die waardes van GPU-Z worden niet gemeten maar berekend. (volgens mij).
[ Voor 20% gewijzigd door Astennu op 09-07-2008 09:08 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
http://www.ixbt.com/video3/rv770-2-part1.shtml
http://www.ixbt.com/video3/rv770-2-part3-d.shtml#p18
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Erg agressieve prijzen....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ook is er op Fudzilla te lezen dat de 4850 X2 1GB GDDR 3 in september uit zal komen. Leuk voor de mensen met een wat dunnere portemonneeThey will go for DirectX 11
The eternal question whether Nvidia will go for DirectX 10.1 with its next generation of chips is answered. It won’t and it never will. Nvidia will skip ATI’s DirectX 10.1 and plans to move to DirectX 11.
DirectX 11 is scheduled for next year and this is the one that Nvidia wants to focus on. Nvidia has TWIMTBP and this gives them lot of close friendships with developers and publishers and most of them won’t ever touch DirectX 10.1 simply as Nvidia doesn’t supports it.
55nm Geforce GTX 280 is certainly DirectX 10 only while the real next generation will go for DirectX 11. This chapter is finally closed but we are sure that this won’t be enough to stop all the rumours.
Naturally next generation ATI, lets call it R8x0 will also support DirectX 11 as this is the way to go in 2009, pre Windows 7 times.
Two RV770PRO
We got a confirmation that two RV770PRO based R700 will end up branded as Radeon HD 4850 X2. The partners can do its own design and this will mean that there will be at least two variations of R700 card.
The top of called Radeon HD 4870 X2 2GB will have 2GB of GDDR5, the runner up is the Radeon HD 4850 X2 with 2GB of GDDR3.
There will certainly be the price difference between GDDR5 and GDDR3 version of the card and it looks that GDDR3 based Radeon 4850 X2 comes a month later.
CM NR200P | Gigabyte B550i Aorus Pro AX | 5600X | AMD Radeon 6900XT | Crucial P2 1TB | Ballistix 2x16GB 3600CL16 | BQ DarkRock TF | Corsair SF600
NV zal DX10.1 wel moeten ondersteunen om de simpele reden dat alle voorgaande versies ondersteund moeten worden door een hogere versie.Bull schreef op woensdag 09 juli 2008 @ 10:54:
Nvidia gaat nooit met een DX 10.1 kaart komen volgens Fudzilla wat toch wel jammer is want nu zullen er waarschijnlijk veel minder DX 10.1 games uitkomen.
Dus DX10.1 support bij NV kaarten komt er aan hoe je het ook went of keert. En die kaarten zullen dan net zo veel baat hebben bij DX10.1 games zoals Assassin's Creed (w/o patch) of Battleforge.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Ik denk dat het best mee zal vallen. Het duurt nog een paar jaartjes voordat dx11 volledig is ingeburgerd.Bull schreef op woensdag 09 juli 2008 @ 10:54:
Nvidia gaat nooit met een DX 10.1 kaart komen volgens Fudzilla wat toch wel jammer is want nu zullen er waarschijnlijk veel minder DX 10.1 games uitkomen.
[...]
Ook is er op Fudzilla te lezen dat de 4850 X2 1GB GDDR 3 in september uit zal komen. Leuk voor de mensen met een wat dunnere portemonnee
[...]
@SgtStrider
Ik heb een tijdje geleden gelezen dat een Gigabyte V-Power wel op een HD3870 pas. Naar mijn weten zijn die gaten weer gelijk aan de nieuwe HD48xx serie.
productreview: Gigabyte V-Power (ATi/nVidia) review door glangeveld
http://www.gigabyte.com.t...=2496&ProductName=V-Power
[ Voor 24% gewijzigd door THE_FIREFOX op 09-07-2008 11:19 ]
DX10 is nog niet eens ingeburgerd, als je het mij vraagt. Veel mensen zien in, dat het niks te bieden heeft op games gebied.THE_FIREFOX schreef op woensdag 09 juli 2008 @ 11:13:
[...]
Ik denk dat het best mee zal vallen. Het duurt nog een paar jaartjes voordat dx11 volledig is ingeburgerd.
Plus het feit dat het ook nog eens Vista only is. Er zijn meer XP gebruikers dan Vista gebruikers.
DX10.1 daarin tegen is wel een stap in de goede richting. Met AC hebben we toch wel gezien, dat DX10.1 wel degelijk iets toevoegd.
En of het nog lang zal duren voordat DX11 ook ingeburgerd wordt, hangt helemaal van af, hoe goed het wordt.
http://www.fudzilla.com/i...sk=view&id=8345&Itemid=34Launch in late 2009
Microsoft will start talking about DirectX 11 in less than two weeks. Sources have confirmed that Microsoft game technology conference, previously known as Meltdown and now renamed to Gamefest 2008, will be the place where Microsoft plans to officially announce DirectX 11.
This conference takes place on the 22 and 23 July in Seattle, Washington and it will set you back $550 if you register online. You can find some more details about the conference here.
The big feature of DirectX 11 is Tessellation/Displacement while we also heard that Multithreaded Rendering and Compute Shaders are part of it. DirectX 11 also brings Shader model 5.0 but we don’t know many details about it.
It looks like DirectX 11 will stick to rasterization as there is no any mentioning of Ray tracing support.
Nvidia will also talk about DirectX 11 at its Nvision event / conference in late August 2008.
Verwijderd
de HD 4870 doet het niet slecht met nVidia's tech Demo voor hun G200 series heh!
http://www.pcgameshardware.de/?article_id=650382
1920 x 1200 x32 + FSAA x4
@ 1280 x 1024 x 32 + FSAA x4
Nieuws van gisteren wat ik via email kreeg vanpcgameshardware.de, ik zag nog geen post hier van, dus vandaar dat ik het effe post
[ Voor 82% gewijzigd door Verwijderd op 09-07-2008 12:07 ]
Nope nog niet en waarom zou je dat willen ? Die komen er wel hoor. Maar die zullen ook wel duurder zijn. Kijk naar de prijs van het kaartje. Daarnaast willen veel mensen een single slot omdat ze niet veel ruimte hebben. En die cooler doet zijn werk prima is stil en kan het prima werk prima aan. Hij kan zelfs meer coolen met OC en verhoogt voltage.SgtStrider schreef op woensdag 09 juli 2008 @ 11:09:
Wat me trouwens opvalt is dat ik nog geen 4850 ben tegengekomen die de lucht naar buiten blaast, het zijn allemaal redelijk crappy koelertjes die de lucht gewoon in de kast blazen. Zijn er wel 4850's met "4870-style" koeler naar buiten? Of zijn er nog alternatieven die dat ook doen?
Een kaart met after market cooler zal wel 160 euro zijn. Dus dan zou ik de stap naar de HD4870 gewoon maken.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat je de techdemos van beide kanten mooi kunt gebruiken om performance grenzen te bepalen. De 4870 zal nooit slechter presteren tov een gtx 280 dan in de nvidia demos en vice versa voor de ati demos. En in de werkelijke wereld liggen de prestaties nog wat dichter bij elkaar omdat developers natuurlijk niet enkel voor één soort architectuur gaan optimaliseren.Verwijderd schreef op woensdag 09 juli 2008 @ 12:00:
hier ook wat leuks
de HD 4870 doet het niet slecht met nVidia's tech Demo voor hun G200 series heh!
http://www.pcgameshardware.de/?article_id=650382
Nieuws van gisteren wat ik via email kreeg vanpcgameshardware.de, ik zag nog geen post hier van, dus vandaar dat ik het effe post
Dus als iemand met een gtx280 even probeert om ruby aan de praat te krijgen zodra die nieuwe techdemo beschikbaar is, dan ben ik benieuwd naar de verschillen.
Veel succes! De Ruby tech-demo maakt intensief gebruik van DX10.1 features om bv AA goed te krijgen... dat gaat niet zonder artifacts werken op de GT200 serie.SneakyNL schreef op woensdag 09 juli 2008 @ 13:24:
[...]
Dus als iemand met een gtx280 even probeert om ruby aan de praat te krijgen zodra die nieuwe techdemo beschikbaar is, dan ben ik benieuwd naar de verschillen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
nV Driverhacks FTWCJ schreef op woensdag 09 juli 2008 @ 13:36:
[...]
Veel succes! De Ruby tech-demo maakt intensief gebruik van DX10.1 features om bv AA goed te krijgen... dat gaat niet zonder artifacts werken op de GT200 serie.![]()
Dan maar een bijna niet waarneembare rook of effect particle minder hier of daar, en een 30% betere framerate.
Ik heb Vista weer van de PC gehaald... Wat een meuk zeg.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Dit topic is gesloten.
Dit is een NIEUWSDISCUSSIE topic, geen helpdesktopic voor simpele vraagjes rond ATi kaarten. Als dergelijke vragen een eigen topic waard zijn, stel ze daar. Zijn ze geen eigen topic waard, stel ze niet maar ga zelf op onderzoek uit. Post ze niet hier!
Daarnaast mogen pics max 600p breed zijn. Heb jij grotere? Resize ze voor je ze post!
Verder is gezeur over levertijden, slowchat ("ik heb er net eentje besteld!") of posten van prijzen (post dat in Pricewatch, dan hebben anderen er ook wat aan!) niet de bedoeling.
Niets in deze topicwaarschuwing is nieuw, helaas moet ik toch constateren dat sommigen steeds weer dit soort posts doen. Eenmalig kun je een modbreak verwachten, maar doe je het vaker, dan kun je een pushmesssage, waarschuwing of erger verwachten. En ja, dat vinden we zelf ook kinderachtig, dus laat het niet zo ver komen!