Dat is duidelijk ja, maar we zijn zo beniewd naar ie OC scores 
Van de kaart dan welteverstaan, niet van een E6600.
Van de kaart dan welteverstaan, niet van een E6600.
[ Voor 27% gewijzigd door Anoniem: 107573 op 26-02-2007 20:54 ]
Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.
Anoniem: 107573
[ Voor 27% gewijzigd door Anoniem: 107573 op 26-02-2007 20:54 ]
Uhmm 190 watt en super speeds. To good to be true. Maar ik hoop het welCJ schreef op maandag 26 februari 2007 @ 18:53:
[...]
Volgens het gerucht (met sterke nadruk op gerucht aangezien ik het zelf ook nog niet helemaal vertrouw) was er een ROP probleem bij de A18 versie. De A17 en A18 zouden identiek zijn op het stroom verbruik na. De geteste R600 zou met een multimeter op 187W gemeten zijn. De A15 versie zou dus de versie zijn die 10-15% sneller zou zijn dan de G80 in DX10. De A17-A18 zou de showstopper zijn, maar daar was op het laatste moment een probleem mee wat nu min of meer opgelost is, maar waardoor dus niet voldoende voorraad zou kunnen zijn tijdens de launch om van een echte hard launch te spreken.
[...]
Misschien niet... tenzij de X2900XTX dik over een G80 heen gaat.![]()
Volgens het gerucht hield AMD dus wel degelijk rekening met een refresh/snellere drivers van de G80, aangezien nV het al een paar keer geflikt had om vlak na een ATI launch een party te crashen (zie GF3 wonderdrivers, GF6800Ultra Extreme, GF6800GS, GF7800GTX512 en GF7900GTX). De richtlijn van AMD zou volgens dit gerucht "50% sneller dan een GF8800GTX" zijn (wat meteen ook een reden zou kunnen zijn van de recente geruchten dat nV er van af ziet om G81 uit te brengen en meteen naar G90 door te gaan, aangezien de G81 zeker niet 50% sneller zou zijn dan een G80).
En als laatste gerucht uit dezelfde hoek zou de R600 dus zo'n 13200 punten scoren in 3DM06 op een E6600 op defaultsnelheden. De OC scores die ik hoor zijn gewoon te insane om eigenlijk te geloven (voor mezelf persoonlijk).
Hopelijk heb ik vaak genoeg het woord 'gerucht' gebruikt, zodat iedereen in ziet dat er een grote kans is dat het niet waar is. So don't get your hopes up too high.
[ Voor 4% gewijzigd door Astennu op 26-02-2007 21:37 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 209725
Daar zat ik ook al aan te denken. Of ze zetten die core in voor de midrange.Anoniem: 209725 schreef op maandag 26 februari 2007 @ 22:31:
Misschien slaat men R600 helemaal over, om meteen naar de opvolger te gaan i.v.m. de fikse vertraging van de R600 GPU.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Misschien wel 2 voor de prijs van 1 ?RappieRappie schreef op maandag 26 februari 2007 @ 22:47:
Tja, nadeel van het hebben van stock met de release van een nieuwe lineup voor de deur, is dat een hoop mensen wachten op de nieuwe GPU's en dat die oude stock blijft liggen. Tenminste dat lijkt mij.
Of heb ik het mis?
Hoort hier niet in thuis. Maak er even een nieuw topic over aan. Dit is een nieuws discussie topic. En Doa kan zo maar. Maar meestal als je er iets mee gedaan hebt zoals even er uit gehaald of zo. Of misschien een spanning piek gehad ? Ik weet niet wat voor een voeding je had ? Anyway met een nieuw topic ben je er waarschijnlijk sneller uit want dit is hier offtopic.xtrme schreef op maandag 26 februari 2007 @ 22:56:
Ik heb een probleem als zo velen
mijn x1800 xl is volgens mij vanacht overleden
als ik mijn computer weer opnieuw opstart boot hij niet door
en begint een lampje op mijn videokaart te branden (t_fault)
keb een beetje gegoogled en daar zie ik vaak dat hij dus overleden is
nou was mijn vraag
is hij bij zoiets altijd overleden of kan er ook iets anders aan de hand zijn
naar mijn weten is hij niet geflashed !
rest van het systeem
opteron 144 @ 3hz
1gb intern
1x 250gb 1x 320gb
2 branders
originele vga koeler vervangen door een arctic exemplaar (lang geleden al)
Uhmm maar je raakt die stock niet kwijt. Ik bedoel een X1950 XTX kost iets van 300 euro. Dat kost een 8800 GTS ook. De laatste kan meer en is sneller. Dus wat neem je dan ? Dus dan raak je die stock niet kwijt. Mid range kaarten van ATi komen voorlopig nog niet. dus ik neem aan dat ze te veel R580 chips over hebben. Als je dat bedoelt ? Maar op deze manier raak je ze denk ik ook niet kwijt of je moet die X1950 XTX voor 200 euro gaan verkopen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
als jij dat goed leest, dan zie je dat CJ daarop default speeds melde, Rappie Rappie vraagt wat CJ heeft gehoord over de OC scores niet de defaults
[ Voor 55% gewijzigd door Anoniem: 23009 op 26-02-2007 23:58 ]
Je vergeet 1 belangrijk ding... De E6600 staat waarschijnlijk ook op default en de cpu snelheid heeft een belangrijke invloed op de 3dm06 uitkomst..... Veel hoge scores die ik zie zijn vaak ook gemaakt met een overklokte cpu daarbij of een quadcore. Als hij dit al haalt op een (inmiddels) mid end cpu zou hij inderdaad veel in zijn mars hebben.Anoniem: 23009 schreef op maandag 26 februari 2007 @ 23:53:
[...]
als jij dat goed leest, dan zie je dat CJ daarop default speeds melde, Rappie Rappie vraagt wat CJ heeft gehoord over de OC scores niet de defaults
Maare 13200 is wel redelijk maar schokkend nee, vind het wel tegen vallen als het maar 13200 puntjes zouden leveren voor een enkele R600, ik had iets van 17K in me hoofd aangezien dat een G8 rond de 11.6K haalt op defaults zo veel verschil is er dan ook weer niet als een R600 13.2K haalt terwijl de verschil qua leefttijd tussen de R600 als G80 groter lijkt dus men verwacht dan ook wel heel wat meer heh.
Laten we hopen dat een enkele R600 meer kan, anders kan ATi het nog moeilijk krijgen met de concurrent, want die staan ook niet stil.![]()
Het wordt een zeer spannende strijd dat zekers, zonder meer.
Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Anoniem: 107573
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107573
[ Voor 5% gewijzigd door Anoniem: 107573 op 27-02-2007 01:20 ]
Anoniem: 23009
Nee daarom, het is niet bepaald hoog, maar hey het is iig maar een gerucht, ik wou alleen me mening uiten wat ik er over vond heheAstennu schreef op dinsdag 27 februari 2007 @ 01:09:
Nja 13k2 is nou ook niet echt super hoog. Er zijn hier vast wel mensen met een E6600. Dus ik daag een van jullie uit je 8800 GTX op stock te laten lopen en eens een test te draaien kijken wat er uit komt. Als dat verschil maar 2000 Punten is denk ik niet dat dat genoeg is om die 30-50% waar te maken. Een overgeclockte 8800 GTX is 7% sneller en haalde geloof ik ook iets van 13k. Maar als iemand dat ook even wil testen op speeds van 620-1980 of zo. Eens kijken wat er er uit krijgen om het met de R600 geruchten te vergelijken.
[ Voor 11% gewijzigd door Anoniem: 23009 op 27-02-2007 02:57 ]
Anoniem: 162692
Stock E6600 met een 8800GTX stock levert een goede 10500 punten.Anoniem: 107573 schreef op dinsdag 27 februari 2007 @ 01:17:
Ik dacht dat een stock 8800GTX op een 3Ghz Core2Duo stock E6600 rond de 10.3k geeft in 06? Kan er naast zitten, dus morgen zal er wel iemand zijn die dat even kan bevestigen cq corrigeren.
Ik ben het met je eens dat 3Dmark niet heel representatief is voor performance. Echter zijn dit wel de nummers die vaak het eerste uit lekken omdat het voor vele toch een maatstaaf is. MAar tegenwoordig wordt er zo veel geoptimaliseerd voor 3Dmark je weet dan gewoon niet of de kaart in het echt ook zo geageerd. + 3Dmark werkt niet op dezelfde manier als games. Dingen worden heel inefficiënt gerendert zodat de vga kaart de bottelnek wordt. Maar zo wordt er in games niet gerendert. En in de laatste versie telt de CPU score ook veel te veel mee. Die zou mee moeten tellen in de zin van hogere FPS zoals je dat in 3DMark 2001 SE ziet. Daar merk je het zelfs als je sneller ram geheugen in je PC stopt op ram met lagere timings.Anoniem: 162692 schreef op dinsdag 27 februari 2007 @ 08:55:
[...]
Stock E6600 met een 8800GTX stock levert een goede 10500 punten.
Als je de kaart oc'ed naar 630/2000 levert dat een goede 11300 punten op.
Wel getest op quality aangezien meestal op best performance word getest.
De vraag is dan ook nog, heeft de R600 betere IQ ? In hoevere is de R600 geoptimaliseerd met 3Dmark06 ? Hetzelfde zagen we met 3Dmark05 waar ATI totaal de TOP was. Immers gaf dit met 3Dmark06 een totale omdraai. Het zijn allemaal vragen die we ons moeten stellen.
En het blijft nog steeds een gerucht. Bovendien , 13,2k in 3Dmark06 is niet om te zeggen een enorme stijging t.o.v de 8800GTX. Maar zoals we al weten staat dat tot apart van de games.
[ Voor 10% gewijzigd door Astennu op 27-02-2007 09:51 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Lees even goed wat ik gepost heb. Daar leg ik ook in uit dat 3Dmark totaal niet representatief is voor de werkelijkheid. Mede omdat er ook gerendert wordt op een manier die games niet gebruiken. En de optimalisaties.RappieRappie schreef op dinsdag 27 februari 2007 @ 09:53:
Je moet je niet blindstaren op 3DMark.
Misschien kan je door de enorme bandbreedte van de R600 wel veel hogere AA en AF settings gebruiken zonder al teveel performance verlies.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
Dat zou je infeite kunnen stellen als die 512Bit bus effectief goed gebruik word.Astennu schreef op dinsdag 27 februari 2007 @ 09:43:
[...]
Een 8800 GTX van 575-1800 > 620-1920 ging van 55 FPS naar 61 FPS in FEAR High Quality FSAA 4X + Aniso 16X Op 2048x1536. Dus dan zou de G81 op die speeds hierboven iets van 65 FPS halen. Nu is de vraag wat de R600 zou doen. Gezien die super 512 Bit bus zou je zeggen dat die 4x AA bijna free is dus dan zou je niet zo maar kunnen stellen dat hij iets van 71-76 FPS doet omdat je misschien geen hit hebt door de 4x AA en je dus 85+ haalt.
[ Voor 22% gewijzigd door Anoniem: 162692 op 27-02-2007 10:35 ]
3DMark06 gebruikt niet standaard AA (anders zou het ook niet werken op de GF7, doncha think?Astennu schreef op dinsdag 27 februari 2007 @ 09:43:
Veel speculatie dus..... Ik weet niet meer of 3Dmark 06 nu standaard AA gebruikte. In ieder geval wel een hogere resolutie. Maar als 3Dmark 06 geen AA gebruikt heb je daar ook niet direct het grote voordeel van de 512 Bit bus.
[ Voor 6% gewijzigd door Jejking op 27-02-2007 11:13 ]
Wat was maar een berekening die ik gebaseerd heb ik deze resultaten:Anoniem: 162692 schreef op dinsdag 27 februari 2007 @ 10:30:
[...]
Dat zou je infeite kunnen stellen als die 512Bit bus effectief goed gebruik word.
Zelf veronderstel ik dat de 'free' 4xAA niet zal lukken in dergelijke games.
En dat de R600 gewoon door de 512Bit bus meer punten haalt in 3Dmark06.
Als de architectuur evengoed is al de G80 weten we ook niet dus infeite met je speculatie vergelijk je een appel met een peer. Het kan evengoed zijn dat de R600 een minder goede architectuur heeft maar door zijn 512Bit bus toch beter is en zo die 20-25% voorop ligt t.o.v de 8800GTX.
Verder in games waar men dat de volledige bandbreedte gebruikt. Wat gebeurd er dan
Ik denk ook dat de eerder genoemde waardes van performance 20-25% gebaseerd zijn op games op dergelijke resoluties , en niet op 3Dmark06 & 05. Dat zou dan willen zeggen , bv. FEAR G80 1600*1200 4xAA 16xAF = 81 fps , met de R600 = 97fps![]()
Terwijl een overclockte G80 dan 92fps haalt. Allemaal speculatie. Misschien ziet iedereen er gwn compleet naast
Edit : De performance boost in DX9 hebben ze toch nog niks over gezegd?
Ik dacht dat de R600 in DX10 ~10-20% ging sneller zijn. Maar DX9..
Edit : De G80 zonder AA en R600 zonder AA vergelijken zou eigenlijk het beste zijn als je toekomstgericht kijkt , en het voor ogen neemt dat deze kaarten ooit 0xAA 0xAF zullen draaien
[ Voor 19% gewijzigd door Astennu op 27-02-2007 13:12 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
[ Voor 37% gewijzigd door Jejking op 27-02-2007 12:49 ]
[ Voor 6% gewijzigd door Jejking op 27-02-2007 13:26 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝
Ik ben het helemaal met je eens. Die X1950 XTX 512 MB raak je zo kwijt als ze ze voor 230-250 euro gaat verkopen.Cheetah schreef op dinsdag 27 februari 2007 @ 13:39:
@Jejking:
Vrijwel al de punten die je noemt staan een launch van R600 nu niet in de weg.
nV heeft een DX10 line-up van Highend tot upper mainstream (GTX-GTS-GTS320).
Oude voorraad kwijtraken kan altijd nog door de R580 in segment te laten zakken naar (upper) midrange, eigenlijk precies wat nV vorig jaar heeft gedaan met bijv. de 7900GTO (en ATi met de X800GTO2). Mensen die 250+ Euro uitgeven aan een videokaart laten zich vaak toch wel vrij goed informeren (dit soort kaarten zitten vaak niet in standaard mediamarkt/bcc systemen), en zullen nu eerder geneigd zijn voor de DX10 compliant 8800 te gaan omdat daar nog geen ATi alternatieven voor zijn.
R650 kan ook gewoon later gelaunched worden (bijv. R600 nu als XT en R650 later als XTX)... om deze beslissing van AMD voor mij logisch te laten klinken zou ik zelf toch eerder denken in de richting van een issue met R600, zij het met de chips, zij het met de voorraad, zij het met de performance, zij het met de drivers, of misschien - vermoedelijk - een combinatie.
Een launch-event zeg je niet zomaar 3 weken voor tijd af omdat je er plots achter komt dat je nog wat oude chippies kwijt wilt o.i.d... levert veel te veel negatieve publiciteit en teleurgestelde klanten op...
Ah kijk dat kan erg interessant zijn. Zoals ik al zij een X1950 XTX met 512 MB voor 230 euro is best interessant.Thund3r schreef op dinsdag 27 februari 2007 @ 13:49:
Gerucht: Volgens een kennis die goede contacten heeft met Sapphire, komt er een grote prijsverlaging van de huidige productrange aan, dit zou dus idd inhaken op het overschot aan stock wat ATi/AMD nu heeft, misschien kunnen Gfmike/TheSource/CJ hier wat meer over vertellen? Het is zoals gezegd een gerucht.
[ Voor 13% gewijzigd door Astennu op 27-02-2007 13:52 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
Zoals de X1050 die 42 euro kost zekerAstennu schreef op dinsdag 27 februari 2007 @ 13:51:
[...]
Ik ben het helemaal met je eens. Die X1950 XTX 512 MB raak je zo kwijt als ze ze voor 230-250 euro gaat verkopen.
Ik denk ook dat het iets met de chip is. Zitten volgens de geruchten al op de A18 core. Zit zijn wel er veel spins. Zouden ze er toch een 65nm chip van gemaakt hebben om het stroomverbruik laag te houden en toch veel sneller te zijn dan de 8800 GTX ?
[...]
Ah kijk dat kan erg interessant zijn. Zoals ik al zij een X1950 XTX met 512 MB voor 230 euro is best interessant.
Zo iets jaAnoniem: 162692 schreef op dinsdag 27 februari 2007 @ 14:08:
[...]
Zoals de X1050 die 42 euro kost zeker
[ Voor 10% gewijzigd door Astennu op 27-02-2007 14:54 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
Ik denk eerder al is de X1950XTX die 80-100 euro goedkoper dat nog altijd 90% van de mensen eenAstennu schreef op dinsdag 27 februari 2007 @ 14:23:
[...]
Zo iets jaDe 8800 GTS 320 MB met een dure G80 core kost 360-370 euro. Dus waarom geen X1950 XTX voor 250 ? Dan raak je ze tenminste wel kwijt. Want die X1950 XTX is 40 euro goedkoper dan de GTS. En ik denk dat de meeste dan toch de GTS zullen nemen. Dus haal er een 80-100 af en dan heb je ook geen overstock meer
[ Voor 10% gewijzigd door Anoniem: 162692 op 27-02-2007 14:56 ]
Op de hogere reso's was de X1950 XTX in sommige gevallen sneller dan die GTS door zijn grotere geheugen. Ik zou dus voor de X1950 XTX gaan. Maar dat is omdat ik nVidia kaarten ook niet prettig vind werken + ik altijd op hoge resoluties speel met het liefs ook AA en AF. En de lagere prijs is ook een voordeel. Maar de tweakers zullen dan idd nog wel kiezen voor die GTS maar de mensen die er wat minder van af weten en een kaart voor 250-300 euro willen zitten dan erg goed bij de X1950 XTX. Nu zijn ze nog 330.Anoniem: 162692 schreef op dinsdag 27 februari 2007 @ 14:53:
[...]
Ik denk eerder al is de X1950XTX die 80-100 euro goedkoper dat nog altijd 90% van de mensen een
8800GTS 320 MB zullen kopen. Die al te krijgen is voor 272 euro.
De 8800 GTS 320 MB met een dure G80 core kost 360-370 euro
1. Hype rond DX10
2. Betere performance dan X1950XTX
3. Meer reclame over gemaakt.
Zelf zou ik ook de keuze nemen voor de 8800GTS 320 maar een X1950XTX voor een goede 200-250 euro zou wel een heel goed aanbod zijn. Je hebt maar een nadeel , dat meestal , ik spreek vanuit BELGISCHE PRIJZEN , hier worden dus de prijzen bijna nooit aangepast t.o.v de launch prijs.
De X1950XTX kost hier gewoon nog bijna 450-500 euro , in NL koste die nooit zoveel.
En de 8800GTS 320 kost ~320 euro = launchprijs en die zal dus ook niet dalen. Zelf al ze ATI / Nvidia dat de prijs 1/2 word. Kwa hardware is belgië = kut
[ Voor 14% gewijzigd door Astennu op 27-02-2007 15:00 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107626
Fudo's new website
Coming soon!
My dear international visitors,
I would like to thank you for visiting this website but this site will remain in Bosnian / Croatian / Serbian language only.
Make sure you return tomorrow afternoon for an important announcement about the English website. I will post the details here. Stay tuned.
Anoniem: 162692
En België is dan wel kl*te als die prijs niet omlaag gaat. Maar dan koop je je hardware toch in NL ?
[ Voor 14% gewijzigd door Anoniem: 162692 op 27-02-2007 17:06 ]
40 euro per keerAnoniem: 162692 schreef op dinsdag 27 februari 2007 @ 17:04:
[...]
offtopic:
België is dan ook een goed land om 2dehands te verkopen![]()
Nee ik koop niet meer in nl sinds teveel RMA problemen ivm G71 cores. Zie uitvalproblemen topic.
Had gewoon de ene na de andere brakke kaart![]()
En heeft me veel geld gekost om het weer naar NL te versturen sinds belgische post 40 euro vraagt voor verzekerd verzending naar nl.
en heb dus 3 brakke gehad ( 40 euro = enkel versturen komt nog es 10 bij om naar hier te versturen)
3*40+3*10 = 150 euro. En ik kwam dus 100 euro duurder uit dan in BE uiteindelijk.
Voor jullie naar be verzenden kost slechts 8 euro
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 162692
De R600 heeft dan toch issues , dan moeten we dus niet hopen op een snellere versie.The Source schreef op dinsdag 27 februari 2007 @ 23:13:
AMD Launches New 690G and 690V Chipsets
http://www.dailytech.com/...+Chipsets/article6248.htm
NDA verloopt morgen ochtend ergens NL tijd.
Mbt Crossfire support op de 690G / V klopt het gerucht niet dat ik hoorde. Ze supporten geen Crossfire, het betrof hier quad view. Dus 2 displays onboard, en 2 dmv de discreet vga kaart.
mbt R600 zijn er ook 'issues', het betreft dus niet enkel stock verzamelen voor een hardlaunch.
Nee hoor. Dat hoeft helemaal niet. Het past nog precies binnen de geruchten die ik gehoord heb en gisteren hier gepost heb. Lees een van m'n eerdere posts maar eens er op na, wat betreft de ROP issues op de zgn A17/A18 revisies.Anoniem: 162692 schreef op dinsdag 27 februari 2007 @ 23:18:
[...]
De R600 heeft dan toch issues , dan moeten we dus niet hopen op een snellere versie.
Maar op een werkende versie. Pff daar gaan onze speculaties
*het ROP probleemVolgens het gerucht (met sterke nadruk op gerucht aangezien ik het zelf ook nog niet helemaal vertrouw) was er een ROP probleem bij de A18 versie. De A17 en A18 zouden identiek zijn op het stroom verbruik na. De geteste R600 zou met een multimeter op 187W gemeten zijn. De A15 versie zou dus de versie zijn die 10-15% sneller zou zijn dan de G80 in DX10.
De A17-A18 zou de showstopper zijn, maar daar was op het laatste moment een probleem* mee wat nu min of meer opgelost is, maar waardoor dus niet voldoende voorraad zou kunnen zijn tijdens de launch om van een echte hard launch te spreken.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 162692
CJ schreef op dinsdag 27 februari 2007 @ 23:29:
[...]
Nee hoor. Dat hoeft helemaal niet. Het past nog precies binnen de geruchten die ik gehoord heb en gisteren hier gepost heb. Lees een van m'n eerdere posts maar eens er op na, wat betreft de ROP issues op de zgn A17/A18 revisies.
[...]
*het ROP probleem
Bron: CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."
De ROP issues die deze bron noemt, is hetzelfde als wat ik van twee andere bronnen heb vernomen. Dus dat zou waar kunnen zijn.
Wat ik echter betwijfel aan deze bron is het feit van de 13k2 in 3DM06 op een stock E6600 en stock R600, en 18k+ op een OC E6600 @ 3.2Ghz en OC R600 op kloksnelheden die hoger liggen dan we tot nu toe gehoord hebben.
De waarheid zal wel ergens in het midden liggen.
[ Voor 9% gewijzigd door Anoniem: 162692 op 27-02-2007 23:38 ]
Met een OC op de CPU haal je inderdaad maar een beperkt aantal punten meer in 3DM06. Het ging dan ook vooral om de OC op de GPU die voor het grote verschil zou zorgen.Anoniem: 162692 schreef op dinsdag 27 februari 2007 @ 23:37:
[...]
gerucht
Met een OC op CPU & GPU haal je 1000 - 1500 punten meer maar helemaal geen 5k hoor.![]()
*OF* AMD heeft de bal helemaal mis geslagen
Want als ze zo een opening laten konden ze de R600 heus wat hoger naar die OC waarder overclocken. En konden ze zo Nvidia de grond in boren. Terwijl ze dat met 13,2k niet gaan doen.
Zeker niet als Nvidia die 'wonderdrivers' achter de hand heeft.
Misschien is dat wel de crossfire setup.
De waarheid zal ergens in het midden liggen inderdaad.
Ik veronderstel een R600 : Core : 800Mhz , Geheugen : 1200Mhz GDDR4 , 512Bit , 64 1+4D ? shaders? En 13200 op een stock E6600 lijkt me mogenlijk. Maar dan zie ik ff iets niet goed hoor.
AMD gaat heus hun paradepaardje niet testen met een CPU van de concurrent want zo maken ze op een of andere manier reclame voor Intel. Ik denk dus eerder dat het @ FX74 zal worden dan E6600.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 162692
Inderdaad , groot gelijk.CJ schreef op dinsdag 27 februari 2007 @ 23:45:
[...]
Met een OC op de CPU haal je inderdaad maar een beperkt aantal punten meer in 3DM06. Het ging dan ook vooral om de OC op de GPU die voor het grote verschil zou zorgen.
En AMD heeft er verder geen problemen mee om hun GPU op een Intel CPU te laten testen hoor. Het gaat om het snelste systeem en de hoogste score. Het zou ook dom zijn om je trots daarvoor in de weg te laten staan.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Hmm, dat is intressant. Iemand meer infoThund3r schreef op dinsdag 27 februari 2007 @ 13:49:
Gerucht: Volgens een kennis die goede contacten heeft met Sapphire, komt er een grote prijsverlaging van de huidige productrange aan, dit zou dus idd inhaken op het overschot aan stock wat ATi/AMD nu heeft, misschien kunnen Gfmike/TheSource/CJ hier wat meer over vertellen? Het is zoals gezegd een gerucht.
Omdat de vermogen opname ook heel lekker meeschaald.Anoniem: 162692 schreef op woensdag 28 februari 2007 @ 00:00:
Inderdaad , groot gelijk.
Maar waarom zou DAAMIT dan zou een groot gat tussen de stock en OC versie laten![]()
Lijkt me beter voor de niet oc'ers dat ze die laatste als eindversie uitbrengen
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Enkel in resoluties van 1900x... is een XTX soms sneller, voor 99% van de kopers is dit dus niet het geval . De X1950 XTX zou dus rond de 200€ moeten komen om interresant te worden (tegenover een GTS 320MB van 270€) En dat zie ik niet snel gebeuren hoor,misschien ene gelijkaardig niveau van 270/300€ om de mensen die nu aan een pro denken aan te zetten toch bij ATI te blijven .Astennu schreef op dinsdag 27 februari 2007 @ 14:58:
[...]
Op de hogere reso's was de X1950 XTX in sommige gevallen sneller dan die GTS door zijn grotere geheugen. Ik zou dus voor de X1950 XTX gaan. Maar dat is omdat ik nVidia kaarten ook niet prettig vind werken + ik altijd op hoge resoluties speel met het liefs ook AA en AF. En de lagere prijs is ook een voordeel. Maar de tweakers zullen dan idd nog wel kiezen voor die GTS maar de mensen die er wat minder van af weten en een kaart voor 250-300 euro willen zitten dan erg goed bij de X1950 XTX. Nu zijn ze nog 330.
En België is dan wel kl*te als die prijs niet omlaag gaat. Maar dan koop je je hardware toch in NL ?
Over die X1950 verkopen voor 200. Wordt nu ook al met de 256 MB gedaan. + de G80 core is bijna 2x zo groot als die van de r580 en die verkopen ze ook voor 360 euro in de vorm van de GTS.
Maar je kunt kiezen of 330 euro vragen en na genoeg niets verkopen en blijven dus op de plank liggen tot je ze zelfs niet meer voor 250 kwijt raakt of nu afprijzen en ze met gemak verkopen.
Doordat ze zeggen dat de R580 slecht ik vind ik dit toch heel ongeloofwaardig. Maar deels is ook waar ze hadden die kaart iets beter kunnen balanceren. Er was te veel shader power die niet gebruik werd. Memory bandbreedte was er ook niet genoeg. Texture power ook niet. Dus die shaders stonden niets te doen althans 30% van die shaders. Maar hij kon het prima opnemen tegen de concurrent de 7900 GTX.THE DELAY OF R600 again last week was bad, but how bad was is? More importantly, what does it mean for ATI? Basically very little on both counts.
Lets look at what was delayed and why. It was R600, the top dog of the bunch, not the lower end RV630 and RV610. If you look at the lust factor, there is R600 and other products, by the time you get to the RV610, you are in the territory of low-end stuff that no one really actually wants - think checkbox on the store shelf territory.
Conversely, the high-end stuff sells comparatively little, mid-range more, and low-end parts sell like mad. Dev costs follow the lust scale, the R600 cards are a pain to engineer and don't sell well, the low-end stuff is more 'pawn it off to the intern' territory. Profits are fattest in the mid range, followed by the low end, and then the top end makes a little bit, if any.
Basically, the R600 is a halo product, one that PR raves about then tries to sell you an RV630 because that is where they make the money. If you don't want an R600, you might not realise you can't afford it and buy an RV630 instead. So it goes.
By delaying the R600 from March to May, ATI suffered a big black eye, but the numbers on the bottom line won't really matter much. The defections should be minimal, Nvidia still does not have a functional G80 driver out, so the pressure is not all there. Neither side has the DX10 mid and low range parts out, and the R600 delay does not seem to have affected this schedule. There is nothing here that can not be fixed with a good deal of kissing up.
As I have been saying since we broke the AMD buys ATI story, I have one hope for the merger, that is AMD will instill the engineering discipline in ATI that they should have had over the last few years. I will forget for a moment that AMD's engineering discipline has seriously fallen off the rails lately, the potential is still there.
What do I mean? The high-end graphics parts are a bellwether for a graphics company, this is the part you look at to see what they are capable of designing unfettered by most constraints imposed by reality and marketing. It is a showcase that makes little bottom line impact but costs a lot.
The cold hard reality is that ATI has badly screwed up the last three generations of its showcase product. The R520 was so late it was pointless, the R580 less so but still not good, and the R600 was supposed to be a late 2006 product that is currently looking like a mid-07 launch. It was about where the 8800 is in performance, roughly equal in DX9 and way ahead in DX10 games that don't exist.
Unfortunately, the card completely missed an entire cycle and is now facing the half-step from Nvidia called the 8900. It won't beat that part. The R600s are also fraught with other problems if the 240W power consumption numbers are to be believed. Basically, it is a late mess.
Why did this happen? It was scheduled for March, now it is set for May, a last minute change. In digging for answers I found out that there was no technical problem, it was almost entirely marketing. ATI was set for a low volume if at all launch at Cebit, and real introduction later on. Saner heads seem to have prevailed and pushed the launch out closer to availability. I could not get a solid answer as to why the parts that were final in January are not shipping until May though.
This is where I think the good is starting to happen. If AMD is lessening the graphics games being played, all the better. If they are holding people's feet to the fire, great. Hopefully they will keep turning the screws until things snap into line, both at ATI and at AMD.
That brings us to the looking forward part. R600 is the last ATI part. It was done under ATI with almost no AMD input. By the time of DAAMIT, things were too far along to make a difference, and things continued as they were. You don't make radical changes at this late stage, be it in tools, personnel or management.
With R600 done, more or less, it is time for AMD to clean house. Having one chip go bad is a problem, a big problem. Three in a row is unacceptable, and changes have to be made. What those changes are, I don't have a clue, but someone at DAAMIT does.
R700 will be the first product that has AMD DNA in it, and will point the way forward. If it is out on time, on target, and all the other ons that one needs, it will be pretty clear that AMD did right. If they fumble again, the whole concept of graphics at AMD should be simply packed in and the money spent elsewhere.
So, R600's problems are of little direct impact, but can be a huge, huge pointer for things to come. Let's see if the changes are and have been made, it should be readily apparent in a few months. Until then, anything without an R7- prefix is looking backwards. µ
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ook de Inq houdt het dus op onvoldoende availability en onvoldoende performance om het serieus tegen de "8900" (of dat nu G81 of G90 moge zijn) op te nemen. Klonk al vanaf het begin als de meest logische reden voor het uitstel.Astennu schreef op woensdag 28 februari 2007 @ 08:54:
The Inq over de R600 delay
Waarom denk je dat ik nooit een 7900GTX heb gehad, maar wel een X1900XT + XTX en X1950XTX?Doordat ze zeggen dat de R580 slecht ik vind ik dit toch heel ongeloofwaardig. Maar deels is ook waar ze hadden die kaart iets beter kunnen balanceren. Er was te veel shader power die niet gebruik werd. Memory bandbreedte was er ook niet genoeg. Texture power ook niet. Dus die shaders stonden niets te doen althans 30% van die shaders. Maar hij kon het prima opnemen tegen de concurrent de 7900 GTX.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Had ik al eerder aangegeven in m'n 6 puntjes waarom ik denk dat AMD een verstandige keuze heeft gemaakt, maar misschien zijn het wel allebéi de punten die je beschrijftCheetah schreef op woensdag 28 februari 2007 @ 11:23:
[...]
Ook de Inq houdt het dus op onvoldoende availability en onvoldoende performance om het serieus tegen de "8900" (of dat nu G81 of G90 moge zijn) op te nemen. Klonk al vanaf het begin als de meest logische reden voor het uitstel.
Een andere serieuze optie is dat de R600 pas echt tot zijn recht komt onder DX10, en het onder DX9 niet of nauwelijks beter doet dan G80... zeker gezien de kaart zo laat was en er dus nog alleen DX9 games zijn om mee te testen zou de kaart daarop afgefikt worden door de pers.
Kan zijn dat AMD dus toch wacht totdat de eerste DX10 games meegenomen kunnen worden in de benchmarks... tegen mei zou dat inderdaad het geval moeten zijn. Wordt interessant om te zien hoe die strijd gaat uitpakken
Om R580 als slecht te bestempelen is inderdaad nogal onjuist, ok, niet geheel balanced, maar dan zou ik eerder de 7900GTX als failure bestempelen, die zit té simpel in elkaar. In shaderintensieve games zoals SC:DA en Oblivion (net iets minder dan SC:DA maar toch wel een gat) wordt die rónduit platgewalst door de X19x0... zelfs een X1950Pro zit er dan nog voor qua performanceR580 onder de mislukkingen scharen is inderdaad behoorlijk overdreven van de Inq... maargoed, gewoon tussen de melodrama door lezen denk ik dan maar
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 126513
[ Voor 7% gewijzigd door Anoniem: 126513 op 28-02-2007 12:52 ]
Anoniem: 162692
Je droomt teveel
DESPITE the delay to its flagship R600, ATI's mainstream and entry-level cards are still scheduled for late Q2.
It looks like the R600 will now be aligned for a simultaneous launch in May. ATI might decide to launch the R600 even sooner as we don’t think a hardware bug delayed the chip.
The RV630, Radeon X2600 and R610, Radeon X2300 have the same marchitectural bones as the R600 but these two chips are made in 65 nanometre, not in 80nm like the R600. At this point it doesn't look like that 65 nanometre parts are going to be pushed back.
Nvidia should announce its G86 and G84, entry level and mainstream chips before May and DAAMIT might have just enough time to adjust its clocks. Nvidia really looks good at the moment, and DAAMIT needs to win this one, now more then ever.
[ Voor 54% gewijzigd door Anoniem: 162692 op 28-02-2007 13:09 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
VIA + SIS > enkel Vista BasicAstennu schreef op woensdag 28 februari 2007 @ 13:24:
Over dat IGP verhaal. Met de RS690 wil AMD ze er voor zorgen dat ze een Vista Premium chipset platform hebben. Dat houd in dat hij alle functies van Windows vista ondersteunt. En dat kan je van die intel IGP's niet zeggen. Aero Glass is daar een no go. En met deze RS690 kan dat dus wel. En daar letten mensen denk ik wel op. Aangezien winkels daar ook mee adverteren ( dat Vista Premium Ready ).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
reviews zat:Astennu schreef op woensdag 28 februari 2007 @ 12:44:
Ik ben trouwens ook wel benieuwd naar de reviews en die nieuw RS690 Chipsets.
Leuke chipset, jammer dat er geen E6400 in pastquote: HannersWe received out 690G-based motherboard sample from AMD at the weekend, so we'll be taking a look at this chipset ourselves in due course - For now though, you can find a comprehensive list of reviews and previews from around the web below:
- Daily Tech
- Firing Squad (MSI M2A-VM review)
- HEXUS (EQS AB1S-RS690MKM review)
- Hot Hardware (MSI K9AGM2 preview)
- Motherboards (ASUS M2A-VM review)
- OC Workbench (ECS AMD690GM-M2 review)
- OC Workbench (EPOX EP-AT690G Pro review)
- OC Workbench (Jetway M2A692-GDG review)
- OC Workbench (ASUS M2A-VM HDMI preview)
- PC Perspective (MSI K9AGM2 preview)
- techPowerUp
- The Tech Report (MSI K8AGM2 review)
Ah had bij anandtech gekeken maar die hadden de review er nog niet op staanhjs schreef op woensdag 28 februari 2007 @ 14:25:
[...]
reviews zat:
[...]
Leuke chipset, jammer dat er geen E6400 in past
[ Voor 42% gewijzigd door Astennu op 28-02-2007 16:35 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
[ Voor 5% gewijzigd door Anoniem: 23009 op 28-02-2007 16:30 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
[ Voor 89% gewijzigd door Anoniem: 23009 op 28-02-2007 16:48 ]
Anoniem: 107626
Leuk zo'n Quake4 slide showAstennu schreef op woensdag 28 februari 2007 @ 14:43:
Ah had bij anandtech gekeken maar die hadden de review er nog niet op staanDe FP had het over 2 Pixel shaders volgens mij moesten dit er toch echt 4 zijn want de X700 zelf had er al 8 meestal halveren ze dat. + de xpress 200 had er ook 2 dus dan zou deze niet sneller zijn en dat is hij wel.
Edit Leuk chippie:
[afbeelding]
[afbeelding]
Anoniem: 23009
Ik zou de huid nog maar niet verkopen voordat de beer geschoten is. Je vergeet een nogal belangrijk stuk te quoten:Anoniem: 23009 schreef op woensdag 28 februari 2007 @ 16:39:
"Voor de consument is er nog een interessanter scenario: als veel chipsets de AMD-technologie gaan ondersteunen, zou nVidia zich gedwongen kunnen zien om zijn sli-techniek ook vrij te geven"
heh het gaat voor ons ook een veel voordeliger manier worden, sinds het ons ook minder geld gaat kosten qua upgrades enzo, heeft men een Nforce4 SLI chipset [ik pak maar wat ;)] dan maakt het niet uit CrossFire werkt gewoon, zonder getob, wat een vrijheid heh!![]()
dan kan me maat metzijn NF4SLI ook naar CF upgraden [...]
Ik zie nV misschien nog wel Intel toestaan om SLI implementaties op hun borden toe te staan, maar vrijgeven zie ik ze vooralsnog vermoedelijk niet doen.Omdat nVidia's project succesvoller is dan dat van AMD, lijkt de kans daarop echter niet al te groot.
Oblivion en Q4 zijn op lowest in principe al onspeelbaar op 800x600. HL2LC zit op de grens.Anoniem: 23009 schreef op woensdag 28 februari 2007 @ 16:51:
nou zo erg is het ook weer niet reso's als 800 x600 en 1024 x 768 worden nog best vaak gebruik van gemaakt en op die reso's is die X700 IGP snelzat en ook wel de snelste IGP voor dat soort praktijken, zo slecht is het ook weer niet hehe, alleen niet echt geschikt voor reso's bover 1024 x 768 x16/x32 ligt er aan wat je er mee doet
[ Voor 8% gewijzigd door Cheetah op 28-02-2007 17:36 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 208469
Anoniem: 23009
[ Voor 35% gewijzigd door Anoniem: 23009 op 28-02-2007 18:03 ]
De Frontpage is weer eens fashionably late as usual. Ik had dit al twee dagen geleden hier in het topic gepost.Anoniem: 23009 schreef op woensdag 28 februari 2007 @ 16:39:
Ja idd, ik had liever dan een X800 SE of X800 GT chip er in gezien dan had het nog leuk geweest
Dit vond ik ook leuk nieuws om te lezen
nieuws: AMD staat concurrenten CrossFire-gebruik toe
CJ in "[Algemeen] ATi Nieuwsdiscussie Topic - D..."CJ schreef op maandag 26 februari 2007 @ 15:45:
Dan nog een ander gerucht wat nu de ronde doet. AMD schijnt van CrossFire een "Open Multi GPU Platform" te willen maken. Het schijnt dat ze alles open gooien voor zowel Intel (wat ze al deden), nVidia, SiS, Via etc. Het lijkt er op dat AMD met deze set nVidia wil dwingen om hun chipsets ook CrossFire te laten ondersteunen, dan wel er voor te zorgen dat nVidia toestaat om SLI op hun eigen chipsets (RD480, RD580 etc) te laten werken.
Bron: http://www.hkepc.com/bbs/...421&starttime=0&endtime=0
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 23009
[ Voor 52% gewijzigd door dion_b op 28-02-2007 18:08 ]
Anoniem: 23009
uiteraard, jij begrijpt me terminste wel, dat is idd wat ik bedoelde, mijn excuus voor me typfouten heh had ik maar TS FP ingetikt...Arrigi schreef op woensdag 28 februari 2007 @ 19:19:
Eh.. Ik heb zo het idee dat Obi hier met "TS" FP bedoelt, en dus echt geen commentaar op CJ had. Niet te snel amok maken
[ Voor 32% gewijzigd door Anoniem: 23009 op 28-02-2007 19:24 ]
Ik kan alleen modereren op wat er staat, niet wat er misschien bedoeld werd...Arrigi schreef op woensdag 28 februari 2007 @ 19:19:
Eh.. Ik heb zo het idee dat Obi hier met "TS" FP bedoelt, en dus echt geen commentaar op CJ had. Niet te snel amok maken
Oslik blyat! Oslik!
Anoniem: 23009
Dat wil ik heus wel, maar het komt weer overvallend op mij neer.dion_b schreef op woensdag 28 februari 2007 @ 19:38:
[...]
Ik kan alleen modereren op wat er staat, niet wat er misschien bedoeld werd...
Als Obi eens z'n posts wat beter zou verzorgen en duidelijker zou formuleren zou dit soort situatie niet voorkomen.
[ Voor 31% gewijzigd door Anoniem: 23009 op 28-02-2007 20:01 ]
Idd je kunt er wel iets op doen. Daar gaat het denk ik ook om. Het is denk ik ook een chipset gericht op HTPC gebruik. Aangezien mediacenter toch wat leuke grafische dingen had waar je toch een midrange voor nodig hebt om alles aan te zetten. Nu kun je met deze IGP weer iets meer aan zetten. En vooral dat AVIVO is interessant voor HTPC's. En dat is wel het grote voordeel van deze omgebouwde IGP.Anoniem: 23009 schreef op woensdag 28 februari 2007 @ 19:21:
[...]
uiteraard, jij begrijpt me terminste wel, dat is idd wat ik bedoelde, mijn excuus voor me typfouten heh had ik maar TS FP ingetikt...
voor die X700 IGP, games die daar lekker op zullen lopen zijn games als UT 2004, Call of Duty2, Heroes Of Might & Magic V: Hammers Of Fate, en mischien C&C 3 ook wel, op 800 x 500 en 1024 x 768 x16 als 32 moet dat wel te doen zijn, zelfs HL2 moet kunnen op die X700 IGP.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk dat die integrated borden vooral voor kantoorpc's zijn, dezelfde markt als die van de intel-IGP's (en een gigantisch grote markt), het integreren van een complexe gpu op het moederbord zou het PCB wel eens nodeloos complex kunnen maken, een insteekkaart van 50€ is dan een betere optie.Cheetah schreef op woensdag 28 februari 2007 @ 17:29:
Oblivion en Q4 zijn op lowest in principe al onspeelbaar op 800x600. HL2LC zit op de grens.
Wel een stevige winst t.o.v. de concurrentie in veel gevallen, maar helaas nog niet superbruikbaar. Zou leuk(er) zijn geweest als ze een X1300-derrivaat of een "echte" X700 hadden gebruikt, bijv. met 64mb Hypermemory. Dan kun je ook een beetje redelijk een gamepje ermee doen.
Anoniem: 23009
[ Voor 8% gewijzigd door Anoniem: 23009 op 28-02-2007 20:06 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 23009
Een ATi Radeon 9800 AGP 128MB maakt puin van die onboard chip aangezien die 8 Pixelpipes, 8 Pixel Shader Processors, 8ROPs en 4 vertex shader processors heeft waarbij nog 128MB 256Bit DDR1 waarbij die X700 IGP maar 4 Pixelpipes, 4 Pixel Shader Processors, 4ROPs en 2 vertex shader processors heeft en maar 128Bit DDR1 geheugen, dus je 9800 kan wel bijna het dubbelehjs schreef op woensdag 28 februari 2007 @ 20:11:
Ik heb nog ff verder gekeken, maar zo 65nm 4800+ (65w) doet helemaal niet zoveel onder voor een E6400. Misschien toch wel een leuk idee voor een energie zuinig pctje.
Hoeveel trager zal die onboard videochip zijn als een Radeon 9800?
[ Voor 3% gewijzigd door Anoniem: 23009 op 28-02-2007 21:13 ]
Ik zou eerder een 3800+ X2 EE nemen van 35 Watthjs schreef op woensdag 28 februari 2007 @ 20:11:
Ik heb nog ff verder gekeken, maar zo 65nm 4800+ (65w) doet helemaal niet zoveel onder voor een E6400. Misschien toch wel een leuk idee voor een energie zuinig pctje.
Hoeveel trager zal die onboard videochip zijn als een Radeon 9800?
Waar haal je die 128 Bit DDR 1 vandaan ? Er wordt gebruik gemaakt van shared memory en dat is dus je ram geheugen. Dat is 2x64 Bit in dual channel als ik me niet vergis. Maar DDR 2 aangezien het een AM2 plank is. Dus latency's zijn erg hoog ( cas 4/5 ) en meestal wordt er ddr 533 gebruikt + cpu en andere dingen van de pc schijven ook in dat geheugen weg. Dus dat maakt het trager. De meeste pc's die bedrijven gebruiken hebben erg sloom geheugen ( 533 MHz DDR II ) een enkele heeft 667 maar dat is misschien 5%. Vaak is het wel optioneel te krijgen. Maar ik denk dat een 9800 Pro makkelijk 2x zo snel is. Als niet meer.Anoniem: 23009 schreef op woensdag 28 februari 2007 @ 21:12:
[...]
Een ATi Radeon 9800 AGP 128MB maakt puin van die onboard chip aangezien die 8 Pixelpipes, 8 Pixel Shader Processors, 8ROPs en 4 vertex shader processors heeft waarbij nog 128MB 256Bit DDR1 waarbij die X700 IGP maar 4 Pixelpipes, 4 Pixel Shader Processors, 4ROPs en 2 vertex shader processors heeft en maar 128Bit DDR1 geheugen, dus je 9800 kan wel bijna het dubbele
[ Voor 3% gewijzigd door Astennu op 28-02-2007 21:31 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
[ Voor 12% gewijzigd door Anoniem: 23009 op 28-02-2007 21:53 ]
Hmm, kijk net in de pricewatchWe Are Borg schreef op woensdag 28 februari 2007 @ 05:53:
[...]
Hmm, dat is intressant. Iemand meer info? Prijsverschil tussen de GTS 320mb en een XTX 256mb is nog steeds iets van 50 euro, wat het aantrekkelijk maakt om die GTS te nemen. Echter, mocht die prijs van de xtx wat zakken, zou het verschil groot genoeg worden om de XTX weer te overwegen
Nja jij had het over energie zuinighjs schreef op woensdag 28 februari 2007 @ 21:54:
Mhhh, 3800+ is dan wel weer een stapje trager en de 4800+ gebruikt idle ook maar net 10 watt (dus bij internetten e.d.), maar goed het is een overweging waard, maar er moet iig een videokaart in. De R9800 trekt al een hoop niet meer op 1280*1024
en die 3800+ is ruim 100 euro duurderen als je bv naar de Lame tijd kijkt bij Tom zit er een minuut verschil tussen een 3800+ en een 4800+ (de E6400 is nog weer 30 sec sneller.)
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 23009
Uhmm heb je ooit een ULi gehad ? Dan weet je dat die gigantisch veel problemen hebben met HD's en zo. Mijn Maxtor Sata 1 doen het prima maar Sata 2 HD's geven veel problemen. En wat moet je me raid 5 ? Als je dat wil kun je beter een goed kaartje kopen anders gebruikt dat ook aardig wat van je cpu power.Anoniem: 23009 schreef op donderdag 01 maart 2007 @ 01:34:
heh bij me maat nog pas ook een X2 3800 systeem gebouwd met een MSI K9A Platinum waar ook een SB600 op zit, best een leuke chip idd, maar toch erg jammer dat de Raid 5 en JBOD functie er niet op zitten wat de ULi/ALi M1575 wel had.
hopelijk komt er een AMD.ATi southbridge chip die ook die mooie Raid5 en JBOD functie aan kan, want dat is echt een eigenschap die toch redelijk veel toegepat wordt in High end gamer bakkies, workstations als servers.
ook de reden dat ik een S939 AMD 580X bord hebt gekozen vanwegen die Raid5 en JBOD functies van de ULi/ALi M1575 SB chip, iets waar de SB600 helaas niet aan kon tippen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Opvallend is dat AMD spreekt over 320 "multiply-accumulate units". Als dit getal klopt dan lijkt het er op dat de R600 beschikt over 80 vec4 ALUs (of 64 vec4 + scalar). Aangezien AMD het heeft over "320" units, kan het zijn dat ze zelfs allemaal scalar zijn, maar gegroepeerd zijn in groepen van 4 (64 5D shaders) of 5 (80 4D shaders). Als dit inderdaad zo is en de geruchten kloppen over de kloksnelheden (700Mhz+) dan is het niet gek dat R600 sneller is als G80."R600 is doing very well and there's a reason we're going to launch it when we're going to launch it...I'll take the blame", Richard said.
Bron: http://www.eetimes.com/ne...jhtml?articleID=197700269Separately, AMD gave one of the first public demos of the R600, its next-generation graphics controller that uses 320 multiply-accumulate units. The company showed a Barcelona-based system using two 200W R600 graphics cards to hit a terabit/second benchmark.
Release of the R600 has been delayed "a few weeks" so that AMD can roll out a full suite of graphics chips covering multiple market segments for the latest Microsoft DirectX 10 applications programming interface. Rival Nvidia rolled out its high-end DX10 graphics controller, the GeForce 8800 last fall but has not filled out its product line with midrange and low-end parts based on it yet.
[ Voor 22% gewijzigd door CJ op 01-03-2007 10:36 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Bron: http://biz.yahoo.com/bw/070301/20070228006340.html?.v=1SAN FRANCISCO--(BUSINESS WIRE)--AMD (NYSE: AMD - News) today showcased a single-system, Accelerated Computing platform that breaks the teraflop computing barrier. Organizations are ultimately expected to be able to apply this technology to a wide range of scientific, medical, business and consumer computing applications. At a press event in San Francisco, AMD demonstrated a "Teraflop in a Box" system running a standard version of Microsoft® Windows® XP Professional that harnessed the power of AMD Opteron(TM) dual-core processor technology and two next-generation AMD R600 Stream Processors capable of performing more than 1 trillion floating-point calculations per second using a general "multiply-add" (MADD) calculation. This achievement represents a ten-fold performance increase over today's high-performance server platforms, which deliver approximately 100 billion calculations per second.
"The technology AMD demonstrated today is just one example of how the 'New' AMD is changing the game for our industry," said Dave Orton, executive vice president of visual media business at AMD. "Today, teraflop computing capability is largely reserved for the supercomputing space. But now that 'Teraflop-in-a-Box' is a reality, AMD can deliver an order of magnitude increase in performance."
Today also marks an important milestone on the road to Accelerated Computing, AMD's vision for specialized "co-processors" interoperating with x86 microprocessors to provide efficient and flexible acceleration for specific applications. Platforms based on the same technology found in the "Teraflop-in-a-Box" demonstration should benefit a wide range of scientific and commercial applications, including energy, financial, environmental, medical, scientific, defense and security organizations around the world by equipping them with the intensive computing power they require to conduct research and deliver solutions significantly faster than previously possible.
What is a Teraflop?
In the supercomputing field, "flops" is an acronym meaning FLoating point Operations Per Second, a measure of a computer's ability to perform floating point calculations. A teraflop is one trillion floating point operations per second. Stream processing technology helps raise the bar in this regard by leveraging sophisticated, massively parallel processors, generally used for 3D graphics applications, to solve real-world problems.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 27% gewijzigd door Astennu op 01-03-2007 10:43 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nice, AMD zegt dat de problemen niet de problemen waren die wij dachten dat het waren. Maar dan alsnog, ze zouden zichzelf wel héél erg in de fikken snijden als ze zouden zeggen ''it's going to be June to launch'', dan liever de aandacht op zichzelf houden want de halve (computer)wereld wacht nu dus met ingehouden adem op de R600, dan dat iedereen zich zal gaan richten op de nVidia 8600CJ schreef op donderdag 01 maart 2007 @ 09:43:
R600, Barcelona, RV610, RV630... er komt veel AMD nieuws aan. Minpuntje (als het klopt): release R600 end of June. Maar dit spreekt AMD tegen die het zelf heeft over "a few weeks". Een volledige lineup lijkt in ieder geval nu zeer voor de hand liggend.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De scores van de X1900XTX lijken een beetje aan de lage kant. Die van de X1950XT256 kloppen, want dat is ongeveer wat ik haal op mijn systeem. Op de resoluties waarop getest is, zou de X1950XT256 zowiezo sneller moeten zijn dan de X1900XTX (vanwege de hogere geheugenbandbreedte en niet afhankelijk zijn van een grote geheugenbuffer op die resoluties), maar zoveel sneller als in een aantal tests op die site ook weer niet.Jejking schreef op donderdag 01 maart 2007 @ 10:42:
[...]
Overigens, deze review is een beetje een rare, beetje gekke uitkomsten?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
[ Voor 26% gewijzigd door oeLangOetan op 01-03-2007 11:15 ]
De R580 had iets van 340 GFlops. Maar wat ik niet snap: Als de R600 al 700 moet hebben. Waarom heeft ide Crossfire setup dan 1 Terraflop. Ze hadden dan beter 1.2/1.3 Terraflop kunnen zeggen. Zijden wel dat het meer was dan 1 Terraflop maar als die 700 voor een kaart klopt zou je dus al richting de 1.4 Terraflop gaan voor 2 kaarten. En dat is een groot verschil met 1 dus dan had ik dat ook in het nieuwsbericht vermeld als ik AMD was.oeLangOetan schreef op donderdag 01 maart 2007 @ 11:12:
http://news.mydrivers.com/1/78/78496.htm
interessant nieuws van GDC2007, ik kan het niet lezen maar er zijn zeer mooie plaatjes
op b3d zeggen ze dat de R600 zo'n 700GFlops is, 2x zoveel als de G80 (ik had niets anders verwacht)
//edit vertaald: http://www.google.com/tra...air=ja%7Cen&hl=en&ie=UTF8
blijkbaar de nieuwe ati demo
[ Voor 7% gewijzigd door Astennu op 01-03-2007 11:23 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Er is toch niets leuker dan de concurrentie op een verkeerd been zetten en met meer te komen dan waarmee je geadverteerd hebt? En je kan beter wat bescheidener doen vind ik persoonlijk. Dan valt het alleen maar mee als het meer is.Astennu schreef op donderdag 01 maart 2007 @ 11:20:
[...]
De R580 had iets van 340 GFlops. Maar wat ik niet snap: Als de R600 al 700 moet hebben. Waarom heeft ide Crossfire setup dan 1 Terraflop. Ze hadden dan beter 1.2/1.3 Terraflop kunnen zeggen. Zijden wel dat het meer was dan 1 Terraflop maar als die 700 voor een kaart klopt zou je dus al richting de 1.4 Terraflop gaan voor 2 kaarten. En dat is een groot verschil met 1 dus dan had ik dat ook in het nieuwsbericht vermeld als ik AMD was.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Helemaal waar. Nja laat die reviews maar komen. Ik had gegokt dat de R600 in Topic 53 uit zou komen. Ben benieuwdCJ schreef op donderdag 01 maart 2007 @ 11:30:
[...]
Er is toch niets leuker dan de concurrentie op een verkeerd been zetten en met meer te komen dan waarmee je geadverteerd hebt? En je kan beter wat bescheidener doen vind ik persoonlijk. Dan valt het alleen maar mee als het meer is.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Anoniem: 107626
Met babelfish krijg ik er een redelijk vertaling uit:oeLangOetan schreef op donderdag 01 maart 2007 @ 11:12:
http://news.mydrivers.com/1/78/78496.htm
interessant nieuws van GDC2007, ik kan het niet lezen maar er zijn zeer mooie plaatjes
op b3d zeggen ze dat de R600 zo'n 700GFlops is, 2x zoveel als de G80 (ik had niets anders verwacht)
//edit vertaald: http://www.google.com/tra...air=ja%7Cen&hl=en&ie=UTF8
blijkbaar de nieuwe ati demo
Volgens mij zat die Natalya Tatarchuk ook bij de ontwikkeling van Toy Shop, toch?ATI GDC demonstrates R600 and the next generation battlefield engine
Family of the actuation[原创] author: P2MM edition: P2MM 2007-03-01 13:22:24 Loading
The GDC2007 congress official website publishes the GDC 2,007 parts of merchants participations plan today. According to this plan demonstration, AMD ATI will use the EA/DICE next generation battlefield engine at this month GDC2007 congress to demonstrate the R600 graph chip.
The plan produces which according to the GDC2007 official net, ATI research and development department's demo Engineer Johan Andersson, Natalya Tatarchuk will carry on the title at the GDC2007 congress will be“Frostbite exaggerates the overhead construction and the real-time procedure coloration and the texture technology”lecture.
This lecture will revolve to actuate the EA/DIC next generation battlefield game - "Battlefield: Bad Company "3D the engine - Frostbite engine launches, discusses based on the graph visual coloration work, the unification exaggerates with the colouring system (PC, Xbox 360 and PS3) and the procedure coloration as well as the texture technology. In the middle of the speech will demonstrate newest AMD/ATI graph demo.
Moreover, uses the EA/DIC next generation battlefield game which the Xbox 360 developments machine real-time exaggerates - "Battlefield: Bad Company "the piece truncation chart and the video frequency also simultaneously announce, development expression, in Xbox 360 developments machine, EA/DIC next generation battlefield game -" Battlefield: Bad Company "720p real-time exaggerates the speed to achieve 25fps, certainly graph chip also may obtain Gao Zhengshu in AMD/ATI new generation of DirectX on 10 R600.
Jup,Anoniem: 107626 schreef op donderdag 01 maart 2007 @ 11:57:
[...]
Volgens mij zat die Natalya Tatarchuk ook bij de ontwikkeling van Toy Shop, toch?
[ Voor 25% gewijzigd door oeLangOetan op 01-03-2007 12:06 ]
Yep. Ze was de drijvende kracht van Toyshop. En ze is ook een geregistreerd lid op het Beyond3D forum. Officieel is ze "technical lead for the research team at AMD's 3D Application Research Group".Anoniem: 107626 schreef op donderdag 01 maart 2007 @ 11:57:
[...]
Volgens mij zat die Natalya Tatarchuk ook bij de ontwikkeling van Toy Shop, toch?
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Dit topic is gesloten.
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq