Nee, de 7900GT is al heel lang EOL. Dat waren ze geloof ik in December 2006 al. Reken er maar op dat je een 7950GT krijgt aangezien dat de vervanger is. 7900GT's hebben ze simpelweg niet meer, en als ze er überhaupt nog 1 hebben dan sturen ze die waarschijnlijk niet omdat alle 7900GT kaarten theoretisch gewoon 'kapot' zijn.TheZeroorez schreef op dinsdag 16 oktober 2007 @ 21:31:
Je krijgt echt niet per defenitie een 7950GT terug hoor, waarschijnlijk had de shop/leverancier daarven die 7900GT krengen () gewoon niet op voorraad, en heb je geluk gehad
Anoniem: 104748
hhmmm ok dan, ik heb nu me kast helemaal open en heb nog geen artifacts. Ik weet nu niet wat ik beste kan doen, het idee van gare kaart blijft ****. Toch had ik m liever koeler, lastig wat ik nu zal doen. Ik kan ook nog koel dingen op geheugen plaatsen...
http://www.alternate.nl/h...tails.html?artno=I%23ZZ01 zoiets.Anoniem: 104748 schreef op dinsdag 16 oktober 2007 @ 22:56:
hhmmm ok dan, ik heb nu me kast helemaal open en heb nog geen artifacts. Ik weet nu niet wat ik beste kan doen, het idee van gare kaart blijft ****. Toch had ik m liever koeler, lastig wat ik nu zal doen. Ik kan ook nog koel dingen op geheugen plaatsen...
die koel dingen gaan helpen, maar het risico dat de kaart er over een half jaar (dag na de garantie is opgehouden
) er alsnog mee stopt is bij jou kaart goed aanwezig.
Nukezone FTW
Iemand hier meer info over? The Source misschien?Mr. Detonator schreef op dinsdag 16 oktober 2007 @ 18:38:
It's known new 8800GTS will have 128 SP. But still no evdience about the core clock, memory clock and shader clock. The score we have earlier already prove that 8800GT can beat 8800GTS(old). And we believe the 65nm 8800GTS(new) will better than 8800GTX(old).
Lijkt me toch sterk dat een 8800GTS een 8800GTX eruit raced. Daarnaast zullen ze die "8800GTS" dan geen "8800GTS" noemen lijkt me. Dat zou wel heel verwarrend zijn!
Tja, evenveel shaders en dankzij 65nm hoger te klokken, het zou me niet verbazen als de nieuwe GTS inderdaad sneller wordt dan de GTX. Hij zal het alleen met minder geheugenbandbreedte moeten doen.
Anoniem: 226494
Ga er maar van uit dat het allemaal mooi praat is. Want anders haden ze zeker weten wel de naam veranderd. Ik heb ondertussen mooi de ultra gekocht want ik ga er van uit dat volgend jaar pas een betere snellere kaart uitkomt van Nv. Maart apil ofzo ?Gurneyhck schreef op woensdag 17 oktober 2007 @ 11:29:
[...]
Iemand hier meer info over? The Source misschien?
Lijkt me toch sterk dat een 8800GTS een 8800GTX eruit raced. Daarnaast zullen ze die "8800GTS" dan geen "8800GTS" noemen lijkt me. Dat zou wel heel verwarrend zijn!
Anoniem: 107558
Nvidia's high end in 2008
Nvidia's next generation dual PCB card powered by two graphics chips will need two power connectors. The card will need 220W+ to work and a passive two-sided cooler to get rid of the heath.
Just as the R600, D8Enthusiast will need one 4x2 and one 3x2 power connector as it will need more than 200W power. At the same time, the card will support PCIe 2.0 but even these 150W won’t be enough to feed the card.
For the remaining weeks and months of 2007, Nvidia will enjoy the strong sales of Geforce 8800 Ultra and GTX cards and in early Q1, it will be ready with D8E, at least that is the plan.
Bron: Fudzilla
Nvidia's next generation dual PCB card powered by two graphics chips will need two power connectors. The card will need 220W+ to work and a passive two-sided cooler to get rid of the heath.
Just as the R600, D8Enthusiast will need one 4x2 and one 3x2 power connector as it will need more than 200W power. At the same time, the card will support PCIe 2.0 but even these 150W won’t be enough to feed the card.
For the remaining weeks and months of 2007, Nvidia will enjoy the strong sales of Geforce 8800 Ultra and GTX cards and in early Q1, it will be ready with D8E, at least that is the plan.
Bron: Fudzilla
Geloof me, er zijn nog genoeg van die kaarten.. Maar het zou inderdaad kunnen dat ze eentje met 512MB en wat hogere snelheden sturen, in plaats van een 7900GT rev2. Maar reken er niet op, zal het altijd meevallenleonpwner1 schreef op dinsdag 16 oktober 2007 @ 21:42:
[...]
Nee, de 7900GT is al heel lang EOL. Dat waren ze geloof ik in December 2006 al. Reken er maar op dat je een 7950GT krijgt aangezien dat de vervanger is. 7900GT's hebben ze simpelweg niet meer, en als ze er überhaupt nog 1 hebben dan sturen ze die waarschijnlijk niet omdat alle 7900GT kaarten theoretisch gewoon 'kapot' zijn.
Klopt dus;Mr. Detonator schreef op dinsdag 16 oktober 2007 @ 18:38:
[i]It's clear that 8800GT will appear in the market in monday, 29th Oct. But maybe you are all thinking about the second G92 product: new 8800GTS.
According to the sources, the new 65nm 8800GTS will announce in Monday,19th Nov, a week later than 780i(12nd Nov). The price is CNY2299(~305 USD) .
8800GTS 320 EOL -> 8800GT 256 / 512 -> Oct 29th. Hierbij is 512MB direct leverbaar, 256MB pas Nov. De eerst week is de 512MB versie slechter leverbaar, de 2de week na launch verviervoudigd de allocatie al, weken daarna enkel maar beter...
8800GTS 640 EOL -> 8800GTS 512 -> Nov 19th. Allocatie nog onbekend.
En prestaties, beter dan GTX? Bijna GTX?The Source schreef op woensdag 17 oktober 2007 @ 17:06:
[...]
...verhaaltje...
8800GTS 640 EOL -> 8800GTS 512 -> Nov 19th. Allocatie nog onbekend.
Of gaat de geheugenbus + 256MB geheugen minder hem nekken?
En de GTX dan? Wanneer is die EOL? Het lijkt me vrij nutteloos een GTX in de lineup te hebben als die nieuwe GTS net zo snel of sneller is.The Source schreef op woensdag 17 oktober 2007 @ 17:06:
[...]
Klopt dus;
8800GTS 320 EOL -> 8800GT 256 / 512 -> Oct 29th. Hierbij is 512MB direct leverbaar, 256MB pas Nov. De eerst week is de 512MB versie slechter leverbaar, de 2de week na launch verviervoudigd de allocatie al, weken daarna enkel maar beter...
8800GTS 640 EOL -> 8800GTS 512 -> Nov 19th. Allocatie nog onbekend.
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 104748
Ja zoiets kan ik ook nog proberen.
Ik heb zojuist gezien dat mijn kast geen ventilator aan de voorkant heeft.
oorzaken.
De volgende PC word echt weer vanaf het eerste sukje hardware door mij persoonlijk samengesteld.
GPU normaal 42 graden nu, en bij gamen 58 tot 62 graden. Moet kunnen toch? Geen artifacts meer gezien.
[ Voor 12% gewijzigd door Anoniem: 104748 op 17-10-2007 17:38 ]
Simpele conclusie is dat 'ie dus in ieder geval niet sneller zal zijnRappieRappie schreef op woensdag 17 oktober 2007 @ 17:30:
[...]
En de GTX dan? Wanneer is die EOL? Het lijkt me vrij nutteloos een GTX in de lineup te hebben als die nieuwe GTS net zo snel of sneller is.

edit:
Yes, wat ik 'back then' heb gelezen is complete bullshit!!!!
Yes, wat ik 'back then' heb gelezen is complete bullshit!!!!
[ Voor 43% gewijzigd door TheZeroorez op 17-10-2007 19:28 ]
Onzin, PCI-E 2.0 werkt ook in PCI-E 1.1 en 1.0 sloten. Enkel niet bij sommige Asus modellen omdat ze een bepaalde PCI-E switch chip gebruiken om 2x PCI-E x8 te maken voor CF, en die chip support het niet. Rest allemaal wel....TheZeroorez schreef op woensdag 17 oktober 2007 @ 17:54:
[...]
Simpele conclusie is dat 'ie dus in ieder geval niet sneller zal zijn
Verder moet je ook niet vergeten dat je voor een 8800GT minstens een Intel P35 bord nodig hebt, omdat de kaart PCe 2.0 is, en dus op z'n minst een PCIe 1.1 slot wil, terwijl een 8800GTX het nog gewoon in een PCIe 1.0 gaatje doet
offtopic:
Wel vervelend trouwens, ik zit er toch aan te denken over een paar maandjes eens een nieuwe GPU aan te schaffen, maar een nieuw bord is nog niet nodig, en een 8800GT(S/X) gebruikt véél meer stroom dan de 8800GT gaat doen... Net als de Penryn dan trouwens, en DDR3. Dus opzich is de keuze dan wel weer snel gemaakt
Hmm testexemplaar 8800GT komt volgende week binnen, ik kan al niet wachten
Dat klopt niet helemaal. Heb verschillende keren gelezen dat het 90% van de tijd toch wel werken wil.TheZeroorez schreef op woensdag 17 oktober 2007 @ 17:54:
[...]
Verder moet je ook niet vergeten dat je voor een 8800GT minstens een Intel P35 bord nodig hebt, omdat de kaart PCe 2.0 is, en dus op z'n minst een PCIe 1.1 slot wil, terwijl een 8800GTX het nog gewoon in een PCIe 1.0 gaatje doet
Anders stuur ik mijn MB lekker trug RMA, ruil ik hem om voor een 1.1 versie
Moeten ze maar niet eerst zeggen dat het backwards compatible is, anders had ik er wel bij de koop op gelet.
Nukezone FTW
Heb mijn Graka ( wel in laptop zitten ) Go 7600GT 'Ingame' op een warmte van 80 graden 'geclocked' en 70-75 op 'default'GPU normaal 42 graden nu, en bij gamen 58 tot 62 graden. Moet kunnen toch? Geen artifacts meer gezien.
Heb geen artifacts...wel als ik hem verder overclock. De temperatuur is dus op het randje...maar gaat prima zo...boven de 85 graden krijg ik vervormingen/artifacts...maar is in principe bij elke kaart verschillend. Sommige kunnen echt 100 graden aan...gewoon kwestie van uitproberen waar je limiet ligt. Over de theorie dat het in principe je levensduur verkort van 15 naar 10 jaar maak ik me niet druk want elke 3 jr koop ik nieuwe laptop...dus das echt geen issue om rekening mee te houden.
[ Voor 58% gewijzigd door NeoMe op 17-10-2007 19:25 ]
* Acer Aspire V15 Nitro - Intel Core i5-5200U 2,7Ghz - 8GB - GTX 850M 4GB- 500GB 5400RPM - 128GB SSD * MX518 * Xbox 360 + XBOX One * Philips LED 55" * Samsung Galaxy S9
Anoniem: 104748
Ah nee he, hafl uur geleden even 2 rare lijnen tijdens het gamen gehad. Toen waren ze weer weg, nog ff gezocht naar doos maar het buitenste flapje met de belangrijke alternate garantie sticker is kwijt.
Ach kan prima rekken zo, paar uur tijd 2 artifacts even is te doen, koop op ten duur wel een nieuwe...
Edit:
Als ik nu een nieuwe PCI express kaart zou halen, wil ik er een die minimaal zo goed is als mijn huidige 7900GT maar wel stuk koeler blijft. Ook al ligt het dus waarschijnlijk puur aan brak graka geheugen atm. Bij welke huidige kaart kom ik dan terecht.?
Edit2
:Ik heb even rond gekeken en de 8800GTS 320MB spreekt mij wel aan, hij is goed wat ik zo lees en heeft niet zoveel stroom nodig. Zou ik de kaart kunnen gebruiken op een 350W voeding(nope weet geen type etc
), mijn 7900GT draait er ook op? Ik heb geen SLI of meerdere schijven etc.
Ach kan prima rekken zo, paar uur tijd 2 artifacts even is te doen, koop op ten duur wel een nieuwe...
Edit:
Als ik nu een nieuwe PCI express kaart zou halen, wil ik er een die minimaal zo goed is als mijn huidige 7900GT maar wel stuk koeler blijft. Ook al ligt het dus waarschijnlijk puur aan brak graka geheugen atm. Bij welke huidige kaart kom ik dan terecht.?
Edit2
[ Voor 50% gewijzigd door Anoniem: 104748 op 18-10-2007 11:33 ]
Wat fijn zeg! Een SLi voeding heb je dus niks meer aan omdat daar 2x4 pins opzit, EN een PCI-e 1.1 mobo is ook niet genoeg... Wil je dus zo'n kaart, dan moet je weer een nieuw mobo + PSU kopen...Anoniem: 107558 schreef op woensdag 17 oktober 2007 @ 13:38:
Nvidia's next generation dual PCB card powered by two graphics chips will need two power connectors. The card will need 220W+ to work and a passive two-sided cooler to get rid of the heath.
Just as the R600, D8Enthusiast will need one 4x2 and one 3x2 power connector as it will need more than 200W power. At the same time, the card will support PCIe 2.0 but even these 150W won’t be enough to feed the card.

Misschien is voor mij de tijd aangebroken om naar ATi (Gemini) kaarten te gaan kijken als die minder stroom slurpen...Of op consoles te gaan gamen...
[ Voor 12% gewijzigd door Format-C op 18-10-2007 12:05 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Die 1x 4 en 1x 3 pins kan je naar mijn weten ook op 2x 4 pins draaien, 1x4 en 1x3 is gewoon het minimale.RappieRappie schreef op donderdag 18 oktober 2007 @ 11:58:
[...]
Wat fijn zeg! Een SLi voeding heb je dus niks meer aan omdat daar 2x4 pins opzit, EN een PCI-e 1.1 mobo is ook niet genoeg... Wil je dus zo'n kaart, dan moet je weer een nieuw mobo + PSU kopen...![]()
Misschien is voor mij de tijd aangebroken om naar ATi (Gemini) kaarten te gaan kijken als die minder stroom slurpen...Of op consoles te gaan gamen...
Dat word wel erg krap, ik denk niet dat dat gaat lukken vooral als het een goedkoper merk voeding is.Anoniem: 104748 schreef op woensdag 17 oktober 2007 @ 20:34:
Edit2:Ik heb even rond gekeken en de 8800GTS 320MB spreekt mij wel aan, hij is goed wat ik zo lees en heeft niet zoveel stroom nodig. Zou ik de kaart kunnen gebruiken op een 350W voeding(nope weet geen type etc
), mijn 7900GT draait er ook op? Ik heb geen SLI of meerdere schijven etc.
[ Voor 30% gewijzigd door Fox op 18-10-2007 12:18 ]
Nou ik moet ook eerlijk bekennen dat ik met stijgende verbazing naar het stijgende verbruik kijk van videokaarten, processoren zitten zover ik weet gemiddeld tussen de 80 a 120 watt en dat al voor langere tijd terwijl videokaarten een enorme stijging laten zien en elke keer meer stroom vragen en de klant die het maar accepteert, het zou inderdaad zoals RappieRappie zegt misschien echt interessant zijn eens te kijken naar minder stroom verbruikende kaarten want dit word echt te gek.
Als ik op http://www.extreme.outervision.com/psucalculatorlite.jsp kijk en dan zie dat ik nu al 350watt nodig heb, dan zou dus er dus nog +-100 watt bij komen dat trekt mijn voeding wel maar ik heb al een niet kinderachtige 620 watt enermax voeding en die ga je dan al behoorlijk prikkelen, ik vind het eigenlijk niet normaal
Als ik op http://www.extreme.outervision.com/psucalculatorlite.jsp kijk en dan zie dat ik nu al 350watt nodig heb, dan zou dus er dus nog +-100 watt bij komen dat trekt mijn voeding wel maar ik heb al een niet kinderachtige 620 watt enermax voeding en die ga je dan al behoorlijk prikkelen, ik vind het eigenlijk niet normaal
i5-12600K PRIME Z690M-PLUS D4 64GB 980 Pro M.2 1TB MBA M1 13" 8GB 256GB (Late '20)
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Urhm.... Unreal Engine 3? Deferred rendering? Dus geen AA mogelijk behalve in DX10 via de shaders... en dit wordt pas in de final versie ondersteunt aldus Epic (of via een patch).
Soms is het mogelijk om hardware AA te forceren in de drivers (bv via het renamen van een bestand), maar dit is niet zoals de developer het bedoelt heeft. Er kunnen dan ook glitches optreden (bv missende schaduwen, corrupte textures, incorrecte HDR etc).
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Anoniem: 107558
Ik zit hier met een klein probleem aangaande de nividia kaarten.
Op het moment heb ik een 8800 GTS 320 mb en die wil ik vervangen door een GTX 768 model omdat ik vanmiddag een Samsung 245B aangeschaft heb.
Is het verstandig om de 320 mb nu in de verkoop te doen (4 weken geleden gekocht) en dan een GTX te kopen of kan ik beter wachten tot de GT uit is en dat misschien de prijzen zakken?
Op het moment heb ik een 8800 GTS 320 mb en die wil ik vervangen door een GTX 768 model omdat ik vanmiddag een Samsung 245B aangeschaft heb.
Is het verstandig om de 320 mb nu in de verkoop te doen (4 weken geleden gekocht) en dan een GTX te kopen of kan ik beter wachten tot de GT uit is en dat misschien de prijzen zakken?
Wachten uiteraard...
Wie weet hoe snel die nieuwe GTS en GT zijn.
Wie weet hoe snel die nieuwe GTS en GT zijn.
[ Voor 56% gewijzigd door Format-C op 18-10-2007 20:00 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Anoniem: 91868
Ik wacht ook op de GT. Moet het nog even doen met 2 8600gt
Ik hoop dat ie echt retail rond de 200 euro zit.

Ik hoop dat ie echt retail rond de 200 euro zit.
Ik moet het nog effe doen met een 7100gs
29 october 8800gt
Wachten en er dan goedkoop een GTS bijhalen voor SLIAnoniem: 107558 schreef op donderdag 18 oktober 2007 @ 18:01:
Ik zit hier met een klein probleem aangaande de nividia kaarten.
Op het moment heb ik een 8800 GTS 320 mb en die wil ik vervangen door een GTX 768 model omdat ik vanmiddag een Samsung 245B aangeschaft heb.
Is het verstandig om de 320 mb nu in de verkoop te doen (4 weken geleden gekocht) en dan een GTX te kopen of kan ik beter wachten tot de GT uit is en dat misschien de prijzen zakken?
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Een opmerking die integraal in nog veel sterkere mate gespiegeld kan worden gekopieerd naar het nieuwsdiscussie topic van nV's tegenpootleonpwner1 schreef op zondag 14 oktober 2007 @ 16:41:
Sure, kritiek kan altijd, mits onderbouwd en objectief. Dat het een NVidia nieuws & discussie topic is betekent niet direct dat het ook een NVidia fanboyism topic is

Elmystic's opmerking was - hoewel trollerig gebracht - gewoon de naakte waarheid. Zie voor onderbouwing any review die de 2900 serieus met de 8800 vergelijkt op hoge ingame AA settings.
In genoemd topic zie ik zat trollerige(re) dingen die ook nog eens niet op waarheid berusten.
Een klassieke misvatting die ik steeds weer terug zie komen. Voor de duidelijkheid: de G80 heeft shaderresolve AA en hardware resolve AA.De AA van de HD2900XT is niet vergelijkbaar met die van de G80, aangezien de HD2900XT shaderresolved AA heeft en de G80 niet.
R6xx heeft alleen shaderresolve AA, geen hardware resolve, en dat verklaard de 2900's brakke AA performance (want 99% van de games die AA ondersteunen doen momenteel hardware resolve, wat de 2900 moet emuleren). Hoe RV670 dat oplost moeten we nog zien. De HD 2900 heeft dus een gebrek/handicap op AA gebied t.o.v. de 8800: het beschikt niet over hardware ondersteuning voor de meestgebruikte AA variant.
Volgens mij niet.Shaderresolve AA zal volgens mij toch verplicht worden in DX10.1 games
DX10.1 gaat de dev's helemaal niet voorschrijven welke AA oplossing ze moeten kiezen... op dit moment zie je ook dat shaderbased AA alleen een voorwaarde is bij deferred rendering, iets dat nog slechts bij enkele games toegepast wordt. Bij non-deferred (reguliere) rendering - de defacto standaard, ook voor de meeste DX10 games waaronder Crysis - is shaderbased AA absoluut geen voorwaarde en is hardware AA gewoon mogelijk.
nVidia past dit al toe, ergo hun GF8 hardware ondersteund het probleemloos. Dat kun je gedeeltelijk al zien bij Call of Juarez DX10 (het enige shaderbased AA spel tot nu toe) waarbij het hardware AA pad uit de DX10 versie gehaald is en shaderbased AA geforceerd wordt (= gedistribueerd door ATi).dus we zien vanzelf wel hoe de performance dan wordt als NVidia dit ook toe gaat passen en de ATi-manier goed tot z'n recht komt.
De 8800GTX doet 't ook daar met AA beter dan de 2900XT (ondanks dat de 8800 dus 'gehandicapt' wordt doordat shaderbased geforceerd wordt en niet kan worden gekozen voor (sneller) hardwarebased AA).
Ik heb - zeker bij sommige recente games - anders al aardig onspeelbare scenario's gezien, zelfs met 'slechts' 4xAA @hogere reso's op de 2900Maar het is niet zo dat games onspeelbaar worden op de r600 wanneer AA wordt ingeschakeld hoor, dat ding kan makkelijk 8x MSAA in de meeste games, want hij is toch snel genoeg (2x zo snel als mijn 7950gt).
[ Voor 8% gewijzigd door Cheetah op 18-10-2007 23:59 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Geen enkele UT game heeft AA opties in de game zelf gehad.
Hier word ik een beetje ziek van CheetahCheetah schreef op donderdag 18 oktober 2007 @ 23:45:
nVidia past dit al toe, ergo hun GF8 hardware ondersteund het probleemloos. Dat kun je gedeeltelijk al zien bij Call of Juarez DX10 (het enige shaderbased AA spel tot nu toe) waarbij het hardware AA pad uit de DX10 versie gehaald is en shaderbased AA geforceerd wordt (= gedistribueerd door ATi).
De 8800GTX doet 't ook daar met AA beter dan de 2900XT (ondanks dat de 8800 dus 'gehandicapt' wordt doordat shaderbased geforceerd wordt en niet kan worden gekozen voor (sneller) hardwarebased AA).

Een paar dagen geleden zei je het nog goed: ''onder zeer verdachte omstandigheden''. En nu spiegel je het wéér voor als een feit. Waarom moet je dat nou per sé doen?
Wat is er fout aan wat ik zeg?Jejking schreef op donderdag 18 oktober 2007 @ 23:56:
Hier word ik een beetje ziek van Cheetah
Een paar dagen geleden zei je het nog goed: ''onder zeer verdachte omstandigheden''. En nu spiegel je het wéér voor als een feit. Waarom moet je dat nou per sé doen?
Ik geef alleen aan dat de game is gedistribueerd door ATi (sterker nog: ATi heeft de exclusieve distributierechten). Ik geef 2 stukken informatie, die beide feitelijk correct zijn:
1. Hardware AA is uit de CoJ DX10 engine verwijderd, en shaderbased word geforceerd
2. De game is/wordt exclusief gedistribueerd door ATi
En bij deze nog een 3e voor de volledigheid:
3. Pre-final CoJ DX10 Builds met hardware AA ondersteuning mogen niet meer verstrekt/gedistribueerd worden, ook niet als vergelijkingsmateriaal (verzoek van reviewsite werd afgewezen).
De lezer trekke zijn eigen conclusie, hoewel de optelsom uiteraard verre van rocketscience is
[ Voor 12% gewijzigd door Cheetah op 19-10-2007 00:17 ]
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
Anoniem: 107558
Nee Sli is geen optie voor mij.justifire schreef op donderdag 18 oktober 2007 @ 22:06:
[...]
Wachten en er dan goedkoop een GTS bijhalen voor SLI
Het gaat mij erom als de GT uitkomt deze maand dan wordt de 8800 GTS 320 mb niet meer waard, de GT is namelijk sneller en goedkoper dan een GTS.
Worden de GTX kaarten goedkoper of zouden die gelijk blijven?

[ Voor 3% gewijzigd door Phyxion op 19-10-2007 17:14 ]
'You like a gay cowboy and you look like a gay terrorist.' - James May
Anoniem: 219166
hier zit wel een cpu bottleneck hoor. ze zouden de reso eens op maximum moeten zetten en kijken hoeveel verschil er dan is tussen ultra-GTX-GT-GTS.
mocht die grafiek een resolutie tonen van 2560*1600 of 1920*1200 dan zou ik onder de indruk zijn, maar toch niet aan 1280*1024
http://specs.tweak.to/15628 Area-51 ALX (evga 680i, qx6700 @3.2, 4 gb 1066 Mhz Patriot, geforce 8800 Ultra SLI, 2*1Tb Hitachi, 30" dell, 7.1 gigaworks s750, g15 logitech, mx revolution, X-fi Xtreme Gamer)
Klopt, misschien komt die benchmark ooit nog eensAxelF schreef op vrijdag 19 oktober 2007 @ 15:32:
mocht die grafiek een resolutie tonen van 2560*1600 of 1920*1200 dan zou ik onder de indruk zijn, maar toch niet aan 1280*1024
'You like a gay cowboy and you look like a gay terrorist.' - James May
Precies wat ik dacht.
Doe maar eens een benchmark met 2560x1600, dan ga je wel andere cijfertjes zien
Doe maar eens een benchmark met 2560x1600, dan ga je wel andere cijfertjes zien
- Just1fire's gameprofile - It's all fun and games, until someone loses an eye ⊙
Mijn benchmark zegt voor de 8800GT 512MB Core/mem: 600/1800 3Dmark06:12051
Kun je nagaan wat een 8800GTS 512 gaat doen
Retail prijs in NL zal rond 229 euro incl BTW zijn.
Sommige merken in combinatie met sommige webshops die prijzen affikken zal 199 moelijk maken.
oh en deze kaart is NIET te gebruiken in 3 Way SLI aangezien hij maar 1 SLI bridge connector heeft.
Kun je nagaan wat een 8800GTS 512 gaat doen
Retail prijs in NL zal rond 229 euro incl BTW zijn.
Sommige merken in combinatie met sommige webshops die prijzen affikken zal 199 moelijk maken.
oh en deze kaart is NIET te gebruiken in 3 Way SLI aangezien hij maar 1 SLI bridge connector heeft.
[ Voor 15% gewijzigd door The Source op 19-10-2007 17:35 ]
Anoniem: 159816
Belangrijkste editUnlike the full game, the demo does not contain demo recording functionality. But not all hope is lost for benchmarking as most maps in Unreal Tournament 3 have a flyby that can be used to benchmark GPU performance of static geometry. This means there are no weapon FX and AI overhead, but at least it's something
Below is the commandline that we use for this purpose
MAPNAME?causeevent=FlyThrough?quickstart=1?nocusto mchars=1?numplay=0 -seconds=300 -unattended -novsync -fixedseed -CaptureFPSChartInfo=1 -nomoviestartup
You may want to remove the "-CaptureFPSChartInfo=1" if you want to use an external capture application. By default data is written to the Stats folder in your My Documents folder.
Additionally, you will want to modify UTEngine.ini and set bSmoothFrameRate in
[Engine.GameEngine]
bSmoothFrameRate=TRUE
from TRUE to FALSE to disable frame-rate smoothing/ limiting.
Ok, nu even de 5 minuten vol laten maken. Scherm geeft 1680x1050 aan, wordt echter gerenderd in 1680x900 (16:9). Heb de exe renamed naar bioshock.exe en er 4MSAA + AF er overheen gegooit.
112.50FPS avg. En dit is mijn CPU usage:

Je ziet denk ik wel wanneer de bench over is
Ik ga nu even kijken wat er gebeurd als ik de hoogste AA settings enzo pak.
Insane settings
Nogmaals gebenched. 1680x1050 16xQ Supersampling AA + 16AF
19.83 FPS avg.
CPU usage

Ik snap er eerlijk gezegd helemaal niets van, hoe kan mijn CPU usage zo hoog zitten? Reserveert UT3 m'n cpu alvast ofzo
[ Voor 104% gewijzigd door Anoniem: 159816 op 19-10-2007 18:41 ]
@The Source heb jij een 8800gt?Post dan is wat benchmarks.
met wat voor een cpu is dat ?The Source schreef op vrijdag 19 oktober 2007 @ 17:19:
Mijn benchmark zegt voor de 8800GT 512MB Core/mem: 600/1800 3Dmark06:12051
want ik haal met een c2d @ 3200mhz en een gtx 600/2000 hetzelfde
wat is het probleem eigenlijk ?Anoniem: 159816 schreef op vrijdag 19 oktober 2007 @ 17:59:
[...]
Ik snap er eerlijk gezegd helemaal niets van, hoe kan mijn CPU usage zo hoog zitten? Reserveert UT3 m'n cpu alvast ofzo.
UT3 maakt gewoon goed gebruik van een dual-core cpu
ben benieuwd of dat ook met een quad-core zo is
[ Voor 39% gewijzigd door Mr. Detonator op 19-10-2007 19:09 ]
Yep. Zie:Mr. Detonator schreef op vrijdag 19 oktober 2007 @ 19:03:
UT3 maakt gewoon goed gebruik van een dual-core cpu
ben benieuwd of dat ook met een quad-core zo is

Meer hier: http://www.anandtech.com/video/showdoc.aspx?i=3127&p=4
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
100% CPU usage is normaal tijdens een game hoorAnoniem: 159816 schreef op vrijdag 19 oktober 2007 @ 17:59:
CPU usage
[afbeelding]
Ik snap er eerlijk gezegd helemaal niets van, hoe kan mijn CPU usage zo hoog zitten? Reserveert UT3 m'n cpu alvast ofzo.
Anoniem: 159816
Hmm had verwacht dat een CPU niet altijd op 100 zou zitten als hij niet al z'n kracht nodig heeft zijn taken uit te voeren op de framerate die de videokaart wil.leonpwner1 schreef op vrijdag 19 oktober 2007 @ 19:11:
[...]
100% CPU usage is normaal tijdens een game hoorZelfs oude spellen zullen 100% gebruiken (bij een single core iig, ook bij een dual-core als ze multithreaded geschreven zijn).
klopt, maar de laatste paar jaar heb ik nog amper meer cpu-usage gezien dan 50-60% ingame...(met een dual-core) eigenlijk álle spellen die ik wat meer heb gespeeldleonpwner1 schreef op vrijdag 19 oktober 2007 @ 19:11:
[...]
100% CPU usage is normaal tijdens een game hoorZelfs oude spellen zullen 100% gebruiken (bij een single core iig, ook bij een dual-core als ze multithreaded geschreven zijn).
zijn maar enkele uitzonderingen die multithreaded geschreven zijn
[ Voor 6% gewijzigd door Mr. Detonator op 19-10-2007 20:01 ]
Het werkt gewoon op 100%, ongeacht de snelheid van je CPU. Simpel zet Windows (of je pc, whatever) je CPU 100% in, en des te sneller je CPU is, des te sneller hij klaar is met het/een process. Het is dus niet zo dat als je de klokfrequentie opvoert, hij minder snel op 100% zitAnoniem: 159816 schreef op vrijdag 19 oktober 2007 @ 19:36:
[...]
Hmm had verwacht dat een CPU niet altijd op 100 zou zitten als hij niet al z'n kracht nodig heeft zijn taken uit te voeren op de framerate die de videokaart wil.
Je moet dus wel een idioot wezen om nu nog een 8800 gts te kopen neem ik aan
Wie zegt dat als een game geen AA biedt in het menu, dat het -standaard- niet met AA kan werken?barcawinner schreef op donderdag 18 oktober 2007 @ 23:49:
[...]
Geen enkele UT game heeft AA opties in de game zelf gehad.
Zeker lol, de Ultra doet het iets meer dan één FPS beter dan de GTX?Anoniem: 219166 schreef op vrijdag 19 oktober 2007 @ 15:31:
hier zit wel een cpu bottleneck hoor. ze zouden de reso eens op maximum moeten zetten en kijken hoeveel verschil er dan is tussen ultra-GTX-GT-GTS.

Misschien omdat de app die je draaide maar 1 core ondersteunt? En dan is de overige ~10% te verklaren aan eventuele processen van je OS of appz die je draait.Mr. Detonator schreef op vrijdag 19 oktober 2007 @ 19:59:
[...]
klopt, maar de laatste paar jaar heb ik nog amper meer cpu-usage gezien dan 50-60% ingame...(met een dual-core) eigenlijk álle spellen die ik wat meer heb gespeeld
zijn maar enkele uitzonderingen die multithreaded geschreven zijn
Dan 1 core volledig (=50%) en dan core0/1 voor de rest.
Of een gtx...Timba- schreef op vrijdag 19 oktober 2007 @ 21:17:
Je moet dus wel een idioot wezen om nu nog een 8800 gts te kopen neem ik aan
Hmm... daar zit ik dan met mijn SLI setup

Ik had eergister een gts 320 mb besteld .
die heb ik als de wiedeweerga maar gecancelled
kan niet wachten tot er meer duidelijk is over de GT .
Nu gaat t me minder kosten maar is t alsnog sneller , fantastisch
die heb ik als de wiedeweerga maar gecancelled
kan niet wachten tot er meer duidelijk is over de GT .
Nu gaat t me minder kosten maar is t alsnog sneller , fantastisch
Oei is 8800GT nu toch G96?
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Zozo, die 8800 GT ziet er inderdaad veelbelovend uit.
Ben benieuwd hoe die het gaat doen op 1600x1200 en hoger met AA en AF aan. Hier met die benchmarks =)
Ben benieuwd hoe die het gaat doen op 1600x1200 en hoger met AA en AF aan. Hier met die benchmarks =)
Blijf 't vreemd vinden dat ze hem niet de 8900GT en 8900GTS noemen... zou veel logischer zijn i.v.m. (schijnbare) performancekarakteristieken. Dat natuurlijk tenzij ze vanwege de kleinere busbandbreedte in vergelijk met de huidige 8800 serie zouden inkakken @high-res met AA/AF.
Enige benches die ik tot nu toe heb gezien zijn @1280x1024... en dat zegt net als 3DMark06 vrij weinig over wat je kunt verwachten van 1920x1200 met 4-8x AA helaas.
Enige benches die ik tot nu toe heb gezien zijn @1280x1024... en dat zegt net als 3DMark06 vrij weinig over wat je kunt verwachten van 1920x1200 met 4-8x AA helaas.
ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz
volgens mij loopt de hardware technologie echt ver voor op de games .. toen ut99 uitkwam mocht je blij zijn als je t op met 50 fps op 800x600 kon spelen ..
nu de ut3 uitkomt kan je t zelfs op 1900x1200 spelen met 50 fps als je t wilt
.
nu de ut3 uitkomt kan je t zelfs op 1900x1200 spelen met 50 fps als je t wilt
Anoniem: 159816
Niet echt. De eisen van gamers zijn hoger geworden, maar ook foefjes als AA en AF zijn nu gemeengoed geworden.Timba- schreef op zaterdag 20 oktober 2007 @ 01:37:
volgens mij loopt de hardware technologie echt ver voor op de games .. toen ut99 uitkwam mocht je blij zijn als je t op met 50 fps op 800x600 kon spelen ..
nu de ut3 uitkomt kan je t zelfs op 1900x1200 spelen met 50 fps als je t wilt.
mja de eisen van de gamers..
de meeste online fps spelers maakt t volgens mij echt niet uit hoeveel pixeltjes ze zien , als ze maar winnen . zelfde geld voor mij ik speel al 7 jaar ut op een resolutie van 800x600 alleen maar omdat je dan simpeler headshots krijg en al is dat bij ut3 ook zo doen ik dan gewoon weer met me nieuwe setup waarmee ik ook 1600x1200 kan spelen
de meeste online fps spelers maakt t volgens mij echt niet uit hoeveel pixeltjes ze zien , als ze maar winnen . zelfde geld voor mij ik speel al 7 jaar ut op een resolutie van 800x600 alleen maar omdat je dan simpeler headshots krijg en al is dat bij ut3 ook zo doen ik dan gewoon weer met me nieuwe setup waarmee ik ook 1600x1200 kan spelen
Anoniem: 230207
Ja, ik ben dus jarig geweest en mijn 6800gt is rare kuren aan het vertonen. Nou kan ik dus nu een 8800gts 640 kopen maar ik denk dat het wachten tot November het wel waard is.Timba- schreef op zaterdag 20 oktober 2007 @ 00:06:
Ik had eergister een gts 320 mb besteld .
die heb ik als de wiedeweerga maar gecancelled![]()
kan niet wachten tot er meer duidelijk is over de GT .
Nu gaat t me minder kosten maar is t alsnog sneller , fantastisch
Maar IK KAN NIET WACHTEN
Net Cartman die wacht voor een winkel op de WII
[ Voor 5% gewijzigd door Anoniem: 230207 op 20-10-2007 11:03 ]
Anoniem: 230207 schreef op zaterdag 20 oktober 2007 @ 11:03:
[...]
Net Cartman die wacht voor een winkel op de WII
offtopic:
Wil je wel helpen met invriezen
Wil je wel helpen met invriezen
hmm het lijkt er toch op dat er geen nieuwe 8800 gts gaat komen , maar dat het de 8900 word genoemd. http://gamesuy.blogspot.c...x-and-8950gx2-priced.html
of zijn dit nou 2 compleet nieuwe kaarten weer die naast de nieuwe 8800 gts worden gereleased .
of zijn dit nou 2 compleet nieuwe kaarten weer die naast de nieuwe 8800 gts worden gereleased .
Ach, qua games is het tot vandaag toch nog bagger geweest...Anoniem: 230207 schreef op zaterdag 20 oktober 2007 @ 11:03:
[...]
Ja, ik ben dus jarig geweest en mijn 6800gt is rare kuren aan het vertonen. Nou kan ik dus nu een 8800gts 640 kopen maar ik denk dat het wachten tot November het wel waard is.
Maar IK KAN NIET WACHTEN
Net Cartman die wacht voor een winkel op de WII
als je eenmaal zo'n kaart hebt is de lol er ook vanaf. Ik zou nu ook echt even wachten. Ik heb ook pas sinds 1 maand een GTS maargoed, hij blijft daar toch zeker 1 jaar minstens zitten
Oud en verkeerd nieuws.Timba- schreef op zaterdag 20 oktober 2007 @ 16:38:
hmm het lijkt er toch op dat er geen nieuwe 8800 gts gaat komen , maar dat het de 8900 word genoemd. http://gamesuy.blogspot.c...x-and-8950gx2-priced.html
of zijn dit nou 2 compleet nieuwe kaarten weer die naast de nieuwe 8800 gts worden gereleased .
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
hoe zit t dan wel? want er word zoveel geroepen ..
Wanneer komen er dan eindelijk echte benchmarks van de 8800GT?
Anoniem: 107558
alikebap schreef op zaterdag 20 oktober 2007 @ 18:59:
Wanneer komen er dan eindelijk echte benchmarks van de 8800GT?
Hacku schreef op woensdag 17 oktober 2007 @ 18:44:
Hmm testexemplaar 8800GT komt volgende week binnen, ik kan al niet wachten
[ Voor 37% gewijzigd door Anoniem: 107558 op 20-10-2007 19:33 ]
Anoniem: 104097
http://forums.vr-zone.com/showthread.php?t=194951
Op zijn zachts gezegd: indrukwekkend, vooral gezien zijn prijskaartje (200-250 euro).
Waar zit het addertje ?
Op zijn zachts gezegd: indrukwekkend, vooral gezien zijn prijskaartje (200-250 euro).
Waar zit het addertje ?
Ik denk dat we iets moois mogen verwachten de komende tijd. Nu de 8800GT een zeer goede prijs/prestatie heeft moet nVidia wel iets achter de hand houden om de verkoop van een 2x zo dure videokaart als de 8800GT verantwoorden
(lees huidige GTX en Ultra)
Geen DX10.1 zoals de ATI tegenhanger straks, maar gewoon DX10 wellicht?Anoniem: 104097 schreef op zaterdag 20 oktober 2007 @ 23:47:
http://forums.vr-zone.com/showthread.php?t=194951
Op zijn zachts gezegd: indrukwekkend, vooral gezien zijn prijskaartje (200-250 euro).
Waar zit het addertje ?
In hoeverre dat echt een nadeel zal worden moet nog blijken, voor nu is het nog niet echt duidelijk (voor mij althans) wat de meerwaarde wordt van 10.1 ten opzichte van 10.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
De 8800GT heeft ook DX10.1 support. DX10.1 zal worden wat DX10.0 eigenlijk had moeten zijn.Illidan schreef op zondag 21 oktober 2007 @ 14:01:
[...]
Geen DX10.1 zoals de ATI tegenhanger straks, maar gewoon DX10 wellicht?
In hoeverre dat echt een nadeel zal worden moet nog blijken, voor nu is het nog niet echt duidelijk (voor mij althans) wat de meerwaarde wordt van 10.1 ten opzichte van 10.
Volgensmij had die dat juist niet.leonpwner1 schreef op zondag 21 oktober 2007 @ 14:06:
[...]
De 8800GT heeft ook DX10.1 support. DX10.1 zal worden wat DX10.0 eigenlijk had moeten zijn.
Het addertje nummer 2 is de 256bit bus, die hem nekt op hoge reso met veel AA.
Audi S3
Nee dat valt juist dus mee volgens de vr-zone link. Vandaar de vraag: "waar zit het addertje?"MexxT schreef op zondag 21 oktober 2007 @ 14:11:
[...]
Volgensmij had die dat juist niet.
Het addertje nummer 2 is de 256bit bus, die hem nekt op hoge reso met veel AA.
Bijna net zo snel als een GTX maar voor de helft van de prijs...
^in theorie zou dat idd het geval zijn, In praktijk is dat nog maar de vraag, ik wacht geduldig de eerste benchmarks af
{\/}/-\[) [_[ \/(-© - Turn off your mind, relax and float downstream. Volg mijn disease outbreak detective en andere geweldige Avonturen
Hoeft niet persee dat er een addertje in die kaart zit, hij is gewoon goedkoper te produceren door een kleine productie procédé (65nm ofzo?) en een kleinere geheugeninterface.Gurneyhck schreef op zondag 21 oktober 2007 @ 14:15:
[...]
Nee dat valt juist dus mee volgens de vr-zone link. Vandaar de vraag: "waar zit het addertje?"
Bijna net zo snel als een GTX maar voor de helft van de prijs...
[ Voor 4% gewijzigd door Avalaxy op 21-10-2007 14:26 ]
maar dan, wie gaat zo'n dure oude gtx dan nog kopen?leonpwner1 schreef op zondag 21 oktober 2007 @ 14:25:
[...]
Hoeft niet persee dat er een addertje in die kaart zit, hij is gewoon goedkoper te produceren door een kleine productie procédé (65nm ofzo?) en een kleinere geheugeninterface.
Intel E6850@3,6Ghz ,GEIL 4 Gig pc800, MSI 8800GTX OC,Tagan 700W,raptor x 150gig,seagate 500gig,asus p5n32-e SLI plus, X-fi extremegamer, logitech z5450 speakerset, Coolermaster Stacker silver
De mensen die een tijdje geleden ook bereid waren om 700 euro weg te gooien voor een 8800GTX Ultradarkphoenix schreef op zondag 21 oktober 2007 @ 14:35:
[...]
maar dan, wie gaat zo'n dure oude gtx dan nog kopen?
Oké en nu even serieusleonpwner1 schreef op zondag 21 oktober 2007 @ 14:37:
[...]
De mensen die een tijdje geleden ook bereid waren om 700 euro weg te gooien voor een 8800GTX Ultra
De GTX is 200 euro duurder zoals het er nu naar uitziet en de ultra zo'n 350 euro...
Je hebt bijna die GT's in SLI voor de prijs van een GTX!
Is het misschien mogelijk dat de GTX door één of andere driver een major boost krijgt?
Denk het niet, volgens mij wordt er al bijna het maximale uit de kaart geperst, want ondanks de 384-bit geheugeninterface kan hij de HD2900XT voorblijven. Er zijn (zo ver ik weet) ook geen extra streamprocessors die ze ineens nog kunnen activeren enzo, ik verwacht niet dat er nog grote boosts komen voor de GTX. Of er een opvolger komt weet ik niet, misschien iets in de vorm van G90 wat dan een kaart wordt met een 512-bit geheugeninterface ofzo?Gurneyhck schreef op zondag 21 oktober 2007 @ 14:39:
[...]
Is het misschien mogelijk dat de GTX door één of andere driver een major boost krijgt?
8800GT heeft geen DX10.1 support.leonpwner1 schreef op zondag 21 oktober 2007 @ 14:06:
[...]
De 8800GT heeft ook DX10.1 support. DX10.1 zal worden wat DX10.0 eigenlijk had moeten zijn.
'You like a gay cowboy and you look like a gay terrorist.' - James May
Anoniem: 226494
De nieuwe gt/gts worden heus niet sneller dan de gtx of ultra. Aners hadden ze ook wel een andere benaming gehad
Ik denk juist dat de nieuwe 8800gts veel sneller gaat zijn dan de 8800gtx.Ik wil benchmarks zien
Elke DX10 kaart heeft DX10.1 support, het heeft alleen niet het nieuwe SM en AA/FP grut, wat dus eigenlijk al op DX10 kaarten en in DX10 drivers had moeten zitten.
Als marketing trucje kan dit nu al van belang zijn. Wat doe je straks als consument als blijkt dat de 8800GT en de RV670 ongeveer hetzelfde kosten en even snel zijn? Dan begin je te kijken naar andere zaken zoals stroomverbruik, DX10/DX10.1, levertijd van de kaart en ga zo maar door.Anoniem: 159816 schreef op zondag 21 oktober 2007 @ 15:40:
[...]
Tegen de tijd dat dat van belang gaat zijn ben je al weer toe aan een nieuwe kaart.
Ryzen 9 9950X3D, ASRock X870E Tachi Lite, Arctic Liquid Freezer III 420, Kingston Fury Beast DDR5 6400, Powercolor Red Devil 9070XT, Crucial T700 2TB, FSP Hydro Ti Pro 1000W, BeQuiet 802
Denk het niet, ik denk dat jij de gemiddelde consument zwáár overschatIllidan schreef op zondag 21 oktober 2007 @ 16:39:
[...]
Als marketing trucje kan dit nu al van belang zijn. Wat doe je straks als consument als blijkt dat de 8800GT en de RV670 ongeveer hetzelfde kosten en even snel zijn? Dan begin je te kijken naar andere zaken zoals stroomverbruik, DX10/DX10.1, levertijd van de kaart en ga zo maar door.
Dat denk ik niet, aangezien het meer een uitbreiding van de huidige DX10 is, developers kunnen makkelijk die extra functies toevoegen.Anoniem: 159816 schreef op zondag 21 oktober 2007 @ 15:40:
[...]
Tegen de tijd dat dat van belang gaat zijn ben je al weer toe aan een nieuwe kaart.
@Hierboven
Dat denk ik niet hoor. Mensen kijken juist heel veel naar functies. En het is mooi als marketing te gebruiken. Product Y wel, product X niet.
[ Voor 18% gewijzigd door Phyxion op 21-10-2007 16:53 ]
'You like a gay cowboy and you look like a gay terrorist.' - James May
De gemiddelde consument weet echt niet wat al die termen betekenen, "SM3.0? Wat is dat nou weerFnF schreef op zondag 21 oktober 2007 @ 16:50:
[...]
@Hierboven
Dat denk ik niet hoor. Mensen kijken juist heel veel naar functies. En het is mooi als marketing te gebruiken. Product Y wel, product X niet.
Ze kijken meestal naar het merk, de kloksnelheid (bij processors) en de hoeveelheid geheugen (videokaarten), en dat maakt een videokaart 'goed'
DX10.1 tegen DX10.0 snappen ze wel hoor, hoger is altijd beterleonpwner1 schreef op zondag 21 oktober 2007 @ 16:56:
[...]
De gemiddelde consument weet echt niet wat al die termen betekenen, "SM3.0? Wat is dat nou weer"
Ze kijken meestal naar het merk, de kloksnelheid (bij processors) en de hoeveelheid geheugen (videokaarten), en dat maakt een videokaart 'goed'
'You like a gay cowboy and you look like a gay terrorist.' - James May
Waneer komt het software gedeelte van DX10.1 eigenlijk? Dus zeg maar de update van Microsoft?
Volgens mij is Service Pack 1 voor Vista een vereiste om gebruik te maken van DirectX10.1, dus met de release date daarvan zal DX10.1 ook wel in zicht komen.The Source schreef op zondag 21 oktober 2007 @ 17:01:
Waneer komt het software gedeelte van DX10.1 eigenlijk? Dus zeg maar de update van Microsoft?
edit: damn u, Hacku
[ Voor 3% gewijzigd door Avalaxy op 21-10-2007 17:02 ]
laatste waren toch 163.75? nu ineens naar de 167?biobak schreef op zondag 21 oktober 2007 @ 19:16:
Forceware Vista x86 167.26 beta
Nog niet getest overigens.
Ja, dit zijn drivers voor de komende 8800GT.PainkillA schreef op zondag 21 oktober 2007 @ 19:26:
[...]
laatste waren toch 163.75? nu ineens naar de 167?
Ik heb last van knipperende textures in TF2. Ik ga weer terug naar 163.75.
[ Voor 15% gewijzigd door biobak op 21-10-2007 19:54 ]
Anoniem: 226494
Dat gaat hij helaas niet want anders had hij wel anders geheten.alikebap schreef op zondag 21 oktober 2007 @ 16:21:
Ik denk juist dat de nieuwe 8800gts veel sneller gaat zijn dan de 8800gtx.Ik wil benchmarks zien
Edit
Wel zal hij minder stroom verbruiken
[ Voor 7% gewijzigd door Anoniem: 226494 op 21-10-2007 20:03 ]
Omdat...?Anoniem: 226494 schreef op zondag 21 oktober 2007 @ 19:58:
[...]
Dat gaat hij helaas niet want anders had hij wel anders geheten.
Het kan gewoon hoor
[ Voor 19% gewijzigd door Avalaxy op 21-10-2007 20:01 ]
Anoniem: 226494
omdat de geheugenbus inkrimt helaas.leonpwner1 schreef op zondag 21 oktober 2007 @ 20:01:
[...]
Omdat...?
Het kan gewoon hoorHet is niet logisch, maar het kan. Overigens denk ik ook wel dat de nieuwe GTS sneller zal worden dan de GTX, vooral als ik zo kijk naar de benchmarks van de GT.
Dit topic is gesloten.
Let op:
Dit is een _Discussie_ topic, geen "stel-hier-je-kleine-vraagjes" topic.
Ook patsen met de overclock op je GeForce7/8 kaart hoort hier niet thuis.
Pats maar met nieuwtjes op het gebied van nVidia!
Dit is een _Discussie_ topic, geen "stel-hier-je-kleine-vraagjes" topic.
Ook patsen met de overclock op je GeForce7/8 kaart hoort hier niet thuis.
Pats maar met nieuwtjes op het gebied van nVidia!