Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
alle notebook GT21x's gebruiken sowieso GDDR5 daarnaast gebruiken de huidige GT2x0 OEM kaarten al GDDR3. zoals eerder hier beschreven krijg je straks een situatie dat de notebook variant gddr5 gebruikt en de desktop variant gddr3CJ schreef op zaterdag 29 augustus 2009 @ 13:46:
De meeste GT21x chips zijn geschikt voor GDDR5. GT215 zal er in ieder geval gebruik van maken, naast configuraties met (G)DDR3.

Miss you CJ....:'( en nee... ik kan niet aan samples komen
Als de desktopvariant een bredere geheugenbus heeft is dat nog niet zo erg; maar ik betwijfel of de desktopmodellen plotseling een dubbel zo brede geheugenbus krijgen als hun laptop-broertjes.neliz schreef op zaterdag 29 augustus 2009 @ 13:51:
[...]
alle notebook GT21x's gebruiken sowieso GDDR5 daarnaast gebruiken de huidige GT2x0 OEM kaarten al GDDR3. zoals eerder hier beschreven krijg je straks een situatie dat de notebook variant gddr5 gebruikt en de desktop variant gddr3
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Zo ver ik weet geen. Misschien dat die 40nm chips van nVidia ook GDDR5 kunnen ? maar anders heeft nV nog geen GDDR5 kaarten.Snorro schreef op zaterdag 29 augustus 2009 @ 12:42:
[...]
Ik heb het artikel ook gelezen en er valt me toch iets op... Welke GT200 chip maakt op dit moment gebruik van gddr5?!
Het zal wel aan mij liggen, want niemand anders zegt er iets over.. Mocht dit zo zijn, mijn excuses, het is gister laat geworden
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
GT21x kunnen allemaal gDDR5.Astennu schreef op zaterdag 29 augustus 2009 @ 19:17:
Zo ver ik weet geen. Misschien dat die 40nm chips van nVidia ook GDDR5 kunnen ? maar anders heeft nV nog geen GDDR5 kaarten.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 304087
Owww boy, je moet niet al die roddels geloven, mensen gaan altijd uit dat roddels 100% waarheid is,SECURITEH schreef op zaterdag 29 augustus 2009 @ 02:16:
Het word zo steeds moeilijker om nVidia zelfs maar serieus te nemen... het is in ieder geval duidelijk dat zij de consument niet serieus nemen.
en ik zeg dat je pas kan oordelen als nvidia zelf iets gaat zeggen, ze zijn heus niet zo dom om niet met iets
goeds en vergelijkbaars (58**) te komen.
Ik zelf wacht gewoon af en ga totaal niet uit op de roddels die bijna nooit waar zijn want dat haald mij soms het bloed onder de nagels vandaan

Hier een stukje wat geen roddel is
Bright Side of News claims the first GT300 samples have departed NVIDIA's engineering labs, and that the first public demonstrations of this DirectX 11 card are expected to take place within a month or so.
But now, we have received words that AIBs are getting time frames forthe demonstrations to their own partners and press, with the firstevents happening in September. The dates are obviously planned to bluntthe katana-sharp market attack from ATI's Radeon 5000 series.
On nVidia's annual gathering of add-in-board manufacturers [happened a while ago], a lot of harsh words were spoken due to renaming policies, OEM positioning and more importantly, how to combat resurgent ATI - it was stated that a lot is expected from the NV70 e.g. GT300 generation.
[ Voor 43% gewijzigd door Anoniem: 304087 op 30-08-2009 11:57 ]
"Dom" zijn ze sowieso niet bij nVidia (ff afgezien van hun questionable marketingtactieken, waarvan ik zelf denk dat het in de long run uiteindelijk tegen je werkt) anders kun je dit soort high tech produkten echt niet maken.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 11:45:
[...]
Owww boy, je moet niet al die roddels geloven, mensen gaan altijd uit dat roddels 100% waarheid is,
en ik zeg dat je pas kan oordelen als nvidia zelf iets gaat zeggen, ze zijn heus niet zo dom om niet met iets
goeds en vergelijkbaars (58**) te komen.
Echter, kan me de Geforce 5800FX nog herinneren......
Ook dat is nVidia weer te boven gekomen en bijv. met de G80 hadden ze weer de duidelijk de lead.
Het blijft een beetje stuivertje wisselen tussen AMD en nVidia.
Het is nu eenmaal zo, zoals al vaker gezegd, dat dit soort chips een lang ontwikkeltraject hebben. Soms heb je geen keus en moet je door met een ontwerp/designfilosofie waarvan je al weet dat het waarschijnlijk zal afleggen tegen de concurrent.
Weinig mensen weten op dit moment zeker hoe het echt uit zal pakken maar alle signalen wijzen erop dat ATI dit keer weer de lead zal hebben.Ik zelf wacht gewoon af en ga totaal niet uit op de roddels
[ Voor 5% gewijzigd door Help!!!! op 30-08-2009 11:59 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Anoniem: 304087
erna los komt, tjah dan is het gewoon weer stuivertje wisselen en mischien wel betere prestaties.
Ik snap niet dat mensen gelijk gaan kopen ipv wachten tot er concurentie is die mischien wel
beter presteerd. Kijk ik doe dat wel want ben echt niet zo dom om gelijk de eerste dx11 kaart te kopen
die op de markt komt want een maandje later is er mischien wel heel wat beters te verkrijgen en dan voel ik mij weer genaaid.
Zelfde geld voor de GT200, gelukkig dat ik ff heb gewacht want het was tog weer de snelste chip op
dat moment
Je zou ook eens kunnen kijken naar de reactie van wat mensen met wat meer background info, hoe zij reageren op Valich's uitlatingen.
De vraag blijft wanneer de GT300 werkelijk beschikbaar komt op de markt, als in koopbaar in een winkel en voor wat voor een prijs. Als de roadmap die CJ gezien heeft klopt, is dat in ieder geval niet dit jaar en loopt nVidia dus niet 1 maand, maar minimaal 3 maand achter.
Anoniem: 304087
sorry maar die roddels geloof ik echt niet no offence.
Je weet zelf tog ook wel dat 99% roddels zijn of geloof je serieus alles wat er
gezecht word ?
Ik zeg verder ook nergens iets over Theo
Je kunt gewoon het beste net als mij doen en gewoon afwachten, en dan zal je zien dast het helemaal anders gaat lopen dan wat er hier over gezegt word, ik ken dit hele gedoe al vanaf dat ik mij bezig hield met nvidia en telkens loopt het tog anders, mij kun je dus moeilijk overtuigen met allerlei speculaties.
Nogmaals ik kijk wat er gaat gebeuren en wil dus niet de fout in gaan door direct de eerste kaart te kopen waar dx11 op zit terwel er mischien wat beter kan komen na een paar maand, deze fout heb ik al eens gemaakt
Verder zegt nvidia zelf al dat de eerste kaarten al klaar zijn dit jaar en pas volgens jaar goed verkoopbaar zijn.
[ Voor 55% gewijzigd door Anoniem: 304087 op 30-08-2009 12:53 ]
Er zijn genoeg mensen die gewoon het snelste van het snelste willen hebben. Als het bijna zeker is dat er een maand later een sneller product op de markt komt zullen ze misschien even wachten maar als het langer kopen ze gewoon de snelste kaart. 3 maanden later kopen ze wel weer een nog snellere kaartAnoniem: 304087 schreef op zondag 30 augustus 2009 @ 12:09:
Ik snap niet dat mensen gelijk gaan kopen ipv wachten tot er concurentie is die mischien wel
beter presteerd.
En om nog even een mod te quoten:
Waarmee ik wil vragen of je je posts even rustig na wil lezen en waar nodig te corrigeren, dat leest voor de rest een stuk fijner.dion_b schreef op maandag 24 augustus 2009 @ 21:50:
En als het aan mij persoonlijk lag zou het schrijven van "toch" als "tog" in dat rijtje thuishoren
Anoniem: 304087
Alsof ik dat na 6 jaar ervaring niet weet, ik bouw al zo lang mijn eigen pc'schimo schreef op zondag 30 augustus 2009 @ 12:23:
[...]
Tja, welkom bij computers, het gras is altijd groener.. etc.
http://www.hardware.info/nl-NL/usersys/cnBxYZ1nk2Wd/view/

[ Voor 8% gewijzigd door Anoniem: 304087 op 30-08-2009 13:01 ]
Je weet helemaal niet hoe deze business in elkaar steekt. nVidia zegt wat tegen haar partners - bijvoorbeeld Asus - ergens in Taiwan, en de top Asus Nederland krijgt deze informatie via hun wel te horen. En sommige mensen hier zijn wel eens goed bevriend met de top Nederland, en krijgen dat wederom van hun te horen.Man denk je nou echt nvidia aan een hollander dingen gaat vertellen,
Als de concurrentie pas een half jaar later komt - of iig niet meer dit jaar - dan zie ik niet in waarom je zou wachten, als je net nu een nieuwe pc nodig hebt? Je kan wachten, maar tegen dan kan AMD met weer wat nieuws op de markt komen. Ga je dan weer wachten? Je kan blijven uitstellen, maar dat ga je niet doen als je die pc echt nodig hebt.Ik snap niet dat mensen gelijk gaan kopen ipv wachten tot er concurentie is die mischien wel
beter presteerd.
Als je het nieuws een beetje volgt moet je inmiddels wel weten dat er een maand later niks beters komt.Kijk ik doe dat wel want ben echt niet zo dom om gelijk de eerste dx11 kaart te kopen
die op de markt komt want een maandje later is er mischien wel heel wat beters te verkrijgen en dan voel ik mij weer genaaid.
En hoe weet je dat dit geen stukje roddel is?Hier een stukje wat geen roddel is
Anoniem: 304087
Tot nu toe altijd nog gedaan en heb op dat moment ook wat ik graag zou willen hebben
en dan doe ik daar weer een jaar of zelfs langer mee zoals wat ik nu heb
Edit
Dat er een maand later nog niet skomt weet ik wel maar ik kan zo lang wel wachten,
en dat ga ik dus ook doen want ik wil graag weten welke opties er meer zijn en van daar uit
ga ik pas overwegen wat ik ga kopen, of te wel met een gezond verstand iets kopen en niet
het eerste wat er op de markt word gebracht Dat laat ik wel over aande mensen die materiallistisch
denken en doen
[ Voor 46% gewijzigd door Anoniem: 304087 op 30-08-2009 13:10 ]
Je zegt dat Theo Valich gelijk heeft en iemand als Charlie slechts roddels de wereld in gooit. Charlie mag dan niet echt vriendelijk zijn tegen/over nVidia, dat betekent nog niet dat hij geen idee heeft wat er in het wereldje om gaat (het is namelijk zijn beroep om dat te weten en verder is het geen Nederlander).Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 12:47:
Man denk je nou echt nvidia aan een hollander dingen gaat vertellen,
sorry maar die roddels geloof ik echt niet no offence.
Je weet zelf tog ook wel dat 99% roddels zijn of geloof je serieus alles wat er
gezecht word ?
Ik zeg verder ook nergens iets over Theo
...
Verder zegt nvidia zelf al dat de eerste kaarten al klaar zijn dit jaar en pas volgens jaar goed verkoopbaar zijn.
Verder, waarom zou een 'hollander' niet kunnen weten wat er afspeelt? Als het zijn beroep is om er mee bezig te zijn, of als hij zijn connecties heeft, waarom zou een hollander dan geen echte feiten kunnen hebben?
Verder zegt nVidia inderdaad dat ze dit jaar wat kaarten zullen hebben. Alle dingen die gemeld zijn door de mensen van wie jij zegt dat het slechts roddels zijn (inclusief die hollanders) geven ook aan dat dit mogelijk is, waarbij gesteld wordt welke risico's nVidia heeft genomen om dat nog voor elkaar te krijgen.
Anoniem: 304087
kan ik een oordeel geven, laat voor de rest alle speculaties maar achterwege wat dat brenkt meer
gezeur dan echte info.
Volgens mij is trouwes het grootste gedeelte hier anti nvidia (en dat alleen om de prijs en onduidelijkheid hahaha) en ook mede daarom gaan deze mensen graag alleen slechte dingen posten over nvidia.
[ Voor 67% gewijzigd door Anoniem: 304087 op 30-08-2009 13:14 ]
Een maand zou je inderdaad nog kunnen wachten, maar zoals gezegd: als je het nieuws gevolgd hebt dan weet je dat de kans erg klein is dat nVidia dit jaar niet met een DirectX 11 GPU komt.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 13:04:
Jeps ik wacht altijd minimaal een paar maand en niet langer tot ik wat koop
Tot nu toe altijd nog gedaan en heb op dat moment ook wat ik graag zou willen hebben
en dan doe ik daar weer een jaar of zelfs langer mee zoals wat ik nu heb
En ik denk niet dat mensen nu nog langer gaan wachten met de aanschaf van een nieuwe computer. Straks (eind oktober) is het ideale moment om te upgraden:
1. Core i5 750 / Core i7 860 zijn dan prima verkrijgbaar. Prijs/prestatie verhouding van het socket 1156 platform is een klap beter dan de Core i7 920.
2. DirectX 11 GPU's van AMD op de markt.
3. Windows 7 op de markt.
Het ideale moment om de upgraden als je hierop gewacht hebt
Nu is dit niet echt nieuws, maar had je dit andersom ook gedaan?Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 13:04:
Jeps ik wacht altijd minimaal een paar maand en niet langer tot ik wat koop
Tot nu toe altijd nog gedaan en heb op dat moment ook wat ik graag zou willen hebben
en dan doe ik daar weer een jaar of zelfs langer mee zoals wat ik nu heb
Edit
Dat er een maand later nog niet skomt weet ik wel maar ik kan zo lang wel wachten,
en dat ga ik dus ook doen want ik wil graag weten welke opties er meer zijn en van daar uit
ga ik pas overwegen wat ik ga kopen, of te wel met een gezond verstand iets kopen en niet
het eerste wat er op de markt word gebracht Dat laat ik wel over aande mensen die materiallistisch
denken en doen
Anoniem: 304087
Ik ben het er trouwens niet mee eens dat de core i7 slechter zou zijn dan de core i5 gezien de echte
reviews op hwi en hier.
Verder is het ook zeer duidelijk dat sli en cf een stuk beter werken op een 1366 socket
en dat maakt het allemaal wel weer goed
Anoniem: 304087
Umm jah want ik ben geen fanboy ofzo als jij dat denkt en doelloos het eerste en het bese koopt, ik had zelf nu veel liever 2hd4890 oc gehad bvb en de kan is ook groot dat als nvidia niet aan mijn eissen voldoet overPaprika schreef op zondag 30 augustus 2009 @ 13:16:
[...]
Nu is dit niet echt nieuws, maar had je dit andersom ook gedaan?(als nVidia een maand, misschien 2, 3 of zelfs 4 maanden eerder zou zijn dan ATi).
6 maand koop ik als nog een HD58** SERIE die weer beter/sneller/koeler is dan de eerste HD58** van bvb november om maar wat op te noemen
Nee? Ik zei je net waarom dat wel zo is. De Core i5 schakelt in turbo modus hoger dan de Core i7 920 én het hele platform is een stuk goedkoper. Vooral in games merk je dit.Ik ben het er trouwens niet mee eens dat de core i7 slechter zou zijn dan de core i5 gezien de echte
reviews op hwi en hier.
Anoniem: 304087
ik klock zowiso al zwaar over en maak daarbij geen gebruik van een turbo modus en al die onzin.
Die turbo modus heeft iig meer nadelen dan voordelen voor de diehard overklokker teminsste met de core i7 is
dat zo
Verder weet ik niet of sli en cf een prestatie winst krijgen op de core i5 zoals de core i7
Ik denk trouwens dat dit niet door de proc komt maar door het mobo zelf de techniek er van.
Die core i5 is puur sneller in game's om dat deze standaard een hogere freq draait,
maar goed hier kijk ik niet zo naar want ik draai standaard 4000-4500 mhz
[ Voor 60% gewijzigd door Anoniem: 304087 op 30-08-2009 13:36 ]
Wordt ook nergens gezegd, Core i7 is altijd beter dan de Core i5 op gelijke kloksnelheid want een Core i5 heeft geen HT en een Core i7 wel.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 13:18:
Ik ben het er trouwens niet mee eens dat de core i7 slechter zou zijn dan de core i5 gezien de echte
reviews op hwi en hier.
Ene echte reviews op HWI en hier.

[ Voor 8% gewijzigd door -The_Mask- op 30-08-2009 14:02 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Het punt van Hacku dat je in oktober wel leuk een hele nieuwe upgrade kunt doen van i5/i7 op een socket1156 (P55) moederbord, in combinatie met een HD5870 en Windows 7 staat weldegelijk. Zoals het er nu naar uit ziet, kan nVidia op dat moment namelijk nog geen DX11 kaarten leveren, waardoor AMD toch een hele grote ruimte heeft om zijn kaarten af te zetten.
Verder, als je een half jaar wacht na de release van de HD5870, is de kans groot dat er al weer een refresh aan zit te komen. Ga je daar dan ook weer op wachten? Of op de refresh van nVidia die weer een paar maanden later uit komt?
Anoniem: 304087
tot nu toe heb ik dat altijd gedaan en had dan op dat moment ook het snelste
Het maak mijn verder niet uit van welk merk of fabriekant het is
Anoniem: 304087
Jah hwi had hem tog laatst zelf getest? Teminste als ik goed heb opgelet?-The_Mask- schreef op zondag 30 augustus 2009 @ 13:44:
[...]
Wordt ook nergens gezegd, Core i7 is altijd beter dan de Core i5 op gelijke kloksnelheid want een Core i5 heeft geen HT en een Core i7 wel.
Ene echte reviews op HWI en hier.
Edit
Laat maar vergis mij met andere reviewers
[ Voor 6% gewijzigd door Anoniem: 304087 op 30-08-2009 14:38 ]
Nee, dat is het helemaal niet, op dit moment is er gewoon geen goede informatie over nvidia te krijgen,Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 13:08:
Volgens mij is trouwes het grootste gedeelte hier anti nvidia (en dat alleen om de prijs en onduidelijkheid hahaha) en ook mede daarom gaan deze mensen graag alleen slechte dingen posten over nvidia.
aangezien de productie van de GT300 enorm tegen valt en ATi zijn kaarten ondertussen al zo goed als de deur uit aan het doen is. Verder komen ze weer met achterlijke rebrands, ze maken het er gewoon zelf na.
Anoniem: 304087
te zeggen eingelijk, ze doen het op hun manier zoals ati op hun manier.
Anoniem: 159816
Wat bedoel je?Anoniem: 159816 schreef op zondag 30 augustus 2009 @ 14:48:
Heeft iemand ergens een overzicht van de verschillende stappen van de core en shader clocks van een GTX260 216?
VR-zone vat het eens samen:
[Rumour] Nvidia may rebrand GT 200 parts to 300
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 159816
Je kan niet per mhz omhoog clocken.-The_Mask- schreef op zondag 30 augustus 2009 @ 15:41:
[...]
Wat bedoel je?
VR-zone vat het eens samen:
[Rumour] Nvidia may rebrand GT 200 parts to 300
Zie bijv ingestelde shader clock en werkelijke shader: http://tweakers.net/ext/f/mMxGzu4kaf88fVX9kMCPMHDG/full.png
Heb toevallig daar core precies goed staan, maar als ik 'm op 735 zou zetten zou hij ook weer naar 734 gaan.
[ Voor 15% gewijzigd door Anoniem: 159816 op 30-08-2009 17:00 ]
En laat nou toevallig de manier van nVidia bij veel mensen in het verkeerde keelgat schieten... Je moet toegeven dat het eindeloos rebranden van producten geen alternatief is voor het introduceren van nieuwe producten. Daarnaast heeft nVidia gewoon enorme pech met de vertraging die GT300 heeft opgelopen. Hierdoor lijkt de korte-termijn toekomst voor AMD een stuk zonniger dan die van nVidia, daar moet je het wel mee eens zijn.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 14:41:
'Jah maar nvidia moet tog wel zelf weten wijt hun doen lijkt mij, daar hebben wij helemaal niets over
te zeggen eingelijk, ze doen het op hun manier zoals ati op hun manier.
Verder is het niet erg om een voorkeur voor een bepaalde fabrikant te hebben, onderbouwd of niet, maar je moet dat wel toe kunnen geven.
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Anoniem: 59888
En het staat "ons" als klanten vrij om daar een mening over te hebben en dat eventueel mee te nemen in onze keuze bij het kopen van een videokaart. Persoonlijk ben ik al langer niet gelukkig met dit soort zaken en heb ik mede daarom een lichte voorkeur voor ATi. Dat wil zeggen dat ik alleen nVidia koop als ze een veel snellere kaart hebben, bij gelijke prestaties ga ik voor ATi. Uiteraard mag ieder dat zelf weten, maar zoals TGEN ook al zegt, wees daar dan eerlijk in. Ik kan me eerlijk gezegd niet aan de indruk onttrekken dat jij een vrij sterke voorkeur voor nVidia hebt, maar ik kan er natuurlijk naast zitten.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 14:41:
'Jah maar nvidia moet tog wel zelf weten wijt hun doen lijkt mij, daar hebben wij helemaal niets over
te zeggen eingelijk, ze doen het op hun manier zoals ati op hun manier.
Het is je al eens eerder gevraagd maar dat sorteerde geen resultaat dus daarbij bij deze nogmaals: je spelling en grammatica fouten maken je posts lastig om te lezen. Als je ze na het typen nog eens over zou lezen en corrigeren waar nodig, zou je de anderen hier daar een plezier mee doen.
*Zucht*Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 13:08:
Volgens mij is trouwes het grootste gedeelte hier anti nvidia (en dat alleen om de prijs en onduidelijkheid hahaha) en ook mede daarom gaan deze mensen graag alleen slechte dingen posten over nvidia.
Omdat het over grote deel het niet eens is met jouw betekend niet dat wij allemaal tegen nVidia zijn.
Hoe jij over de bronnen etc. hier denk word over het algemeen niet gedeeld, en leuk voor jouw dat jij het niet gelooft en liever af wacht... doe dat dan en val geen mensen lastig met het constant roepen dat zij dat ook zouden doen ipv. een 2 pagina lange zinloze discussie hier over hebben.
Mee eens, echter is er ook een persoon in dit topic welke constant de foute werkwijze van Nvidia zit te bashen.SECURITEH schreef op zondag 30 augustus 2009 @ 17:57:
[...]
*Zucht*
Omdat het over grote deel het niet eens is met jouw betekend niet dat wij allemaal tegen nVidia zijn.
Hoe jij over de bronnen etc. hier denk word over het algemeen niet gedeeld, en leuk voor jouw dat jij het niet gelooft en liever af wacht... doe dat dan en val geen mensen lastig met het constant roepen dat zij dat ook zouden doen ipv. een 2 pagina lange zinloze discussie hier over hebben.
Vrij irritant om dat continue te lezen, vooral omdat hij zich continue als een betweter gedraagt, hoewel die persoon dat overal doet als het in topic's over nVidia gaat.
Dat bedoel je maar waarom wil je dat weten je kunt het toch gewoon zien.Anoniem: 159816 schreef op zondag 30 augustus 2009 @ 16:59:
[...]
Je kan niet per mhz omhoog clocken.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
Ach beide frabriekanten komen gewoon weer met kaarten voor iederepo schreef op zondag 30 augustus 2009 @ 18:52:
[...]
Mee eens, echter is er ook een persoon in dit topic welke constant de foute werkwijze van Nvidia zit te bashen.
Vrij irritant om dat continue te lezen, vooral omdat hij zich continue als een betweter gedraagt, hoewel die persoon dat overal doet als het in topic's over nVidia gaat.
[ Voor 40% gewijzigd door Anoniem: 304087 op 30-08-2009 20:37 ]
Anoniem: 171689
Kleine tip: Werk aan je punctuatie en grammatica. Woorden zoals ''tog'' in plaats van ''toch'' vind ik toch echt tenenkrommend om te lezen.Anoniem: 304087 schreef op zondag 30 augustus 2009 @ 20:31:
[...]
Ach beide frabriekanten komen gewoon weer met kaarten voor ieder
Anoniem: 304087
er tog niets aan want dat vind ik nodig want je weet gewoon wat er staat zoeits zeg je ook tegen mij
via een pm en niet openbaar waar ik weer last van heb
Anoniem: 134818
Anoniem: 304087 schreef op maandag 31 augustus 2009 @ 11:12:
Ach ik kan er niets aan doen dat ik dislecties ben, gewoon niet zo op letten want ik verander
er tog niets aan want dat vind ik nodig want je weet gewoon wat er staat zoeits zeg je ook tegen mij
via een pm en niet openbaar waar ik weer last van heb
Ik ben ook dyslectisch en je kan er zeer zeker wel wat aan doen. Heel simpel, installeer een spellingcontrole in je browser. Dan kan je zien wat je fout typt en geeft de hij ook de juiste schrijfwijze.
Maar waar zijn je punten en komma's dan, die kan je toch wel plaatsenAnoniem: 304087 schreef op maandag 31 augustus 2009 @ 11:12:
Ach ik kan er niets aan doen dat ik dislecties ben, gewoon niet zo op letten want ik verander
er tog niets aan want dat vind ik nodig want je weet gewoon wat er staat zoeits zeg je ook tegen mij
via een pm en niet openbaar waar ik weer last van heb
Anoniem: 304087
Zelfs op school kreeg ik eerder daar geen kommetaar op, maar dat zal wel komen omdat het maar vbo-mbo was
De meeste mensen deugen!
Een spellingschecker is zeker een goed idee, daarmee neem je jezelf in bescherming en het voorkomt aan beide kanten ergernissen.. En laten we eerlijk zijn, steeds aangesproken worden op je spelvauten, daar wordt je niet echt vrolijk van..
Laten we daar over op houden idd.Da_DvD schreef op maandag 31 augustus 2009 @ 11:45:
'Tog' is juist een goed voorbeeld van dyslectie, een ander woord voor dyslectie is nl. woordblindheid. Omdat 'toch' en 'tog' precies hetzelfde klinken weet een dyslectisch persoon niet welke schrijfwijze juist is.
Een spellingschecker is zeker een goed idee, daarmee neem je jezelf in beschermking en het voorkomt aan beide kanten ergernissen.. En laten we eerlijk zijn, steeds aangesproken worden op je spelvauten, daar wordt je niet echt vrolijk van..
Misschien is het een idee om Firefox 3.5 te nemen? Zit standaard een goede spelling checker in welke mij zelf zeer goed bevalt.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
We hebben al vroeger gezien dat sommige grafische kaarten (ati's geloof ik) gelukkig waren met minder bandbreedte.
Ik meen mij zelf te herrineren dat bij de huidige kaarten de bandbreedte totaal niet de bottleneck is bij Ati.
Natuurlijk past deze bandbreedte dan weer wel perfect in de strategie van nVidia:
Massale parallelle berekeningen uitgevoerd door je gpu door middel van CUDA en OpenCL.
Voor zo'n doel kan je wel enorm veel bandbreedte gebruiken.
De vraag die je je weeral eens kan stellen is of nVidia niet daarop teveel focust? Een gpu wordt momenteel nog steeds hoofdzakelijk gebruikt om te gamen. Dat het de taken van je cpu efficienter kan overnemen is nice, maar tot nu steeds een gimmick gebleven buiten paar handige implemenaties (coreavc). En juist bv coreavc heeft zelf voldoende aan een 8200 igp om zijn werk te doen.
Kort samengevat denk ik dat een grafische kaart gefocust op iets anders dan gamen misschien wel nice is, maar meer iets voor de quadro reeks is en niet voor de mainstream Geforce reeks.
Ik stel ook voor dat we dit topic weer gaan gebruiken voor nieuws feiten van nVidia. De laatste paar pagina's waren eerder een refreshing van dingen die al 100 keer zijn gepasseerd geweest of totaal naast het doel van dit topic zaten. Het had soms zelf eerder de neiging van een slow chat. Hiervoor stelt tweakers een irc server ter beschikking
Daarnaast zijn spellingsfouten misschien ergerlijk voor diegene die het lezen. Maar ik vind "spellingscorrecties" in een forum even ergerlijk. Een klein berichtje naar de poster en een eventuele edit van de post kunnen wonderen doen zonder dat andere mensen hiermee geconfronteerd worden.
Of in hoeverre die bandbreedte echt nodig is.lightdestroyer schreef op maandag 31 augustus 2009 @ 12:59:
De hamvraag is natuurlijk hoe efficient die bandbreedte zal gebruikt worden.
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Inderdaad. Elke generatie Radeon's gaat weer efficienter om met de beschikbare bandbreedte. Je ziet ook dat ATi kaarten relatief minder inzakken bij extreem hoge resolutie + 8xAA.lightdestroyer schreef op maandag 31 augustus 2009 @ 12:59:
De hamvraag is natuurlijk hoe efficient die bandbreedte zal gebruikt worden. We hebben al vroeger gezien dat sommige grafische kaarten (ati's geloof ik) gelukkig waren met minder bandbreedte. Ik meen mij zelf te herrineren dat bij de huidige kaarten de bandbreedte totaal niet de bottleneck is bij Ati.
Trouwens, De HD2900XT had voor zijn tijd een gigantische sloot bandbreedte, maar maakte daar nauwelijks gebruik van omdat de core eenvoudigweg niet snel genoeg was. Misschien geldt voor de GT300 wel hetzelfde..
Correct me if i'm wrong, maar volgens mij zijn CUDA berekeningen juist minder bandbreedte intensief dan grafisch werk. De verwerkingseenheden zijn langer met de data bezig (grotere complexiteit) dan bij grafische workloads. Vergelijk het met een CPU. Het idee van een CPU is dat hij goed is in complexe berekeningen uitvoeren met relatief weining data. Een typische GPU voert grote hoeveelheden simpele berekeningen uit met grote hoeveelheden data. Met de introductie van CUDA gaat de GPU meer op een CPU lijken.. (en met de introductie van multicore gaan CPU's meer op GPU's lijken.)Natuurlijk past deze bandbreedte dan weer wel perfect in de strategie van nVidia:
Massale parallelle berekeningen uitgevoerd door je gpu door middel van CUDA en OpenCL.
Voor zo'n doel kan je wel enorm veel bandbreedte gebruiken.
[ Voor 6% gewijzigd door Da_DvD op 31-08-2009 16:21 ]
Anoniem: 304087
http://www.pcgameshardwar...-event-in-September/News/
Nvidia GT300 pre launch event in September?
Nvidia possibly wants to outpace AMD and introduce the GT300 on a pre launch demonstration in September.
Nvidia GT300 pre launch event in September? [Source: view picture gallery]While the RV870 is apparently ready to go, Nvidia hasn't revealed much details of the GT300 yet. But this could change soon, since it seems like the Geforce creators don't want AMD to get all the fame for the next gen GPUs. According to brightsideofnews.com Nvidia will introduce the GT300 in late September to selected people (graphics card manufacturers and press).
Given that fact that this presentation is most likely to be a pre release event it will take some time after before the first GT300 devices will hit the retail markets
http://www.brightsideofne...s-for-late-september.aspx
Die is ook al meerdere keren gepost. Dus nieuws kan je het niet echt noemen
Anoniem: 304087

[ Voor 9% gewijzigd door chim0 op 31-08-2009 20:23 ]
mensen moeten zo langzamerhand verder gaan vind ik, Het is een oud spel die nooit al zo goed was. 't houd alleen maar vooruitgang tegen vind ik.
Mijn oude GTX260 (XT versie met 216 cores) trok het iig niet met die instellingen in drukke scenes.. nee wacht, was zelfs op 8x CSAA, niet eens 16x CSAAspNk schreef op maandag 31 augustus 2009 @ 22:24:
Ik vraag me af, of mijn oude 9800XT daar moeite mee heeft....
Waarom? Een spel speel je om het spel, niet om naar mooie plaatjes te kijken, dan huur ik wel een blu-ray filmpje en trouwens, CS ziet er prima uit als je alles op z'n hoogst zet met 16x QCSAAtomcatha schreef op maandag 31 augustus 2009 @ 22:35:
verdomme counter strike,
mensen moeten zo langzamerhand verder gaan vind ik, Het is een oud spel die nooit al zo goed was. 't houd alleen maar vooruitgang tegen vind ik.
Volgens mij is CS nog steeds de meest populaire shooter, tot nu toe kan er niks aan tippen qua gameplay en originalitiet. Ik zit een beetje te kijken naar nieuwe games maar het is allemaal hetzelfde, niks boeiends als je het mij vraagt, ziet er prachtig uit maar gameplay is 13-in-een-dozijn..
Anoniem: 304087
Ik zelf kies daar ook voor maar het moet wel spleelbaar blijven
Edit
Hierboven
Met Vsync heeft hij niet continu 100fps

[ Voor 18% gewijzigd door Anoniem: 304087 op 01-09-2009 08:47 ]
Anoniem: 134818
Vsync heeft niets met eye candy te maken.Anoniem: 304087 schreef op dinsdag 01 september 2009 @ 08:44:
Waarom? Omdat er ook mensen zijn die veel eye candy willen hebben tijdens het gamen
Ik zelf kies daar ook voor maar het moet wel spleelbaar blijven
Met Vsync heeft hij niet continu 100fps
Lekker belangrijk, wat geeft die 40fps voor voordeel? Kan je hoger springen? Sneller lopen? Of is het puur een placebo effect.
[ Voor 22% gewijzigd door Anoniem: 134818 op 01-09-2009 08:48 ]
Anoniem: 304087
eingelijk had ik het tegen de man boven jou.
Maar Vsync kan wel degelijk voor een beter beeld zorgen, iig ben je van die strepen af
als je draait met de muis door Vsync
Edit
Tjah ik weet het ook niet ik vind 60fps wel genoeg eingelijk in shooters
[ Voor 15% gewijzigd door Anoniem: 304087 op 01-09-2009 08:51 ]
ik heb het niet over gfx maar over gameplay. Ik vind dat CS(niet zo sterk als starcraft) innovatie in de fps genre qua nieuwe gameplay ideeen tegenhoud.Anoniem: 304087 schreef op dinsdag 01 september 2009 @ 08:44:
Waarom? Omdat er ook mensen zijn die veel eye candy willen hebben tijdens het gamen
Ik zelf kies daar ook voor maar het moet wel spleelbaar blijven
Edit
Hierboven
Met Vsync heeft hij niet continu 100fps
Dan lagt m'n muis in Windows 7, heel raar, dat had ik niet in XP of Vista maar volgens mij moet ik ook opnieuw installeren want hij is inmiddels al 3x geupgrade, nooit schone install gedaan.Anoniem: 134818 schreef op dinsdag 01 september 2009 @ 08:39:
Waarom zet je hem niet gewoon op Vsync.
De GTX260 heb ik niet meer maar daar had ik altijd vsync aan, die 100fps is natte vinger werk, wat ik meer bedoel is een constante framerate en geen drops op drukke momenten en ik merk dat echt wel, als ik gewoon loop en het is 100fps en dan kom je in een battle en hij dropt naar 70 of 60, merk je dat, ik wel iig. Het is gewoon de gameplay, muisbeweging, lagere frames, alles eigenlijk, is lastig uit te leggen maar als je met een constante framerate speelt, speelt dat veel fijner want ik raak uit concentratie als het beeld opeens trager wordt enzo.
Ik weet het, het klinkt gek maar zo ervaar ik het en ik speel dit spel al vanaf het begin dus het zit er hardnekkig ingebakken, soort robot.
Daarom ook steeds dat SLI gezeik, dan denk ik: heb je iif frames genoeg, mocht ie een keer droppen heb je nog steeds genoeg voor een glad en constant beeld en framerate.
[ Voor 7% gewijzigd door chim0 op 01-09-2009 10:04 ]
Ik zie ook niet wat het nut is van meer dan 60 fps, doe een blind test 60 versus 100 en niemand gaat het verschil merken.Anoniem: 134818 schreef op dinsdag 01 september 2009 @ 08:47:
[...]
Vsync heeft niets met eye candy te maken.
Lekker belangrijk, wat geeft die 40fps voor voordeel? Kan je hoger springen? Sneller lopen? Of is het puur een placebo effect.
Wat je wel merkt in snelle shooters is de mouse lag die ontstaat door Vsync. In UT3 ofzo zet ik het daarom niet aan.
anathema
100fps > 60fpsAnoniem: 134818 schreef op dinsdag 01 september 2009 @ 08:47:
[...]
Vsync heeft niets met eye candy te maken.
Lekker belangrijk, wat geeft die 40fps voor voordeel? Kan je hoger springen? Sneller lopen? Of is het puur een placebo effect.
Het verschil tussen 100fps en 60fps merk je echt wel, dat een mens dit niet zou kunnen zien is echt onzin. Een beetje hetzelfde verhaal van de 60hz en 100hz monitors, sommige mensen zien een 60hz wel flikkeren en sommigen niet.
En als je het wel ziet is het dus rete irritant, zelfde geld voor je fps in games.
Als je wedstrijden speelt met een shooter wil je een zo hoog mogelijke fps hebben, bij counterstrike heeft je fps bovendien een directe relatie met de netcode.
[ Voor 25% gewijzigd door gotfurrr op 01-09-2009 10:12 ]
V-sync moet je ook nooit aanzetten als je te weinig fps / op het randje van bv. 60(hz)fps zit, dan word het spul nog trager.
Anoniem: 304087
want dat verschil is er zeer zeker wel vooral in MP games als cod4 merk ik het echter wel en er zijn
veel mesnen die dit merken met MP games, vooral de drops zijn merkbaar want door frame drops (100>60fps)
vertraagt het beeld ook een beetje als je goed op let, en dit kan iritant zijn met mp games
Het heeft allebei wat, vsync aan is mooier beeld maar iets minder frames, vsync uit is minder mooi beeld maar wel hogere frames dus ik denk dat het ook van de game af hangt, bij een shooter liever uit want daar heb je constante actie en snelle beelden en meer baat bij hogere frames dan mooier beeld.
De meeste mensen deugen!
Anoniem: 59888
[ Voor 23% gewijzigd door Anoniem: 59888 op 01-09-2009 13:17 ]
Anoniem: 304087
Dat zijn in de meeste gevallen dwazen. de net-code van de meeste games draait namelijk max op 60fpsAnoniem: 304087 schreef op dinsdag 01 september 2009 @ 13:16:
Apart dat veel mp spelers het wel zien, ik heb het idee dat het zichtbaar is een drop van 100 naar 60
(uitzonderingen daargelaten)
http://developer.valvesof...ce_Multiplayer_Networking
Networking code van Source engine games. Counter Strike source draait op 33 "fps"/ ticks op de server. clients krijgen maar 20 updates per seconde binnen.
[ Voor 24% gewijzigd door neliz op 01-09-2009 13:33 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Er zijn dwazen die dit spel, counterstrike, voor ruim 37k per seizoen speelden op "the cgs". Deze dwazen waren jongelui die met hun grootste hobby een leuk zakcentje verdienden en op tv kwamen. Helaas is door de crises deze organisatie failliet gegaan, maar dit geheel terzijde.neliz schreef op dinsdag 01 september 2009 @ 13:29:
[...]
Dat zijn in de meeste gevallen dwazen. de net-code van de meeste games draait namelijk max op 60fps
(uitzonderingen daargelaten)
http://developer.valvesof...ce_Multiplayer_Networking
Networking code van Source engine games. Counter Strike source draait op 33 "fps"/ ticks op de server. clients krijgen maar 20 updates per seconde binnen.
Deze dwazen speelden counterstrike source op servers met een 100 tickrate, en speelden met minstens 100fps op 60hz lcd monitoren.
Bovengenoemde personen wisten echt wel wat ze aan het doen waren, je kan zeggen wat je wil maar elke gamer die fanatiek wedstrijden speelt (shooters) zal beamen dat je meer dan 60 fps wil hebben.
Bovendien draait de netcode van counterstrike source zowel op 33, 66 als 100tick.
overigens kan je beter een constante 60fps hebben dan een 100fps die vaak naar 60fps dropt idd...
@laatste stuk:
Hieruit blijkt dat je niet zo heel veel weet van CS:S, niet erg ik leg het even uit:
CS:S is standaard geconfigureerd op cl_cmdrate 20 cl_updaterate 30. Dit is een configuratie die tegenwoordig niet eens meer mogelijk is op een normale server, normale waardes zijn cl_cmdrate 100 en cl_updaterate 100.
Terugkerende moraal: 100
[ Voor 18% gewijzigd door gotfurrr op 01-09-2009 13:45 ]
Anoniem: 134818
Begrijp me niet verkeerd, maar ik vind dit gewoon een Ad verecundiam, oftwel autoriteitsdrogreden.Bovengenoemde personen wisten echt wel wat ze aan het doen waren
Alleen omdat ze hun geld er mee verdienen, betekend nog niet dat ze ook daadwerkelijk onderzoek hebben gedaan of het zo is. Lees: Placebo effect/Kracht van suggestie.Bij de drogreden ad verecundiam gebruikt men de (veronderstelde) autoriteit van een externe persoon of instantie als argument voor de juistheid van een bewering. Op zichzelf is het autoriteitsargument geen drogreden. Het steunt echter op een onderliggende, verborgen aanname, namelijk dat spreker en toehoorders de betreffende autoriteit ook als zodanig erkennen. Klopt die verborgen aanname niet, dan is logischerwijs ook het autoriteitsargument niet correct. In dat geval is sprake van een drogreden.
BronBovendien draait de netcode van counterstrike source zowel op 33, 66 als 100tick.
Anoniem: 304087
Jups en daarom is het zwaar ieritant in een gevechtspNk schreef op dinsdag 01 september 2009 @ 13:33:
Een drop van 100 naar 60 zie je wel ja, maar dat komt omdat het een drop is en de frames niet meer netjes om de zoveel ms verschijnen.

Standaard tick=33 cl_update=20. on-line zie je nu veel 66 draaien en in LAN omgevingen 100, maar 100 is haast niet mogelijk in normale online omgevingen.gotfurrr schreef op dinsdag 01 september 2009 @ 13:38:
@laatste stuk:
Hieruit blijkt dat je niet zo heel veel weet van CS:S, niet erg ik leg het even uit:
CS:S is standaard geconfigureerd op cl_cmdrate 20 cl_updaterate 30. Dit is een configuratie die tegenwoordig niet eens meer mogelijk is op een normale server, normale waardes zijn cl_cmdrate 100 en cl_updaterate 100.
Terugkerende moraal: 100
Maar sorry, die cmd en updaterate zijn standaard, wil je nu zeggen dat mijn server nu niet meer draait? oh boy. Dezelfde categorie mensen suggereert dat je met een tickrate van 100 op 500fps draait
Voor de rest zal het allemaal wel. al heb je 1000fps in source je ontvangt nog steeds max iets van 20 tot 60 pakketjes per seconde.
[ Voor 18% gewijzigd door neliz op 01-09-2009 13:54 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Op dat niveau (en om die bedragen) gaat het niet meer alleen om talent, skills en tactics. Het draait ook om alle mogelijke software/hardware tweaks (binnen het toelaatbare) die je net dat kleine beetje extra kunnen geven ten opzichte van de opponent. Want fraggen, dat kunnen ze allemaal wel.
Ik heb het over competitief gamen, in dit geval CS:S. En geloof me, geen enkele server waarop wars worden gespeeld draait nog op 33 of 66 tick. Bovendien worden rates afgedwongen door zblock, dat jouw casual fps servertje wel draait op 33 tick doet daar niets aan af.neliz schreef op dinsdag 01 september 2009 @ 13:50:
[...]
Standaard tick=33 cl_update=20. on-line zie je nu veel 66 draaien en in LAN omgevingen 100, maar 100 is haast niet mogelijk in normale online omgevingen.
Maar sorry, die cmd en updaterate zijn standaard, wil je nu zeggen dat mijn server nu niet meer draait? oh boy.
Een casual gamer zal ook geen verschil zien tussen 60frames en 100 frames, of tussen vsync aan/uit.
Als je echter competitief speelt, telt elke frame en zie je wel degelijk verschil tussen de verschillende rates settings EN je fps.
amen.Snorro schreef op dinsdag 01 september 2009 @ 13:50:
Reinman, heb je enige kennis van pro-gaming?
Op dat niveau (en om die bedragen) gaat het niet meer alleen om talent, skills en tactics. Het draait ook om alle mogelijke software/hardware tweaks (binnen het toelaatbare) die je net dat kleine beetje extra kunnen geven ten opzichte van de opponent. Want fraggen, dat kunnen ze allemaal wel.
Anoniem: 304087
Fout een constante framerate zie je idd niet het verschil tussen 60 en 100 frames per sec, MAAR een drop vangotfurrr schreef op dinsdag 01 september 2009 @ 13:53:
[...]
Ik heb het over competitief gamen, in dit geval CS:S. En geloof me, geen enkele server waarop wars worden gespeeld draait nog op 33 of 66 tick. Bovendien worden rates afgedwongen door zblock, dat jouw casual fps servertje wel draait op 33 tick doet daar niets aan af.
Een casual gamer zal ook geen verschil zien tussen 60frames en 100 frames, of tussen vsync aan/uit.
Als je echter competitief speelt, telt elke frame en zie je wel degelijk verschil tussen de verschillende rates settings EN je fps.
100 naar 60 fps ziet een kip zelfs nog, en Vsync aan of uit ziet iedereen wel, je kunt het zelfs voelen aan het bewegen van de muis, zo erg merkt het wel op
Dit heeft verder ook helemaal niets met een diehard gamer te maken

[ Voor 3% gewijzigd door Anoniem: 304087 op 01-09-2009 14:04 ]
Weet je wel wat een casual gamer is?Anoniem: 304087 schreef op dinsdag 01 september 2009 @ 14:03:
[...]
Fout een constante framerate zie je idd niet het verschil tussen 60 en 100 frames per sec, MAAR een drop van
100 naar 60 fps ziet een kip zelfs nog, en Vsync aan of uit ziet iedereen wel, je kunt het zelfs voelen aan het bewegen van de muis, zo erg merkt het wel op
Dit heeft verder ook helemaal niets met een diehard gamer te maken
Die weten vaak niet eens wat Vsync is of wat het doet en die spelen gerust een spel op 40fps en zeggen dat het vloeiend loopt. Vaak zijn dat ook de mensen die niet eerst de sensitivity of controls naar hun wens in stellen dus zouden ze het daaraan ook niet eens kunnen merken.
Anyways gaan we hier niet wat hard offtopic?
WoT Profile | Noobmeter - kyozu | Youtube channel | Livestream
Als jij jezelf alleen in 'we' ziet wel.Anoniem: 304087 schreef op dinsdag 01 september 2009 @ 14:24:
Was die laatste vraag alleen an mij ?
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Anoniem: 304087
[ Voor 16% gewijzigd door Anoniem: 304087 op 01-09-2009 14:39 ]
"Het steunt echter op een onderliggende, verborgen aanname, namelijk dat spreker en toehoorders de betreffende autoriteit ook als zodanig erkennen."Anoniem: 134818 schreef op dinsdag 01 september 2009 @ 13:42:
[...]
Begrijp me niet verkeerd, maar ik vind dit gewoon een Ad verecundiam, oftwel autoriteitsdrogreden.
[...]
Alleen omdat ze hun geld er mee verdienen, betekend nog niet dat ze ook daadwerkelijk onderzoek hebben gedaan of het zo is. Lees: Placebo effect/Kracht van suggestie.
[...]
Bron
Mijn stukje tekst over de zogenaamde "pro" gamers was bedoeld aan het adres van iemand die deze gamers "dwazen" noemde.
Het hele stukje tekst gaat er dus over dat een van beide partijen de autoriteit van een andere partij niet kent of accepteert, dit betekent ook dat in mijn stukje tekst nooit een verborgen aanname kan zijn verwerkt waarin wordt uitgegaan van een "erkende autoriteit"
Lees in het vervolg even goed en laat je oud germaanse kwinkslagen en wiki wijsheden gewoon in de koelkast staan, daar horen ze immers thuis, discovery channel boefje.
Het gaat om de mensen hier die denken dat 250 fps een verschil maakt in netwerk games met een tick rate van 33, jij sleept de pro-gamers in geoptimaliseerde lan-omgevingen erbij.gotfurrr schreef op dinsdag 01 september 2009 @ 14:45:
Mijn stukje tekst over de zogenaamde "pro" gamers was bedoeld aan het adres van iemand die deze gamers "dwazen" noemde.
eerst lezen
Miss you CJ....:'( en nee... ik kan niet aan samples komen
er is in dit topic nooit gesproken over mensen die denken dat 250fps een verschil maakt in netwerk games bij een tickrate van 33.neliz schreef op dinsdag 01 september 2009 @ 14:47:
[...]
Het gaat om de mensen hier die denken dat 250 fps een verschil maakt in netwerk games met een tick rate van 33, jij sleept de pro-gamers in geoptimaliseerde lan-omgevingen erbij.
eerst lezen
Het ging namelijk om 100fps, dat is 150fps verschil.
Bovendien stelde jij dat CS:S een netcode heeft die op 33 tick draait, dit is gedeeltelijk waar. De netcode draait namelijk op 33, 66 of 100 tick. Dit laatste overigens niet alleen in de door jou zo mooi genoemde "geoptimaliseerde lan-omgevingen".
Check google.com aangaande CS:S netcode, wars en pro-leagues/spelers
[ Voor 7% gewijzigd door gotfurrr op 01-09-2009 14:51 ]
Unreal Tournament stuurt ook maar 18 updates per seconde en de Battlefield engine (2/2142) heeft ook een tick rate van rond de 30.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
quake3 is ook beperkt tot update reates van 10,20 en 40. volgens sommige sites zelfs beperkt to 25 of 30 snaps per seconde.spNk schreef op dinsdag 01 september 2009 @ 15:33:
Dit zijn ook allemaal vrij trage games... quake3 engine based games zijn veel sneller en hierin is het veel belangrijker een goede, stabiele fps rate te hebben.
[ Voor 11% gewijzigd door neliz op 01-09-2009 15:44 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
dan wil ik de specs van je monitor..Anoniem: 304087 schreef op dinsdag 01 september 2009 @ 10:43:
Mee eens hier boven alleen ik ben het er niet mee eens dat je geen verschil ziet tussen 60 fps en 100 fps
want dat verschil is er zeer zeker wel vooral in MP games als cod4 merk ik het echter wel en er zijn
veel mesnen die dit merken met MP games, vooral de drops zijn merkbaar want door frame drops (100>60fps)
vertraagt het beeld ook een beetje als je goed op let, en dit kan iritant zijn met mp games
Als jou monitor 60 Hz is heb je niks aan een FPS boven de 60.. je beeldscherm skipt gewoon de frames..
60 Hz betekent 60 verversingen per seconden als je hierop 100 FPS frames per seconde wil laten zien kan dat gewoon niet hij vergeet er gewoon 40 te laten zien.. (is je monitor 100 Hz dan zul je het verschil wel merken idd al is dit erg minimaal en niet echt heel erg doorslaggevend in shooters..)
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
anathema
Zouden jullie misschien een CS:S Topic willen aanmaken
Ik ben er redelijk van overtuigd dat hogere fps beter zijn, in welk spel dan ook en zeker in first person shooters maar bijvoorbeeld zelf in een mmorpg gelijk runes of magic.. Spijtig genoeg ben ik er ook redelijk van overtuigd dat dit niet een specifiek nVidia issue is
In ieder geval ik zal dus vanavond als ik de tijd heb dus maar beginnen aan deel 38 van dit topic.
Eventuele bijkomstige zaken die men in deze TS wil zien mag je steeds doorzenden aan mij of in dit topic posten.
PS ik ben echt niet van plan om een lijstje te maken van hoeveel fps elke nVidia kaart doet bij CS:S
Anoniem: 304087
Tjah 60hz 1920x1200Xenomorphh schreef op dinsdag 01 september 2009 @ 16:22:
[...]
dan wil ik de specs van je monitor..
Als jou monitor 60 Hz is heb je niks aan een FPS boven de 60.. je beeldscherm skipt gewoon de frames..
60 Hz betekent 60 verversingen per seconden als je hierop 100 FPS frames per seconde wil laten zien kan dat gewoon niet hij vergeet er gewoon 40 te laten zien.. (is je monitor 100 Hz dan zul je het verschil wel merken idd al is dit erg minimaal en niet echt heel erg doorslaggevend in shooters..)
In cod4 mp merk ik dat bvb dan krijg je een soor van lichte slomotion of en soort gestotter
In theorie is 60fps genoeg voor een monitor die maximaal 60hz weer kan geven, echter heb je wel vsync nodig omdat anders de monitor en gpu niet tegelijk gaan refreshen wat alsnog leid tot stotteren van het beeld. En laat vsync nou net de boel vertragen. Dus is het beter om meer dan 60fps te hebben (wel stable, gelocked).anathema schreef op dinsdag 01 september 2009 @ 16:40:
Als het skippen van deze frames leidt tot een onevenwichtige tijd tussen de frames in kan dit denk ik wel leiden tot een voor je gevoel haperend beeld. Wat dat betreft geloof ik wel dat je frame drops van 100 naar 60 kunt merken (zelfde principe van micro-stuttering met dual kaart set-ups) . Kun je beter een framerate cap van 60 instellen.
Anoniem: 196662
Dit topic is gesloten.