[Algemeen] nVidia Nieuwdiscussie Topic - Deel 50 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 6 Laatste
Acties:
  • 32.248 views

Acties:
  • 0 Henk 'm!

Anoniem: 172410

ColinZ schreef op vrijdag 24 december 2010 @ 23:07:
Ok sneller is dan ook overdreven, maar zelfs ''al even snel'' vind ik moeilijk te geloven :P
Zie de grafieken hierboven :) Bij 580 SLI én 6950 CF zit een enkele 580 op 78%. Ergo, beide combinaties zijn even snel*.

*in die specifieke situatie.

[ Voor 22% gewijzigd door Anoniem: 172410 op 24-12-2010 23:17 ]


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
-The_Mask- schreef op vrijdag 24 december 2010 @ 23:07:
[...]

Ander voorbeeld de HD6970 en GTX580, waar een single HD6970 het meestal niet tegen een GTX580 op kan nemen winnen twee in CrossFire het juist meestal van twee GTX580's.
Meestal? Als je meerdere bronnen post, die dat bevestigen (1 is bij lange na niet genoeg blijkt al in dit topic) wil ik dat best geloven.
Anoniem: 172410 schreef op vrijdag 24 december 2010 @ 23:13:
[...]

Zie de grafieken hierboven :) Bij 580 SLI én 6950 SLI zit een enkele 580 op 78%. Ergo, beide combinaties zijn ~even snel*.
Op 1 resolutie met 1 site als bron, terwijl er op andere resolutie of uit andere bronnen iets anders volgt. Dus geen ergo even snel.
Edit: oh je hebt ge-edit.

[ Voor 32% gewijzigd door Springstof op 24-12-2010 23:21 ]


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Springstof schreef op vrijdag 24 december 2010 @ 23:14:
Op 1 resolutie met 1 site als bron, terwijl er op andere resolutie of uit andere bronnen iets anders volgt. Dus geen ergo even snel.
Edit: oh je hebt ge-edit.
Pak je kans, post die bronnen van jou ;)

Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Anoniem: 172410 schreef op vrijdag 24 december 2010 @ 23:21:
[...]

Pak je kans, post die bronnen van jou ;)
Gewoon wat hier al genoemd is. Techpowerup zelf, guru3d en anandtech (volgens dahakon) dus.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Springstof schreef op vrijdag 24 december 2010 @ 23:14:
[...]

Meestal? Als je meerdere bronnen post, die dat bevestigen (1 is bij lange na niet genoeg blijkt al in dit topic) wil ik dat best geloven.
Als het meestal zo is zoals ik zei dan zul je het vast wel kunnen vinden, aangezien het dan dus toch wel eens gebeurt. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
-The_Mask- schreef op vrijdag 24 december 2010 @ 23:26:
[...]

Als het meestal zo is zoals ik zei dan zul je het vast wel kunnen vinden, aangezien het dan dus toch wel eens gebeurt. :p
Ik heb gezocht en zie geen onderbouwing voor jouw claim. Erger nog.... Ik zie namelijk wel dat bij anandtech de 580 sli in de meerderheid v/d games op 2560x1600 sneller is dan 6970 cf (bij legitreviews zie ik ook dat 580 sli sneller is dan 6970 cf in alle games op slechrs1 na), wat zelfs haaks staat op jouw claim.

[ Voor 9% gewijzigd door Springstof op 25-12-2010 00:14 ]


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Springstof schreef op zaterdag 25 december 2010 @ 00:05:
Ik heb gezocht en zie geen onderbouwing voor jouw claim. Erger nog.... Ik zie namelijk wel dat bij anandtech de 580 sli in de meerderheid v/d games op 2560x1600 sneller is dan 6970 cf, wat zelfs haaks staat op jouw claim.
5850 CF had ook nog wel eens de neiging sneller te zijn dan 5870 CF, dus dat hoeft niet per se iets te betekenen.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Springstof schreef op vrijdag 24 december 2010 @ 23:24:
[...]

Gewoon wat hier al genoemd is. Techpowerup zelf, guru3d en anandtech (volgens dahakon) dus.
Dit zijn de resultaten van Guru3D

Afbeeldingslocatie: http://i56.tinypic.com/efm4o5.jpg

Zijn erg afwijkend vergeleken met wat TechPowerUp laat zien en die testen toch echt 15 games.

PS "AVG ex" is het gemiddelde zonder MW2 en ANNO.

Ik wacht wel tot Computerbase met hun tests komen en dat TechPowerUp nog eens een HD6970CF test.

[ Voor 64% gewijzigd door madmaxnl op 25-12-2010 01:32 ]


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Thanks madman. Erg handig tabelletje, maar inderdaad een ander beeld dan bij techpowerup.

[ Voor 41% gewijzigd door Springstof op 25-12-2010 01:37 ]


Acties:
  • 0 Henk 'm!

  • daan!
  • Registratie: Februari 2007
  • Laatst online: 09-05 17:02
Wat een gekke discussie hier, de 6950CF vergelijken met een 580SLI.
Als iemand al twijfelt tussen AMD of Nvidia dan vergelijk je toch de 6970CF met 580SLI?
Of zelfs de 6970CF met 570SLI, als je wat meer op prijs wilt vergelijken..

Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 03-05 16:15
daan! schreef op zondag 26 december 2010 @ 12:48:
Wat een gekke discussie hier, de 6950CF vergelijken met een 580SLI.
Als iemand al twijfelt tussen AMD of Nvidia dan vergelijk je toch de 6970CF met 580SLI?
Of zelfs de 6970CF met 570SLI, als je wat meer op prijs wilt vergelijken..
Volgens mij ontstond het met een kreet van iemand dat de 6950CF vergelijkbaar met de HD6990 zou zijn, en een performance had van een 580SLI omdat CF zoveel beter schaalde in de 6000 serie...

Maar in der dat weer wat pagina's die revieuws en menigeen vergelijken, weinig nieuws :(

Acties:
  • 0 Henk 'm!

  • YoVla
  • Registratie: September 2008
  • Laatst online: 04-05 22:02

YoVla

Yoghurt met vla

Nou, gisteren mijn 570 van Gigabyte maar is opgehaald!

Had voorheen een 275GTX van Nvidia en vind de drivers toch wel een stuk makkelijker dan die van de Radeon series.

Maar in BFBC2 draait alles super! 60 fps gemiddeld met alles op hoogst (x4/x16/dx11)

Ben er blij mee, alleen één vraagje: Volgens mij heeft Nvidia nog niet echt drivers voor deze kaart gemaakt ofwel? krijg het idee namelijk dat de drivers die er nu zijn (de laatste van nvidia website) nog niet geoptimaliseerd zijn!

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Hoe kunnen drivers nou "makkelijker" zijn? :P
Verder, waarom denk je dat de drivers nog niet voor deze kaart "gemaakt" zijn? Deze zijn al meer dan een jaar in ontwikkeling namelijk.

Acties:
  • 0 Henk 'm!

  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 09-05 22:11

Sm0k3r

cough...cough...

Ik snap dit voor geen meter eerlijk gezegd, hoe kunnen mensen zo achter een merk staan.

Dit zijn de feiten:

580GTX is sneller dan de 6970 maar ook duurder (waarom denk je dat hij duurder is?)

De 6970 is meer bang for buck, is marginaal trager maar daar doelt AMD ook op, meer mensen die het kunnen en willen betalen (uiteindelijk draait het om geld maken).

Ik ga gewoon voor beste videokaart en dat is nu nog steeds geen van beide, ik wacht al sinds de 9800 serie op een topper en ik denk dat ik maar ga wachten op een refresh van de 580GTX (GF110b) zoiets als toen met de 280 naar 285.

Volgend kwartaal bid ik, want ik moet en zal een nieuwe videokaart hebben

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Bidden voor een single GPU kaart heeft iig geen zin, er komt geen über snelle toppert aan binnen een kwartaal.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • YoVla
  • Registratie: September 2008
  • Laatst online: 04-05 22:02

YoVla

Yoghurt met vla

spNk schreef op dinsdag 28 december 2010 @ 09:31:
Hoe kunnen drivers nou "makkelijker" zijn? :P
Verder, waarom denk je dat de drivers nog niet voor deze kaart "gemaakt" zijn? Deze zijn al meer dan een jaar in ontwikkeling namelijk.
Makkelijker als.. "minder gezeik met drivers" maar deze flame is al een tijd op gang volgens mij ;p dus maak je niet druk.

Ik heb het idee dat er nog wel betere drivers uitkomen die er net iets meer uit kunnen 'pushen'! maar met de tijd zal dit blijken..

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Hritje schreef op dinsdag 28 december 2010 @ 14:08:
[...]
Makkelijker als.. "minder gezeik met drivers" maar deze flame is al een tijd op gang volgens mij ;p dus maak je niet druk.
Wederom: welk gezeik met drivers? Ik snap dit niet, zo veel mensen die zulke dingen beweren, maar iets concreets melden ho maar. Ik heb met m'n 5870 echt niet meer of minder "gezeik" met de drivers gehad dan met m'n GTX 460 nu of m'n 8800GTS-640/9800GTX-jes daarvoor.

Acties:
  • 0 Henk 'm!

  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 09-05 22:11

Sm0k3r

cough...cough...

-The_Mask- schreef op dinsdag 28 december 2010 @ 11:44:
Bidden voor een single GPU kaart heeft iig geen zin, er komt geen über snelle toppert aan binnen een kwartaal.
Hoe weet jij dat zo zeker, de 580 is amper tot niet verkrijgbaar, vind ik persoonlijk erg veel lijken op de situatie toen met de 280 omdat daarna de 285 volop verkrijgbaar was en zij dus niet veel klanten zullen teleurstellen omdat die een iets mindere kaart hebben aangeschaft.

Hey, dromen en hopen mag toch, zo niet stap ik volgend jaar op de AMD (dual gpu) bus en rij ik zo wel alle nieuwe spellen tegemoet ;)

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Kijk uit met wat je zegt want een dergelijke bewering veegt meteen het. Oh zo controversiële verschil tussen de drivers van ATI/AMD en nVidia van de kaart. Stel je voor dat het gewoon een feit is dat AMD minder faalt met zijn drivers zoals ze zelf hebben laten onderzoeken ? Nee, nee nu krijgen we een stortvloed aan mensen die wel eens problemen hebben gehad met ATI/AMD drivers.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

Werelds schreef op dinsdag 28 december 2010 @ 14:18:
[...]

Wederom: welk gezeik met drivers? Ik snap dit niet, zo veel mensen die zulke dingen beweren, maar iets concreets melden ho maar. Ik heb met m'n 5870 echt niet meer of minder "gezeik" met de drivers gehad dan met m'n GTX 460 nu of m'n 8800GTS-640/9800GTX-jes daarvoor.
Ik heb altijd nVidia kaarten gehad en deze drivers crashden nooit. Nu ik een HD5870 heb crashen mijn drivers regelmatig. Maar goed dat zal bij de 1 wat minder zijn als bij de ander.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Het maakt me niet uit wat mensen vinden, maar presenteer het niet als een feit. In de paar maanden dat ik m'n 460 heb, heb ik toch al een rollback moeten doen vanwege een resettende driver (en met m'n G80/G92's wel meer dan eens). Zal nu met de 460 vast iets op mijn systeem zijn, maar dat betekent niet dat NVIDIA drivers meteen slecht zijn. Met m'n 5870 heb ik dat niet hoeven doen, betekent ook niet dat ATI juist beter is.

Dat je NVCP fijner vind werken dan CCC is een andere zaak, maar dat is dan nog steeds een mening (die ik dan wel weer deel, hoewel ik niet weet hoe prettig het nieuwe CCC is). Staat dan ook weer los van de daadwerkelijke driver.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Sm0k3r schreef op dinsdag 28 december 2010 @ 14:42:
[...]


Hoe weet jij dat zo zeker, de 580 is amper tot niet verkrijgbaar, vind ik persoonlijk erg veel lijken op de situatie toen met de 280 omdat daarna de 285 volop verkrijgbaar was en zij dus niet veel klanten zullen teleurstellen omdat die een iets mindere kaart hebben aangeschaft.
De 285 was dan ook een refresh van de 280. De 580 is dan weer een refresh van de 480. De 580 is een volledig werkende GF100 en dus de optimale Fermi. Alleen een die-shrink zou nog kunnen, ware het niet dat de productieprocessen daarvoor nog lang niet op punt staan. Voor vernieuwing op het single GPU vlak zul je toch echt moeten wachten tot eind volgend jaar.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Dat wordt een saai jaar ;)

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Dat was 2010 ook geweest als Fermi op tijd uit was gekomen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09-05 19:26
Dat komt alleen door TSMC, inderdaad.

Acties:
  • 0 Henk 'm!

  • Sm0k3r
  • Registratie: Mei 2003
  • Laatst online: 09-05 22:11

Sm0k3r

cough...cough...

Edmin schreef op dinsdag 28 december 2010 @ 15:00:
[...]

De 285 was dan ook een refresh van de 280. De 580 is dan weer een refresh van de 480. De 580 is een volledig werkende GF100 en dus de optimale Fermi. Alleen een die-shrink zou nog kunnen, ware het niet dat de productieprocessen daarvoor nog lang niet op punt staan. Voor vernieuwing op het single GPU vlak zul je toch echt moeten wachten tot eind volgend jaar.
280 - 285 verschillen waren marginaal, ietsjes sneller ietsjes minder stroom verbruik, kunnen ze vast nog wel doen met de 580, en als een 580 een volledig werkende 480 is dan roep je het eigenlijk al zelf;

een auto verkopen met een motorblok waar 2 cylinders van zijn uitgeschakeld en later de 2 cylinders activeren is geen refresh, ander injectie systeem is een refresh om hem iets efficienter te laten werken.

Maar zoals ik al zei ik verwacht ook niks van nvidia, hopen doe ik wel want ik heb een nieuwe graka nodig.

"I believe that forgiving them is God's function. Our job is simply to arrange the meeting."


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Sm0k3r schreef op dinsdag 28 december 2010 @ 15:42:
Maar zoals ik al zei ik verwacht ook niks van nvidia, hopen doe ik wel want ik heb een nieuwe graka nodig.
Hopen kun je wel maar er staat bij nVidia eerst geen high-end GPU op de planning, dat blijft gewoon een feit. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Hritje schreef op dinsdag 28 december 2010 @ 14:08:
[...]


Makkelijker als.. "minder gezeik met drivers" maar deze flame is al een tijd op gang volgens mij ;p dus maak je niet druk.
Uiteraard wist ik dat je dat bedoelde, maar had geen zin in een flamewar.

Wat ik wel even kwijt wil is dat ik het erg knap vind dat je de nvidia drivers veel "fijner" vind als je vorige kaart, welke toch al weer een aantal jaartjes oud is een GTX275 was, en dus geen ATi/AMD drivers gebruikt heb. Volgens mij is dit gewoon een beetje mee praten met de rest. ;)

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Sm0k3r schreef op dinsdag 28 december 2010 @ 15:42:
280 - 285 verschillen waren marginaal, ietsjes sneller ietsjes minder stroom verbruik, kunnen ze vast nog wel doen met de 580, en als een 580 een volledig werkende 480 is dan roep je het eigenlijk al zelf;

een auto verkopen met een motorblok waar 2 cylinders van zijn uitgeschakeld en later de 2 cylinders activeren is geen refresh, ander injectie systeem is een refresh om hem iets efficienter te laten werken.

Maar zoals ik al zei ik verwacht ook niks van nvidia, hopen doe ik wel want ik heb een nieuwe graka nodig.
Het verschil tussen de GTX280 en GTX285 was 65nm vs 55nm. Dat 285 op 55nm gemaakt werd, gaf nVidia de ruimte voor hogere clocks en dus een betere prestatie. GTX580 zit waarschijnlijk al aardig tegen de max voor 'fatsoenlijke' yields. Voor verbeteringen zoals die tussen GTX280 en GTX285 zullen we echt tot 28nm moeten wachten, maar dan kan er al lang een andere chip klaar liggen.

Voor de rest is het maar hoe je het bekijkt. Technisch gesproken brengt nVidia de GTX570/580 als een refresh van de GTX470/480, maar intern was de chip bekend als GF100b, wat eigenlijk niets meer is dan een base layer respin om de chip yieldbaar te maken. Die respin is overigens als het ware een verandering van het geheel voor een efficientere yield

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
dahakon schreef op dinsdag 28 december 2010 @ 18:15:
[...]


Het verschil tussen de GTX280 en GTX285 was 65nm vs 55nm. Dat 285 op 55nm gemaakt werd, gaf nVidia de ruimte voor hogere clocks en dus een betere prestatie. GTX580 zit waarschijnlijk al aardig tegen de max voor 'fatsoenlijke' yields. Voor verbeteringen zoals die tussen GTX280 en GTX285 zullen we echt tot 28nm moeten wachten, maar dan kan er al lang een andere chip klaar liggen.
Van 65nm naar 55nm zoals de GT200 naar GT200b is van full-node naar half-node.
Nu gaan we van half-node naar half-node, de sprong die er nu gemaakt gaat worden is full-node.
Dit resulteert in een veel kleinere chip i.t.t. de GT200 t.o.v. GT200b waar de chip maar 20% kleiner werd alhoewel dat ook al aardig aantikte.

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Sm0k3r schreef op dinsdag 28 december 2010 @ 15:42:
[...]

een auto verkopen met een motorblok waar 2 cylinders van zijn uitgeschakeld en later de 2 cylinders activeren is geen refresh, ander injectie systeem is een refresh om hem iets efficienter te laten werken.
:?
* Edmin wordt een beetje moe van al die halfbakken vergelijkingen met auto's

Daarnaast gaf ik toch al aan dat een die shrink de enige oplosing zou zijn (net als van 280 naar 285), maar dat je daar voorlopig niet op hoeft te rekenen?

[ Voor 16% gewijzigd door Edmin op 28-12-2010 20:26 ]


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Het is toch ook zo dat de gtx5xx kaarten maar een tussenstation zijn om de tijd tot de 'nieuwe'(?) videokaarten te overbruggen? Lijkt me niet dat ze nog erg veel gaan doen met die gf110, een full-spec fermi gf110 bijvoorbeeld als gtx660 die 244watt verstookt tegenover een gtx680 met zeg eens een TDP van 210watt lijkt me aardig onlogisch, dan kun je beter op dat moment de stock tegen een bodemprijsje de deur uit doen anders schiet je alleen maar in je eigen voet :P

Vraag me af wat er gaat gebeuren, AMD heeft het wat makkelijker atm omdat ze een flinke wijziging in hun architectuur hebben gemaakt die hun weer de nodige speling geeft. Nvidia's fermi chip zit nu op zn maximum, al staat er weer een 'nieuwe' chip klaar die hopelijk wat beter uitpakt dan het fermi verhaal, hun reputatie heeft sinds de 8800gts toch de nodige klappen te verduren gehad.

[ Voor 29% gewijzigd door Anoniem: 263922 op 28-12-2010 20:50 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 263922 schreef op dinsdag 28 december 2010 @ 20:46:
Hun reputatie heeft sinds de 8800gts toch de nodige klappen te verduren gehad.
Niet alleen hun reputatie.

De 8800GTS was t.t.v. de HD3xxx.
Na de 8800GTS kwam de GT9xxx serie, GT1xx serie, GT2xx serie, GT3xx serie, GT4xx serie en nu dan de GT5xx serie. In al deze tijd heeft AMD maar 3 nieuwe series uit gebracht. Al deze series uitbrengen heeft hun reputatie niet goed gedaan. Ze hebben de transitie van serie naar serie gewoon erg slecht aangepakt omdat het nooit goed op elkaar aansloot binnen een serie. Sinds de GT4xx serie hebben ze dat op orden.

Het kapot gaan van hun chipset divisie is ook geen meevallertje.

Het enige waar nVidia echt flink kan gaan scoren is met Tegra, Tesla en Quadro. Met de eersten gaat het niet goed en het ziet er naar uit dat voorlopige zo nog wel even blijft. De ARM markt is namelijk rijkelijk gevuld met grote spelers zoals Apple, Samsung, Toshiba, Nokia, Broadcom, T.I. e.d. De verhoudingen voor nVidia t.o.v. deze spelers is nog slechter voor nVidia dan de verhouding van AMD t.o.v. Intel.

Low en mid end GPU segment staat ook op de tocht, APUs nemen dat over. mid-high-end GPUs is straks het enige waar nVidia zijn brood mee kan verdienen als het niet snel zijn Tegra producten op de markt krijgt(dus niet design wins en al die ellende).

Tevens zal Tesla en Quadro alleen echt door kunnen stoten als CUDA ook een succes wordt momenteel is Quadro al een succes t.o.v. wat AMD op dat gebied te bieden heeft maar Tesla zeker nog niet ondanks CUDA. CUDA was en is niet de reden dat Quadro een succes is en was dus in zekere zin zal CUDA zich ook nog moeten bewijzen. Er zijn namelijk meerdere GPGPU mogelijkheden zoals OpenCL en Direct Compute. OpenCL is gratis en Direct Compute zit al in DirectX verwerkt. Direct Compute zal dus waarschijnlijk ook belangrijk zijn voor de komende console van MS waardoor games die geport worden direct voordeel gaan hebben van GPGPU d.m.v. Direct Compute. Er komt geen CUDA c.q. PhysX aan te pas.

M.a.w. we krijgen weer een "standaarden" oorlog zoals HD-DVD en BR. We weten hoe dat is afgelopen idem met ouden standaarden zoals VHS, Betamax e.d. meestal kwam er maar één winnaar uit de bus.

Ik hoop dat ze een nieuwe G80 in hun handen hebben maar dat ze er dezen keer wel betere plannen mee hebben.

Acties:
  • 0 Henk 'm!

  • YoVla
  • Registratie: September 2008
  • Laatst online: 04-05 22:02

YoVla

Yoghurt met vla

spNk schreef op dinsdag 28 december 2010 @ 16:08:
[...]

Uiteraard wist ik dat je dat bedoelde, maar had geen zin in een flamewar.

Wat ik wel even kwijt wil is dat ik het erg knap vind dat je de nvidia drivers veel "fijner" vind als je vorige kaart, welke toch al weer een aantal jaartjes oud is een GTX275 was, en dus geen ATi/AMD drivers gebruikt heb. Volgens mij is dit gewoon een beetje mee praten met de rest. ;)
Nee hoor, ATI drivers heb ik wel genoeg gezien op me werk ;) (nadelen en voordelen van meegemaakt) wees niet bang! maar goed ik ben igg blij met mijn 570 :)

ps. dat de 275 paar jaar oud is betekend niet meteen dat ik hem ook al 3 jaar heb ;) gekocht net voor de 5870 uitkwam.

[ Voor 11% gewijzigd door YoVla op 29-12-2010 09:11 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022

MSI GTX580 Lightning getoond

;w huidige 3Dmark records ;) :)

Acties:
  • 0 Henk 'm!

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-05 15:17

Darkasantion

Just keep swimming!

>:) @ HD6970 Lightning. Misschien dat ik deze wel koop voor goed overclocken op Water :D

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

neliz

GIGABYTE Man

Hmm..

hoor net dat er weer een oude marketing "modifier" van stal word gehaald door NV.

En nee, het is niet "MX"

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 172410

Edmin schreef op dinsdag 28 december 2010 @ 20:25:
:?
* Edmin wordt een beetje moe van al die halfbakken vergelijkingen met auto's
Geen Tweakers zonder halfbakken autovergelijkingen :Y

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
SE is al terug met de GTX460SE, krijgen we nu de Ti? :p

[ Voor 10% gewijzigd door -The_Mask- op 30-12-2010 00:51 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Er is altijd nog FX natuurlijk, alhoewel hun eerste ervaring met het introduceren ervan niet een al te groot succes was.

Voor de rest is en blijft de driverdiscussie een non-discussie. Heel veel persoonlijke meningen en een totaal gebrek aan objectiviteit. Elk willekeurig persoon zal het voor elkaar krijgen een windows installatie te laten crashen en de schuld kunnen geven aan de videokaart drivers, of het nu om nVidia of ATI/AMD drivers gaat. Mijn persoonlijke ervaring met Ati drivers is dat ik eigenlijk nooit videodrivergerelateerde BSoD crashes heb gehad en dat is sinds de Radeon 7000, dus behoorlijk wat jaartjes geleden, Het zegt alleen niets, omdat het een persoonlijke ervaring is.

En misschien komt nVidia wel weer terug met Riva en droppen ze Geforce compleet :P

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geforce dropen is het dood maken van nVidia zijn sterken naamsbekendheid.

Acties:
  • 0 Henk 'm!

Anoniem: 172410

madmaxnl schreef op woensdag 29 december 2010 @ 18:20:
Geforce dropen is het dood maken van nVidia zijn sterken naamsbekendheid.
Die zin moest ik toch echt even drie keer lezen voor ik 'm snapte. Lekkere oudjaarsborrel? :p

@ hieronder: nog wel meer hoor, maargoed, het is hier geen grammartopic.

[ Voor 13% gewijzigd door Anoniem: 172410 op 29-12-2010 18:29 ]


Acties:
  • 0 Henk 'm!

  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Valt mee, hij mist alleen een p :P

En @ madmax, dat zou pretty much suicide zijn ja. Dat gaat dus niet gebeuren ;)

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 172410 schreef op woensdag 29 december 2010 @ 18:22:
[...]

Die zin moest ik toch echt even drie keer lezen voor ik 'm snapte. Lekkere oudjaarsborrel? :p

@ hieronder: nog wel meer hoor, maargoed, het is hier geen grammartopic.
?

Door het openen van jou bericht zie ik al twee fouten, namelijk "oudjaarsborrel" wat een woord is wat niet bestaat. Afscheidsborrel daarentegen wel, daarnaast maak je nog een leuke fout: "maargoed". Tja zoals je al zegt het is geen grammartopic(een woord dat ook niet bestaat, tevens heeft grammatica weinig met spelling te maken...). Dus waarom ga je me dan wat liggen kisten ? Omdat ik een "p" vergat in het woord: drop(p)en ? Mijn woordenboek tevens mijn spelling controle herkent het woord dropen niet als fout sorry daarvoor.
GTX560 toch ?

[ Voor 11% gewijzigd door madmaxnl op 29-12-2010 20:43 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Daar lijkt het wel sterk op. Met 8 chips waarschijnlijk een 256-bit geheugentoegang. Daarnaast wederom maar 1 SLI-poort. Het lijkt er op dat men toch echt wil voorkomen dat mensen met 3 of 4 midend kaarten gaat werken, ipv 2+ high end.

Acties:
  • 0 Henk 'm!

  • Olaf van der Spek
  • Registratie: September 2000
  • Niet online
madmaxnl schreef op woensdag 29 december 2010 @ 02:03:
M.a.w. we krijgen weer een "standaarden" oorlog zoals HD-DVD en BR. We weten hoe dat is afgelopen idem met ouden standaarden zoals VHS, Betamax e.d. meestal kwam er maar één winnaar uit de bus.
OpenCL: cross-platform, DirectCompute: Windows
Waarom zou dat oorlog worden?

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Windows is ondertussen ook cross-platform. Dat zitten ondertussen ook al op smartphones.

Dus DirectCompute zal waarschijnlijk consoles, smarthphone, desktops, servers, laptops en netbooks kunnen gaan werken. De diversiteit is er dus wel met DirectCompute maar dat is er ook met OpenCL. Want dat zal waarschijnlijk ook op consoles, smartphones, desktops, servers, laptops, netbooks en handhelds gaan werken waarbij OpenCL dus ook handhelds kan dienen. Maar wie weet heeft MS wel een handheld op het programma staan maar dat is erg onwaarschijnlijk.

Want er is in mijn ogen geen toekomst voor handheld gaming. De smartphones en tablets nemen dit segment in en ben eerlijk als je toch een CPU, GPU of APU in een apparaat moet duwen waarom het dan meteen de functies van een telefoon, netbook en GPS apparaat meegeven ? Of eerlijk gezegd juist anders om. Waarom de smartphones en tablets waar dergelijke functies inzitten niet ook de functie van een handheld laten vervullen. Ze hebben zich immers al wel bewezen te capaciteit te hebben. Tevens is de distributie van games op een dergelijk apparaat veel aantrekkelijker als bijvoorbeeld voor de NDS(i). Sony heeft dit gezien en kwam met een "cartridge" loze handheld alla de PSP Go welke alleen via het internet zijn games kan kopen.

Het wordt dus wel degelijk een oorlog. MS heeft er namelijk alle belang bij OpenCL klein te houden net als OpenGL. Want anders worden andere besturingssystemen veel te interresant(Linux, Mac OS X en straks Google Chrome.) Daar werkt OpenCL immers op maar DirectCompute niet maar op Windows werkt OpenCL wel weer wat het interresant maakt om dat te gebruiken. Maar DirectCompute ligt ook erg voor de hand immers zit het standaard al in Windows. Tja en dan kun je je al helemaal afvragen waarom men CUDA zou gaan gebruiken ? Wel is CUDA ook mogelijk op meerdere platformen werkt maar specifiek hardware en licenties vereist. Iets wat DirectCompute en OpenCL weer niet doen.

Het is naïef om te denken dat er geen "standaarden" oorlog zou komen.

Apple wil OpenCL,
MS wil DirectCompute,
nVidia wil CUDA,
AMD wil OpenCL en DirectCompute en
Intel wil OpenCL en wellicht DirectCompute maar dat ligt er aan hoe dat presteert op hun hardware.

Zoals je ziet zijn er genoeg partijen die baat hebben bij een winnende c.q. ingeburgerde standaard en vice versa.

[ Voor 17% gewijzigd door madmaxnl op 29-12-2010 21:12 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 05-05 10:34
Sinds wanneer zit er DirectX op Android of iOS? Alleen WinMo7 (sorry, Windows Phone 7 *zucht*) doet aan DX, en bij mijn weten is dat DX9 zonder DC. Dat is nog steeds een hele kleine markt, en ik zie daar zo 1-2-3 geen verandering in komen.

Juist op die handhelds is OpenGL populair in de vorm van OpenGL ES. Er komt helemaal geen standaarden oorlog; op Windows zal DirectCompute de baas blijven, en op andere platforms zal OpenCL de voorsprong nemen. Ik zie het namelijk niet gebeuren dat de Khronos Group (waar onder andere ATI en NVIDIA in zitten, en geen MS) met OpenCL ineens alles goed gaat doen wat ze met OpenGL fout hebben gedaan.

Anoniem: 263922

jammer dat die gtx560 een iets andere componenten layout heeft dan de huidige gtx460, ik dacht volgend jaar ergens mn huidige gtx460 er uit te halen en het waterblock + backplate over te zetten op een gtx560.

Niet dat mn gtx460 niet voldoet, clockt lekker over en met een andere bios ook nog een hoger voltage ter beschikking :)
Maar ergens toch jammer, maar het zullen wel verbeteringen in het ontwerp betreffen, misschien clockt die gtx560 nog hoger dan de huidige gtx460, leuk speelgoed >:)

  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
neliz schreef op woensdag 29 december 2010 @ 15:48:
Hmm..

hoor net dat er weer een oude marketing "modifier" van stal word gehaald door NV.

En nee, het is niet "MX"
Misschien wel Ultra: GTX580Ultra (er is nog 56W om binnen de 300 W te blijven toch?)

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Dura Ace schreef op donderdag 30 december 2010 @ 09:09:
Misschien wel Ultra: GTX580Ultra (er is nog 56W om binnen de 300 W te blijven toch?)
Is geen Ultra en een GTX580 kan max al 350 Watt verstoken. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Dura Ace
  • Registratie: Februari 2010
  • Laatst online: 20-10-2020
-The_Mask- schreef op donderdag 30 december 2010 @ 11:25:
[...]

Is geen Ultra en een GTX580 kan max al 350 Watt verstoken. ;)
Nv geeft toch 244 op als tdp 8)7
Bovendien maxima zijn er om gebroken te worden. Een ei bakken is niet goed genoeg, een biefstuk moet ook kunnen.... :9

[ Voor 7% gewijzigd door Dura Ace op 30-12-2010 11:32 ]

Core i7 930 @3500MHz | ASUS P6X58D Premium | Corsair Dominator 6G | eVGA 8800 GTS 512 KIA - RMA ---> HD6950 CFX | Dell U2711


Anoniem: 245699

Ach, de geflashede HD6950 op +20% worden ook 90+ graden, denk dat je op de backplate daarvan nog makkelijker een ei kan bakken dan op de bovenkant van een GTX480. ;)

Zonder gekheid; Ik kan me niet voorstellen dat er van de GTX580 een snellere versie komt, want dat zou compleet onzinnig zijn. Nvidia zal zich nu moeten richten op het gat tussen de GTX460 1gb en de GTX570. Dus eerst een GTX560 en wellicht nog wel een kaart met een toevoegsel erna zodat ze in meer prijsklasses iets kunnen aanbieden. Het prijsverschil tussen de GTX460 1gb en de GTX570 is namelijk wel ~140 tot bijna 200,- en dat willen ze dus misschien niet opvullen met maar één kaart.

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 08-05 22:52
Anoniem: 245699 schreef op donderdag 30 december 2010 @ 12:36:
Ach, de geflashede HD6950 op +20% worden ook 90+ graden, denk dat je op de backplate daarvan nog makkelijker een ei kan bakken dan op de bovenkant van een GTX480. ;)
Offtopic: Ja, maar deze is ook niet ontworpen als 6970 zijnde. ;)

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

neliz schreef op woensdag 29 december 2010 @ 15:48:
Hmm..

hoor net dat er weer een oude marketing "modifier" van stal word gehaald door NV.

En nee, het is niet "MX"
GX2 misschien voor een dual gpu kaartje? (zoals in 9800GX2 / 7950GX2)

  • Darkasantion
  • Registratie: Maart 2006
  • Laatst online: 09-05 15:17

Darkasantion

Just keep swimming!

Anoniem: 245699 schreef op donderdag 30 december 2010 @ 12:36:
....

Zonder gekheid; Ik kan me niet voorstellen dat er van de GTX580 een snellere versie komt, want dat zou compleet onzinnig zijn.
...
Ook weer niet, de kans is ERG groot dat de HD6990 sneller zal zijn dan de GTX580 en gezien het feit dat de gehele PR van Nvidia op is getrokken rond het feit dat zij de allersnelste zijn, moeten zij dus een goede counter hebben voor de HD6990. Eventueel een GTX580 XT :P?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Tyranium schreef op donderdag 30 december 2010 @ 13:48:
[...]


GX2 misschien voor een dual gpu kaartje? (zoals in 9800GX2 / 7950GX2)
Nee, maar duurt toch nog wel even voordat we het gaan zien en echt intressant is het ook niet. ;)
Darkasantion schreef op donderdag 30 december 2010 @ 14:00:
[...]

Ook weer niet, de kans is ERG groot dat de HD6990 sneller zal zijn dan de GTX580 en gezien het feit dat de gehele PR van Nvidia op is getrokken rond het feit dat zij de allersnelste zijn, moeten zij dus een goede counter hebben voor de HD6990. Eventueel een GTX580 XT :P?
Dual GF100 PCB niet gezien? Overigens denk ik niet dat die er ooit komt, zal dan wel een dual GF110 worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 245699

Darkasantion schreef op donderdag 30 december 2010 @ 14:00:
[...]

Ook weer niet, de kans is ERG groot dat de HD6990 sneller zal zijn dan de GTX580 en gezien het feit dat de gehele PR van Nvidia op is getrokken rond het feit dat zij de allersnelste zijn, moeten zij dus een goede counter hebben voor de HD6990. Eventueel een GTX580 XT :P?
Maar zelfs een snellere variant van de GTX580 gaat niet sneller zijn dan de HD5970, laat staan de HD6990... Dus dan verliezen ze die strijd alsnog, lijkt me daarom verspilde moeite.
Voor de dual gpu kaart van Nvidia kunnen ze de GF110 chip alleen genbruiken als de de 300watt grens laten varen, maarja, dan wordt het gewoon een oneerlijke strijd. Ik zie nog steeds wel potentie in een dual GF114 chip, maar aan de andere kant zullen ze die ook moeten knijpen om 'm onder de 300watt te houden en dan zal die niet sneller zijn dan de HD6990... Afwachten maar!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Een dual GF114 zal qua prestatie tegenover de HD5970 komen te liggen en aangezien die bijna EOL gaat heeft het weinig zin zo'n kaart uit te brengen lijkt mij.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Anoniem: 245699

Ik denk dat ze die wel over de HD5970 zouden kunnen tillen maar niet genoeg voor een HD6990 (waarbij ik er vanuit ga dat een enkele GF114 dichter tegen de HD5870 zal presteren dan tegen de HD5850).
Maargoed, gezien het feit dat de performance/watt van Nvidia bij niet één chip beter is dan bij AMD, zal tot de max. 300watt een Nvidia kaart niet sneller kunnen zijn dan een AMD kaart. Even strikt theoretisch bekeken dan...

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 245699 schreef op donderdag 30 december 2010 @ 14:50:
Ik denk dat ze die wel over de HD5970 zouden kunnen tillen
Niet binnen de 300 Watt, misschien enkele procenten maar zal niks noemenswaardig zijn.
waarbij ik er vanuit ga dat een enkele GF114 dichter tegen de HD5870 zal presteren dan tegen de HD5850
Tja als je hem hoog genoeg klokt kan die ook nog wel in de buurt van de HD6950 komen...

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
Als je toch al 300 watt verstookt, kan die 20/30 watt er ook nog wel bij lijkt me :').

Het gat tussen de GTX570 en GTX460 zal nog wel opgevult moeten worden, maar zo noodzakelijk vind ik het eigelijk niet. Nvidia en ATi gaan nu ongeveer gelijk op, dus ik verwacht binnenkort wel een prijzenoorlog(je). Over een paar maanden zal de GTX570 alweer een stukje goedkoper zijn, zoals ook met de GTS250, GTS450, GTX460 het geval was. Daarbij zijn de GTX 470/480 misschien een geval apart.

Anyway; ik heb nog steeds een 9800GTX+, ik heb nog geen enkele game niet kunnen spelen. Pas nu zie ik titels aankomen die misschien een gevaar kunnen vormen, dus over enkele maanden lijkt een GTX570 me wel wat. Ik heb ook wel de neiging gehad om een GTX260, en toen 275, daarna 460 te kopen, maar ik hield me sterk gelukkig.

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
rickyy schreef op donderdag 30 december 2010 @ 22:49:
Als je toch al 300 watt verstookt, kan die 20/30 watt er ook nog wel bij lijkt me :').
Nee juist niet, juist omdat hij 300 watt verstookt kan die 20 a 30 watt o.i.d. niet bij.
Want:"Oh hij verbruikt 330 watt die 20 watt kan er ook nog wel bij" enzovoort.

Ken je de definitie van een limiet niet ?

Acties:
  • 0 Henk 'm!

  • rickyy
  • Registratie: Mei 2007
  • Laatst online: 10-02 11:10
madmaxnl schreef op donderdag 30 december 2010 @ 23:45:
[...]


Nee juist niet, juist omdat hij 300 watt verstookt kan die 20 a 30 watt o.i.d. niet bij.
Want:"Oh hij verbruikt 330 watt die 20 watt kan er ook nog wel bij" enzovoort.

Ken je de definitie van een limiet niet ?
Ik heb niet gezegt, ''hij verbruikt als 330 watt, dan kan die 20 er ook nog wel bij''. Limiet? Als je ze in SLI zet verbruik je toch ook 2x zoveel?

Core i5 4670k, 8gb, MSI GTX460 HAWK TA


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Zucht.

Limiet geld voor ÉÉN kaart niet voor twee, drie, vier etc.
De limiet is om te voldoen aan de PCI-e standaard.

"Ik heb niet gezegt, ''hij verbruikt als 330 watt, dan kan die 20 er ook nog wel bij''."

Nee dat heb je inderdaad niet gezegd maar als hij toch al over de limiet heengaat waarom dan niet nog wat verder. Mijn punt is dat je gewoon niet over de limiet moet gaan. Ongeacht of al heel veel verbruikt of wat dan ook.

[ Voor 97% gewijzigd door madmaxnl op 31-12-2010 00:13 ]


Acties:
  • 0 Henk 'm!

Anoniem: 347546

Ik snap echt niet waarom ik hier nog altijd lees dat nVidia kaarten zo heet worden en zoveel kabaal maken.
Mijn GTX580 maakt een stuk minder lawaai dan de 5870 Vapor-X van een maat van me, zowel idle als onder load.
Daarnaast is bij geen enkele brenchmark en ook niet na uren gamen de temperatuur tot nu toe boven de 75/76 graden gekomen.Het lijkt me sterk dat dit met de 570 anders is.
(mompelt iets over oude koeien en sloot)

Ik snap ook niet waarom het in een "nVidia Nieuwdiscussie Topic" zovaak over ati/amd gaat, vergelijking met de 5970/6990 slaan ook nergens op dit zijn intern crossfire kaarten met alle bijbehorende problemen.

Overgens had ik verwacht dat nVidia de 560 (en evt 550) snel zou uitbrengen, daar zit denk ik toch het meeste geld voor ze.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 347546 schreef op vrijdag 31 december 2010 @ 00:29:
Ik snap echt niet waarom ik hier nog altijd lees dat nVidia kaarten zo heet worden en zoveel kabaal maken.
Mijn GTX580 maakt een stuk minder lawaai dan de 5870 Vapor-X van een maat van me, zowel idle als onder load.
Dan zal er wel wat mis met zijn HD5870 Vapor-X zijn.
Daarnaast is bij geen enkele brenchmark en ook niet na uren gamen de temperatuur tot nu toe boven de 75/76 graden gekomen.Het lijkt me sterk dat dit met de 570 anders is.
(mompelt iets over oude koeien en sloot)
Volgens mij begin jij er over?
Ik snap ook niet waarom het in een "nVidia Nieuwdiscussie Topic" zovaak over ati/amd gaat, vergelijking met de 5970/6990 slaan ook nergens op dit zijn intern crossfire kaarten met alle bijbehorende problemen.
Wat bedoel je? Dat CrossFire tegenwoordig beter werkt dan SLi? En dat er eigenlijk weinig mis meer is met CrossFire? Daarnaast je koopt nog altijd een videokaart en geen GPU en nVidia brengt net zo goed dual GPU kaarten uit.
Overgens had ik verwacht dat nVidea de 560 (en evt 550) snel zou uitbrengen, daar zit denk ik toch het meeste geld voor ze.
Binnen een maand is de GTX560 er.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 347546

Volgens de brenchmarks is er iig niets mis met die 5870 Vapor-X, en draait al meer dan een jaar.

Welnee, ik lees hier overal dat de nVidea kaarten toch o zo warm worden.

Lees anders nog genoeg problemen (ook hier) dat Crossfire/sli niet lekker werkt en soms zelfs minder presteert dan een enkele kaart. En tja de 295 was ook niet zo'n succes dacht ik en ondanks de geruchten zie ik een 595 nog niet zo snel komen.

Met een maand zal die 560 er wel zijn maar toch opnieuw wat aan de late kant, nu heeft ati/amd een voorsprong in de midrange markt naar mijn idee. (beetje het 5770 vs 460 verhaal, de 460 was beter maar toen hadden een hoop mensen al de 5770 gekocht)

Sorry dat quoten moet ik me nog in verdiepen ben niet zo'n forum mens ;)

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Anoniem: 347546 schreef op vrijdag 31 december 2010 @ 00:48:
Volgens de brenchmarks is er iig niets mis met die 5870 Vapor-X, en draait al meer dan een jaar.
De koeling doelde ik dan ook op ;)
Welnee, ik lees hier overal dat de nVidea kaarten toch o zo warm worden.
Vooral dat ze veel verbruiken denk ik, hoe warm ze worden is niet echt van belang als een videokaart bijvoorbeeld 100 graden mag worden volgens de fabrikant wat maakt het dan uit dat die 90 graden wordt? Temp is helemaal afhankelijk van de fanspeed en het koelblok.
Lees anders nog genoeg problemen (ook hier) dat Crossfire/sli niet lekker werkt en soms zelfs minder presteert dan een enkele kaart.
http://www.techpowerup.co...Radeon_HD_6850_CrossFire/
Met een maand zal die 560 er wel zijn maar toch opnieuw wat aan de late kant, nu heeft ati/amd een voorsprong in de midrange markt naar mijn idee. (beetje het 5770 vs 460 verhaal, de 460 was beter maar toen hadden een hoop mensen al de 5770 gekocht)
Beter zit hem niet alleen in de prestaties he, toen de GTX460 er was was de HD5770 nog steeds een prima koop.
Sorry dat quoten moet ik me nog in verdiepen ben niet zo'n forum mens ;)
Druk op het knopje view en je ziet hoe iedereen het doet. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Anoniem: 347546 schreef op vrijdag 31 december 2010 @ 00:29:
Ik snap echt niet waarom ik hier nog altijd lees dat nVidia kaarten zo heet worden en zoveel kabaal maken.
Mijn GTX580 maakt een stuk minder lawaai dan de 5870 Vapor-X van een maat van me, zowel idle als onder load.
Dan volg je het toch al een tijdje niet meer, sinds de GTX5xx launch zul je niemand over luidruchtige nVidia kaarten horen. De GTX4xx serie daarentegen, in het bijzonder de GTX465, GTX470 en GTX480 is een heel ander verhaal en deze produceren genoeg geluid om je uit je slaap te houden als je dergelijken kaarten in je PC op je kamer hebt zitten.

Mijn HD2900XT maakt een stuk minder lawaai dan de GTX580 van een maat van me, zowel idle als onder load.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Is die 2900xt passief gekoeld dan? Ik meende me te herinneren dat die kaart net een stofzuiger was?

Edit;
If the GPU core hits 100 Degrees C a safety feature will kick in and the fan will rotate 100%, and man I tell you; its like a helicopter landing in your room. We did a small test. We forced the fan to 30% (desktop mode) at 48 DBa, then ran 3DMark 06. Believe it or not but after a minute the core had reached 100 Degrees C and the 100% fan RPM kicked in.
http://www.guru3d.com/art...d-2900-xt-512mb-review/13

[ Voor 69% gewijzigd door Format-C op 31-12-2010 08:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Jammer dat je het serieus neemt. Ik bedoelde het namelijk niet zo. Ik wilde enkel en alleen aantonen dat iedereen van alles wel kan roepen wat hij of zij heeft gezien, meegemaakt en of gehoord...

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Mja, die vapor-x versie van de 5870 schijnt niet erg stil geweest te zijn, zelfs minder stil dan een reference 5870, dus ik kan me voorstellen dat de GTX5x0 stiller is.

Edit: hetzelfde geldt voor de Twin Frozr versie en de Lightning. De reference 5870 was/ is gewoon mega stil.

Edit2: en volgens deze chart is de GTX580 zelfs stiller dan een HD5870 load;

Afbeeldingslocatie: http://tpucdn.com/reviews/HIS/Radeon_HD_6970/images/fannoise_load.gif

[ Voor 47% gewijzigd door Format-C op 31-12-2010 08:47 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
GTX560
3DMark 11
P41xx
X14xx

nVidia zet hem neer als vervanger van de GTX470

[ Voor 45% gewijzigd door -The_Mask- op 31-12-2010 11:01 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 263719

Hmm, concurrentie dus voor de HD6950, en die scoort toch iets hoger in 3DMark 11...

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Format-C schreef op vrijdag 31 december 2010 @ 08:33:
Mja, die vapor-x versie van de 5870 schijnt niet erg stil geweest te zijn, zelfs minder stil dan een reference 5870, dus ik kan me voorstellen dat de GTX5x0 stiller is.

Edit: hetzelfde geldt voor de Twin Frozr versie en de Lightning. De reference 5870 was/ is gewoon mega stil.

Edit2: en volgens deze chart is de GTX580 zelfs stiller dan een HD5870 load;

[afbeelding]
Oh ja ?

Afbeeldingslocatie: http://nl.hardware.info/productinfo/grafiek/6232/85986,86745,86747,87213,87766,87798,88435,88674,88764,88794,89303,89319,89388,91023,92933,95030,95178,95383,96144,97625,97823,99289,99699,99700,99701,100727,100797,102124,102732,102772,103210,103229,103243,103377,104021,104040,104061,104095,104909,105157,105197,105201,105216,105427,105589,105658,105660,105667,105883,105976,106909,106960,107340,107474,107702,107706,107716,107721,107726,107742,108488,108489,110148,110812,111074,111253,113807,113809,113812/?selectedProduct=85986
Afbeeldingslocatie: http://images.tweaktown.com/content/3/0/3000_44.png

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Nu is de vraag, welke review heeft gelijk :+

[ Voor 21% gewijzigd door Anoniem: 263922 op 31-12-2010 19:02 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 263922 schreef op vrijdag 31 december 2010 @ 18:58:
[...]


Nu is de vraag, welke review heeft gelijk :+
De discussie ging over de Vapor-X van Sapphire, die dus duidelijk stiller is dan de standaard HD5870. Maar het is een beetje een non-discussie, omdat de meeste kaarten erg dicht bij elkaar in de buurt zitten.

Acties:
  • 0 Henk 'm!

Anoniem: 263922

Is zeker een non discussie en een normaal mens zal het niet eens horen, voor sommige mensen is het echter belangrijk dat hun favoriete club wint :z

Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 09-05 09:35

Edmin

Crew Council

get on my horse!

Zullen we het netjes houden, zo op het randje van 2010?

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 17-03 09:05

Format-C

Tracing Rays

Anoniem: 263922 schreef op vrijdag 31 december 2010 @ 18:58:
[...]


Nu is de vraag, welke review heeft gelijk :+
LOL. Inderdaad.... _O-

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

dahakon schreef op vrijdag 31 december 2010 @ 22:52:
[...]


De discussie ging over de Vapor-X van Sapphire, die dus duidelijk stiller is dan de standaard HD5870. Maar het is een beetje een non-discussie, omdat de meeste kaarten erg dicht bij elkaar in de buurt zitten.
Ik heb hier een vapor-X en ik kan je vertelle die is absoluut niet stil. Op 100% fan maakt da ding een erg rot geluid.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Heel veel kaarten maken veel lawaai als de fan op 100% draait, maar de meesten halen dat nooit.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

-The_Mask- schreef op zaterdag 01 januari 2011 @ 15:30:
Heel veel kaarten maken veel lawaai als de fan op 100% draait, maar de meesten halen dat nooit.
Daar heb je gelijk in, maar voor mijn HD5870 Vapor-x had ik een GTX295 en die maakt op 100% fan een veel prettiger geluid voor je oren. Mijn vapor-x is een soort brom wat stoort waar mijn GTX295 meer een egaal wind achtig geluid maakt.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 263922

De gtx295 klinkt idd heel constant, al had ik hem alleen op 100% als ik furmark draaide, voor games was de auto setting voldoende om hem op nette temperaturen te houden voor een kaart met een TDP van 294watt.
Heb nu een gtx460 met waterkoeling maar dat was niet omdat de gtx295 zo storend aanwezig was, meer vanwege het feit dat ik maar enkele games heb met multi-gpu ondersteuning, dan is het toch zonde om zo'n kaart in je systeem te hebben.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Mijn GTX295 vloog in de fik toen de fan op 100% begon te draaien.
M.a.w. lekker belangrijk wat jullie persoonlijke ervaringen zijn. De metingen liegen er niet om en metingen zijn feiten en kunnen worden gebruikt als argument. Persoonlijke ervaringen c.q. meningen zijn irrelevant. Immers is een discussie gebaseerd op meningen eindeloos. Vaak valt men dan ook terug op een meningen bij het verliezen van een discussie gebaseerd op feiten.

Voorbeeld:"Uit een test is gebleken dat nVidia op alleen vlakken beter is als AMD(sneller, zuiniger, goedkoper, minder lawaai al de rest zijn de fabrikanten gelijk aan elkaar) hieruit volgt natuurlijk een discussie. De AMD fanboys verliezen dat natuurlijk en zeggen vervolgens dat ze alsnog de AMD kaart beter vinden want die hebben betere drivers aldus de de AMD fanboys".
Xenomorphh schreef op zaterdag 01 januari 2011 @ 16:56:
Daar heb je gelijk in, maar voor mijn HD5870 Vapor-x had ik een GTX295 en die maakt op 100% fan een veel prettiger geluid voor je oren. Mijn vapor-x is een soort brom wat stoort waar mijn GTX295 meer een egaal wind achtig geluid maakt.
Dit is een ook een ideaal voorbeeld want uit de metingen blijkt dat een HD5870 Vapor-X stiller is als een GTX295. Ondanks dit feit waar geen discussie over mogelijk is zegt Xenomorphh:"Dat als het op de hoeveelheid geluid aankomt dat de kaarten produceren hij toch de GTX295 prefereert." Terwijl de HD5870 Vapor-X de duidelijke winnaar is als we kijken naar de feiten. Hij "wint" de discussie dus met zijn mening.

PS geen rancune jegens Xenomorphh
Anoniem: 263922 schreef op vrijdag 31 december 2010 @ 23:01:
Is zeker een non discussie en een normaal mens zal het niet eens horen, voor sommige mensen is het echter belangrijk dat hun favoriete club wint :z
Ik vind het niet zo belangrijk dat mijn favoriete club wint, als ik mijn gelijk maar haal ;) En dat is precies wat ik heb gedaan door met twee argumenten te komen(de metingen van HWI en TT).
Anoniem: 263922 schreef op vrijdag 31 december 2010 @ 18:58:
Nu is de vraag, welke review heeft gelijk :+
TT meet op 2cm afstand met een andere geluidsmeter dan dat HWI dat doet op 10cm afstand.
Beiden reviews hebben dus gelijk mits de resultaten accuraat zijn.

Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op zaterdag 01 januari 2011 @ 20:35:
Mijn GTX295 vloog in de fik toen de fan op 100% begon te draaien.
M.a.w. lekker belangrijk wat jullie persoonlijke ervaringen zijn. De metingen liegen er niet om en metingen zijn feiten en kunnen worden gebruikt als argument. Persoonlijke ervaringen c.q. meningen zijn irrelevant. Immers is een discussie gebaseerd op meningen eindeloos. Vaak valt men dan ook terug op een meningen bij het verliezen van een discussie gebaseerd op feiten.

Voorbeeld:"Uit een test is gebleken dat nVidia op alleen vlakken beter is als AMD(sneller, zuiniger, goedkoper, minder lawaai al de rest zijn de fabrikanten gelijk aan elkaar) hieruit volgt natuurlijk een discussie. De AMD fanboys verliezen dat natuurlijk en zeggen vervolgens dat ze alsnog de AMD kaart beter vinden want die hebben betere drivers aldus de de AMD fanboys".


[...]


Dit is een ook een ideaal voorbeeld want uit de metingen blijkt dat een HD5870 Vapor-X stiller is als een GTX295. Ondanks dit feit waar geen discussie over mogelijk is zegt Xenomorphh:"Dat als het op de hoeveelheid geluid aankomt dat de kaarten produceren hij toch de GTX295 prefereert." Terwijl de HD5870 Vapor-X de duidelijke winnaar is als we kijken naar de feiten. Hij "wint" de discussie dus met zijn mening.

PS geen rancune jegens Xenomorphh


[...]


Ik vind het niet zo belangrijk dat mijn favoriete club wint, als ik mijn gelijk maar haal ;) En dat is precies wat ik heb gedaan door met twee argumenten te komen(de metingen van HWI en TT).


[...]


[...]


TT meet op 2cm afstand met een andere geluidsmeter dan dat HWI dat doet op 10cm afstand.
Beiden reviews hebben dus gelijk mits de resultaten accuraat zijn.
Hou je een beetje in.
Het kan wel zijn dat de Vapor-x minder decibels produceert maar als de toon niet prettig is stoort dat veel meer;) En dat is mijn mening die ik geef ik doe helemaal niet mee aan een discussie over decibels. Voor mijn gevoel is een GTX295 gewoon minder storend.

[ Voor 1% gewijzigd door Edmin op 02-01-2011 17:31 ]

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Alles kan als flame worden opgevat en het is niet mijn bedoeling iemand te kwetsen.

De toonhoogte kan worden gemeten waarom men dit niet doet weet ik niet. Het is namelijk inderdaad zo dat bepaalde tonen storende zijn als anderen. Hierbij is het volgens mij zelfs zo dat dit als algemeen wordt gezien. M.a.w. wat voor de een storend is is voor de ander ook storend dus er is genoeg reden de toonhoogte ook te meten.

"Voor mijn gevoel is een GTX295 gewoon minder storend."

De maten waarin het geluid storend wordt bevonden kan gekoppeld worden aan de geluidsniveau. Dus de ene kaart is storend als het meer geluid produceert als de andere kaart. Ze meten namelijk niet voor niets het aantal decibel.

Maar ook bepaalde tonen zijn storend waardoor per kaart hierin ook nog eens onderscheid gemaakt kan worden. Maar wat weegt zwaarder ? De geluidssterkte of toonhoogte ? Daarbij komt ook nog eens dat het gehoor gevoeliger is voor bepaalde tonen waardoor het geluid dat op die toonhoogte zit harder lijkt maar het dat feitelijk niet is.

Acties:
  • 0 Henk 'm!

  • Deathchant
  • Registratie: September 2003
  • Laatst online: 08-05 23:03

Deathchant

Don't intend. Do!

ik volg dit nou al een tijdje en kunnen we aub weer ontopic gaan aangaande NVIDIA gerelateerde zaken?

Canon: EOS R6 | EF 16-35/4L IS USM | EF 70-200/2.8L IS II USM
Zeiss: 35/2 Distagon | 50/2 Makro-Planar | 85/1.4 Planar | 100/2 Makro-Planar | 135/2 Apo Sonnar


Acties:
  • 0 Henk 'm!

  • Springstof
  • Registratie: Juli 2010
  • Niet online
Nogal raar dat hierover een discussie ontstaat. Als iemand een bepaalde kaart storender vind klinken dan een andere kaart die evt minder decibel produceert is dat uiteraard zijn goed recht om dat aan te geven en niet iets om lang over te discusieren, lijkt mij...

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 09:27
voeg iets toe of plaats een TR

[ Voor 89% gewijzigd door Edmin op 02-01-2011 17:29 ]


Acties:
  • 0 Henk 'm!

  • Xenomorphh
  • Registratie: April 2009
  • Laatst online: 12-03 09:18

Xenomorphh

Soep met Ballen

madmaxnl schreef op zaterdag 01 januari 2011 @ 23:02:
De maten waarin het geluid storend wordt bevonden kan gekoppeld worden aan de geluidsniveau. Dus de ene kaart is storend als het meer geluid produceert als de andere kaart. Ze meten namelijk niet voor niets het aantal decibel.
Decibel != Geluid.. Het is geluidssterkte. De toon is het die het minder prettig maakt dan de andere. Denk aan straaljager die opstijgt waar jij naast staat. Of dat je bij een concert bent waar 120 db uit de speakers komt. Ik weet wel wat minder irritant is in dat geval. De straaljager maakt gewoon een veel minder fijn geluid. Natuurlijk is dit ook weer een mening maar wel een mening waar de meeste het over eens zijn. Decibel's meten is gewoon niet genoeg om te zeggen of een herrie maakt ja of nee.

There are 10 kinds of people in the World...Those who understand binary, and those who dont!


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik denk dat daar het probleem zit, al heb ik geen zin in ellenlange discussies over wat nu waar is of niet, dus ik negeer je posts aardig vaak, vooral omdat je me vaak genoeg benadert alsof ik een leek ben.
Dat zal ook voor de rest gelden, iedereen hier is wel op de hoogte van de gang van zaken, en de hele tijd die testjes om dingen te bewijzen zijn danig irritant, het ligt er maar net er aan wat iemand gelooft, de een anandtech, de andere HWI en hardwarecannucks enz., je snapt het idee.
Ook altijd die sarcastische opmerkingen die de plank volledig misslaan, dat werkt nu niet direct in je voordeel wat geloofwaardigheid betreft, nog te zwijgen over die vergelijkingen welke op een zijspoor belanden, zoals de geluidssterkte van een geluisbron versus de verdraagzaamheid van een geluidsbron.

Als je nu eens met leuk nieuws zou komen zou dat erg fijn zijn, jouw mening is namelijk net zo irrilevant als die van anderen, al heb je dat zelf jammergenoeg niet door.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Xenomorphh schreef op zondag 02 januari 2011 @ 16:31:
[...]


Decibel != Geluid.. Het is geluidssterkte. De toon is het die het minder prettig maakt dan de andere. Denk aan straaljager die opstijgt waar jij naast staat. Of dat je bij een concert bent waar 120 db uit de speakers komt. Ik weet wel wat minder irritant is in dat geval. De straaljager maakt gewoon een veel minder fijn geluid. Natuurlijk is dit ook weer een mening maar wel een mening waar de meeste het over eens zijn. Decibel's meten is gewoon niet genoeg om te zeggen of een herrie maakt ja of nee.
Decibel is niet per definitie geluidssterkte: Wikipedia: Geluidssterkte

Straaljager concert vergelijk gaat ook niet helemaal op daar een straaljager 130dB produceert en er bij een concert 110 dB wordt geproduceerd. Daarbij komt ook nog eens dat muziek ritmisch is waardoor het niet te vergelijken is met "lawaai". Maar ik snap je punt wel een beetje.

"Decibel's meten is gewoon niet genoeg om te zeggen of een herrie maakt ja of nee."

Dit ben ik met je eens maar hoe moeten wij anders kaarten van elkaar onderscheiden op het gebied van de hoeveelheid geluid die ze produceren ? Toonhoogte erbij gaan meten waar je vervolgens weer met een dilemma zit. Want welke tonen zijn slechter dan anderen etc ?

@Frietjemet


Ik post zo nu en dan wel eens wat "relevant" en "leuk" nieuws:

madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic -..."
madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic -..."


Over de discussie van geluid, het begon hiermee:

madmaxnl in "[Algemeen] nVidia Nieuwdiscussie Topic -..."

Dat het vervolgens zo is gelopen als het gelopen is kun je niet op mij afschuiven immers krijg ik constant reacties waar ik dan toch wel op mag reageren ? Ik was het gewoon niet eens met er werd gezegd over de GTX580 die minder geluid maakten dan een HD5870 Vapor-X. Ik kwam met bewijs, namelijk een grafiek met het aantal dB dat de kaarten produceren. Vervolgens begint Xenomorphh over de toonhoogte, ik had nog geen woord over de toonhoogte gerept dus vervolgens krijgen we daar weer een discussie over.

Jammer dat je zo negatief tegen me aankijkt. Ik bedoel het niet slecht.

Acties:
  • 0 Henk 'm!

  • Airdack
  • Registratie: Juni 2001
  • Laatst online: 26-04 22:47
madmaxnl schreef op zondag 02 januari 2011 @ 20:31:
[...]
Dit ben ik met je eens maar hoe moeten wij anders kaarten van elkaar onderscheiden op het gebied van de hoeveelheid geluid die ze produceren ? Toonhoogte erbij gaan meten waar je vervolgens weer met een dilemma zit. Want welke tonen zijn slechter dan anderen etc ?
Ik heb nog een vakje sound control gevolgd tijdens mijn studie, en daar heb ik toch echt een keer deze mooie grafiek te zien gekregen: (nouja, eentje die erop leek dan)
Wikipedia: File:Lindos1.svg

Het is dus prima mogelijk om rekening te houden met de frequentiegevoeligheid van het menselijk oor in je beoordeling hoe 'hard' een geluid is. :)

Gamen op een laptop is best ok .... echt


Acties:
  • 0 Henk 'm!

Anoniem: 263922

Ik kijk niet negatief tegen je aan, maar je probeert het verhaal altijd zo te verdraaien dat jij gelijk hebt.
De reviews die jij tevoorschijn tovert zijn feiten, een review die iemand anders tevoorschijn haalt is direct irrilevant, dat is geen bewijs tonen, maar onnodige stemmingmakerij.
Dat linkje wat je post is idd leuk en relevant in dit topic, maar het raakt totaal ondergesneeuwd door die vergelijkingen van diverse reviews waar geen goedgefundeerd argument uit voort te trekken is.

Ik verbied je het helemaal niet om te reageren (wil ik ook niet), maar je reageert vaak genoeg op een dusdanige manier, waaruit je het bekende 'wie de bal kaatst, kan hem terug verwachten' krijgt.

Verder ook niks kwaads mee bedoeld trouwens ;)

[ Voor 35% gewijzigd door Anoniem: 263922 op 03-01-2011 17:30 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 263922 schreef op maandag 03 januari 2011 @ 17:29:
De reviews die jij tevoorschijn tovert zijn feiten, een review die iemand anders tevoorschijn haalt is direct irrilevant, dat is geen bewijs tonen, maar onnodige stemmingmakerij.
In een discussie over geluidsniveau tussen een HD5870 Vapor-X en een GTX480/580 is een review waarin de HD5870 Vapor-X niet voorkomt toch echt redelijk irrelevant om eerlijk te zijn. Maar goed, wederom een poging om te stellen dat het toch vooral een subjectief gebeuren is of een Fan al dan niet storend is in de normale gebruikers-situaties, waarbij zelfs zaken als geluidsniveau op bepaalde frequentiegebieden niet alles zeggen, omdat het nu eenmaal persoonlijk is welke frequentiegebieden als storend ervaren worden en welke niet.

Enfin, binnenkort CES 2011. Zal nVidia Tegra 3 aankondigen? Hoeveel producten gebasseerd op Tegra 2 zullen daadwerkelijk gelanceerd worden op CES?
Pagina: 1 ... 4 ... 6 Laatste

Dit topic is gesloten.