Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ziet er ontzettend gaaf uit maar in de praktijk zal het goed kut zijn iddXenomorphh schreef op woensdag 30 december 2009 @ 18:06:
[...]
Wat een ontzettend gave koeler maar of het efficiënt is ik betwijfel het. Zal flink wat lawaai maken met die mini fans.
Is het voor jou een schok dat dat voor een notebook gewoon high-end is? Mensen die een laptop handiger vinden ivm studie en beperkte ruimte op een kamer, zouden kwijlen van zo'n notebook.Anoniem: 292676 schreef op woensdag 30 december 2009 @ 17:05:
[...]
wow die laptops is brol, kijk eens naar de specs
- een rebrande gt240
- een quadcore maar 1.7 ghz -_-
- 15.6 inch full hd, is er een vergrootglas bij?
- 8 gig geheugen maar geen 64 bit OS wtf
Anoniem: 263922
Al lijkt het me niet de meest efficiënte oplossing
Anoniem: 292676
nee, 't is gewoon dat er veel betere opties zijn voor die prijsGENETX schreef op woensdag 30 december 2009 @ 20:47:
[...]
Is het voor jou een schok dat dat voor een notebook gewoon high-end is? Mensen die een laptop handiger vinden ivm studie en beperkte ruimte op een kamer, zouden kwijlen van zo'n notebook.
Nu ...Ion2 zou zo veel beter worden etc... alleen jammer dat het geen chipset meer is!
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Mag ik vragen wat het wel is dan?neliz schreef op donderdag 31 december 2009 @ 00:36:
Jullie kennen ION well he? Nvidia's MCP79 chipset. lekker zuinig, leuk voor netbookjes en ander klein spul...
Nu ...Ion2 zou zo veel beter worden etc... alleen jammer dat het geen chipset meer is!
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Ja wil ik ook wel weten : * nero355Xenomorphh schreef op donderdag 31 december 2009 @ 10:07:Mag ik vragen wat het wel is dan?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
een rebrand!Xenomorphh schreef op donderdag 31 december 2009 @ 10:07:
Mag ik vragen wat het wel is dan?
Tevens gaan er nog een paar lager geclockte kaarten het leven zien als "Green" producten en dan houdt het wel zo'n beetje op qua nvidia nieuws op de aankomende CES.
[ Voor 23% gewijzigd door neliz op 31-12-2009 11:00 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ze hebben het groene licht gezienAnoniem: 292676 schreef op donderdag 31 december 2009 @ 13:14:
ik vraag me af hoe ze dat gaan uitleggen bij CES?

Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Hey niks is zeker he, mss word hij vlak voor launch nog gerebrand naar GT460Darkasantion schreef op donderdag 31 december 2009 @ 13:26:
[...]
Ze hebben het groene licht gezien? En ze willen niet meer vertellen want dan denken mensen allerlei verkeerde dingen
? *Kuch* Fermi, erm GF100, ik bedoel GT300 geruchten *Kuch*
Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say
Newsflash
NVIDIA IS TRYING to make Ion2, its next generation 'chipset' seem like something it is not, but the specs say otherwise. It is just a warmed over G218 integrated graphics chip with a few ports added on.
There are two parts that are due soon for Pinetrail, the GT218-ION-A3 and the GT218-ILV-A3. Production started in November according to some fab moles we ran into recently. For the code name averse, the GT218 is a DX10.1 GPU marketed as the G210 on the desktop and has since been renamed to the G310 to cynically snow consumers. Now it is called Ion2, presumably because the snow wasn't deep enough.
The -ION- version will connect to Pinetrails aimed at desktops, the -ILV- is aimed at widgets and devices, but both support the Atom D510, D410, and N450. They have an astoundingly low number of cores, 16, running at 535MHz core and 1230MHz memory. The earlier desktop variants run at 589MHz and 1402MHz, so these parts will be about 10 percent slower for core bound functions than their already anemic desktop brethren.
For outs, the ION variant has HDMI, DVI, DP or VGA, pick two. ILV has LVDS and, pick one, HDMI, DVI, SL, DP or VGA. Claimed performance is P900+ in 3DMark Vantage, quite an interesting number considering the desktop version is clocked higher, has much more memory bandwidth, and scored lower. Is this the classic Nvidia honesty shining through again?
[ Voor 34% gewijzigd door neliz op 01-01-2010 02:21 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
http://translate.googleus...msLJWZVBE5r7ZO_-hk6WIREWA
Kijk maar. Mmmm, ik vind jammer


text gaat naar de knoppen daardoor, google geeft "legendarische uitspraak" in het origineel staat "uitspraak van deze computer legendes."

Miss you CJ....:'( en nee... ik kan niet aan samples komen
Sorry, oké wil jij liever alleen Engels origineel staat in http://www.pcper.com/comments.php?nid=8160neliz schreef op vrijdag 01 januari 2010 @ 14:37:
nederlandse vertaling![]()
text gaat naar de knoppen daardoor, google geeft "legendarische uitspraak" in het origineel staat "uitspraak van deze computer legendes."![]()
Succes.
Dit klopt toch niet?Consider that the last 10% of any GPU/CPUs performance costs well more than 10% of the total power, had NVIDIA wanted to keep the 64 shaders it is apparently dropping on these first products it would easily be 260+ watt card!
Volgens mij zit dat ruim meer dan 10% hoger stroomverbruik voor de laatste 10% performance in eventuele hogere clocks, niet in eventueel extra geactiveerde shaders.
Dan zou je eerder verwachten dat het minder dan 12,5% extra stroomverbruik geeft als je de laatste 64 shaders(=12,5%) activeert omdat je met dezelfde overhead zit. (controllers/cache).
Lijkt me ook ja, Met die chips gaan ze op een veilige waarde zitten kwa frequentie/voltage verhouding. Als je dan omhoog wilt met de klok gaat het stroomverbruik lineair omhoog maar de benodigde voltage verhoging kwadratisch. Dat hakt er nog al indaan! schreef op vrijdag 01 januari 2010 @ 16:15:
[...]
Dit klopt toch niet?
Volgens mij zit dat ruim meer dan 10% hoger stroomverbruik voor de laatste 10% performance in eventuele hogere clocks, niet in eventueel extra geactiveerde shaders.
Dan zou je eerder verwachten dat het minder dan 12,5% extra stroomverbruik geeft als je de laatste 64 shaders(=12,5%) activeert omdat je met dezelfde overhead zit. (controllers/cache).

Facts and perspective don't care about emotion. This was offensive? Hold my beer. When you tear out a mans tongue you not prove him evil, you're telling the world that you fear what he might say

Bestond ie al en heb ik iets gemist.
Of is ie gefaked?
Of is dit model voorbehouden aan rusland?
Gaat me offcourse niet om de oc, maar om HDMI + VGA + DVI
Wat is hier bijzonder aan dan?.Sjoerd schreef op vrijdag 01 januari 2010 @ 23:52:
Gaat me offcourse niet om de oc, maar om HDMI + VGA + DVI
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Practice alle ATi 5000 serie kaarten hebben dit ook, absoluut niet vreemd, sterker nog de ATi 5000 serie is veelal ook nog met een displayport uitgerust..Sjoerd schreef op vrijdag 01 januari 2010 @ 23:52:
[afbeelding]
Bestond ie al en heb ik iets gemist.
Of is ie gefaked?
Of is dit model voorbehouden aan rusland?
Gaat me offcourse niet om de oc, maar om HDMI + VGA + DVI
[ Voor 8% gewijzigd door _Dune_ op 02-01-2010 00:37 ]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
GT210 als ION chipset is perfect man : Niet zeiken en lekker HTPCtje bouwen
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Anoniem: 292676
als de geruchten waar zijn, kan jee makkelijk 1080p kan afspelen met de ondie gfx van intel, daarnaast zal de 880 chipset van amd toch een stuk beter zijn.nero355 schreef op zaterdag 02 januari 2010 @ 01:58:
[...]
GT210 als ION chipset is perfect man : Niet zeiken en lekker HTPCtje bouwen![]()
Het grote punt is dat dit geen chipset is maar gewoon een GPU...nero355 schreef op zaterdag 02 januari 2010 @ 01:58:
[...]
GT210 als ION chipset is perfect man : Niet zeiken en lekker HTPCtje bouwen![]()
UVD kan niet wat Pure Video kan via DXVA !! ATI heeft maar 1 voordeel : HD Audio formaten via HDMI doorsturen.Anoniem: 292676 schreef op zaterdag 02 januari 2010 @ 02:14:als de geruchten waar zijn, kan jee makkelijk 1080p kan afspelen met de ondie gfx van intel, daarnaast zal de 880 chipset van amd toch een stuk beter zijn.
Maakt geen bal uit : Het is een prima chip voor het doeleinde waarvoor die wordt gemaaktSECURITEH schreef op zaterdag 02 januari 2010 @ 02:19:Het grote punt is dat dit geen chipset is maar gewoon een GPU...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Wat kan UVD dan niet wat Pure Video wel kan via DXVA? Zover ik weet is ATi juist sterker of doet niets onder voor Pure Video in DXVA en Nvidia in Linux, hoe dat heet is mij even ontschoten, omdat bij ATi hardware acceleratie onder Linux nog ontbreekt (al hoe wel er inmiddels wel een hack is die zou moeten werken).nero355 schreef op zaterdag 02 januari 2010 @ 02:23:
[...]
UVD kan niet wat Pure Video kan via DXVA !! ATI heeft maar 1 voordeel : HD Audio formaten via HDMI doorsturen.
[ Voor 17% gewijzigd door _Dune_ op 02-01-2010 02:31 ]
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
Daar gaat het artikel ook niet over... er word puur gewezen op een aantal claims van nVidia die niet waar zouden zijn, en ja Charlie laat geen kans achterwegen om nVidia af te branden maar dat doet er weinig toe als de feiten kloppen.nero355 schreef op zaterdag 02 januari 2010 @ 02:23:
Maakt geen bal uit : Het is een prima chip voor het doeleinde waarvoor die wordt gemaakt
- L5.1 profiel kent ATI niet op een paar uitzonderingen na._Dune_ schreef op zaterdag 02 januari 2010 @ 02:30:
Wat kan UVD dan niet wat Pure Video wel kan via DXVA? Zover ik weet is ATi juist sterker of doet niets onder voor Pure Video in DXVA en Nvidia in Linux, hoe dat heet is mij even ontschoten, omdat bij ATi hardware acceleratie onder Linux nog ontbreekt (al hoe wel er inmiddels wel een hack is die zou moeten werken).
- Aantal Reference Frames ondersteuning bij ATI is veel beperkter dan die van nVidia.
- Materiaal die in bepaalde resolutie combinaties is encoded kan ATI niet afspelen.
Ik heb dit al een keer in het BBG topic voor HTPC's geroepen, maar het was blijkbaar niet interessant genoeg

Verder wil ATI nog weleens groen beeld geven met Hardware acceleratie van WMV files. Geen idee of dit in de tussentijd gefixed is.
[ Voor 7% gewijzigd door nero355 op 02-01-2010 21:41 ]
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Anoniem: 308932
Happy New Year to all GeForce Fans!!! There will be a sneak peek of GF100 at our booth at CES in Las Vegas next week. Stop by and say hi!
Dat eerste heeft nVidia ook last van als je CUDA AVC decoding wil gebruiken onder Windows (15 references max ipv 16). Dat tweede kent nVidia ook in sommige PureVideo implementaties (zie hier).nero355 schreef op zaterdag 02 januari 2010 @ 21:40:
[...]
- Aantal Reference Frames ondersteuning bij ATI is veel beperkter dan die van nVidia.
- Materiaal die in bepaalde resolutie combinaties is encoded kan ATI niet afspelen.
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
Nvidia Mobile 300 series zonder DX10.1
Oftewel, the next level of rebranding!http://www.nvidia.com/obj..._geforce_gts_360m_us.html
96 Shaders, DX10.. kent iemand deze chip?
9800GTX Mobile/ GTX280M/ GTS360M
[ Voor 5% gewijzigd door neliz op 04-01-2010 01:27 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Ach Ati wordt binnenkort marktleider, dan hoop ik dat ze eindelijk doorkrijgen dat het niet slim is om zo je klanten te behandelen..neliz schreef op maandag 04 januari 2010 @ 01:18:Nvidia Mobile 300 series zonder DX10.1
Oftewel, the next level of rebranding!
http://www.nvidia.com/obj..._geforce_gts_360m_us.html
96 Shaders, DX10.. kent iemand deze chip?
9800GTX Mobile/ GTX280M/ GTS360M
Anoniem: 58485
Om toch te verkopen.. dat is knap met een drie jaar oud produkt! Alhoewel de prijzen volgens dit artikel met 50% zijn gedaald het afgelopen kwartaal, om zo toch nog te kunnen verkopen. Van welingelichte bronnen begreep ik dat ze dit "scherp afprijzen" niet alleen doen in hun mobile segment.Anoniem: 58485 schreef op maandag 04 januari 2010 @ 01:36:
Waarom is Nvidia bezig met rebranden uberhaubt? Om toch een enigzins bijgewerkte portfolio te hebben?
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 58485
Ik snap ook niet dat er zoveel tijd en investment in een asociaal grote chip gestoken wordt, die kampt met ontzettend veel problemen nog.
Onzin. De keuze tussen de twee is het ene nadeel afwegen tegen het ander en daar maakt ieder zijn afweging tussen.nero355 schreef op zaterdag 02 januari 2010 @ 21:40:
[...]
Ik heb dit al een keer in het BBG topic voor HTPC's geroepen, maar het was blijkbaar niet interessant genoeg
Is gebaseerd op de GTS 260M maar is licht geoverclocked. Niet veel spannends dus behalve dat deze op 40nm z'n werk doet.neliz schreef op maandag 04 januari 2010 @ 01:18:Nvidia Mobile 300 series zonder DX10.1
Oftewel, the next level of rebranding!
http://www.nvidia.com/obj..._geforce_gts_360m_us.html
96 Shaders, DX10.. kent iemand deze chip?
9800GTX Mobile/ GTX280M/ GTS360M
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Klopt als een bus. Persoonlijk als anime kijker heb ik ook weinig aan ati kaartjes gehad en veel meer aan nVidia kaarten maar als je gewone dvds of Blu-rays afspeelt heb je zelf meer aan een ati kaartje dan een nVidia kaart (alle zover ik het begreep deed UVD vroeger een stap meer dan purevideo, daarbij is Purevideo nog steeds betalend... dus alles hangt echt af van het uiteindelijke gebruiksdoel.Edmin schreef op maandag 04 januari 2010 @ 01:57:
[...]
Onzin. De keuze tussen de twee is het ene nadeel afwegen tegen het ander en daar maakt ieder zijn afweging tussen.
Het enige wat je kan doen bij zo'n advies is van beide fabricanten een voorstel formuleren en bijvermelden in welke gevallen welke oplossingen beter af waren .. (en ik denk niet dat er enorm veel tweaker lezers een htpc samen stellen voor hoofdzakelijk cartoons te bekijken XD)
Tenslotte als je de nieuwe cpu/gpu combinatie van Intel bekijkt is deze discussie voor htpc's eigenlijk verleden tijd
zie:
Hardware.Info
Jaja ik weet het ... concurrentie maar hun artikel vond ik persoonlijk toch beter dan het tweakers artikel..
Wat mij ook opviel is dat Intel blijkbaar een Hybrid oplossing aanbiedt in combinate met discrete gpu's (maw zowel ATI als nVidia) zonder te moeten rebooten. Dit echter enkel op laptops. nVidia biedt dit ook enkel nog maar op laptops .. ik vraag me af of dit nu een restrictie is opgelegd door MS of dat enkel het energiebeheer goed samenwerkt met deze functionaliteit indien windows draait op mobiele hardware.
Daarbij de discussie over htpc's en nVidia kan je beter in het specifieke topic voeren .. ook al ben ik daar de enige poster in XD
[nVidia]Hardware/softwarematige playback
On-topic: Het is al een tijdje gebruikelijk dat nVidia een nieuwe naam geeft aan kaartjes die van productie procédé verkleinen maar qua specs gelijk blijven.
In principe is dat niet zo erg daar die kaartjes toch zuiniger worden en zeker voor mobiele kaartjes is dit toch wel een pluspunt. Echter vrees ik dat vele gpu fabricanten gewoon hun stock gaan rebranden (nVidia houdt dit dus niet tegen) waardoor je als consument eigenlijk totaal niet zeker bent van het zuiniger zijn van je GPU. We denken hier bijvoorbeeld ook aan de 9800GT .. tegen dat ik eindelijk een kaart vond waarvan ik zeker wist dat hem gefabriceerd was op het 55nm proces (en dus hybrid sli supportte)...
Wat eigenlijk niet kunnen is dat ze gelijk 2 generaties aan gpu's in 1 merk range gaan plaatsen.
Zoals bv GT..210-250 <--> 260 -280
Blijkbaar plannen ze dit opnieuw voor de GT3 serie.
Als ik zie hoeveel moeite ik moet doen om mensen te overtuigen dat een hogere serie tegenwoordig niet persé beter is ...
PS: Sorry voor het te laat aanmaken van een nieuw TS, ik ga er direct aan beginnen en als compensatie hopelijk nog een paar updates doorvoeren
Lek eens een paar codenamen voor Fermi producten, tweakers kan wel wat hits gebruiken als compensatie voor het door jou noemen van hw.i!lightdestroyer schreef op maandag 04 januari 2010 @ 10:49:
PS: Sorry voor het te laat aanmaken van een nieuw TS, ik ga er direct aan beginnen en als compensatie hopelijk nog een paar updates doorvoeren
[ Voor 6% gewijzigd door neliz op 04-01-2010 11:13 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Het enige wat ik vandaag gezien heb is dat nVidia hun product site een beetje aangepast heeft (OEM modellen staan nu mooi vanonder..)
En ze nu 2 modellen extra hebben ingevoerd namelijk deGeen idee hoe lang deze al op de site staan, en of dit nu een tegenreactie is op de intel igps ...
De HD4200 van ATI en de 8200 igp van nVidia haalden minder 3Dmarks ..dusja je kan zeggen dat de 9400 wss beter zal zijn .. maar voor de paar fps meer ga je toch geen andere igp kopen hoor XD
*Edit, buiten dat het oud spul is dat wss ergens anders al op hun site stond, zijn er geen specificaties te vinden van hun gpu's derop .. dus komen ze gewoon niet in de TS (luiheid van mijn kant mss .. maar dit zijn echt verouderde 8200/8300 gpu varianten die dus uit de TS zijn gehaald)
[ Voor 16% gewijzigd door lightdestroyer op 04-01-2010 12:18 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
ION pagina op nVidia's website
En tot voor kort werden deze kaartjes niet onder GeForce geplaatst ..
Nu ja bon wss is het gewoon een aanpassing naar ION2 toe .. die zullen enkel nog een gpu zijn daar het geen chipsets meer kunnen zijn
Nog een nieuwtje dan:lightdestroyer schreef op maandag 04 januari 2010 @ 12:26:
Zover ik het weet wel ja, enkel heeft ION normaal een aparte webpagina op hun website nml:
ION pagina op nVidia's website
En tot voor kort werden deze kaartjes niet onder GeForce geplaatst ..
Nu ja bon wss is het gewoon een aanpassing naar ION2 toe .. die zullen enkel nog een gpu zijn daar het geen chipsets meer kunnen zijn
Er is een Core2 chipset MCP89 en een DMI variant MCP99. best mogelijk dat deze (89) op CES geannonceerd word maar nvidia zal het heel erg af laten hangen aan de prijzen die intel gaat rekenen voor hun "oudere" chipsets nu die opgedoekt worden voor Core i3.
MCP99 is in principe klaar en kan gebruikt worden voor zowel Atom als i3 (waarschijnlijk) maar kan natuurlijk pas gebruikt worden als intel een DMI licentie geeft aan nvidia (Misschien met Pasen? Als we die dag ook Pinksteren vieren natuurlijk) MCP99 zou niet de DMI interface gaan gebruiken voor het videomemory maar Sideport (voor meer performance.)
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Geloof je het zelf 50% sneller dan de HD5870, laat me raden de test methode zal wel niet zo eerlijk zijn geweest en met eerlijk bedoel ik volledig en zonder PhysX o.i.d.

[ Voor 63% gewijzigd door Ultraman op 05-01-2010 11:36 ]
Met de fan op standje TURBO TURBO @ 100% wellicht. Als die chip werkelijk zo gecompliceerd (miljarden transistoren) en zo lastig te maken is (op 40nm), dan wens ik ze veel succes met het behalen van een extreem goede load temperatuur. Het geheel komt uitermate ongeloofwaardig over.GF100's maximum load temperature is 55 C.
Nergens een tijdstip van editing bijvoorbeeld. Komt een beetje over als kijk-mij-interessant-zijn.*Removed: Under business NDA*
Ik denk dat het inderdaad een kijk-mij-belangrijk-zijn post is.Jejking schreef op dinsdag 05 januari 2010 @ 12:56:
Nog een leuk detail:
[...]
Met de fan op standje TURBO TURBO @ 100% wellicht. Als die chip werkelijk zo gecompliceerd (miljarden transistoren) en zo lastig te maken is (op 40nm), dan wens ik ze veel succes met het behalen van een extreem goede load temperatuur. Het geheel komt uitermate ongeloofwaardig over.
[...]
Nergens een tijdstip van editing bijvoorbeeld. Komt een beetje over als kijk-mij-interessant-zijn.
Kom op, je wilt toch niet geloven dat een 3 Miljarden transistor tellend monster(50% meer dan de RV870!!) die ook nog een keer op flinke cloaks zal zitten om die +50% FPS boven de HD5870 te bewerkstellen, want we hebben met RV870 gezien dat transistor aantal x2= keer meer FPS/Performance maar 55 graad tijdens load wordt? Leuk, als dat waar is dan heb je een snelle kaart, maar kun je geen ruk meer horen omdat die koeler(s) dan inderdaad TURBO TURBO voluit staat te blazen.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Jejking schreef op dinsdag 05 januari 2010 @ 12:56:
Nergens een tijdstip van editing bijvoorbeeld. Komt een beetje over als kijk-mij-interessant-zijn.
Bron: http://www.guildwars2guru...-freeeeeeeeeee-t2238.htmlCopied over from GWG... I am free of my non business NDAs as of midnight, Jan 5th.
Dus het is logisch dat er in zijn post geen 'edit lijn' staat.
[ Voor 7% gewijzigd door Allubz op 05-01-2010 16:24 ]
Interesse in een custom build workstation, voor gaming, wetenschappelijke toepassingen, of puur om de stijl? Contact @ https://vogd.design
Als dat toch eens waar mocht zijn.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Een aantal benchmarkscores zijn zo onderuit te trekken, vooral in de situaties waar set-ups CPU limited zijn en deze kaart in één keer 10% sneller is (dan een HD5850/5870 welteverstaan)Naluh! schreef op dinsdag 05 januari 2010 @ 19:00:
[...]
Als dat toch eens waar mocht zijn.. Maar meestal is iets wat te mooi klinkt om waar te zijn niet waar, dus....
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Anoniem: 91868
Best grappig om te zien hoeveel sneller die al is met zijn 16 stream/cuda cores dan een gewone cpu.
NVIDIA PhysX Particle Fluid Demo
8 elementen, high level of detail, gravity high, rest standaard instellingen
8800gt 40-41 fps
cpu 12-14 fps
gt210 17 fps
NVIDIA PhysX Particle Fluid Demo
standaardinstellingen; gemeten met fraps
8800gt 28 fps
cpu 2 fps
gt210 9 fps
Fluidmark Geeks3D/oZone3D
standaardinstellingen
8800gt score 9204 FPS: min=95 max=635 avg=154
cpu score 1845 FPS: min=6 max=662 avg=34
gt210 score 2974 FPS: min=12 max=622 avg=52
StarTalesBenchmark (NVidia)
standaardinstellingen
8800 av 63.83 max 391.02 min 20.42
cpu av 9.75 max 37.66 min 7.24
gt210 av 49.64 max 405.76 min 20.7
Op Vista64 met 195.81
Anoniem: 292676
en SSE instructies en multi-core support en...spNk schreef op dinsdag 05 januari 2010 @ 22:02:
En wat was hierbij het aantal % cpu gebruik? Dat is namelijk de grote grap bij die hele cpu-physx crap..
Dit zou dan een interessant kaartje voor XBMC kunnen zijn zodra dit in linux gaat werken..
Had je al gegoogled?sharkzor schreef op woensdag 06 januari 2010 @ 09:50:
Kan b.v. de g210 (de uber budget versie) nou audio over hdmi leveren? Ik had vernomen dat het een ingebouwde audio processor had.
Dit zou dan een interessant kaartje voor XBMC kunnen zijn zodra dit in linux gaat werken..
http://www.xbitlabs.com/a...splay/gf-210-gt220_3.html
Het enige dat veranderd is tov van G9x naar g21x is dat het dus over de PCIe bus loopt ipv een losse kabel.The best that this Nvidia product can do is to offer hardware acceleration of HD video decoding, especially as Nvidia’s PureVideo engine in its fourth generation has finally caught up with AMD’s UVD 2.2. It must be noted that Nvidia’s new entry-level GPUs still lack a full-featured audio core. They receive an audio stream from an audio card installed in the system via PCI Express. This implementation is better than the S/PDIF connection that was utilized earlier, though.
Audio over HDMI is dus geen probleem, was het hiervoor ook niet, dus wat was je vraag precies? Support hiervoor is er zo te zien sinds December.
[ Voor 11% gewijzigd door neliz op 06-01-2010 11:18 ]
Miss you CJ....:'( en nee... ik kan niet aan samples komen
ja.neliz schreef op woensdag 06 januari 2010 @ 10:40:
[...]
Had je al gegoogled?
http://www.xbitlabs.com/a...splay/gf-210-gt220_3.html
[...]
Het enige dat veranderd is tov van G9x naar g21x is dat het dus over de PCIe bus loopt ipv een losse kabel.
Audio over HDMI is dus geen probleem, was het hiervoor ook niet, dus wat was je vraag precies? Support hiervoor is er zo te zien sinds December.
vind nu opeens ook deze post:
http://xbmc.org/forum/showthread.php?t=64181
blijkbaar alleen nog stereo ondersteuning(opzich genoeg voor mij), maar dat verifieerd ook maar 1 gebruiker...
vraag me af of in linux die passthrough dus goed werkt. en zijn er dan nog voorwaarden voor de eigenlijke geluidskaart?
het is een interessante kaart gezien deze feature set C ondersteunt.
alleen lees ik op sommige sites dat je beter de gt220 kan nemen gezien deze meer post-processing ondersteunt... hoe dit vertaald naar xbmc is me nog een raadsel.
Pixilated NetphreaX
Dronkenschap is Meesterschap
DragonFly
ati werkt idd niet onder linux/xbmc. Daar word alleen nvidia icm VPDAU goed ondersteunt.TGEN schreef op woensdag 06 januari 2010 @ 14:06:
Ik denk dat je daarvoor nog steeds beter bij de ATi kaarten uit bent, want die hebben gewoon een Intel HD Audio ("Azalia")-compatible controller ingebakken die de meeste besturingssystemen wel ondersteunen (zoals FreeBSD hier).
Ik zou alleen een gfx kaartje willen voor xbmc linux met hdmi audio en SD upscaling support.
Miss you CJ....:'( en nee... ik kan niet aan samples komen
Hij geeft zelf verder in de thread toe dat het inderdaad een beetje "bias" waardes zijn, aangezien ze sowieso komen uit in-house tests. Dan heb je altijd wel wat bias (en nummertjes zijn ook maar nummertjes).madmaxnl schreef op dinsdag 05 januari 2010 @ 07:58:
Fake until proven otherwise.
Geloof je het zelf 50% sneller dan de HD5870, laat me raden de test methode zal wel niet zo eerlijk zijn geweest en met eerlijk bedoel ik volledig en zonder PhysX o.i.d.
Ik kan bij deze wel bevestigen dat de user die dat postte tot voor kort wel degelijk voor Nvidia werkte. We zullen in maart wel zien hoeveel van zijn post (min of meer) blijkt te kloppen.
[ Voor 204% gewijzigd door edward2 op 06-01-2010 20:18 ]
Niet op voorraad.
Laat het 25% sneller ipv 50% sneller zijn dan de 5870 en het water loopt me nog steeds in de mondSteroiD schreef op woensdag 06 januari 2010 @ 18:38:
[...]
Hij geeft zelf verder in de thread toe dat het inderdaad een beetje "bias" waardes zijn, aangezien ze sowieso komen uit in-house tests. Dan heb je altijd wel wat bias (en nummertjes zijn ook maar nummertjes).
Ik kan bij deze wel bevestigen dat de user die dat postte tot voor kort wel degelijk voor Nvidia werkte. We zullen in maart wel zien hoeveel van zijn post (min of meer) blijkt te kloppen.
*benieuwd is
Probeer het eens in het ATI topicedward2 schreef op woensdag 06 januari 2010 @ 20:12:
Btw, bestaan er (al) single slot coolers voor de HD5870?
Maar volgens mij niet al heb ik er niet echt op gelet de laatste tijd.
Jammer dat de score die uit die unigine benchmark rolt er niet bij staat. Maar als het klopt dat hij 36% sneller is als de HD5870 is dat best netjes. Maar dan mogen ze wel met een dual GPU komen voor hemlock.Bromoriusz schreef op donderdag 07 januari 2010 @ 12:14:
De nieuwe Nvidia kaart on show op de CES![]()
zie link: http://www.legitreviews.com/article/1175/1/
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
De GF100 zal inderdaad langzamer worden dan Hemlock als hij maar slechts 36% sneller is dan de HD5870. Echter is de HD5970 gemiddeld rond de 50% sneller dan de HD5970 en ik denk dat prijs doorslaggevend zal zijn. Als ze de Fermi rond de 350-400 euro houden kan het best een interessante kaart worden en ik denk zelfs interessanter dan de HD5970.(Single GPU vs Dual GPU, energieverbruik, prijs etc.)Xenomorphh schreef op donderdag 07 januari 2010 @ 12:26:
[...]
Jammer dat de score die uit die unigine benchmark rolt er niet bij staat. Maar als het klopt dat hij 36% sneller is als de HD5870 is dat best netjes. Maar dan mogen ze wel met een dual GPU komen voor hemlock.
Voor de "performance crown" mogen ze, gebaseerd op deze cijfers, iets uit de hoge hoed gaan toveren, alleen ben ik niet zo happig op een dual GPU versie. Maar ja het is gewoon koffiedik kijken en ik wacht wel tot 1 van de betere reviewsites de GF100 onderhanden heeft genomen.
Boven alles zal het interessant zijn om te zien hoe de kaarten aan elkaar gewaagd zijn in de nieuwe games die vooral ontwikkeld zijn op een AMD testbed (gebrek aan nVidia hardware in deze) waardoor de games wel eens een ander beeld kunnen geven dan de oudere games die wellicht sneller draaien op nVidia hardware.
Al met al blijft het vooral gewoonweg koffiedik kijken totdat nVidia eindelijk eens met echte productie-kaarten komt die getest kunnen worden.
Anoniem: 263922
Hoop niet dat dat een gerebadgde gtx285 wordt, dan moet ik voor dx11 alsnog minimaal een gtx360 kopen
Als een HD5800 niet snel genoeg is zal een eventuele GTS350 dat ook wel niet zijn... De GTX380 zal waarschijnlijk 20-30% sneller zijn dan een HD5870, een GTX360 misschien even snel en een GTS350 zal echt minder snel worden.Anoniem: 263922 schreef op donderdag 07 januari 2010 @ 20:15:
de hd5 serie kan qua prestaties bij mij geen upgrade rechtvaardigen, mijn oc'de gtx260 is snel zat, maar die heeft natuurlijk enkel dx10.0, zou hem graag vervangen voor iets meer dan gelijkwaardig presterende gts350, maar daar kunnen we nog langer op wachten.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 263922
Het gaat er om dat je te veel voor de geleverde performance betaalt ten opzichte van kaarten die al iets van een jaar op de markt zijn, ik heb geen 250 euro over voor een kaart van een nieuwe generatie die misschien 1,5 keer zo snel is als mijn huidige.bwerg schreef op donderdag 07 januari 2010 @ 20:22:
[...]
Als een HD5800 niet snel genoeg is zal een eventuele GTS350 dat ook wel niet zijn... De GTX380 zal waarschijnlijk 20-30% sneller zijn dan een HD5870, een GTX360 misschien even snel en een GTS350 zal echt minder snel worden.
Die hoge prijzen komen door schaarste van chips en natuurlijk het gebrek aan concurrentie van het groene kamp op dit moment

Prijzen zijn niet hoog, ze zijn zelf extreem laag als je kijkt naar enkele jaren geleden toen nVidia alleen een echte high-end kaart had en ATi niks noemenswaardig. Schaars zijn ze daarentegen wel.Anoniem: 263922 schreef op donderdag 07 januari 2010 @ 20:51:
Die hoge prijzen komen door schaarste van chips en natuurlijk het gebrek aan concurrentie van het groene kamp op dit moment
Overigens hoef je geen GTX350 te verwachten, maar alleen een GTX360 en GTX380.
[ Voor 3% gewijzigd door -The_Mask- op 07-01-2010 21:08 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Niet direct, maar zodra de GTX360/380 goed leverbaar zijn zullen ze toch wel een mid-range kaart willen maken lijkt me. Goed, dat moment kan wel heel lang gaan duren, maar je kunt toch wel een GTX/GTS350 verwachten... ooit.-The_Mask- schreef op donderdag 07 januari 2010 @ 21:08:
Overigens hoef je geen GTX350 te verwachten, maar alleen een GTX360 en GTX380.
Heeft geen speciale krachten en is daar erg boos over.
Anoniem: 292676
als het echt erg is een gtx360 eerst en dan de gtx380 met de volgende stepping-The_Mask- schreef op donderdag 07 januari 2010 @ 21:08:
[...]
Overigens hoef je geen GTX350 te verwachten, maar alleen een GTX360 en GTX380.
Ooit wel, maar aangezien er helemaal niks bekend is van mainstream en/of low-end DX11 videokaarten van nVidia bestaat een grote kans dat dit gewoon rebrandes en DX10.1 kaarten worden en/of veel later komen.bwerg schreef op donderdag 07 januari 2010 @ 22:06:
[...]
Niet direct, maar zodra de GTX360/380 goed leverbaar zijn zullen ze toch wel een mid-range kaart willen maken lijkt me. Goed, dat moment kan wel heel lang gaan duren, maar je kunt toch wel een GTX/GTS350 verwachten... ooit.
[ Voor 46% gewijzigd door -The_Mask- op 07-01-2010 22:10 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
In de midrange verwacht ik eigenlijk een rebranded gtx 285 of gtx 260 gebakken op 40 nm en met dx11 ondersteuning.
Als 'ie op 40nm is met DX11 kan ik het geen rebrand meer noemen eigenlijkkarakedi schreef op donderdag 07 januari 2010 @ 22:55:
In de midrange verwacht ik eigenlijk een rebranded gtx 285 of gtx 260 gebakken op 40 nm en met dx11 ondersteuning.
Heeft geen speciale krachten en is daar erg boos over.
Eigenlijk moeten we eerst definieren wat een rebrand is
8800GT > 9800GT.
GTS260M > GTS360M. Die paar extra megaherzen laat ik even voor wat ze zijn.
9800GTX+ > GTS250 is een rebrand, hoewel de standaard hoeveelheid geheugen naar 1GB gebracht werd. Deze rebrand vind ik ook niet zo 'erg' omdat de naam zodanig afwijkt dat je niet direct verwacht dat het 'nieuwe product' beter is dan het oude. Daarnaast past het product met de nieuwe naam logisch in de nieuwe naamgeving van nVidia.
Aangezien de GF100/Fermi de eerste DX11 chip van nVidia is en er geen enkele andere DX11 chip van ze door de tape-out is gekomen vooralsnog, kun je gerust stellen dat midrange (alles onder de GTX360) er de eerste 6 maanden gewoonweg nog niet in zit. Zelfs al zouden ze morgen een tapeout hebben, dan nog ben je zo ongeveer een half jaar kwijt voordat je product in de schappen ligt (uitgaande dat er verder helemaal niets mis is.).
Voor het moment zul je het dus moeten doen met een paar dure kaarten van nVidia, die ergens vanaf maart 'leverbaar' zijn.
GF100 = 380/360
GF104 = 350/340/320
www.hwupgrade.it


link
[ Voor 3% gewijzigd door Blastpe op 08-01-2010 11:40 ]
Zo zouden veel HD4000's ook rebrands zijn van de HD3000's, architectuur komt ook grotendeels overeen en niet eens vernieuwde DX-versie en allebei op 55nm, verder weinig extra functionaliteit... Een rebrand is dezelfde kaart onder een andere naam, maar 40nm en DX11 toevoegen zou echt een veel betere kaart zijn dan een vergelijkbare GTX280 o.i.d, dat zijn twee rigoreuze verbeteringen.karakedi schreef op vrijdag 08 januari 2010 @ 02:04:
Het ligt eraan hoe je er na kijkt, je hebt wel gelijk dat het geen hele rebrand is, maar het is wel voor een deel een rebrand. Als de architectuur grotendeels overeenkomt met de gt200 vind ik het wel deels rebrand, zoals bij de gt240. Dit is niks anders dan en g92 met toevoeging van dx10.1 en gebakken op 40nm.
Eigenlijk moeten we eerst definieren wat een rebrand isdat zou het makkelijker maken.
Een rebrand zou het pas zijn als de GTS350 een 55nm DX10-kaart is.
Heeft geen speciale krachten en is daar erg boos over.
Ken jij een gtx 285 dan met 2x dvi en 1x hdmi ik niet.KiLLaHeRTz schreef op vrijdag 08 januari 2010 @ 12:00:
Kan natuurlijk ook bijvoorbeeld 3 GTX285'en zijn
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Dat zou ik toch wel jammer vinden.
Als alleen ATI met DP kaarten komt zullen er minder veel en minder snel goedkope DP monitoren komen, lijkt me.
Waarom zou Nvidia daarvoor gekozen hebben?
DP is toch goedkoper door minder eisen die het aan hardware stelt en omdat het royalties-vrij is? (maar 4cent, ok)
Het lijkt op een HDMI poort maar het kan net zo goed een DP poort zijn lijkt nogal op mekaar.daan! schreef op vrijdag 08 januari 2010 @ 13:08:
Er zit dus geen display port op de fermi?
Dat zou ik toch wel jammer vinden.
Als alleen ATI met DP kaarten komt zullen er minder veel en minder snel goedkope DP monitoren komen, lijkt me.
Waarom zou Nvidia daarvoor gekozen hebben?
DP is toch goedkoper door minder eisen die het aan hardware stelt en omdat het royalties-vrij is? (maar 4cent, ok)
En dat zou inderdaad jammer zijn voor de mensen die Eyefinity willen gebruiken. Maar dan nog komen er wel meer DP schermen aangezien Matrox ook voor DP kiest.
There are 10 kinds of people in the World...Those who understand binary, and those who dont!
Hmm Fermi certified?
is dit meer een PR achtig iets of gaat het echt zo zijn dat die fermi's enorm veel hitte produceren en dus niet in de meeste cases kunnen vanwege hitte problemen.. zou wel erg vervelend zijn mocht dit echt het geval zijn..
[ Voor 7% gewijzigd door pino85 op 08-01-2010 13:28 ]
Liefhebber van Tweakers
Maar goed, hoe veel mensen draaien quad-SLI, en dan al helemaal met de beste kaarten... Die kunnen best zelf uitzoeken hoe ze een goede airflow krijgen.
Heeft geen speciale krachten en is daar erg boos over.
Dacht al van huh is 1 fermi al zo extreem warm en geeft die zo veel hitte af dat de cases certified moeten zijn omdat je anders veel problemen zou kunnen krijgen
[ Voor 15% gewijzigd door pino85 op 08-01-2010 13:40 ]
Liefhebber van Tweakers
Uit dit stukje een interessante opmerking van de Coolermaster engineer over Fermi-performance:
"He also whispers that the most powerful Fermi [equals] also a Radeon HD 5870 but not 5970. To go beyond 5870, should increase the frequency ... and then exceed the limit of 300 watts. Life Fermi could therefore be short and the new generation happen much more quickly ... be confirmed in the coming months"
Dit topic is gesloten.