[Algemeen] nVidia Nieuws & Discussie Topic - Deel 37 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 ... 7 Laatste
Acties:
  • 37.163 views

Acties:
  • 0 Henk 'm!

Anoniem: 304087

neliz schreef op maandag 24 augustus 2009 @ 11:11:
[...]


Waarvan? weet jij wat de impact is van bijvoorbeeld een GTX260 zonder physics t.o.v. eentje met Physics? Krijg je meer frames als er in één keer 30% meer belasting komt op een kaart?

Wat jij stelt met Cryostasis klopt in de basis niet omdat er een kunstmatige load geplaatst wordt op de CPU die daar niet thuis hoort. Anders zouden alle PhysX games zo beroerd presteren
Die winst komt juist door dat de cpu niet meer het moelijke werk hoeft te doen,
ik vind het vrij logies dat er dan wat extra fps winst is.
Ik zal het nu gelijk tteste ook en zal daar dan wel een screenshot van maken

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 11:28:
Die winst komt juist door dat de cpu niet meer het moelijke werk hoeft te doen,
ik vind het vrij logies dat er dan wat extra fps winst is.
Ik zal het nu gelijk tteste ook en zal daar dan wel een screenshot van maken
Zou het dan niet zo in alle games zijn? Cryostatis is gemaakt met een PPU/GPU in gedachten en was nooit bedoeld om op een CPU PhysX te draaien. dat vinkje zit er alleen om de fanboys een erectie te geven met een fictieve "what if" situatie.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Volgens mij bekijken jullie het verkeerd. Zowel AMD als nVidia willen physics door de GPU laten doen, omdat deze er makkelijk tot 10x meer kan berekenen dan een CPU. Dat is wat Ageia vroeger ook altijd riep, alleen hadden hun geen GPU maar een apparte chip. Echter heeft nog niemand een game met zoveel physics gemaakt. En mits goed ontwikkeld kan een GPU dat zeker sneller doen dan een CPU.

[ Voor 6% gewijzigd door XWB op 24-08-2009 11:37 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 304087

Idd vandaar die preatatie winst als je het door de gpu laat doen.
De game Cryostasis bedoel ik verder niet. Ik bedoelde zo'n onnline shooter die gratis is
met de UT3 engine, maar weet de naam niet meer van deze gratis game die te downloaden
is op 3dguru

Het zijn verder ook geen paar games die physx met de gpu kunnen doen ben ik wel achter.

[ Voor 21% gewijzigd door Anoniem: 304087 op 24-08-2009 11:42 ]


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Ik zou het alleen maar beter vinden als alles door je videokaart werd gedaan, daar koop je zo'n ding van 500 euro voor, toch?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 11:40:
Het zijn verder ook geen paar games die physx met de gpu kunnen doen ben ik wel achter.
minder dan 10.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Zullen we het nog gezellig houden?

Physics kunnen een toegevoegde waarde in een game brengen, echter wil bijna niemand hier tijd (en geld) instoppen waardoor het momenteel allemaal brak is (de paar games die het wel doen), en er weinig games met physics zijn. En die stap zullen veel developers pas nemen zodra alle courante grafische kaarten (>= performance segment uiteraard) physics kunnen verwerken. Anders gezegd, stel dat game x vol zit met physics effecten - en die voor een goede performance een GPU nodig hebben - dan zou je (momenteel) alle mensen met een AMD videokaart buitensluiten. Een deel van je omzet weg, dat gaat dus echt niet gebeuren.

Sowieso zou het hele physics verhaal nog sneller kunnen doorbreken als Microsoft dit in de DirectX API opneemt.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • dvvelzen
  • Registratie: Februari 2002
  • Laatst online: 24-05 20:09
Is er iemand die een snelle tip kan geven over de huidige en korte termijn stand van zaken voor de graka's ?

Ik zie dat de nieuwe verwachtte budgetlijn van nvidia in oktober waarschijnlijk komt. Tevens de geruchten van de hd 5000 series. Ik ben van plan ergens in de komende maand a anderhalf een nieuwe graka te gaan halen.

Op dit moment vind ik de gtx295 (single pcb, ivm kast+koeler ruimte) nog te duur.

Is er een realistische kans dat in de komende tijd deze prijzen gaan zakken ?
(of de nieuwe budget kaarten over de prestaties van de gtx 285 heen gaan?)

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Ik denk dat je gewoon nog ff moet afwachten wat beide fabriekanten
ons gaat brengen, over de performance zul je tog eerst reviews moeten
afwachten

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:27
dvvelzen schreef op maandag 24 augustus 2009 @ 13:00:
Op dit moment vind ik de gtx295 (single pcb, ivm kast+koeler ruimte) nog te duur.

Is er een realistische kans dat in de komende tijd deze prijzen gaan zakken ?
Als de nieuwe ATi kaarten iets leuks (= goede/betere performance) laten zien dan zal nVidia inderdaad, zelfs als ze hun nieuwe kaarten dan nog niet gelaunched hebben, de prijs wel moeten zakken willen ze nog wat verkopen.

Acties:
  • 0 Henk 'm!

  • dvvelzen
  • Registratie: Februari 2002
  • Laatst online: 24-05 20:09
Anoniem: 304087 schreef op maandag 24 augustus 2009 @ 13:02:
Ik denk dat je gewoon nog ff moet afwachten wat beide fabriekanten
ons gaat brengen, over de performance zul je tog eerst reviews moeten
afwachten
ja ok, maar is er enige zinnige indicatie wanneer ze gaan komen ? (heb die fout al eens gemaakt met wachten op de 8800GT's en daardoor uiteindelijk nog een 2 maanden later pas gehaald omdat die krengen overal in voorbestelling waren toen.)

Acties:
  • 0 Henk 'm!

  • Depep
  • Registratie: Juni 2007
  • Laatst online: 15-01 11:24
Zo zonde dat er nu 2 pagina's verspild worden aan een discussie die voorkomen had kunnen worden als mensen gewoon het topic volgen. In deze post van Ed_L staat een linkje naar een anandtech review waar veel aandacht aan Physics / PhysX wordt besteedt.

Voor het gemak hier ook nog even het linkje: http://www.anandtech.com/video/showdoc.aspx?i=3539&p=8

Dan link ik meteen naar de pagina waar uitgelegd wordt dat er wel zo'n 200 games zijn die physics gebruiken, maar slechts een paar die dat ook door de GPU laten versnellen. Als je iets verder leest bekijken ze de grootste titels met PhysX support en geven ze er een oordeel over.

[ Voor 14% gewijzigd door Depep op 24-08-2009 15:28 ]

specs


Acties:
  • 0 Henk 'm!

  • dion_b
  • Registratie: September 2000
  • Laatst online: 01:19

dion_b

Moderator Harde Waren

say Baah

Goed, speeluur is voorbij :/

Ultraman heeft vanmiddag aangegeven dat er normaal en on-topic gereageerd moet worden. Helaas gaan een aantal (Dr Lup voorop) door met off-topic, slecht onderbouwd en vaak op de man af posten. Ik heb de hele off-topic "discussie" over PhysX en een moederbord getrashed en hier en daar wat PM's uitgedeeld. De volgende die over iets ander heeft dan nVidia nieuws, of die het nodig vindt om anderen voor pekingeend ( 8)7 ) uit te maken, te betichten van fanboyisme of in ontkenning te zijn zonder onderbouwing, of anderszins op de man speelt, mag een waarschuwing verwachten. En als het aan mij persoonlijk lag zou het schrijven van "toch" als "tog" in dat rijtje thuishoren

GoT is een forum voor discussie op niveau over computergerelateerde onderwerpen.

Oslik blyat! Oslik!


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Dus van wat ik begrijp, zijn er geen borden met 4x x16? Ik heb zitten googlen maar kom op 2x x16 + 2x x8 max (Asrock Supercomputer).

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
chimo schreef op maandag 24 augustus 2009 @ 22:03:
Dus van wat ik begrijp, zijn er geen borden met 4x x16? Ik heb zitten googlen maar kom op 2x x16 + 2x x8 max (Asrock Supercomputer).
Asus heeft er dacht ik één, maar niet ééntje die (ahum) SLI capable is..

ff googlen..

da-ding!

Asus P6T7WS

[ Voor 3% gewijzigd door neliz op 24-08-2009 22:15 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
chimo schreef op maandag 24 augustus 2009 @ 22:03:
Dus van wat ik begrijp, zijn er geen borden met 4x x16?
Denk het niet, waar ach verkopen zal zo'n mobo toch niet echt. Zal veel te duur worden. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
-The_Mask- schreef op maandag 24 augustus 2009 @ 22:16:
[...]

Denk het niet, waar ach verkopen zal zo'n mobo toch niet echt. Zal veel te duur worden. ;)
Asus heeft de P6T7WS die het wel kan geloof ik. Zij zijn ook de enige vendor die dit nog kunnen.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
#ProductPrijsSubtotaal
1Asus P6T7 WS SuperComputer€ 366,14€ 366,14
ImporterenTotaal€ 366,14
Card Interface (moederbord) 7x PCI-e 2.0 16x
Maar ook dit en dat snap ik niet.
The board features SLI on demand technology, not only supporting up to three graphics cards in a 3 way SLI but also supporting up to four double-deck GPU Graphics cards.
Wat bedoelen ze nou? 3-way SLI en nog eens 4x een losse kaart ofzo? Zou in totaal dus 7 zijn.
The 4 PCIe run on the speed of 16 links gives you the fastest and the most reliable 3-Way SLI graphic performance you ever have
Dat snap ik ook niet. Ze zeggen 4 sloten maar wel 3-way SLI? Dat is dan toch 3 sloten?

Aha, die 4 sloten draaien dus allemaal x16 waarmee je met 3-way SLI wel x16 keer hebt :P Maarja, wij willen Quad-SLI op x16 :P

[ Voor 13% gewijzigd door chim0 op 24-08-2009 22:28 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Je kan beter de specs van Asus zelf erbij halen.

http://www.asus.com/product.aspx?P_ID=9ca8hJfGz483noLk

3 x PCIe 2.0 x16 (@ x16 or x8)
3 x PCIe 2.0 x16 (@ x8)
1 x PCIe 2.0 x16 (@ x16)

Supports NVIDIA® 3-Way Geforce SLI™ techonology

March of the Eagles


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Hacku schreef op maandag 24 augustus 2009 @ 22:28:
Je kan beter de specs van Asus zelf erbij halen.

http://www.asus.com/product.aspx?P_ID=9ca8hJfGz483noLk

3 x PCIe 2.0 x16 (@ x16 or x8)
3 x PCIe 2.0 x16 (@ x8)
1 x PCIe 2.0 x16 (@ x16)

Supports NVIDIA® 3-Way Geforce SLI™ techonology
Die quotes heb ik ook van de specs. Hij heeft dus 4 x16 sloten maar kan max 3-way SLI draaien op x16

Als je dus 3 videokaarten in die eerste sloten hebt, heb je 3-way SLI op x16 maar wat gebeurt er als je een videokaart in dat 4de slot erbij prikt, die ook x16 is? Heb je dan Quad-SLI op x16 of gewoon 3-way op x16 en een losse op x16? Dat was mij dus niet duidelijk.

[ Voor 22% gewijzigd door chim0 op 24-08-2009 22:32 ]


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Maar ook dit en dat snap ik niet.
7 PCIe 2.0 x16 sloten. ;)
chimo schreef op maandag 24 augustus 2009 @ 22:30:
Als je dus 3 videokaarten in die eerste sloten hebt, heb je 3-way SLI op x16 maar wat gebeurt er als je een videokaart in dat 4de slot erbij prikt, die ook x16 is? Heb je dan Quad-SLI op x16 of gewoon 3-way op x16 en een losse op x16? Dat was mij dus niet duidelijk.
Je kan gewoon met 4 kaarten quad SLi/CrossFireX draaien alleen zullen de sloten waarschijnlijk op x8 draaien

[ Voor 81% gewijzigd door -The_Mask- op 24-08-2009 22:36 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Je hebt gelijk, ik zit naar Hacku te kijken wat tussen haakjes staat 8)7
[...]

Je kan gewoon met 4 kaarten quad SLi/CrossFireX draaien alleen zullen de sloten waarschijnlijk op x8 draaien
Precies, dat was mij dus niet duidelijk omdat dat nergens vermeld staat, alleen "Quad-SLI". Maar lijkt me idd zeer waarschijnlijk dat het dan x8 is.

Trouwens, muhahaha! Sorry had ik ff zin in na al dat SLI gelul :P

#ProductPrijsSubtotaal
1Asus P6T7 WS SuperComputer€ 366,14€ 366,14
3Asus ENGTX295/2DI/1792MD3€ 403,47€ 1.210,41
1Cooler Master Cosmos S€ 184,01€ 184,01
1Cooler Master Real Power M1000€ 184,95€ 184,95
2Corsair XMS3 TR3X6G1600C7€ 132,-€ 264,-
1Intel Core i7 975 Extreme Edition€ 839,-€ 839,-
2OCZ Vertex Series SATA II 2.5" SSD 120GB€ 324,-€ 648,-
1Plextor PX-B920SA€ 239,40€ 239,40
2Samsung Spinpoint F3 HD103SJ, 1TB€ 66,60€ 133,20
ImporterenTotaal€ 4.069,11


Dit is wel de ergste offtopic ooit maar goed :z :P

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Maak er voor de grap eens 3x Asus MARS/2DI/4GD3 van.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • karakedi
  • Registratie: Maart 2003
  • Laatst online: 23:41
@Hacku

Volgens mij was hij niet op zoek naar een straalkachel voor in de winter

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
-The_Mask- schreef op maandag 24 augustus 2009 @ 22:53:
Je kunt maar 2 GTX295 in SLi zetten niet 3 of meer. ;)
Een Mars is een dual GTX285 GPU.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Hacku schreef op maandag 24 augustus 2009 @ 22:56:
[...]


Een Mars is een dual GTX285 GPU.
Meen je dat nu? :p
Maar was voor Chimo bedoelt. ;)

Maar wat wil jij met die derde ASUS Mars doen? PhysX? :P Beetje overdreven, kan een veel lichtere kaart net zo goed.

[ Voor 22% gewijzigd door -The_Mask- op 24-08-2009 22:59 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Hacku schreef op maandag 24 augustus 2009 @ 22:51:
Maak er voor de grap eens 3x Asus MARS/2DI/4GD3 van.
Hehe })

Zou dat werken, denk je? Dat zijn dus zes 285's eik :o :o :o :o :o :o
-The_Mask- schreef op maandag 24 augustus 2009 @ 22:53:
Je kunt maar 2 GTX295 in SLi zetten niet 3 of meer. ;)
Bummer :(

Ook niet die nieuwe met single PCB? Nee maakt ook niet uit, nog steeds 2 GPU's.. ARGH! :D

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
-The_Mask- schreef op maandag 24 augustus 2009 @ 22:57:
[...]

Meen je dat nu? :p
Maar was voor Chimo bedoelt. ;)
Ja :) Het is gewoon een dual GTX 285, het staat zelf de doos. Alleen in Windows wordt 'ie als een GTX 295 herkend.
Maar wat wil jij met die derde ASUS Mars doen? PhysX? :P Beetje overdreven, kan een veel lichtere kaart net zo goed.
Ik zei dan ook "voor de grap" :p

[ Voor 60% gewijzigd door XWB op 24-08-2009 22:59 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Hij staat verkeerd in de pricewatch, 295 ipv 285. Het is idd 2x 285

Dees is trouwens ook vet :9~ (Wel een beetje een ATI koeler :'( ;) :+ :* )

Afbeeldingslocatie: http://www.asus.com/websites/Global/products/C8hcuTV9tmpWOGA6/JDSUAKspsAarNzsu_500.jpg

MATRIX GTX285/HTDI/1GD3/A

[ Voor 6% gewijzigd door chim0 op 24-08-2009 23:08 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat is een custon koeler van Asus zelf, waarom zou dat op een ATI (AMD) koeler lijken?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Hacku schreef op maandag 24 augustus 2009 @ 23:10:
waarom zou dat op een ATI (AMD) koeler lijken?
Dat rood/zwarte, lijkt een beetje op de HD4xxx series zo op het eerste gezicht, terwijl groen meer de kleur van Nvidia is.

Desalniettemin een vette koeler hoor :9~
Hacku schreef op maandag 24 augustus 2009 @ 22:51:
Maak er voor de grap eens 3x Asus MARS/2DI/4GD3 van.
6k in de winkelmand :o

[ Voor 22% gewijzigd door chim0 op 24-08-2009 23:23 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ik heb vanavond een recente roadmap van NVIDIA in mijn mailbox gevonden. Wanneer ik hem helemaal uitgepluist en geanalyseerd heb, zal ik hier wat info posten (mits het nog niet elders gelekt is). Ik denk niet dat sommigen van jullie blij zullen zijn met bepaalde beslissingen. Iets wat ik wel alvast kan vermelden is dat GT300 niet voor komt in 2009, maar dat zal voor velen geen grote verrassing zijn.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Was ook vrij onmogelijk geweest om de GT300 wel in 2009 in de winkels hebben te liggen.
Na de laatste 'roddels'.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 23:27
Dat is erg jammer, maar verwacht.... Ik zie graag veel concurrentie en ik denk dat ik niet de enige met die mening ben :). Betekend dat ook geen reviews of "niet voor komt in 2009" als in: niet in de winkel?

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Het is een roadmap voor hun AIC partners... GT300 komt niet voor in 2009, dus is kans erg klein dat deze partners er ook voor kunnen zorgen dat de winkels dit jaar een voorraad GT300s in de schappen hebben liggen.

G92 blijft echter nog wel een tijdje rondhangen... :X

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Zullen er misschien ook meer DX10.1 videokaarten van nVidia komen of blijven het maar die paar low-end kaartjes?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

Ik denk niet dat het echt (financieel) logisch is voor nVidia om de high end kaarten een refresh te geven zodat ze DX10.1 ondersteunen.
Ook al bieden zij DX10.1 kaarten aan dan zal ATI toch alle aandacht krijgen met hun DX11 kaarten, de mensen die niet zo'n ATI kaart willen om wat voor reden dan ook zullen of wel wachten tot dat nVidia met hun DX11 lijn aan komt of een DX10 kaartje kopen en mensen die nu al een DX10 kaart hebben zullen niet gaan upgraden naar DX10.1.

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
DX 10.1 kaarten zijn er in principe alleen om de massa-markt alle functies van de Win 7 desktop te bieden. daar zit voor hun wel het geld natuurlijk.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 22-06 16:47

Apoca

Array Technology Industry

CJ schreef op dinsdag 25 augustus 2009 @ 19:13:
Ik heb vanavond een recente roadmap van NVIDIA in mijn mailbox gevonden.
Ik denk niet dat sommigen van jullie blij zullen zijn met bepaalde beslissingen.
Je gaat nu toch niet zeggen dat we 1 groot rebrand spektakel gaan zien... Ik zou het wel kunnen snappen financieel gezien vanuit nV, maar het is de puurste minachting van de consument voor de zoveelste keer.

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Mja, nvidia is volgens de onwetende toch beter dan ATi, net als intel dit altijd was met amd.
Dus als ze er gewoon een ander nummertje aanplakken koopt de consument het toch wel.

Acties:
  • 0 Henk 'm!

  • TheMOD
  • Registratie: November 2008
  • Laatst online: 20-06 07:06
spNk schreef op dinsdag 25 augustus 2009 @ 22:15:
Mja, nvidia is volgens de onwetende toch beter dan ATi, net als intel dit altijd was met amd.
Dus als ze er gewoon een ander nummertje aanplakken koopt de consument het toch wel.
Je bedoelt natuurlijk de gemiddelde digibeet ;) zeker in deze tijden zijn mensen erg kritisch wat betreft hun geld.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

nVidia is ook "beter" dan ATi qua (absolute) snelheid (als je begrijpt wat ik bedoel, nofi), en Intel ook dan AMD. Alleen het prijskaartje is er ook naar. En de performance verschillen staan niet in verhouding. Een HD4890 OC is er voor 170 euro, een GTX285 die net zo snel is (misschien iets sneller na overklokken) is 100 euro duurder... :?

Ik kan me nog als de dag van gisteren herinneren dat ik 2 GTX280's kocht voor 1150 euro... En dat terwijl daarna de HD4870 kwam waarvan je er 2 kocht voor de prijs van 1 GTX280... Vervolgens pleurt nV de prijs van de 280 zo'n 150 tot 250 euro (oid) omlaag... Yikes! Dat is wel even een eye opener. Dan voel je je goed genaaid. (Ben blij dat ik ze destijds nog terug heb kunnen sturen!!!)

Dat rebranden, en hun manier van doen, zorgt er wel een beetje voor dat ik een afkeer begin te ontwikkelen t.o.v nV. Nogmaals; nofi. (Hoe goed ik sommige kaarten ook vind, en hoe lekker ik ze ook vind werken.)

Ze zitten in het nauw. Tenminste zo gedragen ze zich wel vind ik. Dat valt me al een tijdje op. Of ik zie dingen die er niet zijn... O-)

Rebranden, praatjes verkopen en er weinig van waarmaken, GPU's véél te duur verkopen @ launch, mensen een poot uitdraaien... Snel even een "wonderdrivertje" releasen als ATi met iets nieuws komt, of sites verplicht bepaalde games laten testen met hun nieuwe kaart... snel even een GTX275 kaart de deur uitgooien als de HD4890 er is... hoezo ik naai mensen die net een GTX285 hebben gekocht? :X

Mnee. Dat is niet echt netjes vind ik. Maar goed; tot zover mijn ongezouten mening. Morgen op vakantie. O-)

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

Anoniem: 304087

CJ schreef op dinsdag 25 augustus 2009 @ 20:02:
Het is een roadmap voor hun AIC partners... GT300 komt niet voor in 2009, dus is kans erg klein dat deze partners er ook voor kunnen zorgen dat de winkels dit jaar een voorraad GT300s in de schappen hebben liggen.

G92 blijft echter nog wel een tijdje rondhangen... :X
Mmmm komen er dan ook geen tests van de gt300 nog in 2009?

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 304087 schreef op woensdag 26 augustus 2009 @ 09:50:
Mmmm komen er dan ook geen tests van de gt300 nog in 2009?
Er komt in ieder geval geen product uit en het is afwachten of er überhaupt bruikbare GT300's uit de fabriek komen.

Zelfs op TSMC's fast-track zouden de eerste GT300's pas uit de fabriek rollen n in de week na het "evergreen launch event"
Daarna nog packagen, chips op de borden plaatsen, testen en versturen dan komen we in het gunstigste geval op hetzelfde moment uit als de (hard)launch van Evergreen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 304087

40nm GeForce G210 goes retail in October
Written by Andreas G 26 August 2009 19:15


NVIDIA's first two discrete graphics cards with graphics cards spawning from the 40nm node was unveiled during the summer, but exclusively for OEMs. Now it looks like NVIDIA's first 40nm card for the retail market will be the low-end GeForce G210 as it will become available in October. The reason is that yields at TSMC has improved to the degree where availability will not be a problem.

Even if GeForce 210 sports DX10.1, one of the first from NVIDIA, it will be hopelessly far behind of AMD in terms of technological specifications. In the same period the competitor is expected to release its family of DirectX 11 cards, but it at least looks like we will have a broad assortment of 40nm GPUs in 2009.
Bron
http://www.nordichardware.com/news,9824.html

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

RappieRappie schreef op dinsdag 25 augustus 2009 @ 22:45:
nVidia is ook "beter" dan ATi qua (absolute) snelheid (als je begrijpt wat ik bedoel, nofi), en Intel ook dan AMD. Alleen het prijskaartje is er ook naar. En de performance verschillen staan niet in verhouding. Een HD4890 OC is er voor 170 euro, een GTX285 die net zo snel is (misschien iets sneller na overklokken) is 100 euro duurder... :?

Ik kan me nog als de dag van gisteren herinneren dat ik 2 GTX280's kocht voor 1150 euro... En dat terwijl daarna de HD4870 kwam waarvan je er 2 kocht voor de prijs van 1 GTX280... Vervolgens pleurt nV de prijs van de 280 zo'n 150 tot 250 euro (oid) omlaag... Yikes! Dat is wel even een eye opener. Dan voel je je goed genaaid. (Ben blij dat ik ze destijds nog terug heb kunnen sturen!!!)

Dat rebranden, en hun manier van doen, zorgt er wel een beetje voor dat ik een afkeer begin te ontwikkelen t.o.v nV. Nogmaals; nofi. (Hoe goed ik sommige kaarten ook vind, en hoe lekker ik ze ook vind werken.)

Ze zitten in het nauw. Tenminste zo gedragen ze zich wel vind ik. Dat valt me al een tijdje op. Of ik zie dingen die er niet zijn... O-)

Rebranden, praatjes verkopen en er weinig van waarmaken, GPU's véél te duur verkopen @ launch, mensen een poot uitdraaien... Snel even een "wonderdrivertje" releasen als ATi met iets nieuws komt, of sites verplicht bepaalde games laten testen met hun nieuwe kaart... snel even een GTX275 kaart de deur uitgooien als de HD4890 er is... hoezo ik naai mensen die net een GTX285 hebben gekocht? :X

Mnee. Dat is niet echt netjes vind ik. Maar goed; tot zover mijn ongezouten mening. Morgen op vakantie. O-)
Tja, dat nVidia de koning is met dit soort grappen is natuurlijk niet echt nieuws. Toch hoop ik wel dat nVidia snel weer terug is, een balanced playing field is toch veel leuker.

Dat je rijkhalzend zit uit te zien wie het eerst launched en wie sneller is danwel betere IQ heeft, je weet wel.... ;)

Hopelijk blijft ATI wel op het HD4xxx niveau met haar prijzen nu ze het rijk een aantal maanden alleen lijkt te hebben.

Verder vlak ik de GT300 niet perse uit. Als die er eenmaal is kan het misschien wel een hele snelle chip zijn. You never know :o

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 304087

GPUs Set to Increase Performance by 570 Times by 2015 – Chief Executive of Nvidia.

Nvidia’s Head Expects Giant Leap in GPU Performance

[08/26/2009 11:47 AM]
by Anton Shilov
Chief executive officer of Nvidia Corp. said during his keynote at Hot Chips conference that graphics processing units (GPUs) have excellent prospects for further performance growth. He also indicated that it makes no sense to integrate central processors and graphics chips since discrete processors have higher performance.

According to Mr. Huang, by 2015 graphics processing units will have computing power that is 570 times higher compared to performance of today’s GPUs. Meanwhile, central processing units (CPUs) will be only three times faster than today’s most powerful chips. Considering the fact that modern graphics chips can offer about 1TFLOPs of computing power, then in 2015 they will offer whopping 570TFLOPs.

The prediction of Mr. Huang sharply contradicts with prediction of William Dally, chief scientist of Nvidia, who expects GPUs to have 20TFLOPs performance in 2015.

Afbeeldingslocatie: http://www.xbitlabs.com/images/news/2009-08/nvda_gpu_performance_predictions_sm.jpg

During question and answer section at the end of the speech, professor David Patterson of U.C. Berkeley asked if Mr. Huang had to do it over, would he still partition the CPU and GPU into separate chips. The answer Nvidia’s chief exec gave was that there were three constituents, the programmers, OEMs/ODMs, and chip designers, and each had differing requirements that make it difficult to bet on integrating new and very rapidly developing architectures into one device. By separating these functions, each can develop at its own pace and also provide the flexibility to address many market opportunities. Of course, Mr. Huang stressed that the GPU is evolving much faster than any other chip architecture.

The head of Nvidia also enthusiastically painted a picture of a world where the massive threading and computing capability of the GPU can provide many orders of magnitude performance increases over just the multi-core CPU alone.

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
570x.. tsja.. da's de man die verantwoordelijk is voor het feit dat sinds G80 (November 2006) er tot nu toe (augustus 2009 slechts een tweevoudige performancewinst is geweest. :/

Zelfs aan Dally met z'n 20x performance word al getwijfeld aangezien er nog geen generatie op generatie binnen de gpu wereld is geweest die de performance verdubbelde. en al helemaal niet tweemaal year-on-year.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ja maar, het gaat dan ook niet om game performance.

March of the Eagles


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Hacku schreef op donderdag 27 augustus 2009 @ 08:11:
Ja maar, het gaat dan ook niet om game performance.
Inderdaad,

G80 -> G92 -> GT200
8800Ultra-9800GTX+-GTX285

in transistoren:
681M - 754M - 1400M

in GFlops
576 - 705 - 1063

Nu, nogmaals, waar is die ver-VIJFHONDERDZESENZEVENTIG-voudiging van de theoretische doorvoersnelheid van de GPU als we in 3 jaar tijd geen verdubbeling kunnen krijgen? Blijven we in dat geval niet ALTIJD CPU Limited? er moet op dit moment zoveel ge-emuleerd worden met CUDA bijvoorbeeld dat er een barriere geslecht moet worden, maar niemand praat over de oplossing voor "dit" probleem.
Scalar Arrays in de CPU (Cell) of Inegrated Graphics Cores bieden beiden een oplossing voor JH's probleem.

ter vergelijking:

R580=426GFlops
R600=614GFlops
RV670=416Gflops
RV770=1200GFlops

[ Voor 22% gewijzigd door neliz op 27-08-2009 08:49 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 15-06 12:44
Toeval dat de G80 precies 576GFlop/s had? :>
Of terwijl, gewoon natte vinger werk?

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
spNk schreef op donderdag 27 augustus 2009 @ 08:56:
Toeval dat de G80 precies 576GFlop/s had? :>
Of terwijl, gewoon natte vinger werk?
Ik gebruik nooit Google!
De wel verkrijgbare 8800GTX heeft 518 GFlops.

Tevens is alles netjes afgerond.
Wikipedia: GeForce 8 Series

[ Voor 22% gewijzigd door neliz op 27-08-2009 09:02 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
neliz schreef op donderdag 27 augustus 2009 @ 08:45:
[...]


Inderdaad,

G80 -> G92 -> GT200
8800Ultra-9800GTX+-GTX285

in transistoren:
681M - 754M - 1400M

in GFlops
576 - 705 - 1063

Nu, nogmaals, waar is die ver-VIJFHONDERDZESENZEVENTIG-voudiging van de theoretische doorvoersnelheid van de GPU als we in 3 jaar tijd geen verdubbeling kunnen krijgen? Blijven we in dat geval niet ALTIJD CPU Limited? er moet op dit moment zoveel ge-emuleerd worden met CUDA bijvoorbeeld dat er een barriere geslecht moet worden, maar niemand praat over de oplossing voor "dit" probleem.
Scalar Arrays in de CPU (Cell) of Inegrated Graphics Cores bieden beiden een oplossing voor JH's probleem.

ter vergelijking:

R580=426GFlops
R600=614GFlops
RV670=416Gflops
RV770=1200GFlops
Waar ze dat vandaan willen halen lijkt me heel eenvoudig voor te stellen: de GPU in de huidige vorm weg laten vallen en net zoals Intel een Larrabee project starten. Alleen heeft nVidia geen x86 licentie, maar ik denk toch dat je in die richting moet denken.

March of the Eagles


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Hacku schreef op donderdag 27 augustus 2009 @ 09:08:
Waar ze dat vandaan willen halen lijkt me heel eenvoudig voor te stellen: de GPU in de huidige vorm weg laten vallen en net zoals Intel een Larrabee project starten. Alleen heeft nVidia geen x86 licentie, maar ik denk toch dat je in die richting moet denken.
Verwacht jij dat LRB veel sneller is dan een Geforce 360?

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • Envy007
  • Registratie: Juni 2003
  • Laatst online: 28-11-2023
Van het beyond3d forum, waar gevraagd wordt hoe nV gaat reageren op de launch van ATi.

Antwoord van een member daar met de naam CJ :)

http://forum.beyond3d.com...hp?p=1326081&postcount=14
My wild guess.... a marketing campaign focussed on ComputeShaders & PhysX and a campaign to tell people that DX10.1 is "enough" for Windows 7.

Furthermore I expect them to release some D10M, D10P and D10U GPUs in Q3-Q4 '09 and they'll probably rebrand some other GPUs like G92 -> D10P2 which will stick around for another 9 months (yay!) and they'll give GTX260 a refresh (1792MB versions) as well as flood the market with GTX275s.

In Q1 and Q2 2010 they'll most probably transition to D11 GPUs which look to be refreshed/rebranded GT21x parts falling in the 300 Series range... and I wouldn't be suprised if we even see a D12U coming.

So basically I expect them to spread FUD to counter the HD5000 Series, release a slew of DX10.1 cards (GT216, GT218 and maybe GT215, depending on how well Redwood does) and of course the rebranding of good old G92 to D10P2. And yes... they'll probably release some tech-demo of their 'upcoming' DX11 GPU, which probably won't be available until a little way into 2010.

Ofcourse this is all just a wild guess...

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
neliz schreef op donderdag 27 augustus 2009 @ 09:45:
[...]


Verwacht jij dat LRB veel sneller is dan een Geforce 360?
Intel test Larrabee momenteel op 45nm, maar op 32nm (wat ze inmiddels in huis hebben) kan de performance met extra cores opgevoerd worden. Ik zie wel voordelen naar ontwikkelingstijd toe: geen jaren meer ontwikkelen aan een GPU, maar eenvoudig weg cores toevoegen bij een nieuwe productie procédé. Daarnaast zie ik geen reden om tegen te zijn; DirectX emulatie hoeft echt niet minder mooi te zijn dan hardwarematige verwerking.

Ik ga nu veel mensen tegen de schenen schoppen, maar GPU's waren ontworpen omdat CPU's veel te traag zijn om 3D geweld te verwerken. Nu zijn we echter op een punt gekomen dat we zodannig veel kleine CPU cores op een pcb kunnen duwen, dat het wel snel genoeg kan. Of het concept zal aanslaan zien we wel, maar developers als Tim Sweeney hebben al aangegeven interesse te hebben. Je mag hem dan de hater van de GPU noemen, zijn game engines bepalen voor een groot deel hoe games uiteindelijk zullen werken.

March of the Eagles


Anoniem: 304087

Maar dat wil niet zeggen dat de cpu;s de gpu's kompleet over gaan neman want de echte gpu makers
van nu hebben altijd nog een hele grote voorsprong op gaming gebied iig

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
neliz schreef op donderdag 27 augustus 2009 @ 07:25:
570x.. tsja.. da's de man die verantwoordelijk is voor het feit dat sinds G80 (November 2006) er tot nu toe (augustus 2009 slechts een tweevoudige performancewinst is geweest. :/

Zelfs aan Dally met z'n 20x performance word al getwijfeld aangezien er nog geen generatie op generatie binnen de gpu wereld is geweest die de performance verdubbelde. en al helemaal niet tweemaal year-on-year.
technisch gezien is de G80 ook the vorige generatie :P

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
tomcatha schreef op donderdag 27 augustus 2009 @ 16:17:
technisch gezien is de G80 ook the vorige generatie :P
G71 -> G80
Trans:
278M - 681M
Flops
384M - 576M

Dus G80 2,5 keer zo groot als G71 maar slechts 1,5 keer zo snel ;)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
voordat iemand komt met "GT 3xxM " series spotted!

Ik heb het al gedebunked
Quote:
[x] Launch GeForce 300M series:
Quote:
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M "
Some renamed chips or to part of the strategy to show how close to release g300 based chips are?
gt21x rebrands!

if you take NVIDIA GeForce v186.42 WHQL :

Quote:
NVIDIA_DEV.0A20.01 = "NVIDIA GeForce GT 220"
NVIDIA_DEV.0A28.01 = "NVIDIA GeForce GT 230M"
NVIDIA_DEV.0A29.01 = "NVIDIA N11P-GE1"
NVIDIA_DEV.0A2A.01 = "NVIDIA GeForce GT 230M "
NVIDIA_DEV.0A2B.01 = "NVIDIA N11P-LP1"
NVIDIA_DEV.0CAF.01 = "NVIDIA N11P-GS1"
NVIDIA_DEV.0CB1.01 = "NVIDIA N11E-GS1"
NVIDIA_DEV.0CBC.01 = "NVIDIA N10P-GLM4"
If CJ says they'll bomb us with rebrands, they'll bomb us with rebrands!


Fanboys Rejoice! GT300 is neigh![/quote]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

Ik ben onderhand wel zo moe van al dat rebranden...

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
SECURITEH schreef op donderdag 27 augustus 2009 @ 19:13:
Ik ben onderhand wel zo moe van al dat rebranden...
Nee! Nee!

WACHT!

ER IS MEER!

Binnenkort te koop:

GeForce GT335 (9600GSO met 1,5GB RAM) ;)

Afbeeldingslocatie: http://img257.imageshack.us/img257/1509/p8266054.jpg
Afbeeldingslocatie: http://img187.imageshack.us/img187/7186/p8266059.jpg
Afbeeldingslocatie: http://img249.imageshack.us/img249/6015/p8266062.jpg
Afbeeldingslocatie: http://img199.imageshack.us/img199/9731/p8266066.jpg

Hoezo.. alle Desktop effecten in Win7? Ik heb een Geforce 300 serie!!!11!!tehone!.. huh? DX10?.. zelfs geen DX10.1?

[ Voor 58% gewijzigd door neliz op 27-08-2009 23:42 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Hacku schreef op donderdag 27 augustus 2009 @ 10:27:
Intel test Larrabee momenteel op 45nm, maar op 32nm (wat ze inmiddels in huis hebben) kan de performance met extra cores opgevoerd worden. Ik zie wel voordelen naar ontwikkelingstijd toe: geen jaren meer ontwikkelen aan een GPU, maar eenvoudig weg cores toevoegen bij een nieuwe productie procédé. Daarnaast zie ik geen reden om tegen te zijn; DirectX emulatie hoeft echt niet minder mooi te zijn dan hardwarematige verwerking.

Ik ga nu veel mensen tegen de schenen schoppen, maar GPU's waren ontworpen omdat CPU's veel te traag zijn om 3D geweld te verwerken.
Eerst moet Intel een LRB op de markt zien te krijgen. Tot die tijd is het heel erg veel mooie praatjes en geen feitenlijke performance. Niet alleen zal moeten blijken dat hun oplossing voor GPGPU zaken de juiste is, ook zullen ze met een fatsoenlijke driver-support moeten komen, iets waar Intel tot nog toe schromelijk in heeft gefaald waar het op grafische chips aan komt. Daarnaast lijkt het erop dat de chip die zou moeten kunnen concureren (gigaflop-technisch in ieder geval) met de GT200 en RV770 enorm groot is, zelfs voor een GPU. Daarnaast zal deze moeten concureren met de feitenlijke opvolgers, die per saldo waarschijnlijk veel betere performance zullen tonen. Ik vrees dat zelfs het 32nm procede daar weinig aan zal verbeteren.

De GT300 zal wel laat zijn (ten opzichte van de HD58xx serie en de Windows 7 release), maar zoals het er nu naar uit ziet, zal deze nog altijd eerder dan LRB op de markt komen. Ook zal nVidia zeker niet bij de pakken neer gaan zitten en binnen een jaar na de GT300 ook nog wel een behoorlijke sprong voorwaarts kunnen maken (ze zullen AMD toch zeker wel voor willen blijven in absolute performance).

Boven alles, zoals ik al eerder zei, zal de toekomst nog maar moeten uitwijzen welke GPGPU variant het beste resultaat zal boeken.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op donderdag 27 augustus 2009 @ 23:34:
GeForce GT335 (9600GSO met 1,5GB RAM) ;)
:'( En dat te bedenken dat er ook nog mensen zijn die dit gaan kopen. :'(

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
-The_Mask- schreef op donderdag 27 augustus 2009 @ 23:45:
[...]

:'( En dat te bedenken dat er ook nog mensen zijn die dit gaan kopen. :'(
Het mooie komt nog, de GT335M is gebaseerd op de GT216 = GT240M!!! 8)7 8)7 8)7 |:( |:( |:( 7(8)7 7(8)7 *O* *O* *O* :Y :Y :Y

Miss you CJ....:'( en nee... ik kan niet aan samples komen


  • -The_Mask-
  • Registratie: November 2007
  • Niet online
neliz schreef op donderdag 27 augustus 2009 @ 23:46:
[...]


Het mooie komt nog, de GT335M is gebaseerd op de GT216 = GT240M!!!
Dus de GT335 zal gewoon een 55nm DX10 kaart zijn en de GT335M (mobile) een 40nm DX10.1 kaart?
Dacht dat nVidia de namen zou verduidelijken?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
-The_Mask- schreef op donderdag 27 augustus 2009 @ 23:52:

Dus de GT335 zal gewoon een 55nm DX10 kaart zijn en de GT335M (mobile) een 40nm DX10.1 kaart?
Dacht dat nVidia de namen zou verduidelijken?
Het wordt pas lachen als de echte DX11 GT 3xx kaarten op de markt komen en nVidia GT300 en zijn kinderen ook nog in de overvolle lijst met rebrands moet gaan passen.

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Grappig hoe mijn "wild guess" op Beyond3D nu de ronde doet over het gehele internet... heb het inmiddels al op Duitstalige, Spaanstalige, Italiaanse, Franstalige en Engelstalige fora gezien... en dat terwijl ik er toch duidelijk bij had gezet dat het een 'gok' was... of nou vooruit.. misschien minder gegokt dan je zou denken. :+

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
CJ schreef op vrijdag 28 augustus 2009 @ 01:20:
Grappig hoe mijn "wild guess" op Beyond3D nu de ronde doet over het gehele internet... heb het inmiddels al op Duitstalige, Spaanstalige, Italiaanse, Franstalige en Engelstalige fora gezien... en dat terwijl ik er toch duidelijk bij had gezet dat het een 'gok' was... of nou vooruit.. misschien minder gegokt dan je zou denken. :+
Had de meester niet verteld dat jij niet meer mocht raden?

Wel makkelijk als anderen je werk doen toch?

[ Voor 4% gewijzigd door neliz op 28-08-2009 01:22 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 196662

dahakon schreef op donderdag 27 augustus 2009 @ 23:36:
[...]
ook zullen ze met een fatsoenlijke driver-support moeten komen, iets waar Intel tot nog toe schromelijk in heeft gefaald waar het op grafische chips aan komt
Voorbeeld?
Intel graphics heeft de meest stabiele drivers die er zijn, voor Linuxgebruikers zelfs opensource gemaakt. Op al hun hardware heeft kwaliteit van de drivers de hoogste prioriteit.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 196662 schreef op vrijdag 28 augustus 2009 @ 08:24:
[...]


Voorbeeld?
Intel graphics heeft de meest stabiele drivers die er zijn, voor Linuxgebruikers zelfs opensource gemaakt. Op al hun hardware heeft kwaliteit van de drivers de hoogste prioriteit.
nieuws: DirectX 10-ondersteuning G35-chipset pas in 2008

Dit was een beetje mijn punt. Dit soort 'problemen' zorgen ervoor dat het geen donder uitmaakt of je de allerbeste videokaart hebt, want zonder driversupport heb je er niets aan (bij gamen) en zullen de mensen je kaart dus ook links laten liggen.

Acties:
  • 0 Henk 'm!

Anoniem: 196662

Was dat dan erg voor een IGP? Ben toen niemand tegen gekomen die een IGP gebruikte met doel om Dx10 games te spelen. Intel brengt een driver uit en die moet top werken. Bij NVIDIA moest je een half jaar lang de laatste beta's downloaden.

Publiek van beiden hebben andere verwachtingen. Bijvoorbeeld bij chipsets koop je een Intel als je iets stabiel wil en een NVIDIA als je het snelste wilt maar waar je wel eerst nog half jaar wekelijks updates voor nodig hebt.

In een markt die veel te hard door NVIDIA hun pr en niet prestaties wordt gekleurd, gaat Intel leuke dingen kunnen doen met de juiste hardware. Als er iets is waar ik mij geen zorgen over maak bij Intel, dan zijn het wel de drivers.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het punt is dus dat nVidia in ieder geval drivers levert waarmee je kunt gamen. Het is leuk als LRB uit komt, maar als je er geen DX11 titels mee kunt draaien, omdat de drivers er niet klaar voor zijn, heb je er weinig aan. Aangezien Intel met LRB wel wil meespelen in de markt van de grote GPU-jongens, is stabiliteit alleen niet genoeg, prestaties worden dan erg belangrijk.

Als je genoegen neemt met stabiliteit, vanwege werk bv, dan heb je ook geen LRB nodig, tenzij je Compute Shaders/OpenCL nodig bent voor je werk natuurlijk. Daar heb je echter ook weer drivers nodig die dat aan kunnen.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Maar waar haal je het eigenlijk vandaan dat je met LRB niet zal kunnen gamen? Of dat de drivers helemaal slecht zullen zijn? Je schrijft het bijna als een feit neer. Als Intel wil meedoen in de gaming wereld, dan zal hij echt wel DirectX 11 kunnen emuleren. Het is - net zoals Rizon zegt - het laatste waar ik mij zorgen over maak.

March of the Eagles


Acties:
  • 0 Henk 'm!

Anoniem: 304087

LRB draait counterstrike, maar goed het is ok geen proc met de bedoeling
high end en mid end gpu's bij te houden geloof ik, maar meer de low end kaaarten,
en ik denk dat LRB daar prima mee te vergelijken is?

LRB draait CS
http://www.youtube.com/watch?v=3AFi6y1Ap-c

[ Voor 12% gewijzigd door Anoniem: 304087 op 28-08-2009 11:14 ]


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 304087 schreef op vrijdag 28 augustus 2009 @ 11:11:
maar goed het is ok geen proc met de bedoeling
high end en mid end gpu's bij te houden geloof ik, maar meer de low end kaaarten,
en ik denk dat LRB daar prima mee te vergelijken is?
Nope Nope nope, LRB>GT200

Zou betekenen dat die high-end workstation kaart gelijk is aan hun nieuwe IGP part ;)

[ Voor 12% gewijzigd door neliz op 28-08-2009 11:20 ]

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Drivers zijn vaak 1 van de eerste dingen waar veel mensen die een goede videokaart kopen zich druk om maken. ATI heeft nog altijd te maken met de verhalen over slechte drivers voor hun videokaarten, wat stamt uit het Radeon 8500 tijdperk, waardoor mensen nVidia-kaarten kopen.
Juist het feit dat Intel moeite had om DX10 optijd geimplementeerd wist te krijgen voor hun chips, kan je doen afvragen of ze dit nu wel goed voor elkaar hebben met LRB. Je zult me niet horen zeggen dat ze het niet voor elkaar kunnen krijgen, maar resultaten van het verleden zijn niet geweldig. Misschien dat ze met LRB echter wel direct drivers neer kunnen zetten die de competitie aankunnen.

Acties:
  • 0 Henk 'm!

Anoniem: 304087

Dat had ik niet verwacht om eerlijk te zijn, hopelijk gaat deze dan net zo
goed presteren als de GT200 series, als dat zo is waarom pakken ze dan geen
zwaardere game zoal crysis, cod mw enzv, dat zoudan een betere vergelijking zijn met de GT200
met framerates erbij.

Acties:
  • 0 Henk 'm!

  • The Flying Dutchman
  • Registratie: Mei 2000
  • Laatst online: 18-06 10:22
Anoniem: 196662 schreef op vrijdag 28 augustus 2009 @ 08:24:
[...]


Voorbeeld?
Intel graphics heeft de meest stabiele drivers die er zijn, voor Linuxgebruikers zelfs opensource gemaakt. Op al hun hardware heeft kwaliteit van de drivers de hoogste prioriteit.
Met wat ik zo nu en dan over Intel drivers lees ben ik nou ook niet echt overtuigd. Geen persoonlijke ervaring overigens. Ik heb geen Intel.

Intel's Poulsbo Driver A Bloody Mess?

The Flying Dutchman


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online

nVidia plans GT300 demos for late September



After hearing from multiple sources spanning on several continents, we can be fairly certain that the samples of nVidia's first DirectX 11 GPU are going to depart from engineering labs. Just like GT200, GT300 spent several months in the Labs while the drivers were being created.

Given that today's GeForce drivers contain more code than Windows XP core, we aren't surprised that nVidia is taking time to get the product ready for market. Just like some media were suggesting that GT200 taped out in March 2008 [while some developers got the GT200 cards as early as three months before that tape out story], GT300 needs time [and human resources] to finish the development. GT300 is the base graphics architecture not just for the standard desktop or notebook graphics, but also as a future graphics base for the Tegra generation of products. And with recent rumors of nVidia implementing ECC feature into the GPU [which is a given, since GDDR5 comes with ECC], Tesla parts should be quite interesting as well.

But now, we have received words that AIBs are getting time frames forthe demonstrations to their own partners and press, with the firstevents happening in September. The dates are obviously planned to bluntthe katana-sharp market attack from ATI's Radeon 5000 series.

On nVidia's annual gathering of add-in-board manufacturers [happened a while ago], a lot of harsh words were spoken due to renaming policies, OEM positioning and more importantly, how to combat resurgent ATI - it was stated that a lot is expected from the NV70 e.g. GT300 generation.

Now, the only question is how long it will take for nVidia's demo team and software vendors to create traditional launch demos. ATI dropped the practice with the Radeon 4000 series, showing raytraced Ruby in its Cinema 2.0 event, but the demo didn't became available to general public. All in all, computer graphics arena is never boring.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
the gt200 performance zall nu wel toch wegzakken naar de low end als de hd5870 inderdaad gtx285 prijsen gaat krijgen met hd4870x2 performance.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Dat artikel van Theo laat maar weer eens zie hoeveel hij weet... die opmerking over Cinema 2.0 en de 'demo' die nooit is uitgebracht... het was geen demo van AMD, maar eigendom van het bedrijf dat de RV770 GPU gebruikte om te laten zien waartoe het in staat was wat betreft interactive visual computing. Daarom is het ook nooit uitgebracht door AMD, maar zijn andere demo's zoals de Froblins dat wel, want die zijn gewoon inhouse gemaakt door AMD. Cinema 2.0 met Ruby was dat dus niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Edmin
  • Registratie: Januari 2006
  • Laatst online: 21-06 20:40

Edmin

Crew Council

get on my horse!

Theo is door de commotie om zijn persoon blijkbaar een hoop inside-info misgelopen... Ik kan niet zeggen dat ik de laatste tijd erg veel interessants uit zijn virtuele pen heb gezien.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
CJ schreef op vrijdag 28 augustus 2009 @ 22:56:
Dat artikel van Theo laat maar weer eens zie hoeveel hij weet...
Moet jij dan niet vertellen wat jij weet? :P
CJ schreef op dinsdag 25 augustus 2009 @ 19:13:
Ik heb vanavond een recente roadmap van NVIDIA in mijn mailbox gevonden. Wanneer ik hem helemaal uitgepluist en geanalyseerd heb, zal ik hier wat info posten (mits het nog niet elders gelekt is). Ik denk niet dat sommigen van jullie blij zullen zijn met bepaalde beslissingen. Iets wat ik wel alvast kan vermelden is dat GT300 niet voor komt in 2009, maar dat zal voor velen geen grote verrassing zijn.
Of heeft neliz het al gepost?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
I Wish.. mijn mailbox blijft leeg (net als het hoofd van Theo V.)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

Anoniem: 292676

wow dat laatste artikel

Gaan ze nu echt gt2xx chips uitbrengen als gt3xx maar dan met gddr3 geheugen ipv gddr5

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online
(overleden)
Ja.. zoiets. :) Dat bedoelde ik dus o.a. met beslissingen waar sommigen niet blij mee zullen zijn, net zoals het feit dat G92 nog minstens zo'n 9 maanden mee moet gaan.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Anoniem: 292676

ja maar ik had niet verwacht dat ze naast het rebranden ook nog slechtere geheugen gaan gebruiken

Acties:
  • 0 Henk 'm!

  • neliz
  • Registratie: Oktober 1999
  • Laatst online: 11-02 16:54
Anoniem: 292676 schreef op zaterdag 29 augustus 2009 @ 01:16:
ja maar ik had niet verwacht dat ze naast het rebranden ook nog slechtere geheugen gaan gebruiken
Zie het als:

1. Diversiteit!
2. beter 1,5GB DDR3 dan 756MB GDDR5 ;)

Miss you CJ....:'( en nee... ik kan niet aan samples komen


Acties:
  • 0 Henk 'm!

  • SECURITEH
  • Registratie: Februari 2008
  • Laatst online: 02-06 22:42

SECURITEH

Man of legend.

Het word zo steeds moeilijker om nVidia zelfs maar serieus te nemen... het is in ieder geval duidelijk dat zij de consument niet serieus nemen.

[ Voor 3% gewijzigd door SECURITEH op 29-08-2009 02:16 ]


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 20-06 16:12
SECURITEH schreef op zaterdag 29 augustus 2009 @ 02:16:
Het word zo steeds moeilijker om nVidia zelfs maar serieus te nemen... het is in ieder geval duidelijk dat zij de consument niet serieus nemen.
Vind ik ook al... Ze brengen gewoon kaarten aan met een nieuwe naam en veranderen gewoon een klein detail aan de specs :/

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

Anoniem: 263719

En het spijtige van de zaak is dat er veel mensen gewoon blindelings voor Nvidia blijven kiezen...

Acties:
  • 0 Henk 'm!

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 21:26
Anoniem: 263719 schreef op zaterdag 29 augustus 2009 @ 09:25:
En het spijtige van de zaak is dat er veel mensen gewoon blindelings voor Nvidia blijven kiezen...
Misschien handig om erbij te vertellen waarom mensen dat niet zouden moeten?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
chimo schreef op zaterdag 29 augustus 2009 @ 09:33:
[...]

Misschien handig om erbij te vertellen waarom mensen dat niet zouden moeten?
Ik denk dat je die opmerking van Tweakers.Mette kunt zien als soort van (persoonlijke) conclusie, gebasseerd op de discussie van de afgelopen paar pagina's, die over het nieuwe rebranden van nVidia gaan.

Acties:
  • 0 Henk 'm!

  • Snorro
  • Registratie: December 2007
  • Laatst online: 07:53
Anoniem: 292676 schreef op zaterdag 29 augustus 2009 @ 00:57:
wow dat laatste artikel

Gaan ze nu echt gt2xx chips uitbrengen als gt3xx maar dan met gddr3 geheugen ipv gddr5
Ik heb het artikel ook gelezen en er valt me toch iets op... Welke GT200 chip maakt op dit moment gebruik van gddr5?!

Het zal wel aan mij liggen, want niemand anders zegt er iets over.. Mocht dit zo zijn, mijn excuses, het is gister laat geworden ;)

Acties:
  • 0 Henk 'm!

  • Axelfoley007
  • Registratie: Juni 2007
  • Laatst online: 22-06 19:02
Maar waar blijft de echte GT300 chip dan? is die dan voorlopig gecanceld omdat die het proces bij TSMC niet wil, en zal pas worden uitgebracht als GT300 refresh ?

Beetje triest anzich, als het waar is uiteraard.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De GTS 260M (mobiele chip dus) maakt gebruik van GDDR5 (als je wikipedia mag geloven).
Pagina: 1 ... 4 ... 7 Laatste

Dit topic is gesloten.