De gtx580 heeft juist een goede koeling. Hij verbuikt veel en mensen hadden nooit het geloof dat dit te koelen was.En wat gebeurd er ja hoor nvidia otwikkelt een hele goede koeling die eigenloijk beter koeld dan verwacht vanwege het verbruik. Zo zie je maar weer nvidia kan het wel.. Mar goed nu zal je zien dat men de gtx590 er bij gaat pakken om te trollen.Format-C schreef op woensdag 14 december 2011 @ 06:02:
[...]
Hoezo? Was dat onderdeel van de discussie? Volgens mij ging het over warmte die de GTX580 genereert, en over warmte die een toekomstige kaart zou gaan genereren. Niet over prijzen en/of prijs kwaliteitsverhouding. Of iets anders wat weer eens zomaar uit de lucht gegrepen wordt.
[...]
In de link die je geeft wordt niet gepraat over temperatuur, maar over wattage. En eigenlijk gaat het daar ook niet eens echt om, maar over een versie van GPU-z die het throttelen van de GTX580 (de power draw protection) uit kan zetten.
Maar ook dat is/ was (wederom) geen onderdeel van de discussie. Dus ik begrijp dan ook niet wat dit toevoegt aan de discussie.
Andere mensen trolls noemen omdat ze wat realistischer kijken naar Nvidia?Verwijderd schreef op woensdag 14 december 2011 @ 10:31:
Indd er zijn hier duidelijk een paar mensen die niets van nvidia moeten weten of sterker nog alleen maar in de slechte dingen geloven. Daar kun je nooit je gelijk bij krijgen. Ik kan er wel in komen door een paar foutjes bij nvidia dat het vertrouwens dan minder word maar het is nooit zo erg geweest om er niets meer van te geloven. Verder zie ik veel feiten nog geen feiten zijn. Zoals dat de gtx580 heet is wat dus niet zo is, is aardig geijk met zijn tegenhangers maar zelfs beter gezien de warmte produtie van de huidige high end kaarten van nvidia hoger is.
Het is verder ook gene feit dat het om een big die gaat, en het is ook nog geen feit dat het gaat om een paperlaunch.
Verder zijn het allemaal troll hier van mensen die niet in nvidia geloven en zelf die poppenkast uitlokken. Blijf liever weg hier als je niet op een zelfde mannier kan treageren zoals in het AMD topic![]()
Het zijn verder nog allemaal gerruchten dus ga niet te veel dingen lopen roepen waar je nog geen weet van hebt.
Feit is gewoon dat het al vrij vaak is voorgekomen bij Nvidia dat er release dates worden opgegeven die niet nagekomen worden dus daarom is er ook nu zeker de kans dat dat gaat gebeuren, niemand zegt dat dit zeker is maar je zult er toch rekening mee moeten houden dat het mogelijk is.
En het is nooit zo erg geweest dat je Nvidia niet meer kon geloven? *kuch* GF100 *kuch*
Zo speciaal is die koeling nou ook weer niet.Verwijderd schreef op woensdag 14 december 2011 @ 10:36:
[...]
De gtx580 heeft juist een goede koeling. Hij verbuikt veel en mensen hadden nooit het geloof dat dit te koelen was.En wat gebeurd er ja hoor nvidia otwikkelt een hele goede koeling die eigenloijk beter koeld dan verwacht vanwege het verbruik. Zo zie je maar weer nvidia kan het wel.. Mar goed nu zal je zien dat men de gtx590 er bij gaat pakken om te trollen.
[ Voor 14% gewijzigd door Redblader op 14-12-2011 10:39 ]
Sorry, maar als ik Nvidia een hele poos allerlei onwaarheden zie verkopen(het gehele GF100 drama) dan ga ik inderdaad niet meer af op de mooie blauwe(of groeneVerwijderd schreef op woensdag 14 december 2011 @ 10:31:
Indd er zijn hier duidelijk een paar mensen die niets van nvidia moeten weten of sterker nog alleen maar in de slechte dingen geloven. Daar kun je nooit je gelijk bij krijgen. Ik kan er wel in komen door een paar foutjes bij nvidia dat het vertrouwens dan minder word maar het is nooit zo erg geweest om er niets meer van te geloven. Verder zie ik veel feiten nog geen feiten zijn. Zoals dat de gtx580 heet is wat dus niet zo is, is aardig geijk met zijn tegenhangers maar zelfs beter gezien de warmte produtie van de huidige high end kaarten van nvidia hoger is.
Het is verder ook gene feit dat het om een big die gaat, en het is ook nog geen feit dat het gaat om een paperlaunch.
Verder zijn het allemaal troll hier van mensen die niet in nvidia geloven en zelf die poppenkast uitlokken. Blijf liever weg hier als je niet op een zelfde mannier kan treageren zoals in het AMD topic![]()
Het zijn verder nog allemaal gerruchten dus ga niet te veel dingen lopen roepen waar je nog geen weet van hebt.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Wie weet houd nvidia wel wat achter, en dat lijkt er nu ook heel erg op (zo'n idee heb ik al een poos over deze nieuwe series ook). Ik vind het gewoon nog geen dingen die je als feit kunt bestempelen. Ik denk dat wij pas vlak voor de release meer komen te weten wat wel als feiten gezien kunnen worden.
De GF100 dramma lijkt me te komen door dingen te maken die niet lukten, het is niet gezegd dat dat deze keer weer gebeurd. Laten we maar hopen van niet.
Ik vind het wel speciaal dat nvidia zo'n verbruik goed koel weet te houden. Dit hadden vrij weinng mensen ook verwacht want het kon zo genaamd niet
De GF100 dramma lijkt me te komen door dingen te maken die niet lukten, het is niet gezegd dat dat deze keer weer gebeurd. Laten we maar hopen van niet.
Ik vind het wel speciaal dat nvidia zo'n verbruik goed koel weet te houden. Dit hadden vrij weinng mensen ook verwacht want het kon zo genaamd niet
[ Voor 14% gewijzigd door Verwijderd op 14-12-2011 10:55 ]
Natuurlijk gaat Nvidia niet zeggen dat het deze keer weer niet goed gaat lukken, dat zou verschrikkelijke marketing zijn.Verwijderd schreef op woensdag 14 december 2011 @ 10:53:
Wie weet houd nvidia wel wat achter, en dat lijkt er nu ook heel erg op (zo'n idee heb ik al een poos over deze nieuwe series ook). Ik vind het gewoon nog geen dingen die je als feit kunt bestempelen. Ik denk dat wij pas vlak voor de release meer komen te weten wat wel als feiten gezien kunnen worden.
De GF100 dramma lijkt me te komen door dingen te maken die niet lukten, het is niet gezegd dat dat deze keer weer gebeurd. Laten we maar hopen van niet.
Daarom kan je vaak ook beter vertrouwen op goede bronnen dan op de fabrikant zelf aangezien de bronnen objectief kunnen zijn en de Nvidia PR natuurlijk niet.
En waar baseer jij de gedachte dat Nvidia nog wat achter houdt dan op?
Onderbuik gevoel? Vertrouwen in het merk?
Ik vertrouw liever op echt nieuws en er is voorlopig nog niks betrouwbaars voorbij gekomen dat er op wijst dat Nvidia iets achter houdt..
Nogmaals, zo speciaal is de stock koeling van de GTX 580 niet.Verwijderd schreef op woensdag 14 december 2011 @ 10:53:
Ik vind het wel speciaal dat nvidia zo'n verbruik goed koel weet te houden. Dit hadden vrij weinng mensen ook verwacht want het kon zo genaamd niet
[ Voor 13% gewijzigd door Redblader op 14-12-2011 10:57 ]
Verwijderd
Ik doel meer op stil zijn. Ik denk dat nvidia de kat uit de bom kijkt wat AMD straks te bieden heeft voor het met dingen gaat komen. Het is gewoon ook belachelijk stil aan die kant van nvidia terwel nvidia zelf al wel weet wat voor kaarten het gaan worden en ook de specs denk ik
[ Voor 35% gewijzigd door Verwijderd op 14-12-2011 10:58 ]
Maar waarom denk je dit dan?Verwijderd schreef op woensdag 14 december 2011 @ 10:57:
Ik doel meer op stil zijn. Ik denk dat nvidia de kat uit de bom kijkt wat AAMD straks te bieden heeft voor het met dingen gaat komen.
Nvidia is juist nooit stil, ze beginnen juist altijd zo snel mogelijk met marketing van een nieuwe serie, nu nog op AMD wachten is vrij nutteloos want als ze dan nog iets willen aanpassen aan de kaart komen ze nog later op de markt en dat is ook geen optie.
Maar je zegt altijd dat alle bronnen/geruchten onbetrouwbaar zijn en dan ga je toch liever op een eigen onderbuik gevoel af?
[ Voor 10% gewijzigd door Redblader op 14-12-2011 10:59 ]
Ho is even, jij hebt dus het idee dat Nvidia is achter houdt(een idee, dus geen bevestigd feit) en dat mag je dus gewoon overall verkondigingen zonder dat iemand eraan mag twijfelen, maar als iemand (terechte) twijfels heeft over de nieuwe serie van Nvidia, gebaserd op de prestatie/historie van Nvidia's GPU's in de afgelopen 2 jaar ben je ineens een doemdenker en een trol? Sorry, maar dat is een beetje een hypocriete houding.Verwijderd schreef op woensdag 14 december 2011 @ 10:53:
Wie weet houd nvidia wel wat achter, en dat lijkt er nu ook heel erg op (zo'n idee heb ik al een poos over deze nieuwe series ook). Ik vind het gewoon nog geen dingen die je als feit kunt bestempelen. Ik denk dat wij pas vlak voor de release meer komen te weten wat wel als feiten gezien kunnen worden.
De GF100 dramma lijkt me te komen door dingen te maken die niet lukten, het is niet gezegd dat dat deze keer weer gebeurd. Laten we maar hopen van niet.
Jij mag denken dat Nvidia het deze keer wel goed zal doen, dat is jouw goede recht, maar laat dan ook andere denken dat Nvidia het deze keer ook moeilijk zal hebben of er weer een zooitje van maakt, want voor beide kampen zijn voldoende argumenten te vinden en het zou prettig als men dit ook eens zou gaan respecteren.
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Tjah ieder zijn ding maar het mag wel minder negatief want dat steekt er duidelijk erg boven uit en laat vooral zien dat diegene echt totaal niet voor nvidia is. Ik ben zeker niet hypocriet
En hoe is dat niet direct gerelateerd aan temperatuur? Ik zie dit soort opmerkingen zo vaak en sorry, maar het slaat echt nergens op. Een heel groot deel van het gevraagde vermogen moeten ze ergens kwijt en dat kan alleen via hitte. Dus ja, het vermogen ("wattage") is weldegelijk een heel erg belangrijke factor. Aan de andere kant vind ik zelf ook wel dat "temperatuur" in de meeste reviews grote bullshit is. Er wordt namelijk maar zelden bij vermeld wat de koeler op dat moment doet (toeren, geluidsproductie) en hoeveel vermogen er nodig is (wat een goede indicatie zou zijn voor hoe goed de koeler daadwerkelijk is). 80 graden bij 1500 RPM en 40 dBA is toch wel even iets anders (slechter) dan 70 graden bij 2500 RPM en 50 dBA (alle cijfers volledig uit de lucht gegrepen).Format-C schreef op woensdag 14 december 2011 @ 06:02:
In de link die je geeft wordt niet gepraat over temperatuur, maar over wattage.
Al dat gedoe over hoe "goed" de koeler van een 580 is of hoe "slecht" de koelers van AMD kaarten zijn volgens sommigen is wat mij betreft dan ook puur subjectieve onzin. Pas als iemand daadwerkelijk keiharde vergelijkingen maakt zoals ik hierboven aan geef kun je daar echt iets over zeggen.
* Werelds kijkt eens lief naar Marc en z'n collega's; misschien interessant voor een speciaal artikeltje?
Sorry, maar daar heeft Nvidia zelf voor gezorgd door de afgelopen 2 jaren gewoon continue te boel te lopen bedriegen, te verdraaien en af te zwakken, terwijl er dus wel duidelijk problemen waren met het ontwerpen en ontwikkelen van GF100 en opvolgers.Verwijderd schreef op woensdag 14 december 2011 @ 11:05:
Tjah ieder zijn ding maar het mag wel minder negatief want dat steekt er duidelijk erg boven uit en laat vooral zien dat diegene echt totaal niet voor nvidia is. Ik ben zeker niet hypocriet
Geloof me, ik zou willen dat ik wat positiever kon zijn over Nvidia, maar door hun eigen acties en gedrag in het openbaar en achter de schermen de afgelopen 2 jaar ben ik vrij achterdochtig geworden als Nvidia iets roept in de trant van "Wij zullen ook in Q2 leveren hoor!!". Ja, dat heb ik de afgelopen jaren te vaak gehoord waarna er niks kwam...
Heb jarenlang Nvidia VGA's gehad, toen overgestapt op ATi.AMD, maar ik zou willen dat het Nvidia van toen weer teug zou komen, want dan heb je namelijk veel sterkere en betere competitie, maar ook veel betere GPU's, heb toen heel erg genoten van mijn 6600GT en 7600GT(met 80nm chip die +700Mhz kon
[ Voor 14% gewijzigd door Darkasantion op 14-12-2011 11:11 ]
Join het DPC Whatpulse team Intel/ATI.AMD Powered PC!
Verwijderd
Nou laten we dan maar hopen dat nvidia met wat goed komt dan kan iedereen het jaar er op weer wat minder negatief zijn
Als dit het geval is dan heeft nvidia 2 reeksen al weer goed zijn best gedaan.
Als dit het geval is dan heeft nvidia 2 reeksen al weer goed zijn best gedaan.
[ Voor 25% gewijzigd door Verwijderd op 14-12-2011 11:12 ]
Wat is er mis met:Werelds schreef op woensdag 14 december 2011 @ 11:10:
Al dat gedoe over hoe "goed" de koeler van een 580 is of hoe "slecht" de koelers van AMD kaarten zijn volgens sommigen is wat mij betreft dan ook puur subjectieve onzin. Pas als iemand daadwerkelijk keiharde vergelijkingen maakt zoals ik hierboven aan geef kun je daar echt iets over zeggen.
http://www.techpowerup.co...IS/Radeon_HD_6970/28.html
Lijkt me toch compleet genoeg?In the past years users would accept everything just to get more performance. Nowadays this has changed with people being more aware of the fan noise and power consumption of their graphic cards.
In order to properly test the fan noise a card emits we are using a Bruel & Kjaer 2236 sound level meter (~$4,000) which has the measurement range and accuracy we are looking for.
![]()
The tested graphics card is installed in a system that is completely passively cooled. That is passive PSU, passive CPU cooler, passive cooling on the motherboard and Solid-State HDD.
This setup allows us to eliminate secondary noise sources and test only the video card. To be more compliant with standards like DIN 45635 (we are not claiming to be fully DIN 45635 certified) the measurement is conducted at 100 cm distance and 160 cm over the floor. The ambient background noise level in the room is well below 20 dbA for all measurements. Please note that the dbA scale is not linear, it is logarithmic. 40 dbA is not twice as loud as 20 dbA. A 3 dbA increase results in double the sound pressure. The human hearing is a bit different and it is generally accepted that a 10 dbA increase doubles the perceived sound level. The 3D load noise levels are tested with a stressful game, not Furmark.
Fan noise of the Radeon HD 6970 is ok. When compared with NVIDIA's latest GTX 580 that was optimized for low noise, we see about the same numbers. But GTX 580 is over 10% faster!
PS: Nee, ik ben geen fanboy.
[ Voor 8% gewijzigd door Paprika op 14-12-2011 11:30 ]
Mja, ik snap dat wattage verband houdt met temperatuur... Echter ligt het eraan wat voor koeler er gebruikt wordt. Als een VGA kaart 350W verstookt ligt het aan de koeling hoe warm hij wordt.Werelds schreef op woensdag 14 december 2011 @ 11:10:
[...]
En hoe is dat niet direct gerelateerd aan temperatuur? Ik zie dit soort opmerkingen zo vaak en sorry, maar het slaat echt nergens op. Een heel groot deel van het gevraagde vermogen moeten ze ergens kwijt en dat kan alleen via hitte. Dus ja, het vermogen ("wattage") is weldegelijk een heel erg belangrijke factor.
Maar daar ging het mij niet om; Madmax gaf een link naar iets wat heel ergens anders over ging. (Het ging in dat artikel niet zozeer over het wattage of temperatuur, maar over een nieuwe versie van GPU-z die het throttelen van de GTX580 disabled) En dat was geen onderdeel van de gaande discussie... Dat laatste was mijn punt.
[ Voor 10% gewijzigd door Format-C op 14-12-2011 11:52 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
@ vipeax: Nee, want daar staat niets bij over de temperaturen, verbruik op moment van meting of de prestaties op dat moment (als er namelijk een CPU bottleneck is zal de kaart minder verbruiken en dus ook minder hoeven te koelen - let op dat ze in een passief gekoeld systeem werken, dus hier zou ik niet van opkijken).
Dat is een beetje mijn punt. Met name geluidsproductie is grote onzin in reviews, want er zijn te veel factoren om rekening mee te houden. Even afgezien van de verschillen in methodiek tussen sites. Als in TPU's geval de 6970 namelijk fijn op 3000 RPM loopt te ronken en daarbij de kaart 10 graden koeler houdt dan de 580 terwijl beide kaarten maar voor 60% belast en zo'n 200W trekken, weet je namelijk nog steeds niet welke van de twee beter koelt (betekent wel dat er een aggressief fan profiel actief is, maar dat terzijde).
Neem deze bijvoorbeeld (het verschil met TPU even negeren, compleet andere methode zoals ik al zei): http://www.anandtech.com/...hd-6970-radeon-hd-6950/24
De 580 zit daar met Crysis load (wat wel eens heel goed TPU's "load" zou kunnen zijn) namelijk onder z'n kleine broertje qua temperatuur maar met iets meer kabaal en stroom verbruik. Heeft de 570 een betere koeler? Nee, de 580 heeft gewoon een iets aggressiever profiel. En toch zorgt het voor 2 dB(A) verschil.
Een ander punt dat vaak makkelijk vergeten wordt is frequentie. Sommige kaarten hebben namelijk koelers die tussen bepaalde toerentallen een irritante pieptoon te produceren (komt soms ook door luchtverplaatsing waarbij de lucht dan net door een spleetje giert; soms is het ook gewoon de fan zelf). Mijn GTX 460 deed dat al bij 35% (precieze toerental weet ik even niet meer), m'n 6950 nu doet dat tussen de 55% en 58%. Mag dan niet meer luchtverplaatsing ("geluid") zijn, het klinkt wel veel harder dan snelheden daarboven.
Begrijp me niet verkeerd, het zijn aardige indicaties maar uiteindelijk zijn het subjectieve metingen omdat er veel te veel variabelen zijn die je in kaart moet brengen, en niemand doet dat. De rest gaat dus "op gevoel".
@ Format-C: weet ook wel dat jij dat weet, maar als je het zo post als hierboven vatten sommigen het wellicht verkeerd op of lezen het verkeerd, dus vandaar dat ik het even aanhaalde
Dat is een beetje mijn punt. Met name geluidsproductie is grote onzin in reviews, want er zijn te veel factoren om rekening mee te houden. Even afgezien van de verschillen in methodiek tussen sites. Als in TPU's geval de 6970 namelijk fijn op 3000 RPM loopt te ronken en daarbij de kaart 10 graden koeler houdt dan de 580 terwijl beide kaarten maar voor 60% belast en zo'n 200W trekken, weet je namelijk nog steeds niet welke van de twee beter koelt (betekent wel dat er een aggressief fan profiel actief is, maar dat terzijde).
Neem deze bijvoorbeeld (het verschil met TPU even negeren, compleet andere methode zoals ik al zei): http://www.anandtech.com/...hd-6970-radeon-hd-6950/24
De 580 zit daar met Crysis load (wat wel eens heel goed TPU's "load" zou kunnen zijn) namelijk onder z'n kleine broertje qua temperatuur maar met iets meer kabaal en stroom verbruik. Heeft de 570 een betere koeler? Nee, de 580 heeft gewoon een iets aggressiever profiel. En toch zorgt het voor 2 dB(A) verschil.
Een ander punt dat vaak makkelijk vergeten wordt is frequentie. Sommige kaarten hebben namelijk koelers die tussen bepaalde toerentallen een irritante pieptoon te produceren (komt soms ook door luchtverplaatsing waarbij de lucht dan net door een spleetje giert; soms is het ook gewoon de fan zelf). Mijn GTX 460 deed dat al bij 35% (precieze toerental weet ik even niet meer), m'n 6950 nu doet dat tussen de 55% en 58%. Mag dan niet meer luchtverplaatsing ("geluid") zijn, het klinkt wel veel harder dan snelheden daarboven.
Begrijp me niet verkeerd, het zijn aardige indicaties maar uiteindelijk zijn het subjectieve metingen omdat er veel te veel variabelen zijn die je in kaart moet brengen, en niemand doet dat. De rest gaat dus "op gevoel".
@ Format-C: weet ook wel dat jij dat weet, maar als je het zo post als hierboven vatten sommigen het wellicht verkeerd op of lezen het verkeerd, dus vandaar dat ik het even aanhaalde
Verwijderd
Zucht... Wat zegt die link? Dat ie via een mod. meer stroom kan trekken bij Furmark? Daar vroeg ik niet om en tevens heeft dit (zoals je gelukkig zelf nog wel aangeeft) niks met de praktijk te maken.madmaxnl schreef op dinsdag 13 december 2011 @ 20:30:
Koud is anders, maar in de praktijk wordt hij inderdaad niet heet.
Enige wat ik aan Help!!!! vroeg is om zijn ongefundeerde post te beargumenteren...
Dat heeft nVidia onlangs een keer gedaan. Het product heet GTX590 en stierf met een behoorlijk groter percentage dan gangbaar, omdat nVidia de clocks tot het uiterste perste, iets waar de VRM niet op berekend was. Al met al hadden ze een langzamere kaart die niet veel kan hebben. Een niet al te beste strategie dus. Bovendien staan targets voor een chip al vast voor ze het eerste silicon terugkrijgen en door de tang genomen is er niet veel ruimte aan de bovdnkant voor clocks.Verwijderd schreef op woensdag 14 december 2011 @ 10:57:
Ik doel meer op stil zijn. Ik denk dat nvidia de kat uit de bom kijkt wat AMD straks te bieden heeft voor het met dingen gaat komen. Het is gewoon ook belachelijk stil aan die kant van nvidia terwel nvidia zelf al wel weet wat voor kaarten het gaan worden en ook de specs denk ik
Als Nvidia wacht op AMD voordat ze het ontwerp afmaken zijn ze VEEL te laat, dat is echt niet het geval.
Las ik laatst niet dat Nvidia hun eerste sample binnen hadden? Dan kunnen ze op zn vroegst over pakweg 3 maanden kaarten op de markt zetten.
Las ik laatst niet dat Nvidia hun eerste sample binnen hadden? Dan kunnen ze op zn vroegst over pakweg 3 maanden kaarten op de markt zetten.
Het lijkt me nogal logisch dat je de vele full-load grafiekjes kunt combineren (= temperatuur, verbruik, geluid), immers is full load toch full load? Verder zijn er zat applicaties te bedenken waarmee je 100% load kunt bereiken met een i7 920 @ 3.8GHz.... Dat lijkt me geen probleem.Werelds schreef op woensdag 14 december 2011 @ 12:01:
@ vipeax: cut
Ik snap wel waar je op doelt, maar zo'n review is eigenlijk ook niet te meten. Hoe bepaal je namelijk wat een irritante zoem is etc. Je zult nooit een review kunnen maken die voor iedereen klopt.
Wat die link feitenlijk zegt is, dat als de software onverhoopt faalt (in deze de drivers) de kaart in werkelijkheid meer verbruikt dan het opgegeven TDP, namelijk iets in de richting van de 350Watt. Maar goed, dat is allemaal al eerder uitgekauwd hier. Het zou echter wel vraagtekens kunnen/moeten plaatsen bij het verbruik van GK104. Als deze prestaties neer zou kunnen zetten gelijk aan GTX580, wat zal het verbruik dan doen?Verwijderd schreef op woensdag 14 december 2011 @ 12:08:
[...]
Zucht... Wat zegt die link? Dat ie via een mod. meer stroom kan trekken bij Furmark? Daar vroeg ik niet om en tevens heeft dit (zoals je gelukkig zelf nog wel aangeeft) niks met de praktijk te maken.
Enige wat ik aan Help!!!! vroeg is om zijn ongefundeerde post te beargumenteren...
Verwijderd
Mee eens maar wie zegt dat dat nu weer gaat gebeuren? En trouwens deze geruchten lees in anders ook niet veel meer. Missien een rebatch gekomen want je hoord er nog maar vrij weining over. Alleen in het begin las ik deze problemen veel, vooral de eerste maand toen de gtx590 net uit kwam. Het kan ok zijn dat niemand meer een gtx590 koopt?dahakon schreef op woensdag 14 december 2011 @ 12:27:
[...]
Dat heeft nVidia onlangs een keer gedaan. Het product heet GTX590 en stierf met een behoorlijk groter percentage dan gangbaar, omdat nVidia de clocks tot het uiterste perste, iets waar de VRM niet op berekend was. Al met al hadden ze een langzamere kaart die niet veel kan hebben. Een niet al te beste strategie dus. Bovendien staan targets voor een chip al vast voor ze het eerste silicon terugkrijgen en door de tang genomen is er niet veel ruimte aan de bovdnkant voor clocks.
Het probleem is dat je temperatuur en geluid behoorlijk kunt beinvloeden met een ander fanprofiel.Paprika schreef op woensdag 14 december 2011 @ 13:13:
[...]
Het lijkt me nogal logisch dat je de vele full-load grafiekjes kunt combineren (= temperatuur, verbruik, geluid), immers is full load toch full load? Verder zijn er zat applicaties te bedenken waarmee je 100% load kunt bereiken met een i7 920 @ 3.8GHz.... Dat lijkt me geen probleem.
Ik snap wel waar je op doelt, maar zo'n review is eigenlijk ook niet te meten. Hoe bepaal je namelijk wat een irritante zoem is etc. Je zult nooit een review kunnen maken die voor iedereen klopt.
Als de ene koeler de temperatuur iets lager houdt, maar daarbij iets meer lawaai maakt dan de ander, kun je met geen mogelijkheid zeggen welke koeler het beste is.
Zo had ik bv met een custom fanprofiel voor de sapphire dirt3 fan bij 100% load de fan iets harder gezet (50%), hierbij bleef de kaart 10 graden koeler maar was nauwelijks meer hoorbaar.
Verwijderd
Klopt het dat dat ook voor games zo werk want ik wil wel weten of ik door dit uit te schakelen dan ook een snellere kaart krijg. Het gekke is is dat mijn gpu gebruik en klocks niet naar beneden gaan ingame maar dit kan natuurlijk ook zo zijn gemaakt dat het lijkt alsof er niets gebeurd ?dahakon schreef op woensdag 14 december 2011 @ 13:27:
[...]
Wat die link feitenlijk zegt is, dat als de software onverhoopt faalt (in deze de drivers) de kaart in werkelijkheid meer verbruikt dan het opgegeven TDP, namelijk iets in de richting van de 350Watt. Maar goed, dat is allemaal al eerder uitgekauwd hier. Het zou echter wel vraagtekens kunnen/moeten plaatsen bij het verbruik van GK104. Als deze prestaties neer zou kunnen zetten gelijk aan GTX580, wat zal het verbruik dan doen?
[ Voor 10% gewijzigd door Verwijderd op 14-12-2011 16:45 ]
Verwijderd
Ik weet wat de link zegt, maar die werd totaal overbodig hier gepost... Nog geen enkel bericht gelezen dat er iets fout gaat met de GTX580, dus das druk maken om niks..dahakon schreef op woensdag 14 december 2011 @ 13:27:
[...]
Wat die link feitenlijk zegt is, dat als de software onverhoopt faalt (in deze de drivers) de kaart in werkelijkheid meer verbruikt dan het opgegeven TDP, namelijk iets in de richting van de 350Watt. Maar goed, dat is allemaal al eerder uitgekauwd hier. Het zou echter wel vraagtekens kunnen/moeten plaatsen bij het verbruik van GK104. Als deze prestaties neer zou kunnen zetten gelijk aan GTX580, wat zal het verbruik dan doen?
En als de GK104 prestaties van een GTX580 neer zou kunnen zetten, dan zal het verbuik natuurlijk minder zijn, immers 40nm vs 28nm. Ze zouden dan een minder grote chip hoeven maken die dan zeer waarschijnlijk minder verbruikt. Een GTX560 verbruikt ook minder dan een GTX280, maar is ook sneller...
Oude koeien idd. Het probleem lag bij de GTX570 met zijn goedkopere board (VRM's). OC zou dan de boel op kunnen blazen.Verwijderd schreef op woensdag 14 december 2011 @ 17:04:
[...]
Ik weet wat de link zegt, maar die werd totaal overbodig hier gepost... Nog geen enkel bericht gelezen dat er iets fout gaat met de GTX580, dus das druk maken om niks..
Verwijderd
Ja, daar hebben ze wat weggelaten t.o.v. de GTX580, maar ook daarvan is er (voor zover ik weet) in de praktijk niet gek veel gebeurd. maar nu gaan we wederom naar een ander onderwerp!
Verwijderd
Alles wat we nu weten is gebaseerd op geruchten, daar zul je het mee moeten doen. Feiten over de komende generatie zijn er (vrijwel) niet. Er zijn nu diverse geruchten geweest. De meest positieve wijzen er op dat de GK104 in maart/april zou komen. De meest negatieve wijzen op GK104 ergens in juni, waarbij de GK107 in april zou komen. Alle geruchten wijzen er dus op dat Nvidia later zal zijn dan AMD, die 9 januari met de Tahiti GPU's komt.Verwijderd schreef op woensdag 14 december 2011 @ 10:31:
Indd er zijn hier duidelijk een paar mensen die niets van nvidia moeten weten of sterker nog alleen maar in de slechte dingen geloven. Daar kun je nooit je gelijk bij krijgen. Ik kan er wel in komen door een paar foutjes bij nvidia dat het vertrouwens dan minder word maar het is nooit zo erg geweest om er niets meer van te geloven. Verder zie ik veel feiten nog geen feiten zijn. Zoals dat de gtx580 heet is wat dus niet zo is, is aardig geijk met zijn tegenhangers maar zelfs beter gezien de warmte produtie van de huidige high end kaarten van nvidia hoger is.
Het is verder ook gene feit dat het om een big die gaat, en het is ook nog geen feit dat het gaat om een paperlaunch.
Verder zijn het allemaal troll hier van mensen die niet in nvidia geloven en zelf die poppenkast uitlokken. Blijf liever weg hier als je niet op een zelfde mannier kan treageren zoals in het AMD topic![]()
Het zijn verder nog allemaal gerruchten dus ga niet te veel dingen lopen roepen waar je nog geen weet van hebt.
Als zo veel geruchten dezelfde kant op wijzen wordt de kans dat ze kloppen groter. Meestal ligt de waarheid ergens in het midden: dan komt GK107 in maart/april en GK104 zo'n één tot twee maanden later. Dat is wat mij betreft op dit moment de meest realistische inschatting die je kunt maken.
Nvidia heeft er geen enkel belang bij om ineens een konijn uit de hoge hoed te toveren. De publiciteit over AMD is op dit moment veel positiever dan over Nvidia. Als ze iets achter de hand zouden hebben zouden ze daar al lang dingen over hebben laten lekker om die publiciteit beter te krijgen. Om op basis van een idee te geloven dat Nvidia wel even iets uit de hoge hoed zou toveren is je goed recht, maar wat mij betreft geloof je dan wel in sprookjes. De kans dat dat gaat gebeuren is zeer, zeer klein.Verwijderd schreef op woensdag 14 december 2011 @ 10:53:
Wie weet houd nvidia wel wat achter, en dat lijkt er nu ook heel erg op (zo'n idee heb ik al een poos over deze nieuwe series ook).
offtopic:
Laten we het verder voor de verandering eens bij de inhoud houden, en flames over en weer over fanboys achterwege laten. Die vervuilen het topic alleen maar.
Je baseren op het verleden van Nvidia lokt alleen maar flames uit, en is overbodig. Kijk gewoon naar de bronnen die er zijn en maak je eigen analyse.
Laten we het verder voor de verandering eens bij de inhoud houden, en flames over en weer over fanboys achterwege laten. Die vervuilen het topic alleen maar.
Je baseren op het verleden van Nvidia lokt alleen maar flames uit, en is overbodig. Kijk gewoon naar de bronnen die er zijn en maak je eigen analyse.
Verwijderd
Heb je het nu tegen mij want ik maak mijn eigen analyse en flame niet en hang ook geen fanby uit verder ik breng geen feiten op tafel. Ik vraag dit omdat je mij er bij haald
Lol dit vind ik wel zo mooi
http://www.thinq.co.uk/20...rss+(Latest+from+thinq_+)
Lol dit vind ik wel zo mooi
http://www.thinq.co.uk/20...rss+(Latest+from+thinq_+)
[ Voor 64% gewijzigd door Verwijderd op 14-12-2011 18:08 ]
Weet niet of dit al voorbij was gekomen:
http://www.hpcwire.com/hp...ompiler.html?featured=top
Cuda openstellen voor andere bedrijven.
Op zich mooie actie. weet moet of het bericht te vertrouwen is.
http://www.hpcwire.com/hp...ompiler.html?featured=top
Cuda openstellen voor andere bedrijven.
Op zich mooie actie. weet moet of het bericht te vertrouwen is.
Wellicht is het al uit het geheugen verdwenen, maar er was bij de launch van Starcraft II een moment van veel stervende nVidia-kaarten, omdat het menu van Starcraft II de kaarten volop liet blazen, wat problemen met zich mee bracht.Verwijderd schreef op woensdag 14 december 2011 @ 17:04:
Ik weet wat de link zegt, maar die werd totaal overbodig hier gepost... Nog geen enkel bericht gelezen dat er iets fout gaat met de GTX580, dus das druk maken om niks..
Een poosje later werd er eens een driver uitgebracht die niet helemaal lekker was en fans niet juist liet draaien, met als gevolg kaarten die naar de eeuwige jachtvelden gingen.
Het punt is, de softwarematige oplossing waarmee GTX580 onder de 300Watt gehouden wordt, kan falen, met eventuele gevolgen van dien. Jij noemt het 'druk maken om niks', ik noem het 'rekening houden met'.
Mocht GK104 uiteindelijk min of meer een GF110 op 28nm zijn betreffende performance, dan zit deze kaart rond de 210Watt verbruik, uitgaande van omderstaande.En als de GK104 prestaties van een GTX580 neer zou kunnen zetten, dan zal het verbuik natuurlijk minder zijn, immers 40nm vs 28nm. Ze zouden dan een minder grote chip hoeven maken die dan zeer waarschijnlijk minder verbruikt. Een GTX560 verbruikt ook minder dan een GTX280, maar is ook sneller...
This is the key point with Kepler because the TSMC 28nm HKMG process has an outer bound of 45% speed improvement or a 40% power savings according to the TSMC web site.
Komende van dit artikel
Daarbij ga ik uit van het ongelimiteerde verbruik van GF110, aangezien het me niet lijkt dat ze GK104 gaan knijpen als het niet in de buurt van de 300Watt komt. Met die ~210 Watt is een volle dual-chip kaart dus ook eigenlijk al weer geen mogenlijkheid, al is het minder waanzinnig dan de GTX590.
Ik voeg nieuwe aspecten/factoren aan de discussie toe. Dat de discussie daar initieel niet mee is begonnen en of dat de discussie daar niet expliciet over ging doet er in mijn ogen niet toe.Format-C schreef op woensdag 14 december 2011 @ 06:02:
[...]
Hoezo? Was dat onderdeel van de discussie? Volgens mij ging het over warmte die de GTX580 genereert, en over warmte die een toekomstige kaart zou gaan genereren. Niet over prijzen en/of prijs kwaliteitsverhouding. Of iets anders wat weer eens zomaar uit de lucht gegrepen wordt.
[...]
In de link die je geeft wordt niet gepraat over temperatuur, maar over wattage. En eigenlijk gaat het daar ook niet eens echt om, maar over een versie van GPU-z die het throttelen van de GTX580 (de power draw protection) uit kan zetten.
Maar ook dat is/ was (wederom) geen onderdeel van de discussie. Dus ik begrijp dan ook niet wat dit toevoegt aan de discussie.
Ja in het gelinkte artikel gaat het over verbruik en niet over warmte. Blijkbaar mag dit van jou niet genoemd worden omdat het wederom geen onderdeel van de discussie is; de warmte die een GTX580 produceert. Ik zal in het vervolg er ook nog wel een analyse bij duwen van de correlatie tussen warmte productie en stroomverbruik.
Ik snap niet waarom je mijn inbreng probeert te ridiculiseren. Want als we het bijvoorbeeld over prijs de van videokaart X hebben. Dan zou -in jou ogen- niemand de die size of het productie procedé mogen aanhalen(bij de discussie betrekken) omdat ze beiden geen onderdeel van de discussie zijn. Terwijl er wel een verband tussen die size, productie procedé en prijs bestaat. Als je het verband niet ziet ridiculiseer dan niet meteen, maar vraag naar het verband.
Idem dito geld voor mijn referentie aan de 7800GTX waarbij ik bepaalde verbanden leg.
Wanneer hebben we een volle dual-GPU kaart gehad eigenlijk?dahakon schreef op woensdag 14 december 2011 @ 18:14:
Met die ~210 Watt is een volle dual-chip kaart dus ook eigenlijk al weer geen mogenlijkheid, al is het minder waanzinnig dan de GTX590.
GTX590 6990 5970 GTX295 4870X2 was de laatste dan geloof ik?
We weten iig dat het lang duurt en dat de kaarten wel snel zullen zijn en dat ze het proces beter onder de knie hebben dan waar ze de fout mee in zijn gegaan bij de 480.. ze zeiden iig dat ze niet met een falend GTX480 slurpende kaart komen
[ Voor 17% gewijzigd door A87 op 14-12-2011 19:17 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Ze kunnen natuurlijk zoveel zeggen, GF100 zou ook ''helemaal goed komen''Lias schreef op woensdag 14 december 2011 @ 19:16:
We weten iig dat het lang duurt en dat de kaarten wel snel zullen zijn en dat ze het proces beter onder de knie hebben dan waar ze de fout mee in zijn gegaan bij de 480.. ze zeiden iig dat ze niet met een falend GTX480 slurpende kaart komen
Over het proces is het ook nog maar afwachten, het heeft vrij lang geduurd voordat ze 40nm goed werkend hebben gekregen en nu zijn ze natuurlijk weer naar 28nm waar volgens geruchten ook nog wel is wat problemen mee zijn waar je dus ook eerder last van krijgt met een grote chip, wat Nvidia meestal dus heeft.
[ Voor 26% gewijzigd door Redblader op 14-12-2011 19:22 ]
Verwijderd
Jeps ze kunnen heel veel zeggen maar het kan ook gewoon beter gaan dan met de gf100, daar kun je van uit gaan ook want nvidia is niet achterlijk.
Je kunt natuurlijk ook uit gaan van de gf110 hé telkens maar die gf100 er bij halen is gewoon zeuren.
Zo veel als we nu weten kunnen we nog niet praten over gf100 problemen.
Leak NV kepler
http://translate.google.n...r.org%2Fnews%2F2011-12-13
Ziet er wat mij betreft veelbelovend uit. En nee ik wil niet negatief zijn want wat heb je er aan om voor die tijd al teleurgesteld te zijn in iets wat we nog niet kunnen weten.
Je kunt natuurlijk ook uit gaan van de gf110 hé telkens maar die gf100 er bij halen is gewoon zeuren.
Zo veel als we nu weten kunnen we nog niet praten over gf100 problemen.
Leak NV kepler
http://translate.google.n...r.org%2Fnews%2F2011-12-13
Ziet er wat mij betreft veelbelovend uit. En nee ik wil niet negatief zijn want wat heb je er aan om voor die tijd al teleurgesteld te zijn in iets wat we nog niet kunnen weten.
[ Voor 44% gewijzigd door Verwijderd op 15-12-2011 08:14 ]
De post is niet geheel ongefundeerd hoor. Nvidia's topkaarten zijn duur en en de big die strategie lijkt gewoon nog intact te zijn.Verwijderd schreef op woensdag 14 december 2011 @ 12:08:
[...]
Zucht... Wat zegt die link? Dat ie via een mod. meer stroom kan trekken bij Furmark? Daar vroeg ik niet om en tevens heeft dit (zoals je gelukkig zelf nog wel aangeeft) niks met de praktijk te maken.
Enige wat ik aan Help!!!! vroeg is om zijn ongefundeerde post te beargumenteren...
Het element hitte klopt inderdaad niet. De koeling bij de 580 is goed. Ik zat deels nog aan de 480 te denken en deels bedoelde ik eigenlijk meer het verbruik. Iets wat je goed terug ziet bij o.a. 580 SLI
Het is nu eenmaal zo dat de big die eigenlijk altijd tot meer wattage en meer hitte leidt wat vervolgens weer sneller tot problemen leidt met koeling en meerdere chips op een kaart (590).
In die zin ben ik ook benieuwd hoe de 7xxx het gaat doen omdat bij AMD de diesize ook weer wat schijnt toe te nemen.
[ Voor 17% gewijzigd door Help!!!! op 15-12-2011 12:24 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Die link is al eerder voorbij gekomen op dinsdag, in combinatie met een link van vr-zone, die er op in ging. Al met al lijkt het vooral een pagehit artikel. Het staat ook haaks op het bericht van Fudo, waarin nVidia zekf lijkt tr claimen dat de eerste Kepler Q2 komt.Verwijderd schreef op donderdag 15 december 2011 @ 08:07:
http://translate.google.n...r.org%2Fnews%2F2011-12-13
Ziet er wat mij betreft veelbelovend uit. En nee ik wil niet negatief zijn want wat heb je er aan om voor die tijd al teleurgesteld te zijn in iets wat we nog niet kunnen weten.
Wat nog wel tot de mogelijkheden kan horen is dat het om een 28nm Fermi shrink gaat, maar dan zijn de specs weer discutabel.
^
Waarschijnlijk blijf je dus nog even leven.
Waarschijnlijk blijf je dus nog even leven.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Vast wel.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Verwijderd

http://wccftech.com/leake...-geforce-gtx-780-gtx-580/
Ald dit plaatje klopt gaat het om flinke performance winsten.
Maar zullen we nu ophouden van dat iets niet kan tenzij er harde feiten zijn die het tegendeel bewijzen?
[ Voor 15% gewijzigd door Verwijderd op 16-12-2011 10:37 ]
Een paar dagen geleden zei je nog dat alles niet waar was en nu is alles zo maar wel waar ten zei het tegendeel bewezen is?Verwijderd schreef op vrijdag 16 december 2011 @ 10:33:
Maar zullen we nu ophouden van dat iets niet kan tenzij er harde feiten zijn die het tegendeel bewijzen?
Deze is iig nep.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Ik zij niet dat alles niet waar is in zij dat alles nog geruchten zijn die niet 100% betrouwbaar zijn zoals deze, maar deze lijkt indd dichter bij 100% niet waar te liggen
. Gewoon geen feiten van maken klaar. Maar jij doet het wel zonder eenige onderbouwing 
Waneer kunnen mensen in dit topic een keer wat meer positief zijn echt, sluiten is beter dan altijd maa rop zo'n negative manier door gaan want daar raak je hier alleen mar de mensen mee die graag nvidia hebben

Waneer kunnen mensen in dit topic een keer wat meer positief zijn echt, sluiten is beter dan altijd maa rop zo'n negative manier door gaan want daar raak je hier alleen mar de mensen mee die graag nvidia hebben

[ Voor 42% gewijzigd door Verwijderd op 16-12-2011 10:56 ]
Afgezien van dat ik zulke wel erg vroege érg positieve leaks altijd met een korreltje zout neem... Waarom wordt de next-gen flagship daar GTX780 genoemd en geen GTX680, of heb ik iets volledig gemist?
Belangrijker nog, sinds wanneer krijgen we performance slides die op 0 beginnen? 
Zulke slides zijn altijd scheef opgezet; beginnen op 0.8 en springen vervolgens met zo klein mogelijke stappen omhoog om de balkjes zo groot mogelijk te laten lijken.
Zulke slides zijn altijd scheef opgezet; beginnen op 0.8 en springen vervolgens met zo klein mogelijke stappen omhoog om de balkjes zo groot mogelijk te laten lijken.
Als negatieve opmerkingen over een videokaart fabrikant je raken moet je toch echt is wat meer naar buiten gaan.Verwijderd schreef op vrijdag 16 december 2011 @ 10:48:
Ik zij niet dat alles niet waar is in zij dat alles nog geruchten zijn die niet 100% betrouwbaar zijn zoals deze, maar deze lijkt indd dichter bij 100% niet waar te liggen. Gewoon geen feiten van maken klaar. Maar jij doet het wel zonder eenige onderbouwing
Waneer kunnen mensen in dit topic een keer wat meer positief zijn echt, sluiten is beter dan altijd maa rop zo'n negative manier door gaan want daar raak je hier alleen mar de mensen mee die graag nvidia hebben
Er zijn hier bepaalde mensen op het forum die soms meer weten dan anderen en die kunnen natuurlijk ook niet alles vertellen anders krijgen ze helemaal geen informatie meer van hun bronnen, dus er kunnen soms wat vage hints verteld worden.
Verwijderd
Wat meer naar buiten gaan haha. Omg vanwege dat ik nog al in sociale kringen bezig ben is het hier gewoon heel raar voor mij, in kan dat denk ik beter zeggen van anderen. Ik kom dagelijks uren buiten en ben zo'n 14 uur in de week met sporten bezig.
[ Voor 10% gewijzigd door Verwijderd op 16-12-2011 11:25 ]
Don't shoot the messenger? Als nieuws negatief is, kun je dat de brenger dan aanrekenen, of zou het logischer zijn om je op het bedrijf te richten dat een bepaald verwachtingspatroon heeft gecreeerd. Waar AMD al samples van GCN heeft getoond dit jaar, komt nVidia niet verder dan een gesoepte dieshot van Fermi met de claim dat het om Denver gaat en verder wat loze kreten dat alles prima verloopt. Het is gewoon niet vreemd dat mensen die het allemaal al wat langer volgen sceptisch zijn aangaande nVidia.Verwijderd schreef op vrijdag 16 december 2011 @ 10:48:
Waneer kunnen mensen in dit topic een keer wat meer positief zijn echt, sluiten is beter dan altijd maa rop zo'n negative manier door gaan want daar raak je hier alleen mar de mensen mee die graag nvidia hebben
Verwijderd
Ik vind het altijd zo kloten dat er gelijk feiten van worden gemaakt of tenminste zo komen ze over zonder dat het harde feiten zijn. Wat hebben we daar dan aan over nvidia trollen hier? Als dat zo is kan het toch beter op slot. Maar goed dat is mijn mening,
Wat ik wel jammer vind is dat er zo veel naar buiten komt voor de bedrijven en over cuda en nog maar weinig voor de gamers. Nvidia vind deze tak geloof ik minder belangrijk want het lijkt er ok dat dat nu alleen nog maar bij zaak is voor nvidia?
Wat ik wel jammer vind is dat er zo veel naar buiten komt voor de bedrijven en over cuda en nog maar weinig voor de gamers. Nvidia vind deze tak geloof ik minder belangrijk want het lijkt er ok dat dat nu alleen nog maar bij zaak is voor nvidia?
[ Voor 32% gewijzigd door Verwijderd op 16-12-2011 11:56 ]
Niemand doet alsof het harde feiten zijn, hooguit een erg geloofwaardig gerucht.Verwijderd schreef op vrijdag 16 december 2011 @ 11:51:
Ik vind het altijd zo kloten dat er gelijk feiten van worden gemaakt of tenminste zo komen ze over zonder dat het harde feiten zijn. Wat hebben we daar dan aan over nvidia trollen hier? Als dat zo is kan het toch beter op slot. Maar goed dat is mijn mening,
Wat ik wel jammer vind is dat er zo veel naar buiten komt voor de bedrijven en over cuda en nog maar weinig voor de gamers. Nvidia vind deze tak geloof ik minder belangrijk want het lijkt er ok dat dat nu alleen nog maar bij zaak is voor nvidia?
Als je vind dat dat niet kan dan is een betere oplossing dan dit topic op slot zitten gewoon niet meer dit topic lezen, mensen komen hier om te discussiëren niet om alleen positieve dingen te melden over Nvidia.
Nvidia zal CUDA vooral willen promoten voor de zakelijke wereld lijkt me, daar is het grote geld te halen.
[ Voor 5% gewijzigd door Redblader op 16-12-2011 12:03 ]
Verwijderd
Funny that when one Manufacturer is getting news (AMD R7000) that all of the sudden the competition becomes active with little news items as well. AMD will most certainly be the first graphics card maker to release a 28nm GPU series alright, in fact the first samples are beeing seeded to press already (yes us too).
Nvidia has recently disclosed that Kepler is on track and that they have already entered into the possession of the first 28nm chip samples.
“We are on track with our Kepler roadmap. We have 28nm silicon in house now,” said Igor Stanek, Senior Product PR Manager at Nvidia during an interview with the Fudzilla website.
“Our transition to 28nm is going better than 40nm, and yields are better than our original plan,” concluded the company’s rep without going into any details regarding Kepler’s roadmap.
However, over the course of the last few months, multiple Nvidia representatives have said that the first Kepler-based graphics cards aren’t expected to arrive until Q2 of 2012, so this is probably the timeline that Stanek is referring to.
Before Kepler arrives, the GPU maker is expected to release a series of die shrinks of Fermi built using TSMC's 28nm fabrication process. The first chips based on the Kepler architecture were taped out by Nvidia at the beginning of September.
Kepler is the code name used by Nvidia to refer to its next-generation graphics processing unit architecture, which, just like AMD's Radeon HD 7000 GPUs, will be manufactured using TSMC's 28nm fabrication process.
The new graphics core is expected to be more flexible in terms of programmability than the current Fermi architecture and of course a lot more powerful.

http://www.guru3d.com/new...r-is-on-track-is-sampled/
Ik wil eigenlijk liever benchmarks en foto's maar goed al wel niet lang meer duren?
Nvidia has recently disclosed that Kepler is on track and that they have already entered into the possession of the first 28nm chip samples.
“We are on track with our Kepler roadmap. We have 28nm silicon in house now,” said Igor Stanek, Senior Product PR Manager at Nvidia during an interview with the Fudzilla website.
“Our transition to 28nm is going better than 40nm, and yields are better than our original plan,” concluded the company’s rep without going into any details regarding Kepler’s roadmap.
However, over the course of the last few months, multiple Nvidia representatives have said that the first Kepler-based graphics cards aren’t expected to arrive until Q2 of 2012, so this is probably the timeline that Stanek is referring to.
Before Kepler arrives, the GPU maker is expected to release a series of die shrinks of Fermi built using TSMC's 28nm fabrication process. The first chips based on the Kepler architecture were taped out by Nvidia at the beginning of September.
Kepler is the code name used by Nvidia to refer to its next-generation graphics processing unit architecture, which, just like AMD's Radeon HD 7000 GPUs, will be manufactured using TSMC's 28nm fabrication process.
The new graphics core is expected to be more flexible in terms of programmability than the current Fermi architecture and of course a lot more powerful.

http://www.guru3d.com/new...r-is-on-track-is-sampled/
Ik wil eigenlijk liever benchmarks en foto's maar goed al wel niet lang meer duren?
Een foto van een sample is leuk, maar niet veel meer dan dat, een sample. Als het om benchmarks gaat, hoe wil je benchmarks krijgen als je alleen samples hebt en geen production-ready silicon, waarmee je de uiteindelijke chip-prestaties vast kunt leggen?Verwijderd schreef op zaterdag 17 december 2011 @ 12:38:
Ik wil eigenlijk liever benchmarks en foto's maar goed al wel niet lang meer duren?
In ieder geval wordt wederom duidelijk herhaalt dat Kepler pas Q2 het daglicht zal zien, nadat eerst Fudzilla en nu ook Guru3D (beiden nVidia-vriendelijk) ermee naar buiten komt als statement van nVidia-reps.
Verwijderd
Jeps, duurt nog wel even dus maar goed, ik vind dat het wachten wel waard als die geruchten van Q2 kloppen en dat dat niet later word.
Waarom plaats je dat grafiekje overigens nogmaals? Heb je iets terug in het topic ook geplaatst en is met redelijke zekerheid als nep te bestempelen. Verder is Q2 zoals het er naar uitziet nog altijd GK107-only en komt GK104 later. Misschien heeft nVidia een konijn in hoge hoed, maar er zijn geen aanwijzingen voor.
Verwijderd
Oww gebeurd ook in het AMD topic met die anti nvidia grafiekjes.dus ik dacht ach waarom dan ook niet hier.
Maar serieus dat grafiekje hoeft niet nep te zijn maar zal het misschien wel zijn. Nvidia kan wel een kaart maken die zo snel zal zijn want het gaat om een nieuwe architectuur en een kleinere chip dus ja het zou wel echt kunnen zijn. Dat ding is dus nog niet als feit nep te bestemelen tot er benchmarks zijn die het tegendeel bewijzen, je kunt het dus beter even als gerrucht nemen dan als feit of zeggen als feit dat het niet klopt.
Hier blijf ik bij.
Maar serieus dat grafiekje hoeft niet nep te zijn maar zal het misschien wel zijn. Nvidia kan wel een kaart maken die zo snel zal zijn want het gaat om een nieuwe architectuur en een kleinere chip dus ja het zou wel echt kunnen zijn. Dat ding is dus nog niet als feit nep te bestemelen tot er benchmarks zijn die het tegendeel bewijzen, je kunt het dus beter even als gerrucht nemen dan als feit of zeggen als feit dat het niet klopt.
Hier blijf ik bij.
[ Voor 3% gewijzigd door Verwijderd op 17-12-2011 12:56 ]
Verwijderd schreef op zaterdag 17 december 2011 @ 12:54:
Oww gebeurd ook in het AMD topic met die anti nvidia grafiekjes.dus ik dacht ach waarom dan ook niet hier.
Commentaar op moderaties doen we via DM. En 'ja maar zij doen het ook...' accepteer ik niet als verweer. Ontopic verder.
Werelds in "[Algemeen] nVidia Nieuwdiscussie Topic - Deel 54"Verwijderd schreef op zaterdag 17 december 2011 @ 12:54:
Oww gebeurd ook in het AMD topic met die anti nvidia grafiekjes.dus ik dacht ach waarom dan ook niet hier.
Maar serieus dat grafiekje hoeft niet nep te zijn maar zal het misschien wel zijn. Nvidia kan wel een kaart maken die zo snel zal zijn want het gaat om een nieuwe architectuur en een kleinere chip dus ja het zou wel echt kunnen zijn. Dat ding is dus nog niet als feit nep te bestemelen tot er benchmarks zijn die het tegendeel bewijzen, je kunt het dus beter even als gerrucht nemen dan als feit of zeggen als feit dat het niet klopt.
Hier blijf ik bij.
Dit moet een marketing slide voorstellen. Ga nu maar eens op zoek naar een *echte* slide uit een presentatie van AMD of NVIDIA over hun GPU's; je zult er geen enkele vinden waarbij de grafiek op 0 start. Dan is het verschil tussen balkjes te klein, als ze pas op 80% beginnen ziet het er allemaal veel leuker uit. Ik twijfel er geen moment aan dat deze fake is. Dit is geen bashen, dit is realistisch denken en simpelweg common sense.
[ Voor 3% gewijzigd door Werelds op 17-12-2011 13:09 ]
Verwijderd
Mee eens maar daarom mag het nog wel gepost worden toch. Het is al zo dood hier en het geeft wat hoop. Ook al is het valse hoop ghehe. Dit is verder niet van mijn kant opm te ouwehoeren echt niet, daar ben ik hier ook niet voor. Ook al is het mareting dan nog zal het niet raar zijn als je deze prestaties terug ziet in echte slides en benchmarks.
Kijk eens goed naar de grafiek en dan naar:

Enough said.

Enough said.
Verwijderd
Ja dat snap ik ook wel. Dat wist ik eigenlijk ook wel maar het kan zo zijn dat deze performance winsten wel waar zijn en dit moet je zien als een gerrucht die wel waar maar dat moet nog blijken uit benchmarks en andere slides.
[ Voor 158% gewijzigd door Verwijderd op 17-12-2011 13:27 ]
Maar dit zul je dus nooit terug zien. Ik ben het met je eens dat zulke plaatjes best gepost mogen worden, maar dit plaatje is al eerder gepost; je hebt er zelf nog over gebabbeld. Posten is zinvol, opnieuw posten (en vooral nadat iedereen het er wel over eens is dat hij gewoon fake is) is niet bepaald zinvolVerwijderd schreef op zaterdag 17 december 2011 @ 13:14:
Mee eens maar daarom mag het nog wel gepost worden toch. Het is al zo dood hier en het geeft wat hoop. Ook al is het valse hoop ghehe. Dit is verder niet van mijn kant opm te ouwehoeren echt niet, daar ben ik hier ook niet voor. Ook al is het mareting dan nog zal het niet raar zijn als je deze prestaties terug ziet in echte slides en benchmarks.
Verwijderd
Je kunt het zeker wel terug zien als nvidia een kaart maakt die zo snel is er is namelijk geen feitelijk bewijs dat het wel of niet kan. Dus alles is mogelijk. Je kunt nooit bewijzen dat je dit niet terug zal zien want die is er niet. We kunnen enkel hopen dat het gbeurd
[ Voor 26% gewijzigd door Verwijderd op 17-12-2011 13:45 ]
Ohh. ze kunnen best wel zo'n snelle GPU maken, dat is het probleem niet. Of het de kostprijs om dit te behalen rechtvaardigd, is een ander verhaal. Als het om de slide gaat echter, dan is deze geen garantie dat nVidia met de komende high-end GPU die resultaten gaat behalen. Sterker nog, gezien de mogelijkheden binnen het 28nm process vergeleken met 40nm, moet nVidia niet alleen een veel efficientere architectuur maken (terwijl Kepler vooral een doorontwikkeling is van Fermi), bovendien moet de chip ook monsterlijk groot worden. Dit alles terwijl de maximum TDP voor een kaart officieel nog altijd op 300Watt blijft staan.
Simpel samengevat, als we een top-end Kepler zien die ~50% sneller is dan de GTX580 en binnen de PCI-E specs blijft, dan heeft nVidia al heel erg goed werk afgeleverd.
Simpel samengevat, als we een top-end Kepler zien die ~50% sneller is dan de GTX580 en binnen de PCI-E specs blijft, dan heeft nVidia al heel erg goed werk afgeleverd.
Ik had het over de slide, niet de prestaties. Daar zeg ik niets over, want Kepler is nog ver weg. Zo'n slide als deze zul je echter nooit terug zien, al is het maar vanwege de start op 0 (afgezien van de belachelijke typoVerwijderd schreef op zaterdag 17 december 2011 @ 13:39:
Je kunt het zeker wel terug zien als nvidia een kaart maakt die zo snel is er is namelijk geen feitelijk bewijs dat het wel of niet kan. Dus alles is mogelijk. Je kunt nooit bewijzen dat je dit niet terug zal zien want die is er niet. We kunnen enkel hopen dat het gbeurd
Dit is toch compleet nutteloos? Bestaat er op dit moment een GTX780 waarmee ze deze scores kunnen halen? Ik dacht van niet, dus dat dat plaatje nu klopt kan niet. Het kan hoogstens kloppen als de 780 er uiteindelijk is.Verwijderd schreef op zaterdag 17 december 2011 @ 13:39:
Je kunt het zeker wel terug zien als nvidia een kaart maakt die zo snel is er is namelijk geen feitelijk bewijs dat het wel of niet kan. Dus alles is mogelijk. Je kunt nooit bewijzen dat je dit niet terug zal zien want die is er niet. We kunnen enkel hopen dat het gbeurd
En "je kan niet bewijzen dat het niet zo is, dus...", seriously? Ik zag een benchmark waarin de 580 100 punten scoorde en de 780 scoorde 3 punten...
Verwijderd
Het word dus wel weer een grote chip als ik het zo mag geloven? Laat ik maar zeggen schip.
Dat vind ik dan wel weer tegenvallen want ik wil wel een keertje wat minder zien van nvidia. En dan doel ik op het verbruik en kosten.
Dat vind ik dan wel weer tegenvallen want ik wil wel een keertje wat minder zien van nvidia. En dan doel ik op het verbruik en kosten.
Dit zijn echte slide's van de GTX580:
http://pic.bahamut.com.tw/M/2KU/46/0000439846.JPG
http://pic.bahamut.com.tw/M/2KU/48/0000439848.JPG
En vergelijk dat eens met:
http://cdn.overclock.net/...20sn1srmmmkln-635x491.png
Ik gok dat die gebruikt wordt voor een GTX660, GTX580 prestatie's met een prijs en verbruik van een GTX560
http://pic.bahamut.com.tw/M/2KU/46/0000439846.JPG
http://pic.bahamut.com.tw/M/2KU/48/0000439848.JPG
En vergelijk dat eens met:
http://cdn.overclock.net/...20sn1srmmmkln-635x491.png
Dan bent u opzoek naar een GK104Verwijderd schreef op zaterdag 17 december 2011 @ 13:54:
Het word dus wel weer een grote chip als ik het zo mag geloven? Laat ik maar zeggen schip.
Dat vind ik dan wel weer tegenvallen want ik wil wel een keertje wat minder zien van nvidia. En dan doel ik op het verbruik en kosten.
Ik gok dat die gebruikt wordt voor een GTX660, GTX580 prestatie's met een prijs en verbruik van een GTX560
[ Voor 3% gewijzigd door Toettoetdaan op 17-12-2011 14:03 ]
Verwijderd
Hierboven duidelijk. Maar eigenlijk hoopte ik op een high end kaart die een keer wat kleiner is. Zoals bvb AMD doet met zijn high end. Die zijn voor veel prestaties niet zo'n enorme chip nodig.
Nog niet langs geweest.
EVGA lanceert nog snellere GTX 580 Classified Ultra
http://www.techpowerup.co...Ultra-graphics-cards.html
Niet erg intressant voor die prijs.
Nog niet langs geweest.
EVGA lanceert nog snellere GTX 580 Classified Ultra
http://www.techpowerup.co...Ultra-graphics-cards.html
Niet erg intressant voor die prijs.
[ Voor 39% gewijzigd door Verwijderd op 17-12-2011 14:00 ]
Zou er nu nog iemand dat soort kaarten kopen? 3Gb + dualslot koeler is wel zeer mooi om te hebben voor SLI maar de 7970 is waarschijnlijk sneller (zelfs met die OC), heeft nog meer geheugen en is mogelijk zelfs goedkoper.
Verwijderd
Ja, al zal het niet veel zijn. Denk aan de overklockers en fans van evga. Ik denk dat de gewone gamer niet snel zo'n kaart zal kopen al zal daar ook wel enkele tussen zitten. Het zou anders ook geen nut hebben om zo'n kaart op de markt te brengen.Max Hunt schreef op zaterdag 17 december 2011 @ 14:04:
Zou er nu nog iemand dat soort kaarten kopen? 3Gb + dualslot koeler is wel zeer mooi om te hebben voor SLI maar de 7970 is waarschijnlijk sneller (zelfs met die OC), heeft nog meer geheugen en is mogelijk zelfs goedkoper.
[ Voor 10% gewijzigd door Verwijderd op 17-12-2011 14:18 ]


Zoek de verschillen
Eerste keer dat we 'm NVIDIA zelf zien presenteren.
Iets trager en iets later dan oorspronkelijk gepland. Nou ja, Maxwell wordt dan weer sneller.
Heeft geen speciale krachten en is daar erg boos over.
Neen, je wil zo hoog mogelijk, dus de gepresenteerde versie (die de meest recente versie is neem ik aan) geeft betere resultaten. Echter, de hele grafiek is een jaartje verlaatbwerg schreef op zaterdag 17 december 2011 @ 16:09:
Iets trager en iets later dan oorspronkelijk gepland. Nou ja, Maxwell wordt dan weer sneller.
'Mushrooming' is a marketing term that means feeding them sh*t and keeping them in the dark.
Fermi en Kepler zitten een heel klein beetje hoger, maar Maxwell is lager geschaald in de te verwachten prestatie. Maar goed, het zijn slechts globale verwachting op een roadmap over lange periode.
Maxwell zal er niet zijn in 2014... reken maar op 2015, altijd worden de videokaarten gemiddeld zo'n 3/4 jaar uitgesteld.
Verwijderd schreef op dinsdag 13 december 2011 @ 16:26:
Afwachten die ik sowiso al wel, dat doe ik met alle geruchten zowel van AMD als Nvidia. Ik neem alleen feiten 100% serieus aan als waar.
*woesh*
[ Voor 98% gewijzigd door Paprika op 18-12-2011 20:16 . Reden: fail ]
Verwijderd
@vipeax; over GK100; "still to uncertain for a forcast, but certainly about half the level of 590 GeForce GTX"
Uhh, ja, dat mag ik hopen, een GK100 die niet eens sneller is dan een halve GTX590 (= ~GTX570) kunnen ze beter gelijk annuleren...
Uhh, ja, dat mag ik hopen, een GK100 die niet eens sneller is dan een halve GTX590 (= ~GTX570) kunnen ze beter gelijk annuleren...
Verwijderd
Da's inmiddels al de derde keer deze week dat die voorbij komt. Dahakon zei er bij de tweede keer het volgende over:Paprika schreef op zondag 18 december 2011 @ 15:26:
Beetje voorbaarig nog, maar:
[afbeelding]
http://translate.google.n...%2F%2Fwww.3dcenter.org%2F
Sindsdien hebben we alleen nog maar meer aanwijzigen gehad dat dit niet klopt.dahakon schreef op donderdag 15 december 2011 @ 13:34:
Die link is al eerder voorbij gekomen op dinsdag, in combinatie met een link van vr-zone, die er op in ging. Al met al lijkt het vooral een pagehit artikel. Het staat ook haaks op het bericht van Fudo, waarin nVidia zekf lijkt tr claimen dat de eerste Kepler Q2 komt.
Wat nog wel tot de mogelijkheden kan horen is dat het om een 28nm Fermi shrink gaat, maar dan zijn de specs weer discutabel.
[ Voor 3% gewijzigd door Verwijderd op 18-12-2011 18:55 ]
Verwijderd
Wat nieuwe info
Kepler hot clocks
http://www.3dcenter.org/news/2011-12-16
http://translate.google.n...6bih%3D783%26prmd%3Dimvns
Kepler hot clocks
http://www.3dcenter.org/news/2011-12-16
http://translate.google.n...6bih%3D783%26prmd%3Dimvns
[ Voor 65% gewijzigd door Verwijderd op 19-12-2011 10:34 ]
Ik meen dit al eerder te hebben gezien. Geen hot clocks meer, als ik het zo lees zorgt dat voor een wat simpeler ontwerp met wat meer mogelijkheden. Wat de concrete resultaten zal zijn zullen we dus nog moeten afwachten.
Zou dit Nvidia kaarten geschikt maken voor BitCoin mining?
Zou dit Nvidia kaarten geschikt maken voor BitCoin mining?
Verwijderd
Het schijnt verkeerd vertaald te zijn uit het duits, het moet anderhalf x de gtx590 zijn.Verwijderd schreef op zondag 18 december 2011 @ 18:28:
@vipeax; over GK100; "still to uncertain for a forcast, but certainly about half the level of 590 GeForce GTX"
Uhh, ja, dat mag ik hopen, een GK100 die niet eens sneller is dan een halve GTX590 (= ~GTX570) kunnen ze beter gelijk annuleren...
Klinkt goed natuurlijk, zelfs als dit in werkelijkhied (zeer waarschijnlijk) iets lager uitvalt
je kunt eigenlijk het beste uitgaan van ongeveer 1.5 keer de performance van de snelse chip van de vorige generatie. Dus ongeveer 1.5 keer de snelheid van de gtx580.
Waarom?tomcatha schreef op maandag 19 december 2011 @ 14:36:
je kunt eigenlijk het beste uitgaan van ongeveer 1.5 keer de performance van de snelse chip van de vorige generatie. Dus ongeveer 1.5 keer de snelheid van de gtx580.
Core i5 4670k, 8gb, MSI GTX460 HAWK TA
Omdat het simpelweg zeer onwaarschijnlijk is. De GTX590 presteert ongeveer 40% beter dan de GTX580 op de relevante resolutie van 1920x1200. Als we uitgaan van 1.5 keer de prestaties van de GTX590, dan kom je op een niveau van 2.1 keer de prestaties van de GTX580, ofwel 110% beter. Als je beseft dat het 28nm process bij gelijkblijvend TDP maximaal 45% extra performance kan leveren, dan moet GK112 dus nog zo'n 65% vinden in optimalisaties van de architectuur. Nu zal er best wel het een en ander gevonden kunnen worden, maar 65% is gewoonweg te waanzinnig om geloofwaardig te zijn.
Maar goed, de tijd zal het ons moeten leren en zoals het er naar uit ziet, duurt het nog wel even voordat GK112 beschikbaar is voor de consument.
Verwijderd
Ben benieuwd of de komst van Ati's 7970 de prijzen van de GTX580 zal doen laten zakken.
De 7970 lijkt in ieder geval een stuk sneller te zijn, en als deze in dezelfde prijscategorie geplaatst gaat worden als de 580 dan kan Nvidia niets anders doen dan de prijs laten zakken.
De 7970 lijkt in ieder geval een stuk sneller te zijn, en als deze in dezelfde prijscategorie geplaatst gaat worden als de 580 dan kan Nvidia niets anders doen dan de prijs laten zakken.
Is al bekend hoe duur de 7970 gaat worden? Ik meen te lezen dat die een stukje duurder zou zijn als de 580.
Maar met een paar maand tussen Nvidia en AMD lijkt het me wel logisch dat er prijsdalingen zullen komen voor de Nvidia kaarten. Tenzij de echte tijd tussen het kunnen kopen van de nieuwe AMD en Nvidia kaarten niet zo groot is, bijv: eind januari zijn de AMD kaarten beschikbaar, eind februari zijn de low-mid Nvidia kaarten beschikbaar.
Maar de prijzen zullen wel enorm omlaag moeten gaan wil je kiezen voor een oud model ipv. of een nieuwe AMD of wachten en dan een nieuwe Nvidia.
Maar met een paar maand tussen Nvidia en AMD lijkt het me wel logisch dat er prijsdalingen zullen komen voor de Nvidia kaarten. Tenzij de echte tijd tussen het kunnen kopen van de nieuwe AMD en Nvidia kaarten niet zo groot is, bijv: eind januari zijn de AMD kaarten beschikbaar, eind februari zijn de low-mid Nvidia kaarten beschikbaar.
Maar de prijzen zullen wel enorm omlaag moeten gaan wil je kiezen voor een oud model ipv. of een nieuwe AMD of wachten en dan een nieuwe Nvidia.
Verwijderd
HD7970 zal onder de 500,- blijven. Ik gok rond de ~450,- (euro/dollar koers werkt laatste tijd natuurlijk niet mee...).
Als de kaart dan ~40% sneller is dan de GTX580 en minder stroom verbruikt, dan is het uiterst interessant!
Als de kaart dan ~40% sneller is dan de GTX580 en minder stroom verbruikt, dan is het uiterst interessant!
$549. Dat zou inmiddels toch wel duidelijk moeten zijn over de laatste pagina's.Max Hunt schreef op dinsdag 20 december 2011 @ 16:54:
Is al bekend hoe duur de 7970 gaat worden? Ik meen te lezen dat die een stukje duurder zou zijn als de 580.
WOOPS
[ Voor 99% gewijzigd door Paprika op 20-12-2011 18:45 ]
HD 7970 50 fps.............. GTX 580 1.5gb 40 fps .. battlefield 3
en de fan boys zeggen dat een beetje driver update meteen een drastisch verschil maakt, maar daar geloof ik niet echt in........... ze zullen sowieso al alles hebben getweaked voordat ze uberhaupt naar buiten komen met die tabellen..
. 40 vs 50 fps. Waardeloooos. Ik verwachte toch minimaal 80 fps met die 7900.. 28nm... beetje SLOW
we hoeven iig niet up te graden van 580 naar 7970.. ik verwacht geen wonderen van die kaart beetje jammer dat ... 40 vs 50 fps lol faal!! al was het 55 vs 40 dan nog zzz.. eerst de bulldozer nu dit
.. ik wacht lekker tot de zomer
laat AMD maar rommelen.... mijn Lightning is sowieso flink sneller
en de fan boys zeggen dat een beetje driver update meteen een drastisch verschil maakt, maar daar geloof ik niet echt in........... ze zullen sowieso al alles hebben getweaked voordat ze uberhaupt naar buiten komen met die tabellen..
. 40 vs 50 fps. Waardeloooos. Ik verwachte toch minimaal 80 fps met die 7900.. 28nm... beetje SLOW
we hoeven iig niet up te graden van 580 naar 7970.. ik verwacht geen wonderen van die kaart beetje jammer dat ... 40 vs 50 fps lol faal!! al was het 55 vs 40 dan nog zzz.. eerst de bulldozer nu dit
[ Voor 98% gewijzigd door A87 op 20-12-2011 20:16 ]
https://www.youtube.com/channel/UCl2XLRJ3VgCspwNG4_XCrkQ
Sorry, ik heb geen eten.
Wikipedia: Troll (Internet)
Wikipedia: Troll (Internet)
Nee.Lias schreef op dinsdag 20 december 2011 @ 20:02:
HD 7970 50 fps.............. GTX 580 1.5gb 40 fps .. battlefield 3
en de fan boys zeggen dat een beetje driver update meteen een drastisch verschil maakt, maar daar geloof ik niet echt in........... ze zullen sowieso al alles hebben getweaked voordat ze uberhaupt naar buiten komen met die tabellen..
. 40 vs 50 fps. Waardeloooos. Ik verwachte toch minimaal 80 fps met die 7900.. 28nm... beetje SLOW
we hoeven iig niet up te graden van 580 naar 7970.. ik verwacht geen wonderen van die kaart beetje jammer dat ... 40 vs 50 fps lol faal!! al was het 55 vs 40 dan nog zzz.. eerst de bulldozer nu dit.. ik wacht lekker tot de zomer
laat AMD maar rommelen.... mijn Lightning is sowieso flink sneller
Je postte ook al iets soortgelijks in het AMD discussie topic. GF110 tegenover Cypress is nog minder vooruitgang, was dat het wel waard dan? Je krijgt pak 'm beet 30% performance met wat geluk; in een shader-heavy game als Crysis op 1080p is het zelfs maar ergens tussen de 20% en 25% schat ik zo, ik ben te lui om er daadwerkelijk wat benches op na te slaan. In ruil daar voor krijg je ook een 55% grotere die en bijbehorend verbruik.Lias schreef op dinsdag 20 december 2011 @ 20:02:
HD 7970 50 fps.............. GTX 580 1.5gb 40 fps .. battlefield 3
en de fan boys zeggen dat een beetje driver update meteen een drastisch verschil maakt, maar daar geloof ik niet echt in........... ze zullen sowieso al alles hebben getweaked voordat ze uberhaupt naar buiten komen met die tabellen..
. 40 vs 50 fps. Waardeloooos. Ik verwachte toch minimaal 80 fps met die 7900.. 28nm... beetje SLOW
we hoeven iig niet up te graden van 580 naar 7970.. ik verwacht geen wonderen van die kaart beetje jammer dat ... 40 vs 50 fps lol faal!! al was het 55 vs 40 dan nog zzz.. eerst de bulldozer nu dit.. ik wacht lekker tot de zomer
laat AMD maar rommelen.... mijn Lightning is sowieso flink sneller
Wat je er overigens ook bij vergeet te vermelden is dat het bovenstaande op 2560x1600 is. En nee, die 3 GB waar je zo op hamerde is het zeker niet waard; dat voegt vrijwel niets toe aan de FPS. Als ik het me goed herinner levert dat in een game als Metro (op dezelfde resolutie als hierboven, en Metro is ook een erg zwaar spel) een waanzinnige 2 FPS op. Gezien de 580 bij launch $500 kostte en de 7970 naar alle waarschijnlijkheid $549 zie ik niet waarom het volgens jou zo'n "faal" is. De 7970 is (volgens de cijfers waarop jij je hele conclusie baseert) sneller tegenover de 580 dan de 580 zelfs tegenover Cypress is, laat staan GF100 of Cayman.
Ik had dit vanmiddag al in het AMD topic willen posten (en toen kwam werk er tussen
10FPS extra boven 40FPS is een 25% performance verschil. In gedachte nemende dat ~5% extra nog wel gevonden kan worden met betere drivers (de architectuur is vernieuwd, geeft altijd wat ruimte om aan de softwarekant wat te winnen) en je zit 30% boven de GTX580. Dat is geen kattepis, als we uitgaan van hoe goed men de GTX580 wel niet vond.
In gedachte nemende dat GK104 volgens de geruchten een heel klein beetje sneller zou moeten zijn dan GTX580 en dat de snellere chip van nVidia nog ver weg is, lijkt het duidelijk wat de te kloppen snelheid is en of je al dan niet voor multi-GPU moet gaan om op 60+ FPS te komen.
In gedachte nemende dat GK104 volgens de geruchten een heel klein beetje sneller zou moeten zijn dan GTX580 en dat de snellere chip van nVidia nog ver weg is, lijkt het duidelijk wat de te kloppen snelheid is en of je al dan niet voor multi-GPU moet gaan om op 60+ FPS te komen.