Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)

Pagina: 1
Acties:

Vraag


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Hey Tweakers! vandaag weer een leuke voor jullie. Op mijn werk zetten we hoge resolutie fotografie verzameld vanuit drones om in hoge kwaliteit 3D modellen. Dan moet je denken aan 1000-2000 foto's op 40MP of meer afhankelijk van welke camera we gebruiken. Op het moment gebruiken we voor dat proces Agisoft Metashape, maar er zijn ook andere software pakketten die we overwegen.

Komt het probleem: we doen die renders nu in de cloud, Google instance met 96 CPU's, 350GB ram en 4 Nvidia T4 GPU's staat ongeveer 2 dagen te brommen over een setje. Dat is cool, maar twee dingen: we denken dat nakend metaal dat sneller kan, en het is fakking duur. We zitten nog in de startup fase en we zijn veel aan het experimenteren. Foutje in de configuratie? 500e renderfactuur, andere instelling proberen? 500e renderfactuur, etc. Dat inspireert niet echt om nieuwe dingen te proberen, en als we in de toekomst die google instance 24/7 gaan draaien dan is ie uiteindelijk ook echt een stuk duurder dan zelf vergelijkbare hardware aanschaffen.

Dus overwegen we zelf zo'n systeem te kopen. Off-the-shelf systemen zijn mega duur en ik vermoed dat als we hem zelf samenstellen we een boel besparen, maar ik heb geen ervaring met een machine van deze specs en wil niet straks met 10.000e aan componenten liggen die exploderen als je ze inelkaar prikt. Hier onder wat meer details:

Wat wil je doen met je nieuwe systeem?
Voornamelijk Agisoft Metashape, mogelijk wat andere 3D processing software en misschien zelfs een neuraal netwerkje.

Wat mag het systeem gaan kosten?
Richtprijs is onder de 10.000, maar als dat niet mogelijk is, of er een serieuze upgrade mogelijk is met een hoger budget dan kunnen we dat intern gaan overleggen.

Zijn er componenten of randapparatuur die je al hebt en mee wil nemen naar je nieuwe systeem?
Nee

Wat denk je allemaal nodig te hebben?
Tot nu toe hebben we in de sets een maximum geheugengebruik van 150GB waargenomen, we weten nog niet zeker of dat kwam door een software/configuratie fout of indicatief is voor de toekomst.
De software voert een proces uit met verschillende stappen, sommige stappen zijn GPU intensief, daar is ie dan een dagje op aan het blazen met zoveel GPU's als kan, (bijv. 2x een RTX2080 zou niet misstaan, meer CUDA cores meer beter). Andere stappen doet ie vrolijk 100% op 96CPU cores, en andere stappen kan ie er maar 1tje gebruiken. Vooral die laatste is lastig, het liefst kijk ik naar de hoogst mogelijke single core performance, want dat is wel een bottleneck, dus liever een 5ghz i9 dan een 2ghz Xeon zeg maar, als dat mogelijk is.

Heb je nog bepaalde (merk)voorkeuren?
Nee

Heb je nog bepaalde eisen/wensen?
Nee

Ga je overklokken?
Ik denk niet dat we daar veel tijd aan gaan besteden helaas.

Wat verwacht je van ons?
Een reactie in de trant van 'Tinco we gaan je werk niet voor je doen, ontnoob en check deze guide' zou al behulpzaam zijn. Maar jullie kennende staan jullie al te trappelen met behulpzaam advies over wat er allemaal mogelijk is, wat de energie en warmte beperkingen zijn, welke leveranciers en merken goed in de smaak vallen, misschien is de nieuwe lijn van AMD een must buy, etc.

Hopelijk kunnen jullie hier wat mee!

Alle reacties


  • .Maarten
  • Registratie: Januari 2011
  • Laatst online: 18:11
Dooddoener maar wat heb je zelf al gevonden?
Ik zou zelf aanraden om contact op te nemen met Agisoft en vragen wat zij aanraden. Als ik de site zo lees raden ze voor dit soort zaken een multi cpu omgeving aan met veel cuda cores. Zoals dus die T4 kaarten. Die verbruiken weinig en bieden veel cuda cores. Al heeft een RTX2080 meer cuda cores maar wordt die weer niet goed ondersteund in de meeste servers.

Let ook op met consumenten hardware dat je ook consumenten garantie hebt. Geen next business day ed.
Meeste consumenten hardware heeft geen ondersteuning voor meerdere CPU's of veel geheugensloten. Je zegt wel dat je een hoge single core clocksnelheid wilt maar ik verwacht dat je daar weinig winst mee haalt en dat de kans groot is dat het zelfs trager is doordat de andere stappen veel langer duren.

Als ik zo zie wat voor machine je afneemt bij Google dan denk ik dat die 10k krap wordt.

[ Voor 3% gewijzigd door .Maarten op 03-07-2019 11:26 ]


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Thanks! Heb al met Agisoft overlegd wat zij aanraden, voornamelijk consumenten apparatuur. Hun advies is de dikste i9 die je je kan veroorloven, met zoveel ram als je nodig hebt, en een 1080 of sneller. Dat is natuurlijk gebaseerd op een soort standaard klant, wij vallen daar een beetje buiten. Ik denk dat de Google machine die we nu gebruiken bij Google overpriced is en underperformed.

Als we bijvoorbeeld voor een enkele threadripper of 9920X gaan, dan hebben we maar een kwart van de cores, maar als die cores 2x zo snel zijn dan is het hele proces misschien al vergelijkbaar in snelheid met de 96CPU Google unit (op Google is een 96CPU machine slechts 48 echte CPU's) doordat een significant deel van het proces niet parallel gedaan wordt.

  • cpt0bvi0us1
  • Registratie: Mei 2019
  • Laatst online: 14-12-2022
Ik heb eens zitten zoeken & gaat best een duur systeem worden.Zoals Maarten al zegt als je een systeem zelf samen stelt, stel er valt een GPU uit, ga je dit niet opsturen & de volgende dag een nieuwe hebben. Je zal dit opsturen, wachten tot fabrikant alles getest heeft & als je geluk hebt heb je binnen 3 weken een nieuwe.
Tenzij je zegt van we kopen van alles dubbel maar dan zak de prijs hoog oplopen.

Als je een mobo neemt waar 2 CPU sockets in zitten kost dit al gouw €700. Neemt dan een xeon met 22CPU cores kost dit €4000. Als je Dan 4 GTX2080 neemt kosten die samen ook nog eens rond de €3200. Zit je al bijna aan je budget & heb je nog geen RAM geheugen.

Voor de AMD oplossing kan je de duurste threadripper nemen ==> 32cores 64 threards (rond de €1800). Ik denk dat de mobos max 128GB geheugen ondersteunen. Voor een mobo kost dit dan neemt gemiddeld €400 à €450. Maar dit is 1 socket.
Dit kost al snel een stuk minder dan de intel oplossing & denk dat deze binnen je budget zal vallen.
Als je 4 GPU's neemt zorg dan ook dat het toestel voldoende gekoeld is.

Ik denk dat je eens moet overwegen. Stellen we dit zelf samen & je kan op de site van DELL of HP eens kijken wat je daar betaald voor zware workstations.

  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Thanks @cpt0bvi0us1! dat is nice, ik zat ook al een beetje te kijken naar het verschil tussen 1 CPU en 2 CPU. Met een dual CPU systeem kunnen we echt het equivalent van die Google systemen bouwen, maar de CPU's zijn enorm duur. AMD heeft ook de EPYC lijn, en binnenkort de 7nm versies daarvan (https://imgur.com/FeoLBnP), die misschien wat goedkoper is dan Xeon.

Qua CPU performance is een 1 CPU oplossing misschien wel genoeg, maar 128GB ram max zou wel echt een belemmering zijn.

  • Tuxie
  • Registratie: Augustus 2003
  • Laatst online: 13:28

Tuxie

En WeL nU!

Ik heb zelf meerdere deep-learning systemen samengesteld (die zijn redelijk intensief qua GPU) en ben meerdere keren door het zelfbouw-->laten bouwen-->Cloud processing verhaal gegaan (disclaimer: CTO van een deep-learning startup)

Ik hoor vaak 'het is duur' maar waarom? Het bedrag (500 euro per run) zegt an-sich niet zo veel als ik kijk naar hoeveel verwerking je doet. Misschien ligt er een goede business case (of toch niet)? Dat het altijd beter en efficienter kan is natuurlijk evident, maar als je full blown 3D gaat doen met grote video/image bestanden dan hoort daar ook een prijs voor verwerking bij. Paar uitgangspunten:

1. Monitor je processing en kijk naar CPU/geheugengebruik/CUDA Core gebruik. Wordt alles 100% van de tijd gebruikt? Is de verwerking CPU bound/GPU bound of IO bound? Paralleliseer je per bestand / per set van bestanden (batch size) en welke rekenkracht heb je op welk moment nodig? Max. je je CUDA cores? Ben je gelimiteerd aan je CUDA geheugen (waarschijnlijk wel met 40MP). Het render proces is volledig op de GPU? Waarom heb je ook nog een sloot aan vCPUs nodig (die 96 zijn hyperthreads neem ik aan en geen dedicated hw cores...)

2. Is het handiger om meerdere kleinere instanties te gebruiken i.p.v. de dikste bak die je op GCP kan alloceren? Staat de software architectuur dit toe?

3. Waarom de T4 GPUs? Heb je ook NVENC (hw enc / dec) nodig of niet? Heb je meer behoefte aan FP32/FP16 of zelfs IN8/INT4? Heb je ook Tensor cores nodig naast CUDA cores? Is geheugenbandbreedte van de GPU zelf een bottleneck?

4. Voor ongeveer 10K heb ik in het verleden een watergekoelde I9 besteld met 4 Titan XP videokaarten en 64GB of 128GB Ram geloof ik. Wij hadden meer rekenkracht op de GPU nodig i.p.v. dedicated RAM. Was een bedrijf die Nvidia DGX systemen nabouwde maar dan goedkoper.

5. Houdt er rekening mee dat professionele serversystemen zaken hebben zoals redundante voedingen, ECC geheugen en de professionele videokaarten zijn low-profile en minder wattage zodat je er ook max. 4 in een rack kan bouwen. Denk eraan dat de totale power behoefte voor deze systemen fors zijn en niet zomaar in een kantoor te installeren zijn (heb meerdere keren zelf de groepen eruit geklapt). De cloud heeft ook zaken zoals graceful shutdown en andere zaken die je in productie absoluut wil. Verkijk je ook niet op koeling als je deze systemen zelf gaat bouwen.

Voor niet kritische workloads kun je prima naar bare-metal kijken om kosten te besparen, voor productiesystemen zou ik absoluut niet die kant op gaan. Maar het begint met een wat betere analyse van je workloads en wat je nu precies nodig hebt. Dat gaat iets verder dan 'ik heb een dikke bak en het is traag en duur'.....

[ Voor 3% gewijzigd door Tuxie op 03-07-2019 12:23 ]


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Tuxie schreef op woensdag 3 juli 2019 @ 12:16:
Ik heb zelf meerdere deep-learning systemen samengesteld (die zijn redelijk intensief qua GPU) en ben meerdere keren door het zelfbouw-->laten bouwen-->Cloud processing verhaal gegaan (disclaimer: CTO van een deep-learning startup)
Awesome, thanks Tuxie!
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"

Ik hoor vaak 'het is duur' maar waarom? Het bedrag (500 euro per run) zegt an-sich niet zo veel als ik kijk naar hoeveel verwerking je doet. Misschien ligt er een goede business case (of toch niet)? Dat het altijd beter en efficienter kan is natuurlijk evident, maar als je full blown 3D gaat doen met grote video/image bestanden dan hoort daar ook een prijs voor verwerking bij.
Het is nu vooral experimenten en one-offs, als we uiteindelijk in productie zouden gaan dan zou een cloud partij zeker wel interessant zijn als we genoeg marge maken, maar we hebben nu regelmatig jobs die geen harde cash in het laatje brengen. Bijvoorbeeld ik doe nu 3 experimenten op 1 dataset om uit te vinden welke configuratie het beste resultaat oplevert, maar liever had ik 10 experimenten gedaan. De klant betaald misschien niets want het is slechts een demo.
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"

Paar uitgangspunten:

1. Monitor je processing en kijk naar CPU/geheugengebruik/CUDA Core gebruik. Wordt alles 100% van de tijd gebruikt? Is de verwerking CPU bound/GPU bound of IO bound? Paralleliseer je per bestand / per set van bestanden (batch size) en welke rekenkracht heb je op welk moment nodig? Max. je je CUDA cores? Ben je gelimiteerd aan je CUDA geheugen (waarschijnlijk wel met 40MP). Het render proces is volledig op de GPU? Waarom heb je ook nog een sloot aan vCPUs nodig (die 96 zijn hyperthreads neem ik aan en geen dedicated hw cores...)
Wanneer hij GPU's gebruikt zijn alle GPU's op 100% utilization, dus ik denk niet dat hij daar bottlenecked op geheugen of I/O. Wanneer hij de CPU's parallel gebruikt zijn alle CPU's op 100% CPU. Als hij single core doet is de single core 100%, dus ik denk niet dat hij I/O bound is.
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"

2. Is het handiger om meerdere kleinere instanties te gebruiken i.p.v. de dikste bak die je op GCP kan alloceren? Staat de software architectuur dit toe?
Helaas kan Metashape dit niet.
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"
3. Waarom de T4 GPUs? Heb je ook NVENC (hw enc / dec) nodig of niet? Heb je meer behoefte aan FP32/FP16 of zelfs IN8/INT4? Heb je ook Tensor cores nodig naast CUDA cores? Is geheugenbandbreedte van de GPU zelf een bottleneck?
Heb ook V100's geprobeerd, maar die waren 2x zo duur en niet significant sneller. Tensor cores worden niet gebruikt.
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"

4. Voor ongeveer 10K heb ik in het verleden een watergekoelde I9 besteld met 4 Titan XP videokaarten en 64GB of 128GB Ram geloof ik. Wij hadden meer rekenkracht op de GPU nodig i.p.v. dedicated RAM. Was een bedrijf die Nvidia DGX systemen nabouwde maar dan goedkoper.
Dat is interessant, weet je nog welk bedrijf dat was?
[b]Tuxie in "Dikke CPU/GPU compute machine (vnl. voor Agisoft Metashape)"

5. Houdt er rekening mee dat professionele serversystemen zaken hebben zoals redundante voedingen, ECC geheugen en de professionele videokaarten zijn low-profile en minder wattage zodat je er ook max. 4 in een rack kan bouwen. Denk eraan dat de totale power behoefte voor deze systemen fors zijn en niet zomaar in een kantoor te installeren zijn (heb meerdere keren zelf de groepen eruit geklapt). De cloud heeft ook zaken zoals graceful shutdown en andere zaken die je in productie absoluut wil. Verkijk je ook niet op koeling als je deze systemen zelf gaat bouwen.
Ja zeker. Dit systeem zou meer voor het verkennen zijn van wat nodig is in een productiesysteem. De productiesystemen heb ik veel liever gemanaged in een data center ergens, waarbij iemand anders verantwoordelijk is voor het onderhoud van de hardware.

Als we moeten kiezen tussen 10k uitgeven aan Google de komende 4 maanden, of 10k uitgeven aan een bak die na die 4 maanden nog steeds nuttig kan zijn, waar we ons niet in beperkt voelen, vergelijkbaar presteert en misschien zelfs restwaarde heeft dan is dat wel interessant.

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@d-snp ken je de puget benchmarks;
https://www.pugetsystems....hp?filter%5B%5D=Metashape

Als ik die mag geloven; 9700k en enkele 2080 ti oid

let wel op dat ook al loopt alles op full load (die 96 cores ofzo), de daadwerkelijke winst kan klein zijn ( zoals blijkt met multithreading )

[ Voor 3% gewijzigd door maratropa op 03-07-2019 12:59 ]

specs


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Oh awesome! ik wilde net gaan reageren dat hun laatste benchmark helaas was van Photoscan en niet van Metashape, maar het lijkt er op dat ze afgelopen maand nieuwe benchmarks van Metashape hebben gepost, ik ga ze nu lezen :)

  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Ja, dus de nieuwe CPU benchmarks bevestigen mijn gevoelens. Single core performance is nog steeds dominant in de benchmarks, het helpt wel om meer CPU's te hebben maar de snelheid is belangrijker.

De GPU benchmarks zijn wel verassend. In hun benchmarks doet de 2e GPU alleen maar iets voor het bouwen van de depth maps. Dat is interessant want die stap duurt maar een uurtje voor een grote dataset op 4 GPU's, het bouwen van de meshes op basis van die depth maps is de stap die voor ons in de dagen loopt, en is dus veel afhankelijker van de CPU. Het zou dus voor ons uit kunnen om de build depth maps stap op een tijdelijke machine met 4 GPU's te doen, en die daarna te decommissionen en de rest van het proces op de veel goedkopere CPU only instances uit te voeren. Ook goed om te zien dat de 24gb Titan videokaarten niet echt beter zijn dan de 11gb of zelfs 8gb modellen.

Helaas moeten we de benchmarks wel met een flinke korrel zout nemen. Hun maximale foto resolutie is 20MP, terwijl onze *minimale* resolutie 40MP is, en we nu experimenten draaien met nog veel hogere resolutie beelden. Hun maximale hoeveelheid foto's is 800, terwijl onze kleinste sets ~1000 foto's zijn.

  • gekkie
  • Registratie: April 2000
  • Laatst online: 19:03
Heb je al verzonnen wie je op de blaren gaat laten zitten (van de warmte die je setup gaat ontwikkelen, kortom de "randzaken", zoals plaatsing, stroomvoorziening, koeling, verzekering, etc.) ?

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@d-snp ze hebben de benchmark openbaar gemaakt:

https://www.pugetsystems....Metashape-Benchmark-1457/

scoor een 9700k met 2080ti en ga eens testen met jullie files? :p

specs


  • MadMarky
  • Registratie: Augustus 2001
  • Niet online

MadMarky

Begint eer ge bezint

gekkie schreef op woensdag 3 juli 2019 @ 13:22:
Heb je al verzonnen wie je op de blaren gaat laten zitten (van de warmte die je setup gaat ontwikkelen, kortom de "randzaken", zoals plaatsing, stroomvoorziening, koeling, verzekering, etc.) ?
Allemaal dingen om rekening mee te houden als je een renderfarm gaat beginnen, maar een setup met een enkele CPU en GPU zal een keer 500W verstoken als maximum. Dat is ook nog alleen als de CPU en GPU samen worden gebruikt, terwijl ik juist het idee krijg dat het steeds maar 1 v/d 2 componenten is afhankelijk van welke taak op dat moment draait.

Het stroomverbruik en warmteproductie gaat meer in de orde grootte van 3 workstations zijn ipv een compleet serverrack. Lijkt me sterk dat normale kantoorkoeling dat er niet bij kan hebben.

🖥️ | 🚗


  • gekkie
  • Registratie: April 2000
  • Laatst online: 19:03
MadMarky schreef op woensdag 3 juli 2019 @ 13:32:
[...]

Allemaal dingen om rekening mee te houden als je een renderfarm gaat beginnen, maar een setup met een enkele CPU en GPU zal een keer 500W verstoken als maximum. Dat is ook nog alleen als de CPU en GPU samen worden gebruikt, terwijl ik juist het idee krijg dat het steeds maar 1 v/d 2 componenten is afhankelijk van welke taak op dat moment draait.

Het stroomverbruik en warmteproductie gaat meer in de orde grootte van 3 workstations zijn ipv een compleet serverrack. Lijkt me sterk dat normale kantoorkoeling dat er niet bij kan hebben.
Oh dat zou prima kunnen, maar kan ook maar zo dat ze geen airco hebben, etc. Vandaar denk er over na.
Op zich heb ik namelijk niks tegen gewoon je eigen spullen hebben en is de cloud leuk en aardig maar kan het inderdaad best prijzig zijn, ook qua tijdelijk storage en netwerkverkeer om je data er te krijgen. Aan de andere kant moet je je met je eigen spullen dus ook weer niet al te rijk rekenen door randzaken te vergeten in de vergelijking.

  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Ok, omdat de ram vereiste zo belachelijk is ben ik denk ik beperkt tot Xeon en EPYC, lijstje Intel:

  - Xeon Gold 6244,                          € 3.335,97
  - Supermicro X11SPi-TF,                    € 422,46 
  - 4x Crucial CT64G4LFQ4266, € 335,50 * 4   € 1342,-
  - MSI GeForce RTX 2080 Ti                  € 1.252,-
  - Samsung 970 Evo Plus 1TB                 € 216,07   +
                                            -------------
                                             € 6.568,50


De andere reutemeteut is nog een paar honderd e en niet echt relevant voor nu dus die heb ik er niet bij gezet.

Dat valt binnen het budget, en heeft geheugen ruimte mochten de datasets nog groter worden. En ruimte voor een extra GPU mocht dat nodig zijn. Ik ben niet heel zeker over de CPU, kan niet echt benchmarks van die Xeons vinden, dit was de enige 8 core Xeon van de laatste generatie met een hoge clockspeed die betaalbaar is. Wel zuur dat een CPU met vergelijkbare of zelfs hogere performance 5x goedkoper is, maar alleen met het nadeel dat ie minder werkgeheugen aankan.

Het is waarschijnlijk wel waard om even op de AMD EPYC Rome release te wachten, misschien halveert dat de kosten van die CPU, en verhoogt het de single core clock speed met nog een beetje.

  • Wintervacht
  • Registratie: December 2016
  • Laatst online: 07-08 10:04

Wintervacht

☉ ‿ ⚆

d-snp schreef op woensdag 3 juli 2019 @ 14:23:
Ok, omdat de ram vereiste zo belachelijk is ben ik denk ik beperkt tot Xeon en EPYC, lijstje Intel:

  - Xeon Gold 6244,                          € 3.335,97
  - Supermicro X11SPi-TF,                    € 422,46 
  - 4x Crucial CT64G4LFQ4266, € 335,50 * 4   € 1342,-
  - MSI GeForce RTX 2080 Ti                  € 1.252,-
  - Samsung 970 Evo Plus 1TB                 € 216,07   +
                                            -------------
                                             € 6.568,50


De andere reutemeteut is nog een paar honderd e en niet echt relevant voor nu dus die heb ik er niet bij gezet.

Dat valt binnen het budget, en heeft geheugen ruimte mochten de datasets nog groter worden. En ruimte voor een extra GPU mocht dat nodig zijn. Ik ben niet heel zeker over de CPU, kan niet echt benchmarks van die Xeons vinden, dit was de enige 8 core Xeon van de laatste generatie met een hoge clockspeed die betaalbaar is. Wel zuur dat een CPU met vergelijkbare of zelfs hogere performance 5x goedkoper is, maar alleen met het nadeel dat ie minder werkgeheugen aankan.

Het is waarschijnlijk wel waard om even op de AMD EPYC Rome release te wachten, misschien halveert dat de kosten van die CPU, en verhoogt het de single core clock speed met nog een beetje.
En een systeem met een Threadripper 2990WX?
Die heeft een wat lagere base clock maar 4x zo veel cores & threads voor de helft van het geld van die Xeon..
Enige waar je misschien wel mee zit is dat de TR 'maar' 4 memory channels heeft en de Xeon 6.

Weet een beetje van veel dingen en veel van een paar dingen.


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
TR4 ondersteunt max 128GB lijkt het :) En de hoeveelheid cores is minder belangrijk dan de clockspeed. Als geheugen niet een issue was dan was ik voor een i9 9900k gegaan, die is nog goedkoper.

[ Voor 67% gewijzigd door d-snp op 03-07-2019 15:54 ]


  • Wintervacht
  • Registratie: December 2016
  • Laatst online: 07-08 10:04

Wintervacht

☉ ‿ ⚆

d-snp schreef op woensdag 3 juli 2019 @ 15:53:
TR4 ondersteunt max 128GB lijkt het :) En de hoeveelheid cores is minder belangrijk dan de clockspeed. Als geheugen niet een issue was dan was ik voor een i9 9900k gegaan, die is nog goedkoper.
TR4 CPU's ondersteunen tot 1TB, de moederborden zijn rated tot 128GB omdat fabrikanten ze niet met meer testen, maar bij moederborden met 8 slots zou je er in principe prima 256GB op kunnen ddraaien.
Deze bijvoorbeeld.
Omdat de memory controller in de cpu en niet op het mobo zit zou dat niet uit moeten maken.

Dat gezegd; het blijft een klein beetje gokken en met Epyc zit je hoedanook goed, alleen wel tegen fikse meerprijzen.

Weet een beetje van veel dingen en veel van een paar dingen.


  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Wintervacht uit de benchmarks lijkt het dat zo veel cores helemaal niet nuttig ingezet kunen worden..

@d-snp het zat er idd in dat je met die datasets met veel ram te maken zou krijgen..

Xeon W-3225 misschien nog een optie? Ongeveer dezelfde clocks lijkt het, wel iets minder cache, maar stuk cheaper. Veel beter dan allcore 4.3ghz op die Gold 6244 lijkt het niet te worden..

Wil je het ECHT goed doen;

Xeon W-3175x is overclockbaar, als je daar een dot cores en HT van uitzet (kun je dan ook wat mee expirimenteren) moet je met goeie koeling wel een eind komen.. Ondersteund 512GB ecc ram.

Als ze met 28 cores en LN koeling op 5.7ghz kunnen komen dan lijkt me dat je met 8 of 10 cores wel op 5ghz moet kunnen komen.. Die 3175x is een unieke optie voor clockspeed én veel ram.. (Dank zij AMD eigenlijk)

[ Voor 17% gewijzigd door maratropa op 03-07-2019 16:10 ]

specs


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Zijn er bedrijven die dat soort machines met waterkoeling geinstalleerd kunnen leveren? Misschien een zelfstandig ondernemende tweaker met een goede reputatie ofzo? Een 30% hogere clockrate zou het misschien wel waard kunnen zijn als het de betrouwbaarheid niet in gedrang brengt.

  • .Maarten
  • Registratie: Januari 2011
  • Laatst online: 18:11
Je wilt geen overgeklokte cpus in productie draaien. Veel te grote risico’s.

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@.Maarten wrom niet? Ik denk dat je moeilijk kunt bewijzen dat een goed doordacht en met beleid overclocked systeem een problematisch risico vormt.. Ik deed het jaren iig, nooit problemen, mits je nadenkt. Risico is niet zwart wit. En al die hardware is er speciaal voor gemaakt. Boxx verkoopt al weer jaren overclocked workstations, Supermicro doet al weer tijden aan baseclock overclocking in z'n servers etc.. Als het tijdswinst oplevert en geld scheelt is het te overwegen imho.

@d-snp Boxx heeft een W3175x overclock workstation, de W4x maar die begint bij 15K.... Met 48Gb.. :p

Maar ik denk dat het hem niet gaat worden, als ik die moederborden check (van asus en gigabyte) , er zijn er maar 2 dacht ik, dan gaan ze maar tot max 192GB volgens de specs...stom..die cpu kan meer aan..

[ Voor 5% gewijzigd door maratropa op 04-07-2019 14:40 ]

specs


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Na wat intern overleg hebben besloten om te kijken of we onze sets kunnen beperken tot max 128GB ram. Het is waarschijnlijk mogelijk om onze datasets op te splitsen in 'tiles'. Andere software dan Metashape doet dit volautomatisch dus daar is het RAM probleem veel minder sterk aanwezig.

Dus.. 128gb en dus 'prosumer' platformen worden ineens toch beschikbaar. Nu de 3900X uit is is dat natuurlijk super interessant. Op single core (gaming benchmarks) presteert ie gelijk aan de 9900K, en hij heeft een zootje meer threads dus op multicore doet ie het een stuk beter.

Nou ben ik niet zo heel up to date met hoe de moderne AMD CPU's omgaan met geheugensnelheid, ik heb me laten vertellen dat hoe sneller het geheugen is, hoe sneller je CPU, en dat je dus bij die 3900X eigenlijk 3600mhz geheugen wil hebben. De snelste 32GB geheugen module is echter 'slechts' 3200mhz:

categorie: Geheugen intern

Betekent dit dat de S3900X dan trager loopt met deze modules dan met kleinere 3600mhz modules? Loopt hij dan ook trager dan de I9 9900K? Gaan er X570 moederborden komen met 8 dimm slots of is dat unlikely?

  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Alright, heb even de andere topics doorgelezen en ik geloof dat ik het wel snap. Als ik 4 dimms in gebruik neem gaan die moederborden sowieso niet meer dan 3000mhz draaien. Of dat invloed heeft op de performance hangt af van de software. Als de software niets beters te doen heeft kost dat dus wat performance, maar als ik het goed snap zou diezelfde software op een Intel toch niet beter varen in dat geval.

Dit is dan een 128GB systeem gebaseerd op de AMD Ryzen 9 3900X

#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 9 3900X Boxed€ 528,50€ 528,50
1MoederbordenMSI Prestige X570 Creation€ 482,50€ 482,50
1VideokaartenMSI GeForce RTX 2080 Ti Gaming X Trio€ 1.245,-€ 1.245,-
1BehuizingenInter-Tech IPC 4U-4129-N€ 108,-€ 108,-
2Geheugen internG.Skill Trident Z RGB DC F4-3000C14D-64GTZDC€ 789,73€ 1.579,46
1VoedingenCorsair RM1000x Zwart€ 144,40€ 144,40
1Solid state drivesCorsair Force MP510 960GB€ 135,52€ 135,52
Bekijk collectie
Importeer producten
Totaal€ 4.223,38

[ Voor 67% gewijzigd door d-snp op 19-07-2019 21:58 ]


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Super huile, maar dit is een beetje een fiasco geworden. Die 32GB dimm's passen alleen in 1 type x370 moederbord van Asus, het is blijkbaar gewoon niet mogelijk op het moment om een consumer grade systeem te maken met 128gb ram. Verwachtingen bijstellen dus, hopelijk krijgen we het toch performant voor de grotere datasets, en als niet dan moeten we toch een schaaltje omhoog in de hardware kosten en voor de professionele CPU's gaan.

  • Soepergrover
  • Registratie: September 2009
  • Laatst online: 20-10 13:37

Soepergrover

Je staat op m'n cape

Jammer.
Ik hoop dat je het geheugen hebt kunnen terugsturen.

Maar is er echt niets te verkrijgen? Als ik snel even in de pricewatch kijk, zie ik wel e.e.a. staan.
categorie: Geheugen intern

Je hebt vast al meer gedaan dan bovenstaande simpele query; was zelf eigenlijk wel wat benieuwd. Vind dit eigenlijk wel een mooie use case.

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 20:17
Edit; nvm

[ Voor 98% gewijzigd door NitroX infinity op 09-09-2019 22:04 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


  • d-snp
  • Registratie: Januari 2005
  • Laatst online: 21-11 21:48
Hey @Soepergrover , misschien dat deze geschikt zou zijn: pricewatch: Corsair Vengeance LPX CMK128GX4M4A2666C16 maar ik weet niet hoeveel trager het systeem ervan wordt, scheelt toch wel wat megahertzjes, en ze zijn ook slecht leverbaar lijkt het.
Pagina: 1