Wat wil je doen met je nieuwe systeem?
Dit systeem wordt gebouwd voor machine learning (ML) en deep learning. We willen cuda-ondersteuning, dus het moet NVIDIA zijn. De keuze is gevallen op 4x RTX 4060 Ti 16GB, omdat Vram de belangrijkste factor is. De GPU’s werken onafhankelijk van elkaar, dus geen NVLink of SLI. Het systeem draait op Ubuntu Linux.
Wat mag het systeem gaan kosten?
Er is niet echt een harde limiet, maar..... als iets goedkoper kan zonder al te veel in te leveren, dan graag.
Zijn er componenten of randapparatuur die je al hebt en mee wil nemen naar je nieuwe systeem?
GPU’s: 4x RTX 4060 Ti 16GB (deze staan vast in de build)
Behuizing: Niet nodig,/ het systeem komt in een testopstelling (airco is aanwezig in het rack).
OS: Ubuntu Linux
Specifieke wensen en vragen:
CPU: Een snelle CPU, maar geen Intel 14e/15e generatie of AMD 9000-serie.
RAM: 32GB of 64GB DDR4/DDR5, afhankelijk van de prijs/prestatie.
Moederbord: Minimaal 4x PCIe-slots (x8/x8/x8/x8 of beter*denk ik ///). Ik heb hier weinig ervaring mee, dus als er goedkopere opties zijn zonder grote nadelen dan graag.
Koeling: Luchtkoeling, geen waterkoeling.
Voeding: Genoeg vermogen en stabiel voor 4 GPU’s.
Vragen:
PCIe Gen 4 vs. Gen 5: Heeft dit echt veel invloed op ML-workloads in deze setup? Aangezien de GPU’s los van elkaar draaien, vraag ik me af of dit het geld waard is.
Zijn er goedkopere moederbord-opties zonder grote prestatieverliezen?
Is er een betere CPU-keuze dan hieronder, zonder richting de allernieuwste generaties te gaan?
Als er in de toekomst meer rekenkracht nodig is, dan wordt er gekeken naar RTX 4080/3090, maar op dit moment is VRAM de bottleneck. Zijn er dingen waar ik rekening mee moet houden als ik later zou upgraden?
Twee mogelijke builds:
Optie 1: AMD (PCIe Gen 4)
CPU: AMD Ryzen 9 5950X (16 cores, 32 threads)
Moederbord: ASUS Pro WS X570-ACE (4x PCIe 4.0 x8 slots, geschikt voor meerdere GPU’s) zag ik
RAM: 64GB DDR4-3600 CL16 (G.Skill Trident Z Neo of Corsair Vengeance)
Koeling: Noctua NH-D15
Voeding: Corsair HX1200 (1200W, 80+ Platinum)
Opslag: 2TB NVMe SSD (Samsung 970 EVO Plus)
Optie 2: Intel (PCIe Gen 5)
CPU: Intel Core i9-13900KF (24 cores, 32 threads) overkill denk ik?
Moederbord: ASUS Pro WS W680-ACE (4x PCIe 5.0 slots, meer toekomstbestendig) overkill denk ik ....
RAM: 64GB DDR5-5200 CL40 (Kingston Fury Beast of Corsair Vengeance)
Koeling: Noctua NH-D15
Voeding: Corsair HX1200 (1200W, 80+ Platinum)
Opslag: 2TB NVMe SSD (Samsung 980 Pro)
Wat voor software gaan we draaien? * Helaas is dat op het moment niet eens duidelijk. Het systeem moet toekomstbestendig zijn, vandaar de DDR5 maar DDR4 kan ook denk ik... Wat ik test is TensorFlow, OpenCV en YOLO, maar we moeten het ook trainen. Omdat ik zelf geen softwareontwikkelaar ben, heb ik hier zeker mijn issues mee, vooral omdat er nu ook een tijdslimiet op zit. Verder heb ik zelf wel naar ROCm gekeken, omdat ik het zelf gebruik op mijn 7900 XTX, maar eh...
Dit systeem wordt gebouwd voor machine learning (ML) en deep learning. We willen cuda-ondersteuning, dus het moet NVIDIA zijn. De keuze is gevallen op 4x RTX 4060 Ti 16GB, omdat Vram de belangrijkste factor is. De GPU’s werken onafhankelijk van elkaar, dus geen NVLink of SLI. Het systeem draait op Ubuntu Linux.
Wat mag het systeem gaan kosten?
Er is niet echt een harde limiet, maar..... als iets goedkoper kan zonder al te veel in te leveren, dan graag.
Zijn er componenten of randapparatuur die je al hebt en mee wil nemen naar je nieuwe systeem?
GPU’s: 4x RTX 4060 Ti 16GB (deze staan vast in de build)
Behuizing: Niet nodig,/ het systeem komt in een testopstelling (airco is aanwezig in het rack).
OS: Ubuntu Linux
Specifieke wensen en vragen:
CPU: Een snelle CPU, maar geen Intel 14e/15e generatie of AMD 9000-serie.
RAM: 32GB of 64GB DDR4/DDR5, afhankelijk van de prijs/prestatie.
Moederbord: Minimaal 4x PCIe-slots (x8/x8/x8/x8 of beter*denk ik ///). Ik heb hier weinig ervaring mee, dus als er goedkopere opties zijn zonder grote nadelen dan graag.
Koeling: Luchtkoeling, geen waterkoeling.
Voeding: Genoeg vermogen en stabiel voor 4 GPU’s.
Vragen:
PCIe Gen 4 vs. Gen 5: Heeft dit echt veel invloed op ML-workloads in deze setup? Aangezien de GPU’s los van elkaar draaien, vraag ik me af of dit het geld waard is.
Zijn er goedkopere moederbord-opties zonder grote prestatieverliezen?
Is er een betere CPU-keuze dan hieronder, zonder richting de allernieuwste generaties te gaan?
Als er in de toekomst meer rekenkracht nodig is, dan wordt er gekeken naar RTX 4080/3090, maar op dit moment is VRAM de bottleneck. Zijn er dingen waar ik rekening mee moet houden als ik later zou upgraden?
Twee mogelijke builds:
Optie 1: AMD (PCIe Gen 4)
CPU: AMD Ryzen 9 5950X (16 cores, 32 threads)
Moederbord: ASUS Pro WS X570-ACE (4x PCIe 4.0 x8 slots, geschikt voor meerdere GPU’s) zag ik
RAM: 64GB DDR4-3600 CL16 (G.Skill Trident Z Neo of Corsair Vengeance)
Koeling: Noctua NH-D15
Voeding: Corsair HX1200 (1200W, 80+ Platinum)
Opslag: 2TB NVMe SSD (Samsung 970 EVO Plus)
Optie 2: Intel (PCIe Gen 5)
CPU: Intel Core i9-13900KF (24 cores, 32 threads) overkill denk ik?
Moederbord: ASUS Pro WS W680-ACE (4x PCIe 5.0 slots, meer toekomstbestendig) overkill denk ik ....
RAM: 64GB DDR5-5200 CL40 (Kingston Fury Beast of Corsair Vengeance)
Koeling: Noctua NH-D15
Voeding: Corsair HX1200 (1200W, 80+ Platinum)
Opslag: 2TB NVMe SSD (Samsung 980 Pro)
Wat voor software gaan we draaien? * Helaas is dat op het moment niet eens duidelijk. Het systeem moet toekomstbestendig zijn, vandaar de DDR5 maar DDR4 kan ook denk ik... Wat ik test is TensorFlow, OpenCV en YOLO, maar we moeten het ook trainen. Omdat ik zelf geen softwareontwikkelaar ben, heb ik hier zeker mijn issues mee, vooral omdat er nu ook een tijdslimiet op zit. Verder heb ik zelf wel naar ROCm gekeken, omdat ik het zelf gebruik op mijn 7900 XTX, maar eh...
Groet Tota-FOX