Toch wel, Corsair en be quiet! hebben wel eigen engineers, maar ze zijn bij lange na niet zover dat ze zelf de voeding ontwerpen. Het is vooralsnog een samenwerking met de ODM bij beide. Rest van de fabrikanten zeggen hooguit wat ze willen of zelfs dat niet eens, daar komt alleen een sticker op en voor de rest is het design (zo goed als) identiek als het platform waar die op gebaseerd is.
Eén zonder LCD? Wordt het toch enkele euro's goedkoper door verwacht ik. Ook doordat je de interface met de PC weg kunt laten en de benodigde IC's.
OCP's voor de 12V welke ook in te stellen is via de software? Of is dat meer voor de toekomst en nog te duur voor deze versie.
Voor de rest qua geluidsniveau zou zo stil als Corsair RMx wel heel erg goed zijn.
En zorg voor de juiste kabels en connectors. Houdt ook rekening met het HEDT platform, weinig fabrikanten doen dat nog in hun kwaliteitsvoedingen. Hierdoor is het nogal eens lastig de juiste voeding hierbij te zoeken.
Graag ook geen condensators in de kabels, dat maakt de kabels zo dik, terwijl het vaak ook nog eens niks toevoegt in de praktijk.
Geen wire grill voor minder geluid? Hadden we het vorig jaar nog over.
Maar wat opvalt is dat er geen enkele elco zichtbaar is alleen vier solid caps voor de 12V en ik heb ook niet het idee dat ze op het modulaire PCB te vinden zijn. Gaat dat niet zorgen voor serieuze problemen met transient loads van high-end videokaarten?
GreNade schreef op maandag 11 juni 2018 @ 08:43:
[...]
Wat is voor een bedrijf als Cooler Master het voordeel eigenlijk om een eigen ontwerp te maken? Lijkt me dat je (helemaal met de huidige voedingenmarkt) het wiel niet compleet opnieuw hoeft uit te vinden.
Of is er iets heel innovatiefs aan dit specifieke ontwerp? Ik ben wel benieuwd wat de reden erachter is.
Het is marketingtechnisch natuurlijk ook heel interessant om te doen, niemand anders kan het zeggen. Behalve dan fabrikanten die OEM en ODM zijn natuurlijk.
Niet helemaal, ze raden het ten zeerste af om videokaarten van meer dan 225W te gebruiken i.s.m. een enkele modulaire kabel met twee connectors.
Een normale GTX1080Ti pakt ~220W, wat dus al zou lukken op 1 kabel met 2 stekkers.
Dat is dan een flink ondergeklokte want een reference zit rond de 270W.
Alleen overclock varianten van die kaart trekken iets meer, en zelfs dan heb je prima de ruimte om je 2e kabel erbij te pakken als je je er zorgen over maakt dat je tegen problemen aan gaat lopen. En dan nog, het is een 550w voeding, als je (voor wat het nog waard is) SLI/CF gaat gebruiken met allerlei zware kaarten dan pak je toch sws een maatje meer?
Het gaat niet over overklokken of SLI of CrossFire. Het gaat erom dat een fabrikant afraad om een videokaart te gebruiken met hun 550W voeding welke bij andere fabrikanten perfect geschikt is voor het 550W model, of zelfs het 450W model. In geval van de normale Seasonic Focus dan.
Je hebt nu gewoon alle opties:
<225w en 2x PEG: 1 kabel met 2 PEG
>225w en 2x PEG: 2 kabels waarvan je 1 PEG gebruikt
2x <225w en 2x PEG: 2 kabels met 2 PEG.
En hoeveel procent van de mensen weet dit? 1% of zelfs nog minder?
Voorheen was er inderdaad de "issue" dat je met een 550w power-supply, als je echt heel erg zwaar trekt aan het advies van Seasonic, niet 300w maar 225w aan GPU's zou kunnen gebruiken omdat er maar 1 kabel met 2 stekkers bij zit/zat. Die kritiek hebben ze gehoord en aangepast in bijv. deze PCGH variant waar je nu 2 kabels krijgt; problem solved. En ja, je kan dan klagen dat je nu wanneer je 2 kabels gebruikt je 2 losse PEG-stekkers weg moet werken. Maar andersom geldt dat hetzelfde als er 2 kabels bij zitten met 1 stekker wanneer je een kaart met 2 PEG-stekkers hebt die minder dan 225w gebruikt; "k*t seasonic, nu moet ik helemaal een tweede kabel aanleggen terwijl het gewoon met 1 kabel zou moeten kunnen".
Maar was dat nu maar het enige probleem. Wat dacht je van het probleem dat de Seasonic Focus lijkt te hebben met sommige videokaarten zoals Vega64 en de Asus GTX 970 Strix? De serie lijkt echt geoptimaliseerd te zijn om goed uit de reviews te komen, maar in de praktijk lijkt die nogal wat problemen te hebben.
Als allerlaatste geeft NVIDIA dit zelf aan over de 1080ti: "Minimum 600 W or greater system power supply with one 6-pin and one 8-pin PCI Express supplementary power connectors.", en AMD over de RX Vega 64: "PSU Recommendation 1000W(liquid) / 750W". Als we het "225w-advies" van Seasonic dan zo serieus nemen, laten we dat dan ook doen met de adviezen van NVIDIA en AMD, dan is de cirkel weer helemaal rond en zit je zelf selectief te lezen als je een 550w voeding wilt gebruiken met een van deze kaarten en dan valt over het feit dat je maar 225w per stekker mag gebruiken.
Dat is natuurlijk totale onzin. AMD en nVidia kunnen onmogelijk advies geven over welke voeding je moet nemen omdat ze helemaal niks over je systeem weten. Ze weten niks over de componenten, niks over welke voeding je hebt, zelfs niks over welke versie je van de videokaart hebt. Zelfs dat zorgt soms voor een flink verschil in verbruik en aansluitingen.
Dat staat totaal tegenover wat Seasonic weet van hun voeding en dat is in principe alles. Die kunnen alles van voor tot achter testen en daaruit is dus gebleken dat het onverstandig is om videokaarten met een verbruik van meer dan 225W te gebruiken op één van hun modulaire PEG kabels met twee connectors. En daarom raden ze dat dan ook af.