Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

Budget NAS met veel storage

Pagina: 1
Acties:

Vraag


  • GreatMagicalHat
  • Registratie: Januari 2012
  • Laatst online: 08-08 12:26
Ik heb al vrij lang het idee om een NAS in elkaar te zetten. Ik weet nog niet zeker of ik er dan nu ook daadwerkelijk het geld in ga stoppen, maar in ieder geval heb ik een systeem samengesteld en ik wil graag weten of jullie hier problemen mee zien of andere suggesties hebben.

Ik wil mijn NAS gaan uitrusten met de volgende schijven:

- 4x 8TB in RAID5

Dit is voor niet-originele content zoals bijvoorbeeld films. Hier zal ik geen backups van maken, en het is jammer als ik het kwijtraak, maar niet meer dan dat. Dat is waarom ik RAID5 wil gaan draaien - het zou mooi zijn als ik bij een falende schijf de boel kan herstellen, maar als het niet lukt is er ook geen man overboord.

- 2x 1TB in RAID1

Dit is voor documenten en ander origineel werk. Hier wil ik automatisch off-site backups van maken.

Omdat deze schijven niet goedkoop zijn, heb ik geprobeerd om de rest van het systeem goedkoop doch functioneel te houden. Ik heb hier geen harde limiet voor, maar ik heb het tot nu toe op ongeveer 200 euro kunnen houden.

Dit is wat ik nu heb:

#ProductPrijsSubtotaal
1Intel Celeron G3930 Boxed€ 39,05€ 39,05
1MSI B250M PRO-VD€ 54,99€ 54,99
2WD Red WD10EFRX, 1TB€ 58,90€ 117,80
4WD Red WD80EFAX, 8TB (256MB cache)€ 239,99€ 959,96
1Aerocool SI 5101€ 27,-€ 27,-
1Delock Installation frame 3,5" > 5,25"€ 2,64€ 2,64
1G.Skill Aegis F4-2400C15S-4GIS€ 27,49€ 27,49
1be quiet! System Power B9 300W€ 33,50€ 33,50
1WD Green SSD M.2 V2 120GB€ 23,99€ 23,99
Bekijk collectie
Importeer producten
Totaal€ 1.286,42


WD Green SSD M.2 V2 120GB: Dit is waar ik op uit kwam toen ik zocht naar een goedkope M.2 SSD (van een betrouwbaar merk). De reden om voor een M.2 SSD als main storage te gaan voor dit systeem is dat moederborden met 7 SATA aansluitingen een stuk duurder zijn dan moederborden met 6 SATA aansluitingen en een M.2 aansluiting. Het is dus niet erg dat deze SSD slechts SATA snelheden haalt over de M.2 poort.

Intel Celeron G3930 Boxed: Ik hoef niet te transcoden op de NAS, dus dan lijkt deze processor me voldoende.

MSI B250M PRO-VD: Dit moederbord heb ik gekozen vanwege de mogelijkheid om er zes HDD's (over SATA) en een SSD (over M.2) aan te kunnen hangen en de prijs. Verder zit ik niet bepaald vast aan deze keuze.

Aerocool SI 5101: Met plek voor 5 schijven van 3.5 inch en een 5.25 bay was dit de goedkoopste case die ik zag die (zonder moeite) ruimte kan bieden aan alle 6 HDD's. De kast is wat groter dan waar met meestal voor kiest bij een NAS, maar grootte maakt me niet zo veel uit.

G.Skill Aegis F4-2400C15S-4GIS: Als ik ZFS wil draaien dan heb ik meer nodig, maar dan ben ik zo honderd euro duurder uit. Ik denk dat ik ook wel zonder ZFS kan, en dan zou dit voldoende moeten zijn. FreeNAS valt daarmee dus wel af.

be quiet! System Power B9 300W: Aangezien het systeem in idle maar weinig stroom verbruikt (de CPU zou in idle maar rond de 20 Watt moeten zitten en ik wil er naar kijken om de schijven down te spinnen onder bepaalde time-outs). Ik weet niet precies hoeveel ik nodig heb voor het opspinnen van alle hdds, maar ik denk dat dit genoeg zou moeten zijn. (Ik kan altijd nog naar een staggered spin-up kijken, maar dat is vast meer moeite dan je van te voren ziet aankomen.) Verder lijken de merken die ik als betrouwbaar ken ook niet echt lager dan dit te gaan.

Zien jullie problemen met deze build? Zijn er dingen die beter kunnen? Hebben jullie nog andere opmerkingen?

Alle reacties


  • MAX3400
  • Registratie: Mei 2003
  • Laatst online: 19-11 19:30

MAX3400

XBL: OctagonQontrol

The SATA2 port will be unavailable when an M.2 SATA SSD module has been installed in the M.2 slot.
Probleem 1? ;)

Verder snap ik je RAID-opstelling niet? Effectief wil je 120 Euro besteden aan een RAID1-setje terwijl je geen ECC-geheugen hebt. Het enige wat je dan realiseert is, heeeel kort door de bocht: alles wordt mirrored weggeschreven zelfs als er bitjes omvallen en dus is je data op de mirror per definitie niet goed.

Die ene TB kan je toch wel kwijt op de RAID5?

Mijn advertenties!!! | Mijn antwoorden zijn vaak niet snowflake-proof


  • Uszka
  • Registratie: Maart 2018
  • Laatst online: 23:08
Sowieso een andere voeding. System Power 9 <400w zijn onstabiele dingen. Voor €7,- meer dan de B9 300w heb je een pricewatch: be quiet! System Power 9 400W met gescheiden DC-DC echter is deze nogal inefficient bij lage loads zoals heel veel budget voedingen, zelfs Gold gecertificeerde als pricewatch: be quiet! Pure Power 11 400W. Wil je een heel efficiente voeding bij lage loads, 7 - 13% efficienter bij een belasting van 20 - 50w, dan kan ik je van harte pricewatch: Cooler Master V Series V550 aanbevelen.

Als er een ssd in het M2 slot zit wordt sata2 uitgeschakeld. Je komt dus alsnog een sata connector tekort.

  • GreatMagicalHat
  • Registratie: Januari 2012
  • Laatst online: 08-08 12:26
Uszka schreef op woensdag 9 januari 2019 @ 21:41:
Als er een ssd in het M2 slot zit wordt sata2 uitgeschakeld. Je komt dus alsnog een sata connector tekort.
Good catch. Ik zal eens kijken of andere moederborden dit wel tegelijk kunnen. En anders moet ik kijken naar een PCIE M.2 ssd (of gaat het dan nog steeds niet? Ook iets om uit te zoeken).
MAX3400 schreef op woensdag 9 januari 2019 @ 21:40:
Verder snap ik je RAID-opstelling niet? Effectief wil je 120 Euro besteden aan een RAID1-setje terwijl je geen ECC-geheugen hebt. Het enige wat je dan realiseert is, heeeel kort door de bocht: alles wordt mirrored weggeschreven zelfs als er bitjes omvallen en dus is je data op de mirror per definitie niet goed.

Die ene TB kan je toch wel kwijt op de RAID5?
Mijn idee was vooral om de belangrijke data van de minder belangrijke data te scheiden een de twee ook verschillend te behandelen. Ik zal eens wat gaan lezen over RAID1 en ECC.
Uszka schreef op woensdag 9 januari 2019 @ 21:41:
Sowieso een andere voeding. System Power 9 <400w zijn onstabiele dingen. Voor €7,- meer dan de B9 300w heb je een pricewatch: be quiet! System Power 9 400W met gescheiden DC-DC echter is deze nogal inefficient bij lage loads zoals heel veel budget voedingen, zelfs Gold gecertificeerde als pricewatch: be quiet! Pure Power 11 400W. Wil je een heel efficiente voeding bij lage loads, 7 - 13% efficienter bij een belasting van 20 - 50w, dan kan ik je van harte pricewatch: Cooler Master V Series V550 aanbevelen.
Bedankt voor de suggesties. Ik zal nog eens goed naar de keuze van de voeding gaan kijken.

Bedankt voor jullie hulp!

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

@GreatMagicalHat bij mijn zelfbouw (jaren geleden) was het wel handig om te weten hoe de sata connectors hun data versturen .. toen liepen de sata (of was het ide?) ach goed het ik had een hindernis waardoor ik niet veel data uit de netwerkkaart kreeg.
Dan heb je het nog niet over de software/configuratie en diskcaching die je wel/niet aan elkaar krijgt.

Voor het testen/proberen /proeven zeker doen doorgaan, maar voor langere termijn zou ik toch eerder een commercieel ding kopen. zeker omdat ze nu ook SSD caching doen (beetje zoeken)

Heb je al nagedacht over het OS ?
overgens doe jezelf een lol lees je is in op ZFS(topic) en software raid

dedicated raid vs software raid (bios raid = niet linux mdamraid) en bitrot zijn ook dingen die je wilt afwegen.

8TB is wel bijzonder veel, ik krijg 4x4tb nauwelijks vol .. maar deel het op in meerde delen, bv 1 voor je unieke data (cv foto's enzv) die je via een backup online kan opslaan per dag ofzo. de rest kan je dan voor je vergankelijke data zoals movie/muziek of andere data vretende ongein. doe je het niet online is een externe disk makkelijker .. copy inhoud van partitie x naar Y ..


suc6 met je quest

Tja vanalles


  • Tortelli
  • Registratie: Juli 2004
  • Laatst online: 24-11 12:16

Tortelli

mixing gas and haulin ass

@vso Vroegah in het Pentium 4 tijdperk liep je netwerkkaart (en eventuele) raid controller over het PCI slot (dus geen PCI-e), die PCI snelheid werd verdeeld over verschillende devices, volgens mij had je o.a. PCI 133 met een theoretische bandbreedte van 133MB/s, echter met 2 devices splitste je deze snelheid en hield je maar een ~60MB/s over voor je raidcontroller of netwerkaart. Kortom die snelheden stortte flink in.

Gelukkig is dit probleem er al jaren niet meer ;)
MAX3400 schreef op woensdag 9 januari 2019 @ 21:40:
[...]

Probleem 1? ;)

Verder snap ik je RAID-opstelling niet? Effectief wil je 120 Euro besteden aan een RAID1-setje terwijl je geen ECC-geheugen hebt. Het enige wat je dan realiseert is, heeeel kort door de bocht: alles wordt mirrored weggeschreven zelfs als er bitjes omvallen en dus is je data op de mirror per definitie niet goed.

Die ene TB kan je toch wel kwijt op de RAID5?
Precies dat, zorg voor een (externe/niet aan de NAS gekoppelde) backup van je belangrijke data. 1TB is prima in een Cloud dienst te plaatsen b.v.
GreatMagicalHat schreef op woensdag 9 januari 2019 @ 22:22:
[...]


[...]


Good catch. Ik zal eens kijken of andere moederborden dit wel tegelijk kunnen. En anders moet ik kijken naar een PCIE M.2 ssd (of gaat het dan nog steeds niet? Ook iets om uit te zoeken).


[...]


Mijn idee was vooral om de belangrijke data van de minder belangrijke data te scheiden een de twee ook verschillend te behandelen. Ik zal eens wat gaan lezen over RAID1 en ECC.


[...]


Bedankt voor de suggesties. Ik zal nog eens goed naar de keuze van de voeding gaan kijken.

Bedankt voor jullie hulp!
Heb je een echte gekochte NAS ook overwogen?; pricewatch: Synology DiskStation DS918+ b.v.?. Met een dergelijke setup vraag ik me af of zelfbouw de slimste optie is, zeker als je kennis over bepaalde zaken relatief beperkt is.

[ Voor 70% gewijzigd door Tortelli op 10-01-2019 09:15 ]


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Tortelli schreef op donderdag 10 januari 2019 @ 09:08:
@vso Vroegah in het Pentium 4 tijdperk liep je netwerkkaart (en eventuele) raid controller over het PCI slot (dus geen PCI-e), die PCI snelheid werd verdeeld over verschillende devices, volgens mij had je o.a. PCI 133 met een theoretische bandbreedte van 133MB/s, echter met 2 devices splitste je deze snelheid en hield je maar een ~60MB/s over voor je raidcontroller of netwerkaart. Kortom die snelheden stortte flink in.
Toen der tijd schopte je een persoon die meer dan 100mb aan data over de lijn trapte en was een gigabit verbinding al "wauw" en 10mbit (bnc)HUBS |:( waren de norm

SCSI had wel wat meer bandbreedte en minder last van het PCI probleem


maar goed ik heb ook nog litttekens uit die tijd .. overgens jij bent al geboren toen de floppy/zip drive al de norm was ik kom uit de tijd dat 1 MB per vliegtuig vervoerd werd en groter was dan een zee container .. :+

Tja vanalles


  • GreatMagicalHat
  • Registratie: Januari 2012
  • Laatst online: 08-08 12:26
Ik heb naar moederborden die de SATA poort niet aangeven uit te zetten. Interessant genoeg is de pricewatch: MSI B250M PRO-VDH hier een van. Daarnaast heeft Gigabyte bij geen van de budget moederborden zo'n melding staan. In beide gevallen is het natuurlijk nog maar net de vraag of het daadwerkelijk mogelijk is om de M.2 als SATA poort tegelijk te gebruiken met de 6 SATA poorten of dat er wat ontbreekt in de specificaties.

Het alternatief is om voor een tientje meer voor de PCIE SSD te gaan, zoals bijvoorbeeld deze: pricewatch: Gigabyte M.2 PCIe SSD 128GB (tientje is als je amazon.de niet meerekent). Het zou volgens mij geen probleem moeten zijn om tegelijk een PCIE M.2 SSD en 6 SATA HDD's te gebruiken. Dit lijkt me dan de betere oplossing.

Wat betreft ECC & RAID1 heb ik nog meer te lezen, maar ik heb nu het volgende beeld. Eigenlijk hebben de twee niet zo veel met elkaar te maken. ECC beschermt tegen bit flips en RAID1 heeft te maken met wat er gebeurt wanneer er een schijf stuk gaat.

Als ik het goed begrijp, kwam de opmerking er vooral vandaan dat ECC niet beschermt tegen bit flips (bij write operaties), dus als je tegen bit flips wilt beschermen, dan heb je niks aan RAID1. Waarom het gebruik van RAID1 impliceert dat ik me tegen bit flips wil/moet beschermen snap ik nog niet heel erg goed. Volgens mij zouden bit flips vrij zeldzaam moeten zijn. Bij gebruik van ZFS zullen ze natuurlijk meer voorkomen omdat er meer RAM is dat intensiever wordt gebruikt, want meer operaties betekent natuurlijk meer kans op een bit flip. Echter, ook op ZFS zie ik vooral mensen die roepen dat je ECC nodig hebt, soms omdat hun systeem niet stabiel is/was zonder, maar weinig mensen die dan ook echt aangeven wat het ECC daadwerkelijk hieraan verbetert. Ik ga hier nog verder naar kijken, dus misschien vind ik dit nog wel.

Als ik er voor kies om niet de RAID 1 array in te richten voor de belangrijke data, dan vind ik het eigenlijk logischer om deze data op een niet-RAID schijf dan om het er op de RAID 5 array bij te zetten. Dit vermindert de kans dat ik niet bij deze gegevens kan vanwege disk failure (1 HDD die kan falen in plaats van 4 HDD's). Dat het op RAID 5 staat voegt naar mijn mening niet zo veel toe. Als er een HDD uit de RAID 5 array faalt, verwacht ik dat ik eerst de array offline zal zetten voor toch zo een week voordat ik aan herstel toekom en de hardware er voor heb en dat het daarna nog behoorlijk lang duurt om de data daadwerkelijk te herstellen. Dit is voor de data die ik op de RAID 5 array wil zetten helemaal geen probleem. Voor de data die ik belangrijker vind (en op de RAID 1 wilde zetten) is dat wel een probleem, dus dan zal ik in de tussentijd sowieso vanaf de backup moeten gaan werken. Wat dit betreft zijn non-RAID en RAID 5 dus voor mij gelijk.

Naar de voeding heb ik nog niet gekeken, dus daar kom ik later op terug.
vso schreef op woensdag 9 januari 2019 @ 23:46:
Heb je al nagedacht over het OS ?
Ik heb er een beetje over nagedacht, maar ben er nog niet bepaald uit. Op zich klinkt een gewone server linux distro runnen me als een best goede oplossing. Het is wat meer werk, maar geeft ook de meeste flexibiliteit. Dat zou dan waarschijnlijk Debian of een derivative worden, want daar ben ik het best in thuis.
vso schreef op woensdag 9 januari 2019 @ 23:46:
overgens doe jezelf een lol lees je is in op ZFS(topic) en software raid

dedicated raid vs software raid (bios raid = niet linux mdamraid) en bitrot zijn ook dingen die je wilt afwegen.
Ik zal eens kijken wat ik over die onderwerpen kan vinden.
vso schreef op woensdag 9 januari 2019 @ 23:46:
8TB is wel bijzonder veel, ik krijg 4x4tb nauwelijks vol ..
Ik heb op het moment 2x 3TB in mijn desktop zitten, welke op het moment vrijwel 24/7 aan staat en via file shares een beetje doet alsof hij een NAS is. Deze beginnen redelijk vol te zitten, waarvan schat ik zo'n 80% naar de NAS over zou gaan. Het idee is dus dat ik met 24TB voorlopig vooruit kan.

(Het probleem is waarschijnlijk dat ik dingen die ik gezien heb niet weggooi.)
Tortelli schreef op donderdag 10 januari 2019 @ 09:08:
Precies dat, zorg voor een (externe/niet aan de NAS gekoppelde) backup van je belangrijke data. 1TB is prima in een Cloud dienst te plaatsen b.v.
Dit is sowieso het plan (zie de originele post).
Tortelli schreef op donderdag 10 januari 2019 @ 09:08:
Heb je een echte gekochte NAS ook overwogen?; pricewatch: Synology DiskStation DS918+ b.v.?. Met een dergelijke setup vraag ik me af of zelfbouw de slimste optie is, zeker als je kennis over bepaalde zaken relatief beperkt is.
Ik heb dit overwogen, maar ik heb het idee dat je veel minder krijgt voor veel meer geld. Het voorbeeld dat jij geeft is al 2,5 keer zo duur en heeft maar ruimte voor 4 hdds (als ik voor 4 hdds zou gaan in een zelfbouw, zou de prijs waarschijnlijk nog omlaag kunnen).

Zelfbouw is meer werk (zeker op software gebied) maar dat vind ik juist wel leuk. In de NAS wereld ben ik nieuw maar van systeembeheer (en computers in het algemeen) snap ik wel het een en ander.

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

GreatMagicalHat schreef op donderdag 10 januari 2019 @ 11:55:
Ik heb dit overwogen, maar ik heb het idee dat je veel minder krijgt voor veel meer geld. Het voorbeeld dat jij geeft is al 2,5 keer zo duur en heeft maar ruimte voor 4 hdds (als ik voor 4 hdds zou gaan in een zelfbouw, zou de prijs waarschijnlijk nog omlaag kunnen).

Zelfbouw is meer werk (zeker op software gebied) maar dat vind ik juist wel leuk. In de NAS wereld ben ik nieuw maar van systeembeheer (en computers in het algemeen) snap ik wel het een en ander.
Voordat je reageert lees aub even de hele post ;)

Hier sla je de plank met 90% kans mis, de kans dat jij dezelfde functionaliteit + kwaliteit krijgt is kleiner dan van de plank in doos .En o.a synology heeft ook uitbreidings unit's die je kan koppelen (1 a 2) waarbij je minimaal 4 erbij kan steken. en dus sommige units een m2 slot ofzo waar je een aparte caching disk.
Alleen ZFS zover ik weet kent een optie (die werkt na x tijd) waarbij je uberhaupt iets kan met ssd (disk)caching functionaliteiten.

De capaciteit is natuurlijk in je eigen handen, ik kan niet bepalen of 2,3,4,5 of 8 TB voldoende is per disk.
maar als je het kwijt kan bij een kapotte disk oid .. waarom nu al niet wat selectiever zijn :?

De kans dat je goedkoper / beter af bent is eigenlijk erg klein (ervaring deskundige)
Ik heb er een beetje over nagedacht, maar ben er nog niet bepaald uit. Op zich klinkt een gewone server linux distro runnen me als een best goede oplossing. Het is wat meer werk, maar geeft ook de meeste flexibiliteit. Dat zou dan waarschijnlijk Debian of een derivative worden, want daar ben ik het best in thuis.
Oke nu alle Pro's van een gekochte unit genoemd te hebben

je leert enorm veel en je bent ook enorm flexibel bij een zelfbouw omdat je linux,windows,bsd kan kiezen . en alle andere dingen erbij (krijgt) ..

Ik ga er vanuit dat je volhard in de "DIY" tegen alle adviezen in ... wat natuurlijk echt wel kan.

Begin met de basis zorg dat je hardware zo breed mogelijk compatable is ..
- kan je bv een vmware host met local storage als alternatief
- is de HW geschikt onder BSD/Linux (ja grote kans maar dan toch)
Wat ook de nek om kan doen zijn juist de north/south bridge of andere chips die net ff niet lekker presteren .. (kwam ik achter ..de harde manier)

Je kan van alles met linux/bsd zowel de goeie als de foute kant .. het helpt echt om eerst een paar plannen, en backup plan (vandaar o.a de hint naar vmware) te hebben.
- stel een 4 x 8 = 16 TB partitie layout op die "movie" storage kan je toch wel resizen .. en dat is toch "troep"
- waar sla je de data op /etc of /etc/home/backup

En er is geen beste OS in deze dus doe lekker waar je vertrouwd in voelt


Maak zoveel & snel mogelijk backup van elke wijzing in config files op usb sticks en maak daarvan backup op andere locatie .. (life savers)




als laatste ... om wat na over te denken ..

Je hebt je opslag (nas/diy maakt niet uit in deze) je hebt 6TB aan films waarbij een een kapotte raid Failure tja "jammer" is ..

nu wil je deze 12 TB niet kwijt of deleten .. MAAR je wil toch afstappen van een ISCSI lun naar SMB share ..omdat :? = redenen ..

Wat doe je dan ???? ga je dan gezien je nu al niet weg kan gooien .. dan maar in die "situatie' blijven zitten ?

Tja vanalles


  • GreatMagicalHat
  • Registratie: Januari 2012
  • Laatst online: 08-08 12:26
vso schreef op donderdag 10 januari 2019 @ 13:02:
Voordat je reageert lees aub even de hele post ;)
Eh... ja, natuurlijk. Dat is toch ook gewoon logish?
vso schreef op donderdag 10 januari 2019 @ 13:02:
de kans dat jij dezelfde functionaliteit + kwaliteit krijgt is kleiner dan van de plank in doos
Ik hoef ook niet "de zelfde" functionaliteit. Ik wil bepaalde functionaliteit en daar bouw ik mijn systeem omheen. Als ik deze functionaliteit met een kant-en-klare oplossing wil krijgen, dan kost mij dat een stuk meer geld. Dat de kant-en-klare dan nog een hoop functionaliteit heeft waar ik niet specifiek naar op zoek was is dan niet heel relevant natuurlijk.

En kwaliteit? Ja, die zal vast wat minder zijn. Al moet ik eerlijk zeggen dat ik nog niet helemaal weet wat ik me bij een lagere kwaliteit moet voorstellen. Zal het minder robuust zijn? Allicht. Zal de hardware minder goed zijn? Misschien. Volgens mij is de hardware in de meeste systemen die je kunt kopen ook niet heel bijzonder. Zal de combinatie van de hardware minder getest zijn? Zeker. Zal ik support kunnen krijgen als ik problemen heb met het systeem? Zeker niet. Zal ik een net zo flashy interface hebben als de gekochte unit heeft? Nee, vast niet.
vso schreef op donderdag 10 januari 2019 @ 13:02:
En o.a synology heeft ook uitbreidings unit's die je kan koppelen (1 a 2) waarbij je minimaal 4 erbij kan steken
De uitbreindingsunits klinken interessant, maar de prijskaartjes die ik zie in de pricewatch zijn toch behoorlijk.
vso schreef op donderdag 10 januari 2019 @ 13:02:
- kan je bv een vmware host met local storage als alternatief
Ik geloof dat het gebrek aan SCSI er voor zorgt dat ik niet zomaar ESXi kan draaien. Verder doet het systeem zoals samengesteld volgens mij net aan de eisen daarvoor. Ik zie alleen niet zo goed waarom ik daar mijn hardware op zou moeten aanpassen.
vso schreef op donderdag 10 januari 2019 @ 13:02:
Wat ook de nek om kan doen zijn juist de north/south bridge of andere chips die net ff niet lekker presteren .. (kwam ik achter ..de harde manier)
En hoe kom ik hier achter?
vso schreef op donderdag 10 januari 2019 @ 13:02:
- stel een 4 x 8 = 16 TB partitie layout op die "movie" storage kan je toch wel resizen ..
4x8 = 16?
En dan dus geen raid ofzo? Want raid werkt niet echt lekker samen met resizen, toch?
Of is het dan juist eerst de boel aan elkaar hangen met een RAID array en dan daarop een partitie die je dan weer wilt resizen?

Wat schiet ik hier dan eigenlijk mee op?
vso schreef op donderdag 10 januari 2019 @ 13:02:
nu wil je deze 12 TB niet kwijt of deleten .. MAAR je wil toch afstappen van een ISCSI lun naar SMB share ..omdat :? = redenen
..
Eh... nee?

Ik wil van een SMB share op mijn desktop naar een SMB share (oid) op een NAS.

(Hoe je bij 12 TB en ISCSI komt weet ik niet.)

Redenen:

- De NAS gebruikt minder stroom dan mijn desktop, welke dan veel minder aan zal hoeven staan.
- De NAS is minder luid, dan mijn desktop
- De NAS kan op een betere plek neer worden gezet dan mijn desktop
- Ik hoef niet meer te onthouden wat op welke schijf staat (behalve dan de scheiding tussen de belangrijke en de niet belangrijke data, maar dat is heel wat anders dan onthouden welke film waar staat)
- Ik kan het zo opzetten dat het falen van een schijf niet meteen verlies van data betekent (want ookal is het niet heel erg als ik data verlies, ik wil het toch liever houden)
- Ik kan tegelijk ook een mooie oplossing voor de belangrijkere data opzetten
- Ik kan mijn opslagcapaciteit uitbreiden zonder rekening te hoeven houden met de hardware in mijn desktop systeem.
vso schreef op donderdag 10 januari 2019 @ 13:02:
Wat doe je dan ???? ga je dan gezien je nu al niet weg kan gooien .. dan maar in die "situatie' blijven zitten ?
Ik kan gaan kiezen wat ik wil bewaren of ik kan mijn opslagcapaciteit uitbreiden. En als ik mijn opslagcapaciteit uitbreid kan ik dat in de vorm van een NAS doen.

Opslag uitbreiden kost geld, maar is wel leuker dan selecties gaan maken. Een nas (zelfbouw of kant-en-klaar) is nog wat duurder, maar maakt er wel echt een leuk project van.

Ik heb er best wel even over gedaan voordat het maximum van mijn huidige oplossing in zicht kwam, dus de bedoeling is ook echt wel dat ik wel weer een aantal jaar verder ben voordat de NAS vol zit. En tsja, wat ik dan doe zie ik dan wel weer...

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

GreatMagicalHat schreef op donderdag 10 januari 2019 @ 15:53:
Eh... ja, natuurlijk. Dat is toch ook gewoon logish?
niet voor iedereen bedoelde ook dat ik een heel verhaal had en samen met je puntjes meepakkend .. ;)
Ik geloof dat het gebrek aan SCSI er voor zorgt dat ik niet zomaar ESXi kan draaien. Verder doet het systeem zoals samengesteld volgens mij net aan de eisen daarvoor. Ik zie alleen niet zo goed waarom ik daar mijn hardware op zou moeten aanpassen.
Er is local storage optie dus echte noodzaak is er niet, overgens kan je ook naast Iscsi ook NFS gebruiken. niet veel verschil ertussen

Network storage word alleen intressant bij VAAI(synology voert plugin) en meerdere hosts ..
En hoe kom ik hier achter?
de chip architectuur volgen hoe de pcb paden "virtueel" lopen .. vroeger liep bv de pci (netwerk) via de north beridge naar cpu en weer terug naar de PCI scsi kaart ..

Nu kan het tegen woordig zijn dat de onboard netwerk kaart via de south bridge gaat (en is dus trager) dan een insteek kaart .. puur omdat je een chip vermijd (en meer bandbreedte beschikbaar is ..

in ieder geval gewoon onderzoek doen :)
4x8 = 16?
En dan dus geen raid ofzo? Want raid werkt niet echt lekker samen met resizen, toch?
Of is het dan juist eerst de boel aan elkaar hangen met een RAID array en dan daarop een partitie die je dan weer wilt resizen?

Wat schiet ik hier dan eigenlijk mee op?
8tb is 7.567 Gb oftewel je werkt met erg optimale cijfers, ga nu met erg minimale cijfers (dus 3/4 of de helft .. jij weet echt wel dat een 5tb partitie voor je "troep" uiteindelijk 10 of 20 TB (wat nog resteert) moet zijn ..

Overgens 16 tb zou ook raid 10 kunnen zijn :)


Ik geef je alleen mee waar je je hoofd tegenaan kan stoten .. het is aan jou de keuze of je ze vermijd of vol erop duikt .. je word er nooit dommer op door het te doen .. .

Tja vanalles

Pagina: 1