Acties:
  • 0 Henk 'm!

  • HyperH
  • Registratie: Mei 2015
  • Laatst online: 06-01 15:22
player-x schreef op donderdag 14 mei 2015 @ 17:35:
[...]
Nee wat ik bedoel wil je extra geld uitgeven voor hotswap bays, of denk je zo als ik, en pak je een schroeven draaier en steek er wat meer werk in het bouwen.

Het verschil tussen deze budget kast en deze luxe kast is 120 euro.

In gebruik is er geen verschil, in prijs, grote en gebruiksgemak des te meer.
Op zich ben ik best bereid wat extra geld uit te geven, want ik wil graag een kast waar ik voorlopig mee vooruit kan en me niet snel aan ga irriteren. De goedkope kast in dit voorbeeld is denk ik iets te licht en ik vrees dat die gaat trillen c.q. resoneren en dus niet heel stil gaat zijn.

Die Silverstone kast is heel mooi. De hotswap bays en stoffilters lijken mij heel praktisch. Ik vraag me alleen af of mini-ITX c.q. mini-DTX afdoende is.
[...]
daar bedoel ik mee, ben je berijd om 200 euro meer te besteden voor beperkte extra veiligheid van ECC, er zijn twee meningen hier over, een groep vind het voor thuis gebruik overdreven de andere vind het ook voor thuis gebruik zeer wenselijk.

Wil je er meer over weten, lees een paar pagina's terug, en lees de discussies over ECC.
Sorry ik begreep het verkeerd. Ik was alleen nog maar naar kasten aan het kijken om daar de overige componenten op te kunnen aanpassen. Daarom dacht ik dat je het over fysieke veiligheid van de kast had, zoals een slotje of brandveiligheid o.i.d.
De beslissing om voor ECC geheugen te gaan had ik al genomen. Daar wil ik best wat meer geld besteden.
[...]
Bedenk wel, zelfs ZFS is geen alternatief voor een echte backup, want ook bij ZFS kan er onherstelbare schade aan je array plaats vinden, en hoewel de kans veel kleiner is, zijn de gevolgen bij ZFS als het echt mis gaat nagenoeg niet te herstellen.
Je hebt natuurlijk helemaal gelijk dat ZFS geen alternatief is voor een goede backup strategie. Het vervelende is alleen dat als je meerdere HDD's hebt in één logisch volume dat het lastig is om alles te synchroniseren naar een externe HDD. Die zijn simpel niet groot genoeg. Daarom maak ik alleen van de belangrijkste data backups naar een externe HDD op dit moment.

Dat ZFS moeilijker te herstellen is kan ik iets bij voorstellen aangezien het een complexer file system is. Zou ik dan de backup op de externe HDD misschien op een ander file system moeten schrijven? (momenteel gebruik ik daarvoor ext3)

Het is wel een minpuntje dat ZFS moeilijk te herstellen is bij een faillure. Ik moet echter wel zeggen dat dit bij ext3/4 of NTFS ook wel lastig is als het mis is gegaan.
Vroeger met het aloude FAT kon je nog gemakkelijk een undelete doen of met een disk editor proberen data te redden. Bij ext of NTFS is dit al een stuk lastiger heb ik gemerkt.
Ik zelf gebruik een oude server als offline backup van mijn belangrijkste onvervangbare data, die 1x per week opstart en dan van bepaalde folders de backup synchroniseert.
En daarnaast heb ik BuddyBackup, waarmee ik bij een vriend mijn onvervangbare data encrypted opsla, en hij dat vice versa doet met zijn data doet.
Het nieuwe BTSync is daar ook prima voor te gebruiken, werkt op oa Windows, Linux, iOS, WP, en Android.
Dat is eigenlijk best een heel goed idee. Misschien kan ik een tweede ZFS systeem bij een vriend c.q. collega neer zetten en dan de beide systemen synchroniseren via het internet.
[...]
Als je budget het toelaat, dan is de DS380 waarschijnlijk de beste keuze voor je.

[afbeelding]

Heb je niet genoeg aan je 8 bays, kan je later altijd een externe behuizing als deze er bij nemen.

Dit zou mijn keuze zijn voor een compact systeem.

#ProductPrijsSubtotaal
1ASRock C2550D4I€ 306,41€ 306,41
1Toshiba MQ Series, 2TB€ 94,34€ 94,34
1Silverstone DS380€ 169,44€ 169,44
2Kingston KAC-VR316L/8G€ 60,03€ 120,06
1Seasonic SS-300SFD Active PFC€ 45,13€ 45,13
Bekijk collectie
Importeer producten
Totaal€ 735,38


Je kan hier in ook prima een goedkoop Atom of S1150 ITX bordje in kwijt zonder ECC, en dan bespaar je ongeveer 200 euro.

Hier is een goedkoper systeem, maar wel wat meer werk om te bouwen.

#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 34,20€ 34,20
1ASRock C226 WS€ 200,32€ 200,32
1Hitachi Travelstar 5K1000, 1TB€ 53,35€ 53,35
1Cooler Master N300 (KKN1, closed)€ 31,95€ 31,95
1DeepCool Gammaxx S40€ 18,-€ 18,-
2Kingston KAC-VR316L/8G€ 60,03€ 120,06
1be quiet! System Power 7 300W€ 33,-€ 33,-
Bekijk collectie
Importeer producten
Totaal€ 490,88


En dit is een prima budget systeem.

#ProductPrijsSubtotaal
1Intel Celeron G1820 Boxed€ 34,20€ 34,20
1Gigabyte GA-B85M-D2V€ 52,50€ 52,50
1Hitachi Travelstar 5K1000, 1TB€ 53,35€ 53,35
1Cooler Master N300 (KKN1, closed)€ 31,95€ 31,95
1DeepCool Gammaxx S40€ 18,-€ 18,-
1Crucial Ballistix BLS2CP4G3D1609DS1S00CEU€ 52,95€ 52,95
1be quiet! System Power 7 300W€ 33,-€ 33,-
Bekijk collectie
Importeer producten
Totaal€ 275,95

Persoonlijk zou ik voor dit laatste systeem kiezen, daar het prima zijn werk zal doen, en als je wat wilt vervangen, voor andere snellere hardware, dan verlies je op zich maar weinig geld.
Dank je wel voor de drie gesuggereerde systemen. Je hebt me een enorme kickstart gegeven.
Ik weet alleen niet of de genoemde processors toereikend zijn, want ik wil een deel van mijn data encrypten. Bij ZFS ben je daarvoor een processor met hardwarematige AES ondersteuning nodig en bij voorkeur meerdere CPU cores. Dan zou ik eigenlijk minimaal naar een Intel i5 moeten volgens mij?
Als je later meer HDDs wilt, heb je alleen wel een goedkope SATA controller kaartje nodig.
Een SATA controller kaartje is inderdaad ook een optie en geeft meer mogelijkheden bij de moederbord keuzes.
Een 2.5'' HDD voor de OS en tijdelijke downloads, zou ik zeker nemen, verdien je zelfs redelijk vlot terug via de energie besparing.
Een laptop HDD waar het OS op komt? Of bedoel je een SSD?

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 14:39
HyperH schreef op vrijdag 15 mei 2015 @ 21:52:
Daarom maak ik alleen van de belangrijkste data backups naar een externe HDD op dit moment.
Je kan als je nieuwe server hebt, ook gewoon je huidige server als offline backup server inzetten.

Gewoon in de bios een autostarttijd instellen, de mijne start automatisch op 1x per week, tijdens het opstarten start het backup programma, en die als hij klaar is met syncen van alle files, sluit de machine weer automatisch af.
Zou ik dan de backup op de externe HDD misschien op een ander file systeem moeten schrijven?
Nee hoor ZFS is nog steeds de beste keuze.
Het is wel een minpuntje dat ZFS moeilijk te herstellen is bij een faillure.
De kans is niet nul maar wel veel kleiner dan bij ext3/4 of NTSF, en de kans dat beide falen nog veel kleiner.
Ik moet echter wel zeggen dat dit bij ext3/4 of NTFS ook wel lastig is als het mis is gegaan.
Zolang het geen hardware probleem is, kan je nagenoeg altijd nagenoeg al je data terug krijgen met die formaten, bij ZFS kan als het echt mis gaat is er een kans dat het echt weg is, maar dat is wel een nagenoeg verwaarloosbare kans.
Ik weet alleen niet of de genoemde processors toereikend zijn, want ik wil een deel van mijn data encrypten. Bij ZFS ben je daarvoor een processor met hardwarematige AES ondersteuning nodig en bij voorkeur meerdere CPU cores. Dan zou ik eigenlijk minimaal naar een Intel i5 moeten volgens mij?
Geen idee, dat moet je even aan andere vragen, die daar meer thuis in zijn.
Een laptop HDD waar het OS op komt? Of bedoel je een SSD?
Gewoon een van de twee 2.5'' HDDs, voor een server (zonder VMs) heb je geen SSD nodig, daar je nagenoeg nooit nieuwe programma's opstart, en een 2.5'' HDD is snel genoeg om dienst te doen als tijdelijke download schijf.

Ik zou er iig wel een 2.5'' schijf in hangen voor je OS en als download schijf, daar is vast wel ergens plaats voor te vinden in de behuizing, het heeft verschillende voordelen.
  • zuiniger, de hele array hoeft niet 24/7 te werken, daar je Torrent cliënt bv al zijn werk op de zuinige 2.5'' kan doen, maar ook je OS houd je array zo niet wakker.
  • Minder head-parking, de WD Green parkeert zijn leeskop na 8sec, er zijn genoeg gevallen bekend, waar HDDs ruim over de gegarandeerde 300.000 head parks is gegaan, lees dit artikel van StorageReview hoe het is op te lossen.
  • Langere levens duur van je Array, geen 24/7 gebruik.
  • Minder defragmentatie van je array, daar alleen wat je wil bewaren op de array wordt gezet.
  • Eenvoudiger met installatie, daar die niet op een raid array hoeft te worden gedaan.
  • Eenvoudigere recovery als je systeem op een of andere manier corrupt is geraakt.
Als een rack server ook een optie voor je is kan je ook hier even kijken voor een case met groei mogelijkheden.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Ik zit met het probleem dat als ik een films download en dan wil overzetten naar mijn nas via filezilla, me dan inlog als root bij freenas op filezilla en dan de film kopier naar de juiste folder dan komt hij toch niet bij plex staan, dat is heel irritant... Weet iemand een oplossing?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
thibautb schreef op woensdag 20 mei 2015 @ 21:27:
Ik zit met het probleem dat als ik een films download en dan wil overzetten naar mijn nas via filezilla, me dan inlog als root bij freenas op filezilla en dan de film kopier naar de juiste folder dan komt hij toch niet bij plex staan, dat is heel irritant... Weet iemand een oplossing?
Plex als jail in Freenas? Kan je niet gewoon een samba share gebruiken om naar te kopieren ipv FTP? Die share kan je ook mounten in je Plex jail

Is dit niet meer iets voor hier: http://gathering.tweakers.net/forum/list_messages/1634487

[ Voor 13% gewijzigd door A1AD op 20-05-2015 21:31 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Te moeilijk voor me maar ik begrijp ongeveer wat je bedoelt ja, maar dat gaat denk ik niet want ik het nergens vinden om iets te sharen uit mijn netwerk... Toch als je dat bedoelt?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Dit gaat echt wel offtopic, PM me maar indien je meer uitleg wil

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Kent iemand een goedkope (rackmountable) behuizing met een aantal 3,5" hotswappable bays aan de voorkant?

Ik ben namelijk op zoek naar een upgrade van de behuizing die mijn (storage) server nu heeft. Nu heb ik ook een 4U rackmountable, maar het verwisselen van HDDs is erg onhandig: de hele server moet uit het rack, paneel eraf, dan moet ik eerst een hoop kabels wegduwen om überhaupt de 'bay' eruit te halen waar de HDDs in zitten. Dan nog een paar schroeven per HDD eruithalen en het hele riedeltje weer omgekeerd om het weer in elkaar te zitten.

Ik wil dat dit graag makkelijker kan, liefst in de vorm van zo'n server met een boel hotswap-bays aan de voorkant, zo'n idee dus:

Afbeeldingslocatie: https://sep.yimg.com/ay/directron/norco-3u-rackmount-server-case-w-16-hot-swappable-sata-sas-drive-bays-model-rpc-3116-ds-2.gif

Bovenstaand voorbeeld is wat overkill (zoveel bays heb ik ook weer niet nodig).

Mijn 'eisen' zijn:
  • Iets van 6-8 hotswappable bays
  • 3U/4U (met 2U ben ik bang dat het moederbord en CPU-koeler er niet in passen)
  • Plaats voor een normale ATX-voeding en ATX-moederbord
Kent iemand zoiets voor een fatsoenlijke prijs? De meeste voorbeelden die ik vind zijn slecht te verkrijgen en/of schrikbarend duur.

Rackmountable is geen harde eis, een tower met hotswap bays wil ik ook wel overwegen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 15:12

Harrie

NederVlaming

thibautb schreef op woensdag 20 mei 2015 @ 21:27:
Ik zit met het probleem dat als ik een films download en dan wil overzetten naar mijn nas via filezilla, me dan inlog als root bij freenas op filezilla en dan de film kopier naar de juiste folder dan komt hij toch niet bij plex staan, dat is heel irritant... Weet iemand een oplossing?
Automatisch updaten van de library werkt niet in plex op freenas. (Dat werkt met inotifys welke niet werken op freebsd)

Je kan plex wel op vaste tijden/intervallen de folders laten scannen, bijvoorbeeld elk uur. Dat moet je wel even aanzetten in je plex server.

[ Voor 42% gewijzigd door Harrie op 20-05-2015 21:57 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 14:39
Gebruik voor dergelijke oplossingen al jaren Total Commander, heeft naast een goede netwerk benadering, ook een hele goede FTP/FXP client ingebouwd, voor mij is het de enige manier om met files te werken.

Het programma heeft een redelijk hoge leercurve, en schrikt een hoop beginners af, van wegen al zijn mogelijkheden, en zijn redelijk spartaans uiterlijk, maar is echt zijn leertijd waart, want er is geen ander programma waarmee je letterlijk alles wat je met files wilt doen, kan doen.

Wil weten hoe je iets kan en moet doen er mee doe gewoon een Google, en je vind gegarandeerd een video die het uitlegt hoe dat moet.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Harrie schreef op woensdag 20 mei 2015 @ 21:53:
Automatisch updaten van de library werkt niet in plex op freenas. (Dat werkt met inotifys welke niet werken op freebsd)

Je kan plex wel op vaste tijden/intervallen de folders laten scannen, bijvoorbeeld elk uur. Dat moet je wel even aanzetten in je plex server.
Ik dacht meer aan een rechten probleem, moeilijk te beoordelen via de beperkte info beschikbaar...

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 15:12

Harrie

NederVlaming

A1AD schreef op woensdag 20 mei 2015 @ 21:58:
[...]


Ik dacht meer aan een rechten probleem, moeilijk te beoordelen via de beperkte info beschikbaar...
Ja dat kan ook het probleem zijn. Plex moet leesrechten op de files hebben ook, wat misschien niet het geval is als ze via het root account geplaatst worden.

Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Compizfox schreef op woensdag 20 mei 2015 @ 21:51:
Kent iemand een goedkope (rackmountable) behuizing met een aantal 3,5" hotswappable bays aan de voorkant?

Ik ben namelijk op zoek naar een upgrade van de behuizing die mijn (storage) server nu heeft. Nu heb ik ook een 4U rackmountable, maar het verwisselen van HDDs is erg onhandig: de hele server moet uit het rack, paneel eraf, dan moet ik eerst een hoop kabels wegduwen om überhaupt de 'bay' eruit te halen waar de HDDs in zitten. Dan nog een paar schroeven per HDD eruithalen en het hele riedeltje weer omgekeerd om het weer in elkaar te zitten.

Ik wil dat dit graag makkelijker kan, liefst in de vorm van zo'n server met een boel hotswap-bays aan de voorkant, zo'n idee dus:

[afbeelding]

Bovenstaand voorbeeld is wat overkill (zoveel bays heb ik ook weer niet nodig).

Mijn 'eisen' zijn:
  • Iets van 6-8 hotswappable bays
  • 3U/4U (met 2U ben ik bang dat het moederbord en CPU-koeler er niet in passen)
  • Plaats voor een normale ATX-voeding en ATX-moederbord
Kent iemand zoiets voor een fatsoenlijke prijs? De meeste voorbeelden die ik vind zijn slecht te verkrijgen en/of schrikbarend duur.

Rackmountable is geen harde eis, een tower met hotswap bays wil ik ook wel overwegen.
http://www.xcase.co.uk/3u...rs-inc-179-00-x-case.html
http://www.xcase.co.uk/3u...r-htpc-169-00-x-case.html
http://www.xcase.co.uk/3u...-8-fans-59-95-x-case.html

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Bedankt voor het meedenken!

Deze cases kwam ik zelf ook tegen, maar dit valt helaas voor mij onder de noemer "schrikbarend duur". Ik ben niet bereid om hier bijna €300 (exclusief verzendkosten!) voor neer te tellen.

Die uit je laatste link (de X-Case RM 305) heeft geen hotswappable bays. Verder is het wel een mooie kast voor een gunstigere prijs :) Als ik zoiets voor die prijs kon vinden, maar dan mét hotswappable bays aan de voorkant, ben ik tevreden ;)

[ Voor 40% gewijzigd door Compizfox op 21-05-2015 17:17 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • lordfragger
  • Registratie: Juni 2007
  • Laatst online: 14:34
Compizfox schreef op donderdag 21 mei 2015 @ 17:04:
Bedankt voor het meedenken!

Deze cases kwam ik zelf ook tegen, maar dit valt helaas voor mij onder de noemer "schrikbarend duur". Ik ben niet bereid om hier bijna €300 (exclusief verzendkosten!) voor neer te tellen.

Die uit je laatste link (de X-Case RM 305) heeft geen hotswappable bays. Verder is het wel een mooie kast voor een gunstigere prijs :) Als ik zoiets voor die prijs kon vinden, maar dan mét hotswappable bays aan de voorkant, ben ik tevreden ;)
Als je rack mount + hotswap wil ga je toch niet snel goedkoper vinden vrees ik. Als je dat vergelijkt met de "echte" cases van bvb supermicro is €300 nog bijna gratis.

Hot swap bays zijn relatief prijzig, dus die drijven de prijs snel op als je er enkele wil.

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 24-09 22:56
Is de Lian Li PC-Q26B + eventueel Lian Li BP2SATA (4x) wat voor je.

http://www.lian-li.com/en/dt_portfolio/pc-q26/

Oh nee is Mini ITX.. :(

[ Voor 4% gewijzigd door Habana op 21-05-2015 18:21 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17:31
De Silverstone ds380 die een paar post hierboven staat, oh nee ook mini-atx :X

[ Voor 20% gewijzigd door BartNL op 21-05-2015 19:17 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

lordfragger schreef op donderdag 21 mei 2015 @ 17:25:
[...]

Als je rack mount + hotswap wil ga je toch niet snel goedkoper vinden vrees ik. Als je dat vergelijkt met de "echte" cases van bvb supermicro is €300 nog bijna gratis.

Hot swap bays zijn relatief prijzig, dus die drijven de prijs snel op als je er enkele wil.
Jammer, ik had gehoopt dat er misschien toch nog iets zou zijn voor een lagere prijs (< €100). Tja, misschien is €300 in de enterpriseserverwereld 'bijna gratis' maar dit is slechts voor mijn homeserver. Het lijkt mij een beetje buiten proporties als ik daarvoor een kast ga kopen die meer waard is dan de hardware erin :P

Heeft iemand een idee voor een alternatief? Zijn er misschien towers (geen rackmountable dus) met hotswappable bays (al dan niet intern)?

@Habana @BartNL:

Ook jullie bedankt voor de input! Mini-ITX is helaas geen optie, er moet echt een full-size ATX-moederbord in passen.

[ Voor 50% gewijzigd door Compizfox op 21-05-2015 19:33 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Een losse module voor 4 drives hot swappable kost je al snel 100€

Maar je argument van enterprise prijzen hoort wellicht bij de enterprise optie van hot swap bays.
Als je die laat vallen en ze vast schroeft kun je 5 in 3 modules voor rond de 10€ vinden.
Zoek een behuizing waar er 3 of 4 in passen (2e hands cm stacker of zo) en dan moet je voor 100€ klaar zijn voor 15-20 drives wat betreft de kast.

Edit: dat heb je nu al lees ik, en wil je niet langer.

[ Voor 6% gewijzigd door jacovn op 21-05-2015 21:18 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Dennis
  • Registratie: Februari 2001
  • Laatst online: 17:26
Eindelijk mijn ASRock 2550 Avoton vanavond aan de praat gekregen: bleek dat ik al die tijd verkeerd geheugen gebruikte (hij wil alleen UDIMM). Leuk bordje nu de IPMI ook correct werkt.

Komend weekend dus eindelijk beginnen met de configuratie van NAS4free!

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Hier zijn nog twee componenten om een goedkope NAS te maken die veel capaciteit heeft en weinig ruimte in neemt.
Een tower met 9 externe 5.25" bays als bijv deze sharkoon
En drie maal een Lian-Li EX-36B1. Dit is een hele interessante bracket want je kan naast 4x3.5" OOK 2x2.5" monteren plus een 120mm fan, die je wel moet vervangen door een PWM model.

Dan heb je 12x3.5" en 6x2.5" netjes met heel veel airflow in een hele compacte behuizing. Ik dacht dat dit bijelkaar zo'n 150 euro koste. Niet goedkoop maar wel veel waar voor je geld zeker ivm de de prettige mix van 3.5" en 2.5" en het feit dat dit een gewone ATX kast is want niet iedereen wel een niet te tillen 19" kast.

Edit1: pricewatch links toegevoegd

[ Voor 15% gewijzigd door tvwes op 21-05-2015 22:22 ]


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 28-09 20:32
Na 7 jaar begint het toch tijd te worden mijn huidige thuisserver/router te vervangen. Dit is een Asus barebone met een C2D er in, en een RAID1 van 1TB Samsung Spinpoint schijven die dus al 7 jaar non-stop (geen idle powerdown) rondjes draaien. OS is Ubuntu. Van belangrijke data wordt extern een backup van gemaakt.

Qua schijven denk ik aan 4x 3TB in Raid5 (ben bekend met de argumenten tegen), en een op basis van een J1900 of Athlon 5350, met Debian/OMV. Ik neig naar de J1900, heb in het verleden wat mindere ervaringen met AMD gehad, qua benchmarks en verbruik lijkt het elkaar niet heel veel te down (wisselt per review). AMD heeft wel wat AES features. Het 'netjes' doen (betere RAID, ECC, enz) heb ik overwogen, maar dat wordt simpelweg te duur. De routing functionaliteit gaat naar een losse router, dus een enkele NIC is voldoende.

Een alternatief zou een Synology (of vergelijkbaar) oplossing zijn, of vergelijkbaar. De meeste zaken die ik gebruik (sickbeard, enz) zou ik daar ook mee kunnen doen, maar ik mis dan volgens de flexibiliteit van het open Debian platform. Voordeel is dat het onderhoud van het platform in feite uitbesteed wordt. Mogelijk is het verbruik lager bij een wat lower-spec device.

Zijn er nog open deuren die ik mis? Onderstaand de basis waar ik aan denk; de AMD versie obv een ASrock bordje kost hetzelfde. (externe voeding heb ik al)
#ProductPrijsSubtotaal
1ASRock Q1900DC-ITX€ 102,-€ 102,-
4WD Red SATA 6 Gb/s WD30EFRX, 3TB€ 115,95€ 463,80
1Fractal Design Node 304 Zwart€ 72,95€ 72,95
1Sandisk Ultra Fit 64GB Zwart€ 28,46€ 28,46
1Crucial Ballistix Sport BLS2C4G3N169ES4CEU€ 65,-€ 65,-
Bekijk collectie
Importeer producten
Totaal€ 732,21

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

@ijdod: Al gekeken naar ZFS? Het grote ZFS topic

RAID-Z1 lijkt mij een beter idee dan RAID5, en lost 'de argumenten tegen' (waarvan je zegt dat je ermee bekend bent) op.

[ Voor 46% gewijzigd door Compizfox op 21-05-2015 22:43 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 28-09 20:32
Ben globaal bekend met ZFS. Heb het eigenlijk een beetje genegeerd, viel enigszins onder het 'goed doen' toen ik begon met puzzelen. Voornaamste uitdaging (even aangenomen dat ik ECC e.d. negeer) is denkelijk het een beetje deftig aan te gang te krijgen met de overige wensen. Maar een goed punt :D

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Ik denk dat het zeer goed te doen moet zijn met jouw wensen. De meestvoorkomende complicerende factor is vaak dat mensen het willen virtualiseren.

Als je dat niet hoeft, is het allemaal erg gemakkelijk. Makkelijker dan hardware-RAID zelfs: je hebt geen RAID-controller nodig want ZFS werkt gewoon met je onboard SATA-controller. ZFS heeft ook geen dikke CPU nodig (zolang je geen zware compressie gebruikt) en ECC is voor thuisgebruik niet echt noodzakelijk.

Het enige wat met 4x 3TB je wel nodig hebt (bovenop je huidige setup) is wat extra geheugen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 28-09 20:32
Ik heb zitten denken aan virtualisatie, maar dat doe ik als ik het nodig heb al op mijn laptop. Die loopt rondjes op wat ik wil neerzetten als NAS/server :P

Schiet ZFS zonder ECC geheugen het doel niet voorbij?

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

ijdod schreef op donderdag 21 mei 2015 @ 23:20:
Ik heb zitten denken aan virtualisatie, maar dat doe ik als ik het nodig heb al op mijn laptop. Die loopt rondjes op wat ik wil neerzetten als NAS/server :P
Sommige mensen (waaronder ikzelf) willen meerdere OSen draaien, maar op één fysieke server. Zo gebruik ik FreeBSD voor mijn storage (vanwege ZFS) maar Debian voor alle andere 'taken' (zoals webhosting, mail, RADIUS, enz). Vandaar ;)
Schiet ZFS zonder ECC geheugen het doel niet voorbij?
Absoluut niet. ZFS gebruiken betekent dat je het risico van bitflips in je HDDs (silent corruption) oplost, waardoor bitflips in het geheugen het enige overgebleven risico vormen. Dat betekent echter niet dat ECC noodzakelijk is.

Laatst kwam hier nog een interessante discussie over voorbij in het ZFS-topic. Vooral deze post van CiPHER vond ik erg treffend, misschien interessant om na te lezen: Verwijderd in "Het grote ZFS topic"

(quote uit bovenstaande link):
Het is voor gebruikers niet altijd duidelijk welke risico's nu echt belangrijk zijn, en welke risico's een margekwestie zijn. Een UPS is ook logischer, voordat je een koepel tegen meteorietinslag zou bouwen. Kortom, begin eerst met het uitschakelen van de grote risico's wat met weinig geld kan, en eindig bij het uitschakelen van kleine risico's met grof geld. Dat is het toetje dat je als thuisgebruiker altijd kunt overwegen om enterprise-achtige veiligheid te bereiken. Maar daar heb je weinig aan als je de veel grotere risico's niet uitsluit. Daarom dat ik de hele discussie hieromtrent zeer nadelig vindt voor thuisgebruikers. Ook zie ik dat mensen ZFS links laten liggen ("want dat werkt alleen goed met ECC") en maar terug gaan naar hun legacy oplossing. Compleet idioot en de oorzaak van deze verkeerde afweging zoek ik in de cowboy-verhalen over ZFS en veiligheid. Want als iemand ZFS kiest, dan moet gelijk voor duizenden euro's alle mogelijke risico's worden uitgesloten.
Daarnaast moet je begrijpen dat "self-healing data" niet het enige voordeel is van ZFS. Ik raad je aan om eens de TS van het ZFS-topic hier te lezen als je dat nog niet gedaan hebt.

[ Voor 21% gewijzigd door Compizfox op 22-05-2015 00:18 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 30-09 22:42
@Compizfox:

Wat ik zelf ga doen is de pricewatch: MS-Tech CA-0210 Rev. B volduwen met goedkope hot swap bays van DX ofzo.. :P

_@/'


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Compizfox schreef op donderdag 21 mei 2015 @ 23:27:
[...]
Dat betekent echter niet dat ECC noodzakelijk is.
Als je het ZFS topic volgt zal je ook weten dat EEC niet zaligmakend is en je niet tegen elke vorm van bitflip zal kunnen beschermen. De kans zal vele malen kleiner zijn maar technisch gezien kan het nog steeds voorkomen. Moeilijk op te zoeken met mijn GSM maar volgens mij heeft @FireDrunk daar eens iets over geschreven.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!
Kan er niks van vinden :+
Maar het is zeker waar. Je moet zelf een goede afweging maken tussen voor elke euro verbetering zoeken in je hardware setup, en tussen het misschien iets meer geld uitgeven aan een goede backup.

Bedenk ook dat ECC geen vrijbrief is om nooit meer naar je server om te kijken.
Je zult sowieso actief beheer moeten doen, en goed moeten controleren of je systeem nog werkt (ik doe dit minstens 1 keer per week.)

Waar A1AD op doelt, is denk ik het feit dat een beheerder *veel* meer stuk kan maken dan ECC.
Stel je hebt een 10 disk RAID6 array, prachtig! en je voegt hier een 200GB diskje los aan toe.

Berg je dan maar, want je kan je hele pool opnieuw maken :) (als je niet weet hoe je met zdb/mdb een rollback van die actie doet, en ik kan je vertellen, ik weet dat niet ;) )

Ik denk dat het veel belangrijker is dat je goed met je systeem om gaat, dan dat je elke euro aan hardware uitgeeft :)

Just my 2 cents :)

Even niets...


Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 28-09 20:32
Compizfox schreef op donderdag 21 mei 2015 @ 23:27:
[...]

Sommige mensen (waaronder ikzelf) willen meerdere OSen draaien, maar op één fysieke server. Zo gebruik ik FreeBSD voor mijn storage (vanwege ZFS) maar Debian voor alle andere 'taken' (zoals webhosting, mail, RADIUS, enz). Vandaar ;)
Doh. Die had ik moeten weten, zeker omdat dit iets is waar in in eerste instantie zelf naar gekeken heb.
[...]

Absoluut niet. ZFS gebruiken betekent dat je het risico van bitflips in je HDDs (silent corruption) oplost, waardoor bitflips in het geheugen het enige overgebleven risico vormen. Dat betekent echter niet dat ECC noodzakelijk is.

Laatst kwam hier nog een interessante discussie over voorbij in het ZFS-topic. Vooral deze post van CiPHER vond ik erg treffend, misschien interessant om na te lezen: Verwijderd in "Het grote ZFS topic"

(quote uit bovenstaande link):


[...]


Daarnaast moet je begrijpen dat "self-healing data" niet het enige voordeel is van ZFS. Ik raad je aan om eens de TS van het ZFS-topic hier te lezen als je dat nog niet gedaan hebt.
Ga me zeker inlezen :D

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Ter aanvulling op @Firedrunk reactie doe ik ook nog een duit in het zakje.
FireDrunk schreef op vrijdag 22 mei 2015 @ 07:18:
Kan er niks van vinden :+
Maar het is zeker waar. Je moet zelf een goede afweging maken tussen voor elke euro verbetering zoeken in je hardware setup, en tussen het misschien iets meer geld uitgeven aan een goede backup.
Een server met de beste RAS blijft uiteindelijk het spreekwoordelijke "alle eieren in een duur mandje" Een server zonder backup is eigenlijk niets. Zelfs de beste server kan kortsluiting maken en al je drives kapot maken. Liever iets minder server en een backup dan veel server en geen backup.
En bedenk dat er altijd compromissen gesloten moeten worden. "Snel, betrouwbaar, veel capaciteit en goedkoop", je nooit alles uit dat rijtje krijgen.
Bedenk ook dat ECC geen vrijbrief is om nooit meer naar je server om te kijken.
Je zult sowieso actief beheer moeten doen, en goed moeten controleren of je systeem nog werkt (ik doe dit minstens 1 keer per week.)
Toen ik dit las dacht ik laat ik eens kijken. Maar ik kijk zelden, een paar keer per jaar max, naar mijn NAS. Dat is ingeregeld en werkt. Ik blijf er daarna vanaf. Ik had al vele upgrades kunnen doen maar het werkt dus waarom zou ik.
Applicaties krijgen wel wat meer aandacht van mij. Daar loop je echt risico's als je die niet bijhoudt. Maar dat staat los van de NAS.
Waar A1AD op doelt, is denk ik het feit dat een beheerder *veel* meer stuk kan maken dan ECC.
Stel je hebt een 10 disk RAID6 array, prachtig! en je voegt hier een 200GB diskje los aan toe.
Altijd leuk
Berg je dan maar, want je kan je hele pool opnieuw maken :) (als je niet weet hoe je met zdb/mdb een rollback van die actie doet, en ik kan je vertellen, ik weet dat niet ;) )
Ja dat is een leuke maar kan ik dat meestal wel weer goed krijgen. Als je maar snel stopt met schrijven dan valt het meestal wel met minimaal data verlies te repareren. Ik geef wel toe dat dit een hoog "don't try this at home kids" gehalte heeft.
Ik denk dat het veel belangrijker is dat je goed met je systeem om gaat, dan dat je elke euro aan hardware uitgeeft :)

Just my 2 cents :)
Een andere manier van goed omgaan is er juist niet mee omgaan(lees aan zitten rommelen). Dat is een persoonlijke keuze en zeker niet een verplichting. Maar als je alleen een NAS wilt die NAS taken uitvoert hoevaak moet je daar dan aanzitten? Hoevaak moet je dat dan upgraden? En als er een CVE is uitgebracht, loopt jouw NAS dan ook echt een risico? Zeker als het niet aan het internet hangt als webserver ofzo maar veilig achter je NAT van de router dan valt het allemaal wel mee. Upgrades zijn ook niet zonder risico kijk maar naar het regelmatige feest op Patch Tuesday.
Als je juist graag de latest and greatest wilt proberen dan moet je dat natuurlijk vooral doen. Niks moet alles mag.

Acties:
  • 0 Henk 'm!
Ik zie ZFS eigenlijk ook als een Applicatie, tuurlijk is het veel meer dan dat, maar ik vind persoonlijk dat je zulke onderdelen ook moet updaten. Wat nou als er een bug in ZFSonLinux zit waardoor je silent corruption krijgt?

In jouw geval: Je kijkt er een jaar niet naar, stel je had een SLOG gehad en je SLOG was kapot gegaan?
Er is vroeger een ZFS bug geweest dat als je SLOG stuk ging, je hele pool faalde.
Had je netjes geupdate, was je niet de klos geweest.

Nou zeg ik niet dat je *moet* updaten, maar er is altijd een afweging tussen conserveratief opstellen, en progressief opstellen.

Ik ben persoonlijk 'fan' van actief-beheer. Netjes patchen, netjes alles opschonen, af en toe eens goed door je logs heen spitten (zowel security, als applicatielogs), en netjes opruimen.

Af en toe een verse installatie om je kennis op pijl te houden, en om bij te blijven met de laatste ontwikkelingen.

Er zijn hier heel wat mensen (CiPHER is er zo een) die veel meer van het fire-and-forget principe zijn. Je installeert een NAS, en het is daarna voor een paar jaar misschien wel een blackbox. Hij doet het, en daarmee basta...

Dat is absoluut niet wat ik praktiseer.

Niet dat ik een oordeel over die manier van werken heb, want iedereen moet dat voor zichzelf bepalen.

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Steephh schreef op vrijdag 22 mei 2015 @ 01:45:
@Compizfox:

Wat ik zelf ga doen is de pricewatch: MS-Tech CA-0210 Rev. B volduwen met goedkope hot swap bays van DX ofzo.. :P
Nog goedkoper dan mijn voorgestelde sharkoon _/-\o_ Hoe kunnen ze voor 30 euro dat maken? De persoonlijke showstopper van deze CA-0210 zijn de aansluitinging aan de bovenkant. Ik wil altijd alles aan de voorzijde. Maar voor onder een buro zeker niet verkeerd.

Pas op met dit soort hotswap bays van DX, je gaat weer een extra set contacten opnemen in de keten. De kwaliteit van de connectors in dit soort bays zijn vaak echt zeer matig. Waardoor je of brand krijgt in je voeding stuk of vage errors omdat je datapath niet lekker is. De ene keer tref je het bij DX de andere keer niet. Maar als je een betrouwbaar systeem wilt zou ik me drie keer afvragen of ik echt wel die hotswap bays nodig heb. Als je het echt nodig hebt zou ik ook een echt chassis kopen.
De meeste mensen hier willen graag een stil systeem dan zijn dit soort hotswap-bays met hun 40mm fans ook niet echt ideaal. Nee doe mij maar vast geschroefd, stille koeling, heel betrouwbaar en goedkoop voor thuis, ipv de luxe van een losse trays.
Als je constant drives aan het wisselen bent voor benchmarks ofzo is het natuurlijk ideaal.

Acties:
  • 0 Henk 'm!

  • ijdod
  • Registratie: April 2000
  • Laatst online: 28-09 20:32
Er zit ergens een omslagpunt waar indrukwekkende uptime betekent dat er al zo lang geen onderhoud is gedaan... ymmv afhankelijk van het systeem :D.

Is het binnen een RAID5-achtige vanuit betrouwbaarheid beter om 3x5 of 4x3 te doen?

Root don't mean a thing, if you ain't got that ping...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op vrijdag 22 mei 2015 @ 09:35:
Ik zie ZFS eigenlijk ook als een Applicatie, tuurlijk is het veel meer dan dat, maar ik vind persoonlijk dat je zulke onderdelen ook moet updaten. Wat nou als er een bug in ZFSonLinux zit waardoor je silent corruption krijgt?
Eerst de opendeur: "Dan had je ook Illumos moeten gebruiken" :)
Ja daar heb je gelijk in maar zeker in Illumos zijn het aantal ZFS bugs waar gebruikers hier tegen aan lopen zo goed als nul. Kijk naar mijn oudste server met een zpool versie 14 erop en een OS van eind 2008. Is dat veroudert? JA natuurlijk. Maar loop ik tegen problemen aan? Nee, het is volkomen storing vrij terwijl het ongeveer 131mbit continue gem. het afgelopen jaar verwerkte. Dat ding staat alles behalve te idlen.
In jouw geval: Je kijkt er een jaar niet naar, stel je had een SLOG gehad en je SLOG was kapot gegaan?
Er is vroeger een ZFS bug geweest dat als je SLOG stuk ging, je hele pool faalde.
Had je netjes geupdate, was je niet de klos geweest.
De bug was dat je een SLOG niet kon verwijderen. En ten gevolge daarvan kon je een zpool niet (zomaar) meer importeren met een ontbrekende SLOG. Misschien dat je hetzelfde bedoelde maar het was niet zo dat alles verloren was.
Nou zeg ik niet dat je *moet* updaten, maar er is altijd een afweging tussen conserveratief opstellen, en progressief opstellen.

Ik ben persoonlijk 'fan' van actief-beheer. Netjes patchen, netjes alles opschonen, af en toe eens goed door je logs heen spitten (zowel security, als applicatielogs), en netjes opruimen.
Dat is het beste. Zeker de OS'es die meeste hier gebruiken hebben aandacht nodig en zijn simpelweg niet appliance kwaliteit.
Af en toe een verse installatie om je kennis op pijl te houden, en om bij te blijven met de laatste ontwikkelingen.
Weer helemaal waar. Alleen doe ik dat in test omgevingen.
Er zijn hier heel wat mensen (CiPHER is er zo een) die veel meer van het fire-and-forget principe zijn. Je installeert een NAS, en het is daarna voor een paar jaar misschien wel een blackbox. Hij doet het, en daarmee basta...
Voor een NAS en zeker thuis denk ik dat het kan mits je het wel allemaal goed voor elkaar hebt qua fault management. Ik doe het in ieder geval wel, voor de NAS. Voor email en andere services ben ik ook regelmatig aan het patchen en kijk zo af en toe eens in een log. (meer tijd heb ik niet)
Dat is absoluut niet wat ik praktiseer.
Jouw actieve beheer, zolang het monitoring en relevante patches betreft, is altijd het beste.
Niet dat ik een oordeel over die manier van werken heb, want iedereen moet dat voor zichzelf bepalen.
Dat klopt iedereen moet dat in inderdaad zelf bepalen.

Ik probeer alleen duidelijk te maken dat je een NAS prima zonder al te veel beheer kan laten werken voor lange tijd. Dit om de thuis gebruiker nu eens niet te laten schrikken. Maar er moeten wel losse backups zijn!

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
ijdod schreef op vrijdag 22 mei 2015 @ 09:55:
Er zit ergens een omslagpunt waar indrukwekkende uptime betekent dat er al zo lang geen onderhoud is gedaan... ymmv afhankelijk van het systeem :D.
Dat kan kloppen. Maar niet alles heeft onderhoud nodig, sommige dingen zijn nu eenmaal goed en gaan daardoor ook lang mee. Je hebt gelijk: ymmv.
Is het binnen een RAID5-achtige vanuit betrouwbaarheid beter om 3x5 of 4x3 te doen?
Dat is simpel:
Bij 3x5 kan er bij ieder van die drie volumes max een schijf uitvallen. Dus max drie, maar niet willekeurig.
Bij 4x3 kan er bij ieder van die vier volumes max een schijf uitvallen. Dus max vier. Daarnaast als je het als RAID50 gebruikt zal de prestatie bij 4x3 ook beter zijn.

Acties:
  • 0 Henk 'm!
@tvwes
Ik probeer alleen duidelijk te maken dat je een NAS prima zonder al te veel beheer kan laten werken voor lange tijd. Dit om de thuis gebruiker nu eens niet te laten schrikken. Maar er moeten wel losse backups zijn!
Hoewel ik die visie zeker deel, is hier zeggen dat een NAS niet geupdate hoeft te worden (want dat zeg je feitelijk), wel een gevaarlijke.

Ik snap heel goed de nuance bij jou, dat jij onder NAS je core-services verstaat als: Kernel, ZFS, Samba, en misschien NFS ofzo.

Maar de gemiddelde gebruiker hier, doet vaak wel iets meer met zijn NAS (lees: CouchPotato, SabNZBd, Sonarr, Transmission, Plex, wat domotica zooi, misschien zelfs een mailservertje).

Ik vind het persoonlijk (maar dat is absoluut geen aanval op jou, want ik snap jouw standpunt helemaal), geen goed idee om mensen te adviseren om dingen niet te patchen: "Want ze doen het toch gewoon">

Ik heb liever dat iemand netjes patched, en er een keer iets te veel gepatched of 'gesleuteld' wordt, dan dat hij nooit patched, en het is een open relay...

Maar nogmaals, een goed advies hierover is altijd beter, maar niet iedereen snapt de nuance.

Even niets...


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
Iets met dubbele bitflips dacht ik, maar ach jou hierbij betrekken is nooit een slecht idee ;)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op vrijdag 22 mei 2015 @ 10:28:
@tvwes

[...]

Hoewel ik die visie zeker deel, is hier zeggen dat een NAS niet geupdate hoeft te worden (want dat zeg je feitelijk), wel een gevaarlijke.

Ik snap heel goed de nuance bij jou, dat jij onder NAS je core-services verstaat als: Kernel, ZFS, Samba, en misschien NFS ofzo.
Precies hier trek ik de streep. Deze taken kunnen redelijk goed lang mee gaan. Ja er waren wat samba issues de afgelopen jaren die zeker gepatched moesten worden omdat je daar thuis ook last van kon krijgen. Maar ik gebruik geen Samba ... maar de Illumos smb server.
Daarnaast heb je volkomen gelijk dat het niet een strategie is die voor een ieder slim is. Ik zal dit in de toekomst wat minder stellig beweren. Ik weet vrij goed waar ik mee bezig ben en kan deze risico's vrij goed inschatten, maar dat kan lang niet iedereen.


Onder de streep heb je volkomen gelijk maar dat had ik ook al geschreven. Al dit soort applicaties hebben wel onderhoud nodig. Overigens het rijtje wat jij noemt heeft hoofdzakelijk functioneel onderhoud nodig. Het zijn alle services die open aan het internet hangen waar je echt goed moet oppassen en jouw beter wat vaker dan te weinig patchen altijd beter is.
Maar de gemiddelde gebruiker hier, doet vaak wel iets meer met zijn NAS (lees: CouchPotato, SabNZBd, Sonarr, Transmission, Plex, wat domotica zooi, misschien zelfs een mailservertje).

Ik vind het persoonlijk (maar dat is absoluut geen aanval op jou, want ik snap jouw standpunt helemaal), geen goed idee om mensen te adviseren om dingen niet te patchen: "Want ze doen het toch gewoon">

Ik heb liever dat iemand netjes patched, en er een keer iets te veel gepatched of 'gesleuteld' wordt, dan dat hij nooit patched, en het is een open relay...

Maar nogmaals, een goed advies hierover is altijd beter, maar niet iedereen snapt de nuance.
Al deze services horen volkomen los van je NAS te draaien, in een zone/jail of vm mag natuurlijk wel.

Acties:
  • 0 Henk 'm!
tvwes schreef op vrijdag 22 mei 2015 @ 10:55:
[...]
Al deze services horen volkomen los van je NAS te draaien, in een zone/jail of vm mag natuurlijk wel.
Mwoh, dat is jouw mening :) Die applicaties moeten *allemaal* sowieso "Full Control" hebben op 95% van mijn data.

Dan is een jail meer overhead dan dat het voordelen oplevert is mijn mening. Bovendien lost een Zone/Jail/VM het probleem niet op dat als er een bug in die pakketten zit, je je data kwijt kan raken.

(En ze hangen niet ' open ' aan het internet? Ze kunnen bij online API's, maar je hoeft ze toch niet van buitenaf bereikbaar te maken?)

[ Voor 19% gewijzigd door FireDrunk op 22-05-2015 11:22 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 30-09 22:42
tvwes schreef op vrijdag 22 mei 2015 @ 09:46:
[...]

Nog goedkoper dan mijn voorgestelde sharkoon _/-\o_ Hoe kunnen ze voor 30 euro dat maken? De persoonlijke showstopper van deze CA-0210 zijn de aansluitinging aan de bovenkant. Ik wil altijd alles aan de voorzijde. Maar voor onder een buro zeker niet verkeerd.

Pas op met dit soort hotswap bays van DX, je gaat weer een extra set contacten opnemen in de keten. De kwaliteit van de connectors in dit soort bays zijn vaak echt zeer matig. Waardoor je of brand krijgt in je voeding stuk of vage errors omdat je datapath niet lekker is. De ene keer tref je het bij DX de andere keer niet. Maar als je een betrouwbaar systeem wilt zou ik me drie keer afvragen of ik echt wel die hotswap bays nodig heb. Als je het echt nodig hebt zou ik ook een echt chassis kopen.
De meeste mensen hier willen graag een stil systeem dan zijn dit soort hotswap-bays met hun 40mm fans ook niet echt ideaal. Nee doe mij maar vast geschroefd, stille koeling, heel betrouwbaar en goedkoop voor thuis, ipv de luxe van een losse trays.
Als je constant drives aan het wisselen bent voor benchmarks ofzo is het natuurlijk ideaal.
Is het serieus zo ernstig ja? Ik gebruik nu al een paar jaar 2 hot swap bays van DX in mijn huidige server, daar heb ik verder eigenlijk geen problemen mee. Zijn overigens wel SATA-II disks. Misschien is het dan nog slimmer om te kijken naar iets als: pricewatch: Chieftec TLB-3141SAS

Dat is maar een 'fractie' duurder vergeleken met een DX variant zeker vergeleken met de kwaliteit die je er voor terug krijgt. 4x 15 euro vs. 1x 80 euro. Niet moeiijk.. :+

_@/'


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
FireDrunk schreef op vrijdag 22 mei 2015 @ 11:22:
[...]

Mwoh, dat is jouw mening :) Die applicaties moeten *allemaal* sowieso "Full Control" hebben op 95% van mijn data.
Door het te scheiden (opslag los van applicatie) kan de app misschien wel rm -rf of z'n cryptoware payload loslaten op je data maar je NAS is niet beschadigd of geinfecteerd. En omdat wij natuurlijk allemaal snapshots hebben zou je eenvoudig dit ongedaan moeten kunnen maken. Toch?? ;)
Dan is een jail meer overhead dan dat het voordelen oplevert is mijn mening. Bovendien lost een Zone/Jail/VM het probleem niet op dat als er een bug in die pakketten zit, je je data kwijt kan raken.
Misschien wel bij een jail maar echt niet bij een zone. Die overhead is er niet, en de administratieve overhead is al helemaal een flauw argument. Je kan met een paar handelingen een moeder zone aanmaken en met een enkel commando daar clones (losse nieuwe schone zones) van trekken. De performance overhead bij een zone is er simpelweg niet, het draait op in de global net zo snel als in een local zone.
Ja applicaties kunnen alles kapot maken waar ze bij kunnen, inclusief de container zelf. Maar niet meer dan dat. Ze kunnen geen administratieve handelingen verrichten op de onderliggende filesystemen. Zolang je daar snapshots hebt kan je makkelijk recoveren. Dit is algemeen toepasbaar, met ZFS, BtrFS of of dan ook met snapshots.

We scheiden wel allemaal applicaties in heel veel virtual machines. We erkennen de voordelen daarvan. Is er een probleem dan blijft dat probleem beperkt tot die ene vm. Zones, jails en containers zijn precies hetzelfde alleen veel efficienter omdat er geen virtualisatie is. Zolang de opslag van je data gescheiden is je applicatie, je snapshots hebt en de applicatie geen toegang heeft tot de administratieve laag van de NAS zijn de risico's zeer beperkt qua data verlies. Dat als het misgaat je downtime hebt en dat andere applicaties ook hinder hiervan kunnen ondervinden is natuurlijk evident, maar je kan daarna wel redelijk snel recoveren en het probleem isoleren.
(En ze hangen niet ' open ' aan het internet? Ze kunnen bij online API's, maar je hoeft ze toch niet van buitenaf bereikbaar te maken?)
Ik weet niet helemaal wat je bedoeld maar jij noemde als voorbeeld een email server dat is toch open aan het internet?

PS J@Firedrunk, jij mag het gewoon in een lx container doen, het hoeft niet in een zone ;)

Acties:
  • 0 Henk 'm!

  • Harrie
  • Registratie: November 2000
  • Laatst online: 15:12

Harrie

NederVlaming

Compizfox schreef op donderdag 21 mei 2015 @ 22:43:
@ijdod: Al gekeken naar ZFS? Het grote ZFS topic

RAID-Z1 lijkt mij een beter idee dan RAID5, en lost 'de argumenten tegen' (waarvan je zegt dat je ermee bekend bent) op.
Behalve dan dat een RAID-Z1 met 4 disks dan weer wordt afgeraden (performance penalty tov 3 of 5 disks).
Daarom dat ik nu ook slechts 3 disks gebruik in mijn J1900 build.

Men kan natuurlijk opteren om die performance penalty te nemen, en zo wel alle poorten te kunnen gebruiken icm RAID-Z1.
(Ik benader mijn NAS vooral via WIFI, dus had dat best kunnen doen eigenlijk...)

Acties:
  • 0 Henk 'm!
@Harrie, ik heb nog steeds een 4*4TB RAIDZ1 array hoor. Werkt prima.
Het is niet uiltiem snel, maar haalt nog steeds een dikke 200MB/s

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Steephh schreef op vrijdag 22 mei 2015 @ 11:53:
[...]


Is het serieus zo ernstig ja?
Een paar dagen terug las ik, volgens mij hier op tweakers, dat iemand door een probleem met zn backplane zn drives waren kortgesloten. Dat was net zo'n simpele backplane (lees zonder expander of drivers) als in al deze 4 in 3 hotswap cages zitten. Dus het probleem is niet zo heel ongewoon.
Ik gebruik nu al een paar jaar 2 hot swap bays van DX in mijn huidige server, daar heb ik verder eigenlijk geen problemen mee. Zijn overigens wel SATA-II disks. Misschien is het dan nog slimmer om te kijken naar iets als: pricewatch: Chieftec TLB-3141SAS

Dat is maar een 'fractie' duurder vergeleken met een DX variant zeker vergeleken met de kwaliteit die je er voor terug krijgt. 4x 15 euro vs. 1x 80 euro. Niet moeiijk.. :+
Natuurlijk zal het heus werken en misschien is dat ding van Chieftec redelijk. Maar dan gaat het verder, kan ik losse trays bestellen? Ik zag ze niet staan bij chieftec. Zijn er blinde trays die de airflow constant houden?
Alleen voor de hobby of test doeleinden zijn deze dingen hun prijs/prestatie waard, voor mij, maar voor de thuis server ben je denk ik beter af (goedkoper en betrouwbaarder) met vast geschroefde drives en geen backplane. Heb je echt veel drives dan is een backplane wel interresant ivm bijv staggered spinup of fault ledjes of dat je dankzij de expander maar een kabel nodig hebt. En dan kom je aan de onderkant van de markt bij xcase, chenbro en norco terecht.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Harrie schreef op vrijdag 22 mei 2015 @ 12:11:
[...]


Behalve dan dat een RAID-Z1 met 4 disks dan weer wordt afgeraden (performance penalty tov 3 of 5 disks).
Dit is een tijdje terug in het ZFS topic besproken. Alleen in hele specifieke gevallen, oa databases die met 8K blocks werken, geldt dit. In alle andere gevallen maakt, oa door compressie, niets uit. Het enige algemene wat voor een ieder van toepassing is: "maak de stripe niet te breed, geen 12 drives in een vdev plaatsen"
Daarom dat ik nu ook slechts 3 disks gebruik in mijn J1900 build.

Men kan natuurlijk opteren om die performance penalty te nemen, en zo wel alle poorten te kunnen gebruiken icm RAID-Z1.
(Ik benader mijn NAS vooral via WIFI, dus had dat best kunnen doen eigenlijk...)
Zelfs gbit kan je makkelijk volstreamen zoals @Firedrunk al melde. Het gebrek aan performance zit in de random io's.

Acties:
  • 0 Henk 'm!

Verwijderd

tvwes schreef op vrijdag 22 mei 2015 @ 13:21:
Dit is een tijdje terug in het ZFS topic besproken. Alleen in hele specifieke gevallen, oa databases die met 8K blocks werken, geldt dit. In alle andere gevallen maakt, oa door compressie, niets uit.
Voor specifieke situaties heb je gelijk; maar thuisgebruikers schakelen geen gzip in op de hele datastore; ze willen sneller dan 10MB/s kunnen schrijven. LZ4-compressie is natuurlijk geweldig, maar daarbij gaat jouw opmerking niet meer op als ik het goed begrijp. Want LZ4 is zo snel omdat het GEEN compressie toepast op incompressible binaire data. Dus dat betekent dat je wel degelijk ruimte kwijt bent en mogelijk zelfs behoorlijk wat ruimte, getuige deze tabel:

ZFS diskspace efficiency versus sectorsize

Kortom, thuisgebruikers die maximale ruimte willen hebben en vooral grote bestanden opslaan, doen er goed aan om zich te conformeren aan de 'data disk = power of 2' regel, waardoor je dus 3-disk en 5-disk RAID-Z als optimale configuraties hebt en bij een 4-disk RAID-Z moet kiezen tussen performance (4K optimalisatie; ashift=12, dus ruimteverlies) of free space (ashift=9 met dus performancedegradatie tot gevolg). Met de optimale configuraties heb je beide: optimale performance en maximale opslagruimte / minimale slack.
Het enige algemene wat voor een ieder van toepassing is: "maak de stripe niet te breed, geen 12 drives in een vdev plaatsen"
Is nu toch geen groot issue meer? Met large_blocks kun je de recordsize naar 4MiB verhogen bijvoorbeeld waardoor de disks 32K-64K requests doen ipv 4K-8K.

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 01-10 18:24

Pantagruel

Mijn 80486 was snel,....was!

tvwes schreef op vrijdag 22 mei 2015 @ 13:21:
[...]

Dit is een tijdje terug in het ZFS topic besproken. Alleen in hele specifieke gevallen, oa databases die met 8K blocks werken, geldt dit. In alle andere gevallen maakt, oa door compressie, niets uit. Het enige algemene wat voor een ieder van toepassing is: "maak de stripe niet te breed, geen 12 drives in een vdev plaatsen"

[...]

Zelfs gbit kan je makkelijk volstreamen zoals @Firedrunk al melde. Het gebrek aan performance zit in de random io's.
Als je zit te springen om random IO kun je sowieso hard disks beter links laten liggen en voor pool bestaande uit SSD's gaan (of iets a la een Fusion IO-drive in PCIe formaat). Voor t gros van de thuisgebruikers zal de suboptimale disk verdeling en t gebrek aan random IO nauwelijks van invloed zijn om dat zijn doorgaans films/series vanaf de nas zullen lezen/streamen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

Random writes worden door ZFS als sequential writes weggeschreven dus dan blijft over de random reads. En daarbij heeft ZFS de voordelen van een betere VFS cache laag (ARC) en optioneel L2ARC om nog meer random reads te kunnen opvangen.

Voor mirroring doet ZFS overigens uitstekend random reads; beter dan welke mirror engine ik ooit heb gezien; zelfs beter dan geom_mirror met load balancing.

Acties:
  • 0 Henk 'm!
Het is leuk om steeds dat tabelletje met verliezen te posten, maar die gaat tot 34 drives.
Dat is natuurlijk complete bullshit...

In het geval van 3 of vier drives, praat je over een verlies van 1-3%. Who gives a flying **** als je daarmee wel je setup kan maken zoals je hem graag zou willen... En als je LZ4 compressie gebruikt los je ook weer een groot deel van het probleem op...

Q had geloof ik getest wat het effectieve verlies was ipv het theoretische verlies, en dat viel bij een laag aantal drives erg mee.

Pas bij 8+ drives hoef je je daar volgens mij druk over te maken...

ps:

Als iemand een scriptje/methode weet om makkelijk te zien hoeveel percentage verlies het daadwerkelijk oplevert, draai ik dat graag op mijn 4*4TB array.

[ Voor 12% gewijzigd door FireDrunk op 22-05-2015 15:43 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Dan is dat toch een afweging? Een 4-disk RAID-Z is prima als je een beetje ruimte wilt opofferen. Maar in bepaalde configuraties kan het verlies toch flink zijn met 4K optimalisatie. Dat moet een gebruiker weten voordat hij of zij de keuze voor hardware maakt, vind ik.

Acties:
  • 0 Henk 'm!
Dat is prima, maar jij schermt met grafiekjes die een verkeerd beeld geven.. Geef dan gewoon de percentages verlies voor 4 (RAIDZ),5 (RAIDZ2),6(RAIDZ3),7(RAIDZ/RAIDZ2) en 8(RAIDZ3) schijven. Dat is veel betere informatie om te geven dan die gekke grafieken van 34 schijven.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Als jij de tijd hebt om een mooiere grafiek te maken, prima. Maar ik kom structureel tijd te kort. Dus dit is het enige dat ik te bieden heb.

Bovendien, zo erg is het toch niet? De grafiek is niet erg nauwkeurig voor een klein aantal schijven, maar nog steeds kun je als je goed kijkt wel zien dat sommige configuraties meer getroffen worden dan anderen. En dat is denk ik heel waardevol voor de afweging welke hardware.

Ook kun je door het groot aantal schijven goed zien hoe de power-of-two regel werkt; en dat je bij 31 data schijven dus heel veel ruimte verspilt. Zo wordt ook de theorie erachter duidelijk zichtbaar. Dus zo'n slechte grafiek is het ook weer niet.

[ Voor 65% gewijzigd door Verwijderd op 22-05-2015 15:52 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
Deze sheet laat ook van alles zien, geen idee of iemand daar iets aan heeft..

https://docs.google.com/s...1adUO-kAww/htmlview?pli=1

Komt uit deze blog: http://blog.delphix.com/matt/2014/06/06/zfs-stripe-width/

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 30-09 22:42
tvwes schreef op vrijdag 22 mei 2015 @ 13:14:
[...]

Een paar dagen terug las ik, volgens mij hier op tweakers, dat iemand door een probleem met zn backplane zn drives waren kortgesloten. Dat was net zo'n simpele backplane (lees zonder expander of drivers) als in al deze 4 in 3 hotswap cages zitten. Dus het probleem is niet zo heel ongewoon.

[...]

Natuurlijk zal het heus werken en misschien is dat ding van Chieftec redelijk. Maar dan gaat het verder, kan ik losse trays bestellen? Ik zag ze niet staan bij chieftec. Zijn er blinde trays die de airflow constant houden?
Alleen voor de hobby of test doeleinden zijn deze dingen hun prijs/prestatie waard, voor mij, maar voor de thuis server ben je denk ik beter af (goedkoper en betrouwbaarder) met vast geschroefde drives en geen backplane. Heb je echt veel drives dan is een backplane wel interresant ivm bijv staggered spinup of fault ledjes of dat je dankzij de expander maar een kabel nodig hebt. En dan kom je aan de onderkant van de markt bij xcase, chenbro en norco terecht.
Volgens mij hoef je hier geen losse trays in te stoppen, je trekt een schijf er zo uit en stopt een andere er weer rechtstreeks in. Belangrijkste voordeel vind ik wel dat je een schijf gemakkelijk kan vervangen, het is bijzonder vervelend als je de halve kast moet demonteren om een schijf te vervangen. :P

_@/'


Acties:
  • 0 Henk 'm!
Ach, ik heb een fractal define xl. Dat ding is mega lomp, niet echt verplaatsbaar en toch kan ik in minder dan een minuut een disk vervangen... (Inc afsluiten van server ).

Als je je kabels netjes op orde hebt is het ook weer niet zó veel werk...

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Verwijderd schreef op vrijdag 22 mei 2015 @ 13:42:
[...]

Voor specifieke situaties heb je gelijk; maar thuisgebruikers schakelen geen gzip in op de hele datastore; ze willen sneller dan 10MB/s kunnen schrijven. LZ4-compressie is natuurlijk geweldig, maar daarbij gaat jouw opmerking niet meer op als ik het goed begrijp. .
FireDrunk schreef op vrijdag 22 mei 2015 @ 15:40:
Het is leuk om steeds dat tabelletje met verliezen te posten, maar die gaat tot 34 drives.
Dat is natuurlijk complete bullshit...
Heren .. heren!!!

De grootste oorzaak van deze discussie is dat er geen definitie is van "de thuisgebruiker" of "de"tweaker" Ik heb het al talloze malen geschreven: je moet kijken naar de dataset. Prima als jullie dat willen leggen bij 50 blurays of wat dan ook. Maar zolang we niet overeenstemming bereiken over de dataset(s) heeft iedereen net zoveel gelijk als ongelijk. Behalve dat we het denk ik allemaal het eens zijn dat een UltraStripe TM geen goed idee is.

Wie zegt dat we allemaal 4K drives gebruiken? Wie zegt dat we allemaal incompressible data hebben? Er zijn vanavond weer de nodige aannames gedaan. Willen we deze spriraal doorbreken is het handig om profielen vast te leggen. Alleen dan kan je echt zinnige uitspraken doen nu heeft iedereen gelijk of ongelijk. Er zijn te veel vrijheidsgraden op dit moment. Ik wil best wat zaken meten en/of berekenen maar niet als direct per kerende post iemand het weer beter weet omdat zijn dataset of eisen de norm plots zijn en mij tot imbeciel verklaard. Terwijl ik een net zo valide dataset had. Het enige wat op voorhand bij mij niet een valide situatie is zijn stripes van 34 drives breed. Voor de rest mag iedereen het zeggen.

Tot slot denk ik dat deze discussie hier niet thuis hoort maar in het ZFS topic.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Steephh schreef op vrijdag 22 mei 2015 @ 01:45:
@Compizfox:

Wat ik zelf ga doen is de pricewatch: MS-Tech CA-0210 Rev. B volduwen met goedkope hot swap bays van DX ofzo.. :P
Dat is inderdaad een idee. Ik kan op dx.com echter alleen bays zitten die één 5.25" bay innemen en waar maar een enkele 3.5" HDD inpast. Dat schiet natuurlijk niet erg op, moet je een heleboel van die bays à €15 per stuk kopen :P
Steephh schreef op vrijdag 22 mei 2015 @ 11:53:
[...]


Is het serieus zo ernstig ja? Ik gebruik nu al een paar jaar 2 hot swap bays van DX in mijn huidige server, daar heb ik verder eigenlijk geen problemen mee. Zijn overigens wel SATA-II disks. Misschien is het dan nog slimmer om te kijken naar iets als: pricewatch: Chieftec TLB-3141SAS

Dat is maar een 'fractie' duurder vergeleken met een DX variant zeker vergeleken met de kwaliteit die je er voor terug krijgt. 4x 15 euro vs. 1x 80 euro. Niet moeiijk.. :+
Hmm, dit is eigenlijk precies wat ik zoek! Alleen nog net iets te duur eigenlijk...

Deze neemt 2 5.25" bays in beslag en biedt ruimte voor 3 3.5" HDDs: pricewatch: Startech.com Verwijderbare 3-drive backplane

Deze idem, maar is goedkoper: pricewatch: Icy Box IB-543SSK

En deze: pricewatch: Icy Dock FatCage MB153SP-B

Deze is weer 4-in-3: pricewatch: Icy Dock Black Vortex MB074SP-1B 3.5” SATA HDD 4 in 3 Hot-Swap Module Cooler Cage

Kijk eens, hier kan ik wel wat mee :)
Steephh schreef op vrijdag 22 mei 2015 @ 17:32:
[...]


Volgens mij hoef je hier geen losse trays in te stoppen, je trekt een schijf er zo uit en stopt een andere er weer rechtstreeks in. Belangrijkste voordeel vind ik wel dat je een schijf gemakkelijk kan vervangen, het is bijzonder vervelend als je de halve kast moet demonteren om een schijf te vervangen. :P
(emphasis mine)

Ja, dit is precies het probleem waar ik nu mee zit. Misschien dat een hotswap-bay (of een kast met hotswap-bays) iets te veel van het goede is (ivm met de prijs van die dingen), maar weet iemand misschien een compromis?

Eén of andere goede kast (liefst rackmountable natuurlijk) die dan wel geen hotswap-bays heeft met een backplane e.d. maar waarbij de HDDs wel uitermate makkelijk toegankelijk zijn?

[ Voor 39% gewijzigd door Compizfox op 23-05-2015 01:29 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!
http://www.addonics.com/products/ad10sa6gpx2.php

Afbeeldingslocatie: http://www.addonics.com/products/diagrams/ad10sa6px2-diagram.jpg
This 6G SATA controller is an economical solution for adding more SATA ports to any system via a PCIe slot. Comes with 10 SATA ports with a total data throughput up to 6 Gbps when installed into a PCIe 2-lane slot, the controller supports any SATA hard drive, SSDs or optical drive. All drives appears as individual drive and they can be configured to form a RAID group using the RAID utility of the OS. Designed to work with all modern OS that comes with AHCI support, the controller is fully plug and play with no software driver to install.
Met andere woorden: Puur AHCI :D

Volgens mij heeft er iemand geluisterd naar onze cries voor een goedkope 8+ poort AHCI controller :)

Even niets...


Acties:
  • 0 Henk 'm!

  • lordfragger
  • Registratie: Juni 2007
  • Laatst online: 14:34
FireDrunk schreef op zaterdag 23 mei 2015 @ 09:18:
http://www.addonics.com/products/ad10sa6gpx2.php

[afbeelding]

[...]


Met andere woorden: Puur AHCI :D

Volgens mij heeft er iemand geluisterd naar onze cries voor een goedkope 8+ poort AHCI controller :)
Voor degenen die deze willen aanschaffen:
http://www.webconnexxion....l?filter_name=AD10SA6GPX2

Kom toch weer wat goedkoper uit dan een m1015 :)

Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 18:13
FireDrunk schreef op zaterdag 23 mei 2015 @ 09:18:
Met andere woorden: Puur AHCI :D Volgens mij heeft er iemand geluisterd naar onze cries voor een goedkope 8+ poort AHCI controller :)
Aan de PCB te zien is dit gewoon een simpele 2-kanaals PCIe SATA controller met twee 1 -> 5 SATA portmultipliers erachter, mogelijk een Marvell 88SE92xx + 2 x 88SM9705/9715.

Acties:
  • 0 Henk 'm!
Zolang ze puur AHCI zijn, vind ik het best :)

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 14:39
FireDrunk schreef op zaterdag 23 mei 2015 @ 10:37:
Zolang ze puur AHCI zijn, vind ik het best :)
Houd er wel rekening mee dat je beperkt wordt door de PCIe 1x bus, dus zolang alles alleen maar netwerk belasting is zou het geen probleem moeten zijn, maar ik verwacht dat de HDDs die aan deze controller hangen niet veel sneller of zelfs langzamer zullen zijn dan een enkele HDD.

Maar op zich hoeft dat voor vele totaal geen probleem te zijn, en 10 euro per poort is een lekker scherpe prijs.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!
Ding is toch x2? Dat is 1GB/s volgens mij... Moet genoeg zijn toch?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Ik zie twee chips; dus ik denk één keer 6-poort op PCIe 2.0 x1 en één keer 4-poort op PCIe 2.0 x1. Dus niet 2-lanes gedeeld door 10 poorten. Maar nog steeds aardig. Alleen veel te duur... die mini-chipjes kosten 40 cent...

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Cipher, kan jij uitleggen hoe twee pcie endpoints (in dit geval de sata controllers) zonder extra glue een pcie slot kunnen delen? Ik weet niet zoveel van pcie af.
Dit is hoe het volgens mij werkt: het root complex enumerate alle bus en device nummer tuples voor device functie 0. Voor ieder gevonden device wordt dan de vendor en device id uitgelezen. Maar enumeratie vind niet plaats per lane. Ook is pcie geen bus maar point to point. Ik zie niet helemaal hoe dit kaartje kan werken. Ja je kan een slot splitsen maar volgens mij kan je niet zomaar het ene endpoint op lane0 zetten en het andere op lane1. Maar misschien ook wel. Een documentje met uitleg van de pcisig wordt enorm gewaardeerd.

Acties:
  • 0 Henk 'm!

Verwijderd

Je kunt een 16-lane PCIe slot ook opdelen in 16 losse PCIe slots en daar 16 kaarten in doen. In de praktijk bestaat bijvoorbeeld een PCIe x8 kaart die met externe kabel een externe behuizing met daarin 8x PCIe x1 kan aansluiten.

Dus wat zou het probleem zijn?

Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 17:07

Ravefiend

Carpe diem!

Verwijderd schreef op zaterdag 23 mei 2015 @ 13:30:
Ik zie twee chips; dus ik denk één keer 6-poort op PCIe 2.0 x1 en één keer 4-poort op PCIe 2.0 x1. Dus niet 2-lanes gedeeld door 10 poorten. Maar nog steeds aardig. Alleen veel te duur... die mini-chipjes kosten 40 cent...
T'is een beetje tricky maar zitten 3 chips op, waarvan ééntje onder het QA stickertje dus de middelste chip is een PCIe controller chip

Afbeeldingslocatie: http://www.addonics.com/products/images/AD10SA6GPX2.png

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Cipher, Dat is niet echt de verdieping die ik zocht. Ik weet dat er tal van oplossingen bestaan. En switch gebaseerde oplossingen kan ik prima volgen. Wat ik wil weten is of de enumeratie per lane plaats vind of per slot. Is het per lane dan zal je inderdaad meerdere devices ieder aan een eigen lane kunnen hangen.

Acties:
  • 0 Henk 'm!
Verwijderd schreef op zaterdag 23 mei 2015 @ 15:13:
Je kunt een 16-lane PCIe slot ook opdelen in 16 losse PCIe slots en daar 16 kaarten in doen. In de praktijk bestaat bijvoorbeeld een PCIe x8 kaart die met externe kabel een externe behuizing met daarin 8x PCIe x1 kan aansluiten.

Dus wat zou het probleem zijn?
Waar heb je die wijsheid vandaan? Volgens mij kan dat helemaal niet (zonder multiplexer / switch ofzo) hoor... Zie daar graag een bron van.

[ Voor 3% gewijzigd door FireDrunk op 23-05-2015 15:33 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Ravefiend, goed gespot. Dat maakt de hypothese van @Nielson een stuk waarschijnlijker.
Alles kan maar twee losse controllers en dan een met 6 poorten en een met 4 poorten vond ik een hele rare constructie. Er is plaats genoeg om twee keer zes poorten te plaatsen (als je uitgaat van losse controllers) Los van mijn bedenking of je uberhaubt twee losse devices zo op een kaartje kan solderen.

Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 17:07

Ravefiend

Carpe diem!

Nielson schreef op zaterdag 23 mei 2015 @ 10:06:
[...]
Aan de PCB te zien is dit gewoon een simpele 2-kanaals PCIe SATA controller met twee 1 -> 5 SATA portmultipliers erachter, mogelijk een Marvell 88SE92xx + 2 x 88SM9705/9715.
Dan kan je ook zien als je kijkt naar de middelste van de 5 SATA connectors. Die heeft lijntjes lopen zowel naar de linkse als de rechtste chip, en de middelste is de PCIe switch.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 14:39
Ravefiend schreef op zaterdag 23 mei 2015 @ 15:20:
T'is een beetje tricky maar zitten 3 chips op, waarvan ééntje onder het QA stickertje dus de middelste chip is een PCIe controller chip
Persoonlijk zou ik liever 16 euro per poort uit voor een IBM kaartje dan de 10 euro met dit kaartje.

Want dit is als ik het goed zie een 2 poort controller met twee 5 poort PMs.

Ik zou alleen dit kaartje gebruiken als je echt op een budget zit, en snelheid niet echt belangrijk is.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Ravefiend schreef op zaterdag 23 mei 2015 @ 15:33:
[...]
Dan kan je ook zien als je kijkt naar de middelste van de 5 SATA connectors. Die heeft lijntjes lopen zowel naar de linkse als de rechtste chip, en de middelste is de PCIe switch.
Nu heb ik slechts een heel klein plaatje van dit bordje waar ik geen traces op kan zien.
Maar ik kan me bijna niet voorstellen dat er een pcie switch op zit. Dan zou er na de pcie switch twee 5 poorts sata controllers moeten zitten. En die zijn best zeldzaam... En als de sata controller meer poorten had waarom dan deze niet gebruiken?
Nee de hypothese van @Nielson is het meest waarschijnlijke. Een dual channel sata controller en 2 5 poorts multipliers.

Acties:
  • 0 Henk 'm!
Heb een mailtje gestuurd naar Addonics met een aantal vragen over het design.
We shall see.

Even niets...


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
player-x schreef op zaterdag 23 mei 2015 @ 15:35:
[...]

Persoonlijk zou ik liever 16 euro per poort uit voor een IBM kaartje dan de 10 euro met dit kaartje.

Want dit is als ik het goed zie een 2 poort controller met twee 5 poort PMs.

Ik zou alleen dit kaartje gebruiken als je echt op een budget zit, en snelheid niet echt belangrijk is.
De prijs is inderdaad volkomen over the top. De performance zal matig zijn, maar voldoende voor gbit. Toch kan het interessant zijn voor diegene die een zuinige NAS willen. Zo'n kaartje verbruikt minder dan drie watt (als het de marvell's zijn) Dat is een stuk minder dan een LSI 8-14 watt en evt nog een expander chip. Ik zit er hard over te denken om er eentje te bestellen puur om een gefundeerde mening te geven.

Acties:
  • 0 Henk 'm!

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 17:07

Ravefiend

Carpe diem!

tvwes schreef op zaterdag 23 mei 2015 @ 15:39:
[...]
Nu heb ik slechts een heel klein plaatje van dit bordje waar ik geen traces op kan zien.
Je kan altijd een beetje inzoomen op die plaatjes. :+
tvwes schreef op zaterdag 23 mei 2015 @ 15:39:
[...]
Maar ik kan me bijna niet voorstellen dat er een pcie switch op zit. Dan zou er na de pcie switch twee 5 poorts sata controllers moeten zitten. En die zijn best zeldzaam... En als de sata controller meer poorten had waarom dan deze niet gebruiken?
Nee de hypothese van @Nielson is het meest waarschijnlijke. Een dual channel sata controller en 2 5 poorts multipliers.
PCIe switches zie je inderdaad meer op moederborden dus meer aannemelijk een PCIe to SATA 6Gb/s zoals de vermelde Marvell 88SE9220/9230/9235. Die hebben Port Multiplier Support.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

De vraag is: werkt dat ding zelfstandig, zonder de onboard HBA?

Dat namelijk bij de ASM1061 niet het geval: als je de onboard HBA uitschakelt in de BIOS, doet dat kaartje niks meer. En dat betekent ook dat je dit kaartje niet kunt gebruiken voor je datastores in ESXi als je je onboard HBA door wilt geven aan een VM.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Compizfox schreef op zaterdag 23 mei 2015 @ 16:17:
De vraag is: werkt dat ding zelfstandig, zonder de onboard HBA?

Dat namelijk bij de ASM1061 niet het geval: als je de onboard HBA uitschakelt in de BIOS, doet dat kaartje niks meer. En dat betekent ook dat je dit kaartje niet kunt gebruiken voor je datastores in ESXi als je je onboard HBA door wilt geven aan een VM.
De asmedia 1061 is, volgens mij, een losse pcie sata controller. De chip wordt onboard en op losse kaartjes geplaatst. Ik zie geen enkele afhankelijkheid van de sata controller van de chipset. Het enige wat ik me kan voorstellen is dat je bedoeld dat een onboard 1061 ook wordt uitgezet als je de chipset sata controller uitzet. Maar dat is puur een bios kwestie lijkt mij.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17:31
volgens mij bevat het ding twee port multipliers en dan is het een redelijk dure oplossing. Op ebay koop je voor €10 een PCIe naar 2x SATA controller en voor €25 een 5 port multiplier. Daarbij is Addonics geen topmerk.
Backblaze is van vergelijkbaar design overgestapt naar een Highpoint zie https://www.backblaze.com/blog/backblaze-storage-pod-4/ en de eerste reden die ze daarvoor opgeven is dat de port multipliers het minst betrouwbare onderdeel van de setup waren.

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
Maar wat je nu dus zoekt is de combinatie van beide: betaalbare, betrouwbare multipliers voor een paar extra poorten. Om nu meteen een multiplier voor 40 schijven te nemen is wat extreem.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17:31
die bestaan in mijn ogen al lang en dat zijn SAS expanders. De Intel versies met 20 poorten kun je voor weinig kopen en in combinatie met een IBM SAS controller ben je dan denk ik voor €200 klaar. Volgens mij heeft jacovn zo'n setup.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Dadona schreef op zaterdag 23 mei 2015 @ 16:53:
Maar wat je nu dus zoekt is de combinatie van beide: betaalbare, betrouwbare multipliers voor een paar extra poorten. Om nu meteen een multiplier voor 40 schijven te nemen is wat extreem.
Toch is de keuze voor deze rocket 750 een beetje strijdig met Backblaze's eigen argumentatie om te stoppen met de portmultipliers. De rocket 750 is een 8 channel sata? controller met 8 marvell 88SM9715 port multipliers.
Ik denk dat je zo'n addonics kaartje moet kopen en dan eens even flink stress testen.

[ Voor 57% gewijzigd door tvwes op 23-05-2015 17:15 ]


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

tvwes schreef op zaterdag 23 mei 2015 @ 16:23:
[...]

De asmedia 1061 is, volgens mij, een losse pcie sata controller. De chip wordt onboard en op losse kaartjes geplaatst. Ik zie geen enkele afhankelijkheid van de sata controller van de chipset.
Dat weet ik, maar toch is het zo. Het is aan het licht gekomen doordat ik (en een aantal anderen) de ASM1061 als HBA voor de ESXi datastores probeerden te gebruiken, terwijl de onboard HBA via PCI-e passthrough wordt doorgegeven.

We kwamen allemaal op hetzelfde probleem uit: als je dat probeert, functioneert de ASM1061 niet meer. Dat is natuurlijk erg vreemd dus ik heb het toen wat uitgebreider getest, en wat blijkt: Het is geen probleem met ESXi, want zelfs als je de onboard HBA uitzet in je BIOS, stopt het ASM1061-kaartje met werken.
Het enige wat ik me kan voorstellen is dat je bedoeld dat een onboard 1061 ook wordt uitgezet als je de chipset sata controller uitzet. Maar dat is puur een bios kwestie lijkt mij.
Nee, het gaat hier om een ASM1061 op een los PCI-e-kaartje, niet om de onboard variant. (het probleem treedt trouwens net zo goed op met de onboard variant, maar dat terzijde)

Waar het aan ligt, geen idee. Kijk anders hier eens: https://gathering.tweaker...[filter_keywords]=asm1061 Ik (en anderen) hebben er genoeg over gepost.

[ Voor 24% gewijzigd door Compizfox op 23-05-2015 17:14 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
BartNL schreef op zaterdag 23 mei 2015 @ 16:59:
die bestaan in mijn ogen al lang en dat zijn SAS expanders. De Intel versies met 20 poorten kun je voor weinig kopen en in combinatie met een IBM SAS controller ben je dan denk ik voor €200 klaar. Volgens mij heeft jacovn zo'n setup.
Dat is toch iets anders als het accepteren van een SATA poort en er vier poorten van maken.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 17:31
Addonics kaartje en Highpoint zijn pcie nar sata maar goed is maar net wat je zoekt.

Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Compizfox schreef op zaterdag 23 mei 2015 @ 17:13:
Nee, het gaat hier om een ASM1061 op een los PCI-e-kaartje, niet om de onboard variant. (het probleem treedt trouwens net zo goed op met de onboard variant, maar dat terzijde)

Waar het aan ligt, geen idee. Kijk anders hier eens: https://gathering.tweaker...[filter_keywords]=asm1061 Ik (en anderen) hebben er genoeg over gepost.
Dat is een raar probleem. Is dit ook op een intel chipset getest?

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Dat weet ik niet uit m'n hoofd, daar zou je dat topic even voor moeten doorspitten ;) Ik heb het zelf alleen getest op een AMD 970.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
Helaas dat zit er niet in.

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 01-10 18:52

Compizfox

Bait for wenchmarks

Hier een report van Pantagruel: https://gathering.tweaker...message/39762212#39762212

Het gaat hier om de B75 Pro3-M en de onboard ASM1061.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@Compizfox, dank je voor het opzoeken. Maar ik ga geen tijd aan asmedia besteden. Dat is echt volledig niet mijn gebied.

Acties:
  • 0 Henk 'm!

  • HyperH
  • Registratie: Mei 2015
  • Laatst online: 06-01 15:22
Oeps ... verkeerde topic.

Sorry ik kan deze reactie niet verwijderen.

[ Voor 149% gewijzigd door HyperH op 24-05-2015 01:37 ]


Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 29-09 22:09
BartNL schreef op zaterdag 23 mei 2015 @ 16:59:
die bestaan in mijn ogen al lang en dat zijn SAS expanders. De Intel versies met 20 poorten kun je voor weinig kopen en in combinatie met een IBM SAS controller ben je dan denk ik voor €200 klaar. Volgens mij heeft jacovn zo'n setup.
Niet in gebruik. Zfs send en receive was snel genoeg achteraf. Ik zit nog te wachten op het verhaal van tvwes over expanders :)

Ik zou in elke nas een expander kunnen hangen i.p.v. de 2e M1015 en dan daar 16 hdds op draaien, en 4 op de 1e m1015. Of alle 20 op de expander.

Maar .. het draait nu ook goed, alleen heb ik geen interface vrij voor de dvd rom drive in de kast.

Andere gedachte is de l2arc ssd er maar uit te halen. Ik speel af en toe een film af, dus ik schat in dat de toepassing van de l2 arc minder zinvol is. Alleen voor de yadis index zie ik hem werken. Dat is een ongeveer 8 GB index van de films met wat bitmaps. Als ik door de index ga moet content voor volgend scherm van hdd geladen worden. Scroll ik daarna terug is het er direct, dus ik neem aan uit l2arc.
Aangezien ik de index naar de afspeler aan het migreren ben heeft het niet zo veel zin meer.

[ Voor 5% gewijzigd door jacovn op 04-12-2015 13:25 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
Weet iemand hier een oplossing voor een vraag die ik hier al eerder had gesteld maar niemand echt iets op wist. Hopelijk nu beter.

Maar dus couchpotatoe haalt niet alles binnen voor plex en dan download ik het soms manueel en zet ik het over naar mijn folder van freenas voor films, genaamd B/movies, en die folder is dan weer gelinked aan zo een andere folder dat plex iets mee kan doen. Maar telkens als ik een film naar daar kopier via filezilla met root login gaat hij wel in die map staan maar komt hij toch niet bij plex staan. Ik heb natuurlijk al manual refresh gedaan en er staat bij mij om het uur dat er wordt gecheckt of er nieuwe bestanden in mijn bibliotheek moeten staan.

Weet iemand hier dus een oplossing voor, om de films die wel in de folder voor films staan maar daar manueel zijn gezet toch zichtbaar te krijgen op plex?

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 16:41
@thibautb:

Dit gaat natuurlijk behoorlijk offtopic. Je kan beter dit soort vragen in het [Ervaringen] Plex Media Server - Deel II topic vragen.

Om je toch een klein beetje in de juiste richting te sturen:

Heb je bij instellingen wel aangevinkt dat je bibliotheek automatisch moet updaten? "Je bibliotheek zal automatisch worden geüpdate wanneer veranderingen in je mappen worden gedetecteerd."

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
thibautb schreef op zondag 24 mei 2015 @ 12:42:
Weet iemand hier een oplossing voor een vraag die ik hier al eerder had gesteld maar niemand echt iets op wist. Hopelijk nu beter.
Helemaal offtopic inderdaad en wat heb je gedaan met onze 2 geopperde oplossingen/vragen van Harrie en mij?

[ Voor 26% gewijzigd door A1AD op 24-05-2015 13:50 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • thibautb
  • Registratie: Juni 2014
  • Laatst online: 15-07-2024
A1AD schreef op zondag 24 mei 2015 @ 13:50:
[...]

Helemaal offtopic inderdaad en wat heb je gedaan met onze 2 geopperde oplossingen/vragen van Harrie en mij?
Aan samba shares was ik niet begonnen maar ik had wel mijn instellingen verandert naar automatisch detecteren en ook eens om het uur refreshen maar beide deden niets.

Maar ik heb het nu bij plex topic gezet. Het leek me eerder hier te moeten staan omdat het vooral aan de kant van freenas lag en niet echt aan plex.

[ Voor 16% gewijzigd door thibautb op 24-05-2015 13:58 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 24-09 12:01
thibautb schreef op zondag 24 mei 2015 @ 13:56:
[...]

Aan samba shares was ik niet begonnen maar ik had wel mijn instellingen verandert naar automatisch detecteren en ook eens om het uur refreshen maar beide deden niets.
Je plaatst de bestanden er met de root user, plex heeft wellicht geen rechten om bestanden van root te lezen. Verander de overgezette bestanden eens van eigenaar of doe een chmod 777 als test. En als je dan toch aan het veranderen bent, verander dan inneens van topic aub :+

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • tvwes
  • Registratie: Augustus 2013
  • Laatst online: 06-04-2022
@jacovn, als ik terug ben kijken we even naar (L2)ARC en andere zaken.

[ Voor 5% gewijzigd door tvwes op 24-05-2015 14:16 ]


Acties:
  • 0 Henk 'm!

  • Lisadr
  • Registratie: Oktober 2007
  • Laatst online: 01-10 23:37
Na jarenlang een Synology DiskStation 210J te hebben gehad met slechts 800Mhz single-core en 128MB ram, merk ik dat alles te traag begint te worden.

Als ik kijk naar een NAS die weer 5 jaar vooruit kan, zoals een Synology DiskStation 215+ dan is de verwachte prijs ervan 300 euro, exclusief HDD.

Als ik het zelf samenstel en opensource software gebruik ben ik veel minder kwijt.
Mis ik iets of is het werkelijk een stuk goedkoper om een eigen NAS samen te stellen?

#ProductPrijsSubtotaal
1ASRock C70M1€ 46,50€ 46,50
1Cooler Master Elite 110€ 34,95€ 34,95
1Cooler Master NA 90€ 26,95€ 26,95
1Crucial CT51264BA160BJ€ 24,95€ 24,95
1Startech.com 2 Port SATA 6 Gbps PCI Express SATA Controller Card€ 33,68€ 33,68
Bekijk collectie
Importeer producten
Totaal€ 167,03

[ Voor 8% gewijzigd door Lisadr op 24-05-2015 22:30 ]

GoT, You have to love it!

Pagina: 1 ... 181 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.