Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
Verwijderd schreef op maandag 23 december 2013 @ 20:16:
[...]
Maar altijd dat Realtek bashen en bij voorbaat er al Intel NIC in stoppen vind ik persoonlijk erg overdreven. Voor een dure zakelijke server wellicht, maar daar zit je automatisch al bij Intel NICs met SuperMicro bordjes e.d. Voor Thuis NAS is Realtek voor 90% van de mensen een prima keuze.
Zeker, thuis ook "gewoon" op Realtek/Atheros/Marvell. Probeer het gewoon, je kan er altijd nog een andere NIC instoppen :)

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
_Arthur schreef op maandag 23 december 2013 @ 20:13:
[...]

Welk OS/Hypervisor ga je gebruiken?
Ik nijg naar FreeNAS omdat ik, zodra ik mijn nieuwe schijven heb wil overstappen naar een ZFS omgeving.

Zorgt de Teaming function van de Dual i210 Gigabit LAN poorten niet voor een automatische link aggregation? Wat heb ik daar verder nog voor nodig? (Is een LACP router/switch voldoende? Zo ja, kunnen jullie mij er eentje aanraden?)

Het is trouwens niet mijn doel om een ander systeem met dual gigabit te bouwen om hoge top snelheden te halen. Het is vooral belangrijk om een stabiele, hoge snelheid houden als 2/3 mensen tegelijk met de nas aan het schrijven/lezen zijn.

[ Voor 27% gewijzigd door TrsvK op 23-12-2013 20:39 ]


Acties:
  • 0 Henk 'm!

  • Kompaan
  • Registratie: Juni 2009
  • Laatst online: 02-12-2022
TrsvK schreef op maandag 23 december 2013 @ 20:25:
[...]


Ik nijg naar FreeNAS omdat ik, zodra ik mijn nieuwe schijven heb wil overstappen naar een ZFS omgeving.
Kijk ook naar Nas4Free (de "echte" opvolger van freenas) en natuurlijk ZFSGuru
Zorgt de Teaming function van de Dual i210 Gigabit LAN poorten niet voor een automatische link aggregation? Wat heb ik daar verder nog voor nodig? (Is een LACP router/switch voldoende? Zo ja, kunnen jullie mij er eentje aanraden?)
LACP switch is wel aan te raden, maar ook, vanuit mijn netgear repetoir een van onze smart switches?

GS108Tv2 of groter als dat nodig is?

Maar misschien moet je eerst eens vertellen waar je het voor wilt gebuiken, mischien is iSCSI MPIO/MCS een beter idee?

Acties:
  • 0 Henk 'm!

  • TrsvK
  • Registratie: September 2006
  • Laatst online: 16-09 16:46
Het gaat om een thuisserver waarbij het hoofddoel een veilige opslag van persoonlijke data is (foto's video's) Daarnaast zal hij sabnzbd/couchpotato/sickbeard/headphones draaien en op mijn htpc worden aangesloten zodat ik er filmpjes vanaf kan kijken en muziek vanaf kunnen streamen. De dual gigabit is dus niet nodig om hogere doorvoersnelheden te verkrijgen (mijn laptops hebben "slechts" 1 gigabit poort. Wel is een stabiele snelle verbinding erg prettig.

[ Voor 6% gewijzigd door TrsvK op 23-12-2013 20:51 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De zelfgebouwde FreeNas server loopt nog steeds niet lekker. SMB viel een beetje tegen qua schrijf en leessnelheid over het netwerk. De netwerksnelheden waren met 100+ megabyte per seconde echter prima toen ik met FTP heb getest. Dit was echter vanaf een linux machine.

Nu hebben de windows computers echter snelheidsproblemen. We gebruikten SMB om bestanden van de windows computer naar de NAS te kopiëren. Op zich ging het prima, want met 40 tot 60 megabyte per seconde leek dit prima te gaan. Na het kopiëren is de netwerkshare echter ontzettend traag. Hij reageert héél langzaam en elke handeling duurt lang, waardoor je soms niet weet of hij iets doet of niet en het risico loopt een verkeerde handeling te doen.
Een directory omhoog of een andere directory in duurt lang. Een bestand selecteren duurt heel lang voordat dit daadwerkelijk gebeurd, etc. Ik begrijp niet wat het probleem is. De windows computer is eigenlijk aan het idelen en op de lokale schijf gaat alles wel lekker vlot.
De server wordt echter ook bijna niet belast! Je ziet dat de processor bijna niets doet en er is ook nog voldoende RAM geheugen beschikbaar.

Na een tijd wachten, misschien 10 minuten ofzo, dan wordt de share wel weer vlotter toegankelijk en responsiever. Dit vond ik echter zeer irritant, dus dacht ik ook in windows maar ftp te gebruiken, maar dat was nog veel erger!
Hij moet heel lang processen voordat hij uberhaupt een bestand naar de nas upload en het kopieer proces gaat tergend langzaam.

Heeft iemand een idee wat er aan de hand kan zijn? In de log files zie ik geen foutmeldingen.
Het rare is dat kopiëren naar een SMB share vanaf een linux machine langzamer is dan wanneer FTP wordt gebruikt.
Vanuit windwows is het mogelijk om redelijk vlot data naar een SMB share te schrijven. Na het schrijven is de share echter ontzettend sloom met alles, alsof het bestandssysteem door een ander proces maximaal wordt belast o.i.d. met enorme delays tot gevolg op de windows client.
FTP gebruiken vanaf een windowsmachine werkte echter ook niet, omdat de gehaalde netwerksnelheid bedroevend laag was. :-(

Ik weet het eventjes niet meer. Heeft iemand tips?

Acties:
  • 0 Henk 'm!

  • Shuffle7
  • Registratie: Januari 2008
  • Laatst online: 26-07-2021
Vandaag druk doende om mijn NASje aan de praat te krijgen, alles werkt nu redelijk goed, op de aller-aller-aller laatste stap na; het flashen van een IBM m1015 raid controller naar LSI9211-8i in IT mode.
ik blijf halverwege steken op de beruchte; 'Failed to initialize PAL' melding. De oplossing is of booten in UEFI mode wat mijn mobo niet ondersteunt of een ander mobo gebruiken om te flashen.Dit heb ik ook niet bij de hand en familie en vrienden zijn de afgelopen jaren allemaal overgestapt op een ipad/laptop, dus een actueel mobo met een 8x PCI-e is eigenlijk nergens meer te bekennen.

Iemand in de regio Eindhoven die me uit de brand wil helpen met flashen?
tnx!

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
Verwijderd schreef op vrijdag 27 december 2013 @ 14:58:
De zelfgebouwde FreeNas server loopt nog steeds niet lekker. SMB viel een beetje tegen qua schrijf en leessnelheid over het netwerk. De netwerksnelheden waren met 100+ megabyte per seconde echter prima toen ik met FTP heb getest. Dit was echter vanaf een linux machine.

Nu hebben de windows computers echter snelheidsproblemen. We gebruikten SMB om bestanden van de windows computer naar de NAS te kopiëren. Op zich ging het prima, want met 40 tot 60 megabyte per seconde leek dit prima te gaan. Na het kopiëren is de netwerkshare echter ontzettend traag. Hij reageert héél langzaam en elke handeling duurt lang, waardoor je soms niet weet of hij iets doet of niet en het risico loopt een verkeerde handeling te doen.
Een directory omhoog of een andere directory in duurt lang. Een bestand selecteren duurt heel lang voordat dit daadwerkelijk gebeurd, etc. Ik begrijp niet wat het probleem is. De windows computer is eigenlijk aan het idelen en op de lokale schijf gaat alles wel lekker vlot.
De server wordt echter ook bijna niet belast! Je ziet dat de processor bijna niets doet en er is ook nog voldoende RAM geheugen beschikbaar.

Na een tijd wachten, misschien 10 minuten ofzo, dan wordt de share wel weer vlotter toegankelijk en responsiever. Dit vond ik echter zeer irritant, dus dacht ik ook in windows maar ftp te gebruiken, maar dat was nog veel erger!
Hij moet heel lang processen voordat hij uberhaupt een bestand naar de nas upload en het kopieer proces gaat tergend langzaam.

Heeft iemand een idee wat er aan de hand kan zijn? In de log files zie ik geen foutmeldingen.
Het rare is dat kopiëren naar een SMB share vanaf een linux machine langzamer is dan wanneer FTP wordt gebruikt.
Vanuit windwows is het mogelijk om redelijk vlot data naar een SMB share te schrijven. Na het schrijven is de share echter ontzettend sloom met alles, alsof het bestandssysteem door een ander proces maximaal wordt belast o.i.d. met enorme delays tot gevolg op de windows client.
FTP gebruiken vanaf een windowsmachine werkte echter ook niet, omdat de gehaalde netwerksnelheid bedroevend laag was. :-(

Ik weet het eventjes niet meer. Heeft iemand tips?
indexatie van de windows pc? (gokje)
Overigens heb je niet verteld welke raid configuratie je draait of welke specificaties je NAS heeft.

Acties:
  • 0 Henk 'm!

Verwijderd

EnerQi schreef op vrijdag 27 december 2013 @ 17:21:
[...]
indexatie van de windows pc? (gokje)
Overigens heb je niet verteld welke raid configuratie je draait of welke specificaties je NAS heeft.
Het betreft een Raid-Z1 configuratie in FreeNas 9.1 op de volgende hardware:

#ProductPrijsSubtotaal
1Intel Celeron G1610 Boxed€ 34,49€ 34,49
1ASRock B75 Pro3-M€ 50,90€ 50,90
3Seagate Barracuda 7200.14 ST3000DM001, 3TB€ 91,98€ 275,94
1Corsair CMV8GX3M1A1333C9€ 64,99€ 64,99
1Seasonic G-Serie 360Watt€ 54,99€ 54,99
Bekijk collectie
Importeer producten
Totaal€ 481,31


Met indexatie van de windows pc bedoel je dat de windows client eerst de share moet indexeren voor deze kan worden gelezen?
Heb zou kunnen, want dat verklaart wel waarom ik geen foutmeldingen op in de logfiles van de server kon vinden. Het is ook zo dat de inhoud van een directory nadat deze uiteindelijk getoond is bij de volgende keer een stuk vlotter reageert. Directories die je eerder hebt geopend zijn echter na het kopiëren ook weer traag, terwijl je die dan eerder toch wel vlot kon openen. Die moeten dan dus blijkbaar ook weer opnieuw worden geïndexeerd?

Hoe kan ik vaststellen dat het indexeren van de client het probleem is? Wat zou ik kunnen doen om dit gedrag te verbeteren?

Acties:
  • 0 Henk 'm!

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Ik zoek me rot, weet iemand of er een Linux lookalike is van DSM Cloud Station om alle files te syncen naar users? (Liefst iets van een service/deamon op de server en een tooltje op de client)

Owner of DBIT Consultancy | DJ BassBrewer


Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 06-10 16:10

Midas.e

Is handig met dinges

Ik weet niet of er iets van rsync met een gui beschikbaar is, anders zou ik daar eens naar kijken.

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • Delta1981
  • Registratie: Juni 2011
  • Laatst online: 21:06
DennusB schreef op zondag 29 december 2013 @ 11:31:
Ik zoek me rot, weet iemand of er een Linux lookalike is van DSM Cloud Station om alle files te syncen naar users? (Liefst iets van een service/deamon op de server en een tooltje op de client)
Misschien dat owncloud of bittorent sync iets voor je is?

Acties:
  • 0 Henk 'm!

Verwijderd

DennusB schreef op zondag 29 december 2013 @ 11:31:
Ik zoek me rot, weet iemand of er een Linux lookalike is van DSM Cloud Station om alle files te syncen naar users? (Liefst iets van een service/deamon op de server en een tooltje op de client)
Geen ervaring met DSM Cloud Station, maar toevallig heb ik afgelopen week gekeken of ik rsync op windows clients kon gebruiken.
Toen kwam ik de tool 'Deltacopy' tegen. Die kun je op de clients installeren en heeft ook een service die op de achtergrond kan draaien.

Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 06-10 16:10

Midas.e

Is handig met dinges

Midas.e schreef op donderdag 31 december 2009 @ 13:02:
Na het zien van alle 10+TB nasjes zal ik mijne ook maar eens posten,

Het begon ooit met 2x160GB in raid0, dat werd al snel 6x160GB en 5x250GB. Inmiddels is dat allemaal vervangen door een nieuwe server:
[afbeelding]

Het hele spul is gebaseerd op een Supermicro C2SBX+ mainboard, een areca 1170 (24 port) en een lian li pc 343b. Hieraan hangen 12x1TB Hitachi's en 12x1.5TB Seagates.
Beide arrays draaien in raid6, raw opslag is ruim 30TB.
De nas wordt gebruikt als NFS store voor mn eigen virtualisatie( zie de ml110 ernaast) en mn eigen files.
Na 4 jaar quote ik mezelf weer, het is tijd voor vernieuwing. van de huidige set welke eigelijk niet veranderd is in 4 jaar en eigelijk 1 hardware falen heeft gehad(en daardoor 1 dag niet actief is geweest) gaan we vernieuwen. De kosten van de machine zijn nu maandelijks te hoog om nog rendabel te blijven.
De nieuwe set:
#ProductPrijsSubtotaal
1ASRock C2750D4I€ 380,63€ 380,63
10WD Green WD40EZRX, 4TB€ 141,-€ 1.410,-
1Fractal Design Define R4 Pearl Black€ 83,95€ 83,95
1Chieftec SNT-2131_SATA€ 59,98€ 59,98
1Kingston ValueRAM KVR16R11S8K4/16€ 85,78€ 85,78
1Seasonic G-Serie 360Watt€ 54,99€ 54,99
1Samsung 840 EVO 250GB€ 140,-€ 140,-
Bekijk collectie
Importeer producten
Totaal€ 2.215,33

Ja, het systeem gaat naar de 40TB raw, maar het grootste voordeel en kostendrukker zal zijn het feit dat er geen dure areca meer nodig is.
Wat ook duidelijk wordt hieruit is dat de kast niet meegaat! iemand nog intresse in een lianli? >:)

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 22:19

_Arthur

blub

Ik zou nog even een blik werpen op het geheugen: de eerste 2 shops die je linkt verkopen je 2x4GB ipv 1x16GB.

Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 06-10 16:10

Midas.e

Is handig met dinges

Geheugen heb ik inmiddels al liggen ;)

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • Nielson
  • Registratie: Juni 2001
  • Laatst online: 12-10 12:36
Heb je exact dat geheugen? Want op dat Asrock bordje hoort gewoon Unbuffered ipv Registered geheugen.

Acties:
  • 0 Henk 'm!

  • latka
  • Registratie: Januari 2002
  • Laatst online: 23:14
Midas.e schreef op zondag 29 december 2013 @ 22:39:
[...]
Wat ook duidelijk wordt hieruit is dat de kast niet meegaat! iemand nog intresse in een lianli? >:)
Wat wil je er voor hebben? Zet het op vraag&aanbod zou ik zeggen.

Acties:
  • 0 Henk 'm!

  • darth.75
  • Registratie: Januari 2009
  • Laatst online: 21:55
Nieuwsgierig. Hoe ga jij 10 disks + ssd van voeding voorzien. De voeding die je in je lijst hebt staan heeft maar 7 aansluitingen... Of zijn er handige splitters die ik niet ken?

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Molex splitter en daar 4xSATA op aansluiten?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • darth.75
  • Registratie: Januari 2009
  • Laatst online: 21:55
Weer wat geleerd :) Kende die dingen helemaal niet.

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Verwijderd schreef op maandag 23 december 2013 @ 20:16:
Lijkt me niet dat die vergelijkbaar zijn. Als je een PXE client bedoelt, dan zijn de FreeBSD-drivers natuurlijk helemaal niet actief en is ook het beteffende probleem in die drivers niet aanwezig.
Ik bedoelde er mee te zeggen dat het OS wat erop draait geen moer uitmaakt omdat iets als PXE boot er al problemen mee kan hebben. Als het wat OS betreft al niks uitmaakt dan boeit die driver dus al totaal niet. Kortom, het probleem is veel eerder de hardware dan de software. De issues van onbetrouwbare netwerkverbindingen zie je dan ook onder ieder OS terugkomen wat Realtek NICs betreft. Dat geldt alleen niet voor al hun NICs, er zit ook wel een paar goede versies tussen. Het is en blijft budget spul, weet dus wat je kunt verwachten (en wat niet)!
Overigens gebruik ik Realtek zelf ook met PXE (pxelinux) en dat werkt perfect, nooit problemen mee gehad.
Niet iedere Realtek NICs geeft problemen met PXE en zelfs niet iedere Realtek NICs geeft überhaupt problemen. We hebben er ook een aantal gezien die zich keurig gedragen.
Ook Intel 'em' driver heeft 'vage problemen' gehad, dus dat is niet uniek voor Realtek. En in zijn algemeenheid geldt inderdaad dat bij vage problemen je beter de makkelijke weg kunt kiezen en voor weinig geld een alternatief product halen; dus ook omgekeerd als je problemen hebt met de Intel kaartjes.
Nogmaals, in dit geval heeft FreeBSD er dus niets mee te maken. Het probleem zit 'm bij ons bij diverse Realtek NICs dus niet 1 specifieke NIC. Een aantal daarvan gedraagt zich ook na installatie op die wijze, een nog kleiner aantal werkt juist dan zonder problemen. In dat eerste zal het eerder hardware zijn (het werkt met 3 verschillende OS's niet: pxelinux, onder imager en Windows), in dat tweede wellicht wel. Dan zouden we daar verder in moeten duiken wat er precies mis gaat (voor hetzelfde geldt is het incompatibiliteit met onze switches; kunstje wat we wel vaker bij 3COM hebben gezien). Gezien het aantal Realteks die we hebben is dat gewoon niet te doen, er zijn belangrijkere zaken dus stoppen we een Intel NIC erin die we hebben liggen en klaar.
Maar altijd dat Realtek bashen en bij voorbaat er al Intel NIC in stoppen vind ik persoonlijk erg overdreven. Voor een dure zakelijke server wellicht, maar daar zit je automatisch al bij Intel NICs met SuperMicro bordjes e.d. Voor Thuis NAS is Realtek voor 90% van de mensen een prima keuze.
Tja, wat ik dan weer overdreven vind is de boel dan weer op staan hemelen ter compensatie. Laten we vooral realistisch zijn: Realtek is een budgetmerk wat NICs betreft. Dan is de kwaliteit niet grandioos. Je kunt dan inderdaad eerst proberen of het werkt en alsnog een Intel NIC (of iets anders wat ook goed is) proberen. Echter, er zijn mensen die liever meteen voor kwaliteit gaan en dan is een Intel NIC eerder te adviseren dan de goedkope netwerkkaartjes zoals Realtek. Weet liever vooraf wat je van de hardware kunt verwachten, veel belangrijker.

Voor thuis zie ik het probleem ook niet zo: gebruik gewoon de Realtek en als het niet werkt switch dan naar een Intel. Kost je 2 a 3 tientjes en klaar. Hoeft men niet zo'n ophef over te maken. Het is wat het is.

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 11-10 10:28

imdos

I use FreeNAS and Ubuntu

Zit nog steeds te twijfelen over mijn upgrade. Heb al 16Gb ECC unbuffered geheugen liggen (2x8) van Kingston.

Heb nu nog een N36L 8Gb (zonder ECC) en zoek weer iets kleins, omdat het in de meterkast moet passen.
Mijn huidige array is 6x3Tb ZFS op RAID-Z1 (~5,6 Tb in gebruik van de 12,8). Maar eigenlijk wil ik voor de zekerheid naar 5x 3Tb Z1 (wat beter past in de casing en qua hitte het zijn 7200 rpm's) of 6x 3Tb in Z2.

Als ze idlen, doen ze namelijk dit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
System Temperatures - Mon Dec 30 11:03:14 CET 2013                              
FreeNAS-9.1.1-RELEASE-x64 (a752d35)                                             
                                                                                
System Load: 0.22, 0.15, 0.12                                                   
                                                                                
CPU Temperature:                                                                
dev.cpu.0.temperature: 31.0C                                                    
dev.cpu.1.temperature: 31.0C                                                    
                                                                                
Drive Activity Status                                                           
ada0:FF  ada1:FF  ada2:FF  ada3:FF  ada4:FF  ada5:FF                            
                                                                                
HDD Temperature:                                                                
ada0 27 538TL7AYS TOSHIBA                                                       
ada1 28 538SZE0GS TOSHIBA                                                       
ada2 26 538TKTDYS TOSHIBA                                                       
ada3 26 538TG6UGS TOSHIBA                                                       
ada4 32 538TG7EGS TOSHIBA                                                       
ada5 31 538TKV8YS TOSHIBA

Er zitten namelijk 2 disken (ada4 & 5) in de ODD bay, waarvan een met een eSata via de achterkant van de casing. Deze doen Min/Max 22/48, wat toch iets aan de warme kant wordt.

Zou kunnen upgraden naar een N54L en dan daar mijn oude disken (2Tb's) in opbouwen, data kopiëren, schijven verplaatsen, nieuwe array opbouwen etc. en dan de N36L gaan opbouwen met de oude disken (max 5) en daar iig mijn backup via zfs clone of rsync naar toe sturen (hij komt bij mijn ouders te staan voor).

Of toch nog iets meer € investeren in hardware, maar dat wordt al snel dubbel zo duur (N54L is ~ 200€) en ik heb niet echt veel ruwe performance nodig voor ESXi oid, ik gebruik FreeNAS. CPU is maar een AMD Turion II Neo N54L - 2200 MHz dual core. Hij krijgt 1412 CPUMarks (TDP 25) en een Celeron G1610 2554, deze heeft echter een TDP van max 55.

Ik kom al gauw uit op een klein kastje (~70€) en ITX board (120 € ?, en heb ik dan ECC? ) en CPU (40 - 70 €) en voeding (40 €) op iets meer, maar dan kan ik er wel beter tegenaan. Het liefst zou ik echter de ASRock C2550D4I oid willen, maar dat is echte overkill. Wel IPMI en 2x Intel NIC's dan natuurlijk. Hoe is de TDP van deze eigenlijk?

De voeding is 150W trouwens in die HP G7's (de hele serie, dus N36L, N40L en N56L en ze hebben een 4x SATA disc enclosure).

[ Voor 1% gewijzigd door imdos op 30-12-2013 11:39 . Reden: voeding ]

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • Afwezig
  • Registratie: Maart 2002
  • Laatst online: 11-10 21:14
Dus nu redelijk overkill NAS staan voor thuis (Xeon, RAIDZ2, ECC geheugen, SSD's met stroomuitvalbescherming), waardoor de kans op verloren data al veel kleiner is geworden als toen het nog op 1 losse schijf stond. Maar nu de volgende stap. De off-site backups. Hoe regelen jullie dat? Ik heb een zpool van 16TB waarvan rond de 1TB écht niet verloren mag gaan. Zijn er goede clouddiensten beschikbaar? Of kan ik beter gewoon 1 keer per maand een USB disk er aan hangen en die vervolgens weer naar een andere locatie brengen?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik raad sterk af om Molex-stekkers te gebruiken. Mijn advies is om 100% SATA stekkers te gebruiken. Deze zijn veel minder gevoelig voor slechte connecties wat allerlei problemen kan geven die je als gebruiker niet snel doorhebt. Prijs is gelijk aan jouw gelinkte stekkers. Bovendien zitten hier capacitors in die zouden moeten zorgen voor stabiele voltagelijnen tijdens opspinnen:

pricewatch: Silverstone SST-CP06 4x SATA

Acties:
  • 0 Henk 'm!

  • imdos
  • Registratie: Maart 2000
  • Laatst online: 11-10 10:28

imdos

I use FreeNAS and Ubuntu

Afwezig schreef op maandag 30 december 2013 @ 13:50:
De off-site backups. Hoe regelen jullie dat? Ik heb een zpool van 16TB waarvan rond de 1TB écht niet verloren mag gaan. Zijn er goede clouddiensten beschikbaar? Of kan ik beter gewoon 1 keer per maand een USB disk er aan hangen en die vervolgens weer naar een andere locatie brengen?
NAS bij mijn ouders, zie mijn post hierboven. Dit wordt een N36L. Hierop komt mijn backup dir met foto/film/doc etc maar ook van andere gezinsleden (via rsync & ssl).

pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
@CiPHER, ben ik het absoluut niet mee eens... Die SATA power stekkers gaan hier sneller los dan Molex stekkers...

Even niets...


Acties:
  • 0 Henk 'm!

  • Midas.e
  • Registratie: Juni 2008
  • Laatst online: 06-10 16:10

Midas.e

Is handig met dinges

Ik strip deze altijd van mn voeding en soldeer er nieuwe aan. krimpkousje eroverheen en klaar.Dat laat teminste nooit los ;)

Hacktheplanet / PVOutput


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

Heb je de locking (klik!) variant? Want wat CiPHER zegt is wel correct: oudere 'molex' (eigenlijk AMP mate-n-lok) connectoren waren friction fits en dat is hartstikke 'not done' in de wereld van connectoren. Die gaan juist gemakkelijk los, of geven juist beschadigingen bij mating&unmating.

Een zero force injection connector zoals SATA power + positive retention-mechanisme zoals een klikverbinding is een veel beter principe. Niet dat iedereen het even geweldig implementeert, maar *in principe* zou het beter moeten zijn.

Acties:
  • 0 Henk 'm!

Verwijderd

Heb je de locking (klik!) variant?
Dat is een 'nieuwere' Molex-stekker? Ik ken geen klik-variant in elk geval. Alleen stekkers waarbij de pinnetjes kunnen bewegen en een versie waarbij dat niet kan. Eerstgenoemde is natuurlijk helemaal gammel en lastig te verbinden dat kost soms een paar pogingen. Ik heb zo'n schijthekel aan dit soort slechte connectors....

SATA is tenminste duidelijk iets wat je aansluit. Veilig ook met hot-plug omdat de ground pinnetjes als eerste verbinding maken en daarna pas de andere pinnetjes. Ik herken ook niet het beeld dat SATA power stekkers gemakkelijk losvliegen; het kost juist redelijk wat kracht om ze eraf te trekken. Voor de eerste generatie SATA data stekkers was dat mogelijk wel een issue. Daar is nu een clip aan toegevoegd. Verder is er ook wel verschil in kwaliteit van kabels en stekkers.

Met SATA power stekkers weet je zeker dat als je tegen de kabels aanstoot, er niet even de stroom uitgaat voor een aantal disks; dat is gewoon niet wat je wilt. Daarom raad ik SATA power stekkers aan ipv Molex.

Maar als er een nieuwere - betere - Molex standaard is, ook prima. Maar waarom dat prefereren boven SATA power? Ik ben in elk geval erg tevreden met mijn SATA power splitters.

[ Voor 8% gewijzigd door Verwijderd op 30-12-2013 15:12 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Qua energiezuinigheid ben ik nog niet helemaal tevreden met mijn FreeNas systeempje.

De opties Advanced Power Management en de HDD Standby opties heb ik maar weer uitgeschakeld. Op de een of andere manier komen de schijven nooit helemaal tot rust. Ze spinnen wel down, maar na enige tijd hoor je het toerental dan ook weer toenemen. Dan variabele toerental en vele opspinnen geeft mij een vervelend gevoel dus heb ik het uitgeschakeld.

Het is mij niet geheel duidelijk wat de achterliggende oorzaak is van dit wispelturige gedrag. FreeNas staat op een USB stick, dus het lijkt me niet dat het systeem dit met lees of schrijfactiviteiten veroorzaakt.

Idealiter zouden de schijven na bijvoorbeeld een uur helemaal uitschakelen. Dit gebeurd echter nooit, omdat deze na enkele minuten na het zakken in toerental alweer opspinnen. Dat betekend dat er activiteit is geweest en de teller weer opnieuw begint te lopen.

Acties:
  • 0 Henk 'm!

Verwijderd

Schijven hebben geen variabel toerental, althans ze kunnen maar op één vast rpm I/O verwerken. Het ligt eraan wat er allemaal draait op je systeem en wat je met je pool doet. Als je filesystems hebt gemount op de client kan hier ook de oorzaak in liggen. Unmount alles eens en kijk of de disks tot rust kunnen komen. Zo niet, dan is de oorzaak serverside.

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

Verwijderd schreef op maandag 30 december 2013 @ 15:09:
[...]

Dat is een 'nieuwere' Molex-stekker?
Ik heb het over SATA power daar :)

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Verwijderd schreef op maandag 30 december 2013 @ 14:17:
[...]

Ik raad sterk af om Molex-stekkers te gebruiken. Mijn advies is om 100% SATA stekkers te gebruiken. Deze zijn veel minder gevoelig voor slechte connecties wat allerlei problemen kan geven die je als gebruiker niet snel doorhebt. Prijs is gelijk aan jouw gelinkte stekkers. Bovendien zitten hier capacitors in die zouden moeten zorgen voor stabiele voltagelijnen tijdens opspinnen:

pricewatch: Silverstone SST-CP06 4x SATA
Die Molex stekkers klemmen gewoon vast en dat zit dan als een huis. Tenzij je echt bagger kwaliteit koopt zal dat gewoon geen problemen gaan geven. Die capacitors die zorgen voor stabiele voltagelijnen kan ik niet serieus nemen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • poing
  • Registratie: Juli 2001
  • Niet online
Welke HW koop ik best voor een FREE BSD NAS met ZFS en PLEX Server, waarbij PLEX ook transcoding moet kunnen doen?

Misschien ook wat NZB's downloaden :-)

Ik heb 6x2GB DDR3-1333RAM, 4x Samsung F2 1TB (4 jaar oude disken), kast, ...

Zou een CPU, Mobo en kleine SSD aanschaffen en misschien een extra disk als backup voor die oude.

[ Voor 9% gewijzigd door poing op 30-12-2013 21:42 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Een i3 moet daar geen probleem mee hebben. Mijn i5 komt nooit boven de 50% load uit. Met zo'n i3 heb je voldoende vermogen voor transcoding en nog reserve over.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
mux schreef op maandag 30 december 2013 @ 15:02:
friction fits en dat is hartstikke 'not done' in de wereld van connectoren.
alle gangbare 230V stekkers en wandcontactdozen werken zo.
Voordeel 4-pin molex is grote contactoppervlak waardoor er relatief grote stroom door zo'n verbinding kan. Dat is ook de reden dat de 4-pin molex connectoren gebruikt worden. Nu met zuiniger schijven is het minder zinvol (en is sata connector beter). Wanneer je splitters wilt gebruiken is er i.v.m. stroom wel wat voor te zeggen om een kwalitatief goede 4-pin molex stekkerverbinding te verkiezen boven sata variant.

Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

Wandcontactdozen zijn dan ook ontworpen in een tijd waar men weinig oog had voor fatsoenlijk connectorontwerp, en sindsdien is het een standaard geworden. Standaarden wijzig je niet zomaar, zeker met de beperkte voordelen die het heeft (en alle revisies en finetuning die het heeft gehad door de jaren heen om de problemen enigszins op te lossen).

Een SATA power connector heeft een lagere overgangsweerstand dan AMP mate-n-lok ('molex'), trouwens. Het contactoppervlak lijkt groot, maar je hebt veel minder powercontacten per pool. Bovendien heeft SATA power een gedefinieerde EOL overgangsweerstand waaraan alle connectoren moeten voldoen, en mate-n-lok is ongedefinieerd (en kan daardoor minder goede contactmaterialen gebruiken zoals matte tin).

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
mux schreef op dinsdag 31 december 2013 @ 15:06:
Een SATA power connector heeft een lagere overgangsweerstand dan AMP mate-n-lok ('molex'), trouwens. Het contactoppervlak lijkt groot, maar je hebt veel minder powercontacten per pool. Bovendien heeft SATA power een gedefinieerde EOL overgangsweerstand waaraan alle connectoren moeten voldoen, en mate-n-lok is ongedefinieerd (en kan daardoor minder goede contactmaterialen gebruiken zoals matte tin).
laatste is zo, er zijn veel slechte connectoren. Wel denk ik dat je normale WCD tekort doet. Deze hebben door in- en uit-pluggen veel meer te lijden dan de stekkers in een computer en voldoen. Stel dat ze niet voldeden was er wel markt voor wat nieuws.
Qua specs klopt bovenstaande niet, de AMP mate-n-lok zou volgens AMP 13A per pin aankunnen en SATA 1,5A per pin en dat x 3 = 4,5A. Over normale dunne computer kabel adertjes is 4,5A wel genoeg maar zou je ook niet meer dan 6 harde schijven (< 51W) aan moeten hangen. Daarbij moeten er niet meer dan twee tegelijk op spinnen (< 4,5A).
Wanneer harde schijf fabrikanten ooit de 3.3V gaan gebruiken dan heb je met een 4-pins connector en een daarop gebaseerd verloop zeker een probleem.

Acties:
  • 0 Henk 'm!

  • Afwezig
  • Registratie: Maart 2002
  • Laatst online: 11-10 21:14
Alles komt dus een beetje neer op de kwaliteit van de kabels. Uit overwegingen van kabelmanagement wil ik graag molex naar 4*sata gebruiken. Weet iemand zo welke kabels van goede kwaliteit zijn?

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
eigen ervaring is BitFenix prima en wordt o.a. door Highflow verkocht.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

BartNL schreef op dinsdag 31 december 2013 @ 13:52:
alle gangbare 230V stekkers werken zo.
Niet helemaal waar : Onder andere Cisco apparaten (en dan bedoel ik niet die Linksys crap met hun naam erop, maar echt duur professioneel spul!) hebben een stroomkabel die er zo uit ziet : http://www.onlineauction....pter-34-0949-03-ADP-29DB-

APC heeft zo te zien ook een eigen systeem : http://www.apc.com/products/family/?id=122 :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Maar echt gangbaar is dat juist niet. Ga je kijken naar het gangbare spul dan is het vrijwel allemaal friction fit. Heb ook genoeg Cisco apparaten gezien die allemaal friction fit zijn. Je moet pas echt naar bepaalde merken of bepaalde prijs catagorieen kijken om niet meer friction fit te hebben.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 05-10 12:57
@nero355
de stekker aan de primaire 100-240V kant van de door jou gelinkte Cisco adapter is een normale friction fit stekker ;)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Gangbaar of niet, en advies hier moet gebaseerd zijn op de beste oplossing, niet de meest gangbare. Dat is precies wat CiPHER bedoelt. Hij heeft betere ervaring met SATA power splitters, en ik heb daar juist weer slechte ervaringen mee.

Misschien komt het omdat ik Seasonic voedingen heb, of misschien heb ik wel gewoon mazzel maar molex connectoren zitten hier veel beter dan sata... Waarom? Geen idee... Het is zo... :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Ed.juh
  • Registratie: Februari 2011
  • Laatst online: 07-10 16:01
Ik heb hier staan 5x2 T plus (optioneel) 3x1 T. Bedoeling is een ZFS NAS te bouwen.
OS zal iets ala FreeNAS worden.
Vragen zijn :

1. OS op een USB3.0 stick ja / nee
2. SSD disk voor cache ja / nee

Indien 2 = ja, dan vervalt 1 x 1T want maar 8 SATA aansluitingen.
Puur opslag films / fotos / documenten. Geen streaming e.d.

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
Ed.juh schreef op zaterdag 04 januari 2014 @ 13:20:
Ik heb hier staan 5x2 T plus (optioneel) 3x1 T. Bedoeling is een ZFS NAS te bouwen.
OS zal iets ala FreeNAS worden.
Vragen zijn :

1. OS op een USB3.0 stick ja / nee
2. SSD disk voor cache ja / nee

Indien 2 = ja, dan vervalt 1 x 1T want maar 8 SATA aansluitingen.
Puur opslag films / fotos / documenten. Geen streaming e.d.
Mis je nu snelheid op je NAS? Ikzelf heb geen (extra) cache ingebouwd.
Op stick zal voor FreeNAS wel gaan. Check de website ;)

Acties:
  • 0 Henk 'm!

  • Ed.juh
  • Registratie: Februari 2011
  • Laatst online: 07-10 16:01
Er is nog geen NAS (actief). Het is meer dat ik me afvroeg wat eventueel nog aangeschaft moet worden. MB is een B75 met 8Gb overigens.

Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
[b][message=41530722,noline]
1. OS op een USB3.0 stick ja / nee
2. SSD disk voor cache ja / nee
FreeNAS bijvoorbeeld is gemaakt voor vanaf een usb stick te draaien, dus zeker ja! USB 2.0 of 3.0 maakt niet uit, het draait toch vanuit het geheugen. Die paar seconden bij het opstarten..
SSD voor cache heeft voor thuisgebruik totaal geen nut, tenzij je het wel nodig hebt (VMs en dergelijke), maar dan zou je deze vraag dan ook niet stellen. :*)

Nogal algemeen vraagje; zou ik met een C2750D4I toekomen voor volgende taken voor mijn homeserver?
- Freenas
- newznab of spotnet
- musicbrainz
- owncloud
- couchpotato, sickbeard, ....
- goede doorvoersnelheden (SMB, NFS)
Heb voor het moment een Xeon 1230v2 in mijn lijstje, maar als dat kan vervangen worden door zo een low-power bordje.. 8)

[ Voor 6% gewijzigd door Nindustries op 04-01-2014 17:52 ]

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

Mede n.a.v. m'n zuinige BBG waar ik een C2750D4I aanraad heb ik begrepen dat BSD+SMB geen geweldige combinatie is, voornamelijk omdat dat helemaal singlecore draait. Gigabit kun je dan niet voltrekken, ondanks dat het onder Windows op de traagste processor nog uitstekend gaat. NFS is geen enkel probleem.

Verder kun je dat allemaal makkelijk op die proc draaien.

Acties:
  • 0 Henk 'm!

  • Nindustries
  • Registratie: Januari 2012
  • Laatst online: 17-09 15:03
mux schreef op zaterdag 04 januari 2014 @ 18:10:
Mede n.a.v. m'n zuinige BBG waar ik een C2750D4I aanraad heb ik begrepen dat BSD+SMB geen geweldige combinatie is, voornamelijk omdat dat helemaal singlecore draait. Gigabit kun je dan niet voltrekken, ondanks dat het onder Windows op de traagste processor nog uitstekend gaat. NFS is geen enkel probleem.

Verder kun je dat allemaal makkelijk op die proc draaien.
Misschien moet ik dan maar Ubuntu op mijn vaste pc zetten voor NFS :)
Bedankt voor het antwoord
Edit: Woeps, NFS onder Windows gaat ook perfect! :o

[ Voor 4% gewijzigd door Nindustries op 04-01-2014 20:20 . Reden: Windoze ondersteunt nfs ]

~ beware of misinformation.


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
mux schreef op zaterdag 04 januari 2014 @ 18:10:
Mede n.a.v. m'n zuinige BBG waar ik een C2750D4I aanraad heb ik begrepen dat BSD+SMB geen geweldige combinatie is, voornamelijk omdat dat helemaal singlecore draait. Gigabit kun je dan niet voltrekken, ondanks dat het onder Windows op de traagste processor nog uitstekend gaat. NFS is geen enkel probleem.

Verder kun je dat allemaal makkelijk op die proc draaien.
:'(. Overigens wel vreemd, een 64-bit dual core Intel(R) Celeron(R) CPU G530 @ 2.40GHz, krijgt Gigabit snelheden wel (tot +- 100 MB/s). Waarom zou een nieuwere Atom processor dat niet kunnen?

Ik weet dat GHz niet te vergelijken is, maar een Celeron is niet echt het voorbeeld van top snelheid :P

Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 22:59

Wouter.S

e^(i*pi ) +1 = 0

EnerQi schreef op zaterdag 04 januari 2014 @ 19:57:
[...]
Ik weet dat GHz niet te vergelijken is, maar een Celeron is niet echt het voorbeeld van top snelheid :P
De nieuwere generaties Celeron zijn echt niet meer zo traag als je misschien denkt hoor.

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
Wouter.S schreef op zaterdag 04 januari 2014 @ 20:00:
[...]

De nieuwere generaties Celeron zijn echt niet meer zo traag als je misschien denkt hoor.
de G530 is toch wel 2 jaar oud (Eerste prijsvermelding woensdag 5 oktober 2011 ). Is (en blijft) de Atom dan zo achter? :(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Nee, SMB is nogal een verhaal apart, sommigen krijgen wel gemakkelijk hun gigabit pijp vol anderen weer niet.

Het heeft volgens mij met stand van de planeten te maken, en de zin van onze lieve heer.. Want erg veel consistentie zit er niet in.

Ik haal hier ook 'maar' iets van 80MB/s schrijven, en 110MB/s lezen.

Even niets...


Acties:
  • 0 Henk 'm!

  • mux
  • Registratie: Januari 2007
  • Laatst online: 11-10 19:46

mux

99% efficient!

We weten het ook simpelweg niet zo goed. Vergeet ook niet: Atom heeft min of meer helemaal stilgestaan sinds het in 2008 is geïntroduceerd, Avoton is pas de eerste redesign en daarom helemaal nieuw.

De eerste benchmarks laten doorschemeren dat Avoton aanzienlijk sneller is dan vorige generaties Atom. Eén Avoton-core lijkt ongeveer 1/4 van de performance van een Haswell-core te hebben op dezelfde klokfrequentie (een 8-core Avoton presteert ongeveer 38-50% van een 4-core Haswell E3-1220v3).

Da's eigenlijk best wel heel erg prima performance, zeker als je 8 cores tot je beschikking hebt, maar het betekent nog steeds wel dat je single threaded met non-integer/crypto berekeningen 4 keer zo langzaam bent als zelfs de cheapste Haswell processor. Het is dan ook niet ondenkbaar dat je single threaded ook langzamer bent dan een G530 van ruim 2 jaar geleden.

Acties:
  • 0 Henk 'm!

  • Madrox
  • Registratie: Mei 2002
  • Laatst online: 23-08 22:42

Madrox

Oh, Pharaoh!

Midas.e schreef op zondag 29 december 2013 @ 22:39:
[...]

Na 4 jaar quote ik mezelf weer, het is tijd voor vernieuwing. van de huidige set welke eigelijk niet veranderd is in 4 jaar en eigelijk 1 hardware falen heeft gehad(en daardoor 1 dag niet actief is geweest) gaan we vernieuwen. De kosten van de machine zijn nu maandelijks te hoog om nog rendabel te blijven.
De nieuwe set:
#ProductPrijsSubtotaal
1ASRock C2750D4I€ 380,63€ 380,63
10WD Green WD40EZRX, 4TB€ 141,-€ 1.410,-
1Fractal Design Define R4 Pearl Black€ 83,95€ 83,95
1Chieftec SNT-2131_SATA€ 59,98€ 59,98
1Kingston ValueRAM KVR16R11S8K4/16€ 85,78€ 85,78
1Seasonic G-Serie 360Watt€ 54,99€ 54,99
1Samsung 840 EVO 250GB€ 140,-€ 140,-
Bekijk collectie
Importeer producten
Totaal€ 2.215,33

Ja, het systeem gaat naar de 40TB raw, maar het grootste voordeel en kostendrukker zal zijn het feit dat er geen dure areca meer nodig is.
Wat ook duidelijk wordt hieruit is dat de kast niet meegaat! iemand nog intresse in een lianli? >:)
Slechte ervaring met greens van WD, 2 van de drie gesneuveld terwijl alle 6 blue's het nog prima doen. Voor mij geen Greens meer in ieder geval ;)

Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!


Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 03:01
Je hebt het zelf over betere prijs prestatie? En dan ga je vervolgens Blue schijven (die overigens niet in 4TB varianten bestaan) aanraden tegenover Green schijven? Daar ben ik het niet zo mee eens. ;)

Blue schijven hebben in het algemeen hogere snelheden, maar daar tegenover staat ook een hoger verbruik. Aangezien de snelheid van een disk niet zo heel belangrijk is voor in een NAS (denk aan de limiet van een Gbit netwerk, met ZFS RAIDZ2 trek je met Green schijven al meerdere Gbit lijntjes dicht) en een lager verbruik interessanter is, zeker met een 10 disk opstelling, zou ik juist voor de Green schijven gaan. ;)

Dat jij er toevallig slechte ervaring mee heb met Green schijven is jammer, maar het had in jouw geval ook precies andersom kunnen zijn en dan had je Green schijven aangeraden. ;)

Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 10-10 09:53
Ik ben nog altijd benieuwd wie er met een goede uitleg kan komen waarom je voor een Blue zou moeten gaan. In mijn beleving is dat nog altijd gewoon een schijf voor als je geen flauw idee hebt wat je precies wil. De uitleg door Western Digital zelf is hooguit nietszeggend, tot ronduit negatief naar de andere schijven ('solide prestaties' en 'betrouwbaarheid'). De ideale Nederlandse schijf, het poldermodel gevat in een HDD? De groene, rode en zwarte schijven zijn minder betrouwbaar...

Maar goed, het lijkt erop dat WD er zelf ook niet meeruitkomt omdat de grootste Blue slechts 1TB groot is. De andere drie zijn er wel in 4TB varianten. (Bij 2.5" is het wat minder duidelijk. Daarin is de Blue ook weer middenweg. Green tot 2TB, Black tot 750GB en uiteraard de Blue ertussen met 1TB...)

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

Verwijderd

Ik lijk wel van het ene probleem naar het andere to hoppen. Nu heb ik weer een probleempje met het syncrhoniseren van oude backups met mijn NAS.

Ik heb een externe HDD die ik op de NAS wilde aansluiten om deze op de NAS te kunnen zetten. Met rsync wilde ik dit in de toekomst up to date houden en met elkaar synchroniseren. Deze schijf is echter geformateerd in ext4, omdat ik Linux op mijn laptop gebruik. Dit kun je dus niet mounten op FreeNas, dus moest ik een andere oplossing zoeken.
Toen had ik maar bedacht om rsync over ssh te gaan gebruiken. Dan kun je de schijf op je Linux systeem mounten en kun je rsyncen van je host naar de FreeNas over SSH. Dat is natuurlijk nooit zo snel als een hdd die rechtstreeks op de FreeNas server is aangesloten, maar het heeft dan wel het voordeel dat het ook via internet zou moeten kunnen werken mocht dat ooit nodig zijn.
Het wilde echter maar niet slagen. Ik kreeg steevast een foutmelding die me niet veel verder heeft geholpen. Uiteindelijk heb ik het wel voorelkaar gekregen door te rsyncen vanaf de FreeNas sever. Ik moet nu dus eerst op het FreeNas systeem inloggen middels ssh, dan het rsync commando daar uitvoeren.

Dus i.p.v. hdd mounten op laptop en rsync uitvoeren gaat het nu als volgt:
Hdd mounten op laptop.
SSH'en naar FreeNas.
In de FreeNas shell rsync over ssh uitvoeren naar de laptop.

Een beetje omslachtig met die extra handeling, maar het werkt zo wel.

Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 10-10 12:23
Iets wat mij nu erg stoort is dat NFS niet werkt met windows ;). Blijkbaar is dit support verwijderd uit windows 8 en is eigenlijk alleen beschikbaar op enterprise niveau. Dus de server kan wel nfs ondersteunen maar benaderen vanuit een windows pc is dus niet mogelijk....

bron: Services for NFS availability in Windows 8 editions

Ik ben dus verplicht om Samba te gebruiken :(

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Er valt een hoop te tunen aan Samba zodat het minder CPU gebruikt (AIO / grotere transfersizes).
Daar moet wel wat aan te doen zijn hoor.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Met name op FreeBSD is het tunen wel behoorlijk nodig is mijn ervaring, standaard was m'n doorvoer redelijk bagger, kwam toen uiteindelijk rond de 75-85MB/s uit :)

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

mux schreef op zaterdag 04 januari 2014 @ 18:10:
Mede n.a.v. m'n zuinige BBG waar ik een C2750D4I aanraad heb ik begrepen dat BSD+SMB geen geweldige combinatie is, voornamelijk omdat dat helemaal singlecore draait. Gigabit kun je dan niet voltrekken, ondanks dat het onder Windows op de traagste processor nog uitstekend gaat. NFS is geen enkel probleem.
SMB is een protocol dus wat je hier zegt kan helemaal niet. Dan ben ik benieuwd welke BSD je precies bedoeld (BSD an sich wordt al sinds jaar en dag niet meer gebruikt, de afkorting is er alleen als verzamelnaam voor de afgeleiden) en welke SMB software er gebruikt wordt. Ik vermoed dat je het hier over FreeBSD met Samba hebt. In dat geval is het handig om te weten of het via de ports is geïnstalleerd of niet en welke versie (3.6 of 4.0). Indien het via de ports is geïnstalleerd is het handig om te weten dat dit gewoon de source is zoals die op de Samba site staat. Dan is het al heel wat minder waarschijnlijk dat het alleen in FreeBSD zit, zul je het ook in Linux en Solaris moeten testen.

Samba zelf is echter een raar beestje wat vooral komt omdat het erg afhankelijk is van het reverse engineeren van het SMB protocol. Daardoor krijg je rariteiten ongeacht op welk OS dat ook moge draaien.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Wat betreft schijven, iemand nog tips? Ik heb even zitten kijken en ik zie dat schijven van WD en Seagate steevast uitval verhalen in de reviews hebben staan waarbij het niet blijft bij een enkele schijf die uitvalt maar vaak bij uitval van twee of meer tegelijk.

Ik wil eigenlijk 4x3TB in een ZFS1 opstelling plaatsen. Als dan na anderhalf jaar twee schijven tegelijk uitvallen ben ik dus al m'n data kwijt, zit ik niet op te wachten.

Of wellicht wat extra investeren en voor ZFS2 opstelling? Zou er normaal niet aan hebben gedacht maar lees nu wat verhalen van mensen die direct 2 schijven tegelijk verliezen. En natuurlijk heb ik een backup van de belangrijkste data maar toch... het zit me niet helemaal lekker.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

Verwijderd

Bedoel je reviews als deze? productreview: WD Green WD30EZRX, 3TB review door Jackkel

Dat is gewoon het gevolg van een slechte RAID engine die niet tegen timeouts kan. Bij ZFS heb je daar geen last van, althans de disk zou niet uit de RAID mogen vallen. Er is wat discussie ontstaan of ZFS de bad sectors ook daadwerkelijk overschrijft, maar voor de veiligheid van je data is dat niet relevant.

Kortom, WD Green en andere niet-TLER schijven zijn prima geschikt. Alle >1TB disks met uBER 10^-14 hebben een aanzienlijk risico voor bad sectors zonder fysieke schade. Dat betekent dat af en toe een sector niet gelezen kan worden, maar de schijf verder prima is. Zodra de sector wordt overschreven met nieuwe data, werkt deze weer perfect. Dit soort 'bad sectors' worden dus niet omgewisseld, wat wel geldt voor bad sectors met fysieke schade, die ook na overschrijven niet meer leesbaar zijn. Die laatste groep worden wel omgewisseld. Maar waar vroeger de verhouding 5% / 95% was, is dat nu ongeveer omgekeerd, 95% / 5%. Simpelweg het gevolg van uBER en stijgende capaciteit / datadensity over tijd.

Ik heb zelf de nieuwe 4TB WD EZRX, en dat is tot nu toe wel de beste schijf die ik in mijn bezit heb gehad. Stroomverbruik is enorm laag. Ultra stil zeker vergeleken met mijn Seagate 7200.14 die je goed kan horen. Prestaties @ 155MB/s voor een 5400rpm-class hardeschijf is gewoon enorm goed. Zoveel lever je niet in op sequential I/O. Seeks zijn wel langzamer maar daar kun je met ZFS genoeg aan doen met intelligente caching (L1/L2) en random writes worden met copy-on-write heerlijk sequential weggeschreven. Dus ZFS en Green/5400rpm HDDs zijn een perfecte combinatie voor massaopslag.

4-disks in een RAID-Z is niet optimaal, dan kun je beter 5 disks nemen. 5x 4TB WD Green zou je netto 16TB bruikbare opslag geven. Bij 3TB disks wordt dat 12TB. Denk aan het verschil in TB en TiB en dat er ook nog metadata af gaat. Bovendien wil je een ZFS volume het liefst niet te vol maken. Het beste werkt ZFS tussen 40% en 80% gebruikte ruimte. Nu houd ik mij daar ook niet altijd aan, maar dan denk ik bij volgende refresh ga ik de server opnieuw installen en dan alle data overnieuw syncen met mijn backup servers (ja ik heb 1:1 backups; heerlijk!)

RAID-Z2 is vooral goed als je betere bescherming wilt tegen diskuitval, maar ook dat bij enkele diskuitval je nog steeds redundancy hebt en dus beschermd bent tegen data-corruptie en bad sectors. Optimaal voor 4K-schijven zijn 4 disks, 6 disks of 10 disks in RAID-Z2.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 06-10 19:19
ZFS wordt inderdaad langzaam als ik mijn 20 TB volumes verder vul dan 1 a 2 TB vrije ruimte..

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • pvkleeff
  • Registratie: Juli 2006
  • Laatst online: 06-10 14:18
Ik heb vorige week mijn nieuwe server met het Asrock C2750D4I bord ingericht met Debian (Jessie)
6 *3 TB in een ZFS RaidZ1 pool en vervolgens deze geshared met SMB.

Geen enkel probleem met het halen van gigabit snelheden naar deze server. Ik moest nogal wat data overgooien vanaf mijn pc's, en dat ging van beide machines gewoon met 95-99 MB/sec.

Het enige probleem wat ik nog heb met deze machine is dat ACPI de sleep states S3 en S4 (nog) niet support. Sowieso werd de processor etc pas goed herkend als een Intel C2000 vanaf kernel 3.11.

Ik heb tevens nog een issue met de LAN poorten. Om de een of andere reden gaan die uit nadat ik een poweroff geef op de server. Wanneer ik echter de power uit en heb gezet op de voeding, de server boot en dan een poweroff geef blijven ze wel actief en kan ik hem wakker maken met WOL. Bij daarna volgende poweroff commando's gaan ze ook vervolgens wel uit (en reageren dus nergens meer op - inclusief de IPMI poort).

[ Voor 3% gewijzigd door pvkleeff op 06-01-2014 12:32 ]


Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 20:18
Verwijderd schreef op maandag 06 januari 2014 @ 01:56:
Ik heb zelf de nieuwe 4TB WD EZRX, en dat is tot nu toe wel de beste schijf die ik in mijn bezit heb gehad. Stroomverbruik is enorm laag. Ultra stil zeker vergeleken met mijn Seagate 7200.14 die je goed kan horen. Prestaties @ 155MB/s voor een 5400rpm-class hardeschijf is gewoon enorm goed. ......
Heb je bij deze schijven (4TB WD EZRX) nog iets aan het LCC moeten doen met wd-Idle oid, of is/was dit niet meer nodig.

[ Voor 0% gewijzigd door Verwijderd op 06-01-2014 16:39 . Reden: CiPHER: ik heb je quote even gefixed ;) ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Dus het is om het even of ik nu Seagate of Western Digital koop?

Nu is vijf schijven wel optimaal voor RAID-Z1 en zes schijven optimaal voor RAID-Z2 maar 12TB is meer capaciteit dan ik ga gebruiken, dan moet mijn mediacollectie echt verdrievoudigen en dat zie ik de komende tijd niet gebeuren. De laatste tijd is groei ook maar mondjesmaat geweest. Dan kan ik beter wachten tot de 6TB schijven uitkomen en dan direct overstappen.

Denk dat ik gewoon voor 4x3TB ga en dan zorg voor een goede backup en het risico maar neem dat twee schijven tegelijk stuk kunnen gaan. Twijfel alleen of ik losse bestellingen zal gaan doen puur om te zorgen dat de batches verschillen. Iemand die daar wat over kan zeggen?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

Verwijderd

@Habana
Er is sprake van headparking met de EZRX. Maar de LCC loopt veel minder snel op dan oudere Green-schijven die ik heb. Het lijkt erop dat de headparking dus minder agressief is geworden.

Desalniettemin heb ik APM op 254 staan, maar misschien dat ik dat nog eens heroverweeg. Headparking heeft namelijk ook voordelen, zoals beter tegen schok kunnen en lager energieverbruik. Je wilt alleen niet dat je na twee jaar al honderdduizenden cycles hebt meegemaakt, dat kan gaan slijten. De meeste schijven kunnen tot 600.000 cycles qua specs. Ik heb prima disks gezien met meer dan een miljoen cycles die het nog prima deden, maar bij een ander exemplaar zou het zeker kunnen dat door dergelijke slijtage hij voortijdig overlijdt.

@Tsurany
3x 4TB WD Green in RAID-Z kan ook, dan heb je 8TB netto opslag ipv 9TB maar wel 4K-optimaal en een disk minder. Zou je later 3 schijven bijkopen dan kun je er een RAID-Z2 van 6 disks van maken, eventueel zonder dataverlies.

Dat werkt zo:
  • Je hebt een 3-disk RAID-Z en koopt 3 schijven bij.
  • Je zet alle data op twee nieuwe disks
  • Je vernietigt je 3-disk RAID-Z
  • JE hebt nu 4 schijven vrij, daarvan maak je een double-degraded RAID-Z2 van 6 disks; 4 echte disks en 2 memory disks
  • Direct na het aanmaken van de pool reboot je, want de memory disks mag/moet je niet gaan vullen.
  • Na het rebooten is je array double-degraded. Nu kopiëer je de data van je 2 disk-pool over naar je double degraded RAID-Z2.
  • Nadat alles op de RAID-Z2 staat, ga je de oude 2-disk pool vernietigen en die disks toevoegen aan de RAID-Z2 zodat deze weer compleet is met 6 echte disks.
  • Klaar! 8)

[ Voor 29% gewijzigd door Verwijderd op 06-01-2014 16:38 ]


Acties:
  • 0 Henk 'm!

  • Demo
  • Registratie: Juni 2000
  • Laatst online: 10-10 18:39

Demo

Probleemschietende Tovenaar

Lekker 16 TB kopiëren op niet-redundante storage.. Ben je dan niet heel erg de situaties aan het creëren die je met RAID-Z2 juist hoopt te voorkomen?
Vandaag zat ik te overpeinzen om BTRFS te gaan gebruiken op mijn nieuwe server, uiteindelijk toch bedacht dat ZFS een verstandigere keuze is vanwege de volwassenheid, maar ik ga het nu toch nog eens overwegen, aangezien je die voor zover ik weet wel online kan growen en zelfs van RAID5 naar 6 migreren. Zijn hier al mensen die BTRFS gebruiken in hun storage-systeem?

Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done


Acties:
  • 0 Henk 'm!

  • Wouter.S
  • Registratie: Maart 2009
  • Laatst online: 22:59

Wouter.S

e^(i*pi ) +1 = 0

Verwijderd schreef op maandag 06 januari 2014 @ 16:36:
Dat werkt zo:
  • Je hebt een 3-disk RAID-Z en koopt 3 schijven bij.
  • ...)
En je zorgt natuurlijk dat je backup op orde is ;)

Any intelligent fool can make things bigger, more complex, and more violent. It takes a touch of genius -- and a lot of courage -- to move in the opposite direction.


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Verwijderd schreef op maandag 06 januari 2014 @ 16:36:
@Tsurany
3x 4TB WD Green in RAID-Z kan ook, dan heb je 8TB netto opslag ipv 9TB maar wel 4K-optimaal en een disk minder. Zou je later 3 schijven bijkopen dan kun je er een RAID-Z2 van 6 disks van maken, eventueel zonder dataverlies.
In hoeverre is die 4k optimalisatie echt boeiend? Bij mij is het vooral massaopslag die ik niet snel hoef te benaderen. Als ik 50MB/s kan halen met kopiëren en lezen ben ik happy. Het is veel media die ik stream, daarbij is snelheid niet belangrijk. Backups hebben ook geen hoge snelheid nodig, die zijn voornamelijk incrementeel en over WiFi. En dan nog wat losse dingetjes die ook niet echt relevant zijn.
In hoeverre is het dan echt nuttig om 3x4TB ipv 4x3TB te kiezen?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Niet 4k optimale configs kosten je een paar procent ruimte, en een paar procent (<10) (sequentiele) performance. Wel wat meer random performance.

[ Voor 18% gewijzigd door FireDrunk op 06-01-2014 19:37 ]

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Zie hier:

Afbeeldingslocatie: http://tweakers.net/ext/f/SACfq7L1nUZEgSK4vR6UdBlX/full.png

Deze grafiek toont ruimteverlies bij ZFS wanneer je bepaalde disk configuraties gebruikt.

Let op: de onderste aantal disks is het aantal data disks. Dus een 6-disk RAID-Z2 heeft 4 data disks. Vergis je daar niet in. ;)

[ Voor 4% gewijzigd door Verwijderd op 06-01-2014 19:56 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ik kan wel wat vinden over performance, bijvoorbeeld hier: http://hardforum.com/showthread.php?p=1036276885

Now testing raidz1 configuration with 3 disks......@......@......@
READ: 193 MiB/sec 194 MiB/sec 194 MiB/sec = 194 MiB/sec avg
WRITE: 153 MiB/sec 153 MiB/sec 151 MiB/sec = 152 MiB/sec avg

Now testing raidz1 configuration with 4 disks......@......@......@
READ: 220 MiB/sec 219 MiB/sec 222 MiB/sec = 220 MiB/sec avg
WRITE: 146 MiB/sec 144 MiB/sec 148 MiB/sec = 146 MiB/sec avg

Geen cijfers waar ik mij druk om kan maken. Random performance vermindering kon ik niet vinden maar sequentieel werk zal nu hetgeen zijn dat ik voornamelijk zal doen.

@ CiPHER: Heb je ook een bron waar ik de cijfers kan lezen? Ik vind het erg lastig om in te schatten hoeveel gigabytes het nu werkelijk zijn.
Hier dus: http://forums.servethehom...fs-non-power-2-vdevs.html

En wat als ik nu geen 4K gebruik? Performance is voor mij echt niet relevant, de focus is puur capaciteit en data veiligheid versus kosten. Liefst blijf ik bij 4 disks totaal omdat dit in de toekomst meer mogelijkheden geeft qua behuizing als ik een maatje kleiner wil.


En voor jullie het vragen, ik weet dat ik moeilijk ben en altijd naar mogelijkheden zoek om mijn idee te laten werken in plaats van mijn idee aan te passen. Alvast sorry daarvoor :9

[ Voor 25% gewijzigd door Tsurany op 06-01-2014 20:20 ]

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 12-10 08:00
Ik draai hier zelf 4*4TB in RAIDZ. Geen idee hoe ik het makkelijk vergelijk, zal eens kijken.

[root@NAS /datapool/data]# zfs list datapool/data
NAME            USED  AVAIL  REFER  MOUNTPOINT
datapool/data  7.09T  2.17T  7.09T  /datapool/data
[root@NAS /datapool/data]# du -csh
7.1T    .
7.1T    total

-A en -g geven geen verschil

Niet veel lijkt mij 8-)

[ Voor 63% gewijzigd door FireDrunk op 06-01-2014 20:25 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
pvkleeff schreef op maandag 06 januari 2014 @ 11:09:
Ik heb vorige week mijn nieuwe server met het Asrock C2750D4I bord ingericht met Debian (Jessie)
6 *3 TB in een ZFS RaidZ1 pool en vervolgens deze geshared met SMB.

...
Heb je toevallig gemeten wat de C2750D4I in idle verbruikt (zonder disks)? Volgens de c't is dat 26W idle namelijk, wat beduidend meer is dan de Supermicro A1SAi-2750F.

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 22:19

_Arthur

blub

Ultra schreef op donderdag 09 januari 2014 @ 11:49:
[...]

Heb je toevallig gemeten wat de C2750D4I in idle verbruikt (zonder disks)? Volgens de c't is dat 26W idle namelijk, wat beduidend meer is dan de Supermicro A1SAi-2750F.
Die 26 watt kan ik wel bevestigen.

26 watt idle and 42 Watt from the wall outlet, while running Cinebench R15. That is with 4x8GB 1.5V memory, the board itself and 1 Intel X25M 80GB SSD.

Met 4x3 TB sata disks & nog een Crucial M4 SSD er bij en geen spin-down HDD's en gewoon 'wat simpele load' doet ie rond de 50 watt.

Gemiddeld wordt er tussen de 32 en 36 watt uit het stopcontact getrokken. Waarbij 1 VM mijn download bak is die 24/7 1 HDD 'bezig' houd, welke dus nooit een spindown kan doen.

Full load (alle 8 cores 100% dmv Cinebench R15) + alle disks draaienden haalt ie 61watt uit het stopcontact.

Mijn doel was een systeem dat gemiddeld ~48 watt en maximaal ~70 watt zou doen en welke voor mij 'bruikbaar' en snel genoeg was voor mijn VMs. En dat is voor mij ruimschoots gehaald.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 03:01
En welke voeding gebruik je daarbij?

Acties:
  • 0 Henk 'm!

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 22:19

_Arthur

blub

GioStyle schreef op donderdag 09 januari 2014 @ 19:23:
En welke voeding gebruik je daarbij?
be quiet! Straight Power E9 400W

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Ultra schreef op donderdag 09 januari 2014 @ 11:49:
[...]

Heb je toevallig gemeten wat de C2750D4I in idle verbruikt (zonder disks)? Volgens de c't is dat 26W idle namelijk, wat beduidend meer is dan de Supermicro A1SAi-2750F.
Ze hebben bij ServeTheHome later nog eens getest maar dan met 1.35V geheugen vs 1.5V geheugen waar ze nog lagere scores weten te halen. Het Supermicro bordje gebruikt wel SODIMMs ipv normale DIMMs. Dat zou wellicht ook nog wat kunnen uitmaken.

Een nadere inspectie van de specs laat ook de nodige verschillen zien zoals de SATA controllers. Het Supermicro bordje gebruikt de standaard controller in de processor/chipset. De ASrock doet dat ook maar voegt daar nog een Marvell controller aan toe. Daar staat wel weer tegenover dat ie maar 2 NICs heeft terwijl de Supermicro er 4 heeft.

[ Voor 19% gewijzigd door ppl op 09-01-2014 22:02 ]


Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
Valt het grote voordeel, lager verbruik, dan niet weg bij de Asrocks? Goedkoop zijn ze ook niet.

Acties:
  • 0 Henk 'm!

  • r3play
  • Registratie: Maart 2013
  • Laatst online: 16-09 23:44
Vraag ivm RAID. Ik heb een microserver g8 gekocht en ga er xpenology op draaien (synology software voor pc) ik heb 4 wd red 4tb schijven besteld en wacht nog tot ze toekomen.

Wat komt er op de schijven
- films en series
- backups belangrijke bestanden
- NFS share voor ESXi virtuele machines

Ik had zelf al een soort van RAID opstelling in gedachte.
2 schijven raid 0 voor bulk opslag films en series. Niet kritisch als schijf faalt.
Overige 2 schijven in raid 1 voor backups en NFS share virtuele machines.

Of is er een betere opstelling? Graag advies.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
r3play schreef op maandag 13 januari 2014 @ 16:06:
Of is er een betere opstelling? Graag advies.
Mijn ervaring is dat de niet-kritieke data (media etc) doorgaans duizend maal zoveel ruimte innemen als de kritieke data. Ik heb als filesystem gekozen voor ZFS, en zou als ik voldoende schijven had 2x1TB in mirror-configuratie gebruiken voor de kritieke documenten (exclusief backup), en 4 of 5x2TB in raidz1 of 2 voor media (dus RAID-Z met 1 of 2 schijven redundantie).

Ik zou geen RAID0 kiezen: dan ben je bij het falen van 1 disk gelijk *al* je media kwijt. Zelfs als dat geen zaak van leven/dood is is het nog behoorlijk irritant om je media-volumes weer opnieuw te moeten vullen. En de kans dat een schijf raar gaat doen is groter dan je wellicht verwacht.

Ook moet je er rekening mee houden, mocht je kiezen voor een RAID5/6 of RAIDZ1/2 oplossing, dat grotere schijven betekent dat je langer bezig bent met resilveren.

Maar het kan natuurlijk zijn dat je meer ruimte nodig hebt voor je kritieke data. Hoe dan ook, het loont om over de indeling na te denken voordat je schijven aanschaft.

[ Voor 13% gewijzigd door Gralgrathor op 13-01-2014 18:30 ]


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
ppl schreef op donderdag 09 januari 2014 @ 21:58:
Een nadere inspectie van de specs laat ook de nodige verschillen zien zoals de SATA controllers
De SATA-poorten op de vreemde controller zijn natuurlijk wel extra. Beide hebben (als ik het goed lees) 6 poorten op de Intel controller.

Maakt dat trouwens zonder vt-d heel erg veel uit? (Dat is een serieuze vraag: ik ben me een beetje aan het inlezen, maar het gaat je al snel duizelen).

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:04
VT-D heb je nodig als je gaat virtualizeren en je een stuk hardware, zoals bijv. een HBA of NIC direct wil doorgeven aan een virtuele machine.
(Moet je ook een CPU hebben die dit ondersteunt)

Acties:
  • 0 Henk 'm!

  • r3play
  • Registratie: Maart 2013
  • Laatst online: 16-09 23:44
Gralgrathor schreef op maandag 13 januari 2014 @ 17:53:
[...]


Mijn ervaring is dat de niet-kritieke data (media etc) doorgaans duizend maal zoveel ruimte innemen als de kritieke data. Ik heb als filesystem gekozen voor ZFS, en zou als ik voldoende schijven had 2x1TB in mirror-configuratie gebruiken voor de kritieke documenten (exclusief backup), en 4 of 5x2TB in raidz1 of 2 voor media (dus RAID-Z met 1 of 2 schijven redundantie).

Ik zou geen RAID0 kiezen: dan ben je bij het falen van 1 disk gelijk *al* je media kwijt. Zelfs als dat geen zaak van leven/dood is is het nog behoorlijk irritant om je media-volumes weer opnieuw te moeten vullen. En de kans dat een schijf raar gaat doen is groter dan je wellicht verwacht.

Ook moet je er rekening mee houden, mocht je kiezen voor een RAID5/6 of RAIDZ1/2 oplossing, dat grotere schijven betekent dat je langer bezig bent met resilveren.

Maar het kan natuurlijk zijn dat je meer ruimte nodig hebt voor je kritieke data. Hoe dan ook, het loont om over de indeling na te denken voordat je schijven aanschaft.
Bedankt. Ik vind het ZFS verhaal wel interessant maar het probleem is. In de Microserver kunnen maar 4 schijven in. Mijn voorkeur gaat ook echter voor de Synology / Xpenology software omdat ik de software geweldig vind. De eenvoudigheid van "Apps" installeren is een voordeel. Ik wil er dan ook sickbeard, couchpotato, etc.. op draaien als download bak gebruiken ook. Ik heb op een oude pc de Xpenology software draaien in de opstelling met sickbeard en couchpotato en vind het zeer goed werken. Ook de performance van bestanden heen en weer pompen over het netwerk en 1080p content streamen naar een mede8er mediastreamer werkt vlekkeloos zonder haperen.

Ik hang voor de zekerheid nog een externe USB schijf aan die ook een backup maakt van alle belangrijkste data.

Zou een RAID-5 opstelling goed zijn? Dan hou ik 12TB over wat ik tot nu toe genoeg mee heb. Films en bluk opslag van PC en file backups maakt me niet veel uit. Maar zou de performance dan wat te doen zijn om een deel als ESXi datastore te gebruiken?

Met andere woorden, wat is in mijn geval de beste opstelling met de beperking van 4 schijven?

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
RudolfR schreef op maandag 13 januari 2014 @ 19:11:
VT-D heb je nodig als je gaat virtualizeren
Ik zat zelf te denken aan een Asrock C2750 mobo als middenweg tussen lage TDP, veel storage, goede uitbreidbaarheid qua geheugen, en redelijke processorkracht. Op mijn huidige D525 kan ik met redelijke snelheid twee VB guests draaien, dus ESXi zou op dat bord tot de mogelijkheden moeten behoren - ware het niet dat er geen vt-d op zit. Ik begrijp dat dat het lastig maakt om mijn ZFS-array aan te spreken.

Maar ZoL + VB is natuurlijk ook een optie. Zoveel guests heb ik doorgaans niet nodig.

[ Voor 3% gewijzigd door Gralgrathor op 14-01-2014 12:02 ]


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
r3play schreef op maandag 13 januari 2014 @ 23:37:
wat is in mijn geval de beste opstelling met de beperking van 4 schijven?
Ben hier zelf ook redelijk nieuw in, maar RAID0 zou ik sowieso afraden. Dan is het nog beter om twee schijven gewoon los te configureren (er is onder linux een driver waarmee je twee losse ext4-volumes als een geheel kunt aanspreken, maar ik ben even kwijt wat de naam ook weer is).

Voor RAID5 heb je een minimum van 3 schijven nodig, waarbij je het ruimtelijk equivalent van een schijf opoffert aan parity. Het biedt enige bescherming tegen schijfuitval, maar geen bescherming tegen "silent rot" op de manier waarop ZFS dat doet. Als je met een maximum van 4 schijven 3 schijven opoffert aan een RAID5 array voor je media, dan houd je dus maar een schijf over voor kritieke documenten. Wel pariteitsberscherming gebruiken voor je media maar niet voor je kritieke documenten is volgens mij niet wat je in gedachten had. Overigens is RAID - zelfs RAIDZ - niet bedoeld als bescherming tegen dataverlies: het is een methode om de beschikbaarheid en betrouwbaarheid (en soms de performance) van je opslag te verbeteren, maar het is niet equivalent aan een backup. Bewaar altijd backups van kritieke documenten op een aparte locatie.

Met synology en de rest ben ik niet zo bekend: mijn storage oplossing is begonnen als een mailserver, uitgegroeid tot webserver en testbed voor programmatuur, en tot slot in gebruik genomen als netwerkopslag. Het enige dat ik ooit heb verlangd van de netwerkopslag is dat ik 1080p met redelijke bitrate over SMB kan afspelen, en verder dan dat heb ik nooit gekeken.

Dus, twee losse 4T volumes voor media (evt. gecombineerd in een logisch volume - maar dan niet met LVM of striping), en 2x 4T in mirror (eg. RAID1) voor kritieke data?

[ Voor 41% gewijzigd door Gralgrathor op 14-01-2014 12:17 ]


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Gralgrathor schreef op dinsdag 14 januari 2014 @ 11:50:
[...]


Ik zat zelf te denken aan een Asrock C2750 mobo als middenweg tussen lage TDP, veel storage, goede uitbreidbaarheid qua geheugen, en redelijke processorkracht. Op mijn huidige D525 kan ik met redelijke snelheid twee VB guests draaien, dus ESXi zou op dat bord tot de mogelijkheden moeten behoren - ware het niet dat er geen vt-d op zit. Ik begrijp dat dat het lastig maakt om mijn ZFS-array aan te spreken.

Maar ZoL + VB is natuurlijk ook een optie. Zoveel guests heb ik doorgaans niet nodig.
Mogelijk verkeerde topic, overlap enzo: Zijn er mensen welke virtualbox gebruiken met de niet standaard GUI? Ik ben namelijk benieuwd of er mensen web-based GUIs of remote clients gebruiken en zoja welke.

[ Voor 60% gewijzigd door analog_ op 14-01-2014 12:27 ]


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Nee, ik gebruik de standaard interface: SSH.

Acties:
  • 0 Henk 'm!

  • r3play
  • Registratie: Maart 2013
  • Laatst online: 16-09 23:44
Gralgrathor schreef op dinsdag 14 januari 2014 @ 11:59:
Dus, twee losse 4T volumes voor media (evt. gecombineerd in een logisch volume - maar dan niet met LVM of striping), en 2x 4T in mirror (eg. RAID1) voor kritieke data?
Ja zoiets had ik ook in gedachten. Ik weet dat RAID geen backup is maar bied wel meer bescherming tegen een schijf dat fysiek faalt. Maar wat is het verschil als ik van de 4 schijven één RAID5 van maak?
Is dat dan niet het veiligste?

Of 2x RAID1 Kritieke data op RAID1 en films dan ook maar op een RAID1, maar kan ik dan even goed RAID5 nemen?

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
r3play schreef op dinsdag 14 januari 2014 @ 12:58:
Maar wat is het verschil als ik van de 4 schijven één RAID5 van maak? Is dat dan niet het veiligste?
Je kritieke bestanden zijn dan niet veiliger/betrouwbaarder dan je mediabestanden. En zodra een van de vier schijven fouten ontwikkelt of faalt ben je in het ergste geval je hele array, media en kritieke documenten, kwijt (standaard RAID heeft geen checksumming, en ook omdat de kans op verdere problemen toeneemt bij het resilveren, en hoe groter je schijven, deste groter de kans - zo heb ik me laten vertellen). Als je een goede backup-situatie hebt geen enkel probleem (en goede backups moet je natuurlijk sowieso hebben).
r3play schreef op dinsdag 14 januari 2014 @ 12:58:Of 2x RAID1 Kritieke data op RAID1 en films dan ook maar op een RAID1, maar kan ik dan even goed RAID5 nemen?
Met 2 x (2x4T in RAID1) heb je maar 2x4T aan storage, da's 4T minder dan met (4x4T in RAID5).

Dus als je geen behoefte hebt aan een hoger betrouwbaarheidsniveau voor je kritieke documenten (backups even buiten beschouwing gelaten) dan voor je media, dan is RAID5 over 4x4T waarschijnlijk de beste oplossing. Mooier zou natuurlijk zijn als je RAIDZ over 4x4T kon doen: dan heb je de aanvullende bescherming van ZFS checksumming en copy-on-write.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-10 08:19

InflatableMouse

Carina Nebula says hi!

Volgende week of zo komt er een nieuwe htpc in huis zodat ik de huidige, nogal uit de kluiten gewassen htpc/server combi kan omtoveren tot server-only.

Het is een redelijk ding geworden ondertussen, i5 3570k 16GB RAM (1600mhz), 128GB SSD, 3x4TB (Hitachi/HGSC 7K4000) en 5x2TB (Seagates, Hitachi).

De 3x4TB is een Linux (mdadm) RAID-0 met LVM volume erop.
De 5x2TB zitten op een LSI MegaRAID adapter (8 poorts SAS) in een RAID-5 met LVM volume erop.

de RAID-5 bevatten backups, ook van andere pc's in het netwerk en de raid-0 bevat media bestanden.

Er komen volgende week ergens ook een 4TB schiif bij, mischien ook wel een extra 2TB (omdat ik begrijp dat 6 schijven ideaal aantal is voor ZFS, maar 3x4TB erbij is even buiten budget :P).

Ik zit met een heleboel vragen, ik ben een hoop aan het uitzoeken en voorbereiden maar de meest brandende wil ik alvast hier even afvuren.

Server draait nu Debian 7.3. Ik houd van Debian, ik kan er goed mee overweg en het liefst zou ik het laten zoals het is. Echter, denk ik dat het het beste is om over te stappen op ZFS, server heeft er genoeg geheugen voor. Maar ik kan maar weinig info vinden over ZFS-Fuse, ik krijg de indruk dat het project een beetje dood is maar ook erg achterloopt op de ontwikkeling op FreeBSD, klopt dat? Is ZFS-Fuse wel echt geschikt voor dagelijks/critisch gebruik?

Als het nou echt het beste is om naar een BSD variant over te stappen dan wil ik dat wel overwegen. Ik neem dan aan dat ik die RAID-5 moet verwijderen en er JBOD van moet maken.

Ik ben echt totaal niet bekend met FreeBSD ... Is het goed te doen om op dingen als Apache2+PHP, MySQL 5.5 te draaien? Is dat min of meer hetzelfde als op Debian (install uit repository?). Dingen als Sickbeard, Sab, CP, draaien daar ook allemaal op? Virtualbox headless?

Ik wil deze week een Vmtje opzetten met paar virtual disks eraan om FreeBSD te installeren en te kijken hoe dat zou werken en of ik makkelijk m'n www/var/ en mysql databases kan migreren enzo.

Ik las ook dat een SSD gebruikt kan worden als soort van caching disk met ZFS. Is dat aan te raden of is het handiger/beter om die SSD gewoon voor het OS te laten? Ik snap als je niets anders met zo'n NAS doet dat je makkelijk van een USB stickie kan booten maar in mijn geval ga ik er iets meer mee doen. Of mischien het OS ook op een ZFS volume dan heb ik die SSD ook vrij voor caching? Ik weet niet precies wat hier mogelijk is.

Alvast bedankt!

[ Voor 0% gewijzigd door InflatableMouse op 15-01-2014 13:32 . Reden: domme vraag doorgehaald :) ]


Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
InflatableMouse schreef op woensdag 15 januari 2014 @ 13:26:
De 3x4TB is een Linux (mdadm) RAID-0 met LVM volume erop.
En je slaapt nog wel rustig? Kudos!
InflatableMouse schreef op woensdag 15 januari 2014 @ 13:26:
Maar ik kan maar weinig info vinden over ZFS-Fuse
Tip: draai ZFS-on-Linux native, kernel modules. Dat project is springlevend, en mijn ervaringen ermee zijn tot nu toe uitstekend. ZFS-fuse schijnt sowieso minder performance te leveren dan native.

Het is wel aan te raden om ECC geheugen te nemen als je aan de ZFS gaat. Als je genoeg schrijfbewerkingen uitvoert neemt de kans dat je in de loop van een maand corrupte data wegschrijft toe tot een zekerheid.
InflatableMouse schreef op woensdag 15 januari 2014 @ 13:26:
Is dat aan te raden of is het handiger/beter om die SSD gewoon voor het OS te laten?
Bedoel je de ZIL? Die zou ik niet op een SSD zetten. Hier voer je bijna alleen maar writes op uit, en hoewel je misschien wel wat aan performance wint garandeer je volgens wat ik hoor ook dat je je SSD binnen een jaar kunt vervangen. Lijkt mij dat de combinatie van RAM en on-disk caching en logging die ZFS(-on-linux) out of the box toepast goed genoeg performt voor de meeste doeleinden. Als dat niet zo blijkt te zijn kun je altijd nog gaan spelen met de cache.
InflatableMouse schreef op woensdag 15 januari 2014 @ 13:26:
Of mischien het OS ook op een ZFS volume
Er zijn wellicht mensen die zoiets doen, maar wederom zou *ik* het niet doen. Ik denk dat je dan zaken nodeloos complex maakt. Een 'simpele' linux machine met OS op de SSD in ext4 en een zootje disks in ZFS arrays is als beginnetje mooi genoeg. Als dat draait kun je nog altijd gaan knutselen, toch?

Acties:
  • 0 Henk 'm!

  • DarkFire1985
  • Registratie: September 2002
  • Laatst online: 18-02 07:51
Voor ZFS kan je het beste even hier kijken: Het grote ZFS topic

Persoonlijk heb ik een lange tijd gebruik gemaakt van ZFS in FreeBSD en sinds een aantal maanden draai ik nu (vanwege andere eisen) ZFS-on-Linux in Ubuntu Server.
Bij beide geen problemen gehad, alleen bij de overstap van FreeBSD naar Ubuntu en het importeren van mijn ZFS Pool maar dat was ook opgelost na een resilver actie.

Acties:
  • 0 Henk 'm!

  • InflatableMouse
  • Registratie: December 2006
  • Laatst online: 09-10 08:19

InflatableMouse

Carina Nebula says hi!

Dank! Het ZFS topic volg ik ook inderdaad, als ik specifieke ZFS vragen heb zal ik ze daar stellen.

Ik had dat zfs-fuse dus verkeerd begrepen, ik dacht dat dat zfs-on-linux was. Ben blij te zien dat ik het mis had want dan kan ik lekker bij Debian blijven, hoef ik waarschijnlijk niet eens te herinstalleren.

Acties:
  • 0 Henk 'm!

  • Gralgrathor
  • Registratie: April 2011
  • Laatst online: 20-08 13:41
Vraag. Ik heb dringend behoefte aan een upgrade van mijn ZFS rig, maar ik kom geld tekort.

Modbreak:Geld tekort? Zoek naar Uitzendbureau

[ Voor 43% gewijzigd door Verwijderd op 16-01-2014 14:19 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Nu ben ik wel heel nieuwsgierig wat er origineel stond. Verzoek tot gratis hardware? Gironummer?

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N

Pagina: 1 ... 140 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.