Acties:
  • 0 Henk 'm!

Verwijderd

player-x schreef op zondag 28 februari 2016 @ 14:57:
blijkbaar hebben de BSD versies als FreeNAS, geen ondersteuning voor AHCI in hun kernel.
Geen dingen roepen die je niet weet. AHCI ondersteuning zit in elk OS na het jaar 2000 onderhand. En natuurlijk ook in alle BSDs, dus ook FreeNAS.

Het punt is dat die controller een aantal quirks nodig heeft voordat hij goed werkt. Dat is vaker zo, bijvoorbeeld ook met Marvell AHCI controllers. Pas als die quirks (afwijkingen van de specificatie) in de drivers zitten, werkt de controller goed. Voorbeeld met SuperMicro X10SBA met Marvell 9230 controller:

code:
1
2
3
ahci1: <Marvell 88SE9230 AHCI SATA controller> port 0xb050-0xb057,0xb040-0xb043,0xb030-0xb037,0xb020-0xb023,0xb000-0xb01f mem 0x88610000-0x886107ff irq 18 at device 0.0 on pci7
ahci1: AHCI v1.20 with 8 6Gbps ports, Port Multiplier not supported
ahci1: quirks=0x900<NOBSYRES,ALTSIG>


Meestal zijn die quirks nodig omdat het zich niet aan de (AHCI) specs houdt maar ze wel werken onder Windows (msahci.sys). Linux is er dan als eerste bij om deze quirks op te nemen zodat de controller daar goed werkt. BSD volgt meestal iets later. In dit geval is deze controller vrij nieuw, en werkt hij dus nog niet correct onder BSD. Ik was zelf van plan een PR te openen zodat deze ondersteuning ook aan BSD toegevoegd kan worden, want het is een leuke controller!

Niet PCIe 2.0 x1 dus 500MB/s zoals je zei, maar PCIe 2.0 x2 dus 1000MB/s. Dat is best redelijk wat bandbreedte, voor alles genoeg behalve een 10Gbit NAS.

[ Voor 12% gewijzigd door Verwijderd op 28-02-2016 15:13 ]


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Verwijderd schreef op zondag 28 februari 2016 @ 15:11:
Geen dingen roepen die je niet weet.
Je hebt gelijk, maar ik plaatste ook geen feit, maar een aan name.
Niet Wel PCIe 2.0 x1 dus 500MB/s zoals je zei, maar PCIe 2.0 x2 dus 1000MB/s. Dat is best redelijk wat bandbreedte.
Veel plezier met het vinden van een fysieke PCIe 2,0 x2 aansluiting op een moederbord, daarnaast heeft het kaartje zelf ook gewoon uiteraard een x1 aansluiting.

Dat de 'ASM1062' PCIe 2.0 x2 ondersteund, is puur om genoeg bandbreedte te krijgen, als hij onboard wordt aangesloten aan bv de chipset.

Daar PCIe fysiek alleen maar x1, 4, 8, 16 en (officieel, maar nooit in het wild gezien) 32 lanes ondersteund, maakt het protocol gewoon gebruik van alle lanes die aan gesloten zijn, die hij vind tijdens initialisatie van de kaart, dus als je 10 lanes van bv een video kaart met plakband afsluit, werkt hij als het goed is gewoon door op de overige 6 lanes, dit was gedaan om verschillende fysieke aansluitingen gewoon onderling op elkaar te laten werken.
voor alles genoeg behalve een 10Gbit NAS
Ik zou zeggen dat 1000MB/s ruim voldoende is voor een 10Gbit NAS, en zelfs 500MB/s is nog steeds 5x meer dat van een 1Gbit/s verbinding.

[ Voor 10% gewijzigd door player-x op 28-02-2016 15:47 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

player-x schreef op zondag 28 februari 2016 @ 15:36:
Je hebt gelijk, maar ik plaatste ook geen feit, maar een aan name.
Aannames zijn fataal (copyright GaMeOvEr). :P
Veel plezier met het vinden van een fysieke PCIe 2,0 x2 aansluiting op een moederbord, daarnaast heeft het kaartje zelf ook gewoon uiteraard een x1 aansluiting.
Het kaartje heeft een PCIe 2.0 x2 aansluiting, dus twee lanes. Uiteraard kun je die gewoon in een PCIe slot steken met 4 lanes, maar het werkt dan op de snelheid van twee lanes. Dus 1000MB/s maximale bandbreedte; waarschijnlijk iets van 850MB/s in de praktijk.
Ik zou zeggen dat 1000MB/s ruim voldoende is voor een 10Gbit NAS, en zelfs 500MB/s is nog steeds 5x meer dat van een 1Gbit/s verbinding.
Je hebt meer disk bandbreedte nodig dan je netwerkverbinding. Als je disks 100MB/s doen kun je met ZFS geen 100MB/s via het netwerk krijgen, door ZFS breathing. Je wilt minimaal het dubbele en liever nog hoger krijgen. Bovendien is meer lokale throughput nuttig voor interne acties zoals resilvering/scrubbing enzovoorts. 500MB/s zou ik voor 10 disks wel een beetje zonde vinden. Het dubbele is net lekker genoeg. Dat komt erg in de buurt wat je schijven kunnen aan het einde van hun capaciteit of met wat seeks tussendoor.

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Verwijderd schreef op zondag 28 februari 2016 @ 15:57:
Aannames zijn fataal (copyright GaMeOvEr). :P
Onzin, het is juist onze mogelijkheid om aannames te maken, wat juist ons de dominante dieren soort op aarde heeft gemaakt, natuurlijk zitten er wel eens foute tussen, en er zijn ook mensen die continu foute maken, maar ik zie juist niets mis in het maken van aannames, anders zouden we nergens aan toe komen, als we letterlijk alles voor de juiste feiten zouden moeten onderzoeken.

Houd niet te min in dat ik het fout had, en dat gebeurd ook wel eens.
Het kaartje heeft een PCIe 2.0 x2 aansluiting, dus twee lanes. Uiteraard kun je die gewoon in een PCIe slot steken met 4 lanes, maar het werkt dan op de snelheid van twee lanes. Dus 1000MB/s maximale bandbreedte; waarschijnlijk iets van 850MB/s in de praktijk.
Het is het eerste kaartje dat ik heb gezien dat een x2 aansluiting heeft, een niet officiële standaard, maar wel een standaard die imho al jaren geleden had moeten worden ingevoerd, daar de stap tussen x1 en x4 vaak veel te groot was, hier door had ik wederom een verkeerde aanname gemaakt.
Je hebt meer disk bandbreedte nodig dan je netwerkverbinding. Als je disks 100MB/s doen kun je met ZFS geen 100MB/s via het netwerk krijgen, door ZFS breathing. Je wilt minimaal het dubbele en liever nog hoger krijgen. Bovendien is meer lokale throughput nuttig voor interne acties zoals resilvering/scrubbing enzovoorts. 500MB/s zou ik voor 10 disks wel een beetje zonde vinden. Het dubbele is net lekker genoeg. Dat komt erg in de buurt wat je schijven kunnen aan het einde van hun capaciteit of met wat seeks tussendoor.
Je maakt nu het zelfde argument die mensen met de eerste komst tegen 1Gbit netwerk maakte, of 4GB mem voor een 32bit OS (XP), je hebt er niks aan want je kan geen volledig gebruik maken van de volledige aanwezige snelheid/hoeveelheid.

En juist het ZFS breathing argument is een goed argument voor 10Gbit, daar je dan de volledige snelheid van je sata controller kan gebruiken.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
ZFS breathing komt mijns inziens vaak door foutieve tuning of geheugen tekort. Heel soms komt het door mixed workloads (heel veel sequentiele reads, en sync random writes door elkaar).

Meestal is er wel een mouw aan te passen om dit op te lossen in een thuissituatie (mbuffer, zfs kernel parameters, port channels, e.d.).

Even niets...


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 23-09 12:31
Ik heb nu een paar dagen naar tevredenheid freenas draaien op m'n nieuwe server alles prima maar krijg nu ineens deze mail.
Geen idee wat het betekend.
Alles werkt nog prima moet ik me zorgen maken en/of actie ondernemen?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
Storage.local changes in mounted filesystems:
3d2
< /mnt/Storage/ISO      /mnt/Storage/jails/VmOwncloud/media nullfs      rw              0 0
19d17
< devfs                 /mnt/Storage/jails/VmOwncloud/dev devfs rw,multilabel   0 0
24d21
< procfs                        /mnt/Storage/jails/VmOwncloud/proc procfs       rw              0 0

Storage.local kernel log messages:
> epair0a: link state changed to DOWN
> epair0b: link state changed to DOWN
> ifa_del_loopback_route: deletion failed
> Freed UMA keg (udp_inpcb) was not empty (20 items).  Lost 2 pages of memory.
> Freed UMA keg (udpcb) was not empty (336 items).  Lost 2 pages of memory.
> Freed UMA keg (tcptw) was not empty (1750 items).  Lost 35 pages of memory.
> Freed UMA keg (tcp_inpcb) was not empty (1710 items).  Lost 171 pages of memory.
> Freed UMA keg (tcpcb) was not empty (40 items).  Lost 10 pages of memory.
> Freed UMA keg (ripcb) was not empty (20 items).  Lost 2 pages of memory.
> hhook_vnet_uninit: hhook_head type=1, id=1 cleanup required
> hhook_vnet_uninit: hhook_head type=1, id=0 cleanup required
> arp: 192.168.178.150 moved from 02:09:3d:00:07:0a to 68:05:ca:3d:e2:72 on epair2b
> arp: 192.168.178.150 moved from 02:82:b5:00:06:0a to 68:05:ca:3d:e2:72 on epair1b
> arp: 192.168.178.150 moved from 02:09:3d:00:07:0a to 68:05:ca:3d:e2:72 on epair2b
> arp: 192.168.178.150 moved from 02:82:b5:00:06:0a to 68:05:ca:3d:e2:72 on epair1b

-- End of security output --

Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
ComTech schreef op maandag 29 februari 2016 @ 12:48:
Ik heb nu een paar dagen naar tevredenheid freenas draaien op m'n nieuwe server alles prima maar krijg nu ineens deze mail.
Geen idee wat het betekend.
Alles werkt nog prima moet ik me zorgen maken en/of actie ondernemen?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
Storage.local changes in mounted filesystems:
3d2
< /mnt/Storage/ISO      /mnt/Storage/jails/VmOwncloud/media nullfs      rw              0 0
19d17
< devfs                 /mnt/Storage/jails/VmOwncloud/dev devfs rw,multilabel   0 0
24d21
< procfs                        /mnt/Storage/jails/VmOwncloud/proc procfs       rw              0 0

Storage.local kernel log messages:
> epair0a: link state changed to DOWN
> epair0b: link state changed to DOWN
> ifa_del_loopback_route: deletion failed
> Freed UMA keg (udp_inpcb) was not empty (20 items).  Lost 2 pages of memory.
> Freed UMA keg (udpcb) was not empty (336 items).  Lost 2 pages of memory.
> Freed UMA keg (tcptw) was not empty (1750 items).  Lost 35 pages of memory.
> Freed UMA keg (tcp_inpcb) was not empty (1710 items).  Lost 171 pages of memory.
> Freed UMA keg (tcpcb) was not empty (40 items).  Lost 10 pages of memory.
> Freed UMA keg (ripcb) was not empty (20 items).  Lost 2 pages of memory.
> hhook_vnet_uninit: hhook_head type=1, id=1 cleanup required
> hhook_vnet_uninit: hhook_head type=1, id=0 cleanup required
> arp: 192.168.178.150 moved from 02:09:3d:00:07:0a to 68:05:ca:3d:e2:72 on epair2b
> arp: 192.168.178.150 moved from 02:82:b5:00:06:0a to 68:05:ca:3d:e2:72 on epair1b
> arp: 192.168.178.150 moved from 02:09:3d:00:07:0a to 68:05:ca:3d:e2:72 on epair2b
> arp: 192.168.178.150 moved from 02:82:b5:00:06:0a to 68:05:ca:3d:e2:72 on epair1b

-- End of security output --
Zo te zien een gebruikelijk notificatie mail als je een keer opnieuw bent opgestart.
Mijn laatste mail was deze.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
Fractal.WORKGROUP kernel log messages:
> CPU: Intel(R) Xeon(R) CPU E3-1231 v3 @ 3.40GHz (3392.50-MHz K8-class CPU)
>   Standard Extended Features=0x27ab<GSFSBASE,TSCADJ,SMEP,ENHMOVSB,INVPCID>
> real memory  = 17716740096 (16896 MB)
> avail memory = 16474927104 (15711 MB)
> ehci0: <EHCI (generic) USB 2.0 controller> mem 0xf7313000-0xf73133ff irq 16 at device 26.0 on pci0
> ehci1: <EHCI (generic) USB 2.0 controller> mem 0xf7312000-0xf73123ff irq 22 at device 29.0 on pci0
> ahci0: <Intel Lynx Point AHCI SATA controller> port 0xf070-0xf077,0xf060-0xf063,0xf050-0xf057,0xf040-0xf043,0xf020-0xf03f mem 0xf7311000-0xf73117ff irq 19 at device 31.2 on pci0
> acpi_button1: <Sleep Button> on acpi0
> acpi_tz0: <Thermal Zone> on acpi0
> acpi_tz1: <Thermal Zone> on acpi0
> orm0: <ISA Option ROM> at iomem 0xc0000-0xc7fff on isa0
> ipmi0: IPMI device rev. 1, firmware rev. 0.22, version 2.0
> SMP: AP CPU #3 Launched!
> SMP: AP CPU #5 Launched!
> SMP: AP CPU #6 Launched!
> SMP: AP CPU #2 Launched!
> Timecounter "TSC-low" frequency 1696248520 Hz quality 1000
> vboxdrv: fAsync=0 offMin=0x1d0 offMax=0xf05
> epair0a: Ethernet address: 02:fb:bb:00:08:0a
> epair0b: Ethernet address: 02:fb:bb:00:09:0b
> epair1a: Ethernet address: 02:74:95:00:09:0a
> epair1b: Ethernet address: 02:74:95:00:0a:0b
> epair2a: Ethernet address: 02:8b:9b:00:0a:0a
> epair2b: Ethernet address: 02:8b:9b:00:0b:0b
> epair3a: Ethernet address: 02:34:a2:00:0b:0a
> epair3b: Ethernet address: 02:34:a2:00:0c:0b
> epair4a: Ethernet address: 02:12:4d:00:0c:0a
> epair4b: Ethernet address: 02:12:4d:00:0d:0b
> epair5a: Ethernet address: 02:7b:77:00:0d:0a
> epair5b: Ethernet address: 02:7b:77:00:0e:0b
> epair6a: Ethernet address: 02:a8:e5:00:0e:0a
> epair6b: Ethernet address: 02:a8:e5:00:0f:0b
> epair7a: Ethernet address: 02:86:77:00:0f:0a
> epair7b: Ethernet address: 02:86:77:00:10:0b
> epair7b: promiscuous mode enabled
> epair7b: promiscuous mode disabled
> epair7b: promiscuous mode enabled
> epair7b: promiscuous mode disabled
> epair7b: promiscuous mode enabled
> epair7b: promiscuous mode disabled
> epair7b: promiscuous mode enabled
> Freed UMA keg (tcptw) was not empty (2350 items).  Lost 47 pages of memory.
> Freed UMA keg (tcp_inpcb) was not empty (2180 items).  Lost 218 pages of memory.
> Freed UMA keg (tcpcb) was not empty (84 items).  Lost 21 pages of memory.

Acties:
  • 0 Henk 'm!

Verwijderd

player-x schreef op maandag 29 februari 2016 @ 10:57:
Het is het eerste kaartje dat ik heb gezien dat een x2 aansluiting heeft, een niet officiële standaard, maar wel een standaard die imho al jaren geleden had moeten worden ingevoerd, daar de stap tussen x1 en x4 vaak veel te groot was, hier door had ik wederom een verkeerde aanname gemaakt.
Het SuperMicro X10SBA bordje heeft ook een PCIe 2.0 x2 aansluiting, in een slot wat x8 groot is. Dus dat past goed bij dit type SATA controller.
Je maakt nu het zelfde argument die mensen met de eerste komst tegen 1Gbit netwerk maakte, of 4GB mem voor een 32bit OS (XP), je hebt er niks aan want je kan geen volledig gebruik maken van de volledige aanwezige snelheid/hoeveelheid.
Mijn punt is dat je 2x tot 3x hogere disk I/O moet hebben om je netwerkbandbreedte in de praktijk vol te krijgen. Anders krijg je pauzes: doordat ZFS lange tijd nodig heeft voor txg's valt de netwerkthroughput stil. Dus het principe mijn disk(s) doen 100MB/s dus dan heb ik genoeg voor gigabit, gaat in de praktijk niet op, met ZFS in elk geval.

Bovendien is het leuk dat je intern meer bandbreedte hebt voor scrubben en interne acties, zoals wanneer je een groot bestand of directory verplaatst binnen dezelfde Samba share maar naar een ander filesystem. Dan gaat het verplaatsen tegen de maximale interne snelheid; de data wordt dan fysiek gekopiëerd naar een andere plek omdat je verplaatst naar een ander filesystem. Maar hier kun je dus ver boven de gigabit limiet gaan, omdat de data niet door de netwerklaag gaat.

Acties:
  • 0 Henk 'm!

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 18-09 18:32
Ik heb een vraag over IPMI op een supermicro X9SCM-IIF (zal ook wel zo zijn op andere supermicro mainbords denk ik)

Je kunt op dit bord weinig in de Bios instellen, maar met IPMI wel het een en ander.

In het bios kun je niet kiezen tussen normal, optimal, full en IO/optimized zoals bij enkele andere supermicro moederborden.

Je kunt echter wel 3 standen met de volgende commando's instellen:
raw 0x30 0x45 0x01 0x02 (optimal)
raw 0x30 0x45 0x01 0x00 (normal)
raw 0x30 0x45 0x01 0x01 (full)

ik doe dit vanuit de ipmi tool op FreeBSD via de IPMI interface op het dedicated interface ip adres:

ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN raw 0x30 0x45 0x01 0x02

"Optimal" zou temperatuur geregeld moeten zijn.

De fans gaan dan merkbaar omlaag in toerental: 525 en 300 rpm (vlak na de boot van de machine)
code:
1
2
3
4
5
6
7
8
9
[root@zfsguru /home/ssh]# ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN sensor list all
System Temp      | 33.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
Peripheral Temp  | 34.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
CPU Temp         | 0x0        | discrete   | 0x0000| na        | na        | na        | na        | na        | na
FAN 1            | 525.000    | RPM        | nc    | 300.000   | 450.000   | 600.000   | 18975.000 | 19050.000 | 19125.000
FAN 2            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 3            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 4            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN A            | 300.000    | RPM        | ok    | 225.000   | 225.000   | 225.000   | 1500.000  | 1575.000  | 1725.000


Als de System Temp en/of de Periphal Temp de 40 graden naderen, schakelt de BMC van het bord de fans weer omhoog: 1725 en 1200 rpm.

code:
1
2
3
4
5
6
7
8
9
[root@zfsguru /home/ssh]# ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN sensor list all
System Temp      | 36.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
Peripheral Temp  | 39.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
CPU Temp         | 0x0        | discrete   | 0x0000| na        | na        | na        | na        | na        | na
FAN 1            | 1725.000   | RPM        | ok    | 300.000   | 450.000   | 600.000   | 18975.000 | 19050.000 | 19125.000
FAN 2            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 3            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 4            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN A            | 1200.000   | RPM        | ok    | 225.000   | 225.000   | 225.000   | 1500.000  | 1575.000  | 1725.000


na een tijdje stabiliseert de temperatuur zich dan iets lager:
code:
1
2
3
4
5
6
7
8
9
[root@zfsguru /home/ssh]# ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN sensor list all
System Temp      | 37.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
Peripheral Temp  | 38.000     | degrees C  | ok    | -9.000    | -7.000    | -5.000    | 80.000    | 85.000    | 90.000
CPU Temp         | 0x0        | discrete   | 0x0000| na        | na        | na        | na        | na        | na
FAN 1            | 1725.000   | RPM        | ok    | 300.000   | 450.000   | 600.000   | 18975.000 | 19050.000 | 19125.000
FAN 2            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 3            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN 4            | na         |            | na    | na        | na        | na        | na        | na        | na
FAN A            | 1200.000   | RPM        | ok    | 225.000   | 225.000   | 225.000   | 1500.000  | 1575.000  | 1725.000


Echter toerental zakt niet weer..


Nu kun je via IPMI ook Keurig van een sensor opvragen wat je allemaal kunt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
root@zfsguru /home/ssh]# ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN sensor get "Peripheral Temp"
Locating sensor record...
Sensor ID              : Peripheral Temp (0x10)
 Entity ID             : 7.1 (System Board)
 Sensor Type (Threshold)  : Temperature (0x01)
 Sensor Reading        : 38 (+/- 0) degrees C
 Status                : ok
 Nominal Reading       : 45.000
 Normal Minimum        : -4.000
 Normal Maximum        : 74.000
 Upper non-recoverable : 90.000
 Upper critical        : 85.000
 Upper non-critical    : 80.000
 Lower non-recoverable : -9.000
 Lower critical        : -7.000
 Lower non-critical    : -5.000
 Positive Hysteresis   : 2.000
 Negative Hysteresis   : 2.000
 Minimum sensor range  : Unspecified
 Maximum sensor range  : Unspecified
 Event Message Control : Per-threshold
 Readable Thresholds   : lnr lcr lnc unc ucr unr
 Settable Thresholds   : lnr lcr lnc unc ucr unr
 Threshold Read Mask   : lnr lcr lnc unc ucr unr
 Assertion Events      :
 Assertions Enabled    : unc+ ucr+ unr+
 Deassertions Enabled  : unc+ ucr+ unr+



Nu is mijn vraag waarom er bij 39/40 graden celcius de fan naar 80% wordt gezet (de fan op de FANA is een Noctua NF-A14 PWM met 300 rpm min en 1500 rpm max)

Het lijkt me logisch dat het met de thresholds van doen heeft...

Het gaat volgens mij om de volgende 6 (er zijn ook 6 parameters bij de Fan instellingen)
Upper non-recoverable : 90.000
Upper critical : 85.000
Upper non-critical : 80.000
Lower non-recoverable : -9.000
Lower critical : -7.000
Lower non-critical : -5.000


Er staat ook bij welke parameters instelbaar zijn: Settable Thresholds : lnr lcr lnc unc ucr unr
ik neem aan:
lnr = Lower non-recoverable (-9)
lcr = Lower critical (-7)
lnc = Lower non-critical (-5)
unc = Upper non-critical (80)
ucr = Upper critical (85)
unr = Upper non-recoverable (90)


Ik zie totaal geen samenhang tussen deze settings en de fanspeed die opgeschakeld wordt.
Het zal wellicht door een andere sensor dan komen, maar er lijkt geen andere sensor te zijn.


Op de ZFSGuru status pagina staat de system temperatuur ook:
1: 41.0 °C 2: 41.0 °C 3: 42.0 °C 4: 39.0 °C
Dat lijken met de fysieke cores van de CPU (E3-1220v2)
De HDD's zijn tussen de 31 en 38 graden. Dus de exit temperatuur van de lucht zal wat lager zijn en door de kast stromen.

Is er wellicht iemand die hier veel ervaring mee heeft en me op de goede weg kan helpen.

ik heb de volgende dingen nagelezen:
https://www.thomas-krenn....ssen#Einschr.C3.A4nkungen
https://forums.freenas.or...ing-ipmitool.23571/page-3
https://forums.freenas.or...pmiutil-or-feeipmi.18377/

update:

Ik had eerst de lower threshold van de fan op 200 gezet omdat hij standard hoger staat dan de ondergrens van de fan..
[root@zfsguru /home/ssh]# ipmitool -H 192.168.2.181 -U ADMIN -P ADMIN sensor thresh "FAN A" lower 200 200 200


update 2:
Ik had de zaak bedraad met een Akasa sata power naar 5 x PWM voeding stekker zitten.
De source PWM draad op een deepcool Rockman die weer zijn pwm info van mainboard haalt/stuurt.
Nu gewoon met 2 x noctua verloopjes de zaak aan de rockman aangesloten en de zaak is Keurig regelbaar op de Rockman.
Dan maar met de hand een balans vinden tussen temperatuur en warmte in system.

[ Voor 4% gewijzigd door jacovn op 02-03-2016 16:58 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Verwijderd schreef op maandag 29 februari 2016 @ 13:55:
Dus het principe mijn disk(s) doen 100MB/s dus dan heb ik genoeg voor gigabit, gaat in de praktijk niet op, met ZFS in elk geval.
Ik heb nooit dat argument gemaakt, wat ik zeg is dat er altijd wel een zwakste schakel is, of dat nu de disks zijn of het netwerk, dat is gewoon stuivertje wisselen, en er is niks mis met bandbreedte overhouden op je netwerk, want ik heb jaren tegen de Gbit grens zitten aanhikken, eindelijk is mijn netwerk niet meer het probleem.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Dat zei je niet expliciet, maar dat impliceerde je natuurlijk wel. Ik reageerde namelijk op:
zelfs 500MB/s is nog steeds 5x meer dat van een 1Gbit/s verbinding.
Dus dan maak ik het argument dat het niet zo is dat je bij 1x gelijk aan 1Gbps al voldoende hebt om die gigabit ook daadwerkelijk vol te trekken. 2x tot 3x extra is wat je wilt en meer is leuk meegenomen voor interne I/O zoals een scrub of het verplaatsen naar een ander filesystem binnen dezelfde share, zoals ik bijvoorbeeld regelmatig doe.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 11:01
Ik heb iets vreemds met FreeNAS, allicht kijk ik gewoon ergens overheen maar ik heb geen schrijfrechten in een bepaalde dataset terwijl ik dit wel verwacht.

Kijk even met me mee:

Dataset 'foto' owner is root, group is 'foto'. De group heeft het write-bit en ik heb gebruik gemaakt van "set permissions recursively"

Afbeeldingslocatie: http://upload.mattie-systems.nl/uploads/63262-capture.png

Tot zo ver niks vreemds hoop ik. Vervolgens heb ik een user die in die group 'foto' zit:

Afbeeldingslocatie: http://upload.mattie-systems.nl/uploads/65470-capture.png

Maar waarom kan ik dan (via samba) niet in die dir schrijven?

De 'downloads' dataset kan ik wél in schrijven:

Afbeeldingslocatie: http://upload.mattie-systems.nl/uploads/63021-capture.png

Voor zover ik kan zien is alles gelijk. Ook bij de share zelf is er geen verschil.

Ben ik nou gek?

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • n3ck
  • Registratie: Mei 2002
  • Laatst online: 24-07 19:47
In mijn QNAP ben ik er via een lange weg achter gekomen dat om toegang te hebben tot directories je die directory op RWX moet hebben staan (of in ieder geval execute) ivm samba. Zou zomaar kunnen dat dat daar ook zo is omdat Freenas ook samba zal gebruiken.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 11:01
Maar de group heeft RWX kan wel other op RWX zetten maar dan kan iedereen er bij en dát is nou weer niet de bedoeling.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Mattie112 schreef op dinsdag 01 maart 2016 @ 09:50:
Maar de group heeft RWX kan wel other op RWX zetten maar dan kan iedereen er bij en dát is nou weer niet de bedoeling.
Users updaten binnen samba?
de Cifs server gebruikt een ander lijstje dat aangevuld zou moeten worden.

Afhankelijk van een volgorde van samba aanzetten en shares aanmaken wil dat wel eens niet automatisch gebeuren.
In mijn QNAP ben ik er via een lange weg achter gekomen dat om toegang te hebben tot directories je die directory op RWX moet hebben staan (of in ieder geval execute) ivm samba. Zou zomaar kunnen dat dat daar ook zo is omdat Freenas ook samba zal gebruiken.
Klopt ook, het hele pad vanaf je zfs dataset, (niet perse vanaf /mnt/) geloof ik zal executable moeten zijn voor de group / user / other die je daar rechten voor wilt geven.

[ Voor 34% gewijzigd door tweedebas op 01-03-2016 09:58 ]


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 11:01
tweedebas schreef op dinsdag 01 maart 2016 @ 09:55:
[...]


Users updaten binnen samba?
de Cifs server gebruikt een ander lijstje dat aangevuld zou moeten worden.

Afhankelijk van een volgorde van samba aanzetten en shares aanmaken wil dat wel eens niet automatisch gebeuren.


[...]


Klopt ook, het hele pad vanaf je zfs dataset, (niet perse vanaf /mnt/) geloof ik zal executable moeten zijn voor de group / user / other die je daar rechten voor wilt geven.
Hm je zou zeggen dat dat toch wel automatisch moet gebeuren :p Zal vanavond wel even de service (of de hele serv :p) herstarten en kijken of dat wat uitmaakt.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 11:55
Installaties van Jails in Freenas, is het hierbij aan te raden deze op een dedicated device te doen? Ik heb m'n freenas doos opgebouwd, met in eerste instantie een 750GB 2.5" hdd als download schijf voor transmission. Maar continu worden torrents afgebroken door permission denied meldingen en kort daarna merk ik dat de jail service offline is gegaan....

Data komt op 3x 4TB.

Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Ik heb m'n jails op een aparte disk met daarnaast een share waar data op gezet wordt vanuit de jails. Dit om te voorkomen dat mijn disk array constant hoeft te draaien als een jail even wat wilt doen.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Tsurany schreef op dinsdag 01 maart 2016 @ 13:03:
Ik heb m'n jails op een aparte disk met daarnaast een share waar data op gezet wordt vanuit de jails. Dit om te voorkomen dat mijn disk array constant hoeft te draaien als een jail even wat wilt doen.
Zou ik ook doen als je de spullen hebt, mooiste zou zelfs een ssd zijn. En je kan daar eventueel ook nog een RaidZ1 van maken of mirror.


Ter uitbreiding van me eigen Nas heb ik nu een Xeon 1231V3 ipv Celeron 1840T en 16Gb ram, deels voor plex encoding (overkill), en deels leuk om te hebben :9

Daarnaast leek het mij mooi om mijn oude desktop een keer de deur uit te doen en daar een "karige" laptop met goed scherm voor terug te nemen om vervolgens mocht ik een keer wel wat power willen remote te gaan naar de server.
Helemaal als straks met Freebsd 10 en bhyve er een Graka met passthrough in kan om ook nog eens fysiek wat spul op een Windows vm aan te sluiten.

Nu heb ik dit voor elkaar door in Freenas een jail te starten met een volle Freebsd 9.3 install met Xfce daarop. Nu kan ik MobaXterm ssh'en naar de jail en een xcfe-session starten op mijn vaste PC.
Dat gaat aardig simpel en bied leuke mogelijkheden.

Rest me nu nog een Display Manager aan de praat om remote een nette inlog te creëren voor meerder users zonder ssh, en dáár loop ik ernstig tegen een Unix kennis tekort.

Hier op het forum maar eens assistentie voor inschakelen!

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 11:01
Mattie112 schreef op dinsdag 01 maart 2016 @ 10:08:
[...]


Hm je zou zeggen dat dat toch wel automatisch moet gebeuren :p Zal vanavond wel even de service (of de hele serv :p) herstarten en kijken of dat wat uitmaakt.
En inderdaad opeens werkte het, naja had ik in elk geval mn config goed :)

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:46

Damic

Tijd voor Jasmijn thee

Mattie112 schreef op maandag 29 februari 2016 @ 18:04:
Ik heb iets vreemds met FreeNAS, allicht kijk ik gewoon ergens overheen maar ik heb geen schrijfrechten in een bepaalde dataset terwijl ik dit wel verwacht.

Kijk even met me mee:

Dataset 'foto' owner is root, group is 'foto'. De group heeft het write-bit en ik heb gebruik gemaakt van "set permissions recursively"

[afbeelding]

Tot zo ver niks vreemds hoop ik. Vervolgens heb ik een user die in die group 'foto' zit:

[afbeelding]

Maar waarom kan ik dan (via samba) niet in die dir schrijven?

De 'downloads' dataset kan ik wél in schrijven:

[afbeelding]

Voor zover ik kan zien is alles gelijk. Ook bij de share zelf is er geen verschil.

Ben ik nou gek?
Waarom staat in de 2de foto ineens de write bit voor de group af?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • tweedebas
  • Registratie: September 2012
  • Laatst online: 18-09 21:43
Damic schreef op woensdag 02 maart 2016 @ 12:41:
[...]
Waarom staat in de 2de foto ineens de write bit voor de group af?
'

Dat zijn de schrijfrechten van de home directory van de betreffende user.

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 11:01
Damic schreef op woensdag 02 maart 2016 @ 12:41:
[...]
Waarom staat in de 2de foto ineens de write bit voor de group af?
Dat is een screenshot van mijn user en dat betreft de homedir.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Wat zeggen jullie:

1 Intel 400GB NVME SSD kopen of tweedehands een aantal Enterprise ssd's van 240-480GB?

Voor de prijs van 1 Intel PCIe NVME SSD kan ik 3-5 Enterprise SSD's tweedehands kopen.
Qua ruimte zit je in het voordeel van de Enterprise SSD's alsook qua sequentiele transfer.
De NVME SSD is natuurlijk vele malen sneller qua iops en latency.

Doel is als ZFS SSD Only array te dienen voor een 5-tal machines via iSCSI (4 * 1Gb in de host, en 2 * 1Gb in elke guest).

Stroomverbruik en SATA vs PCIe aansluitingen is niet echt belangrijk in de vergelijking, ik heb genoeg PCIe poorten vrij, en genoeg SAS controllers liggen :)

[ Voor 15% gewijzigd door FireDrunk op 02-03-2016 14:29 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
Klinkt behoorlijk profi, en dan zeg ik: één is geen... Dus of twee NVME-SSD's in mirror, of twee (of meer) enterprise SSD's in mirror / RAIDZ(1/2/3)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Mwoh, ik heb meerdere pools die beschikbaar zijn voor VM's, De belangrijkste VM's (IP Management, vCenter, vRealize, Puppet Master, GIT) worden uitgerold op een RAID10 array. De rest van de VM's worden dmv VMWare Orchestrator & Puppet automatisch geprovisioned en zijn dus relatief volatile. Uiteraard is het kut als je al je VM's opnieuw moet uitrollen, maar niet onoverkomenlijk.

Derhalve is RAID niet een verplichting. Op zich als het goedkoop "genoeg" kan is het nooit mis.
Nadeel is weer dat RAIDZ(2) vanwege de performance penalty sowieso geen optie is.

Mirrors zijn leuk, maar dat is extreem duur in verhouding. Dan maak ik liever elke nacht een backup van de hele LUN naar mijn archive pool dmv ZFS send & receive.

Ik ga me bezig houden met het uitrollen van bijvoorbeeld hele web clusters dmv VMWare Orchestrator, Puppet en HAProxy. Dus in theorie kunnen dat ineens 4-10 machines zijn.

Gewoon omdat het kan :)

PS: Overigens zet ik dedup tegenwoordig aan, dat scheelt aanzienlijk in het disk gebruik van de VM's. Dus ik verwacht dat een 400GB NVME SSD ook best lang mee kan.

[ Voor 24% gewijzigd door FireDrunk op 02-03-2016 14:52 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Het is geheel afhankelijk wat je op de opslag gaat doen.

NVMe is meer geschikt voor een (extreem) hoge random access & que-depth, denk aan flinke database die door veel mensen gebruikt wordt, verschillende zwaardere VM's tegelijk van een disk draaien, enzovoort enzovoort.

Zelf zou ik het gewoon op een of meerdere betere standaard SSDs draaien, dedub maakt dat voor de gewone SSD al een stuk makkelijker.

[ Voor 9% gewijzigd door player-x op 02-03-2016 15:56 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Lage latency is nooit weg voor VM's natuurlijk, maar extreem zal ik mijn gebruik niet noemen. Ik wil vooral niet voor elke keer dat ik een heel cluster uitrol een uur moeten wachten voor de gehele deployment klaar is.

Daarnaast kunnen meerdere puppet runs tegelijk best wat IO verstoken.

Nadeel van meerdere SSD's is weer wat Paul eerder ook al zei: De kans op falen wordt groter als je geen RAID toepast.

Keuzes... :O

Even niets...


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 21-09 21:21
De kans op een falen zal kleiner zijn, maar dat terzijde ;)

De CSL/OT kroeg !


Acties:
  • +1 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
Hardware is binnen en inmiddels zit de basis in elkaar. Kabel zijn netjes weggewerkt voor goede airflow. 4 extra back plates geïnstalleerd. Nu nog een controller en een stel disken op de kop tikken 8)

Afbeeldingslocatie: http://static.tweakers.net/ext/f/UCWR5eHntYSRZOsmPGhJw6qp/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/s6zuRkIITg1FneGk6CVCj57O/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/CERHstpeW8mQi7lV5a7g9NlC/full.jpg

Afbeeldingslocatie: http://static.tweakers.net/ext/f/Xzq4zW2JsFxQmrwg6LMp0yDT/full.jpg

#ProductPrijsSubtotaal
1Supermicro X10SDV-TLN4F€ 989,01€ 989,01
1Lian Li PC-Q26B Zwart€ 185,-€ 185,-
2Samsung M391A2K43BB1€ 99,50€ 199,-
1Cooler Master V Series V550 - 80+ Gold€ 92,-€ 92,-
1Samsung 950 Pro 512GB€ 312,-€ 312,-
4Lian Li 2x-Hot-Swap-Backplate€ 11,31€ 45,24
Bekijk collectie
Importeer producten
Totaal€ 1.822,25

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Ik denk dat je 950 Pro wel erg warm wordt op deze manier. Misschien een klein koelblokje op plakken?

Dat ding performed 3 keer beter als hij goed gekoeld wordt :)

Verder wel prachtige build!

[ Voor 8% gewijzigd door FireDrunk op 03-03-2016 07:12 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • janser01
  • Registratie: Augustus 2013
  • Laatst online: 06-05-2024
Kost wel wat maar dan heb je ook iets. Netjes hoor.

Weet je al welke controller? ik herinner me dat je daar een paar posts geleden een vraag over had gesteld. Ik ben er nog steeds niet uit 8)7

[ Voor 9% gewijzigd door janser01 op 03-03-2016 09:42 ]

Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 02:41
Is deze nieuwe hardware nu een poging om die CRC errors op te lossen ofzo?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Dat was HyperBart :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 02:41
Ik was ff dronken, hele gave build, en met met de geroemde nieuwe xeon.

Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 08:40
Mooi apparaat! Wat ga je er op draaien?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Het is ook echt een prachtig bordje voor compacte vSAN builds. Die 950 Pro als cache en wat reguliere SSD's er achter als bulk storage. Dual of Quad gigabit voor je verbindingen, en vlammen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 02:41
Ik vraag me wel af of je al die cores/performance ook echt benut van zon' bordje, misschien wel met al die SSDs maar ik twijfel.

Acties:
  • 0 Henk 'm!

  • Zware Unit
  • Registratie: Maart 2001
  • Laatst online: 31-08 10:48
janser01 schreef op donderdag 03 maart 2016 @ 09:42:
Kost wel wat maar dan heb je ook iets. Netjes hoor.

Weet je al welke controller? ik herinner me dat je daar een paar posts geleden een vraag over had gesteld. Ik ben er nog steeds niet uit 8)7
Gaat ESXi draaien met FreeNAS voor storage en diverse VM's voor andere doeleinde.

Nog geen controller gevonden die aan de eisen voldoet en een beetje normale prijs heeft. Tevens nog disken aan het uitzoeken.

... all gonna wonder how you ever thought you could live so large and leave so little for the rest of us...


Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 08:40
Zijn er hier mensen die hun server ook als steam streaming host gebruiken ? Ik gebruik vooral me macbook en dan zou het wel leuk zijn als ik me servertje zo in kan richten, echter ben ik benieuwd naar jullie ervaringen.

[ Voor 48% gewijzigd door Xenophoben op 04-03-2016 11:11 ]


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Daarvoor heb je een vrij sterke GPU nodig en een geschikt desktop OS (Windows voor compatibiliteit met de meeste games), dat heb ik zelf niet gedaan. Liever een zeer zuinige server die echt afgestemd is op dit doel qua hardware/software en een aparte gaming desktop die afgestemd is op performance en niet op zuinigheid of servertaken.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 08:40
Ja, ik heb op dit moment een synology ds412+ die 50 watt idle draait , en ik heb me game pc (i5 , gtx 960 ) die ongeveer het zelfde idle draait. Als ik me synology hierdoor uit kan zetten bespaar ik juist behoorlijk wat stroom, en kan ik op me mac beter game. Win win in mijn situatie. Als ik bijvoorbeeld windows 10 draai met eventuele vm's dan zou ik op het gebied van functionaliteiten weinig inleveren denk ik .

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Tsurany schreef op vrijdag 04 maart 2016 @ 11:28:
Liever een zeer zuinige server die echt afgestemd is op dit doel qua hardware/software en een aparte gaming desktop die afgestemd is op performance en niet op zuinigheid of servertaken.
Hmmm, een High End GPU in je server stoppen kost niet echt extreem meer energie, een 980 Ti bv verbruikt idle ongeveer 10W meer, bij een GTX 980/970/960 is dat zelfs maar ongeveer 7W, dat is 20 en 14 euro extra op jaar basis.

Stroom verbruik verschillende GPU's.

Het is best interessant om te kunnen streamen naar budget PC's, zoals bv Metro, GTA of BF op een zuinige Atom HTPC of zo te kunnen spelen, met alles op redelijke hoge instellingen.

Houd er alleen wel rekening mee dat een soms kleine maar beetje merkbare lag geeft, vooral met een WiFi verbinding, en de meeste GPU fans eigenlijk niet geschikt zijn voor 24/7 gebruik.

Het laatste is trouwens wel makkelijk op te lossen door als de koeler faalt, er een aftermarket vervanger op te plaatsen.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Tsurany
  • Registratie: Juni 2006
  • Niet online

Tsurany

⭐⭐⭐⭐⭐

Xenophoben schreef op vrijdag 04 maart 2016 @ 12:02:
Ja, ik heb op dit moment een synology ds412+ die 50 watt idle draait , en ik heb me game pc (i5 , gtx 960 ) die ongeveer het zelfde idle draait. Als ik me synology hierdoor uit kan zetten bespaar ik juist behoorlijk wat stroom, en kan ik op me mac beter game. Win win in mijn situatie. Als ik bijvoorbeeld windows 10 draai met eventuele vm's dan zou ik op het gebied van functionaliteiten weinig inleveren denk ik .
Vind ik nog een vrij hoog stroomverbruik voor een Synology.

Je kan je game pc inderdaad inrichten via diverse VM's. Echter maak je het dan wel een stuk complexer om in te richten en moet je, als je bijvoorbeeld ZFS wilt draaien, weer allerlei hardware doorgeven aan je VM. Goedkope server kost je 300 euro extra, dat zou ik er wel voor over hebben voor het gemak van deze taakverdeling.

SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N


Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 08:40
player-x schreef op vrijdag 04 maart 2016 @ 12:16:
[...]

Hmmm, een High End GPU in je server stoppen kost niet echt extreem meer energie, een 980 Ti bv verbruikt idle ongeveer 10W meer, bij een GTX 980/970/960 is dat zelfs maar ongeveer 7W, dat is 20 en 14 euro extra op jaar basis.

Stroom verbruik verschillende GPU's.

Het is best interessant om te kunnen streamen naar budget PC's, zoals bv Metro, GTA of BF op een zuinige Atom HTPC of zo te kunnen spelen, met alles op redelijke hoge instellingen.

Houd er alleen wel rekening mee dat een soms kleine maar beetje merkbare lag geeft, vooral met een WiFi verbinding, en de meeste GPU fans eigenlijk niet geschikt zijn voor 24/7 gebruik.

Het laatste is trouwens wel makkelijk op te lossen door als de koeler faalt, er een aftermarket vervanger op te plaatsen.
Mijn gtx960 is bijna "passief"gekoeld. Pas als ik echt zware games ga spelen dan spint hij op ( msi )

Acties:
  • 0 Henk 'm!

  • wetsteyn
  • Registratie: Februari 2012
  • Laatst online: 21-03 10:11
player-x schreef op zondag 21 februari 2016 @ 21:09:
[...]

Als 4 HDD bays voldoende is, zou ik een HP MicroServer nemen, heb ik laatst voor een vriend ook thuis gebouwd, en de OS op een 2TB 2.5'' HDD ge-installeert, die ook dienst deed als tijdelijke download schijf, om het systeem nog zuiniger en betrouwbaarder te maken, daar dan de array +95% van de tijd gewoon spindown kan zijn, en de array alleen maar voor archiveren te gebruiken, en zo maar 30W verbruikte.

pricewatch: HP Proliant MicroServer Gen8 G1610T

Hier een review van de HP server.
Even inhaken op een oude post van je :).
Ik heb gisteren even uitgebreid gekeken naar mijn downloads etc, gaan die microservers echt maar tot 16TB?
Momenteel haal ik net 14TB aan data inclusief IPcamera van 3 maanden geleden (is misschien overdreven).
Zou dit geen optie zijn voor mij en genoegen nemen met 4 schijven + 1 download HDD(SSD was niet slim).

8*250wp Garage 12*290wp Zolder


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
Er passen 4 schijven in, HP zelf zal niet groter dan 4 TB per schijf leveren :) Je kunt er zelf schijven van 5, 6 of 8 TB in zetten.

De ML10 is ook een optie, daar passen er (met de € 50 uitbreiding) 6 schijven in: Paul in "Het grote DIY RAID NAS topic deel 3"

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • wopie
  • Registratie: Maart 2006
  • Laatst online: 07-06 20:08
Ik heb sinds kort een ML10v2 gekocht, bij zoeken naar extra informatie erover op voorhand kwam ik middels Youtube op het volgende uit: https://www.youtube.com/watch?v=_z1wXpvBDz0
Hier zie je dat er middels een 3rd party accessoire in de Microserver Gen-8 nog 4 extra disken in te zetten zijn. Ik had deze zelf echter niet nodig, en prijstechnisch vond ik dan de ML10v2 beter (ruimte is voor mij niet van belang).

Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 23-09 22:19
Ik ben op dit moment bezig met het bouwen van twee NASjes op basis van de pricewatch: Inter-Tech IPC SC-4100. Ik ben er achter gekomen dat deze niet te combineren is met een Intel Stock cooler en een full size mSATA/Mini PCI Express SSD (pricewatch: Crucial MX200 mSATA 250GB. Ze passen beide namelijk niet in de kast, hot swap bay zit in de weg. Qua CPU cooler is dat op te lossen met een low-profile CPU koeler. :)

Om niet al te veel opnieuw te hoeven aan te schaffen ben ik eens gaan kijken naar een riser. De markt van half size SSD's is namelijk erg dun bezaaid. De SSD's terugsturen wordt lastig, is zakelijk besteld. En het moederbord heeft maar 4 SATA aansluitingen die ik wil gebruiken voor alle 4 de hot swap bays. :P

Een van de oplossingen die ik gevonden heb is een Mini PCI-e riser verlengkabel http://www.miniinthebox.c...-verzending_p1862492.html Heeft iemand hier ervaring mee? Ik vind hier eigenlijk vrij weinig over op internet en bij de omschrijving lees ik dingen als:
- de mini pci-e extender is ontworpen om het signaal degradatie effecten van de extender door beproefde ontwerptechnieken minimaliseren.
- de mini pci-e extender is een debug en test tool.
- ook een krachtig hulpmiddel voor ingenieurs en inspecties in de fabriek.
Afbeeldingslocatie: http://miniimg6.rightinthebox.com/images/384x384/201408/puzbnf1409090917063.jpg

Niet erg hoopgevend.. :+ Een alternatief is deze van amazon: http://www.amazon.co.uk/m...ter-ribbons/dp/B00XL84IRE

Afbeeldingslocatie: https://i.imgur.com/imv2qaI.png

Wat ook nog kan is een soort van mini PCI Express/mSATA naar SATA convertor (maar dan moet ik wel de mSATA SSD voor een 2,5" SATA SSD zien om te ruilen):

http://www.aliexpress.com...-SATA-to/32539397837.html
Afbeeldingslocatie: https://i.imgur.com/SyWFJMe.png

Gek genoeg kom ik geen mooie oplossingen tegen dichter bij huis. Is er iemand die hier iets meer over kan zeggen en over de betrouwbaarheid van zulke oplossingen? De MX200 wordt overigens prima herkend in de configuratie, dat is dus alvast getest.. :P

[ Voor 21% gewijzigd door Steephh op 05-03-2016 03:11 ]

_@/'


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
Ik zie in je lijst geen PCIe-kaart staan, je kunt ook een PCIe-to-mSATA-kaart kopen (bijvoorbeeld deze, 1e hit op Google :+ ). Daar zit dan een controller op en op de meeste kun je twee mSATA-kaartjes kwijt. Wel even kijken welke controller er op zit en of die voldoet voor je :)

Andere optie, samen met dat mSATA-to-SATA-bordje (als dat wel past....) is een SATA-to-mSATA-bordje :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • janser01
  • Registratie: Augustus 2013
  • Laatst online: 06-05-2024
Paul schreef op zaterdag 05 maart 2016 @ 10:48:
Daar zit dan een controller op en op de meeste kun je twee mSATA-kaartjes kwijt. Wel even kijken welke controller er op zit en of die voldoet voor je :)
Ja en dan maar hopen dat je NAS software, zoals Xpenology of FreeNAS de controller ook herkent. Dat is vaak ook nog (helaas) een probleem. Het is puzzelen geblazen. :/


Ik heb inmiddels de knoop doorgehakt. Gisteren deze lijst besteld. Hoop het vandaag binnen te krijgen. Geen ECC ram/server bordje want ik ben niet overtuigd van de noodzaak voor mijn toepassing (non kritische Media NAS). Wel bewust de Skylake gekozen en een bordje met redelijk diverse aansluiting mogelijkheden. Geen dual lan want dat zie ik me ook niet nodig hebben. Ook niet gekozen voor een bord met super veel SATA poorten. Prijs technisch schiet je dan meteen door door alle extra bord opties die je erbij krijgt en niet gebruikt. Ook niet gekozen voor een RAID/SAS controller maar een kaartje met 4 SATA aansluitingen. Het bord is mATX heeft 2 PCIe aansluitingen dus zou nog zo'n kaartje erbij kunnen prikken voor in totaal 14 schijven. En dan heb ik nog een slot over voor een RAID/SAS kaart mocht de nood aan de man zijn :-) Maar dan moet ik ook een andere kast kopen! Een i3 leek me een redelijke middle of the road keuze voor plek en eventueel een VM om wat mee te prutsen. Ik wil xpenology gaan draaien, of bare metal of op ESXi, ik ben er nog niet uit. Op mijn testset heb ik Esxi vanaf een usb draaien waarbij ik Xpenology vanaf een andere USB opstart. E.e.a. werkt aardig goed na wat gegoogle en gepruts.

#ProductPrijsSubtotaal
1Intel Core i3-6100 Boxed€ 119,-€ 119,-
1Gigabyte GA-B150M-DS3P€ 90,50€ 90,50
2WD Blue WD50EZRZ, 5TB€ 189,73€ 379,46
1Delock PCI Express Card > Hybrid 4 x internal SATA 6 Gb/s RAID - Low Profile Form Factor€ 49,75€ 49,75
1NZXT H440 New Edition Zwart/Zwart Closed€ 112,95€ 112,95
1Kingston HyperX Fury black HX424C15FB/8€ 34,95€ 34,95
1Cooler Master V Series V650 - 80+ Gold€ 100,95€ 100,95
Bekijk collectie
Importeer producten
Totaal€ 887,56

[ Voor 83% gewijzigd door janser01 op 05-03-2016 12:58 ]

Mijn stuff -> http://gathering.tweakers.net/forum/view_message/43289117


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
Schattig klein koelblokje op dat sata kaartje ;)

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
janser01 schreef op zaterdag 05 maart 2016 @ 12:38:
Geen ECC ram/server bordje want ik ben niet overtuigd van de noodzaak voor mijn toepassing (non kritische Media NAS).
900 euro uitgeven aan een server, en dan 35 euro besparen door geen ECC te nemen begrijp ik niet helemaal.

Het enige nadeel van het ECC bord is, is dat er geen video op zit, maar is dat echt een probleem?

Ik heb zelf in een van mijn servers ook geen video uit, is echt geen probleem, doe alles via het gratis VNC remote desktop, en kan op mijn server (Linux) komen vanaf mijn mobiel (Android), tablet (Win & iOS) en desktop (Win), ik kom alleen maar bij mijn server als ik een hardware upgrade of zo doe (1~2x per jaar), en dan plug ik er ff een oude videokaart er in, en als ik klaar ben trek ik hem er weer uit en leg ik hem weer onder in mijn kast.

En Xpenology of FreeNAS hebben beide ook een prima remote desktop functie.

Ik kan me best voorstellen waarom veel mensen geen ECC nemen van wegen de kosten, maar 35 euro of te wel 4% besparen op een systeem van 900 euro, zie ik nu niet echt als een besparing op echt de juiste onderdelen. :+

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • Shamalamadindon
  • Registratie: Juni 2009
  • Laatst online: 30-03-2024
V&A aangeboden: Te Koop: Hynix 8GB 2Rx4 PC3L - 10600R ECC - Registered

2x zoveel ECC RAM voor dezelfde prijs.


Nevermind, even niet gezien dat het DDR4 moest zijn.

[ Voor 12% gewijzigd door Shamalamadindon op 05-03-2016 15:55 ]

Wanneer heb je het laatst je wachtwoord verandert? Er word op T.net de laatste tijd regelmatig misbruikt gemaakt van accounts met gelekte wachtwoorden om andere gebruikers op te lichten. Verander je wachtwoord, geef oplichters geen kans!


Acties:
  • 0 Henk 'm!

  • Trishul
  • Registratie: December 2008
  • Laatst online: 11:55
Ik heb iets heel raars met mn nieuwe freenas build waar ik niet echt uit lijk te komen. Mainboard is een asrock b85m-pro4. Freenas is geinstalleerd op twee usb sticks (in een zfs mirror) en de eerste hdd zit erin, een 750gb 2.5". Installatie ging prima, de hdd toewijzen als downloads data store ook.

Helaas was er een stroomstoring afgelopen woensdag hier, systeem was dus offline tot vandaag. Ik wilde het systeem vandaag booten, maar kreeg direct de melding dat hij niet kan booten van nas disk. Toen drong mij direct door dat de boot order niet klopt. Hij wilde namelijk booten vanaf de hdd ipv vanaf de usb sticks. Om dit te testen, koppelde ik de sata kabel van de hdd af en freenas bootte direct zonder problemen, vanaf de usb sticks dus. Ik heb hierna een reboot gedaan kaal, zonder usb sticks en hdd, zodat ik direct in de uefi terecht kom. Tot mijn verbazing kan ik helemaal niks instellen bij boot order.... Meteen alle sata poorten hot-swap enabled gezet, en voor de test, wol enabled gezet. Bij reboot zag ik bij boot order alleen de intel nic staan, verder niks, geen hdd, geen usb sticks..... Iemand enig idee waar dit aan zou kunnen liggen? Dit is voor mij de eerste keer werken met uefi, hoe raar dat ook mag klinken.

Acties:
  • 0 Henk 'm!

  • Steephh
  • Registratie: Juni 2003
  • Laatst online: 23-09 22:19
Paul schreef op zaterdag 05 maart 2016 @ 10:48:
Ik zie in je lijst geen PCIe-kaart staan, je kunt ook een PCIe-to-mSATA-kaart kopen (bijvoorbeeld deze, 1e hit op Google :+ ). Daar zit dan een controller op en op de meeste kun je twee mSATA-kaartjes kwijt. Wel even kijken welke controller er op zit en of die voldoet voor je :)

Andere optie, samen met dat mSATA-to-SATA-bordje (als dat wel past....) is een SATA-to-mSATA-bordje :P
Dat was inderdaad een oplossing die ik later ook nog tegenkwam. Gezien ik zelf alles wil inrichten zal het waarschijnlijk wel gaan werken, de vraag is alleen of er vanaf te booten is. In het ergste geval zou ik dan nog een half size mSATA SSD van twee tientjes als bootdisk kunnen inzetten.

Net is anders, maar het moet uiteindelijk gewoon gaan werken.. :P

_@/'


Acties:
  • 0 Henk 'm!

  • Pietb
  • Registratie: Maart 2001
  • Niet online
Inmiddels zie ik door de bomen het bos niet meer: wat is een kosten efficiënte manier (<€100) om zeg 4 SATA poorten toe te voegen aan een FreeNas machine?

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
Een m1015 en een SFF-8077-to-SATA-kabel via eBay? Kost (inclusief douane en inklaringskosten) € 125 maar dan heb je wel 8 poorten.

Als je PCI-sloten hebt is deze erg goedkoop: http://www.ebay.com/itm/P...0bf80a:g:iBwAAOSwirZTs1uu (en niet de allersnelste), of de duurdere http://www.ebay.com/itm/4...5a7a54:g:qtIAAOSwyQtV0TNy op PCIe.

Gewoon sorteren op prijs en dan kijken of de controller die gebruikt wordt ondersteund wordt :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
Pietb schreef op maandag 07 maart 2016 @ 11:57:
Inmiddels zie ik door de bomen het bos niet meer: wat is een kosten efficiënte manier (<€100) om zeg 4 SATA poorten toe te voegen aan een FreeNas machine?
Een Port Multiplier is ook een prima optie voor 4 extra HDDs.

PM's zijn te gebruiken zonder driver, en als ik het goed heb ondersteund FreeNAS ze ook gewoon.

Zoals deze: Startech Port Multiplier Controller Card - single SATA3 to 5-Port SATA

Afbeeldingslocatie: http://ic.tweakimg.net/ext/i/2001011509.jpeg

[ Voor 34% gewijzigd door player-x op 07-03-2016 15:56 ]

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

Verwijderd

Enorm duur en dan zit je dus met gedeelde bandbreedte. Dat zal ik niet aanraden. Een ASMedia addon controller lijkt mij beter, die heb je zelfs voor voor minder geld en dan zit je met veel meer bandbreedte.

ZFS RAID-Z is meer dan regulier RAID5 en RAID6 gevoelig voor latencyverschillen. Dat gezegd, in veel gevallen zal het voldoende zijn omdat je door gigabit wordt beperkt. Maar door ZFS transaction groups kunnen de pauzes waar je geen I/O kunt doen wel groter worden als je beperkte I/O bandbreedte hebt. Zelf raad ik dus aan een addon controller te gebruiken ipv port multiplier.

Acties:
  • 0 Henk 'm!

  • Habana
  • Registratie: Oktober 2005
  • Laatst online: 12:14
Verwijderd schreef op maandag 07 maart 2016 @ 16:42:
Enorm duur en dan zit je dus met gedeelde bandbreedte. Dat zal ik niet aanraden. Een ASMedia addon controller lijkt mij beter, die heb je zelfs voor voor minder geld en dan zit je met veel meer bandbreedte.
etc..
Ik zelf zit naar deze te kijken, gaat dit werken met ZFSguru….
http://www.delock.com/pro...eSATA_89395/merkmale.html

Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
Het nadeel van deze kaart vind ik dat het een minimaal een x4 slot vereist.

De optie Paul gevonden had;
Vind ik dan interessanter.

op een board als deze pricewatch: Asus N3150M-E gebruik ik het x16 slot liever voor een netwerkkaart met meerdere poorten of zelfs een 10GB kaart.

een 4Gb netwerk trunk zou theoretisch misschien net niet een PCI-e 2.0 x1 vol trekken lijkt mij. Ik heb al eens een post gelezen van een mede tweaker die 450MB wist te halen over een 4 x 1Gbps verbinding.

Het is natuurlijk vervolgens afhankelijk van de gebruikte disken en raid configuratie hoeveel snelheid je weet te halen van en naar de disken zelf.

Of maak ik nu ergens een denk fout? Sluit ik zeker niet uit :+

Acties:
  • 0 Henk 'm!

Verwijderd

VorCha schreef op maandag 07 maart 2016 @ 18:21:
Het nadeel van deze kaart vind ik dat het een minimaal een x4 slot vereist.
Hoezo? Het moet fysiek passen, maar werkt ook gewoon in een slot met 1 lane. Uiteraard tegen max 500MB/s snelheid.

Veel PCIe x1 slots zijn ook open aan de achterkant, zodat je er een kaart met meer lanes in kunt stoppen. En je kunt altijd nog een riser gebruiken om dit mogelijk te maken. Sommige mensen gebruiken een dremel om de achterkant open te zagen zodat het fysiek past.
De optie Paul gevonden had; Vind ik dan interessanter.
Die heeft een Marvell controller en doorgaans werkt dat minder vaak goed. Zeker voor FreeNAS goed te compatibility checken is mijn advies.
op een board als deze pricewatch: Asus N3150M-E
Brrrr ik zie een parallelle poort! :X

Dit bord heeft overigens geen open PCIe x1 slots. Maar dat valt te fixen met de dremel.
Habana schreef op maandag 07 maart 2016 @ 17:55:
Ik zelf zit naar deze te kijken, gaat dit werken met ZFSguru….
http://www.delock.com/pro...eSATA_89395/merkmale.html
Die controller werkt momenteel helaas nog niet op BSD en dus ook niet ZFSguru en FreeNAS. Hij heeft waarschijnlijk wat quirks nodig. Valt denk ik makkelijk op te lossen. Ik ben zelf van plan hem te kopen en wat BSD devs te porren om de benodigde quirks te committen.

Acties:
  • 0 Henk 'm!

  • Niels.68
  • Registratie: Mei 2010
  • Laatst online: 03-08-2024
VorCha schreef op maandag 07 maart 2016 @ 18:21:
[...]

H

op een board als deze pricewatch: Asus N3150M-E gebruik ik het x16 slot liever voor een netwerkkaart met meerdere poorten of zelfs een 10GB kaart.
Ik wil je niet teleurstellen maar het x16 slot draait ook x1 :(
Van Asus site:
Expansion Slots
1 x PCIe 2.0 x16 (x1 mode)
2 x PCIe 2.0 x1

https://www.asus.com/Motherboards/N3150ME/specifications/ als je zelf wilt lezen...

Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
Niels.68 schreef op maandag 07 maart 2016 @ 19:47:
[...]
Ik wil je niet teleurstellen maar het x16 slot draait ook x1 :(
Van Asus site:
Expansion Slots
1 x PCIe 2.0 x16 (x1 mode)
2 x PCIe 2.0 x1

https://www.asus.com/Motherboards/N3150ME/specifications/ als je zelf wilt lezen...
Geen teleurstelling, wel even 8)7 momentje. Maar dan hoef ik in ieder geval niet met dremeltjes aan de slag.
Die heeft een Marvell controller en doorgaans werkt dat minder vaak goed. Zeker voor FreeNAS goed te compatibility checken is mijn advies.
Hij hoeft voor mij alleen maar onder Linux te werken 8)
Brrrr ik zie een parallelle poort!
Ik had ook zoiets van, wat moet ik daar nu weer mee?

Acties:
  • 0 Henk 'm!

Verwijderd

Modbreak:Heren Mattie112 en ComTech,

Mag ik jullie verzoeken om dit topic uitsluitend voor hardwareoverwegingen te gebruiken en strikt softwaretechnische vragen in het ZFS topic te houden?

Het ZFS topic omvat ook ZFS distributies, waaronder FreeNAS. Dus specifieke vragen over die platforms mag ook in dat topic. Tevens kun je altijd overwegen een eigen topic te maken als je vraag of discussieitem uitgebreid genoeg is en je startpost voldoende uitgebreid.

Ik heb jullie vragen voor nu verplaatst naar het ZFS topic.

Vriendelijke groet,
CiPHER
Moderator OT

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 11:51
Verhuisd naar HyperBart in "Troubleshooting en oorzaak ZFS cksum errors"

[ Voor 100% gewijzigd door HyperBart op 08-03-2016 09:59 ]


Acties:
  • 0 Henk 'm!

  • Kaffe
  • Registratie: Augustus 2014
  • Laatst online: 21-12-2023
Heren,

Ik ben een diy nas/htpc systeem aan het samenstellen voor thuisgebruik aka twee gebruikers die 1080p moeten kunnen transcoden. Daarnaast moet hij ook Sonarr kunnen draaien en eventueel (wanneer plex niet draait) wat films converteren.

Ik had hiervoor volgend systeem in gedachten:

#ProductPrijsSubtotaal
1Intel Core i3-4160 Boxed€ 112,95€ 112,95
1ASRock H97M Pro4€ 83,37€ 83,37
1WD Red WD40EFRX, 4TB€ 160,95€ 160,95
1Fractal Design Node 304 Zwart€ 73,-€ 73,-
1Sandisk Cruzer Ultra Fit 16GB Zilver€ 6,97€ 6,97
1Kingston ValueRAM KVR16E11/8€ 52,01€ 52,01
1Corsair CS450M€ 79,90€ 79,90
Bekijk collectie
Importeer producten
Totaal€ 569,15


Zal dit systeem in elkaar passen? Kan ik hier dan Freenas op gooien samen met plex en sonarr?

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Ik zou niet voor H97 gaan, maar voor het nieuwere H110 of H170 platform.
Hier een lijstje: http://tweakers.net/categ...Y2NDNCVW2upKNkCbQEKFtbCwA

Die voeding ken ik eerlijk gezegd niet, hij is volgens de pricewatch al wat ouder (beschikbaar sinds November 2013). Misschien naar een iets recenter model kijken?

(Ik vertrouw hier altijd op -The_Mask-, die weet daar meer van dan ik :) )
-The_Mask- in "Voeding advies en informatie topic - Deel 32"

(PS: voor H110 en H170 heb je ook een nieuwere CPU en DDR4 geheugen nodig btw...)

[ Voor 6% gewijzigd door FireDrunk op 08-03-2016 12:36 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • wetsteyn
  • Registratie: Februari 2012
  • Laatst online: 21-03 10:11
Zo mijn uiteindelijke lijstje is geworden:

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 60,95€ 60,95
1Asus P10S-I€ 177,83€ 177,83
5WD Green HDD, 6TB€ 234,95€ 1.174,75
1Fractal Design Array R2 Mini ITX NAS Case€ 0,-€ 0,-
2Kingston ValueRAM KVR21N15D8/16€ 61,84€ 123,68
Bekijk collectie
Importeer producten
Totaal€ 1.537,21


De kast stond nog boven op zolder :) wie wat bewaard heeft wat :P
Nu nog even wachten op mijn 128GB USB 3.0 usb stick :P.
SSD heb ik al binnen :)

8*250wp Garage 12*290wp Zolder


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Keurig systeempje! Geen voeding? :+

[ Voor 32% gewijzigd door FireDrunk op 08-03-2016 12:56 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • _PloppeR_
  • Registratie: Maart 2009
  • Laatst online: 23-09 23:20
Heeft iemand over het volgende idee een goed advies?

Is een Asrock N3150DC-ITX bruikbaar als ZFS machine (zfsguru) in combinatie met een Windows installatie in een virtualbox? In deze virtualbox wil ik dan Emby server draaien en download programma's als couchpotato etc. De keuze voor windows is vanwege het feit dat Emby Intel Quick sync ondersteunt op windows, hierdoor zou een N3150 goed genoeg moeten zijn om een stream te transcoden (right?). Iemand die dit toevallig zelf getest heeft?

Of kan ik beter voor een skylake setup gaan op basis van een H110 chipset. (Dit is, als ik me niet vergis, een iets onzuinigere oplossing, maar wel een krachtigere).

Mijn eisen aan het systeem op dit moment zijn:
- Transcoden van media (voor remote bekijken)
- Downloaden van media
- Back ups storen van foto's en belangrijke documenten. (Niet bedrijfsmatig)

Acties:
  • 0 Henk 'm!

  • wetsteyn
  • Registratie: Februari 2012
  • Laatst online: 21-03 10:11
FireDrunk schreef op dinsdag 08 maart 2016 @ 12:55:
Keurig systeempje! Geen voeding? :+
Goed kijken :+ zit een 300w SFX voeding in :P.

8*250wp Garage 12*290wp Zolder


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
_PloppeR_ schreef op dinsdag 08 maart 2016 @ 13:16:
Heeft iemand over het volgende idee een goed advies?

Is een Asrock N3150DC-ITX bruikbaar als ZFS machine (zfsguru) in combinatie met een Windows installatie in een virtualbox? In deze virtualbox wil ik dan Emby server draaien en download programma's als couchpotato etc. De keuze voor windows is vanwege het feit dat Emby Intel Quick sync ondersteunt op windows, hierdoor zou een N3150 goed genoeg moeten zijn om een stream te transcoden (right?). Iemand die dit toevallig zelf getest heeft?

Of kan ik beter voor een skylake setup gaan op basis van een H110 chipset. (Dit is, als ik me niet vergis, een iets onzuinigere oplossing, maar wel een krachtigere).

Mijn eisen aan het systeem op dit moment zijn:
- Transcoden van media (voor remote bekijken)
- Downloaden van media
- Back ups storen van foto's en belangrijke documenten. (Niet bedrijfsmatig)
Ik verwacht niet dat Intel Quick Sync werkt in een VM via VirtualBox. Ik verwacht dat die specifieke CPU instructies namelijk niet door VirtualBox ondersteund worden. Zeker weten doe ik het niet, want VT-x dicteert dat de VM de beschikking zou krijgen over de "hele" cpu, maar of dit soort specifieke instructies werken, durf ik niet te zeggen. Ik zou het even goed nagaan.

Qua "bruikbaarheid" zou ik toch oppassen. Terwijl je VM aan het downloaden is, zul je voor ZFS nog wat CPU en disk power over moeten hebben om te streamen. En laat een Celeron 3150 nou niet echt een snelheidsmonster zijn :)

Ik denk dat het te krap is, maar dat is mijn perceptie, en is niet gebaseerd op praktijk ervaring.

Even niets...


Acties:
  • 0 Henk 'm!

  • Johnnygo
  • Registratie: April 2009
  • Laatst online: 11:43
_PloppeR_ schreef op dinsdag 08 maart 2016 @ 13:16:
Heeft iemand over het volgende idee een goed advies?

Is een Asrock N3150DC-ITX bruikbaar als ZFS machine (zfsguru) in combinatie met een Windows installatie in een virtualbox? In deze virtualbox wil ik dan Emby server draaien en download programma's als couchpotato etc. De keuze voor windows is vanwege het feit dat Emby Intel Quick sync ondersteunt op windows, hierdoor zou een N3150 goed genoeg moeten zijn om een stream te transcoden (right?). Iemand die dit toevallig zelf getest heeft?

Of kan ik beter voor een skylake setup gaan op basis van een H110 chipset. (Dit is, als ik me niet vergis, een iets onzuinigere oplossing, maar wel een krachtigere).

Mijn eisen aan het systeem op dit moment zijn:
- Transcoden van media (voor remote bekijken)
- Downloaden van media
- Back ups storen van foto's en belangrijke documenten. (Niet bedrijfsmatig)
Intel Quick Sync werkt niet in een virtualisatie omgeving. Alleen echt bare metal. Dit komt omdat QS met de GPU werkt en niet met de CPU. Dit heb ik uitgeprobeerd in esxi.
Emby zal verder wel gewoon werken, maar voor transcoding zal de N3150 dan echt wat tekort komen.

Acties:
  • 0 Henk 'm!

  • _PloppeR_
  • Registratie: Maart 2009
  • Laatst online: 23-09 23:20
Oke, dan is dat geen goede oplossing. In dat geval kan ik Emby beter gewoon direct op ZFSguru draaien en wachten op FreeBSD support voor QS.

Acties:
  • 0 Henk 'm!

  • Pietb
  • Registratie: Maart 2001
  • Niet online
Verwijderd schreef op maandag 07 maart 2016 @ 16:42:
Enorm duur en dan zit je dus met gedeelde bandbreedte. Dat zal ik niet aanraden. Een ASMedia addon controller lijkt mij beter, die heb je zelfs voor voor minder geld en dan zit je met veel meer bandbreedte.
Heb je toevallig ook een voorbeeld van een kaartje?

Een IBM 1015 vind ik eigenlijk te duur voor wat ik wil, 10 poorten totaal is meer dan genoeg voor wat ik voor ogen heb.

Acties:
  • 0 Henk 'm!

  • Johnnygo
  • Registratie: April 2009
  • Laatst online: 11:43
_PloppeR_ schreef op dinsdag 08 maart 2016 @ 16:20:
Oke, dan is dat geen goede oplossing. In dat geval kan ik Emby beter gewoon direct op ZFSguru draaien en wachten op FreeBSD support voor QS.
Of Linux gebruiken.....

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

Ik heb een vraag over een case met een geïntrigeerde expander in de backplane. Deze backplane wordt 2 keer verbonden met een kabel op de HBA en stuurt zo 24 drives aan. Wat kan ik verwachten van de snelheid? Ik geloof dat een SAS kanaal 12Gb/sec haalt?

Ik weet nog niet zo zeer wat voor bestanden systeem ik hier op ga gebruiken...

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
1 SAS-kanaal wel (afhankelijk van de standaard, SAS-3 doet inderdaad 12 GBit/s), maar in een SFF-8088-kabel zitten 4 kanalen. Vaak worden externe enclosures met SFF-8088 aangesloten. De IBM v7000 bijvoor-beeld hangt (maximaal) 120 schijven aan één (eigenlijk 2, maar de controllers zijn active/passive) zo'n kabel. 24 schijven op één kanaal is net zo snel als zo'n professioneel SAN wat al heel snel over de € 100.000 zit :)

Nu ja, zo'n v7000 is net wat sneller is omdat het alle 4 de kanalen tegelijk kan benutten, ook als niet alle drives bezig zijn, maar het gaat om het idee :P

De vraag is ook, welke case (of expander) bedoel je? Want veel kans zit daar ook een multi-lane connector op ipv één SAS-aansluiting :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

Ik bedoel deze case x-case rm 424 pro sas expander & sgpio.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 09:00
Daar zitten twee SFF-8087-connectoren op, en SAS-2 (6 GBit/s) aansluitingen. Dat kost je dus 4 of 8 poorten van je HBA. Als je één SFF-8087 aansluit heb je 4x6=24 GBit/s naar je HBA, oftewel 1 GBit/s of 100 MB/sec (SCSI gebruikt 8b10b) per schijf. Voor bursts is dat langzamer dan een HDD aan kan, sequentieel over langere tijd is dat niet al te ver van wat een schijf (afhankelijk van het model) haalt.

Sluit je ze allebei aan dan verdubbelt dat natuurlijk :) De m1015 heeft een PCI-e 21.0 8x-aansluiting en doet dus maximaal 4.000 MB/sec. 8x SAS-600 doet 4.800 MB/s als je het vol trekt.

Al met al denk ik dat je tussen 1 of 2x SFF-8087 aangesloten, en 24 HDD's in de bays, maar 5 of 10% sneller bent, de keren dat je niet beperkt wordt door een gigabit netwerkaansluiting :) Het verschil tussen 24 schijven op de expander op 24 schijven rechtstreeks aan 3 8p HBA's (er vanuit gaande dat je daadwerkelijk 3 PCI-e 2.0 4x sloten hebt, niet alleen fysiek maar ook elektrisch, en naar je CPU ipv je chipset) is nog een keer zoiets.

Met SSD's ziet dat er een stuk anders uit natuurlijk, maar zo rijk ben ik niet :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

Super bedankt voor je uitleg! :)

Dus op zich is deze case geen verkeerde keus bergrijp ik.

Eigenlijk moet ik dus een sneller HBA kaart hebben zoals de LSI SAS 9300-8i. Wel er prijzig maar misschien wat meer future proof.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Wat Paul zegt klopt als een bus als het gaat over sequentiele transfers. Voor Random IO zou ik iets conservatiever zijn over de geschatte snelheden. Vooral als je er Sata schijven aan hangt. Op het moment dat je SATA gebruikt heb je namelijk wat minder opties qua queues in de controller en expander richting de schijven. Dus daar verlies je gok ik wat in snelheid.

Maar of je er in de praktijk wat van merkt? ik gok het niet :+

Even niets...


Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 12:58
Ik werd in FreeNAS helemaal gek van het gele alert lampje die me waarschuwt dat ik qua capiciteit wat krap zit:

Afbeeldingslocatie: https://i.gyazo.com/00d1b67350e993fa3694c0da087f3d77.png


Kan natuurlijk uitgeschakeld worden, maar heeft deze warning ook een bepaalde reden? Kan een ZFS volume bvb sneller gaan falen bij capaciteit 90% dan bij capaciteit 50%?

Acties:
  • 0 Henk 'm!

Verwijderd

Nee. Je pool wordt er alleen langzamer van. Dit kan ook aanblijven nadat je weer vrije ruimte hebt gemaakt. ZFS is een Copy-on-Write (CoW) filesystem en typerend daaraan is dat je vrije ruimte wilt hebben. Meer dan 70-80% zorgt voor extra fragmentatie en dus performance degradatie. Ongeveer hetzelfde als bij SSDs die een zeer vergelijkbaar probleem hebben. Maar daarbij valt het minder op.

Acties:
  • 0 Henk 'm!

  • XAEROCOOL
  • Registratie: Februari 2011
  • Laatst online: 23-09 21:45
Hallo, Ik had het volgende systeem samengesteld:
#ProductPrijsSubtotaal
1Supermicro X10SDV-8C-TLN4F€ 0,-€ 0,-
6WD Green HDD, 6TB€ 234,95€ 1.409,70
1Fractal Design Node 304 Wit€ 79,95€ 79,95
1Samsung M393A4K40BB0-CPB€ 196,-€ 196,-
1be quiet! Straight Power 10 400W€ 67,95€ 67,95
1Crucial MX200 M.2 80mm 500GB€ 153,50€ 153,50
Bekijk collectie
Importeer producten
Totaal€ 1.907,10

Ik wilde een raid-z2 pool opzetten met 6 hdds en het systeem op m.2 ssd installeren.
Maar ik lees nu het volgende in de handleiding van de moederbord: M.2 PCIe 3.0 x4 Slot, M Key for 2242/2280 SSD, SATA 3.0 support (Mux with ISATA-0)
Wat betekent mux hier? Betekent dit dat ik de ISATA-0 poort niet kan gebruiken als ik de m.2 gebruik?
Als ik m.2 aansluit samen met een HDD op ISATA-0 zie ik alleen de ssd in bios.
Als dit niet mogelijk is, denk ik dat ik een usb stick kan gebruiken om het systeem erop te installeren, kan iemand mij daarom een usb stick aanbevelen die goed zou moeten werken als systeem disk.

Het installeren van zfsguru lukt ook niet op dit systeem, blijft hangen bij starting devd. Daarom probeer ik freebsd te installeren en dit lijkt beter te gaan, hoewel ik er nog niet helemaal uit ben gekomen.
Bedankt.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Als ik het zo zie heeft je m.2 slot ook pci-e ondersteuning, dus je zou een NVME M.2 SSD kunnen nemen. (bijv. Samsung 950). Dan zou je geen conflict met je 1e sata schijf moeten hebben.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Mux betekend waarschijnlijk Multiplexed, een fancy woord voor "gedeeld".

Even niets...


Acties:
  • 0 Henk 'm!

  • jostefa
  • Registratie: Januari 2006
  • Laatst online: 09:28
Ik heb vandaag het onderstaande systeem besteld met twee hardeschijven van 3tb. Als software ga ik Arch Linux draaien en zet de hardeschijven in raid 1. Nu heb ik een licentie gekocht voor bittorrent sync om eenvoudig en snel bestanden te syncen tussen verschillende apparaten, verder ga ik een aantal shares opzetten voor films en foto's. Nu lees ik overal dat raid 1 geen back-up is en bittorrent sync ook niet. Wanneer kan ik stellen dat mijn back-up compleet is? Moet ik dan nog perse een rsync back-up naar buiten doen oid?

#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 60,95€ 60,95
1Asus H170M-PLUS€ 97,95€ 97,95
1Cooler Master Silencio 352€ 52,95€ 52,95
1Kingston HyperX Fury HX421C14FB/8€ 33,95€ 33,95
1Seasonic G-series 360 watt€ 59,95€ 59,95
1Samsung SM951 (NVMe) 128GB€ 91,95€ 91,95
Bekijk collectie
Importeer producten
Totaal€ 397,70

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 02:41
Met jouw oplossing ben je niet beschermd tegen menselijk falen want je hebt geen backup history. Als je per ongeluk een bestand wist dan zal dat bestand gewoon weg zijn. Bittorrent sync zal de delete ook syncen.

Er zijn twee redelijke opties:

1. cloud backup
2. externe schijf puur voor backup history van kritische data (prive foto's/docs).
3. optie 1 en 2 allebei.

[ Voor 27% gewijzigd door Q op 11-03-2016 22:41 ]


Acties:
  • 0 Henk 'm!

  • jostefa
  • Registratie: Januari 2006
  • Laatst online: 09:28
Ik heb nog een Synology ds213+ over, ik denk dat ik daar een hardeschijf voor koop en de data die niet via bittorrent sync gedeeld wordt naar backup via rsync. Bedankt voor het meedenken.

Acties:
  • 0 Henk 'm!

  • XAEROCOOL
  • Registratie: Februari 2011
  • Laatst online: 23-09 21:45
u_nix_we_all schreef op vrijdag 11 maart 2016 @ 13:55:
[...]


Als ik het zo zie heeft je m.2 slot ook pci-e ondersteuning, dus je zou een NVME M.2 SSD kunnen nemen. (bijv. Samsung 950). Dan zou je geen conflict met je 1e sata schijf moeten hebben.
Bedankt voor je reactie.
Zou ik geen conflict moeten hebben of weet je dat wel zeker?

CiPHER had mij deze ssd aangeraden om het ook als SLC SSD te gebruiken in combinatie met zfsguru, zou er een prestatie verschil ontstaan als ik een NVME SSD gebruik?

Trouwens ik heb zfsguru niet rechtstreeks kunnen installeren op dit systeem, ik denk vanwege een oudere freeBSD versie. Ik heb nu FreeBSD 10.2 op een usb stick kunnen installeren en dit lijkt te werken. Op dit moment heb ik alleen een raidz2 gecreeerd om een beetje mee te spelen.

Is het nog mogelijk om zfsguru handmatig boven freeBSD 10.2 te installeren of kan ik het beste freeBSD blijven gebruiken?

Bedankt.

Acties:
  • 0 Henk 'm!

Verwijderd

XAEROCOOL schreef op vrijdag 11 maart 2016 @ 13:35:
Hallo, Ik had het volgende systeem samengesteld
Xeon-D *drool* :9~
Ik wilde een raid-z2 pool opzetten met 6 hdds en het systeem op m.2 ssd installeren.
Maar ik lees nu het volgende in de handleiding van de moederbord: M.2 PCIe 3.0 x4 Slot, M Key for 2242/2280 SSD, SATA 3.0 support (Mux with ISATA-0)
Wat betekent mux hier? Betekent dit dat ik de ISATA-0 poort niet kan gebruiken als ik de m.2 gebruik?
Mux betekent in dit geval denk ik Mutual Exclusive; oftewel het één sluit het ander uit. Als je de M.2 via SATA gebruikt, dan kun je één normale SATA poort niet meer gebruiken. En andersom.

In jouw geval zou je dan beter een M.2 SSD via PCIe kunnen inzetten.
Als dit niet mogelijk is, denk ik dat ik een usb stick kan gebruiken om het systeem erop te installeren, kan iemand mij daarom een usb stick aanbevelen die goed zou moeten werken als systeem disk.
Sandisk Extreme zou wel geschikt zijn, de 4K random write is belangrijk. Deze is bij sommige sticks 0,001MB/s en dat is 1000 keer langzamer dan een hardeschijf, die weer minimaal 100 keer langzamer is dan een SSD. Bij goede USB sticks is deze 1MB/s bij een groot LBA bereik. Testen met 50MB grootte zoals sommige CrystalDiskMark zal onrealistisch hoge cijfers geven.
Het installeren van zfsguru lukt ook niet op dit systeem, blijft hangen bij starting devd.
Met wat probeer je te booten? Heb je ook een USB stick proberen aan te maken? Zo ja, heb je daarbij zowel UEFI als MBR boot geprobeerd?

Bovendien, SuperMicro heeft soms wel BIOS issues. Heb je de BIOS al eens geupdate? Overigens moest ik juist downgraden op mijn SuperMicro X10SBA om te kunnen booten via UEFI; MBR was geen probleem.
XAEROCOOL schreef op zaterdag 12 maart 2016 @ 12:38:
CiPHER had mij deze ssd aangeraden om het ook als SLC SSD te gebruiken in combinatie met zfsguru, zou er een prestatie verschil ontstaan als ik een NVME SSD gebruik?
Ja. NVMe protocol is veel sneller qua latency en dat zou wel iets kunnen uitmaken voor L2ARC bijvoorbeeld; wat voornamelijk op single queue random read leunt. Dat is iets wat NVMe kan versnellen. Maar, SLC ipv MLC doet hetzelfde op dat vlak. Het beste zou zijn allebei; dus én NVMe én SLC. Maar in de praktijk moet je dus kiezen. NVMe SSDs via PCIe 3.0 x4 zijn wel flink aan de prijs. Dat is ook een overweging.

Bedenk wel dat een normale NVMe SSD veelal geen power-safe capacitors heeft, en dus niet geschikt is als sLOG disk - enkel als L2ARC en als normale datastore (pool). Wil je ook sLOG, dan is een Crucial MX200 wellicht de betere keuze. Je kunt eventueel een controller in het PCIe slot gebruiken. Of een enkele USB3 -> SATA/600 adapter voor één van de 6 hardeschijven.
Is het nog mogelijk om zfsguru handmatig boven freeBSD 10.2 te installeren of kan ik het beste freeBSD blijven gebruiken?
Ik zou proberen ZFSguru aan de praat te krijgen. Dat moet kunnen lukken. Desnoods installeer je Root-on-ZFS op een hardeschijf of je RAID-Z2 via een ander systeem, en dan boot je daarmee want dat heeft weer andere bootcode dan de USB stick of LiveCD. Als je wilt, kan ik je daar persoonlijk mee helpen. In dat geval kun je me een DM bericht sturen. :)

Acties:
  • 0 Henk 'm!

  • XAEROCOOL
  • Registratie: Februari 2011
  • Laatst online: 23-09 21:45
Bedankt voor je reactie.
Verwijderd schreef op zaterdag 12 maart 2016 @ 13:19:
Met wat probeer je te booten? Heb je ook een USB stick proberen aan te maken? Zo ja, heb je daarbij zowel UEFI als MBR boot geprobeerd?

Bovendien, SuperMicro heeft soms wel BIOS issues. Heb je de BIOS al eens geupdate? Overigens moest ik juist downgraden op mijn SuperMicro X10SBA om te kunnen booten via UEFI; MBR was geen probleem.
Ik had een usb stick aangemaakt, Ik heb geen cd of dvd speler in het systeem.
Ik had alleen met uefi geprobeerd, ik zal het ook een keertje met mbr proberen, en als het weer niet lukt zal ik bios updaten en daarna weer met uefi en mbr proberen.
Verwijderd schreef op zaterdag 12 maart 2016 @ 13:19:
Ja. NVMe protocol is veel sneller qua latency en dat zou wel iets kunnen uitmaken voor L2ARC bijvoorbeeld; wat voornamelijk op single queue random read leunt. Dat is iets wat NVMe kan versnellen. Maar, SLC ipv MLC doet hetzelfde op dat vlak. Het beste zou zijn allebei; dus én NVMe én SLC. Maar in de praktijk moet je dus kiezen. NVMe SSDs via PCIe 3.0 x4 zijn wel flink aan de prijs. Dat is ook een overweging.

Bedenk wel dat een normale NVMe SSD veelal geen power-safe capacitors heeft, en dus niet geschikt is als sLOG disk - enkel als L2ARC en als normale datastore (pool). Wil je ook sLOG, dan is een Crucial MX200 wellicht de betere keuze. Je kunt eventueel een controller in het PCIe slot gebruiken. Of een enkele USB3 -> SATA/600 adapter voor één van de 6 hardeschijven.
Ik heb een beetje over sLOG gelezen en van wat ik heb begrepen zou dit de betrouwbaarheid van het systeem verminderen en het kan een groter probleem worden in verband met VMs.

Optie controller PCIe slot: de Delock PCI Express Card > 10 x internal SATA 6 Gb/s die je eerder een keertje had genoemd is ook niet echt goedkoop en als ik later nog een pool wil toevoegen met 10 schijven blijf ik hetzelfde probleem houden. Hier zou dan de 10 schijven aangesloten worden en dan moet de oude pool toch weer op mb en dat gaat niet werken met huidige ssd.

Optie USB3 -> SATA/600: Dit is wel interessant, het blijkt dat alleen de usb poorten achter 3.0 zijn, dan moet er een kabeltje doorgelust worden naar binnen. Een vraag hierover is of dit ook mogelijk zou zijn met de interne usb2 aansluitingen, hoe groot zou de prestatie verlies worden? (Ik moet er wel bij vermelden dat ik op dit moment freebsd op een usb stick draai en deze wordt in bios alleen als boot schijf herkend als ik de usb3 poorten achter gebruik, ik heb het met een adapter voor de interne usb2 aansluiting geprobeerd, maar het is niet gelukt; ik heb trouwens ook niet een adapter van interne usb2 naar sata kunnen vinden)
Verwijderd schreef op zaterdag 12 maart 2016 @ 13:19:
Ik zou proberen ZFSguru aan de praat te krijgen. Dat moet kunnen lukken. Desnoods installeer je Root-on-ZFS op een hardeschijf of je RAID-Z2 via een ander systeem, en dan boot je daarmee want dat heeft weer andere bootcode dan de USB stick of LiveCD. Als je wilt, kan ik je daar persoonlijk mee helpen. In dat geval kun je me een DM bericht sturen. :)
Dit zou ik zeer op prijs stellen, maar laat ik eerst maar de mbr en bios update opties proberen, daarmee kan ik op dit moment nog door.

UPDATE: Met mbr kreeg ik hetzelfde fout. Daarna heb ik bios geupdate en het werkt! Bios die erop zat was versie 1.0a van 05-2015, nu heb ik het laatste erop gezet: versie 1.1.

Acties:
  • 0 Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 12:58
Wat gebruiken jullie om enigszins preventief heibel op het spoor te komen?

FreeNAS doet regelmatig een scrub, daarnaast draai ik degelijks ééns een script die de belangrijkste S.M.A.R.T. parameters voor iedere schijf uitleest (Reallocated Sectors, Current Pending Sectors, UDMA fouten en de algemene status):

code:
1
2
3
4
5
6
DISK MODEL S/N FIRMWARE CAPACITY TEMP CPS RS UDMA HOURS S.M.A.R.T.
HD204UI ada0 HD204UI S2H7J90B40... 1AQ10001  26  C 0 0 0 36149 PASSED
HD204UI ada1 HD204UI S2H7J90B40... 1AQ10001  27  C 0 0 0 36149 PASSED
HD204UI ada2 HD204UI S2H7J9CB10... 1AQ10001  27  C 0 0 0 36149 PASSED
ST2000DM001-1ER164 ada3 ST2000D... -1ER164 W4Z0Z6LT CC25  29  C 0 0 0 4048 PASSED
HTS545016B9SA02 ada4 HTS545016B... 090613PBDB00QCGM8V4G PBBAC60Q  24  C 0 0 0 11106 PASSED

Acties:
  • 0 Henk 'm!

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 13:06
Hey Tweakers,

Ik heb op dit moment een Synology DS712+, maar ben op zoek naar een systeem dat meer schijven toelaat. Eerst was ik aan het kijken naar een nieuwe Synology, maar ik ga toch zelf een systeem samen stellen.
De NAS wordt gebruikt voor niet-kritische data opslag en (voornamelijk) om in HD te streamen. Ik ben van plan om er Xpenology op te installeren en dan een paar apps (transmission, nzbget, ...) op te installeren. Wat denken jullie van volgende configuratie (zonder schijven):

#ProductPrijsSubtotaal
1Intel Core i3 4170T Tray€ 129,03€ 129,03
1Gigabyte GA-H97N-WIFI€ 108,50€ 108,50
1Fractal Design Node 304 Wit€ 79,95€ 79,95
1Sandisk Cruzer Fit 8GB Zwart€ 5,-€ 5,-
1Noctua NH-L12€ 42,95€ 42,95
1Kingston HyperX Fury white HX316C10FW/8€ 34,-€ 34,-
1Corsair RM650€ 122,31€ 122,31
Bekijk collectie
Importeer producten
Totaal€ 521,74


Opmerkingen zijn altijd welkom! :-)

Acties:
  • 0 Henk 'm!

  • player-x
  • Registratie: Mei 2002
  • Laatst online: 23-09 12:24
dotcom87 schreef op dinsdag 15 maart 2016 @ 16:40:
Opmerkingen zijn altijd welkom! :-)
Voor wat je er mee wil doen is de CPU eigenlijk behoorlijk overkill, een goedkope en zuinige SoC als de Asrock N3150 is meer dan voldoende, samen met een goedkope SATA controller om aan je 6 STA porten te komen, heb je echt WiFi nodig kan je altijd een WiFi dongel nemen, daar naast is de PSU zwaar overkill, 150W is al meer dan voldoende voor een server, maar de kleinste redelijk goede PSU is de be quiet! System Power 7 300W

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-09 20:52
Hij zegt: Voornamelijk HD streamen... Als het puur alleen het leveren van data is, heb je gelijk.
Als hij ook wil transcoden is een i3 geen overbodige luxe :)

De voeding is inderdaad extreem overkill.

BTW: Waarom ga je niet voor het nieuwe Skylake platform (inclusief DDR4?)

[ Voor 15% gewijzigd door FireDrunk op 15-03-2016 18:08 ]

Even niets...

Pagina: 1 ... 203 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.