• BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
foto van een rommelige zooi heeft m.i. helemaal niets met Tweaken te maken, lijkt mij eerder de zooi van iemand die te lui is om het een beetje netjes opgebouwd te houden?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 17-09 20:58
Verwijderd schreef op zaterdag 22 september 2012 @ 13:43:
Valt wel mee, een tijdje terug voor 120 euro op de kop kunnen tikken. En hij wordt wel degelijk als 19" rack gebruikt, alleen zit de ups helemaal bovenin, en is hij dus niet zichtbaar op deze foto.
Wat is dat witte ding dan rechts in het rack? Ik had het idee dat het een APC Back-UPS is.

De CSL/OT kroeg !


Verwijderd

Dat is een kartonnen doos. :+

Ik zal maar even het vooraanzicht plaatsen:
Afbeeldingslocatie: http://i46.tinypic.com/2zf2z43.jpg

Straks zal ik ook nog effe wat schrijven over de server zelf, aangezien die toch een plaatsje heeft (ergens onderaan) in de ranglijst.

[ Voor 34% gewijzigd door Verwijderd op 22-09-2012 13:56 ]


  • FabiandJ
  • Registratie: Oktober 2001
  • Niet online
MainboardGigabyte GA-H67M-UD2H-B3
GeheugenKingston HyperX Blu 8GB DDR3
ProcessorIntel i3-2100T
OS DriveWestern Digital Blue WD5000AAKS
Raid ControllerIntel RAID Controller SASUC8I
Raid LevelRaid 6 via mdadm
Storage10x Western Digital Green WD20EARS, 2TB
CaseLian Li PC-A77FB
Power Idlegeen idee
OSOpenSuse 12.2
FunctiesSamba
XBMC
glftpd
uTorrent


En de foto's :)
Afbeeldingslocatie: http://www.fabje.eu/IMAG0026s.jpg
Afbeeldingslocatie: http://www.fabje.eu/IMAG0027s.jpg

De schijven bovenin, moeten ook nog in zo'n Bay, maar diegene waar ze in horen is kapot. Na verloop van tijd vallen de schijven uit de array.

  • Dadona
  • Registratie: September 2007
  • Laatst online: 17-09 20:58
8)7 Typisch een gevalletje van hetgeen je kunt verwachten erin gaan zien.

De CSL/OT kroeg !


  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 13:09
* HyperBart meldt zich... Weliswaar nipt over de benodigde hoeveelheid, maar toch...


System specifications
ComponentValue
CaseHP N40L MicroServer
CPUAMD Turion II Neo
RAM2 x 8GB ECC UDIMM
MotherboardHP
Operating systemFreeBSD 9 (ZFSguru)
ControllerOnboard HP SAS/SATA
Hard drive5 x Hitachi Deskstar 7K300 3TB
RAID array configuration Boot: Kingston USB 4GB
RAIDZ : 5 x 3TB
Netto storage capacity12 TB
DD Read506.29 MB/s
DD Write175.41 MB/s
NetworkOnboard + 2x GBit HP NC360T Low Profile Dual NIC
UPSAPC BackUPS
Filesystem ZFS
Idle power usageVoorlopig onbekend
ExtraKleinste bakje waar ik zoveel storage in kon proppen. In de toekomst had ik graag een SSD toegevoegd en de ODD-bay netjes uitgerust met een bay voor die SSD en de 3,5 inch HDD die daar nu nog in ligt met tiewraps (wat ik eigenlijk nu ook niet zo slecht gedaan vind :+ .
Met mijn write-speeds is op dit moment nog iets geks aan de hand: met 4 disks haal ik hogere snelheden dan met 5


[tr]
[td][url=<link naar post met systeem>] HyperBart[/url][/td][td] 10.7 TB[/td][td] <RAID level> [/td][td] 5[/td][td]ZFSguru (FreeBSD)[/td][td]N40L MicroServer met 4 hotswapbays en de Optical Disk Drive Bay opgevuld met de 5de disk[/td]
[/tr]

Ik heb de N40L EN de disks tweedehands aangekocht. Thuis draaide nog een ESXi-machine met 32GB geheugen. Deze werd zwaar ondergebruikt qua memory, dus ik heb 16GB van de 32GB ECC UDIMM er uit gehaald en deze in de N40L gestoken.

Afbeeldingslocatie: http://farm9.staticflickr.com/8179/8012577056_88b3d0f50c.jpg
N40L by hyperbart, on Flickr

Omdat de N40L standaard maar ruimte heeft voor 4 x 3,5" disks heb ik de Optical Disk Drive Bay "misbruikt" om er een 5de disk in te plaatsen... Voorlopig heb ik het quick'n'dirty gedaan, maar in de toekomst wordt deze ODD opgevuld met een bay waarin een 3,5 en 2,5 inch disk in kan.

Afbeeldingslocatie: http://farm9.staticflickr.com/8313/8012580004_a8ef0fa49a.jpg
Tiewrap Disk 5 by hyperbart, on Flickr


Vervolgens heb ik ZFSguru op een Kingston USB-stickje geïnstalleerd, de disken er in gestoken en een RAIDZ-pool aangemaakt.

De server performt behoorlijk goed qua throughput maar de IOPS vallen omwille van het technische karakter van ZFS natuurlijk wat tegen zonder SSD...

De 5de disk wordt niet via de SAS-kabel van de cage met de 4 hotswapbays met het moederbord verbonden maar met een aparte SATA-kabel die je netjes via de binnenkant van de N40L kan routeren:

Afbeeldingslocatie: http://farm9.staticflickr.com/8441/8012576545_659d7dd5a0.jpg
Onboard SATA + USB by hyperbart, on Flickr

Afbeeldingslocatie: http://farm9.staticflickr.com/8169/8012583574_6a60a6467f.jpg
Disk 5 Cabling by hyperbart, on Flickr

Afbeeldingslocatie: http://farm9.staticflickr.com/8313/8012580004_a8ef0fa49a.jpg
Tiewrap Disk 5 by hyperbart, on Flickr

Je ziet hierboven dat de sluiting van één van de tiewraps er wat raar uitziet. Dat komt omdat ik met een aansteker deze wat "afgesmolten" heb zodat de scherpe kantjes er wat van af zijn en het geheel ook definitief vast zit.

In het begin had ik wat problemen om de 5de disk te laten detecteren. Hiervoor moet een gemodifieerd BIOS op de N40L geflashed worden. Ik had dat gedaan, maar de 5de disk werd niet gedetecteerd. Na enkele minuten had ik iets van "laat ik de disk eens checken", deze was opgespinned, maar bij nadere inspectie:

Afbeeldingslocatie: http://farm9.staticflickr.com/8179/8012572657_d90b05a098.jpg
Detail Disk 5 ODD SATA disconnected by hyperbart, on Flickr

Stap 1: Check de kabel! :+

Foto's zijn hier allemaal te vinden:
http://www.flickr.com/pho...3/sets/72157631596551214/

[ Voor 15% gewijzigd door HyperBart op 24-09-2012 08:27 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
De link die je nu maakt is voor in de lijst, maar ik mis nog de tabel "Tabel met systeem info" met specs, zoals beschreven in de topic start. Wel leuk compact storage doosje. Heb 'm zelf ook maar dan puur als Linux-based internet router.

[ Voor 5% gewijzigd door Q op 23-09-2012 01:50 ]


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 13:09
Bij deze aangepast :) .
Kan zijn dat ik je wel nog even een nieuwe DD-snelheid meedeel, ben daar nu nog wat mee aan het troubleshooten (met 4 disks valt de dd write hoger uit dan met 5 onder ZFS).

Als je een idee hebt waarom dat kan hoor ik het graag ;) . We zijn er over aan het brainstormen in het ZFS topique...

Acties:
  • 0 Henk 'm!

  • Kavaa
  • Registratie: November 2009
  • Laatst online: 10:35
Kun je der nu ook nog een extra raid kaar of iets inzetten voor extra disken? Denk aan SSD's die je nog ergens weg kunt proppen.

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 13:09
djkavaa schreef op zondag 23 september 2012 @ 08:26:
Kun je der nu ook nog een extra raid kaar of iets inzetten voor extra disken? Denk aan SSD's die je nog ergens weg kunt proppen.
Absoluut... Ik weliswaar niet meer, maar je kan perfect nog een PCIe slot gebruiken voor een M1015 oid...

Dat zou op termijn ook nog de "last resort" kunnen zijn om deze bak qua storage te upgraden: extra kaart er in, zo een 5,25 naar 6x2,5inch bay en die nog volsteken met laptopdiskjes...

Acties:
  • 0 Henk 'm!

  • Kavaa
  • Registratie: November 2009
  • Laatst online: 10:35
HyperBart schreef op zondag 23 september 2012 @ 20:16:
[...]

Absoluut... Ik weliswaar niet meer, maar je kan perfect nog een PCIe slot gebruiken voor een M1015 oid...

Dat zou op termijn ook nog de "last resort" kunnen zijn om deze bak qua storage te upgraden: extra kaart er in, zo een 5,25 naar 6x2,5inch bay en die nog volsteken met laptopdiskjes...
Ja bijvoorbeeld, die zullen ook snel wel goedkoper worden en dan nog 2x ssd en 4x 1tb laptop disk zal ook goed gaan:)

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 13:09
Nu, de kans dat het dat gaat worden is behoorlijk klein:

Vermoedelijk consolideer ik tegen dan mijn QNAP en N40L in mijn ESXi-server...

Dat zou dan betekenen dat ik met volgende spindles zit:
6 Seagates van 2TB
5 Hitachi's van 3TB

de 6 Seagates gaan omwille van hun onbetrouwbaarheid in een RAIDZ2 array en de 5 Hitachi's blijven gewoon in RAIDZ draaien...

Het leuke is op dit moment dat ik de data die op mijn QNAP nog volledig kan overzetten naar mijn N40L en de QNAP kan degraderen tot backupserver. Maw: mijn data is nog niet zo gegroeid dat ik de capaciteit van mijn Seagates nog nodig heb.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
HyperBart schreef op zondag 23 september 2012 @ 02:05:
Bij deze aangepast :) .
Kan zijn dat ik je wel nog even een nieuwe DD-snelheid meedeel, ben daar nu nog wat mee aan het troubleshooten (met 4 disks valt de dd write hoger uit dan met 5 onder ZFS).

Als je een idee hebt waarom dat kan hoor ik het graag ;) . We zijn er over aan het brainstormen in het ZFS topique...
Staat in de lijst, 5x3TB in RAIDZ = 12 TB netto. toch?

Acties:
  • 0 Henk 'm!

  • HyperBart
  • Registratie: Maart 2006
  • Laatst online: 13:09
Ja, maar ik had al gerekend in de "echte capaciteit" die ik ter beschikking heb. Maar het klopt dat volgens de regeltjes ik eigenlijk 12TB beschikbaar heb, dus 10,7 à 10,8 TiB.

Acties:
  • 0 Henk 'm!

  • whatzert
  • Registratie: Februari 2005
  • Laatst online: 09:09
lampie1979 schreef op dinsdag 28 augustus 2012 @ 23:22:
1 extra 3TB en een 4TB zijn onderweg. Gekozen voor Hitachi externe (gezien die substantieel goedkoper zijn dan interne...). Open maken en inbouwen die handel.

Eens kijken hoe die 4TB samengaat met de 1280ML. Areca heeft mij verzekerd dat dat gaat werken.

Ben benieuwd.
Hoe is het afgelopen met de 4TB?

Acties:
  • 0 Henk 'm!

  • CasGas
  • Registratie: November 1999
  • Laatst online: 16-09 15:41

CasGas

.

Verwijderd schreef op zaterdag 22 september 2012 @ 13:33:
Voor diegene wat zich afvragen of zo'n 19"rackje wel handig is, het zijn prima bureaubladextensions:

[afbeelding]
Heeft die ook volledige diepte? Of is het een halve variant?

Mocht het een hele zijn ben ik wel benieuwd naar het typenummer, zoiets moet ik ook nog op de kop tikken voor weinig :)

Sony A7III | Sony a6300 | Sony ZV-E1 | 12 2.0 | 21 1.4 | 24 1.4 | 35 2.8 | 50 1.4 | 135 1.8 | 16-28 2.8 | 16-70 4 | 28-75 2.8 | 70-200 2.8 II |


Acties:
  • 0 Henk 'm!

Verwijderd

De kast is precies 1 meter diep. Het typenummer is overigens HP S10614. Een tijdje terug waren er een aantal op marktplaats die van de hand gingen voor 120 á 170 euro.

Acties:
  • 0 Henk 'm!

  • Intellium
  • Registratie: Maart 2001
  • Laatst online: 29-12-2024
Hier dan eindelijk het overzicht van mijn systeem.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/Overview.jpg

System specifications
ComponentValue
CaseNorco RPC-4224
CPUIntel Xeon E3-1230 8M @ 3.2Ghz
RAMKingston 16GB 1333Mhz DDR3 ECC CL9
MotherboardSuperMicro X9SCM-F
Operating systemSLES11 SP2
ControllerAreca ARC-1882ix
Hard drive12 x Hitachi DeskStar 7K4000 4TB
Hard drive2 x Crucial CT128M4SSD2 128GB
RAID array OS2 x 80GB RAID1 (MDADM)
RAID array DATA12 x 4TB RAID6 (+ Global HotSpare)
Netto storage capacity36 TB
NetworkIntel i350-T4, Quad port
NetworkMellanox MHEA28-XT 10Gb/s Dual-Port Infiniband
UPSSweex 1500
FilesystemBTRFS voor shares, iSCSI block-dev's voor de VM's
Idle power usageOnbekend (stroom-meter kaduuk)
Extra-


In de Norco case zijn de fans vervangen voor NoiseBlocker fans, om het geluid wat te dempen. De 12 4TB disks hangen aan de Areca controller in RAID6 met een global hotspare.
Ik heb voor RAID6 gekozen om het uitvallen van 2 disks te kunnen opvangen en de global hotspare zodat rebuilden meteen kan beginnen. Met zo een grote raid array moet je het wel
de tijd gunnen om te kunnen rebuilden.

Voor boot worden de 2 SSD's in RAID1 gebruikt. Aangezien de Areca al vol zit, zitten deze direct op het moederbord. De RAID1 config gebeurt via MDADM.
De /boot draait op ext3, en de rest op BTRFS.

Ik heb veel foto's gemaakt van elke stap van het proces, maar kwam er een beetje laat achter dat de flits niet goed stond afgesteld. Er zijn dus niet zo
veel bruikbare foto's :)

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/RAID1slot.jpg
Voor de 2 SSD's is in de Norco case standaard geen plek. Ik heb hiervoor de 2 onderste expansion slots gebruikt. Deze vallen buiten het bereik van het moederbord
en zijn hiermee ook nog hotswapable.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/NBfans.jpg
De 2 NoiseBlocker fans doen hun werk goed.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/MelCard.jpg
Hier een van de Mellanox kaartjes. Aangezien de storage server gebruikt voor media opslag, maar ook VM storage, vond ik performance redelijk belangrijk. Hierom heb ik
3 van deze Mellanox kaartjes aangeschaft. De kaart in de storage server heeft een directe verbinding naar elk van de 2 vHosts. Deze verbinding wordt puur en alleen gebruikt
voor 'storage' verkeer. Het enige wat er overheen gaat zijn de iSCSI connecties tussen de vHost's en de storage server.

Performance

Ik heb even een paar simpele DD testjes gedaan.
Disclaimer: De DD tests zijn gedaan op een draaiende omgeving met 15 active VM's

Allereerst de local DD tests :

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddlocal10g.jpg
Schrijven op de storage bak zelf van een 10GB file.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddlocal10gread.jpg
Teruglezen van de 10GB file op de storage bak.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddlocal100g.jpg
Schrijven op de storage bak zelf van een 100GB file.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddlocal100gread.jpg
Teruglezen van de 100GB file op de storage bak.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddnet10g.jpg
Schrijven van een 10GB file over het netwerk.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddnet10gread.jpg
Teruglezen van de 10GB file over het netwerk.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddnet100g.jpg
Schrijven van een 100GB file over het netwerk.

Afbeeldingslocatie: http://www.moeken.eu/img/sbuild/ddnet100gread.jpg
Teruglezen van een 100GB file over het netwerk.

Dit is allemaal over de Infiniband controller. Ik heb de Intel quad-port niet getest, maar die draait in een 802.3ad trunk op de switch.

-==||| INSANE |||==-


Acties:
  • 0 Henk 'm!

  • jjust
  • Registratie: April 2005
  • Laatst online: 12:53

jjust

Het leven is een strijd

Eindelijk ook maar eens een post van mijn systeem. Heeft wel wat voeten in de aarde gehad maar uiteindelijke draait de server naar tevredenheid.

Edit: Na aanleiding van tips van CiPHER een paar post na deze heb ik toch een aantal wijzigingen doorgevoerd. Zo heb ik een areca backup battery unit aangeschaft. Tevens zijn molex naar sata connectoren vervangen door connectoren van Silverstone. Om het overzichtelijk te houden heb ik deze post inclusief plaatjes aangepast.

System specifications
ComponentValue
CaseCooler Master CM 690 II Advanced
CPUIntel Pentium G620
RAM2 x Kingston ValueRam KVR1333D3E9SK2/8G
MotherboardSupermicro X9SCM-F
Operating systemWHS 2011
ControllerAreca ARC-1222-SAS met BBU
Hard drive (boot)Western Digital Green WD10EZRX
Hard drive array8 x Samsung Spinpoint F4 EG HD204UI
RAID array configuration RAID5 : 8 x 2TB waarvan 1 hotswap
Netto storage capacity12 TB
NetworkOnboard Intel 82574L Gigabit Ethernet
UPSNog geen. Wordt aan gewerkt
Idle power usage78 watt zonder spindown
ExtraWordt gebruikt voor:
(1)backup van 2 workstations en laptop
(2) fileserver voor foto's, muziek, series en films
(3)downloadbak


Was begonnen met een intel moederbord de Intel Desktop Board DH67BL (B3) met Areca 1220. Hierop kreeg ik echter de Areca kaart niet aan het werk. Het systeem wilde niet booten met de Areca kaart. Navraag bij de Intel support community leerde mij dat het pci slot op dat moederbord deze kaar niet ondersteunde. Zie hier voor de reactie op de Intel support community. Na een tip van een mede tweakers overgestapt naar dit super micro bordje met ECC geheugen. Helaas werke de kaart ook niet in dit systeem. Bleek de kaart dus overleden. Van een mede tweaker een Areca 1222 over kunnen nemen en nu werkt het prima.

De server wordt voornamelijk gebruikt om backups te maken van twee workstations en een laptop. Daarnaast heb ik al mijn cd's gedigitaliseerd als FLAC file en staan deze ook op de server. Tot slot draait SABNzbd op het systeem.

Hieronder de foto's;

Afbeeldingslocatie: http://imageshack.us/a/img198/8486/serveraftwtb.jpg
Voor een grotere versie klik hier

Afbeeldingslocatie: http://imageshack.us/a/img12/368/servervoorkanttwtb2.jpg
Voor een grotere versie klik hier

Afbeeldingslocatie: http://imageshack.us/a/img38/2189/serverachterkanttwtb2.jpg
Voor een grotere versie klik hier


Ben redelijk tevreden over het kabelmanagement op twee zaken na.
  • De kabels van de voeding die in het moederbord gaan zijn te kort. Deze kunnen niet achterlangs. Dit komt mede door de plaats van de aansluitingen op het moederbord. Misschien dat ik ooit mijn voeding nog ga vervangen.
  • De voeding heeft te weinig sata aansluitingen. Ik heb daarom een aantal verloopjes gekocht van molex=> sata. Ik vraag me alleen af of er niet meer hd's op één molex aangesloten kunnen worden. Dit kan ook schelen in de warboel. Edit aangepast en Silverstone connectors gekocht. Dit is dus sterk verbeterd.
Tot slot heb ik nog geen UPS hier ga ik nog eens voor kijken. Verder heeft de Areca kaart een mogelijkheid tot aansluiten van een Battery Backup Unit. In de pricewatch zijn deze echter schrikbarend duur. Iemand een interessant adresje? Edit: Inmiddels in bezit en geinstalleerd.

[ Voor 10% gewijzigd door jjust op 27-09-2012 13:15 ]


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Intellium schreef op maandag 24 september 2012 @ 15:50:
Hier dan eindelijk het overzicht van mijn systeem.
voor mij verrassende keuze (dezelfde norco kast en areca gebruik ik ook) van hardware raid in combinatie met gebruikte OS en filesystem. Gebruik je deze setup zo om met SLES en btrfs te kunnen testen?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
Intellium schreef op maandag 24 september 2012 @ 15:50:
Hier dan eindelijk het overzicht van mijn systeem.
Holy shit, mag ik na 3 jaar eindelijk de read performance kroon aan iemand anders overdragen, 1,6 GB/s is best pittig. Test dat ook nog eens met een 100 GB file als je wilt, want je hebt zoveel RAM.

Maak even een tabelletje voor je entry in de grote lijst.

[ Voor 7% gewijzigd door Q op 24-09-2012 20:19 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Zeg, lees eens :+

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
Een vraag vooral: is BTRFS goed genoeg? Gebruik je enkel die Infiniband kaart of ook andere want ik dacht dat ESXi die niet ondersteunde.

[ Voor 55% gewijzigd door analog_ op 25-09-2012 01:32 ]


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Intellium schreef op maandag 24 september 2012 @ 15:50:
...
Hier een van de Mellanox kaartjes. Aangezien de storage server gebruikt voor media opslag, maar ook VM storage, vond ik performance redelijk belangrijk. Hierom heb ik
3 van deze Mellanox kaartjes aangeschaft. De kaart in de storage server heeft een directe verbinding naar elk van de 2 vHosts. Deze verbinding wordt puur en alleen gebruikt
voor 'storage' verkeer. Het enige wat er overheen gaat zijn de iSCSI connecties tussen de vHost's en de storage server.
...
Mooie setup, man!

Wat stel je via iSCSI aan je vHosts ter beschikking, een vdisk_fileio of een vdisk_blockio?
analog_ schreef op dinsdag 25 september 2012 @ 01:25:
Een vraag vooral: is BTRFS goed genoeg? Gebruik je enkel die Infiniband kaart of ook andere want ik dacht dat ESXi die niet ondersteunde.
Als ik deze VMWare pdf mag geloven werkt RDMA onder ESXi 5. Als je 't VMWare community forum rondom IB afschuimt kom je minder glorieuze reacties tegen m.b.t. de overdrachtssnelheid en de tip om vooralsnog bij ESXI 4 te blijven.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

Verwijderd

jjust schreef op maandag 24 september 2012 @ 17:58:
De voeding heeft te weinig sata aansluitingen. Ik heb daarom een aantal verloopjes gekocht van molex=> sata. Ik vraag me alleen af of er niet meer hd's op één molex aangesloten kunnen worden. Dit kan ook schelen in de warboel.
Je wilt géén Molex gebruiken omdat die 4-polige stekkers regelmatig slecht/niet contact maken. Dit kan dan zorgen voor twee schijven die plots even geen stroom krijgen. Hier kun je vrij ernstige problemen mee krijgen door tijdens gebruik je array de failen of degraden. Later moet je dan weer rebuilden wat een eeuwigheid duurt.

Je wilt liever alleen SATA stekkers gebruiken, en dan in het bijzonder deze:
pricewatch: Silverstone SST-CP06 4x SATA
Tot slot heb ik nog geen UPS hier ga ik nog eens voor kijken. Verder heeft de Areca kaart een mogelijkheid tot aansluiten van een Battery Backup Unit.
Als je geen BBU hebt moet je je Areca instellen als Write-Through en níet als Write-Back. Areca is één van de weinige controllers die je onveilig laat draaien dus Write-Back inschakelen zonder BBU. Andere controllers verbieden dat, omdat het je data kan corrumperen in geval van onverwacht stroomverlies. De data in de RAM van de controller ben je dan kwijt, inclusief de metadata waar het allemaal om draait.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
HP kan het tegenwoordig ook. "Enable write-cach while battery is absent or broken"

Even niets...


Acties:
  • 0 Henk 'm!

  • jjust
  • Registratie: April 2005
  • Laatst online: 12:53

jjust

Het leven is een strijd

Bedankt voor de tips. Ik was er zelf ook niet zo gelukkig mee. Geen BBU is verkeerde zuinigheid. Heb inmiddels een BBU binnen. Heb een Mycom winkel erg blij gemaakt door hem bij ze af te halen. Zij hadden deze speciaal besteld voor een klant maar die zag er vanaf.

De sata stekkers heb ik inmiddels ook online besteld. Op dit moment heb ik twee keer twee sata aansluitingen op de voeding. Ik moet in totaal 9 schijven van prik voorzien. Zou ik op eén van die sata voedingsdraden in totaal vijf schijven kunnen aansluiten? Dus één direct en vier via de Silverstone stekkers?

Acties:
  • 0 Henk 'm!

  • Intellium
  • Registratie: Maart 2001
  • Laatst online: 29-12-2024
BartNL schreef op maandag 24 september 2012 @ 20:07:
[...]

voor mij verrassende keuze (dezelfde norco kast en areca gebruik ik ook) van hardware raid in combinatie met gebruikte OS en filesystem. Gebruik je deze setup zo om met SLES en btrfs te kunnen testen?
Ik gebruik SLES voornamelijk omdat ik onder OpenSUSE de drivers voor de infiniband controller maar niet goed gecompiled kreeg. SLES dropped ext4 support, en gaat richting BTRFS, dus is ook een mooi moment om daar eens mee te testen.
analog_ schreef op dinsdag 25 september 2012 @ 01:25:
Een vraag vooral: is BTRFS goed genoeg? Gebruik je enkel die Infiniband kaart of ook andere want ik dacht dat ESXi die niet ondersteunde.
Ik gebruik de infiniband controller voor de iSCSI connecties. De storage bak heeft zoals je in de table ziet, ook een Intel quad-port gigabit adapter. Vooralsnog lijkt BTRFS goed te performen.
Pantagruel schreef op dinsdag 25 september 2012 @ 10:30:
[...]


Mooie setup, man!

Wat stel je via iSCSI aan je vHosts ter beschikking, een vdisk_fileio of een vdisk_blockio?


[...]


Als ik deze VMWare pdf mag geloven werkt RDMA onder ESXi 5. Als je 't VMWare community forum rondom IB afschuimt kom je minder glorieuze reacties tegen m.b.t. de overdrachtssnelheid en de tip om vooralsnog bij ESXI 4 te blijven.
BlockIO. Ik gebruik geen ESX, maar KVM op me vhosts...

-==||| INSANE |||==-


  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
Ik wil ook een table row aangeleverd zien voor de grote tabel met systemen met daarin de info. ;) Staat in de TS.

[ Voor 3% gewijzigd door Q op 26-09-2012 20:52 ]


  • LightStar
  • Registratie: Juli 2003
  • Laatst online: 09:14
Onderstaand mijn bescheiden servertje, zal later foto’s en screenshot toevoegen

Afbeeldingslocatie: http://dl.dropbox.com/u/80216716/Photo%2027-09-12%2011%2056%2057.jpg

System specifications
ComponentValue
CaseYeong Yang YY-0420
CPUIntel Xeon E3-1220
RAMPatriot 32GB DDR3
MotherboardAsus P8B WS
Operating systemVmWare ESX
ControllerIMB Serverrair M1015 IT-flashed
Hard drive ESX Vm Storage2x 750GB Seagate
Hard drive ESX Backup (Timemachine)2x 1.5TB Western Digital Green
Hard drive Storage (OpenIndiana+nappit8x 3TB Seagate
RAID array configuration RaidZ2
Netto storage capacity22.5TB
NetworkStandaard gigabit
UPSNog niet
FilesystemZFS
Idle power usage
Extra

  • jjust
  • Registratie: April 2005
  • Laatst online: 12:53

jjust

Het leven is een strijd

Je opmerkingen heb ik ter harte genomen. Om het overzichtelijk te houden heb ik mijn eerdere post aangepast. Kabelmanagement is hierdoor ook sterkt verbeterd.

  • DDX
  • Registratie: April 2001
  • Laatst online: 13:36

DDX

Nieuw server systeem staat hier in bestelling, over aantal weken foto's en benchmarks ed.
Even snel de specs :
Dell PowerEdge T620 server. (gekozen doordat Dell gewoon koeling en geluidsniveau prima in orde heeft, en leuke extra opties zoals drac en goede raid controller)
Intel E5-2620
2GB memory
Perc H710P raid controller

En daar komen de volgende uitbreidingen op :
6*3TB WD Red harddisk in raid6 (1 drive al binnen, de andere 5 staan al bijna 2 maanden in backorder)
1*Intel 520 180GB als cachecade drive (read cache voor de raid6)
3*Intel 520 180GB in raid5 als os drive en opslag voor vm's
16GB memory
dell hotswap caddy's (vanaf ebay)

Ik twijfel nog even over wat ik exact met de Intel drives ga doen mbt overprovision.
Ik denk erover om ze als 150GB drives in te zetten. (even onder voorbehoud dat het gaat lukken icm met de hw raid controller)
Ik wilde eerst 2 drives in raid1 draaien, maar ik zit dan toch beetje krap met ruimte.

Is een upgrade van m'n huidge Dell T300 server met 4*1TB in raid5.

OS wordt centos 6 met qemu/kvm als virtualisatie (voor paar vm's waarop ik bijvoorbeeld mailserver en windows remotedesktop pc draai)

[ Voor 5% gewijzigd door DDX op 27-09-2012 22:00 ]

https://www.strava.com/athletes/2323035


  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
6 x 3TB in Raid 6 maakt waarschijnlijk iets meer als 10TB aan storage ruimte, maar wat ik niet uit je post kan opmaken is hoe je die gaat aanbieden als storage.

  • DDX
  • Registratie: April 2001
  • Laatst online: 13:36

DDX

Hoe bedoel je aanbieden ?
Zal idd raid6 zijn en dus iets van 11TB ruimte zijn, zal xfs partitie worden die ik ga gebruiken als opslag. (waarvan aantal TB voor dreambox waarbij hd opnames best wel veel ruimte innemen)

Eventueel kan ik er later nog 2 drives bij hangen om de raid uit te breiden. (blijven 2 drive bays over)

[ Voor 19% gewijzigd door DDX op 27-09-2012 22:13 ]

https://www.strava.com/athletes/2323035


Acties:
  • 0 Henk 'm!

  • Hakker
  • Registratie: Augustus 2002
  • Laatst online: 08-09 13:54

Hakker

a.k.a The Dude

wordt die eerste post nog eens qua lijst bijgewerkt?

Artificial Intelligence is no match for natural stupidity | Mijn DVD's | Mijn Games | D2X account: Hakker9


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Hakker schreef op vrijdag 28 september 2012 @ 20:23:
wordt die eerste post nog eens qua lijst bijgewerkt?
ervaring m.b.t. vermelding mijn systeem, wanneer je een nu nog actieve TS mailt wel ;)

Acties:
  • 0 Henk 'm!

  • DDX
  • Registratie: April 2001
  • Laatst online: 13:36

DDX

Afbeeldingslocatie: http://tweakers.net/ext/f/FqGZbOyFhohZWjO6jOcxelut/medium.jpg

Zonder het frontje :
Afbeeldingslocatie: http://tweakers.net/ext/f/wjIYNyxUKOg1ZNBPTrUgaXxX/medium.jpg

Server staat nu nog naast z'n oudere broertje op de grond, maar hij zal vanavond omgewisseld worden :
Afbeeldingslocatie: http://tweakers.net/ext/f/Mvsgjh0jQ9cOSzV83yPAyHS4/medium.jpg

En uiteraard nog even foto's van de binnenkant :
Afbeeldingslocatie: http://tweakers.net/ext/f/Ri45p6DqHqLUfW4LBRzUOJ7U/medium.jpg

En genoeg uitbreidingsmogelijkheden :
Afbeeldingslocatie: http://tweakers.net/ext/f/aA3MJAmDncpjsSHkDyvofjS4/medium.jpg

System specifications
ComponentValue
CaseDell PowerEdge T620
CPUIntel E5-2620
RAM32GB (2x 16GB 1333Mhz DDR3)
MotherboardIets met Intel C600 chipset van Dell
Operating systemCentOS 6
ControllerDell Perc H710P (1GB cache)
Hard drive4 x Intel 520 SSD 180GB (ingesteld op 140GB)
RAID array configuration 3 disken in RAID 5
Hard drive6 x WD Red 3TB
RAID array configuration 6 disken in RAID 6 + 1 SSD als read cache
Netto storage capacity12.3TB
NetworkStandaard gigabit
UPSAPC Back-UPS RS 1500
Filesystemxfs
Idle power usage56W als wd's in spindown zijn, anders 84W


code:
1
2
3
4
5
6
7
8
9
10
11
[root@t620 ~]# df -h
Filesystem            Size  Used Avail Use% Mounted on
/dev/mapper/vg_t620--1-lv_root
                      9.9G  1.9G  7.6G  20% /
tmpfs                  16G     0   16G   0% /dev/shm
/dev/sda2             485M   63M  397M  14% /boot
/dev/sda1             200M  268K  200M   1% /boot/efi
/dev/mapper/vg_t620--2-lv_raid
                       11T  2.5T  8.5T  23% /raid
/dev/mapper/vg_t620--1-lv_ssdraid
                      270G   99G  171G  37% /ssdraid


Bonnie++ benchmark van de Raid5 met 3 SSD's :
code:
1
2
3
4
5
6
7
8
9
10
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
t620.a2000.nu   63G  1213  99 564403  39 281986  29  3151  99 883785  39  1877 119
Latency              9884us     127ms     118ms    4968us   23803us    4729us
Version  1.96       ------Sequential Create------ --------Random Create--------
t620.a2000.nu       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency              1290us     191us     130us     105us      23us      72us

Bonnie++ benchmark van de Raid6 met 6 WD's:
code:
1
2
3
4
5
6
7
8
9
10
Version  1.96       ------Sequential Output------ --Sequential Input- --Random-
Concurrency   1     -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP  /sec %CP
t620.a2000.nu   63G  1202  98 540955  36 228018  23  2800  87 588798  29 392.2  26
Latency             11232us   30778us     138ms   60239us   73707us   96330us
Version  1.96       ------Sequential Create------ --------Random Create--------
t620.a2000.nu       -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  6034  13 +++++ +++ +++++ +++ +++++ +++ +++++ +++ +++++ +++
Latency              1864ms      92us     134us      81us      20us      75us


Waarom een Dell oplossing :
-stil
De oude Dell poweredge T300 hoorde je niet meer als deur dicht was, de T620 zou zelfs naast m'n bed kunnen staan, zitten 2 fans in die 500-1000 RPM draaien
Voor m'n T300 heb ik aantal zelfbouw servers gehad maar dat waren ongeveer vliegtuigen die je in kamer ernaast nog duidelijk hoorde.
-idrac7
eigen netwerk poort met remote console/virtual media
-management software
dell openmanage waarmee je alles kan uitlezen, inclusief raid status ed
-perc h710p raid controller
goede hw raid controller
-5 jaar garantie
De t300 heb ik nu ook ruim 5 jaar gehad, was ik met deze server ook weer van plan

En omdat budget niet oneindig is, via ebay drive caddy's besteld en disken niet via dell.

Systeem draait Centos 6, op de ssd raid draaien een aantal vm's (via qemu/kvm) zoals bijvoorbeeld mailserver.
Ik heb nog even ruzie met spindown van de hd's ivm xfs filesystem wat ongeveer continu aangesproken wordt.
(oorzaak http://old.nabble.com/xfs...n-down-td30523706i20.html)

https://www.strava.com/athletes/2323035


Acties:
  • 0 Henk 'm!

  • DDX
  • Registratie: April 2001
  • Laatst online: 13:36

DDX

Probleem met spindown is opgelost door te upgraden naar nieuwere kernel.
En om toch nog centos 'supported' te blijven heb ik kernel-nl (steeds de nieuwste 3.0.x kernel) repo in gebruik van http://elrepo.org/tiki/kernel-ml

https://www.strava.com/athletes/2323035


Acties:
  • 0 Henk 'm!

  • Alexander006
  • Registratie: April 2010
  • Laatst online: 14-04-2023
Dit zal hier wel een simpele vraag zijn. Maar ik zit er al een tijdje mee en vind geen bevredigend antwoord.

Welke raidcontroller moet ik nou nemen die:
- onder windows 7/ windows server 2012 draait.
- spindown van de Hdd's doet maar dan wel goed, dus elke schijf onafhankelijk (ik gebruik geen raid).
- niet te duur

Ik heb ooit een highpoint gehad, deze zou spindown ondersteunen en deed dit ook wel, alleen gingen alle schijven aan en uit die er aan hingen. Ik wil dus graag dat elke schijf onafhankelijk van elkaar aan gaan, ik gebruik niet altijd alle schijven.

Ik ben ook Anno007


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
gisteravond viel mijn 10+TB fileserver uit. Brandlucht en bij uit en weer aanschakelen bleek er rook uit de sata backplane (natuurlijk de meest lastig te bereiken onderste) te komen. Schade zoals op de foto,
Afbeeldingslocatie: https://lh5.googleusercontent.com/-Gd2OuiIXOnQ/UIveiVf4haI/AAAAAAAAAHU/_r_O5ZGGuH4/s601/IMG_1045.jpg

Hopelijk is de array nog in tact maar dat weet ik pas nadat ik een vervangende backplane heb...

Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
Oei dat ziet er serieus niet goed uit :(

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 12:59

Mr_gadget

C8H10N4O2 powered

Alexander006 schreef op zaterdag 27 oktober 2012 @ 13:41:
Dit zal hier wel een simpele vraag zijn. Maar ik zit er al een tijdje mee en vind geen bevredigend antwoord.

Welke raidcontroller moet ik nou nemen die:
- onder windows 7/ windows server 2012 draait.
- spindown van de Hdd's doet maar dan wel goed, dus elke schijf onafhankelijk (ik gebruik geen raid).
- niet te duur

Ik heb ooit een highpoint gehad, deze zou spindown ondersteunen en deed dit ook wel, alleen gingen alle schijven aan en uit die er aan hingen. Ik wil dus graag dat elke schijf onafhankelijk van elkaar aan gaan, ik gebruik niet altijd alle schijven.
Waarom zou je een raidcontroller gebruiken als je geen RAID draait? Puur om de extra aansluitingen?
BartNL schreef op zaterdag 27 oktober 2012 @ 15:21:
gisteravond viel mijn 10+TB fileserver uit. Brandlucht en bij uit en weer aanschakelen bleek er rook uit de sata backplane (natuurlijk de meest lastig te bereiken onderste) te komen. Schade zoals op de foto,
[afbeelding]

Hopelijk is de array nog in tact maar dat weet ik pas nadat ik een vervangende backplane heb...
Dat is niet best..Was het een voltage regulator ofzo die stuk is gegaan? Anders ook ff checken of je voeding ook nog oke is..

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
victorb schreef op zaterdag 27 oktober 2012 @ 15:23:
Oei dat ziet er serieus niet goed uit :(
dat is wat ik dacht toen ik de backplane zag en smd condensatortje heeft inderdaad serieus in de fik gestaan.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Mr_gadget schreef op zaterdag 27 oktober 2012 @ 15:28:
[...]Dat is niet best..Was het een voltage regulator ofzo die stuk is gegaan? Anders ook ff checken of je voeding ook nog oke is..
er zit een Seasonic X-660 in die via 4-pins molex rechtstreeks op de zes backplanes is aangesloten. Computer lijkt nog op te starten dus ik hoop dat de voeding nog ok is. Zo niet dan heb daarvoor nog wel een backup liggen.
Op zich is uitval van een backplane en daarmee 4 schijven wel een uitdaging voor mijn raid-6 setup. Ik hoop dat het meevalt O-)

Acties:
  • 0 Henk 'm!

  • Alexander006
  • Registratie: April 2010
  • Laatst online: 14-04-2023
[quote]Mr_gadget schreef op zaterdag 27 oktober 2012 @ 15:28:
[...]

Waarom zou je een raidcontroller gebruiken als je geen RAID draait? Puur om de extra aansluitingen?


Ja alleen voor de extra aansluitingen. Ik ben in 2006 begonnen met mijn eigen pc's te bouwen en ik heb nog nooit 1 schijf kapot gehad. Ik zie geen reden om een moeilijke configuratie te bouwen als het simpel kan...

Ik ben ook Anno007


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
Fuck, de nachtmerrie van iedere storage fetisjist. Hoop dat de disks nog leven. Op de backplane zitten er wel meer dan 2 dus hopen dat je er niet meer dan 2 kwijt bent, liefst niets.

Heb ook meegemaakt dat ik een electronica brandlucht rook. Dat bleek de voeding te zijn van mijn 18 TB NAS. Horror.

Bewijst maar weer dat als je dikke storage wil je eigenlijk twee losse machines met replicatie nodig hebt, hardware gaat stuk. Maar dat is dus de trade-off. Dat wordt onbetaalbaar voor thuis.

Volgens mij heeft slechts 1 persoon of hooguit 2 mensen in de lijst van dit topic een dubbele setup.

Ik droom om ooit iets van een 128 TB setup te bouwen. Geen idee wat ik met zoveel storage moet. Misschien voor 4K content.

Maar dat zou dan op basis van een server of 3 worden, waarbij ik iets met clustering zou doen, zodat ik een server kan verliezen en toch de data in leven kan houden. Dat zou de ultieme build zijn. Maar of dat ooit betaalbaar wordt. Wordt een projectje van 10K+ en dat wordt me teveel.

[ Voor 34% gewijzigd door Q op 27-10-2012 22:15 ]


Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04
BartNL schreef op zaterdag 27 oktober 2012 @ 15:21:
gisteravond viel mijn 10+TB fileserver uit. Brandlucht en bij uit en weer aanschakelen bleek er rook uit de sata backplane (natuurlijk de meest lastig te bereiken onderste) te komen. Schade zoals op de foto,
[afbeelding]

Hopelijk is de array nog in tact maar dat weet ik pas nadat ik een vervangende backplane heb...
Holy ^%$&^$

Overtemp?

Wtf..

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04
Verwijderd schreef op dinsdag 25 september 2012 @ 10:57:
[...]

Je wilt géén Molex gebruiken omdat die 4-polige stekkers regelmatig slecht/niet contact maken. Dit kan dan zorgen voor twee schijven die plots even geen stroom krijgen. Hier kun je vrij ernstige problemen mee krijgen door tijdens gebruik je array de failen of degraden. Later moet je dan weer rebuilden wat een eeuwigheid duurt.

Je wilt liever alleen SATA stekkers gebruiken, en dan in het bijzonder deze:
pricewatch: Silverstone SST-CP06 4x SATA


[...]

Ik kan dit inderdaad beamen. Zeker na verloop van tijd kun je problemen gaan krijgen.
Als je geen BBU hebt moet je je Areca instellen als Write-Through en níet als Write-Back. Areca is één van de weinige controllers die je onveilig laat draaien dus Write-Back inschakelen zonder BBU. Andere controllers verbieden dat, omdat het je data kan corrumperen in geval van onverwacht stroomverlies. De data in de RAM van de controller ben je dan kwijt, inclusief de metadata waar het allemaal om draait.

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Ik geloof niet dat het aan de molex stekkers ligt en denk eerder aan een productiefout / slechte soldeerverbinding op de Norco backplane. Of de array nog ok is weet ik niet en weet ook niet of de array op moment van falen nog data aan het schrijven was. Ik draai wel met een BBU en 4GB cache maar de backplane maakt denk ik sluiting. Meer algemeen lijken de Areca controller raid arrays wel redelijk hufterproof.
Kan momenteel niet meer doen dan afwachten en hopen dat het meevalt.

Acties:
  • 0 Henk 'm!

  • pipo de C
  • Registratie: November 2004
  • Laatst online: 08-09 11:12
@Bart: Kan je voor de zekerheid beter niet de backplane gebruiken en met een 3ware kabeltje vanaf de RAID controller direct naar de schijven gaan en met een "niet live" schijf de backplane eens rustig testen?

Sterkte... !

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
Dat zou kunnen heb in mijn PC waarop ik dit typ een IBM1015 die via dergelijke kabeltjes werkt. Paar dagen downtime is hier vervelend maar niet direct een ramp.
De backplane heeft nu sluiting tussen 12V en COM (paar Ohm) dus is m.i. testen niet zinnig d.w.z. ik verwacht dat dit de reden van uitval is en de PSU in de fileserver daarom afgeschakeld heeft. Als ik ter test een andere PSU aan deze backplane hang weet ik dat ik die PSU dan zo ongeveer kortsluit en dat doe ik liever niet.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
vandaag de nieuwe backplane ontvangen en er lijken geen disks defect.
Wel zijn er twee schijven uit de raidset gevallen. Vreemd genoeg zaten deze beide schijven niet op de defecte backplane. Zijn dan denk ik door de kortsluiting en daarop volgende accute uitval van de 12V uit de array gevallen.
Array staat nu te rebuilden dus ik hoop nu dat ik met de schrik vrij kom.

edit: vanmorgen na zo'n 10 uur rebuilden was de array hersteld en data dus gelukkig niet kwijt. Heb wel een volumecheck gestart om zeker te zijn dat de parity data nog klopt. Dat lijkt ook zo'n 10 uur te gaan duren en dan is morgen de boel weer hersteld :z

[ Voor 25% gewijzigd door BartNL op 01-11-2012 19:26 ]


Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
Ik hoop met je mee. Dat zou mazzel zijn.

Acties:
  • 0 Henk 'm!

  • lampie1979
  • Registratie: Maart 2005
  • Laatst online: 24-08 17:04
Damn... Is je systeem meteen getest ;)

They call her... c*ck juggeling Thunderc*nt!


Acties:
  • 0 Henk 'm!

  • pipo de C
  • Registratie: November 2004
  • Laatst online: 08-09 11:12
System specifications
ComponentValue
CaseAntec Twelve Hundred
PowerCooler Master GX750
CPUIntel Core i5 3450
RAM16GB (2x 8GB Kingston 1600Mhz DDR3)
MotherboardASrock Extreme 4
Operating systemVMWare ESXi 5.1
ControllerAreca ARC1882IX-16 20port + BBU
Hard driveSamsung 830series 128GB
RAID array configuration 12 disken in RAID 6
Hard drives12 x WD Red 3TB
Netto storage capacity~30TB
NetworkIntel Gigabit kaart
FilesystemNTFS
Idle power usageniet boeiend :+


De machine is voornamelijk bedoeld voor storage van blurays en andere media. Verder de usual suspects die hierop draaien, Sabnzb, sickbeard, Logitech Squeezebox server etc.

Alles is gebaseerd op ESXi. Alle VM OS'n staan op de SSD, de SSD zit direct aan de SATA600 controller op het mainboard. Ik gebruik geen molex kabels, alles via SATA powerkabels/silverstone splitters.

Binnen ESXi draai ik een 64bit Win7 VM. Dit is een dedicated fileserver en deze is zo kaal mogelijk en blijft ook zo. Het enige wat deze VM doet is media delen op m'n netwerk. De areca kaart staat in pass-through in VMware en geef ik door aan de Win7 VM voor exclusieve toegang. Behalve een Win7 VM draai ik een ubuntu desktop VM, dit gebruik ik voor Sabnzb, sickbeard en alles wat met downloaden te maken heeft. Er komt nog een Win8 VM bij binnenkort, gewoon omdat het kan. 8)

Verder zal ik binnenkort ook nog een VPN concentrator / FW gaan draaien maar dat komt nog wel.

Heeft even paar dagen gekost maar alles lijkt te werken. Aanvankelijk begonnen met een Asus moederbord uit de P8Z77 series maar bleek dat die geen VT-d ondersteund dus moeten switchen naar een ASrock die dat gewoon netjes ondersteund.

Er staat nog geen data op de server (dit staat voorlopig nog op m'n oude netgear NAS) Eerst maar eens verder testen en tunen, met name de areca kaart wil ik nog even goed naar kijken. De rest is redelijk vanzelfsprekend. De oude NAS zal waarschijnlijk blijven fungeren als backup voor kritische data, ook op een andere plek in huis..

Acties:
  • 0 Henk 'm!

  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 12:59

Mr_gadget

C8H10N4O2 powered

DDX schreef op zondag 21 oktober 2012 @ 13:42:
[afbeelding]

Zonder het frontje :
[afbeelding]

Server staat nu nog naast z'n oudere broertje op de grond, maar hij zal vanavond omgewisseld worden :
[afbeelding]

En uiteraard nog even foto's van de binnenkant :
[afbeelding]
Dat is wel echt een dikke machine. Menig MKB systeembeheerder zal er jaloers op zijn, laat staan de gemiddelde tweaker :)
Gebruik je deze machine ook voor werkdoelenden of alleen media?

Acties:
  • 0 Henk 'm!

  • DDX
  • Registratie: April 2001
  • Laatst online: 13:36

DDX

Enkel voor thuisserver gebruik.
Gewoon alles op 1 stabiele en extreem stille server.
Was eerst van plan om de t320 te kopen, maar die kan maximaal 8 drives aan.
En aangezien ik vm's op ssd wilde draaien, kwam ik toen automatisch op de t620 uit. (maximaal 12 drives)
In de t320 had ik ook nog wel wat extra drives kunnen hangen, maar dan had ik de ssd drives op extra controller (of moederbord sata) moeten hangen.
T620 was uiteindelijk 100 euro duurder dan de T320 dus makkelijke keus.

Vm's is vooral de mailserver voor hele familie belangrijk.
Daarnaast nog vm die ik zelf gebruik als windows remotedesktop machine en waar scan software op draait.
Merendeel van de dag staat server gewoon lekker te idlen op 1200mhz en alle sata 3tb disken in spindown.

[ Voor 7% gewijzigd door DDX op 08-11-2012 21:56 ]

https://www.strava.com/athletes/2323035


Acties:
  • 0 Henk 'm!

  • Wyber
  • Registratie: December 2009
  • Laatst online: 10-09 09:45
Gisteren de laatste hand gelegd aan het kabel managemant build is geinspireerd op de storage server van tbusquet

Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=332898&FotoID=7905

Afbeeldingslocatie: http://tweakers.net/ext/i/?UserID=332898&FotoID=7906

System specifications
ComponentValue
Case Antec 1200
CPU AMD Athlon II X2 260
RAM 8 GB
Motherboard Gigabyte GA-MA790FXT-UD5P
Operating system Nas4Free
Controller Supermicro AOC-USAS2-L8E
Hard drive 2 x Samsung EcoGreen F3 2TB
Hard drive 2 x WD20EADS, 2TB
Hard drive 2 x WD20EARS, 2TB
Hard drive 4 x WD20EARX, 2TB
RAID array configuration 2 x 8TB raidz 1 x 4TB Stripe ( 16 TB storage )
Netto storage capacity 16 TB
Network Realtek Gigabit 2x
UPS N/A
Filesystem ZFS
Idle power usage Onbekend
Extra-

Acties:
  • 0 Henk 'm!

  • Kavaa
  • Registratie: November 2009
  • Laatst online: 10:35
Hierbij dan mijn systeem tot nu toe:

System specifications
ComponentValue
CaseNorco RPC-4220
CPUIntel Xeon E5620 Boxed
RAM48 GB, 6x8GB DDR3 EEC
MotherboardSupermicro X8DT3-LN4F
Operating systemVMWare ESXi 5.0.0
ControllerIBM ServeRaid M1015 (IT), SuperMicro onboard SAS, SuperMicro onboard SATA
Hard drive4x Hitachi Deskstar 7K1000.C, 500GB
Hard drive6x Samsung Spinpoint F3 HD103SJ, 1TB
Hard drive10x Western Digital Black WD1002FAEX, 1TB
RAID array configuration Geen Raid RDM naar Server2008 als NAS
Netto storage capacity18 TB
Network4x onboard Intel Gigabit
UPSAPC Back-ups RS 1500
Idle power usage170-180 Watt met vm's die draaien


Afbeeldingslocatie: http://tweakers.net/ext/f/LFF02UMncJSiZfDwxYT0PPhz/medium.jpg

Afbeeldingslocatie: http://tweakers.net/ext/f/FdLaJTskHbkTsDhkRaOZIOlo/medium.png

Afbeeldingslocatie: http://tweakers.net/ext/f/hV9IIKKFjJiZb2JOokqujZaE/medium.png

De Server wordt gebruikt als virtualisatie host en dient dus ook als NAS.
Disken worden doorgegeven aan VMWare via RDM
4 Disken zijn voor VMWare 2tal Rechtstreeks (1TB en 500GB) en 250GB 320GB zijn ISCSI via Server2008 NAS

ICTWebSolution - Wi-Fi Problemen? Stuur maar een berichtje! - Wi-Fi Bereik verbeteren?


Acties:
  • 0 Henk 'm!

  • Audiodude
  • Registratie: Augustus 2010
  • Laatst online: 21-08 21:33
Even een update. Na veel wikken en wegen toch maar weer voor een houten server gegaan.

Hier de nieuwe build :

Afbeeldingslocatie: http://www.audiodude.nl/wp/wp-content/uploads/2012/11/Server-Hok-004-225x300.jpg Afbeeldingslocatie: http://www.audiodude.nl/wp/wp-content/uploads/2012/11/Server-Hok-001-115x300.jpg

[ Voor 23% gewijzigd door Audiodude op 01-12-2012 12:44 ]


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 17-09 17:21
Antoniya001 schreef op zaterdag 01 december 2012 @ 12:36:
Even een update. Na veel wikken en wegen toch maar weer voor een houten server gegaan.
Heeft die houten server eigenlijk wel voordelen? Waarom zou je voor een zelfbouw gaan?

Acties:
  • 0 Henk 'm!

  • heuveltje
  • Registratie: Februari 2000
  • Laatst online: 18-09 20:51

heuveltje

KoelkastFilosoof

Heb er zelf ook al verschillende keren over getwijfeld
leuker, meestal goedkoper, aan je eigen wensen aan te passen. Kan Stiller
Al moet ik zeggen dat je met "maar" 8 disken wel heel wat meer keuze hebt in of the shelf systemen, dan als je er 15 in wilt

Heuveltjes CPU geschiedenis door de jaren heen : AMD 486dx4 100, Cyrix PR166+, Intel P233MMX, Intel Celeron 366Mhz, AMD K6-450, AMD duron 600, AMD Thunderbird 1200mhz, AMD Athlon 64 x2 5600, AMD Phenom X3 720, Intel i5 4460, AMD Ryzen 5 3600 5800x3d


Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
System specifications
ComponentValue
CaseFractal Design ARC midi
CPUAMD A6 3500 2.1ghz triple core
RAMCorsair 16gb kit 2x8gb 1333mhz
MotherboardAsus F1A75-M
Operating systemZFSguru
ControllerIBM M1015 it mode
Hard drive6x 3tb seagate 7200rpm
Hard drive2x 500gb samsung 7200rpm
Hard drive128gb samsung 830 ssd
RAID array configuration 6x3tb raidz2 + 128gb L2arc
RAID array configuration 2x500gb zfs mirror boot/torrent
Netto storage capacity12tb
NetworkHP N364T Quad gbit nic LACP
UPSMGE evolution 1550
FilesystemZFS
Idle power usage110watt idle zonder spindown.
Extra15euro Lackrack :D


De NAS is voor mijn centrale opslag van films muziek en mijn full hd materiaal van mijn sony cybershot 1uur is 12gb 8)7 Ik heb geen locale opslag meer op mijn machines en mijn linux machines gebruiken allemaal NFS.

Backups maak ik op een 2tb wd mybook live en een 4tb hitachi usb disk.


Afbeeldingslocatie: http://sphotos-b.ak.fbcdn.net/hphotos-ak-prn1/s720x720/30384_458169524219480_273134869_n.jpg
Afbeeldingslocatie: http://sphotos-c.ak.fbcdn.net/hphotos-ak-prn1/s720x720/32308_458169510886148_1387655109_n.jpg
Afbeeldingslocatie: http://sphotos-f.ak.fbcdn.net/hphotos-ak-ash3/s720x720/559869_458218017547964_458727503_n.jpg

Ik heb een videoserie over de server gemaakt waar veell info in staat + in beschrijving van de filmpjes staat nog meer info

Hardware build!


Lackrack Power Benchmarks NAS4Free


12TB update, ZFSguru, indepth power, UPS, benchmarks

[ Voor 3% gewijzigd door victorb op 05-01-2013 21:18 ]

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Leuk gedaan! Wel jammer dat je server zoveel verbruikt, ik vind 110W persoonlijk best veel.
Ik zit met 10 disks lager (~80-90W). Maar ik heb dan ook 5400RPM schijven, dat scheelt nogal.

Even niets...


Acties:
  • 0 Henk 'm!

  • victorb
  • Registratie: Februari 2000
  • Laatst online: 23-02-2024
FireDrunk schreef op zaterdag 05 januari 2013 @ 21:34:
Wel jammer dat je server zoveel verbruikt,
Thanx 8)

Ik heb vanavond in het DIY server topic het overzicht gezet van het verbruik per onderdeel. Past beter in dat topic.

NAS Server build http://www.youtube.com/watch?v=kBYMVUNrvDY 3DFX Voodoo2 Sli Build introductie http://www.youtube.com/watch?v=5PAIUJCJHGM


Acties:
  • 0 Henk 'm!

  • Hippocampus
  • Registratie: Mei 2011
  • Laatst online: 07-09 20:45

Hippocampus

ᓚᘏᗢ

Waarom heb je je voeding niet met de fan naar beneden gericht ? dan trekt ie koele (gefilterde) lucht van buiten de kast.

Acties:
  • 0 Henk 'm!

  • slayerrp
  • Registratie: December 2009
  • Laatst online: 28-04 23:11
Hierbij mijn systeempje:

System specifications
ComponentValue
CaseCooler Master Elite 334
PowerCooler Master Real Power M520
CPUAMD Sempron 140 Boxed
RAM4GB (2x 2 GB Kingston DDR2-800)
MotherboardMSI 785GTM-E45
Operating systemWindows XP 32bit
ControllerAdaptec AAR-1430SA
Hard drive2x Samsung EcoGreen F2 EG HD154UI, 1.5TB
Hard drive4x Samsung EcoGreen F3, 2TB
Hard drive3x Samsung Spinpoint F4 EG HD204UI, 2TB
Hard drive1x Seagate Barracuda 7200.14 ST3000DM001, 3TB
RAID array configuration JBOD
Netto storage capacity+/- 20TB
NetworkRealtek Gigabit
FilesystemNTFS
Idle power usage+/- 100w


Afbeeldingslocatie: http://img837.imageshack.us/img837/3259/20121005103200.jpg

Wordt vooral gebruik als opslag van media/downloadbak.

Vind op dit moment de idle power usage nog erg hoog waardoor ik besloten heb om hem bij geen gebruik in slaapstand te laten gaan.

Wil mogelijk wel investeren om dit systeem optimaler(vooral zuiniger) te krijgen, dus alle tips zijn welkom :)

Acties:
  • 0 Henk 'm!

  • Dannisi
  • Registratie: Februari 2005
  • Laatst online: 03:46
Volgens mij voldoe je niet aan punt 5:
Toepassing van redundancy, het systeem moet falen van minimaal 1 storage disk kunnen overleven.
;)

There is no place like 127.0.0.1


Acties:
  • 0 Henk 'm!

  • slayerrp
  • Registratie: December 2009
  • Laatst online: 28-04 23:11
klopt, maar ik vind persoonlijk media/downloads niet echt raidwaardig :P (tevens heb ik niet meer ruimte in m'n kast)

Acties:
  • 0 Henk 'm!

  • timofp
  • Registratie: Juli 2007
  • Laatst online: 22-12-2024
slayerrp schreef op zondag 13 januari 2013 @ 08:51:
Wil mogelijk wel investeren om dit systeem optimaler(vooral zuiniger) te krijgen, dus alle tips zijn welkom :)
1. Schijven
Ik heb momenteel een systeem met Core i5 en Radeon HD5450 (geen Video onboard). Daarnaast 1x SSD, 1x 2,5inch 7200RPM schijf en 8x3TB WD Green WD30EZRX. Er zat ook voorheen een Samsung F1 1TB 7200RPM in.

Met spindown gebruike dit systeem in spindown 55watt. Maar wilde geen spin down niet meer om verschillende redenen.

Met 1x SSD, 1x 2,5inch 7200RPM schijf en 7x3TB WD Green WD30EZRX en 1x Samsung F1 1TB 7200RPM gebruike het systeem zonder spindown in idle 95watt.

Ik heb toen de F1 vervangen door een WD30EZRX waardoro het totaal hiervan op 8 schijven kwam en het systeem gebruikte zonder spindown in idle nog maar 84watt. Een heel groot verschil dus door het vervangen van 1 schijf.

2. Power Down.
Mijn server schakels 's avonds / 's nachts automatisch uit nadat de laatste client op het netwerk uitgeschakeld is en schakelt 's ochtends automatisch terug in van zodra de eerst client opstart. Ik merk dus nooit dat mijn server onbereikbaar is, maar deze verbruikt toch ongeveer 8 uur = 1/3 minder stroom.

[ Voor 15% gewijzigd door timofp op 13-01-2013 12:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Mijn nieuwe NAS:

Doel is opslag van foto's muziek, films, documenten.

System specifications
ComponentValue
CaseLian Li PC-A75X
PowerBe quiet! Dark Power PRO 10 550W
CPUAMD A8-5500 Boxed
RAM32GB (2x Kingston ValueRAM KVR13N9K2/16)
MotherboardGigabyte GA-F2A85X-D3H
Operating systemNAS4Free 9.1.0.1 - Sandstorm (revision 573)
ControllerIBM M1015 IT
Hard driveIntel 520 60GB SSD as Log (70% OP)
Hard driveIntel 520 240GB SSD as Cache (20% OP)
ZFS configuration 2 RAID-Z2 arrays of 6 disks each
Hard drives12 x Seagate Barracuda 7200.14 3TB
Netto storage capacity24TB
Network2x Intel Gigabit CT Desktop Adapter
FilesystemZFS
Idle power usageUnknown


Performance (Compression = off):
nas4free:/# dd if=/dev/zero of=/mnt/bigpool/data.000 bs=1M count=102400
102400+0 records in
102400+0 records out
107374182400 bytes transferred in 284.575318 secs (377313757 bytes/sec)
nas4free:/# dd of=/dev/null if=/mnt/bigpool/data.000 bs=1M
102400+0 records in
102400+0 records out
107374182400 bytes transferred in 270.121957 secs (397502608 bytes/sec)

Nog te doen:
- LAN configuratie. Beide Intel kaarten met LACP koppelen aan mijn KTI Gigabit switch (met LACP ondersteuning)
- Spindown configuratie
- VirtualBox implementeren
- Backup van belangrijke data naar extern backupsysteem. rsync / ssh?

Ik wil ook wel wat foto's plaatsen maar weet niet hoe die te uploaden 8)7

Acties:
  • 0 Henk 'm!

  • Pi0tr
  • Registratie: Mei 2010
  • Laatst online: 12:09
timofp schreef op zondag 13 januari 2013 @ 12:01:
2. Power Down.
Mijn server schakels 's avonds / 's nachts automatisch uit nadat de laatste client op het netwerk uitgeschakeld is en schakelt 's ochtends automatisch terug in van zodra de eerst client opstart. Ik merk dus nooit dat mijn server onbereikbaar is, maar deze verbruikt toch ongeveer 8 uur = 1/3 minder stroom.
Heb je hier wat meer informatie over? Doe je dit met WOL ofzo? Dit is natuurlijk wel interessant...

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Verwijderd schreef op donderdag 17 januari 2013 @ 20:02:
Mijn nieuwe NAS:

Doel is opslag van foto's muziek, films, documenten.

System specifications
ComponentValue
CaseLian Li PC-A75X
PowerBe quiet! Dark Power PRO 10 550W
CPUAMD A8-5500 Boxed
RAM32GB (2x Kingston ValueRAM KVR13N9K2/16)
MotherboardGigabyte GA-F2A85X-D3H
Operating systemNAS4Free 9.1.0.1 - Sandstorm (revision 573)
ControllerIBM M1015 IT
Hard driveIntel 520 60GB SSD as Log (70% OP)
Hard driveIntel 520 240GB SSD as Cache (20% OP)
ZFS configuration 2 RAID-Z2 arrays of 6 disks each
Hard drives12 x Seagate Barracuda 7200.14 3TB
Netto storage capacity24TB
Network2x Intel Gigabit CT Desktop Adapter
FilesystemZFS
Idle power usageUnknown


Performance (Compression = off):
nas4free:/# dd if=/dev/zero of=/mnt/bigpool/data.000 bs=1M count=102400
102400+0 records in
102400+0 records out
107374182400 bytes transferred in 284.575318 secs (377313757 bytes/sec)
nas4free:/# dd of=/dev/null if=/mnt/bigpool/data.000 bs=1M
102400+0 records in
102400+0 records out
107374182400 bytes transferred in 270.121957 secs (397502608 bytes/sec)

Nog te doen:
- LAN configuratie. Beide Intel kaarten met LACP koppelen aan mijn KTI Gigabit switch (met LACP ondersteuning)
- Spindown configuratie
- VirtualBox implementeren
- Backup van belangrijke data naar extern backupsysteem. rsync / ssh?

Ik wil ook wel wat foto's plaatsen maar weet niet hoe die te uploaden 8)7
Waarom heb je voor de 520 gekozen als LOG en niet voor de 320?

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op vrijdag 18 januari 2013 @ 09:01:
[...]

Waarom heb je voor de 520 gekozen als LOG en niet voor de 320?
520: SATA 600 aansluiting
320: SATA 300 aansluiting

Of dat qua performance iets uitmaakt weet ik niet...

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

Verwijderd schreef op vrijdag 18 januari 2013 @ 10:48:
[...]


520: SATA 600 aansluiting
320: SATA 300 aansluiting

Of dat qua performance iets uitmaakt weet ik niet...
FireDrunk vraagt dit ivm de rij condensatoren die op de Intel 320 ssd serie zitten die er voor zorgen dat de ssd nog spanning heeft om de log actie weg te schrijven bij stroom uitval. De 520 serie heeft deze 'uitval' bescherming niet en dit kan tot data gemis/verminking leiden omdat de log niet weggeschreven wordt.
Een ander optie is Mux zijn ssd batterij, maar die forum draad is sinds eind november stil gevallen.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Das mooi maar daar heeft hij 'm dus kennelijk niet om gekozen. Zoals in dat draadje te lezen is hoef je de ssd zelf ook niet van een ups te voorzien wanneer de gehele machine dat al heeft. Dat laatste lijkt mij een beter idee aangezien je ook graag op filesystem niveau dingen netjes weggeschreven wil hebben wanneer de stroom uitvalt ;)

Acties:
  • 0 Henk 'm!

Verwijderd

ppl schreef op vrijdag 18 januari 2013 @ 22:40:
Das mooi maar daar heeft hij 'm dus kennelijk niet om gekozen. Zoals in dat draadje te lezen is hoef je de ssd zelf ook niet van een ups te voorzien wanneer de gehele machine dat al heeft. Dat laatste lijkt mij een beter idee aangezien je ook graag op filesystem niveau dingen netjes weggeschreven wil hebben wanneer de stroom uitvalt ;)
Een UPS staat nog op mijn lijstje. Ik moet wel nog uitzoeken welke UPS'en ondersteund worden door NAS4Free, zodat bij spanningsuitval na een bepaalde tijd het systeem automatisch down wordt gebracht.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
ppl schreef op vrijdag 18 januari 2013 @ 22:40:
Das mooi maar daar heeft hij 'm dus kennelijk niet om gekozen. Zoals in dat draadje te lezen is hoef je de ssd zelf ook niet van een ups te voorzien wanneer de gehele machine dat al heeft. Dat laatste lijkt mij een beter idee aangezien je ook graag op filesystem niveau dingen netjes weggeschreven wil hebben wanneer de stroom uitvalt ;)
is meestal wel zo maar wanneer probleem met de spanning bijvoorbeeld door een defecte psu of bedrading in de PC komt werkt een ups niet. Persoonlijk gebruik ik overigens wel een ups en geen intel 520 ssd's.

Acties:
  • 0 Henk 'm!

  • sloth
  • Registratie: Januari 2010
  • Niet online
Verwijderd schreef op zaterdag 19 januari 2013 @ 13:04:
[...]


Een UPS staat nog op mijn lijstje. Ik moet wel nog uitzoeken welke UPS'en ondersteund worden door NAS4Free, zodat bij spanningsuitval na een bepaalde tijd het systeem automatisch down wordt gebracht.
Misschien heb je hier al wat aan.
N4F gebruikt bijkbaar NUT, dus deze lijst zou je ook al een heel eind op weg moeten helpen :)

Acties:
  • 0 Henk 'm!

Verwijderd

BartNL schreef op zaterdag 19 januari 2013 @ 13:39:
[...]

is meestal wel zo maar wanneer probleem met de spanning bijvoorbeeld door een defecte psu of bedrading in de PC komt werkt een ups niet. Persoonlijk gebruik ik overigens wel een ups en geen intel 520 ssd's.
Daar heb je wel gelijk in, maar bij uitval verlies ik alleen de gegevens die op dat moment in de LOG schijf staan. Als er het een en ander defect is, moet ik die componenten vervangen. Dan ben je zo een paar dagen verder (inclusief bestellen en afleveren). Houdt die condensator dat vol?

Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

BartNL schreef op zaterdag 19 januari 2013 @ 13:39:
is meestal wel zo maar wanneer probleem met de spanning bijvoorbeeld door een defecte psu of bedrading in de PC komt werkt een ups niet. Persoonlijk gebruik ik overigens wel een ups en geen intel 520 ssd's.
Overdrijven is ook een vak. Het heeft weinig zin om voor dit soort dingen iets te gaan regelen als er op zoveel andere plekken iets mis kan gaan omdat men hier vooral consumenten hardware gebruikt. En wat dan nog als het mis gaat? Daar zijn nou backups voor uitgevonden. Je kunt je niet overal voor indekken dus ga dat dan ook niet tot in den treurigheid proberen te doen. Zorg liever dat bepaalde zaken afdoende zijn gedekt en dat je backups goed lopen. Vergeet hier niet dat een defecte psu meer raakt dan alleen een ssd. Je sluit het immers ook aan op het moederbord en de overige componenten (hetzij direct, hetzij indirect). Het is net als met blikseminslag: leuk dat je 1 component beveiligd maar als dit op een andere component is aangesloten die niet is beveiligd helpt dat geen ene moer.

Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
ppl schreef op zaterdag 19 januari 2013 @ 16:09:
[...]Overdrijven is ook een vak....
inderdaad, waarom quote je mij eigenlijk ;)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Verwijderd schreef op zaterdag 19 januari 2013 @ 14:56:
[...]


Daar heb je wel gelijk in, maar bij uitval verlies ik alleen de gegevens die op dat moment in de LOG schijf staan. Als er het een en ander defect is, moet ik die componenten vervangen. Dan ben je zo een paar dagen verder (inclusief bestellen en afleveren). Houdt die condensator dat vol?
Zo werkt het niet. De condensator zorgt ervoor dat de SSD zijn writes echt af kan maken. Hij blijft dus gewoon even doorwerken. Het is dus niet zo als een BBWC waar de writes inderdaad in RAM blijven staan.

De Intel 320 heeft die feature inderdaad, en maakt een UPS voor je hele systeem niet meer verplicht om data consistentie te houden zoals nodig is als je een SSD gebruikt zonder die feature.

Met de 320 heb je een ZIL die altijd consistent is, waardoor je hooguit een paar seconden asynchrone writes verliest. Je filesystem en de applicatiedata zijn dus altijd consistent.

Even niets...


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

BartNL schreef op zaterdag 19 januari 2013 @ 17:17:
[...]

inderdaad, waarom quote je mij eigenlijk ;)
Je verzon een probleem voor een of andere oplossing zonder goed na te denken over wat dat probleem nou precies inhoudt ;) Dit valt meer in de categorie "een probleem verzinnen om een probleem te verzinnen". Je probleem is er eentje die veel verder gaat dan alleen de ssd. Leuk dat je dan de ssd met een ups uitrust maar een defecte psu levert stroom aan meer onderdelen die het dan ook niet meer doen. Als je data weg aan het schrijven bent dan spelen ook die een rol. Kortom, een ups aan die ssd is vrij onzinnig in dat scenario. Laat staan dat stroomuitval maar 1 effect is die kan optreden bij een defecte psu.

Zo'n ups voor een ssd (ingebouwd of extern) is niets meer dan een additionele laag in een totaalplaatje. Het is heel fijn om dit soort zaken te gebruiken bij systemen waarbij data integriteit ontzettend belangrijk is en daarom heeft het ook een hoger prijskaartje. Je moet je afvragen in hoeverre je hier tegenaan loopt en in hoeverre je dit soort features thuis nodig hebt. Maar let wel, als je het invoert dan zul je ook door moeten pakken en over de gehele linie maatregelen uitrollen anders is het een compleet nutteloze feature.

Ik vind het nogal overdreven om dit soort kleine dingen in een thuisbak toe te passen. Het geeft ook een beetje een scheve verhouding: men gebruikt consumer hardware maar gaat dan wel allerlei maatregelen treffen om enterprise functionaliteit te verkrijgen want owee dat er een kansje van weet ik niet hoeveel nanoprocent op dataverlies is. Dan denk je niet goed over dingen na en ben je ook niet echt realistisch. Pak het liever simpeler en vooral realistischer aan: regel gewoon een ups voor het systeem en zorg dat je belangrijke data goed backupt. Als de stroom een keer uitvalt zul je toch het een en ander aan controles moeten uitvoeren. Uiteraard moet je een ups voor je ssd wel gaan doen als het je om de hobby te doen is. Dan kun je het zo idioot maken als je wilt :9

Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 14-09 10:44

Pantagruel

Mijn 80486 was snel,....was!

ppl schreef op zondag 20 januari 2013 @ 22:38:
[...]

SNIP

Dan kun je het zo idioot maken als je wilt :9
En dat is nu de crux van het verhaal.

Als die meid/jongen dat nu graag wilt, laat hem/haar dan toch. Hij/Zij doet er (hopelijk ;) ) niemand kwaad mee.

Afhankelijk van wat de gebruiker belangrijk vind voor zijn/haar data en de budget ruimte (Er is dan wel de gevleugelde uitspraak: "Een hobby mag geld kosten..", maar meestal zijn de centjes niet oneindig) maak je keuzes.

Voor de een is het de sport om zo goedkoop mogelijk een flinke storage oplossing te realiseren en wellicht meer risico te nemen met de data.

De ander wil de data, tot op zekere hoogte, tegen de nodige 'rampen' in dekken en is bereid hiervoor in de buidel te tasten. (Server kast, redundante PSU, UPS, ssd met condensator buffering, hardware RAID kaart met BBU, RAID approved disks, server grade bordje, server CPU, ECC memory,etc)

Maar wat al vaker aangehaald is, belangrijker nog is een goede back-up strategie.
Voor geen van beide storage oplossingen en hun data is het bevorderlijk als het pand waar ze in staan in vlammen op gaat, of met een bezoekje van het dieven gilde vereerd wordt.
( Pantagruel vraagt zich af of een halon blus installatie voor thuis in t server hokje een mogelijkheid is, anyone ;) )

Voor de redelijk paranoïden onder ons zal 1 a 2 off-site back-ups van de belangrijkste dingen genoeg zijn (externe hdd bij vriend/familie lid/locker op je werk), maar ook daar mag ieder lekker voor zich zelf beslissen wat belangrijk is.
Voor mijn part vertrouw je het aan de 'cloud' toe, 'Whatever turns you on".

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 16-09 11:22
System specifications
ComponentValue
CaseFractal Design R4 white
CPUIntel Atom D2700 @ 2.1Ghz D510 @ 1.6GHz
RAM4 GB
MotherboardIntel D2700MUD D510MO
Operating systemLinux gentoo 3.6.11-gentoo #6 SMP Tue Jan 15 15:15:54 CET 2013 x86_64
ControllerSilicon Image sil3132 MiniPCIe (2)
Hard drive6x WD30EZRX 3TB @raid5
Hard drive2x WD20EARS 2TB @raid1
RAID array configuration 2x 2TB@raid1 6x3TB@raid5
Netto storage capacity+/- 17TB
NetworkIntel 82574L Gigabit Ethernet Controller
UPSn/a
FilesystemEXT4
Idle power usage~60 Watt
Extra2x Silicon Image 3726 based port multiplier


code:
1
2
3
4
5
6
7
8
9
10
gentoo smeltekw # df -h
Filesystem      Size  Used Avail Use% Mounted on
rootfs           92G  5.9G   82G   7% /
devtmpfs        2.0G  4.0K  2.0G   1% /dev
tmpfs           2.0G  464K  2.0G   1% /run
shm             2.0G     0  2.0G   0% /dev/shm
cgroup_root      10M     0   10M   0% /sys/fs/cgroup
/dev/md1        119M   11M  102M  10% /boot
/dev/md4        1.7T   16G  1.6T   1% /mnt/raid1
/dev/md5         14T  3.1T   11T  23% /mnt/raid5


code:
1
2
3
4
5
6
7
8
9
10
gentoo / # cat /etc/fstab
/dev/md1                                        /boot           ext4            defaults,noatime        1       2
/dev/md2                                        none            swap            sw                      0       0
/dev/md3                                        /               ext4            noatime                 0       1

UUID="0dd85cab-43d0-40e9-aaa6-8b9e7858cba7"     /mnt/raid1      ext4            defaults,noatime        0       2
UUID="f0c97ba0-0716-4d12-901a-2477541d369e"     /mnt/raid5      ext4            defaults,noatime        0       2

proc                                            /proc           proc            defaults                0       0
shm                                             /dev/shm        tmpfs           nodev,nosuid,noexec     0       0


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
gentoo / # cat /etc/lilo.conf
boot=/dev/md1
raid-extra-boot=mbr-only
prompt
timeout=200
default=current
lba32

image=/boot/kernel-current
        label=current
        read-only
        root=/dev/md3

image=/boot/kernel-previous
        label=previous
        read-only
        root=/dev/md3


Dit is begonnen als een low-power file servertje voor oa. OpenVPN (site to site) en transmission leechbox. Ondertussen is de storage uitgebreid naar 15TB (12TB Bruikbaar) maar mijn doel is voornamelijk om het zo energie zuinig als mogelijk te houden. Ik heb een mooi workstation bord met 8 poorts PCI-X areca kaart en een intel Q6600 maar dat zuipt nogal. Vandaar de afweging om bij de atom te blijven.

Performance is niet om over naar huis te schrijven maar voldoende voor 802.11n en gigabit. De limitatie zit momenteel in de Silicon Image 3132 chip, die limiteerd de bus op +/- 130MiB/s wat op zich voldoende is. Ik zit te wachten op een MiniPCIe AsMedia kaartje wat naar zeggen beter zal presteren, de verwachting is dan net onder de maximale SATA300 snelheid.. Zeg 250 a 280 MiB/s. Nogmaals, de focus ligt voornamelijk op energie zuinigheid en storage; ik weet dat aan mijn Areca controller in PCI-X de snelheid rond de 500 a 600 MiB/s zal zijn maar dat is momenteel niet belangrijker dan energieverbruik.

Bootable RAID1 array met MDADM zonder initramfs is even knutselen met lilo maar uiteindelijk werkt het. Server is bootable van beide WD20EARS drives zonder initramfs met auto assembly. Zodra de kernel op komt wordt de root, boot en swap partitie ge-assembled.

Ik WIL GEEN initramfs als het niet nodig is. Bij Ubuntu en consorten gaat dit lekker makkelijk maar bij Gentoo is er nog wel wat werk aan de weg qua initramfs. Bovendien wil ik de server zo lean mogelijk draaien. De kernel momenteel:

code:
1
-rw-r--r-- 1 root root 2.3M Jan 20 20:55 kernel-3.6.11-gentoo


Wel nog een probleem wat ik tegenkwam is dat de kernel te snel probeert het raid5 array te assemblen. Na wat onderzoek bleek dat UDEV de schuldige is. De regel verantwoordelijk hiervoor is:

code:
1
/lib/udev/rules.d/64-md-raid.rules


Je kunt deze verwijderen en het werk over laten aan het mdraid init script maar bij een update van UDEV komt deze doodleuk terug. Een andere oplossing is deze te overrulen in /etc/udev/rules.d/. Je maakt hier een symlink aan:

code:
1
lrwxrwxrwx 1 root root    9 Jan 11 16:59 64-md-raid.rules -> /dev/null


Deze neemt voorrang over de regels in "/lib/udev/rules.d/" en wordt ook niet overschreven. Later in het bootstadium kom de het mdraid init script voorbij. Die roept "/lib/rcscripts/addons/raid-start.sh" aan die uiteindelijk het array assembled met "mdadm -As"

Dat gaat dus wel goed. De UDEV methode was een beetje "flaky", de ene boot was het array beschikbaar, de andere boot niet. Heel apart. Het kwam er op neer dat UDEV te vroeg het array wil maken.

De load van RAID5 mdadm op een Intel Atom valt me erg mee, aldus de kernel kan de Atom D510 het gemakkelijk aan:

code:
1
2
[    0.376102] raid6: sse2x4     436 MB/s
[    0.376223] raid6: using algorithm sse2x4 (436 MB/s)


Ten opzichte van de Atom D2700:

code:
1
2
[    0.493864] raid6: sse2x4     544 MB/s
[    0.493872] raid6: using algorithm sse2x4 (544 MB/s)


Afbeeldingslocatie: http://img837.imageshack.us/img837/4753/networkspeed2.png

Qua backups prima in orde, de server Rsync'ed iedere dag naar een Ubuntu doos van een vriend op een andere locatie. Alle belangrijke en gevoelige data is versleuteld met encfs en alleen de versleutelde bestanden worden geback'upped. Ik heb geen zorgen over mijn data aan de andere kant.

Genoeg, foto's..

Afbeeldingslocatie: http://imageshack.us/a/img189/4510/img20130301163955.jpg
Afbeeldingslocatie: http://imageshack.us/a/img853/2407/img20130301163909.jpg
Afbeeldingslocatie: http://imageshack.us/a/img687/5029/img20130301163833.jpg
Afbeeldingslocatie: http://img10.imageshack.us/img10/5319/img20130301163823.jpg

Ik ben erg tevreden met het resultaat en stroomverbruik. De greenline's verbruiken idle volgens WD ongeveer 5.5watt idle en 6watt in bedrijf. De doorvoer is dik in orde voor een 5400rpm met 123MiB/s.

Wel is aan te raden om idle3-tools te draaien om de head park time op te hogen:
http://idle3-tools.sourceforge.net/

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
gentoo / # idle3ctl -g /dev/sda
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdb
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdc
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdd
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sde
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdf
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdg
Idle3 timer set to 255 (0xff)
gentoo / # idle3ctl -g /dev/sdh
Idle3 timer set to 255 (0xff)


SMART Load_Cycle_Count:

code:
1
2
3
4
5
6
7
8
/dev/sda 25131
/dev/sdb 183825
/dev/sdc 111
/dev/sdd 45
/dev/sde 137
/dev/sdf 106
/dev/sdg 103
/dev/sdh 11


Sindsdien nauwelijks headparks meer, de oude WD20EARS zal al op 183.xxx headparks in driekwart jaar.

Verder wat info:

boot:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
gentoo / # mdadm --detail /dev/md1
/dev/md1:
        Version : 0.90
  Creation Time : Mon Jan  7 20:15:56 2013
     Raid Level : raid1
     Array Size : 124864 (121.96 MiB 127.86 MB)
  Used Dev Size : 124864 (121.96 MiB 127.86 MB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 1
    Persistence : Superblock is persistent

    Update Time : Mon Jan 21 11:23:54 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : 3bd9364a:f7d81ce4:a65ff077:61ffda2d (local to host gentoo)
         Events : 0.21

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8        1        1      active sync   /dev/sda1

swap:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
gentoo / # mdadm --detail /dev/md2
/dev/md2:
        Version : 0.90
  Creation Time : Mon Jan  7 20:16:06 2013
     Raid Level : raid1
     Array Size : 3999680 (3.81 GiB 4.10 GB)
  Used Dev Size : 3999680 (3.81 GiB 4.10 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 2
    Persistence : Superblock is persistent

    Update Time : Mon Jan 21 10:13:13 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : b2494a3c:3a6a30e4:a65ff077:61ffda2d (local to host gentoo)
         Events : 0.21

    Number   Major   Minor   RaidDevice State
       0       8       18        0      active sync   /dev/sdb2
       1       8        2        1      active sync   /dev/sda2

root:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
gentoo / # mdadm --detail /dev/md3
/dev/md3:
        Version : 0.90
  Creation Time : Mon Jan  7 20:16:15 2013
     Raid Level : raid1
     Array Size : 97656768 (93.13 GiB 100.00 GB)
  Used Dev Size : 97656768 (93.13 GiB 100.00 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 3
    Persistence : Superblock is persistent

    Update Time : Mon Jan 21 11:24:55 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : e7c1fab3:a11c0038:a65ff077:61ffda2d (local to host gentoo)
         Events : 0.20

    Number   Major   Minor   RaidDevice State
       0       8       19        0      active sync   /dev/sdb3
       1       8        3        1      active sync   /dev/sda3

temp storage voor bittorrent enzo:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
gentoo / # mdadm --detail /dev/md4
/dev/md4:
        Version : 0.90
  Creation Time : Tue Jan  8 21:14:46 2013
     Raid Level : raid1
     Array Size : 1851731968 (1765.95 GiB 1896.17 GB)
  Used Dev Size : 1851731968 (1765.95 GiB 1896.17 GB)
   Raid Devices : 2
  Total Devices : 2
Preferred Minor : 4
    Persistence : Superblock is persistent

    Update Time : Mon Jan 21 11:25:27 2013
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           UUID : d72fa9ce:5b0075ef:a65ff077:61ffda2d (local to host gentoo)
         Events : 0.23

    Number   Major   Minor   RaidDevice State
       0       8        4        0      active sync   /dev/sda4
       1       8       20        1      active sync   /dev/sdb4

main data storage:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
gentoo smeltekw # mdadm --detail /dev/md5
/dev/md5:
        Version : 1.2
  Creation Time : Sat Jan  5 15:19:13 2013
     Raid Level : raid5
     Array Size : 14651317760 (13972.59 GiB 15002.95 GB)
  Used Dev Size : 2930263552 (2794.52 GiB 3000.59 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock is persistent

    Update Time : Sat Feb 23 15:53:36 2013
          State : clean
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

           Name : gentoo:0  (local to host gentoo)
           UUID : 7a13e258:2b8fbdc6:083a1953:634be985
         Events : 60809

    Number   Major   Minor   RaidDevice State
       0       8       65        0      active sync   /dev/sde1
       6       8       97        1      active sync   /dev/sdg1
       2       8       81        2      active sync   /dev/sdf1
       4       8       33        3      active sync   /dev/sdc1
       5       8       49        4      active sync   /dev/sdd1
       7       8      113        5      active sync   /dev/sdh1


code:
1
2
3
4
5
gentoo / # hdparm -Tt /dev/md1

/dev/md1:
 Timing cached reads:   1532 MB in  2.00 seconds = 765.70 MB/sec
 Timing buffered disk reads: 120 MB in  1.01 seconds = 119.07 MB/sec


code:
1
2
3
4
5
gentoo / # hdparm -Tt /dev/md2

/dev/md2:
 Timing cached reads:   1534 MB in  2.00 seconds = 767.07 MB/sec
 Timing buffered disk reads: 372 MB in  3.01 seconds = 123.45 MB/sec


code:
1
2
3
4
5
gentoo / # hdparm -Tt /dev/md3

/dev/md3:
 Timing cached reads:   1498 MB in  2.00 seconds = 748.89 MB/sec
 Timing buffered disk reads: 362 MB in  3.01 seconds = 120.13 MB/sec


code:
1
2
3
4
5
gentoo / # hdparm -Tt /dev/md4

/dev/md4:
 Timing cached reads:   1522 MB in  2.00 seconds = 761.08 MB/sec
 Timing buffered disk reads: 368 MB in  3.01 seconds = 122.23 MB/sec


code:
1
2
3
4
5
gentoo / # hdparm -Tt /dev/md5

/dev/md5:
 Timing cached reads:   1434 MB in  2.00 seconds = 717.34 MB/sec
 Timing buffered disk reads: 448 MB in  3.00 seconds = 149.27 MB/sec


Grote versies van de foto's hier:

https://plus.google.com/p...lbums/5830594704991236769

[ Voor 255% gewijzigd door Pakjebakmeel op 02-03-2013 16:11 ]


Acties:
  • 0 Henk 'm!

  • ppl
  • Registratie: Juni 2001
  • Niet online

ppl

Pantagruel schreef op maandag 21 januari 2013 @ 10:50:
En dat is nu de crux van het verhaal.

Als die meid/jongen dat nu graag wilt, laat hem/haar dan toch. Hij/Zij doet er (hopelijk ;) ) niemand kwaad mee.
En daarom reageerde ik ook: iedereen moet voor zichzelf de afweging maken welke ssd hij koopt en of hij die voorziet van een ups of niet. Ik vind alleen de redenatie die sommigen hier hebben voor het gebruiken van een ups voor een ssd nogal erg krom. Dit was meer andersom redeneren: men heeft de oplossing maar moet het probleem wat die oplossing oplost nog bedenken :) Denk er dan gewoon goed over na en kom niet met iets wat aan de ene kant iets oplost en waarbij de andere kant die oplossing volledig teniet doet of zeg dan gewoon dat het voor de lol is ("omdat het kan!") maar ga geen flauwekul redenatie houden.
( Pantagruel vraagt zich af of een halon blus installatie voor thuis in t server hokje een mogelijkheid is, anyone ;) )
Nee want dat is inmiddels al lang en breed verboden (iets met milieu...) :) Jammer want het is verdomde goed blusspul.

@Pakjebakmeel: darn, das pas info geven! Overigens ook een mooi stukje nadenkwerk: als de netwerksnelheid toch de beperkende factor is dan hoef je ook niet als een gek te investeren in de snelheid van je storage. Dat haal je er dan toch vrijwel niet uit.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
@pakjebakmeel: mooie baken leuk bedacht! Wat kosten die MiniPCIe dingen ongeveer?

Offtopic: Hoeveel compiletijd was je kwijt met die Atom? >:)

[ Voor 28% gewijzigd door FireDrunk op 21-01-2013 20:46 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 15-09 13:52
ppl schreef op zondag 20 januari 2013 @ 22:38:
[...]...Ik vind het nogal overdreven om dit soort kleine dingen in een thuisbak toe te passen....
ik ook en dat probeerde ik duidelijk te maken door aan te geven dat ik geen intel 520s gebruik. Ik had me daar vergist en had moeten posten dat ik geen intel 320 serie gebruik (ik gebruik samsungs). Alleen daarom verbazen mij je uitgebreide reacties op mijn post.

[ Voor 12% gewijzigd door BartNL op 22-01-2013 20:01 ]


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op maandag 21 januari 2013 @ 20:44:
@pakjebakmeel: mooie baken leuk bedacht! Wat kosten die MiniPCIe dingen ongeveer?
Volgens onderstaande link kosten deze kaartjes zo'n 20 Pond.

http://www.bvm-store.com/ProductDetail.asp?fdProductId=631

Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 16-09 11:22
ppl schreef op maandag 21 januari 2013 @ 20:38:

@Pakjebakmeel: darn, das pas info geven! Overigens ook een mooi stukje nadenkwerk: als de netwerksnelheid toch de beperkende factor is dan hoef je ook niet als een gek te investeren in de snelheid van je storage. Dat haal je er dan toch vrijwel niet uit.
Klopt, echter heeft de onboard Realtek kaart nogal problemen. Hij mag dan wel aan de PCIe bus hangen en via iPerf een mooie 945Mbit/s neerzetten maar hij vind Samba ab-so-luut niet leuk. Throughput blijft hangen op een magere 5 tot 10 MiB/s. Om die reden een simpele PCI Intel controller ingestoken die minder throughput heeft maar geen last met Samba. Via gigabit haal die tussen de 50 en 60 MiB/s. Er zijn wel wat threads over te vinden en het heeft iets te maken met polling. Ik heb zowel de oude als de nieuwe (NAPI) driver geprobeert en de driver van realtek zelf als module gecompileert. Niets mag baten en Samba blijft dramatisch via de onboard NIC. Als je nog ideeen hebt, ik hoor ze graag :D

Er staat in de OP dat het onder andere bedoeld is voor andere mensen om ideeen op te doen, zeker anno 1013 speelt energie verbruik toch een grote rol. Wellicht interessant voor anderen die een NAS/Server willen bouwen maar niet zitten te wachten op het spekken van de NUON.

Overigens heb ik het daadwerkelijke verbruik niet gemeten maar ik gok iets wat hier op lijkt:

WD30EZRX = 5x 5.5w = 27,5w
WD20EARS = 2x 3.3w = 6.6w
Intel D510MO = 26w aldus http://www.cartft.com/sup...10PT_D510MO_Review_EN.pdf

Plus dan nog wat verbruik van het MiniPCIe kaartje en de port expander maar dat zal praktisch verwaarloosbaar zijn. Maakt een totaal idle van ongeveer 60w

Performance is leuk.. Op papier en voor rebuilds van arrays maar ik gebruik hem voornamelijk via 802.11n waarmee ik maximaal 22MiB/s haal op mijn goede laptop en sporadisch aan de kabel via Gigabit maar ook daar is de disk IO afdoende voor.
FireDrunk schreef op maandag 21 januari 2013 @ 20:44:
@pakjebakmeel: mooie baken leuk bedacht! Wat kosten die MiniPCIe dingen ongeveer?

Offtopic: Hoeveel compiletijd was je kwijt met die Atom? >:)
Dingen kosten geen drol, de AsMedia die ik vorige week besteld heb kost 23 euro. Compileren valt allemaal best wel mee, er draait geen X op dus dat scheelt een hoop. Dingen als X, Gnome, KDE en Libreoffice (vooral dat laatste) ben je wel even zoet mee. Op mijn Dell D610 met 1.86Ghz P4 mobile duurt Libreoffice alleen al een uur of 10. Echter is de command line zooi vrij snel klaar hoor.

Kernel, Samba, Apache en MySQL zijn denk ik de grootste pakketten die er op draaien en die zijn toch wel in een minuutje of 15 a 20 te compileren.

[ Voor 14% gewijzigd door Pakjebakmeel op 22-01-2013 08:22 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Ik draai zelf ook Gentoo op 2 van mijn systemen (Thinkpad en op mijn test AMD quadcore)
Maar 15/20 minuutjes haal ik toch niet, (maar ik reken misschien het compileren van GCC mee, en dat duurt toch echt lang... :( )

Even niets...


Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 16-09 11:22
FireDrunk schreef op dinsdag 22 januari 2013 @ 09:13:
Ik draai zelf ook Gentoo op 2 van mijn systemen (Thinkpad en op mijn test AMD quadcore)
Maar 15/20 minuutjes haal ik toch niet, (maar ik reken misschien het compileren van GCC mee, en dat duurt toch echt lang... :( )
Misschien duurde het langer dan in mijn beleving.. Ik bedoelde overigens 15 minuutjes per pakketje hoor. Zeer zeker niet in totaal, maar ik zit er vaak toch niet op de wachten. Gewoon lekker laten lopen, is vanzelf wel klaar..

Acties:
  • 0 Henk 'm!

  • LnC
  • Registratie: Juni 2005
  • Laatst online: 03-08 11:16

LnC

The offending line...

Pi0tr schreef op donderdag 17 januari 2013 @ 20:11:
[...]


Heb je hier wat meer informatie over? Doe je dit met WOL ofzo? Dit is natuurlijk wel interessant...
Ik ben ook wel benieuwd hoe Pi0tr dat doet. Maar ik heb ook wat gevonden wat volgens mij hetzelfde doet. Enigste nadeel is dat dit progje shareware is en na 45 dagen de trial doei zegt.

Acties:
  • 0 Henk 'm!

  • Pakjebakmeel
  • Registratie: September 2003
  • Laatst online: 16-09 11:22
LnC schreef op dinsdag 22 januari 2013 @ 12:37:
[...]

Ik ben ook wel benieuwd hoe Pi0tr dat doet. Maar ik heb ook wat gevonden wat volgens mij hetzelfde doet. Enigste nadeel is dat dit progje shareware is en na 45 dagen de trial doei zegt.
Misschien denk ik te simpel maar de meeste BIOS' kunnen auto power-on iedere dag om een bepaald tijdstip. Dan hoef je alleen nog maar een scheduled jobje aan te maken met "shutdown -s -t 0".


Ik lees net de originele post.. :F

Volgens mij is dat gewoon "wake on demand" vinkie of "allow this device to wake...." op de netwerk kaart?

[ Voor 11% gewijzigd door Pakjebakmeel op 22-01-2013 13:29 ]


Acties:
  • 0 Henk 'm!

  • Pi0tr
  • Registratie: Mei 2010
  • Laatst online: 12:09
LnC schreef op dinsdag 22 januari 2013 @ 12:37:
[...]

Ik ben ook wel benieuwd hoe Pi0tr dat doet. Maar ik heb ook wat gevonden wat volgens mij hetzelfde doet. Enigste nadeel is dat dit progje shareware is en na 45 dagen de trial doei zegt.
Dat programmatje ziet er inderdaad goed uit, alleen draait het voor zover ik kan zien niet op non-windows systemen...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 11:45
@Pakjebakmeel, gaaf systeempje: kun je die benches eens doen met 'dd' ?

Acties:
  • 0 Henk 'm!

  • Crahsystor
  • Registratie: Februari 2009
  • Laatst online: 18-09 15:32
Pakjebakmeel schreef op dinsdag 22 januari 2013 @ 13:26:
[...]
Volgens mij is dat gewoon "wake on demand" vinkie of "allow this device to wake...." op de netwerk kaart?
Meestal is het "wake by PCI-e device" of "resume by PCI-e device" aangezien de onboard NIC meestal via PCI-e is aangesloten. En in het OS moet het disablen van de NIC uit staan en Wake on Lan (al dan niet door Magic Packet) aan.

Addicted to silent computing


Acties:
  • 0 Henk 'm!

  • Sr_Ogel
  • Registratie: Mei 2006
  • Laatst online: 18-09 18:01

Sr_Ogel

Klop klop klop

Hier draait op de server een eigen geschreven scriptje wat om 23:00 begint te lopen. Elke 10 minuten controleert het een aantal ip adressen en of de server nog aan het rarren en parren is (sabnzbd). Als alles negatief is gaat de server automatisch uit.

Op de clients draait een handmatig wol script (mobiel tablet en laptop) of automatisch bij het opstarten (XBMC)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 18-09 20:40
Oops, ik zie dat mijn eigen specs afwijken :+

Mijn huidige specs:

Intel Core i5-3550 (met boxed cooler)
4 * 4GB Kingston 1333Mhz Geheugen
Intel DQ77MK
Fractal Define XL 3.0 Kast met een extra Noctua 12CM fan.
BeQuiet L7 300W voeding

Disks:

10 * 2TB (4* Western Digital EADS, 6 * Samsung F4EG)
2 * 80GB Intel SSD (ZIL / L2ARC)
8 disks hangen aan een IBM M1015 crossflashed naar een LSI 9211-8i met IT-mode firmware.
Rest hangt op de onboard controller

Systeem draait ZFSGuru 0.2b8 (Image 9.1-RC3)

Even niets...

Pagina: 1 ... 22 ... 38 Laatste

Let op:
Om heftige discussies te voorkomen in het topic, lees eerst goed de start post om te weten waar aan het systeem moet voldoen. Ben je van mening dat jouw systeem toch in dit topic hoort maar valt hij niet binnen de gestelde eisen, neem dan contact op met een van de auteurs van dit topic zij zullen open staan voor goede argumenten, zoals ook vermeld in de start post.

Gebruik de in de TS geplaatste tabel om dit topic leesbaar te houden!