• tbusquet
  • Registratie: Februari 2000
  • Laatst online: 23-12 16:17
Verwijderd schreef op dinsdag 21 juni 2011 @ 00:51:
Van wat ik heb begrepen zou de LSI controller commando's vertalen waardoor pure ATA commando's niet werken. Vandaar dat SCSI commando's als spindown niet werken onder BSD. Maar misschien is dit of niet juist, of hebben Linux drivers hier een workaround voor. Via FreeBSD kan ik geen APM inschakelen op mijn schijven; wel als ik ze op de chipset ATA aansluit.

Als iemand zijn ervaringen kan delen met 1068E controllers en spindown zou dat mooi zijn.

@prozak: over wat voor soort spindown hebben we het? APM of host-initiated spindown?
Je moet camcontrol gebruiken onder BSD. Heb ik ook en dan scriptje draaien dmv. cron.

Ik gebruik het volgende script:


#!/usr/local/bin/bash

#
# zpool-spindown.sh
#

ZPOOL="$1"

if [ -z "$ZPOOL" ]
then
echo "WD16TB"
exit 2
fi

PATH=/usr/local/bin:/bin:/usr/bin:/usr/sbin:/usr/local/sbin:/bin:/sbin
export PATH

# Cleanup any tmp file if present
if [ -f /tmp/zpool.iostat ]
then
rm -f /tmp/zpool.iostat
fi

# Name of samba share to check if mounted
SMBSHARE="WD16TB"

# Get drives for pool
drives=`zpool status $ZPOOL | egrep "da[01234567]" | awk '{print $1}' | tr '\n' ' '`
firstdrive=`echo "$drives" | awk '{print $1}'`

# Activity checks
smbactive=`smbstatus -S | grep -A 6 "Connected at" | grep $SMBSHARE | wc -l | awk '{print $NF}'`
scrubrunning=`zpool status $ZPOOL | egrep "scrub in progress|resilver in progress" | wc -l | awk '{print $NF}'`
spundown=`smartctl -n standby -H /dev/$firstdrive | tail -1 | grep "STANDBY" | wc -l | awk '{print $NF}'`

if [ -f /tmp/locate.running ]
then
echo "Locate running...Aborting spindown!"
exit 3
elif [ $smbactive -gt 0 ]
then
echo "Samba share is mounted...Aborting spindown"
exit 3
elif [ $scrubrunning -eq 1 ]
then
echo "Scrub/resilver is running...Aborting spindown"
exit 3
elif [ $spundown -eq 1 ]
then
echo "Spundown already...Aborting spindown"
exit 3
fi

# Longer IO Activity check - only perform if got past above
zpool iostat $ZPOOL 30 2 | tail -1 > /tmp/zpool.iostat
reading=`cat /tmp/zpool.iostat | awk '{print $(NF-1)}' | awk -F\. '{print $1}' | sed -e 's/K//g' | sed -e 's/M//g'`
writing=`cat /tmp/zpool.iostat | awk '{print $NF}' | awk -F\. '{print $1}' | sed -e 's/K//g' | sed -e 's/M//g'`
rm -f /tmp/zpool.iostat

if [ $reading -gt 0 ]
then
echo "Pool shows IO activity...Aborting spindown"
exit 3
elif [ $writing -gt 0 ]
then
echo "Pool shows IO activity...Aborting spindown"
exit 3
fi

drives=($drives)
type=""

driveop () {
drive=$1
# Need to issue differnt command to ada vs da devices!!!
type=`echo $drive | cut -c 1`
if [ $type = "d" ]
then
camcontrol stop $drive
elif [ $type = "a" ]
then
camcontrol standby $drive
fi
return
}

drives_count=${#drives[@]}
index=0

while [ "$index" -lt "$drives_count" ]
do
driveop ${drives[$index]}
printf "Spindown Drive %s\n" ${drives[$index]}
let "index = $index + 1"
done


Dan even de pool name en samba share aanpassen (als je wilt tenminste). Bovenstaande script checked of je share gemount is en of er niet gescrubbed wordt.

Cron job instellen.

bash ./zpool-spindown.sh <poolname>

[ Voor 63% gewijzigd door tbusquet op 22-06-2011 11:32 ]

"What are you doing ?" "Filming this dead bird." "Why ?" "Because it's beautiful." Gratis mij quoten is verleden tijd, iedere quote van mij kost vanaf nu €1,79 excl. 19% btw ©


  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
parcifal schreef op woensdag 22 juni 2011 @ 05:12:
Ik google me suf maar ben er nog niet uit tussen Samsung en de WDears, wel is er een nieuwe WDearx die SATA600 heeft, geen idee hoe die presteren, testen nog niet kunnen vinden.
Zou de SATA600 voordeel bieden bij RAID gebruik op een Highpoint 2740 SAS/SATA600 controller ?
check zeker de review van Storagereview.com. Daar reviewen ze de EARS, de Samsung F4 en de Seagate Green. allen de 2TB versie. De SATA600 versie is, als ik de techsheet mag geloven, de oude EARS met een SATA600 interface op geplakt.

In de storagereview.com review van de Samsung F4 is duidelijk te zien dat de Samsung en de Seagate veruit superieur zijn door het 3 platter design ipv 4 platters. De Seagate is sneller dan de Samsung maar verbruik (vooral bij spinup) een stukje meer.

De Samsung is ook iets goedkoper dan de Seagate die dan wel Sata600 is.
Sata600 heeft nog niet echt voordelen voor conventionele hardeschijven... Alleen SSD's hebben er baat bij... Bovendien heb je een duurder moederbord en eventueel een duurdere controller nodig om al die disks van Sata600 te voorzien... Zo'n 2740 is leuk, maar ik denk niet dat je er veel meer performance uit haalt met de huidige schijven... Als je SSD's en HDD's wil combineren in ZFS zou het wel leuk kunnen zijn.
Maar dat is alleen maar leuk in 'echte' enterprise omgevingen, voor thuis is het zwaar overkill...

Wel leuk speelgoed natuurlijk :+

Even niets...


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

Dit is pas leuk spul.
Afbeeldingslocatie: http://t0.gstatic.com/images?q=tbn:ANd9GcQQtWZpPYBOBZjhmYSpoa7K6hVj1USghPBf9VkLZIpVHVri1MPD

Anyway ik ben ook langzaam aan begonnen met mijn NAS samen te stellen. Kast is geregeld heb een ata DOM besteld nu nog een mobo met een ata en 5 sata connectors kiezen. Ik zat te denken aan
M4A88T-V EVO,sAM3 met een Athlon X4 640 proc. Genoeg sloten vrij voor wat extra kaarten in de toekomst

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

TrailBlazer schreef op woensdag 22 juni 2011 @ 12:29:
Dit is pas leuk spul.
[afbeelding]

Anyway ik ben ook langzaam aan begonnen met mijn NAS samen te stellen. Kast is geregeld heb een ata DOM besteld nu nog een mobo met een ata en 5 sata connectors kiezen. Ik zat te denken aan
M4A88T-V EVO,sAM3 met een Athlon X4 640 proc. Genoeg sloten vrij voor wat extra kaarten in de toekomst
Lijkt op de HP EVA :9~ Bij mijn vorige klus hadden ze daar een paar cabinets van staan. Alleen wat de optical switch (per stuk) kost kan je al een modale auto van kopen. Laat staan van wat de schijven per stuk kosten ;)

Koop hier mijn P1 reader :)

Ach, wij hebben hier ook 2 van die dingen staan van 5 19" racks groot... Klinkt allemaal heel spannend, maar valt best mee hoor, tis vooral duur... Het zijn niet meer dan veredelde broodroosters...

Even niets...


  • imp-
  • Registratie: September 2008
  • Laatst online: 18-11 01:07
Jormungandr schreef op woensdag 22 juni 2011 @ 11:31:
[...]

In de storagereview.com review van de Samsung F4 is duidelijk te zien dat de Samsung en de Seagate veruit superieur zijn door het 3 platter design ipv 4 platters. De Seagate is sneller dan de Samsung maar verbruik (vooral bij spinup) een stukje meer.
Ik weet niet van wanneer deze review dateert, maar sinds ongeveer 1 jaar hebben alle WD20EARS schijven ook maar 3 platters, versie met 4 platters is normaal al lang niet meer te krijgen. Het typenummer van de 3 platter versie is WD20EARS-00MVWB0.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

Uiteindelijk maakt het allemaal herrie en heeft het een hoop lichtjes.

Toch nog even patsen. Wij hebben een stuk of 40 van die NetAPP FAS6080's staan denk ik.
Hier ook, alleen ietsiepietsie minder ;)

[ Voor 64% gewijzigd door FireDrunk op 22-06-2011 14:24 ]

Even niets...


Verwijderd

parcifal schreef op woensdag 22 juni 2011 @ 05:12:
Zou de SATA600 voordeel bieden bij RAID gebruik op een Highpoint 2740 SAS/SATA600 controller ?
Zoals gezegd, SATA/600 voor hardeschijven is weinig nuttig. Met name nuttig als je expanders gebruikt omdat anders de expander op 3Gb/s linkt in plaats van 6Gb/s. Dus met 6Gb/s heb je dubbel de hoeveelheid bandbreedte per kanaal en dus minder snelheidsverlies. Overigens zijn expanders in combinatie met ZFS is een slecht idee.
TrailBlazer schreef op woensdag 22 juni 2011 @ 08:03:
wat gebeurt er trouwens met een softraid 5 systeem op linux bij een powerfailure. Is dan gelijk je array corrupt of is dat een bepaalde kans dat het gebeurt?
mdadm (software RAID) voert een rebulid uit indien nodig. Het filesystem heeft verloren writes maar dat betekent geen corruptie. De meeste filesystems gebruiken journaling en na een crash zal er een 'replay' uitgevoerd worden om het filesystem consistent te maken. Zonder journal kan er corruptie van de metadata voordoen, en dan kan het zijn dat je veel ernstigere schade hebt. Denk hierbij aan Windows 98 die voortdurend een hele check moest doen als je niet netjes had afgesloten, en heel veel files moest weggooien of als FILE00001.FIL ofzoiets terug kwamen in een LOSTFOUND directory. Dat is dus het gevolg van filesystem corruptie.
tbusquet schreef op woensdag 22 juni 2011 @ 11:24:
[...]
Je moet camcontrol gebruiken onder BSD. Heb ik ook en dan scriptje draaien dmv. cron.
Zo'n script werkt natuurlijk alleen als camcontrol standby commando werkt; en daar gaat het nu precies mis! Dat werkt bij mij dus niet. Bij jou wel? Je hebt een Intel SASUC8i met IT-firmware?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Afbeeldingslocatie: http://storagenerve.com/wp-content/uploads/2009/09/v-max-image.jpg
Als we het dan toch fancy gaan doen ;). De EMC Symmetrix VMAX: fancy blauwe led vooraan wanneer de machine aanstaat. Te bezichtigen in oa het laatste seizoen van 24.

SSD's en HDD's combineren is inderdaad eerder weggelegd voor enterprise solutions waar ze echt aan storage tiering kunnen doen. Ik betwijfel or er hier enig thuisgebruik iets met tiering kan aanvangen :P.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Ik ben ondertussen aan de slag gegaan met het opzetten van mijn RAID5 array.

Aangezien geen enkele van de schijven voorzien is van een partitie voeg ik er één toe via fdisk. Hier kan je dan kiezen voor extended of primary partition (1-4). Ik heb voor alle schijven het laatste gekozen waardoor ze nu worden weergegeven door /dev/sdb1, /dev/sdc1,... Ik ben toch juist bezig mag ik hopen :P?

Verwijderd

SSD's en HDD's combineren is inderdaad eerder weggelegd voor enterprise solutions waar ze echt aan storage tiering kunnen doen. Ik betwijfel or er hier enig thuisgebruik iets met tiering kan aanvangen
Is een SSD alleen voor enterprise gebruikers interessant? Dat dacht ik toch niet. Elke respectabele home ZFS build hoort een SSD te hebben. Zo haal je het beste uit SSD en HDD techniek; de HDDs kunnen hierdoor meer sequential I/O doen, waar ze goed in zijn. 5400rpm + SSD is een gouden combinatie met ZFS.
Aangezien geen enkele van de schijven voorzien is van een partitie voeg ik er één toe via fdisk.
Waarom? Moet je van de disks booten? Anders gebruik je beter helemaal geen partities. Merk op dat je partities voor 4K sector schijven goed aligned moeten zijn (beginnen op sector 2048 = 1MiB offset). Géén partities gebruiken heeft nog altijd de voorkeur; dan kan er nooit een misalignment zijn en heb je geen gezeik wanneer je de disks eens met een hogere capaciteit omruilt.

[ Voor 32% gewijzigd door Verwijderd op 22-06-2011 16:44 ]


  • lowrider2025
  • Registratie: December 2004
  • Laatst online: 28-01 22:39
Aangezien een eigen topic maken niet meer mag, hier dan graag nog wat tips/advies omtrent enkele keuzes voor hard- en software.

Voorlopig idee en onderdelen:
case: norco rpc-4020 (in bezit)
psu: XFX Black Edition 850W link (te bestellen)
cpu: Intel Core i3 2100T (te bestellen)
geheugen: 16GB DDR3 non-ECC
mainboard: Asus P8P67-M (3.0) (te bestellen)
sas/sata-controller: 2x Super Micro AOC-USAS2-L8i (PCI-e 8x) of andere SAS2008-based controllers
hdd's:
- 4x 320GB Seagate (in RAID-5)
- 4x 1TB WDEADS (in RAID-5)
- 4x WD 2001FASS 2TB (in RAID-6 met de 8 hitachi's)
- 8x Hitachi Deskstar 7K3000 (te bestellen)
fans van rpc-4020 te vervangen door papst of noiseblocker

OS:
Freenas met Raid-Z2
of Openfiler met XFS Raid-6

Dan nog enkele vragen:
1) nog voorstellen voor andere hardware ? probleem is dat er op het mobo al 2 PCI-e 2.0 8x poorten moeten zitten voor de sata-controllers om geen bottleneck te vormen.

2) OS installeren op hdd,CF/sata of usb flash drive ? Wat is het best ?

3) Vermoed van wel, maar kunnen 12 schijven van 2TB in een array gestopt worden verspreid over de 2 controllers.Indien wel, heeft dit een grote negatieve impact op de performance ?

4) Welk OS heeft de beste WOL(wake-on-lan)-implementatie ?

5) Kan een htpc gecombineerd worden met de nas (probleem is dan met het asus-moederbord enkel nog PCI over om vga-kaart in te stoppen) ? Ik weet nog niet wat gemakkelijker werkt: mediaspeler tv gebruiken met dlna of htpc op nas die dan remote besturen vanop laptop beneden om muziek x of film y te starten.

6) Welke voordelen/nadelen heeft een supermicro moederbord ? nadeel 1: duurder :P

Alvast bedankt voor de opmerkingen/suggesties.

Nog mensen die weet hebben van sata/sas controllers met de LSI SAS2008 chipset:
enkele zijn:
AOC-USAS2-L8i
AOC-USAS2-L8e
Intel RAID Controller RS2WC080
LSI MegaRAID SAS 9240-8i
IBM ServeRAID M1015

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Verwijderd schreef op woensdag 22 juni 2011 @ 16:42:
Is een SSD alleen voor enterprise gebruikers interessant? Dat dacht ik toch niet. Elke respectabele home ZFS build hoort een SSD te hebben. Zo haal je het beste uit SSD en HDD techniek; de HDDs kunnen hierdoor meer sequential I/O doen, waar ze goed in zijn. 5400rpm + SSD is een gouden combinatie met ZFS.
In geval van ZFS inderdaad niet nee, die was ik ff uit het oog verloren. Maar ik doelde eerder op storage tiering.

Maar inderdaad, het was nogal kort door de bocht van mij. Excuses ;)

Verwijderd

lowrider2025 schreef op woensdag 22 juni 2011 @ 16:47:
Aangezien een eigen topic maken niet meer mag, hier dan graag nog wat tips/advies omtrent enkele keuzes voor hard- en software.
Wat je wel kunt doen is de reacties uit je topic quoten en hier op reageren, als je er nog vragen over hebt. :)
3) Vermoed van wel, maar kunnen 12 schijven van 2TB in een array gestopt worden verspreid over de 2 controllers.Indien wel, heeft dit een grote negatieve impact op de performance ?
Geen enkel probleem; wat wel een performanceprobleem is dat je verschillende type schijven mixt in één vdev.
6) Welke voordelen/nadelen heeft een supermicro moederbord ? nadeel 1: duurder :P
Dual Intel gigabit, meer PCI-express slots, lager energieverbruik, hogere kwaliteit componenten en minder gezeik met BIOS problemen. Genoeg redenen om voor SuperMicro te kiezen vooral voor een Intel build.
Nog mensen die weet hebben van sata/sas controllers met de LSI SAS2008 chipset:
enkele zijn:
AOC-USAS2-L8i
AOC-USAS2-L8e
Bij voorkeur de L8e die non-RAID is. Merk op dat LSI SAS2008 controllers als deze standaard niet werken onder FreeNAS! Je hebt de 'mps' driver nodig; wat met wat omwegen wel werkend te krijgen is onder FreeNAS. Dit type controllers werken alleen in NON-RAID mode! Dus een IBM ServeRAID M1015 die alleen in IR mode (RAID firmware) werkt is een no-go onder FreeBSD/FreeNAS.
Waarom L8e... e staat toch voor extern, en i voor intern? Ik zou juist liever interne connectoren willen :)

Even niets...


Verwijderd

L8i = RAID firmware
L8e = non-RAID mode, deze kan ook 128 devices aan bij gebruik van SAS expanders

L8e heeft net als de L8i twee interne Mini-SAS connectors.

Het is wat verwarrend allemaal ja. :P
ahzo, dat verklaart weer een hoop :)

Even niets...


  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Jormungandr schreef op woensdag 22 juni 2011 @ 11:31:
[...]


check zeker de review van Storagereview.com. Daar reviewen ze de EARS, de Samsung F4 en de Seagate Green. allen de 2TB versie. De SATA600 versie is, als ik de techsheet mag geloven, de oude EARS met een SATA600 interface op geplakt.

In de storagereview.com review van de Samsung F4 is duidelijk te zien dat de Samsung en de Seagate veruit superieur zijn door het 3 platter design ipv 4 platters. De Seagate is sneller dan de Samsung maar verbruik (vooral bij spinup) een stukje meer.

De Samsung is ook iets goedkoper dan de Seagate die dan wel Sata600 is.
Tnx voor de tip !
ik had deze revieuw nog niet gevonden 8)7
ik zie dat de Samsung F4 flink wat minder verbruikt vooral idle en spinnup, is een goede reden om deze te kiezen voor een setup met 20 disks ...
Met IOmeter doet tie t heel goed, maar reallive bench wat minder maar ook toch niet al te veel anders
dan de WD.
`t blijft een moeilijke keus, maar mischien toch maar eens voor Samsung gaan en de boel es zelf te vergelijken, in ider geval voor de dingen die je dagelijks juist veel ermee doet want dat is immers t belangrijks.
Copieren downloaden en extracten en verder streamen via HDMI zijn de voornaamste zaken die voor mij in belang zijn.
Ik hou de prijzen scherp in de gaten en als er wat budget is wil ik toch es erop wagen,
mischien eerst met 2 stuks en als t goed bevalt de rest later 8)

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Nu ik mijn desktop een upgrade gegeven heb kan ik met mijn oude config aan de slag! Dit weekend maar eens testen hoe laag ik een Athlon 64 X2 4000+ krijg zonder dat hij instabiel wordt. TDP is 65W maar daar moet wel aan te sleutelen zijn.

@ Parcifal: Ik heb op basis van die review toch de keuze gemaakt om binnekort achter Samsung schijven te gaan. In een RAID array gaan die snelheden normaal wel nog wat hoger liggen en uiteindelijk is je Gigabit al snel de cap. Als je dan weg kan met zuinigere schijven zie ik daar geen bezwaar tegen.

Het valt trouwens op dat er nauwelijks guides of topics op het internet zijn die underclocken behandelen.

  • parcifal
  • Registratie: September 2007
  • Laatst online: 14-02-2021
Jormungandr schreef op woensdag 22 juni 2011 @ 23:43:
Nu ik mijn desktop een upgrade gegeven heb kan ik met mijn oude config aan de slag! Dit weekend maar eens testen hoe laag ik een Athlon 64 X2 4000+ krijg zonder dat hij instabiel wordt. TDP is 65W maar daar moet wel aan te sleutelen zijn.

@ Parcifal: Ik heb op basis van die review toch de keuze gemaakt om binnekort achter Samsung schijven te gaan. In een RAID array gaan die snelheden normaal wel nog wat hoger liggen en uiteindelijk is je Gigabit al snel de cap. Als je dan weg kan met zuinigere schijven zie ik daar geen bezwaar tegen.

Het valt trouwens op dat er nauwelijks guides of topics op het internet zijn die underclocken behandelen.
Idd underklokken zou in veel gevallen best wel es goed kunnen helpen om onnodug gebruik tegen te gaan en daarmee zeker enige warmte te verminderen.
Ik heb zelf hier een Dualcore E8400 en IntelSpeedstep of hoe dat heet doet z`n werk ook wel enigsinds
door de multi te veranderen van 6 naar 9 en terug , hoeveel dit precies scheelt in t verbruik heb ik geen idee van en wil dit es nader onderzoeken met een goede meter voor me pc.
T ligt aan je bios maar ik denk dat t prima zal lukken met die X2 cpu om de multiplier te veranderen
zodat alleen de cpu lager loopt maar de rest van de hardware er niet onder te lijden heeft.
Ram erg veel underklokken lijkt me niet erg gunstig.
Ook vga`s kan je wel underklokken , ik had dat met me vorige vga ook gedaan en merkte dat goed met de warmte maar niks geen verschil in t beeld te zien , t was ook zwaar overkill voor gewoon desktop en films kijken.
Ik zou een ding nog willen weten en dat is hoe je kan checken welke HDD er active is en welke niet
aangezien WD er ook een tool voor heeft voor idle timer in te stellen, WDIDLE3.exe en via dosboot uit te voeren ... snap niet waarom dat nu weer zo ouderwets in dos moet en niet gewoon in windows omgeving kan
dus dat is weer een struikelblok om te overwinnen als ik dat wil gaan instellen evt.
Ook vraag ik me af of t SATA600 nog extra features kan meebrengen voor de HDD`s tegenover SATA300
of dat t puur een andere interface is voor de snelheid alleen.

  • lowrider2025
  • Registratie: December 2004
  • Laatst online: 28-01 22:39
Alvast bedankt voor de nuttige tips !
Verwijderd schreef op woensdag 22 juni 2011 @ 17:13:
Bij voorkeur de L8e die non-RAID is. Merk op dat LSI SAS2008 controllers als deze standaard niet werken onder FreeNAS! Je hebt de 'mps' driver nodig; wat met wat omwegen wel werkend te krijgen is onder FreeNAS. Dit type controllers werken alleen in NON-RAID mode! Dus een IBM ServeRAID M1015 die alleen in IR mode (RAID firmware) werkt is een no-go onder FreeBSD/FreeNAS.
Blijkbaar zou het met firmware van een andere LSI toch naar IT-mode kunnen geflasht worden.
Zie onderstaande uitleg (bron: http://lime-technology.com/forum/index.php?topic=12767.15
of http://forums.servethehom...-What-to-flash-with/page2 ) :

Ok, here is long-awaited, short HOW-TO... reflash IBM m1015, LSI 9240-8i, Intel RS2WC080 (SAS2008 SATAIII) controllers to IT-mode!!!

First off, create a standard bootable DOS USB Flash Drive.

Download and unpack tools from http://www.mediafire.com/?x1t5z0qyohnhopf to USB flash root directory.

System req: ONLY ONE LSI card in your system at reflash time!!!


Boot from USB Flash Drive Smiley


1. Save original sbr (serial boot rom) - i have only original IBM 1015 sbr file, another (intel/LSI) controller users, pls, upload and share
your sbr files in this forum!


Megarec -readsbr 0 backup.sbr


2. Write clean sbr file to controller:


megarec -writesbr 0 empty.bin


3. Erase controller Flash (Yes, this is safe procedure)

megarec -cleanflash 0


4. Power cycle your system (yes, no boot-time bios screen appear, this is normal)


5. Reflash controller to IT-mode.

sas2flsh -o -f 2108it.bin -b mptsas2.rom

6. Program SAS address in IT-mode:

sas2flsh -o -sasadd 500605bxxxxxxxxx

where "500605bxxxxxxxxx" SAS address from small green sticker on yor card, without "-"

All done Smiley


Pros: You have low-cost(65$ on ebay), fast, high-quality LSI 9210-8i Unraid 5.6a+ compatible controller. IT-mode Wink

http://lsi.com/storage_ho...nal/sas9210-8i/index.html


Cons:


1. No hdd spindown.

Workaround:

add "hdparm -S242 /dev/sdX" in boot script and poweroff.sh (program spindown after wake-on)


2. Hdd Temp/Smart att. do not show in Unmenu/Mymain

Workaround: find and delete all strings

"-d ata" from "smartctl -a -d ata" in unmain scripts


==============================================================


It is possibly to re-flash controller back?
Yes.


Megarec -writesbr 0 m1015.bin

Download LSI 9240-8i firmware from lsi site: http://lsi.com/storage_ho...id_sas_9240-8i/index.html
Extract imr_fw.rom file.

MegaRec -m0flash 0 imr_fw.rom

Power cycle your system

Megacli -adpfacdefset -a0

Rreboot

Waaaaiiiittt (about ~3 min frosen boot-screen)

All done!

Edit, FAQ, etc. are welcome....
Hmm goed om te weten!

Even niets...


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

Ik wil eigenlijk op mijn toekomstige nas gewoon met linux en mdadm raid partities gaan maken. Nu wil ik dat soort dingen gewoon lekker met de CLI doen. Is er echter een schil die dingen als NFS/CIFS en iSCSI voor je kan aanmaken. Dat lijkt me namelijk nog wel handig. Ik wil geen kant en klare distro hebben namelijk. Ik werk al jaren met debian en dat vind ik echt prima.

  • Staatslot
  • Registratie: December 2007
  • Laatst online: 08-12 12:27
TrailBlazer schreef op donderdag 23 juni 2011 @ 08:38:
Ik wil eigenlijk op mijn toekomstige nas gewoon met linux en mdadm raid partities gaan maken. Nu wil ik dat soort dingen gewoon lekker met de CLI doen. Is er echter een schil die dingen als NFS/CIFS en iSCSI voor je kan aanmaken. Dat lijkt me namelijk nog wel handig. Ik wil geen kant en klare distro hebben namelijk. Ik werk al jaren met debian en dat vind ik echt prima.
Je kunt webmin installeren, daarmee kun je heel veel via een webinterface regelen werkt prima...

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

TrailBlazer schreef op donderdag 23 juni 2011 @ 08:38:
Ik wil eigenlijk op mijn toekomstige nas gewoon met linux en mdadm raid partities gaan maken. Nu wil ik dat soort dingen gewoon lekker met de CLI doen. Is er echter een schil die dingen als NFS/CIFS en iSCSI voor je kan aanmaken. Dat lijkt me namelijk nog wel handig. Ik wil geen kant en klare distro hebben namelijk. Ik werk al jaren met debian en dat vind ik echt prima.
Staatslot schreef op donderdag 23 juni 2011 @ 08:55:
[...]


Je kunt webmin installeren, daarmee kun je heel veel via een webinterface regelen werkt prima...
Ik zoek ook eigenlijk zoiets, net zoiets als de schil van FreeNAS, dat zou mooi zijn.
Uiteraard is alles via command line en ssh instellen altijd mogelijk, maar gemak dient de mens ;)

Koop hier mijn P1 reader :)

Voor webmin zijn echt heel veel modules te krijgen, maar ik twijfel of webmin wel zo veilig is. (omdat het door 3000 verschillende mensen gemaakt word)

Even niets...


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

FireDrunk schreef op donderdag 23 juni 2011 @ 09:46:
Voor webmin zijn echt heel veel modules te krijgen, maar ik twijfel of webmin wel zo veilig is. (omdat het door 3000 verschillende mensen gemaakt word)
Dat is precies waar ik aan dacht. Ik configureer nog liever via command line aka ssh dan via Webmin ;)

Koop hier mijn P1 reader :)

Je kan natuurlijk webmin alleen op 127.0.0.1 laten luisteren, en via een ssh tunnel een poortje tunnelen :) Dan is het in theorie veilig :)

Even niets...


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 25-12 10:01

TrailBlazer

Karnemelk FTW

Op mijn interne netwerk vind ik het niet zo boeiend dat het onbeveiligd is allemaal dus misschien is webmin wel een optie. Anders pruts ik zelf wel wat in elkaar met PHP/Perl/SQL
Doe het dan goed, en maak het open source :+

Even niets...


Verwijderd

TrailBlazer schreef op donderdag 23 juni 2011 @ 09:57:
Op mijn interne netwerk vind ik het niet zo boeiend dat het onbeveiligd is allemaal dus misschien is webmin wel een optie. Anders pruts ik zelf wel wat in elkaar met PHP/Perl/SQL
.. en in een nieuwe behuizing :*)

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Verwijderd schreef op woensdag 22 juni 2011 @ 16:42:
[...]

Waarom? Moet je van de disks booten? Anders gebruik je beter helemaal geen partities. Merk op dat je partities voor 4K sector schijven goed aligned moeten zijn (beginnen op sector 2048 = 1MiB offset). Géén partities gebruiken heeft nog altijd de voorkeur; dan kan er nooit een misalignment zijn en heb je geen gezeik wanneer je de disks eens met een hogere capaciteit omruilt.
Ik had je reply niet gezien 8)7

In een paar tutorials zag ik ze partities aanmaken en het leek me ook vrij logisch. Ik dacht dat je enkel op die manier die 1 achter je schijfnamen kreeg (sdb1, sdc1..) :X. Ondertussen heb ik mijn array wel al aangemaakt, met partities op de drie schijven. Wat doe ik nu het beste? De partities terug verwijderen via fdisk, de array stoppen en dan opnieuw aanmaken?

[ Voor 5% gewijzigd door SanderH_ op 23-06-2011 11:02 ]

Andere volgorde:
Array stoppen, disks uit pool halen (in geval zfs)
** LET OP GEVAARLIJK ** bootsector overschrijven (dd if=/dev/zero of=/dev/sd[insertdiskletter] count=1024)
en dan opnieuw in array hangen.
array starten

offtopic:
aan deze post kunnen geen rechten worden ontleend :+

[ Voor 14% gewijzigd door FireDrunk op 23-06-2011 11:04 ]

Even niets...


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Ok dus even voor de zekerheid (ik wil geen 180 EUR aan kapotte schijven op mijn geweten hebben):

Dit is de juiste werkwijze..?

code:
1
2
3
4
5
6
7
8
9
mdadm --stop /dev/md0

dd if=/dev/zero of=/dev/sdb (geen 1 hierachter?) count=1024
dd if=/dev/zero of=/dev/sdc count=1024
dd if=/dev/zero of=/dev/sdd count=1024

mdadm --add /dev/md0 /dev/sdb1
mdadm --add /dev/md0 /dev/sdc1
mdadm --add /dev/md0 /dev/sdd1


Waarom is bij het dd commando de count juist 1024 als ik vragen mag? Dan overschrijft hij 1024 blokken? Mijn schijven zijn trouwens elk 2 TB als dat er iets toedoet.

[ Voor 20% gewijzigd door SanderH_ op 23-06-2011 11:15 ]

wat je doet is gewoon de sectoren 0 t/m 1024 overschrijven, hierop staat de partitietabel. Deze verwijder je compleet... Daarna moet je ook DIRECT rebooten, omdat je kernel die nieuwe partitietabel in moet lezen.
Daarna is je disk dus echt leeg, en heb je geen restanten van parities meer op de disks staan. (de data is dus ook verloren)

Daarna kan je ze met een gerust hart weer in een array stoppen.

Zie het probleem met de vreemde md127 die steeds terug kwam een paar pagina's terug. Daar wil ik je voor behoeden :)

Deze: Sleepie in "Het grote DIY RAID NAS topic deel 3"

[ Voor 7% gewijzigd door FireDrunk op 23-06-2011 11:16 ]

Even niets...


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Ok, dus op lijn 6 even rebooten, en dan heb ik terug "verse" schijven :)?
Als het goed is wel :) (iemand een second opinion? :+ )

Hier een bronnetje trouwens: http://www.cyberciti.biz/faq/linux-how-to-uninstall-grub/

[ Voor 45% gewijzigd door FireDrunk op 23-06-2011 11:25 ]

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
FireDrunk schreef op donderdag 23 juni 2011 @ 11:15:
Zie het probleem met de vreemde md127 die steeds terug kwam een paar pagina's terug. Daar wil ik je voor behoeden :)

Deze: Sleepie in "Het grote DIY RAID NAS topic deel 3"
Inderdaad, dat heeft wat hoofdbrekers gekost :D
Maar uiteindelijk werd het met het overschrijven van de partitietabel wel opgelost. Ik vermoed dat de reden is geweest dat ik ooit eens GPT partities op die disks had aangemaakt.

Overigens ben ik lang stil geweest hier in dit topic, maar ik heb zeker niet stil gezeten :+
Ik heb wat pech met de levering van mn Intel HBA, vandaar dat t allemaal veel langer duurt dan verwacht. Het positieve is dan weer dat ik door wat geklets met borroz intussen een heel andere config ga maken dan eerst gedacht :)

Ik draai nu (ook) ESXi, de bedoeling is dat de nieuwe bak twee fysieke servers (NAS en Hyper-V) gaat vervangen. Ik zit nog in de test-fase, vanalles aan het proberen en testen aangezien ESX voor mij helemaal nieuw is.

Binnenkort nog wel meer updates over de plannen en uitwerking en hopelijk ook wat foto's.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 14:24
FireDrunk schreef op donderdag 23 juni 2011 @ 11:24:
Als het goed is wel :) (iemand een second opinion? :+ )
Helemaal vers natuurlijk niet want niet al je sectoren zijn gereset. Als je dat zou willen:

dd if=/dev/null of=/dev/sdb

zonder count zodat die alle sectoren langsgaat. Is dit enigzins nuttiger dan gewoon je bootsector overschrijven. Nee. Dus het advies tot nu toe was inderdaad correct.

Sinds de 2 dagen regel reageer ik hier niet meer


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Ok, moet er bij of=/dev/sd[x] nog een 1 achter of niet, aangezien FireDrunk en jij het beiden verschillend hebben?

[ Voor 6% gewijzigd door SanderH_ op 23-06-2011 11:32 ]


  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 14:24
SanderH_ schreef op donderdag 23 juni 2011 @ 11:32:
Ok, moet er bij of=/dev/sd[x] nog een 1 achter of niet, aangezien FireDrunk en jij het beiden verschillend hebben?
De nummers verwijzen naar je partities, niet naar je schijven.

Sinds de 2 dagen regel reageer ik hier niet meer


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

SanderH_ schreef op donderdag 23 juni 2011 @ 11:09:
Ok dus even voor de zekerheid (ik wil geen 180 EUR aan kapotte schijven op mijn geweten hebben):

Dit is de juiste werkwijze..?

code:
1
2
3
4
5
6
7
8
9
mdadm --stop /dev/md0

dd if=/dev/zero of=/dev/sdb (geen 1 hierachter?) count=1024
dd if=/dev/zero of=/dev/sdc count=1024
dd if=/dev/zero of=/dev/sdd count=1024

mdadm --add /dev/md0 /dev/sdb1
mdadm --add /dev/md0 /dev/sdc1
mdadm --add /dev/md0 /dev/sdd1


Waarom is bij het dd commando de count juist 1024 als ik vragen mag? Dan overschrijft hij 1024 blokken? Mijn schijven zijn trouwens elk 2 TB als dat er iets toedoet.
Moet het niet zijn :? :
code:
1
2
3
mdadm --add /dev/md0 /dev/sdb
mdadm --add /dev/md0 /dev/sdc
mdadm --add /dev/md0 /dev/sdd


Je wilt de hele schijf zonder partitie aan je raid toevoegen toch?
Sowieso heb je na je dd actie geen partitie(s) op je hdd, omdat je die met de dd commando leeg gemaakt hebt ;)

Koop hier mijn P1 reader :)


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Er staat nog niks op de array toch? Maak de array dan gewoon opnieuw zou ik zeggen, dus

code:
1
mdadm -Cv /dev/md0 -l <raidlevel> -n <nr of disks> -c <chunksize> --assume-clean /dev/sd[bcd]

[ Voor 10% gewijzigd door Sleepie op 23-06-2011 12:20 ]


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Sleepie schreef op donderdag 23 juni 2011 @ 12:20:
Er staat nog niks op de array toch? Maak de array dan gewoon opnieuw zou ik zeggen, dus

code:
1
mdadm -Cv /dev/md0 -l <raidlevel> -n <nr of disks> -c <chunksize> --assume-clean /dev/sd[bcd]
dus in SanderH_ zijn geval:
3 schijven in RAID5
code:
1
mdadm -Cv /dev/md0 -l 5 -n 3 -c <chunksize> --assume-clean /dev/sd[bcd]

Alleen de chunksize blijft nog open ;)

Koop hier mijn P1 reader :)


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Daarvoor heb ik Q zijn script als ééns laten draaien, dus die wordt 128.

bedankt voor de vele reacties trouwens, deze middag ga ik aan de slag :>.

[ Voor 35% gewijzigd door SanderH_ op 23-06-2011 12:36 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
* Sleepie 's testlab update
Ik heb nu in ESXi een Ubuntu 11.04 server VM. Die krijgt 5 disks via (physical) raw device mapping, waarmee een mdadm raid6 set is aangemaakt.

Testing local performance:
code:
1
2
3
4
5
6
7
8
hans@TANK:/mnt/data$ sudo dd if=/dev/zero of=/mnt/data/test4GB.bin bs=1M count=4096
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 17.0775 s, 251 MB/s
hans@TANK:/mnt/data$ sudo dd if=/mnt/data/test4GB.bin of=/dev/zero bs=1M
4096+0 records in
4096+0 records out
4294967296 bytes (4.3 GB) copied, 14.0588 s, 306 MB/s


En copy van de 4GB testfile via samba:

NAS naar Windows (lezen): >100MB/sec
Windows naar NAS (schrijven: > 97Mb/sec

Ik ben tot nu toe helemaal tevreden!

  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Jullie gaan allemaal op ESXI omdat jullie meer dan alleen een file server willen draaien op je server?
Ik ben aan het wachten op me 2TB disken.

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
In mijn geval wel ja.
Ik heb nu een NAS staan (OpenFiler, 4 x 1.5TB in RAID5 = 4.5TB effectief) en een Hyper-V machine (met 4 x 500GB in RAID10) waarop een aantal VMs draaien (PDC, Exchange, Applicatie-server, webserver, firewall).
Hyper-V omdat de hardware van die bak niet ondersteunt wordt door ESXi

De NAS is vol aan het raken, dus die had sowieso een upgrade nodig. In eerste instantie zou dat gewoon een nieuwe NAS worden, maar omdat ik daarvoor een Xeon en een SuperMicro bordje heb gekocht, voldoet mijn hardware nu opeens wel aan de ESXi whitelist.

Dus toen bedacht ik me opeens (na wat kletsen met borroz) dat ik van mijn nieuwe bak een ESXi host kan maken, waarmee ik dan beide 'oude' servers kan vervangen.
Wat duurder in aanschaf nu (meer geheugen, etc), maar hopelijk in the long run goedkoper vanwege lagere stroomkosten :)
Binnenkort dus op zijn minst 1 van die twee in V&A hier

Ow ja en natuurlijk doen we het ook "gewoon omdat het kan" en omdat het gewoon leuk is B)
Of je kunt zeggen: Omdat we toch tweakers zijn!!
Hyper-V kent ook RDM, dus dat is geen probleem :)
Ik zou alleen geen OpenFiler onder Hyper-V willen draaien... Dan zit je met zo'n trage 1Gbit interface (lokaal) omdat er natuurlijk geen linux additions zijn voor die 10G NIC...

Even niets...


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Ondertussen alle stappen doorlopen en volgens mij is mijn eerste RAID array bij deze opgezet :+:

Normaal is het 4 TB, maar dit komt door het bit/byte gedoe denk ik:

 df -h
Filesystem            Size  Used Avail Use% Mounted on
...
/dev/md0              3.7T  5.1M  3.7T   1% /storage


Snelheden:

root@oxygen:~# hdparm -t /dev/sdb
/dev/sdb: Timing buffered disk reads: 398 MB in  3.01 seconds = 132.05 MB/sec

root@oxygen:~# hdparm -t /dev/sdc
/dev/sdc: Timing buffered disk reads: 412 MB in  3.00 seconds = 137.16 MB/sec

root@oxygen:~# hdparm -t /dev/sdd
/dev/sdd: Timing buffered disk reads: 394 MB in  3.01 seconds = 130.79 MB/sec

root@oxygen:~# hdparm -t /dev/md0
/dev/md0: Timing buffered disk reads: 280 MB in  3.01 seconds =  93.03 MB/sec


mdadm details:
root@oxygen:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Thu Jun 23 14:28:20 2011
     Raid Level : raid5
     Array Size : 3907026688 (3726.03 GiB 4000.80 GB)
  Used Dev Size : 1953513344 (1863.02 GiB 2000.40 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Thu Jun 23 14:43:36 2011
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 128K

           Name : oxygen:0  (local to host oxygen)
           UUID : 567001a5:7c247b98:8c62cd6d:24dd34a0
         Events : 2

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd


Als ik fdisk -l uitvoer krijg ik wel nog steeds volgende melding ook al heb ik mkfs.xfs /dev/md0 uitgevoerd:
Disk /dev/md0 doesn't contain a valid partition table


Ik denk dat alles nu in orde is..Hoe kan ik trouwens zien welke schijf er de pariteitsberekeningen doet?
Bij RAID5 doen ze dat allemaal... en waarschijnlijk is je array aan het initialiseren of scrubben, dus de snelheid zal nog wel hoger worden...

cat /proc/md/mdstat
volgens mij :)

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Je hebt geen partitietabel. En die heb je ook helemaal niet nodig. Als je dat toch wilt kun je altijd nog gewoon md0 partitioneren, net als elk ander block device. Maar meestal heeft dat geen nut.

De snelheid is overigens wel extreem laag zie ik nu. Volgens mij hoeft een nieuwe array niet geïnitaliseerd en zeker niet gesynced te worden, maar ik zou inderdaad eens in /proc/mdstat kijken wat hij aan het doen is.

[ Voor 35% gewijzigd door HarmoniousVibe op 23-06-2011 15:07 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Als hij de raid gebuild heeft zoals voorgesteld met --assume-clean wordt er niks gerebuild :)

Gewoon een XFS filesystem erop knallen en mounten.
code:
1
2
sudo apt-get install xfsprogs
mkfs.xfs /dev/md0
Maar er word wel een scrub gescheduled via cron, en die kan best toevallig al eens aan het lopen zijn :)
XFS is trouwens wel relaxt! EXT4 is ook prima, tis maar wat je voorkeur heeft.

Daarna eens benchen met:
mount -t xfs /dev/md0 /mnt/data
dd if=/dev/zero of=/mnt/data/testfile bs=1M count=10240


Dat is beter dan dat hdparm :)

[ Voor 54% gewijzigd door FireDrunk op 23-06-2011 15:11 ]

Even niets...


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
FireDrunk schreef op donderdag 23 juni 2011 @ 15:09:
Maar er word wel een scrub gescheduled via cron, en die kan best toevallig al eens aan het lopen zijn :)
XFS is trouwens wel relaxt! EXT4 is ook prima, tis maar wat je voorkeur heeft.

Daarna eens benchen met:
mount -t xfs /dev/md0 /mnt/data
dd if=/dev/zero of=/mnt/data/testfile bs=1M count=10240


Dat is beter dan dat hdparm :)
Niet als er 5MiB data opstaat lijkt me :)

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
FireDrunk schreef op donderdag 23 juni 2011 @ 15:09:
Maar er word wel een scrub gescheduled via cron, en die kan best toevallig al eens aan het lopen zijn :)
XFS is trouwens wel relaxt! EXT4 is ook prima, tis maar wat je voorkeur heeft.
scrub zou inderdaad kunnen, maar ik heb het nog nooit meegemaakt tot nu toe. Ik geef toe dat ik er niet aan gedacht had 8)

ext4 kan ook prima, maar heeft (dacht ik tenminste) wel een beperking tot 16TiB totaal toch?
Je raid gaat ongetwijfeld nog wel eens groeien (ik dacht nog geen 1.5 jaar geleden ook dat die 4.5TiB nooit vol zouden raken)

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Sleepie schreef op donderdag 23 juni 2011 @ 15:08:
Gewoon een XFS filesystem erop knallen en mounten.
code:
1
2
sudo apt-get install xfsprogs
mkfs.xfs /dev/md0
Had ik al eens gedaan, dus krijg ik dit: mkfs.xfs: /dev/md0 appears to contain an existing filesystem (xfs).
Als ik hem daarna mount, kan ik gewoon bestanden lezen en schrijven naar mijn gemounte folder. Alleen krijg ik nog steeds diezelfde melding. Zal wel niet zoveel uitmaken dan.. dus is hij klaar.

Dan ga ik maar eens beginnen met alle data van mijn externe HD's over te schrijven :).

[ Voor 8% gewijzigd door SanderH_ op 23-06-2011 15:15 ]


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Als je dat al gedaan had is het goed, je hoeft dat uiteraard maar een keer te doen, wat je daar doet in in feite vergelijkbaar met formatteren onder Windows.

Als er geen rebuild loopt, te zien met
cat /proc/mdstat 

doe dan voor de lol eens een benchmarkje zoals FireDrunk hierboven aangaf?

Vergeet ook niet je fstab te editen zodat je raid automatisch geboot wordt als je je systeem opstart.

[ Voor 14% gewijzigd door Sleepie op 23-06-2011 15:20 ]


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
inhoud van /proc/mdstat:
code:
1
2
3
4
5
6
root@oxygen:~# cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid5 sdd[2] sdc[1] sdb[0]
      3907026688 blocks super 1.2 level 5, 128k chunk, algorithm 2 [3/3] [UUU]

unused devices: <none>


En benchmarkje:

code:
1
2
3
root@oxygen:~# dd if=/dev/zero of=/storage/testfile bs=1M count=10240           10240+0 records in
10240+0 records out
10737418240 bytes (11 GB) copied, 69.6773 s, 154 MB/s
Mwoh, is voor 2 diskjes niet slecht :)

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
FireDrunk schreef op donderdag 23 juni 2011 @ 15:28:
Mwoh, is voor 2 diskjes niet slecht :)
Voor 3 ook niet :+
Ik bedoelde vooral 2 schrijvende disks... dat betekend dat je per disk 75MB/s verstookt... dat is prima...
Ik heb hier 8 disks in RAID6 en haal 300-400 MB/s (50MB/s per disk dus ongeveer)

Even niets...


  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 00:45
Ik nam aan dat je dat bedoelde, maar dat levert mij weer een vraag achter de techiek van raid op.
De snelheid wordt (vooral) bepaald door de 2 schrijvende disks (als we het voorbeeld van hierboven aanhouden).

Toch moet er ook parity berekend worden en de partity weggeschreven worden. Dit gaat dus sneller dan het schrijven van de data op de disks? Door dat flauwe grapje bedacht ik me opeens, hoe zit dat nou eigenlijk?

Ik ga nog wel eens wat lezen over raid op wikipedia e.d.

Verwijderd

Voor RAID5 is er effectief één disk die parity doet. Ik zeg daarbij effectief, omdat de parity bij elke block op een andere disk valt; daarom noemen we het distributed parity. Dat neemt niet weg dat als je sequentiëel aan het schrijven bent je maximale snelheid dat van een RAID0 van de data schijven is. RAID5 met 3 schijven betekent dus effectief kunnen schrijven zoals een RAID0 van 2 disks. Eén disk verlies je dus aan parity.

Bij RAID6 werkt het hetzelfde alleen dan heb je 2 disks aan overhead. Een RAID6 van 6 disks kan dus schrijven als een RAID0 van 4 disks. Daarbij ligt de nadruk op 'kan'; want vaak ligt de snelheid lager door inefficiencies van de RAID driver die de disks ofwel laat seeken of niet altijd aan het werk houdt.

Bij lezen werkt het anders. Door de distributed parity kunnen alle disks bezig gehouden worden. Op het moment dat een schijf een parity block zou lezen, wordt deze overgeslagen en leest deze vast de volgende normale datablock voor de volgende stripe block. Dat is iets wat met RAID4 (parity RAID zonder distributed parity) niet kan. Bij RAID4 kun je dus maar van x-1 disks lezen en schrijven. Bij RAID5 kun je van x (alle) disks lezen maar slechts naar x-1 disks schrijven.
Verwijderd schreef op donderdag 23 juni 2011 @ 16:03:
Voor RAID5 is er effectief één disk die parity doet. Ik zeg daarbij effectief, omdat de parity bij elke block op een andere disk valt; daarom noemen we het distributed parity. Dat neemt niet weg dat als je sequentiëel aan het schrijven bent je maximale snelheid dat van een RAID0 van de data schijven is. RAID5 met 3 schijven betekent dus effectief kunnen schrijven zoals een RAID0 van 2 disks. Eén disk verlies je dus aan parity.

Bij RAID6 werkt het hetzelfde alleen dan heb je 2 disks aan overhead. Een RAID6 van 6 disks kan dus schrijven als een RAID0 van 4 disks. Daarbij ligt de nadruk op 'kan'; want vaak ligt de snelheid lager door inefficiencies van de RAID driver die de disks ofwel laat seeken of niet altijd aan het werk houdt.

Bij lezen werkt het anders. Door de distributed parity kunnen alle disks bezig gehouden worden. Op het moment dat een schijf een parity block zou lezen, wordt deze overgeslagen en leest deze vast de volgende normale datablock voor de volgende stripe block. Dat is iets wat met RAID4 (parity RAID zonder distributed parity) niet kan. Bij RAID4 kun je dus maar van x-1 disks lezen en schrijven. Bij RAID5 kun je van x (alle) disks lezen maar slechts naar x-1 disks schrijven.
In de praktijk blijkt het helaas maar al te vaak dat cheap RAID5 oplossingen dat stukje "Read ahead" na pariteit niet doen, alleen de wat geavanceerde oplossingen doen dat. Bij een el-cheapo RAID5 kaartje haal je dus ook bij lezen maar een n-1 snelheid.

Even niets...


Verwijderd

Als je filesystem genoeg read-ahead doet dan gebeurt dat vanzelf. Normaal wordt er slechts 8 blocks van 16KiB = 128KiB vooruit gelezen; dat is erg weinig en soms maar één disk in een RAID5. Dan krijg je dus veel lagere snelheden. Maar ook met een simpele RAID5 implementatie kun je alle disks bezig houden als je meer queued I/O's hebt.

In de praktijk kun je de read-ahead van NTFS niet aanpassen (voor zover ik weet) en heb je onder Windows dus altijd lagere performance dan onder Linux en UNIX.

Je hebt slimmere RAID5 drivers die zelf intern read-ahead toepassen; maar eigenlijk is dit het domein van filesystems; die weten immers of ze de volgende blocks in de toekomst nodig hebben of niet. Een RAID5 driver zal niet kunnen weten dat een file klaar is met lezen en dus extra read-ahead overbodig is. Helaas zie je onder Windows FakeRAID dat er wel dit soort optimalisaties plaatsvinden, met als doel de synthetische scores van HDTune te vergroten; die anders heel laag zouden zijn. Het gevolg is wel veel lagere random I/O prestaties, omdat de driver onnodig data leest en disks bezig houdt terwijl die data helemaal niet opgevraagd is.

Lezen van RAID5 en RAID6 is echter een stuk makkelijker dan schrijven; bij dat laatste zul je veel grotere verschillen zien. Alleen RAID0 is eigenlijk niet fout te doen; dat is zo simpel dat zelfs de slechtste drivers/implementaties daar prima performance leveren.

  • Clueless
  • Registratie: Juli 2001
  • Laatst online: 20-12 00:02
Jormungandr schreef op woensdag 22 juni 2011 @ 16:32:
[afbeelding]
Als we het dan toch fancy gaan doen ;). De EMC Symmetrix VMAX: fancy blauwe led vooraan wanneer de machine aanstaat. Te bezichtigen in oa het laatste seizoen van 24.
Check, die hebben wij ook staan, die foto had zo bij ons op zaal genomen kunnen zijn ;) :) Mooi spul inderdaad. Als je trouwens VMware vSphere er op draait zou ik even hier spieken dan:
http://virtualgeek.typepa...k-and-vsphere-hotfix.html

OT: Zelf ben ik inderdaad ook aan het kijken om een DIY RAID NAS te bouwen maar waar het daarbij bij mij voornamelijk gaat is het daarbij om energy-efficiency en dat is schijnbaar toch nog wel een lastige opgave. Helaas voor de Eneco was ik niet van plan om grootverbruiker te worden.

I Don't Know, So Don't Shoot Me


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Ik zit toch te twijfelen om straks me 3x Samsung's F4 te gaan gebruiken als ZFS pool. Heb nu weer een tijd mdadm gedraait en dat gaat zeer goed maar vind het gewoon leuk om nu weer wat anders te gaan draaien. Op me werk wordt ook alles van Linux raid naar ZFS overgezet. Is 4GB ram genoeg voor 3x 2TB disken? Ook het aantal disken wordt nog weleens besproken is 3 van die disken genoeg voor een juiste performance. Het enigste wat ook op die server gaat draaien is NFS. Als OS zet ik er gewoon FreeBSD op dit heb ik al vaker gedraait.

  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

DJ-Promo schreef op vrijdag 24 juni 2011 @ 09:37:
Ik zit toch te twijfelen om straks me 3x Samsung's F4 te gaan gebruiken als ZFS pool. Heb nu weer een tijd mdadm gedraait en dat gaat zeer goed maar vind het gewoon leuk om nu weer wat anders te gaan draaien. Op me werk wordt ook alles van Linux raid naar ZFS overgezet. Is 4GB ram genoeg voor 3x 2TB disken? Ook het aantal disken wordt nog weleens besproken is 3 van die disken genoeg voor een juiste performance. Het enigste wat ook op die server gaat draaien is NFS. Als OS zet ik er gewoon FreeBSD op dit heb ik al vaker gedraait.
3x 2TB in raid 5 is effectief 4TB. Met de vuistregel 1GB ram voor elke TB opslag, zou het moeten kunnen denk ik. Maar ik heb daar verder geen ervaring mee.

Koop hier mijn P1 reader :)


  • DJ-Promo
  • Registratie: Juli 2006
  • Nu online
Ja precies zo rekende ik ook :P. Ik denk dat CiPHER straks nog wel antwoord :).


Edit als ik een ZFS pool maak wil ik er ook wel een SSD aan toevoegen hoeveel GB is dan genoeg voor een 4TB pool?

[ Voor 42% gewijzigd door DJ-Promo op 24-06-2011 11:54 ]


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Aangezien ik zelfs met een nieuwe gigabit switch nog maar steeds 11 Mb/s haal heb ik wat zitten rondzoeken.

Via ethtool zou je normaalgezien gemakkelijk de snelheid kunnen wijzigen.

Settings for eth0:
        Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Supports auto-negotiation: Yes
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Advertised pause frame use: No
        Advertised auto-negotiation: Yes
        Speed: 100Mb/s
        Duplex: Full
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        MDI-X: Unknown
        Supports Wake-on: pg
        Wake-on: d
        Current message level: 0x00000000 (0)
        Link detected: yes


Mijn NIC ondersteunt gigabit (er staat toch 1000baseT/Full) maar activeren lukt me niet.

#ethtool -s eth0 speed 1000


Bovenstaand commando loopt gewoon door maar er blijft 100 Mb/s staan.

  • Mafketel
  • Registratie: Maart 2000
  • Laatst online: 17-10-2023
Sleepie schreef op donderdag 23 juni 2011 @ 11:27:
[...]
Inderdaad, dat heeft wat hoofdbrekers gekost :D
Maar uiteindelijk werd het met het overschrijven van de partitietabel wel opgelost. Ik vermoed dat de reden is geweest dat ik ooit eens GPT partities op die disks had aangemaakt.
[...]
Als je een gpt schijf hebt gehad die leeg moet ....
dan moet je als je het goed wil doen de eerste 33 lba verwijderen en de laatste 33. Hoe dat met 4k sectoren schijven zit weet ik even niet zo snel

Verwijderd

DJ-Promo schreef op vrijdag 24 juni 2011 @ 09:37:
Is 4GB ram genoeg voor 3x 2TB disken? Ook het aantal disken wordt nog weleens besproken is 3 van die disken genoeg voor een juiste performance. Het enigste wat ook op die server gaat draaien is NFS. Als OS zet ik er gewoon FreeBSD op dit heb ik al vaker gedraait.
4GiB RAM is redelijk voor een simpele ZFS server met weinig disks en geen L2ARC, dedup of andere fancy features. Maar voor FreeBSD platform wel aan de krappe kant.

Out-of-the-box krijg je lagere sequential read performance vanwege afwezigheid van prefetching. Daar krijg je ook een waarschuwing van bij het booten:

ZFS NOTICE: Prefetch is disabled by default if less than 4GB of RAM is present;
to enable, add "vfs.zfs.prefetch_disable=0" to /boot/loader.conf.


Die melding is verwarrend aangezien 4GiB RAM nog steeds prefetch uit zal schakelen. Je hebt dus in de praktijk 6GiB of hoger nodig om prefetch standaard ingeschakeld te krijgen. Dit kun je simpelweg overrulen door de /boot/loader.conf aan te passen met:
vfs.zfs.prefetch_disable=0

Draai altijd 64-bit OS voor ZFS platform, anders kun je crashes en lage performance verwachten. Gebruik verder geen partities of goed alignde partities op 4K sector schijven zoals Samsung F4 en WD EARS. FreeNAS 0.7.x zou ik niet gebruiken voor ZFS.

  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 15:56
SanderH_ schreef op vrijdag 24 juni 2011 @ 15:31:
Aangezien ik zelfs met een nieuwe gigabit switch nog maar steeds 11 Mb/s haal heb ik wat zitten rondzoeken.

Mijn NIC ondersteunt gigabit (er staat toch 1000baseT/Full) maar activeren lukt me niet.

#ethtool -s eth0 speed 1000


Bovenstaand commando loopt gewoon door maar er blijft 100 Mb/s staan.
Not wanting to state the obvious, maar is je kabel wel geschikt? Dus niet allen CAT5e of hoger maar ook stekkers op juiste wijze gekrompen?

specs


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Alle bekabeling was hier toch CAT5E ja..

*dubbelcheckt even*

De kabel tussen de switch en mijn NAS was dus blijkbaar toch gewoon CAT 5 patch cable. Ondertussen al vervangen door een CAT 5E kabel die hier nog rondslingerde, maar de snelheden blijven ongewijzigd :? .

[ Voor 62% gewijzigd door SanderH_ op 24-06-2011 17:09 ]


Verwijderd

Heb je gechecked dat je link van zowel client als server (NAS) op Gigabit linkt? Dit kun je vaak ook op je switch zien met verschillende kleur LEDs.

Verwijderd

lowbudget tip ! 4 TB NAS voor 170,- :*)

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Verwijderd schreef op vrijdag 24 juni 2011 @ 17:12:
Heb je gechecked dat je link van zowel client als server (NAS) op Gigabit linkt? Dit kun je vaak ook op je switch zien met verschillende kleur LEDs.
Ik heb een vrij goedkope TP-Link switch, maar ze hebben allemaal gewoon een groen lichtje.

De snelheid van de onboard NIC van mijn client stond blijkbaar nog op auto negotiation, maar deze staat nu op 1 Gbps, full duplex. Zonder effect.

Op mijn server probeer ik de snelheid aan te passen via ethtool (zie post hierboven voor uitvoer), hij kan ethtool ook uitvoeren zonder problemen.. maar er verandert niets (ook niet na network service te herstarten). Auto negotiation uitschakelen lukt niet, ik krijg altijd het volgende:

#ethtool -s eth0 autoneg off
Cannot set new settings: Invalid argument
  not setting autoneg

[ Voor 10% gewijzigd door SanderH_ op 24-06-2011 17:21 ]


Verwijderd

Auto negotiation moet je gewoon aanlaten; als je ethernet niet op 1Gbps linkt is dat om een reden. Kun je in de ifconfig output bevestigen dat hij op 100 megabit linkt in plaats van 1Gbps?

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
# ifconfig
eth0      Link encap:Ethernet  HWaddr 48:5b:39:6b:af:6b
          inet addr:192.168.1.10  Bcast:192.168.1.255  Mask:255.255.255.0
          inet6 addr: fe80::4a5b:39ff:fe6b:af6b/64 Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
          RX packets:3257938 errors:0 dropped:0 overruns:0 frame:0
          TX packets:1927812 errors:0 dropped:0 overruns:0 carrier:13
          collisions:0 txqueuelen:1000
          RX bytes:352845367 (336.4 MiB)  TX bytes:503771853 (480.4 MiB)
          Interrupt:27


# mii-tool
eth0: negotiated 100baseTx-FD flow-control, link ok

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Ik heb hiernet maar eens in de BIOS van mijn oude AMD setup geknutseld om het verbruik zo laag mogelijk te krijgen. alles is gemeten aan het stopcontact.

De startsetup is als volgt:
- AMD Athlon 64 X2 4000+ (2.1Ghz @ 11,5x200Mhz op 1.35V)
- Asus M2A-VM
- 2x 2GB DDR2 dimms
- WD Caviar SE16 320GB
- NEC DVD-writer
- Aopen standaard 350W PSU
Totaal gemeten op loginscherm: 86W

Dan maar eens verlagen:
- AMD Athlon 64 X2 4000+ (1Ghz @ 5x200Mhz op 0.9V)
- Asus M2A-VM
- 2x 2GB DDR2 dimms
- WD Caviar SE16 320GB
- Aopen standaard 350W PSU
Totaal gemeten op loginscherm: 59W

In de BIOS staat zoveel mogelijk uit. Audio, firewire, parallell.

Mijn bedenkingen:
- 27W eraf door de CPU te underclocken en de DVD writer weg te laten.
- Moet nog wel lager kunnen door de HDD te vervangen door een 2.5" laptopschijf
- En als laatste moet er toch nog wel een paar wattjes afkunnen als ik de PSU vervang door een 80+ exemplaar.
- Laagste voltage in de BIOS is 0.8V maar dan klapt hij eruit en moet ik de CMOS resetten. Toch iets TE laag dus :P.

Uiteindelijk niet ZO speciaal dus. Ik denk echter dat je al moet uitwijken naar de lowpower alternatieven als je echt NOG lager wil gaan zitten. Een ATOM of Brazos platform doet daar ongetwijfeld een heel stuk af.

Verwijderd

AMD Athlon 64 X2 4000+ (2.1Ghz @ 11,5x200Mhz op 1.35V)
Heb je dan Cool'N'Quiet uitgeschakeld? Want met CnQ draai je 1.0GHz op 1.0V ofzo?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
C&Q stond inderdaad uit ja. Kwestie van een beetje consistent te zijn in de metingen.

Eentje ertussen was 1600Mhz (8x200Mhz @ 1V) en daarmee kwam ik op 71W uit.

Verwijderd

Maar dat is dan toch geen vergelijking? Stel je komt met CnQ op 61W uit, dan heb je netto 2W verschil, voor die 2W krijg je dan wel een twee keer zo snelle CPU omdat hij als het nodig is tot 2GHz kan klokken.

Je wilt een CPU die idle weinig energie verbruikt, maar op de momenten dat je de performance nodig hebt je die performance kan geven. Dat kost ook nauwelijks extra energie; een snellere CPU kan sneller weer naar idle toe dan een langzame CPU die twee keer zo lang 100% load blijft aantikken.

Dus waar blijft je winst dan?

  • prozak
  • Registratie: December 2003
  • Laatst online: 24-12 22:34
http://www.webconnexxion....a80dcc810c1a2eb1e0ccd72c0

Highpoint DC7280 DATACenter HBA 32x SATA PCI-E 2.0 x8

32 poorten en pure hba. Zou dit met een HP Sas-Expander werken? :) Spannend ding, ik kan niet wachten op ervaringen!

edit: link werkt pas 2de keer en type nummer toegevoegd.

[ Voor 18% gewijzigd door prozak op 24-06-2011 20:28 ]


Verwijderd

prozak schreef op vrijdag 24 juni 2011 @ 19:37:
http://www.webconnexxion....a80dcc810c1a2eb1e0ccd72c0

32 poorten en pure hba. Zou dit met een HP Sas-Expander werken? :) Spannend ding, ik kan niet wachten op ervaringen!
uhh.. zie niks.. wat is het type nr ?

  • Jormungandr
  • Registratie: Oktober 2006
  • Laatst online: 15-12 08:55
Speciaal voor CiPHER C&Q ingesteld en cpufreq er eens op los gelaten.
Met de governor ondemand en een speed van 1GHz is het verbruik nu 67W.

@ Borroz: het is een HighPoint DC7280.

[ Voor 12% gewijzigd door Jormungandr op 24-06-2011 20:04 ]


  • iMars
  • Registratie: Augustus 2001
  • Laatst online: 19-12 16:48

iMars

Full time prutser

Verwijderd schreef op vrijdag 24 juni 2011 @ 19:46:
[...]


uhh.. zie niks.. wat is het type nr ?
Als je een tweede keer naar de link gaat, zie je het wel :s
Afbeeldingslocatie: http://www.webconnexxion.com/raid5/images/DC7280.jpg

Koop hier mijn P1 reader :)


  • Loekie
  • Registratie: Juli 2001
  • Laatst online: 15:56
SanderH_ schreef op vrijdag 24 juni 2011 @ 16:33:
Alle bekabeling was hier toch CAT5E ja..

*dubbelcheckt even*

De kabel tussen de switch en mijn NAS was dus blijkbaar toch gewoon CAT 5 patch cable. Ondertussen al vervangen door een CAT 5E kabel die hier nog rondslingerde, maar de snelheden blijven ongewijzigd :? .
Je hebt het wel volgens EIA/TIA-568A/B gekrompen? Sorry voor het mieren**ken, maar de stekkers zijn doorgaans kritischer dan de kabel zelf.
Doorgaans wil een kabel nog wel op 10/100 Mbit, maar niet op Gbit door verkeerd gekrompen stekkers.

specs


  • Birdie_NL
  • Registratie: Maart 2008
  • Laatst online: 03-12 19:23
Mhm, wil ik net het Supermicro x9scl-f moederbord bestellen, krijg ik een mailtje met dat hij tijdelijk niet meer leverbaar is. Ook bij 2 andere shops opeens niet leverbaar. :(

Dan toch maar voor het Intel S1200BT moederbord gaan want nu zit ik dus zonder.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Loekie schreef op vrijdag 24 juni 2011 @ 20:10:
[...]

Je hebt het wel volgens EIA/TIA-568A/B gekrompen? Sorry voor het mieren**ken, maar de stekkers zijn doorgaans kritischer dan de kabel zelf.
Doorgaans wil een kabel nog wel op 10/100 Mbit, maar niet op Gbit door verkeerd gekrompen stekkers.
Ik heb er zelf geen RJ-45 stekker aangezet, dus normaalgezien zijn ze gewoon standaard. Zijn trouwens gewone "plastieken" connectors.

Ik begin me nu wel af te vragen aan wat het in godsnaam kan liggen. Ik had me verheugd op toch wel iets snellere snelheden na de overschakeling naar een gigabit switch, maar hij komt met moeite boven de 13-14 Mb/s uit.

[ Voor 16% gewijzigd door SanderH_ op 24-06-2011 20:56 ]


  • HarmoniousVibe
  • Registratie: September 2001
  • Laatst online: 24-11 15:49
Sommige ethernetkabels zijn sowieso maar 100/100, ook al zijn ze CAT5E. De blauwe ethernetkabel die ik bij mijn Xbox 360 kreeg volgens mij ook. Ik meen ooit gehoord te hebben dat je dat aan het aantal aders kunt zien.

[ Voor 20% gewijzigd door HarmoniousVibe op 24-06-2011 21:00 ]

12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW


  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Dus een valse CAT5E kabel zou dus ook de oorzak zijn waarom ik via ethtool de snelheid van mijn NIC niet kan aanpassen?

  • analog_
  • Registratie: Januari 2004
  • Niet online
Nee, dat kan ook zijn omdat je driver het niet ondersteunt (maar welke doet dat nou niet .oO). Ik gok op kabel, die bijkrijg kabeltjes zijn doorgaans maar cat5 (non E) waardoor het niet wilt werken. Ik heb overigens ook een dergelijk probleem gehad met fiber maar daarbij kon ik het oplossen door het statisch te zetten.

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 25-12 18:50
Op alle kabels staat nochtans duidelijk CAT5E... dan moeten ze toch gigabit aankunnen? Ik heb trouwens nog niets aan mijn drivers veranderd. Ik draai trouwens debian. Misschien even wat rondspeuren op de website Atheros.

[ Voor 44% gewijzigd door SanderH_ op 24-06-2011 21:07 ]


Verwijderd

prozak schreef op vrijdag 24 juni 2011 @ 19:37:
http://www.webconnexxion....a80dcc810c1a2eb1e0ccd72c0

Highpoint DC7280 DATACenter HBA 32x SATA PCI-E 2.0 x8

32 poorten en pure hba. Zou dit met een HP Sas-Expander werken? :) Spannend ding, ik kan niet wachten op ervaringen!

edit: link werkt pas 2de keer en type nummer toegevoegd.
leuke kaart .. daar heb je geen sas expander voor nodig toch ? kan je gelijk 32 sata disks aan hangen.
en ook niet duur... ideaal voor een flinke ZFS opstelling.

  • prozak
  • Registratie: December 2003
  • Laatst online: 24-12 22:34
Verwijderd schreef op vrijdag 24 juni 2011 @ 21:20:
[...]


leuke kaart .. daar heb je geen sas expander voor nodig toch ? kan je gelijk 32 sata disks aan hangen.
en ook niet duur... ideaal voor een flinke ZFS opstelling.
Idd met 32 sata poorten kom je al een heel eind. Ik zit stiekem aan 50+ disks set-ups te denken. Op 32 disks kom je namelijk nu ook wel met een aantal relatief goedkope sata controllers + on-board sata poorten. Met deze kaart kun je opeens voor relatief weinig weer een echte stap verder.

In dat opzicht is dit gewoon een major game changer denk ik. Waar vroeger 1000+ euro moest worden betaald voor een single kaart met 24 poorten (afgezien vd HP Sas Expander) kun je er nu dus 32 krijgen, heb je geen hba of raid controller (zals bij de HP expander) nodig en kost het je 400 euro.

Dat noem ik vooruitgang. Alleen die behuizing hé, dat blijft een crime (nederlands)....

Verwijderd

prozak schreef op vrijdag 24 juni 2011 @ 21:35:
[...]


Idd met 32 sata poorten kom je al een heel eind. Ik zit stiekem aan 50+ disks set-ups te denken. Op 32 disks kom je namelijk nu ook wel met een aantal relatief goedkope sata controllers + on-board sata poorten. Met deze kaart kun je opeens voor relatief weinig weer een echte stap verder.

In dat opzicht is dit gewoon een major game changer denk ik. Waar vroeger 1000+ euro moest worden betaald voor een single kaart met 24 poorten (afgezien vd HP Sas Expander) kun je er nu dus 32 krijgen, heb je geen hba of raid controller (zals bij de HP expander) nodig en kost het je 400 euro.

Dat noem ik vooruitgang. Alleen die behuizing hé, dat blijft een crime (nederlands)....
32 x 3 TB disks eraan zit je op 96 TB .. :o
eventueel een norco 4224 & 2208 boven elkaar monteren met een gat erin voor de kabels ..

en waarom een expander.. zet gewoon 2 van die kaarten erin 64 x 3 TB gheghe

[ Voor 4% gewijzigd door Verwijderd op 24-06-2011 22:00 ]

Pagina: 1 ... 66 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.