Als het je om snelheid gaat kun je waarschijnlijk gewoon beter een nieuwe schijf kopen en dan maar eventueel zonder RAID draaien.Ik_ben_Mark3 schreef op maandag 16 maart 2015 @ 14:23:
Ik heb een kleine vraag over RAID (en heeft eigenlijk niets met een NAS te maken, maar ik weet niet waar ik het beste met deze vraag terecht kant)
Ik heb een berg aan 160GB schijven liggen die ik ergens voor wil gebruiken, als opslag is een beetje nutteloos dus wil er mijn OS op installeren. Wat is de snelste RAID opstelling die ik kan gebruiken?
Als ik de wiki kijk lijkt me dat dat RAID 0 of RAID 1, of een combo ervan RAID 0+1 of RAID 1+0 is. Maar ik weet niet wat de snelste opstelling is (foutcorrectie is niet noodzakelijk als dit veel in snelheid scheelt)
Iemand die dit kan vertellen? Of kan verwijzen naar het juiste topic of een site waar dit (voor een RAID leek) duidelijk uitgelegd wordt?
Het is meer dat ik ze toch heb liggen en wil kijken wat ik eruit kan halen. Het komt aan een oud Q6600 bordje te hangen, dus mijn verwachtingen zijn sowieso niet hoogBigs schreef op maandag 16 maart 2015 @ 14:48:
[...]
Als het je om snelheid gaat kun je waarschijnlijk gewoon beter een nieuwe schijf kopen en dan maar eventueel zonder RAID draaien.
RAID-0, maar verwacht geen wonderen van een handvol 160 GB drives die, zoals t klinkt, behoorlijk bejaard zijn. 'T is natuurlijk altijd leuk als test-bed.Ik_ben_Mark3 schreef op maandag 16 maart 2015 @ 14:53:
[...]
Het is meer dat ik ze toch heb liggen en wil kijken wat ik eruit kan halen. Het komt aan een oud Q6600 bordje te hangen, dus mijn verwachtingen zijn sowieso niet hoog
(Heb zelf en i5-750/p55/4MGB RAM test bak staan met 6 stuks 320 GB WD/Samsung disks, geen snelheids wonder maar wel handig om dingen als zfs distro's en BtrFS te testen)
[ Voor 22% gewijzigd door Pantagruel op 17-03-2015 10:09 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Met 4 MB RAM zal het idd geen snelheidswonder zijn 
Ik heb vandaag een APC Back-UPS ES 700va in mijn meterkast geïnstalleerd. Deze kan mijn NAS, modem en router voor 30 minuten van stroom voorzien. De in FreeNAS ingebouwde UPS functionaliteit (NUT) werkt erg goed. Ik krijg e-mails bij het wegvallen/hervatten van de netstroom en de NAS sluit automatisch af als de accu een laag niveau bereikt.
Ik heb vandaag een APC Back-UPS ES 700va in mijn meterkast geïnstalleerd. Deze kan mijn NAS, modem en router voor 30 minuten van stroom voorzien. De in FreeNAS ingebouwde UPS functionaliteit (NUT) werkt erg goed. Ik krijg e-mails bij het wegvallen/hervatten van de netstroom en de NAS sluit automatisch af als de accu een laag niveau bereikt.
[ Voor 24% gewijzigd door nMad op 16-03-2015 15:21 ]
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
In de praktijk heb je heel weinig aan raid0, behalve de snellere sequentiële doorvoer (2x zo hoog) heeft het voornamelijk nadelen, daar R0 een hogere random toegangstijd heeft (de meeste data die gelezen wordt van een OS disk is random kleine files, juist de data die je niet wil lezen met R0), wat in de praktijk betekend dat geen winst heb van het gebruik van R0.Ik_ben_Mark3 schreef op maandag 16 maart 2015 @ 14:23:
Ik heb een kleine vraag over RAID
Een SSD geeft je heel veel meer winst dan welke HDD opstelling dan ook in de praktijk, voor desktop gebruik.
En een Q6600 zet helemaal geen slecht prestaties neer, als je een redelijke moderne aanvullende componenten gebruikt.
[ Voor 8% gewijzigd door player-x op 16-03-2015 15:52 ]
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Oke dankjewel. Ja SSD heb ik ook al in mijn laptop zitten die ik dagelijks gebruik.player-x schreef op maandag 16 maart 2015 @ 15:48:
[...]
In de praktijk heb je heel weinig aan raid0, behalve de snellere sequentiële doorvoer (2x zo hoog) heeft het voornamelijk nadelen, daar R0 een hogere random toegangstijd heeft (de meeste data die gelezen wordt van een OS disk is random kleine files, juist de data die je niet wil lezen met R0), wat in de praktijk betekend dat geen winst heb van het gebruik van R0.
Een SSD geeft je heel veel meer winst dan welke HDD opstelling dan ook in de praktijk, voor desktop gebruik.
En een Q6600 zet helemaal geen slecht prestaties neer, als je een redelijke moderne aanvullende componenten gebruikt.
Ik wil die Q6600 (icm. P5K-VM) weer onder het stof uithalen en met een nieuwe videokaart en overclocken kijken wat ik eruit kan halen. Maar SSD erbij past eigenlijk niet meer in het budget door de videokaart, vandaar dat ik RAID wilde proberen.
(Zie nu trouwens dat alleen JBOD, RAID 0 en 1 ondersteund wordt, dus geen 1+0 of 0+1)
Kan je met dat ding ook je verbruik uitlezen via Linux, of heb je hiervoor een meer geavanceerde versie nodig?nMad schreef op maandag 16 maart 2015 @ 15:18:
Met 4 MB RAM zal het idd geen snelheidswonder zijn
Ik heb vandaag een APC Back-UPS ES 700va in mijn meterkast geïnstalleerd. Deze kan mijn NAS, modem en router voor 30 minuten van stroom voorzien. De in FreeNAS ingebouwde UPS functionaliteit (NUT) werkt erg goed. Ik krijg e-mails bij het wegvallen/hervatten van de netstroom en de NAS sluit automatisch af als de accu een laag niveau bereikt.
Er draait FreeBSD 9.3 op. Als je mij uitlegt hoe ik dit zou kunnen doen wil ik dat wel even proberen!
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Dat zal wel niet meer kunnen dan Network UPS Tools.
Ik zie helaas niks over discharging staan.
edit: ik heb de UPS ook nog even aangesloten op een WS2012 machine i.c.m. de officiële PowerChute software, ook hiermee is niks te vinden over het energieverbruik. Helaas!
Ik zie helaas niks over discharging staan.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
| Tom@nas:~ % upsc ups battery.charge: 77 battery.charge.low: 20 battery.charge.warning: 50 battery.date: not set battery.mfr.date: 2014/08/22 battery.runtime: 2021 battery.runtime.low: 300 battery.type: PbAc battery.voltage: 13.0 battery.voltage.nominal: 12.0 device.mfr: APC device.model: Back-UPS ES 700G device.serial: 5B1434T02787 device.type: ups driver.name: usbhid-ups driver.parameter.pollfreq: 30 driver.parameter.pollinterval: 2 driver.parameter.port: /dev/ugen1.5 driver.version: 2.7.2 driver.version.data: APC HID 0.95 driver.version.internal: 0.38 input.sensitivity: medium input.transfer.high: 266 input.transfer.low: 180 input.voltage: 230.0 input.voltage.nominal: 230 ups.beeper.status: disabled ups.delay.shutdown: 20 ups.firmware: 871.O3 .I ups.firmware.aux: O3 ups.load: 0 ups.mfr: APC ups.mfr.date: 2014/08/22 ups.model: Back-UPS ES 700G ups.productid: 0002 ups.serial: 5B1434T02787 ups.status: OL CHRG ups.timer.reboot: 0 ups.timer.shutdown: -1 ups.vendorid: 051d |
edit: ik heb de UPS ook nog even aangesloten op een WS2012 machine i.c.m. de officiële PowerChute software, ook hiermee is niks te vinden over het energieverbruik. Helaas!
[ Voor 98% gewijzigd door nMad op 16-03-2015 19:28 ]
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Op zoek naar een externe sata enclosure
4 bays (meer mag)
interne voeding
(e)sata poort per disk of nog beter een SAS aansluiting (SFF8088 of SFF-8644)
Bestaat iets dergelijks voor een acceptable prijs? Heb reeds een servertje maar er moet storage aan. Heb een geschikte controller met 2x SFF8088, nu nog iets om de disks in te monteren (of worst case een sas naar esata kabel en losse disks)
4 bays (meer mag)
interne voeding
(e)sata poort per disk of nog beter een SAS aansluiting (SFF8088 of SFF-8644)
Bestaat iets dergelijks voor een acceptable prijs? Heb reeds een servertje maar er moet storage aan. Heb een geschikte controller met 2x SFF8088, nu nog iets om de disks in te monteren (of worst case een sas naar esata kabel en losse disks)
Frag_Zero
Je zou als je meer dan 4 bays wilt een 2U 8 of 12 bay kast kunnen nemen. Wel iets over de 200 € met voeding.
Ik heb een intel 24p extender gekocht via ebay (120€) en een Supermicro CSEPT-JBOD-CB1 bordje. (36€ incl verzenden)
Dan kun je de extender voeden en de behuizing opstarten met de powerknop.
De sff-8088 kabel en converter van sff-8087 naar sff-8088 kosten ook weer snel paar tientjes per stuk helaas. Al met al ook niet goedkoop, maar geen complete server nodig.
Maar wat jij denk ik bedoelt is kasten zoals hier aangeboden worden:
http://www.pc-pitstop.com/sata_enclosures/
Als je zo iets over laat komen kom je ook snel op 250-300 euro uit vrees ik.
Zelf bouwen uit een oude CD-ROM toren is een optie, ook ooit een keer gedaan.
edit: gevonden: http://www.webconnexxion....88.html?filter_name=ST3MS
De ST3MS uitvoering heeft: 1 external mini SAS (SFF-8088) connector.
Maar ja dan moet er nog een 4in3 module in..
Ik heb een intel 24p extender gekocht via ebay (120€) en een Supermicro CSEPT-JBOD-CB1 bordje. (36€ incl verzenden)
Dan kun je de extender voeden en de behuizing opstarten met de powerknop.
De sff-8088 kabel en converter van sff-8087 naar sff-8088 kosten ook weer snel paar tientjes per stuk helaas. Al met al ook niet goedkoop, maar geen complete server nodig.
Maar wat jij denk ik bedoelt is kasten zoals hier aangeboden worden:
http://www.pc-pitstop.com/sata_enclosures/
Als je zo iets over laat komen kom je ook snel op 250-300 euro uit vrees ik.
Zelf bouwen uit een oude CD-ROM toren is een optie, ook ooit een keer gedaan.
edit: gevonden: http://www.webconnexxion....88.html?filter_name=ST3MS
De ST3MS uitvoering heeft: 1 external mini SAS (SFF-8088) connector.
Maar ja dan moet er nog een 4in3 module in..
[ Voor 36% gewijzigd door jacovn op 18-03-2015 06:25 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Bedankt voor de info jacovn!
Behoorlijk duur die externe behuizingen, goedkoopste dat ik kon vinden was rond de 150 euro en kwaliteit was maar zo zo.
Huidig servertje is een dell SFF 745 met 8gb en E8500. Ik kan van een vriend een p45 matx bordje krijgen en en een voeding heb ik nog wel. Een mATX behuizing lijkt me een betere investering zeker naar de toekomst toen! Om de disks aan te sluiten heb ik reeds 2x SFF8088 naar 4x Sata besteld, deze steek ik door een leeg pci-slot terug naar binnen en sluit de disks zo wel aan.
Ik ga windows server er op draaien en werken met storage spaces, single parity starten met 3 disks, of zijn hier grote bezwaren tegen?
Behoorlijk duur die externe behuizingen, goedkoopste dat ik kon vinden was rond de 150 euro en kwaliteit was maar zo zo.
Huidig servertje is een dell SFF 745 met 8gb en E8500. Ik kan van een vriend een p45 matx bordje krijgen en en een voeding heb ik nog wel. Een mATX behuizing lijkt me een betere investering zeker naar de toekomst toen! Om de disks aan te sluiten heb ik reeds 2x SFF8088 naar 4x Sata besteld, deze steek ik door een leeg pci-slot terug naar binnen en sluit de disks zo wel aan.
Ik ga windows server er op draaien en werken met storage spaces, single parity starten met 3 disks, of zijn hier grote bezwaren tegen?
Frag_Zero
Je kunt op ebay wel uit China betaalbare SFF-8088 naar SFF-8087 PCI slot plaatje converters kopen.
Dan kun je aan de binnenkant er een normale SFF-8087 naar 4 x sata kabel op prikken. Die zijn in 1, 2 en zelfs 4 poorts verkrijgbaar. Maar dat doe je natuurlijk alleen als je naar een externe behuizing gaat..
Je teruglus optie is goedkoper
Geen ervaring met Windows Server varianten, maar daar zullen wel andere tweakers wat van weten.
En ja, de prijs van opslag is helaas nog hoog. Met een extender alleen een disk behuizing aansluiten op een bestaande PC is nog het goedkoopst denk ik. Zelf denk ik aan de volgende als ik weer opslag nodig heb:
12 bay 2U chassis, 150 euro of 24 bay 4U chassis, 350 euro
voeding 100 euro,
SAS extender 250 euro,
boot bordje 35 euro.
SFF-8088 - SFF-8087 converter (als je extender geen externe SFF-8088 poort heeft) 40 euro.
SFF-8088 kabel: 50 euro
SFF-8087 naar sata kabels (als je backplane geen sff-8087 connecties heeft): a 15 euro.
Dan kun je aan de binnenkant er een normale SFF-8087 naar 4 x sata kabel op prikken. Die zijn in 1, 2 en zelfs 4 poorts verkrijgbaar. Maar dat doe je natuurlijk alleen als je naar een externe behuizing gaat..
Je teruglus optie is goedkoper
Geen ervaring met Windows Server varianten, maar daar zullen wel andere tweakers wat van weten.
En ja, de prijs van opslag is helaas nog hoog. Met een extender alleen een disk behuizing aansluiten op een bestaande PC is nog het goedkoopst denk ik. Zelf denk ik aan de volgende als ik weer opslag nodig heb:
12 bay 2U chassis, 150 euro of 24 bay 4U chassis, 350 euro
voeding 100 euro,
SAS extender 250 euro,
boot bordje 35 euro.
SFF-8088 - SFF-8087 converter (als je extender geen externe SFF-8088 poort heeft) 40 euro.
SFF-8088 kabel: 50 euro
SFF-8087 naar sata kabels (als je backplane geen sff-8087 connecties heeft): a 15 euro.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Dag allen,
sinds een paar uur ben ik in het bezit van een nieuwe Supermicro X10SL7-F mobo.
Nu moet ik er nog geheugen voor zien te vinden, en had eerst 4 * Kingston ValueRAM KVR16LE11/8HB in gedachten.
Ik wil echter uiteindelijk 32 Gb in pompen, en het komt misschien voordeliger uit om ineens een kit van 8*4 te bestellen. Op de site van Kingston staan er in elk geval geen kits van 32 Gb. Via de pricewatch kom ik tot volgend lijstje. Is dat juist? (niet allen zijn unbuffered zie ik wel).
Zou bijvoorbeeld Kingston ValueRAM KVR16E11K4/32 wel passen? (scheelt me toch een paar tientallen euro's tov 4*8).
Alvast bedankt om me hier uit de nood te helpen
sinds een paar uur ben ik in het bezit van een nieuwe Supermicro X10SL7-F mobo.
Nu moet ik er nog geheugen voor zien te vinden, en had eerst 4 * Kingston ValueRAM KVR16LE11/8HB in gedachten.
Ik wil echter uiteindelijk 32 Gb in pompen, en het komt misschien voordeliger uit om ineens een kit van 8*4 te bestellen. Op de site van Kingston staan er in elk geval geen kits van 32 Gb. Via de pricewatch kom ik tot volgend lijstje. Is dat juist? (niet allen zijn unbuffered zie ik wel).
Zou bijvoorbeeld Kingston ValueRAM KVR16E11K4/32 wel passen? (scheelt me toch een paar tientallen euro's tov 4*8).
Alvast bedankt om me hier uit de nood te helpen
Twee kits van 16GB is net zo goed als 1 kit van 32GB. Maakt niets uit.
Even niets...
Voor zover ik kan zien wel ja.
Even niets...
Dat past zeker, want ik heb die set in mijn NAS zitten (met zelfe moederbord)Xistance schreef op donderdag 19 maart 2015 @ 14:55:
Zou bijvoorbeeld Kingston ValueRAM KVR16E11K4/32 wel passen? (scheelt me toch een paar tientallen euro's tov 4*8).
Ze passen zeker en ik heb ze zelf ook in combinatie met hetzelfde moederbord en dat draait al een jaartje goed, maar er gaan wel vreemde verhalen in de rondte over dit specifieke geheugen in combinatie met de X10SL7. Voorheen stond dit setje geheugen op de compatibility list op de website van Supermicro (met eigen ogen gezien), maar dit is later door Supermicro verwijderd.
Discussie daarover is hier, hier en ook vanaf hier te lezen. Op amazon.com wordt er ook over gesproken.
Discussie daarover is hier, hier en ook vanaf hier te lezen. Op amazon.com wordt er ook over gesproken.
[ Voor 27% gewijzigd door FREAKJAM op 19-03-2015 21:06 ]
is everything cool?
Ik heb er samsung van de HCL voor gekocht: pricewatch: Samsung M391B1G73QH0-YK0
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik ben gestopt met het kopen van Kingston omdat zij hun geheugenmodules soms behoorlijk aanpassen (zoals veranderen van chip fabrikant) terwijl het typenummer ongewijzigd blijft. Dit is volgens mij ook een van de redenen dat bepaalde geheugenmodules van Kingston van HCL's worden gehaald.
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Na al een tijdje te hebben gelezen over NAS ben ik er nu klaar voor om een centrale opslag met stream mogelijkheden neer te zetten. Max budget is €700 inclusief storage.
Ik wil de NAS als mediaserver inzetten met FreeNAS icm Plex, Sabnzbd en bijbehorende zaken. Er gaat worden gestreamed naar meerdere apparaten in huis, waaronder 2x Raspberry Pi en diverse Android telefoons en tablets. Echter zelden zal het gebeuren dat dit naar 2 apparaten tegelijk is. Er zullen voornamelijk 1080p content gestreamed worden.
Hiervoor heb ik momenteel de volgende setup in gedachten op basis van Intel socket 1150, zodat upgraden in de toekomst naar een betere processor voor transcoding van 4K content tot de mogelijkheden behoort.
Zit ik zo een beetje in de goede hoek te denken? Op of aanmerkingen hoor ik graag dan kan ik dit meenemen in mijn zoektocht naar mijn DIY NAS.
Ik wil de NAS als mediaserver inzetten met FreeNAS icm Plex, Sabnzbd en bijbehorende zaken. Er gaat worden gestreamed naar meerdere apparaten in huis, waaronder 2x Raspberry Pi en diverse Android telefoons en tablets. Echter zelden zal het gebeuren dat dit naar 2 apparaten tegelijk is. Er zullen voornamelijk 1080p content gestreamed worden.
Hiervoor heb ik momenteel de volgende setup in gedachten op basis van Intel socket 1150, zodat upgraden in de toekomst naar een betere processor voor transcoding van 4K content tot de mogelijkheden behoort.
# | Product | Prijs | Subtotaal |
1 | Intel Pentium G3220 Boxed | € 49,- | € 49,- |
1 | Gigabyte GA-Z97P-D3 | € 77,95 | € 77,95 |
4 | WD Green WD20EZRX | € 81,95 | € 327,80 |
1 | Cooler Master Force 500 | € 31,95 | € 31,95 |
1 | Corsair CMV16GX3M2A1333C9 | € 129,- | € 129,- |
1 | be quiet! TFX Power 2 300W Gold | € 57,80 | € 57,80 |
Bekijk collectie Importeer producten | Totaal | € 673,50 |
Zit ik zo een beetje in de goede hoek te denken? Op of aanmerkingen hoor ik graag dan kan ik dit meenemen in mijn zoektocht naar mijn DIY NAS.
https://untappd.com/user/OzzBier
Eerlijk gezegd niet echt:
Die cpu is te zwak voor twee transcodes, dit moet minimaal een i3 zijn. Het moederbord zou ik vervangen door een zuinige matx variant van ASRock. 4x 2tb zou ik vervangen door 3x 3tb, het geheugen zou ik vervangen door een 1600mhz variant met oog op een toekomstige upgrade van de cpu. TFX voeding in een ATX behuizing?
Ik zou de laatste 20 pagina's van dit topic eens doorlezen voor wat inspiratie.
Die cpu is te zwak voor twee transcodes, dit moet minimaal een i3 zijn. Het moederbord zou ik vervangen door een zuinige matx variant van ASRock. 4x 2tb zou ik vervangen door 3x 3tb, het geheugen zou ik vervangen door een 1600mhz variant met oog op een toekomstige upgrade van de cpu. TFX voeding in een ATX behuizing?
Ik zou de laatste 20 pagina's van dit topic eens doorlezen voor wat inspiratie.
[ Voor 5% gewijzigd door nMad op 20-03-2015 08:06 ]
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Eens met nMad, Bord, CPU en geheugen combinatie sluit niet echt op elkaar aan.
Ik zou zelfs liever voor 3*4TB of 2*6TB gaan dan 3TB schijven.
Ik zou zelfs liever voor 3*4TB of 2*6TB gaan dan 3TB schijven.
Even niets...
Kijk dat zijn meteen al 2 commentaren waar ik echt wat aan heb. Ik ga hier mee aan de slag en een nieuw lijstje in elkaar draaien.
https://untappd.com/user/OzzBier
Probeer een lijstje met eisen op te stellen, en vertel ons welke keuze je maakt aan de hand van het lijstje met eisen, dan kunnen de meeste mensen hier vrij snel zeggen of het bord, cpu en het geheugen voldoen aan die eisen
Even niets...
Aan de hand van de opmerkingen heb ik even wat (bijna alles:P ) aangepast in mijn boodschappenlijstje. Met de voeding had ik op een of andere manier de verkeerde geselecteerd, je moet dat soort lijstjes ook niet maken op een telefoon...
aantal eisen waar de NAS aan moet voldoen.
-Streamen naar Raspberry Pi via Plex
-Transcoden van 1080p naar 1 á 2 Android telefoons/tablets
-Redelijk energiezuinig
Voor het streamen en transcoden is de keuze met behulp van jullie opmerkingen op de I3 in dit lijstje gekomen. Ook heb ik dus het boord aangepast naar een AsRock, met een H97 chipset. Voor €14 meer heb je echter de Z97 chipset, is dat die €14 extra meer dan waard?
Voor wat betreft de HDD's heb ik gekozen voor de WD Green varianten aangezien deze redelijk energiezuinig zijn en ik zie ze vaak in dit topic terugkomen dus zullen ze wel goed zijn, nu gekozen voor 3x 3TB.
Van RAM heb ik weinig kaas gegeten. Ik heb er maar even wat ingegooid, in elk geval 1600 zodat het wat meer toekomst-proof is van wat ik begrijp.
# | Product | Prijs | Subtotaal |
1 | Intel Core i3 4130 Boxed | € 115,- | € 115,- |
1 | ASRock H97M Pro4 | € 84,91 | € 84,91 |
3 | WD Green WD30EZRX | € 102,95 | € 308,85 |
1 | Cooler Master Force 500 | € 31,95 | € 31,95 |
1 | Crucial Ballistix Sport BLS2CP8G3D1609DS1S00CEU | € 117,95 | € 117,95 |
1 | be quiet! System Power 7 300W | € 30,95 | € 30,95 |
Bekijk collectie Importeer producten | Totaal | € 689,61 |
aantal eisen waar de NAS aan moet voldoen.
-Streamen naar Raspberry Pi via Plex
-Transcoden van 1080p naar 1 á 2 Android telefoons/tablets
-Redelijk energiezuinig
Voor het streamen en transcoden is de keuze met behulp van jullie opmerkingen op de I3 in dit lijstje gekomen. Ook heb ik dus het boord aangepast naar een AsRock, met een H97 chipset. Voor €14 meer heb je echter de Z97 chipset, is dat die €14 extra meer dan waard?
Voor wat betreft de HDD's heb ik gekozen voor de WD Green varianten aangezien deze redelijk energiezuinig zijn en ik zie ze vaak in dit topic terugkomen dus zullen ze wel goed zijn, nu gekozen voor 3x 3TB.
Van RAM heb ik weinig kaas gegeten. Ik heb er maar even wat ingegooid, in elk geval 1600 zodat het wat meer toekomst-proof is van wat ik begrijp.
https://untappd.com/user/OzzBier
Ik zou in jouw geval voor onderstaand systeem gaan.
-server moederbord met alle bijkomende voordelen
-ECC geheugen
-processor kan twee transcodes aan
-energiezuinige en kwalitatieve voeding
-server moederbord met alle bijkomende voordelen
-ECC geheugen
-processor kan twee transcodes aan
-energiezuinige en kwalitatieve voeding
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-4160 Boxed | € 115,- | € 115,- |
1 | Supermicro X10SLM-F | € 201,60 | € 201,60 |
3 | WD Green WD30EZRX | € 102,95 | € 308,85 |
1 | Cooler Master N300 (KKN1, closed) | € 30,95 | € 30,95 |
2 | Crucial CT102472BD160B | € 84,31 | € 168,62 |
1 | Seasonic G-series 360 watt | € 56,90 | € 56,90 |
Bekijk collectie Importeer producten | Totaal | € 881,92 |
[ Voor 6% gewijzigd door nMad op 21-03-2015 11:35 ]
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Is wel €200,- boven zijn budget...nMad schreef op zaterdag 21 maart 2015 @ 11:27:
Ik zou in jouw geval voor onderstaand systeem gaan.
-server moederbord met alle bijkomende voordelen
-ECC geheugen
-processor kan twee transcodes aan
-energiezuinige en kwalitatieve voeding
# Product Prijs Subtotaal 1 Intel Core i3-4160 Boxed € 115,- € 115,- 1 Supermicro X10SLM-F € 201,60 € 201,60 3 WD Green WD30EZRX € 102,95 € 308,85 1 Cooler Master N300 (KKN1, closed) € 30,95 € 30,95 2 Crucial CT102472BD160B € 84,31 € 168,62 1 Seasonic G-series 360 watt € 56,90 € 56,90 Bekijk collectie
Importeer productenTotaal € 881,92
Tja, maar het werken met een budget is niet altijd handig. Er speelt nog veel meer dan alleen de prijs: kwaliteit, duurzaamheid, energiezuinigheid, etc. Soms kun je met het 'oprekken' van het budget gunstigere verhoudingen krijgen.
PV: 10,4 kWp | EV: Tesla M3 LR ‘19 | L/W WP: Panasonic WH-MDC07J3E5 + PAW-TD20C1E5 | L/L WP: Daikin FVXM35A/RXM35R + Daikin FTXM25R/RXM25R + MHI 2x SRK25ZS-WF/SCM40ZS-W
Gezien de eisen lijkt enige zinvolle in je advies de snellere CPU? ECC geheugen en server moederbord lijken mij gezien het gebruik als media server eerder leuk dan nodig.
Dat denk ik ook, maar ligt er natuurlijk aan hoeveel hij zijn budget kan oprekken, zoals nMad al zegt.BartNL schreef op zaterdag 21 maart 2015 @ 14:59:
Gezien de eisen lijkt enige zinvolle in je advies lijkt de snellere CPU? ECC geheugen en server moederbord lijken mij gezien het gebruik als media server eerder leuk dan nodig.
Een aantal jaar was ik verantwoordelijk voor de ontwikkeling van de NASjes van Conceptronic (oem taiwan) en daarna de SilverStore van Freecom (odm taiwan). Daar moest ik het over het algemeen doen met wat 'zwakke' processoren waardoor de doorvoersnelheid altijd wat te wensen over liet.
Nu bezig met mijn eigen HP Microserver 1610 Gen8 met 10GB geheugen en 4x3TB HDD met OpenMediaVault en dat werkt ook aardig moet ik zeggen. Zit nog wel in de opzet fase maar de wijze waarop ik het beheer en de power over het systeem heb ligt geheel in mijn straatje.
En dat voor een mooie prijs.
Nu bezig met mijn eigen HP Microserver 1610 Gen8 met 10GB geheugen en 4x3TB HDD met OpenMediaVault en dat werkt ook aardig moet ik zeggen. Zit nog wel in de opzet fase maar de wijze waarop ik het beheer en de power over het systeem heb ligt geheel in mijn straatje.
En dat voor een mooie prijs.
There are no secrets, only information you do not yet have
Ik wil voor mijn NAS (die wel op windows Proffesional werkt) wat meer harde schijven kunnen toevoegen. Nu heb ik 6 hdd's via intel rst op raid 0 staan en wil er een raid controller aan toevoegen voor 8 harde schijven.
Zelf was ik aan het denken aan een HighPoint RocketRAID 2720SGL. Deze had ik gekozen vooral voor de goedkope prijs per poort en omdat hij JBOD ondersteund zodat ik gewoon een extra schijf kan toevoegen. Ik heb nu een 4 tal extra 3tb harde schijven liggen die ik ermee wil gebruiken. Ook kies ik de 3 tb's puur omdat ze per GB nog redelijk goedkoop zijn. Dit was het enige waar ik eigenlijk aan dacht.
Is dit een goede keuze? Of moet ik iets anders nemen?
Zelf was ik aan het denken aan een HighPoint RocketRAID 2720SGL. Deze had ik gekozen vooral voor de goedkope prijs per poort en omdat hij JBOD ondersteund zodat ik gewoon een extra schijf kan toevoegen. Ik heb nu een 4 tal extra 3tb harde schijven liggen die ik ermee wil gebruiken. Ook kies ik de 3 tb's puur omdat ze per GB nog redelijk goedkoop zijn. Dit was het enige waar ik eigenlijk aan dacht.
Is dit een goede keuze? Of moet ik iets anders nemen?
Verwijderd
HighPoint RocketRAID kan niet als een normale controller (HBA) gebruikt worden; de RAID firmware blijft actief. Deze controller is niet geschikt voor ZFS of software RAID. Het zal wel werken, maar bij bad sectors e.d. kunnen je disks bijvoorbeeld verdwijnen. ZFS doet daar niets tegen. Bovendien heeft deze kaart een binary blob nodig.
Voor Windows is deze controller redelijk. Veel features, alleen betrouwbaarheid heb ik zelf wat twijfels bij. Zorg voor goede backups zoals altijd; Windows heeft geen fancy storage mogelijkheden. Dus backups is het oude wondermiddel dat altijd helpt.
Voor Windows is deze controller redelijk. Veel features, alleen betrouwbaarheid heb ik zelf wat twijfels bij. Zorg voor goede backups zoals altijd; Windows heeft geen fancy storage mogelijkheden. Dus backups is het oude wondermiddel dat altijd helpt.
[ Voor 27% gewijzigd door Verwijderd op 22-03-2015 14:35 ]
Als je zint hebt om zelf source code te moeten patchen om je driver bij een nieuwe Linux kernel release werkende te krijgen, dan is HighPoint inderdaad de juiste leverancier van RAID kaarten.Verwijderd schreef op zondag 22 maart 2015 @ 14:34:
HighPoint RocketRAID kan niet als een normale controller (HBA) gebruikt worden; de RAID firmware blijft actief. Deze controller is niet geschikt voor ZFS of software RAID. Het zal wel werken, maar bij bad sectors e.d. kunnen je disks bijvoorbeeld verdwijnen. ZFS doet daar niets tegen.
Bovendien heeft deze kaart een binary blob nodig.
Ik heb er twee (5+ jaar oud), been there, done that. Nu zou ik naar de IBM 1015 (+ sas expander indien nodig) kijken.
[ Voor 8% gewijzigd door Q op 22-03-2015 14:37 ]
Verwijderd
IBM M1015 begint ook al gedateerd te worden.
Ik hoop zo graag dat SATA Express gaat doorbreken. Dan kun je simpel van een PCI-express slot een batterij aan moderne disks aansluiten, zonder vage controllerchip ertussen.
In het verleden gingen hardeschijven vrij snel naar SATA/150 terwijl dat vrijwel geen voordeel bood boven ATA/133 wat destijds gangbaar was. Ik hoop dat hardeschijven ook snel naar SATA Express zullen overstappen. Dan heb je geen performancetoename, maar wel de mogelijkheid goedkoop en makkelijk heel veel SATA Express poorten te genereren.
Ik hoop zo graag dat SATA Express gaat doorbreken. Dan kun je simpel van een PCI-express slot een batterij aan moderne disks aansluiten, zonder vage controllerchip ertussen.
In het verleden gingen hardeschijven vrij snel naar SATA/150 terwijl dat vrijwel geen voordeel bood boven ATA/133 wat destijds gangbaar was. Ik hoop dat hardeschijven ook snel naar SATA Express zullen overstappen. Dan heb je geen performancetoename, maar wel de mogelijkheid goedkoop en makkelijk heel veel SATA Express poorten te genereren.
Maar nog steeds prima betrouwbaar.Verwijderd schreef op zondag 22 maart 2015 @ 14:45:
IBM M1015 begint ook al gedateerd te worden.
Zal dat echt ooit wat worden voor bulk opslag met veel HDDs?Ik hoop zo graag dat SATA Express gaat doorbreken. Dan kun je simpel van een PCI-express slot een batterij aan moderne disks aansluiten, zonder vage controllerchip ertussen.
SATA had wel degelijk twee redelijke voordeel over ATA, luchtstroming en montage gemak!terwijl dat vrijwel geen voordeel bood boven ATA/133
Op zich moet dat met een simpel kaartje plus een $50~$350 kostende PLX chip redelijk eenvoudig te regelen moeten zijn.maar wel de mogelijkheid goedkoop en makkelijk heel veel SATA Express poorten te genereren.
Als ik het goed begrijp zou een PEX 8796 zou je dan bv 20 HDs aansluiten op 4 PCIe lanes, of 16 op op 8 lanes.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
Ja, maar dan verstoor je dus het hele punt van lage latency met een point-to-point verbinding. PCI-express is juist weggestapt van het shared bus (PCI) ontwerp. Voor RAID is het ook erg fijn als de schijven een gelijke latency hebben.
Ik ben geen voorstander van PLX-chips, Port multipliers en SAS expanders. Ik heb liever eerlijke poorten zonder gekkigheid. Dan heb je de beste performance, de beste compatibility dus minste kans op problemen, meeste features die blijven werken en is ook de zuinigste oplossing. Een SAS Expander kan best wat gebruiken in idle mode. PLX zal iets minder zijn (1-3 watt).
Maar met SATA Express verandert alles. Dan is er geen controller meer. Dus 0 watt. Het opslagapparaat (hardeschijf of SSD) wordt dan direct aan PCI-express gekoppeld. Het maakt wel gebruik van de SATA bekabeling, dus je bestaande SATA kabels kun je blijven gebruiken. Maar er gaat dan PCI-express doorheen, geen SATA. Dat is de ironie.
Het grootste voordeel met SATA Express wat ik zie is dat je op de beste en goedkoopste en zuinigste manier heel veel poorten erbij kunt maken, door middel van een passief kaartje in je PCI-express slot.
Ik ben geen voorstander van PLX-chips, Port multipliers en SAS expanders. Ik heb liever eerlijke poorten zonder gekkigheid. Dan heb je de beste performance, de beste compatibility dus minste kans op problemen, meeste features die blijven werken en is ook de zuinigste oplossing. Een SAS Expander kan best wat gebruiken in idle mode. PLX zal iets minder zijn (1-3 watt).
Maar met SATA Express verandert alles. Dan is er geen controller meer. Dus 0 watt. Het opslagapparaat (hardeschijf of SSD) wordt dan direct aan PCI-express gekoppeld. Het maakt wel gebruik van de SATA bekabeling, dus je bestaande SATA kabels kun je blijven gebruiken. Maar er gaat dan PCI-express doorheen, geen SATA. Dat is de ironie.
Het grootste voordeel met SATA Express wat ik zie is dat je op de beste en goedkoopste en zuinigste manier heel veel poorten erbij kunt maken, door middel van een passief kaartje in je PCI-express slot.
Maar je hebt met S1150 maar 16 lanes en 8 PCIe poorten en heb je geloof ik een poort nodig voor de verbinding, daarnaast is latency voor bulk opslag op roest totaal geen probleem.
Voor SSDs geef ik je gelijk, maar voor watt we hier bespreken is het min of meer irrelevant.
En voor snelheid op mijn workstation/Game bak, gebruik ik een RAMdisk, wat stukken sneller is dan welke SSD dan ook zelfs als ze rechtstreeks met de PCIe bus spreken.
Hier een post over hoe ik mijn RAMdisk gebruik.
Voor SSDs geef ik je gelijk, maar voor watt we hier bespreken is het min of meer irrelevant.
En voor snelheid op mijn workstation/Game bak, gebruik ik een RAMdisk, wat stukken sneller is dan welke SSD dan ook zelfs als ze rechtstreeks met de PCIe bus spreken.
Hier een post over hoe ik mijn RAMdisk gebruik.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Verwijderd
16 lanes heeft maximaal drie slots (x8/x4/x4) ondersteund door Z-series chipset. Andere chipsets bieden enkel twee slots (x8/x8) aan. Daarnaast heb je 4 lanes voor de chipset die vaak ook één of twee PCI-express 2.0 x1 slots en/of een x4 slot gebruikt. Dat werkt dan op PCIe 2.0.
Bovendien dacht ik gelezen te hebben dat Skylake meer PCIe lanes krijgt. Bijvoorbeeld hier: http://www.maximumpc.com/...ificant_pcie_upgrade_2015
Wat bedoel je met 'voor wat we hier bespreken min of meer irrelevant?' het lijkt mij juist heel relevant dat we straks onze hardeschijven native kunnen aansluiten, zonder allerlei controllers/expanders nodig te hebben. Dat zal in elk geval het probleem oplossen van het vinden van een goede controller.
Bovendien dacht ik gelezen te hebben dat Skylake meer PCIe lanes krijgt. Bijvoorbeeld hier: http://www.maximumpc.com/...ificant_pcie_upgrade_2015
Wat bedoel je met 'voor wat we hier bespreken min of meer irrelevant?' het lijkt mij juist heel relevant dat we straks onze hardeschijven native kunnen aansluiten, zonder allerlei controllers/expanders nodig te hebben. Dat zal in elk geval het probleem oplossen van het vinden van een goede controller.
natuurlijk zijn directe poorten altijd beter. Je kunt je wel afvragen wat nog een directe poort is en welk voordeel het je brengt.Verwijderd schreef op zondag 22 maart 2015 @ 16:29:
Ik ben geen voorstander van PLX-chips, Port multipliers en SAS expanders. Ik heb liever eerlijke poorten zonder gekkigheid. Dan heb je de beste performance, de beste compatibility dus minste kans op problemen, meeste features die blijven werken en is ook de zuinigste oplossing. Een SAS Expander kan best wat gebruiken in idle mode. PLX zal iets minder zijn (1-3 watt).
Stroomverbruik expander versus PLX is volgens mij niet zo algemeen te stellen. De populaire HP expander wordt aardig warm maar LSI based oplossingen een stuk minder. Persoonlijk heb ik dan de voorkeur voor een losse expander boven een PLX chip.
Performance is voor thuisgebruik persoonlijke afweging. Ik haal over de expanders stabiel 1 GB/s tijdens kopiëren van 20TB (toevallig recent gekopieerd) tussen arrays. Daarbij schaalt de snelheid redelijk 1:1 met netto aantal schijven x 100MB/s in de array dus verwacht ik dat de expanders nog niet bottlenecken. Qua performance voor media opslag zijn expanders wat mij betreft prima bruikbaar.
Ik snap de haat niet zo jegens SAS expanders. Volgens mij is dat gebaseerd op out-dated niet-meer-relevante informatie over oudere SAS expanders die gedonder gaven. SAS expanders zijn prima, zeker als je - ik weet de juiste term niet - dual-link SAS kunt doen, dus bijvoorbeeld beide SAS poorten van een M1015 kunt verbinden met je expander. Bandbreedte zat en de latency is verwaarloosbaar ten opzichte van de harde schijven.
Verdomme gigabit iSCSI latency is te verwaarlozen ten opzichte van reguliere harde schijven. Dus de rest boeit niet.
Dat we straks gewoon native disks rechtstreeks aan PCIe zouden hangen is mooi, want als we van controllers af kunnen komen, super. Dan lever ik mijn M1015's graag in.
Maar voor vele DYI nas bouwers is de M1015 nog steeds een aanrader en qua concept misschien gedateerd, maar als hardware zeker niet.
Dit hele verhaal gaat niet op voor SSDs, want die zijn zoveel sneller dat reguliere SATA echt een belemmering is. Maar voor DYI NAS bouwers is dat denk ik een onderwerp wat niet relevant is.
@BartNL, dan gaat er dus 2 x 1GB/s dus 2GB/s over de expander heen, dus dat is zeer OK.
Verdomme gigabit iSCSI latency is te verwaarlozen ten opzichte van reguliere harde schijven. Dus de rest boeit niet.
Dat we straks gewoon native disks rechtstreeks aan PCIe zouden hangen is mooi, want als we van controllers af kunnen komen, super. Dan lever ik mijn M1015's graag in.
Maar voor vele DYI nas bouwers is de M1015 nog steeds een aanrader en qua concept misschien gedateerd, maar als hardware zeker niet.
Dit hele verhaal gaat niet op voor SSDs, want die zijn zoveel sneller dat reguliere SATA echt een belemmering is. Maar voor DYI NAS bouwers is dat denk ik een onderwerp wat niet relevant is.
@BartNL, dan gaat er dus 2 x 1GB/s dus 2GB/s over de expander heen, dus dat is zeer OK.
[ Voor 14% gewijzigd door Q op 22-03-2015 23:16 ]
Dual linked Lenovo SAS expander aan een IBM M1015 alhier en ik moet zeggen dat ik geen verschil merk of heb gezien in de benches (ZFSguru eigen bench) tov direct aan de M1015 that is.Q schreef op zondag 22 maart 2015 @ 23:13:
Ik snap de haat niet zo jegens SAS expanders. Volgens mij is dat gebaseerd op out-dated niet-meer-relevante informatie over oudere SAS expanders die gedonder gaven. SAS expanders zijn prima, zeker als je - ik weet de juiste term niet - dual-link SAS kunt doen, dus bijvoorbeeld beide SAS poorten van een M1015 kunt verbinden met je expander. Bandbreedte zat en de latency is verwaarloosbaar ten opzichte van de harde schijven.
Idd, qua 'gevoel' en reactie lijkt t alsof de iSCSI aangeboden disk een lokale disk is.Verdomme gigabit iSCSI latency is te verwaarlozen ten opzichte van reguliere harde schijven. Dus de rest boeit niet.
We'll cross that bridge when we get there.Dat we straks gewoon native disks rechtstreeks aan PCIe zouden hangen is mooi, want als we van controllers af kunnen komen, super. Dan lever ik mijn M1015's graag in.
Klopt, redelijk verkrijgbaar tegen een te behappen prijs per poort, goed gedocumenteerd / doorgekauwd op de fora en vrijwel fool proof werking.Maar voor vele DYI nas bouwers is de M1015 nog steeds een aanrader en qua concept misschien gedateerd, maar als hardware zeker niet.
Mocht je dat soort wensen hebben dan kun je altijd opteren voor een 12GBps a la de LSI 9300 series, wel wat aan de prijzige kant t.o.v een reclaimed M1015 of aanverwante LSI SAS2008 HBADit hele verhaal gaat niet op voor SSDs, want die zijn zoveel sneller dat reguliere SATA echt een belemmering is. Maar voor DYI NAS bouwers is dat denk ik een onderwerp wat niet relevant is.
Idd niet flauw.@BartNL, dan gaat er dus 2 x 1GB/s dus 2GB/s over de expander heen, dus dat is zeer OK.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik denk dat ik jullie (vooral CiPHER volgens mij
) uit een natte droom moet helpen...

Hier staat duidelijk, dat SATA Express nog steeds via het chipset moet gaan, omdat er nog steeds gebruik gemaakt wordt van AHCI. Bij NVME is het anders, daar is het (zoals je op het plaatje ziet) wel zonder SATA Express connector.
In het geval van SATA Express publiceert het chipset nog steeds een AHCI driver naar je OS, en praat zelf PCIe met je harddisk.
Je kan dus echt niet zomaar een disk direct aan PCIe hangen, dat kan je vergeten...
Dat heeft meerdere redenen:
*) Er is geen RAID meer mogelijk. Dus minder geld verdienen met duurdere borden.
*) Direct booten van PCIe is spannend, dat doen niet veel Operating Systems, en/of Moederborden.
*) Moederborden met veel SATA/SAS poorten worden obsolete, omdat gebruikers zelf SATA/SAS poorten bij kunnen prikken. Dus valt er niets meer te verdienen in de high end markt...
Dus simpel: Moederbord fabrikanten gaan dat niet doen

Hier staat duidelijk, dat SATA Express nog steeds via het chipset moet gaan, omdat er nog steeds gebruik gemaakt wordt van AHCI. Bij NVME is het anders, daar is het (zoals je op het plaatje ziet) wel zonder SATA Express connector.
In het geval van SATA Express publiceert het chipset nog steeds een AHCI driver naar je OS, en praat zelf PCIe met je harddisk.
Je kan dus echt niet zomaar een disk direct aan PCIe hangen, dat kan je vergeten...
Dat heeft meerdere redenen:
*) Er is geen RAID meer mogelijk. Dus minder geld verdienen met duurdere borden.
*) Direct booten van PCIe is spannend, dat doen niet veel Operating Systems, en/of Moederborden.
*) Moederborden met veel SATA/SAS poorten worden obsolete, omdat gebruikers zelf SATA/SAS poorten bij kunnen prikken. Dus valt er niets meer te verdienen in de high end markt...
Dus simpel: Moederbord fabrikanten gaan dat niet doen
[ Voor 7% gewijzigd door FireDrunk op 23-03-2015 10:41 ]
Even niets...
Dus even ingelezen in wat jullie hier allemaal schreven en prijs performance is deze dan beter, maar dan moet ik wel nog software raid gaan doen want dit is eignelijk gewoon een goedkope hba (?) pricewatch unsorted: HP SAS Expander Card - New Sealed Spare 24 sata poorten voor 250 euro is wel een mooie deal vind ik!
Ondersteund een M1015 2 x 4 kanalen naar een intel RES2SV240 ?
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Je bedoeld een dual linked verbinding tussen de M1015 HBA en de Intel SAS expander, lijkt mij wel.jacovn schreef op maandag 23 maart 2015 @ 11:33:
Ondersteund een M1015 2 x 4 kanalen naar een intel RES2SV240 ?
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
NEE, een SAS Expander is *GEEN* HBA... Een SAS Expander doet niets zonder een compatible SAS controller er voor.thibautb schreef op maandag 23 maart 2015 @ 11:20:
Dus even ingelezen in wat jullie hier allemaal schreven en prijs performance is deze dan beter, maar dan moet ik wel nog software raid gaan doen want dit is eignelijk gewoon een goedkope hba (?) pricewatch unsorted: HP SAS Expander Card - New Sealed Spare 24 sata poorten voor 250 euro is wel een mooie deal vind ik!
Even niets...
Ik wil data van een raid-z2 pool in een server naar een andere pool in een andere server copieren.
Als ik daar dan op een m1015 een pool exporteer, en op een extender dan die drives aan sluit en vervolgens die importeer in de server waar ik de extender op een M1015 heb zitten.
Als je dan een copy met 1 GB/sec kan maken is het nog te doen.
Als ik daar dan op een m1015 een pool exporteer, en op een extender dan die drives aan sluit en vervolgens die importeer in de server waar ik de extender op een M1015 heb zitten.
Als je dan een copy met 1 GB/sec kan maken is het nog te doen.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
met een enkele link zou je 4x6 Gb/s = 24 Gb/s dus makkelijk 1GB/s moeten kunnen halen?
Anderzijds verwacht ik dat je alle spullen in huis hebt om dual linking te testen?
Anderzijds verwacht ik dat je alle spullen in huis hebt om dual linking te testen?
Kijken of ik de bedoeling snap.jacovn schreef op maandag 23 maart 2015 @ 12:01:
Ik wil data van een raid-z2 pool in een server naar een andere pool in een andere server copieren.
Als ik daar dan op een m1015 een pool exporteer, en op een extender dan die drives aan sluit en vervolgens die importeer in de server waar ik de extender op een M1015 heb zitten.
Als je dan een copy met 1 GB/sec kan maken is het nog te doen.
Server A, pool-a met data
Server B, pool-b copy-to-be van pool-a
Bedoeling:
Server A met pool-a op SAS-HBA en pool-b op SAS-HBA en extender, interne kopie, na voltooiing export van pool-b en uitbouw van SAS HBA en extender
Server B, inbouw van SAS HBA en extender, import van pool-b.
Mag geen probleem zijn.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Op zich is 2 quad poort nicjes toch ook te doen? 4Gb dedicated is 400MB/s.
Dat is 1.4TB per uur (mits je grote files kopieert).
Dus zelfs als je 50TB moet verplaatsen, is dat 2 dagen kopieren? Dat is toch best te doen?
Dat is 1.4TB per uur (mits je grote files kopieert).
Dus zelfs als je 50TB moet verplaatsen, is dat 2 dagen kopieren? Dat is toch best te doen?
Even niets...
Tja ik heb in alle servers nu een 10GE Intel x520da2 zitten.
Maar de beste manier om 25 TB te copieren zou met zfs send/zfs receive zijn.
Dat heb ik geprobeerd, maar foutje bedank 14 TB weg (user error door niet de snapshot maar file systeem weg te gooien)
Dan lijkt me midnight commander met copy paste wat meer op mijn nivo
Alleen weet ik ook niet of die daar goed mee om kan gaan tussen 2 pools.
Dat zou ook over netwerk kunnen wellicht, maar dan moet ik een pool remote mounten van server 1 naar server 2.
Of iets als: tar zf - bigfile.m4p | mbuffer -s 1K -m 512 | ssh otherhost "tar zf -"
En dan de MTU naar 9000
Maar de beste manier om 25 TB te copieren zou met zfs send/zfs receive zijn.
Dat heb ik geprobeerd, maar foutje bedank 14 TB weg (user error door niet de snapshot maar file systeem weg te gooien)
Dan lijkt me midnight commander met copy paste wat meer op mijn nivo
Alleen weet ik ook niet of die daar goed mee om kan gaan tussen 2 pools.
Dat zou ook over netwerk kunnen wellicht, maar dan moet ik een pool remote mounten van server 1 naar server 2.
Of iets als: tar zf - bigfile.m4p | mbuffer -s 1K -m 512 | ssh otherhost "tar zf -"
En dan de MTU naar 9000
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Waarom niet gewoon NFS? Dan kan je gewoon MC gebruiken...
Je kan NFS relatief simpel tunen voor flinke transfers (rsize + wsize)
Je kan NFS relatief simpel tunen voor flinke transfers (rsize + wsize)
[ Voor 39% gewijzigd door FireDrunk op 23-03-2015 13:18 ]
Even niets...
Idd NFS share, local mount en dan met mc een copy actie (smb werkt ook, maar niet zo rap als NFS)FireDrunk schreef op maandag 23 maart 2015 @ 13:18:
Waarom niet gewoon NFS? Dan kan je gewoon MC gebruiken...
Je kan NFS relatief simpel tunen voor flinke transfers (rsize + wsize)
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Is gewoon de data kopieren over 10Gbit niet prima te doen, dat is ongeveer 3~4TB per uur (neem aan dat het grote files zijn), ben je klaar in uurtje of 10, max een hele dag.jacovn schreef op maandag 23 maart 2015 @ 13:16:
Tja ik heb in alle servers nu een 10GE Intel x520da2 zitten.
[...]
CP in Linux zou daar prima voor moeten werken, en CP heeft ongeveer de zelfde mogelijkheden als Xcopy.
offtopic:
Btw hoe bevalt de DGS-1510?
Btw hoe bevalt de DGS-1510?
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Ik heb ook wel wat dingen via ebay gekocht om die extenders aan te sluiten.
Dual sff-8087 naar 8088 slot ding van supermicro en een sff8088 kabel.
Rest me nog een 2e sff8087 naar 8088 converter te vinden voor schappelijke prijs.
Voor een copy kan ik ook wel een sff-8087 kabel van kast naar kast trekken direct zonder verloop.
Ik zal dit wel nalezen: https://www.freebsd.org/doc/handbook/network-nfs.html
Dual sff-8087 naar 8088 slot ding van supermicro en een sff8088 kabel.
Rest me nog een 2e sff8087 naar 8088 converter te vinden voor schappelijke prijs.
Voor een copy kan ik ook wel een sff-8087 kabel van kast naar kast trekken direct zonder verloop.
Ik zal dit wel nalezen: https://www.freebsd.org/doc/handbook/network-nfs.html
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Het zijn films als in: blu ray rips in folder structuur, dus combinatie van veel kleine files en enkele grote files.player-x schreef op maandag 23 maart 2015 @ 13:41:
[...]
Is gewoon de data kopieren over 10Gbit niet prima te doen, dat is ongeveer 3~4TB per uur (neem aan dat het grote files zijn), ben je klaar in uurtje of 10, max een hele dag.
offtopic:
Btw hoe bevalt de DGS-1510?
offtopic:
De DGS-1510 bevalt me prima, er zat wel een wat luide fan in, maar een stillere noctua doet het ook prima, ding niet warmer dan 30 graden zien worden
De DGS-1510 bevalt me prima, er zat wel een wat luide fan in, maar een stillere noctua doet het ook prima, ding niet warmer dan 30 graden zien worden
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
heb ze tijdje terug gecancelled. Wanneer ik de reviews nu lees zijn de schijven voor mij ook niet bruikbaar. Ze kakken in tot 20-40MB/s bij sustained schrijven. Met 6x 8TB in raid5 zou ik dan 150MB/s halen tegen 1000MB/s met 12x 4TB in raid6 wat dan qua redundancy en capaciteit vergelijkbaar is. Wel jammer want qua prijs / TB zijn ze interessant omdat ik dan wel 2x zo veel capaciteit zou hebben per slot en nog maar de helft aan behuizing, voeding en expanders nodig zou hebben t.o.v. de 4TB schijven.jacovn schreef op vrijdag 20 februari 2015 @ 11:28:
[...]
Jij bent gewoon proefkonijn met die 8TB dingen
@Jacovn, Al die films hebben misschien 10-15 kleine filetjes erbij, dus per saldo haal je denk ik prima 400-500MB/s over je 10Gb netwerk.
Even niets...
Zo zat ik er ook naar te kijken. Nu toch maar 20 x 4TB voor de laatste server gekocht.
En mocht ik meer nodig hebben dan via extenders maar de volgende uitbreiding doen.
Nu €120 betaald voor 24 poort intel extender, dat is net zo veel als een M1015.
Die sff-8087 naar sff-8088 converters zijn ook te doen, die supermicro was $40. Een HP sff-8088 kabel heb ik voor $18 gekocht. Het duurt wat langer maar ze gaan via een kennis daar zodat ik geen invoer rechten en btw hoef te betalen
En mocht ik meer nodig hebben dan via extenders maar de volgende uitbreiding doen.
Nu €120 betaald voor 24 poort intel extender, dat is net zo veel als een M1015.
Die sff-8087 naar sff-8088 converters zijn ook te doen, die supermicro was $40. Een HP sff-8088 kabel heb ik voor $18 gekocht. Het duurt wat langer maar ze gaan via een kennis daar zodat ik geen invoer rechten en btw hoef te betalen
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Het zijn er helaas honderden bij sommige films.FireDrunk schreef op maandag 23 maart 2015 @ 14:00:
@Jacovn, Al die films hebben misschien 10-15 kleine filetjes erbij, dus per saldo haal je denk ik prima 400-500MB/s over je 10Gb netwerk.
Er zijn films met 100 playlists om het copieren moeilijker te maken bijvoorbeeld. Er is ook een backup directory van de playlist..
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Dan is ZFS send en receive vele malen sneller gok ik... Zowel lokaal als via NFS.
Even niets...
Zijn de menu's van je DVD en BR media al die opslagruimte en enorme kosten waard?jacovn schreef op maandag 23 maart 2015 @ 13:46:
Het zijn films als in: blu ray rips in folder structuur, dus combinatie van veel kleine files en enkele grote files.
Ik koop veel media, maar rip ze altijd +/- 1GB/uur met h264, en nu met h265 1GB/1.5uur, en films met uitmuntende visuele effecten als bv Avatar en LoTR, tot wel het dubbele qua opslag.
Scheelt me gewoon enorm veel geld, en houd mijn opslagsysteem een stuk simpeler.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
http://www.benl.ebay.be/i...in_77&hash=item487bc4756c
Wat vinden jullie van deze. Die is ook goedkoop per poort.
Zijn er eigenlijk raid controllers die kunnen migreren in raid 5 of 1 zoals je kan doen bij intel rst? Dan zou ik die instant kopen...
Wat vinden jullie van deze. Die is ook goedkoop per poort.
Zijn er eigenlijk raid controllers die kunnen migreren in raid 5 of 1 zoals je kan doen bij intel rst? Dan zou ik die instant kopen...
Ja, ik zit op een forum waar ik wel eens een film voor iemand heb, en dan is een origineel wel handig. Zou ook alles als .iso op kunnen slaan, dan is het wel simpeler.player-x schreef op maandag 23 maart 2015 @ 15:12:
[...]
Zijn de menu's van je DVD en BR media al die opslagruimte en enorme kosten waard?
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Idd leuke prijs als je hardware raid wilt (wat is je bedoeling eigenlijk?).thibautb schreef op maandag 23 maart 2015 @ 15:24:
http://www.benl.ebay.be/i...in_77&hash=item487bc4756c
Wat vinden jullie van deze. Die is ook goedkoop per poort.
Zijn er eigenlijk raid controllers die kunnen migreren in raid 5 of 1 zoals je kan doen bij intel rst? Dan zou ik die instant kopen...
Voor ZFS is het afgeraden om een hardware controller in JBOD of passthrough modus te draaien omdat er veelvuldig problemen mee gemeld zijn.
Als je ZFS in gedachten hebt en 16 poorten wilt kun je bijv. de LSI 9201-16i/e overwegen (externe variant voor een zachte prijs bijv hier), moet je de kabel spaghetti van het van buiten af terug voeren wel voor lief nemen
[ Voor 5% gewijzigd door Pantagruel op 23-03-2015 15:39 ]
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Ik vind zfs wel heel interessant maar dat is te veel werk om alles te gaan omzetten van mijn windows pc naar linux etc... Ik had er wel eens een pc voor gemaakt maar die heb ik nu maar gewoon als pc bij mijn tv. En als ik daar nu aan begin gaat dat weer meer geld kosten dan gewoon raid te doen op windows en dat is nu ook simpeler ik ben wel van plan om linux eens op wat pc's te zetten gewoon om te testen.
En mijn bedoeling is om mijn media van mijn pc dus te kunnen uitbreiden, nu zit 15tb vol met de sata poorten van intel via rst dan en ik wil meer opslag. Dus wou ik een raid kaart erbij doen en dan ga ik wat 4 tb schijven kopen. Maar ik zit altijd wat krap bij kas (student) dus weet iemand of er raid kaarten eijn waarbij ik kan immigreren zodat ik als ik terug geld heb wat schijven kan toevoegen?
En mijn bedoeling is om mijn media van mijn pc dus te kunnen uitbreiden, nu zit 15tb vol met de sata poorten van intel via rst dan en ik wil meer opslag. Dus wou ik een raid kaart erbij doen en dan ga ik wat 4 tb schijven kopen. Maar ik zit altijd wat krap bij kas (student) dus weet iemand of er raid kaarten eijn waarbij ik kan immigreren zodat ik als ik terug geld heb wat schijven kan toevoegen?
[ Voor 25% gewijzigd door thibautb op 23-03-2015 16:17 ]
@thibautb: Over die Areca:
Ik zie nog regelmatig M1015 of M1115's langskomen op eBay voor dik onder de 100 euro.
Denk niet dat die Areca dus goedkoper is...
Je tweede vraag snap ik geen bal van. Je vraagt of er een RAID controller bestaat die Immigratie ondersteunt? http://nl.wikipedia.org/wiki/Immigratie
Voor zover ik weet, zijn er geen controllers die van land kunnen verhuizen
Als je bedoeld of een controller Online RAID Level Migration ondersteund, die zijn er legio. Je zit vaak wel aan een erg dure controller dan. (Denk aan > 300-400 euro).
Ik zie nog regelmatig M1015 of M1115's langskomen op eBay voor dik onder de 100 euro.
Denk niet dat die Areca dus goedkoper is...
Wat zeg je hier nou eigenlijk? Je wil geen ZFS want je moet migreren, OK, dat kan een valide argument zijn, maar heel ingewikkeld is dat migratie proces niet. (Linux kan gewoon NTFS, dus je kan je huidige data gewoon inlezen onder Linux).thibautb schreef op maandag 23 maart 2015 @ 16:14:
Ik vind zfs wel heel interessant maar dat is te veel werk om alles te gaan omzetten van mijn windows pc naar linux etc... Ik had er wel eens een pc voor gemaakt maar die heb ik nu maar gewoon als pc bij mijn tv. En als ik daar nu aan begin gaat dat weer meer geld kosten dan gewoon raid te doen op windows en dat is nu ook simpeler ik ben wel van plan om linux eens op wat pc's te zetten gewoon om te testen.
Maar weet iemand of er raid kaarten zijn die immigreren ondersteunen? Zodat ik schijven kan toevoegen?
Je tweede vraag snap ik geen bal van. Je vraagt of er een RAID controller bestaat die Immigratie ondersteunt? http://nl.wikipedia.org/wiki/Immigratie
Voor zover ik weet, zijn er geen controllers die van land kunnen verhuizen
Als je bedoeld of een controller Online RAID Level Migration ondersteund, die zijn er legio. Je zit vaak wel aan een erg dure controller dan. (Denk aan > 300-400 euro).
Even niets...
Heb het hierboven een beetje aangepast maar ja met migreren bedoel ik dus zoals bij rst dat je schijven kan toevoegen als ik terug geld heb voor wat hdd's er kan kopen aansluiten aanduiden en dan de raid controller zijn werk laten doen.FireDrunk schreef op maandag 23 maart 2015 @ 16:18:
@thibautb: Over die Areca:
Ik zie nog regelmatig M1015 of M1115's langskomen op eBay voor dik onder de 100 euro.
Denk niet dat die Areca dus goedkoper is...
[...]
Wat zeg je hier nou eigenlijk? Je wil geen ZFS want je moet migreren, OK, dat kan een valide argument zijn, maar heel ingewikkeld is dat migratie proces niet. (Linux kan gewoon NTFS, dus je kan je huidige data gewoon inlezen onder Linux).
Je tweede vraag snap ik geen bal van. Je vraagt of er een RAID controller bestaat die Immigratie ondersteunt? Wikipedia: Immigratie
Voor zover ik weet, zijn er geen controllers die van land kunnen verhuizen
Als je bedoeld of een controller Online RAID Level Migration ondersteund, die zijn er legio. Je zit vaak wel aan een erg dure controller dan. (Denk aan > 300-400 euro).
En als ik dan zfs wil gaan gebruiken kan ik dan mijn raid 0 volume omzetten door de schijven van de ene naar de andere pc te brengen en dan met hba aan te sluiten en dan volume ervan maken in zfs? Als dat het geval is ga ik daar dan toch een projectje van maken...
[ Voor 3% gewijzigd door thibautb op 23-03-2015 16:22 ]
Online migreren van een RAID0 volume van RST naar ZFS zal niet gaan. ZFS moet je aanmaken op lege schijven. Daarna kan je er pas data op zetten.
Even niets...
Oke, bedankt!FireDrunk schreef op maandag 23 maart 2015 @ 16:28:
Online migreren van een RAID0 volume van RST naar ZFS zal niet gaan. ZFS moet je aanmaken op lege schijven. Daarna kan je er pas data op zetten.
Maar ik was aan het nadenken en met 4 tb schijven kan ik een volume aanmaken en dan daar al al mijn dingen opzetten van mijn windows 3tb schijven, en dan kan ik die 3tb schijven daarna ook er in steken, dat zou wel mooi zijn.
En dan al even wat verder denkend, ik heb hier een pc'tje staan en die heeft een pentium g3240 op h97 zou dat ook al goed genoeg zijn? En 8G ram.
[ Voor 11% gewijzigd door thibautb op 23-03-2015 16:46 ]
Daar kom je al een end mee.thibautb schreef op maandag 23 maart 2015 @ 16:33:
[...]
Oke, bedankt!
Maar ik was aan het nadenken en met 4 tb schijven kan ik een volume aanmaken en dan daar al al mijn dingen opzetten van mijn windows 3tb schijven, en dan kan ik die 3tb schijven daarna ook er in steken, dat zou wel mooi zijn.![]()
En dan al even wat verder denkend, ik heb hier een pc'tje staan en die heeft een pentium g3240 op h97 zou dat ook al goed genoeg zijn? En 8G ram.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Dat zou iig behoorlijk in overdracht snelheid kunnen schelen, en daarnaast ook nog eens iets ruimte kunnen besparen.jacovn schreef op maandag 23 maart 2015 @ 15:28:
Ja, ik zit op een forum waar ik wel eens een film voor iemand heb, en dan is een origineel wel handig. Zou ook alles als .iso op kunnen slaan, dan is het wel simpeler.
Ik gebruik een RAMdisk, en sla games op als rar files, en pak ze uit in mijn geheugen, dat scheelt zomaar een factor 2 tot soms wel 10 in laad tijd als ik die vergelijk.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
http://www.benl.ebay.be/i...ain_3&hash=item56710d9959
was dan dus even verder gaan zoeken in het onderwerp. En zag wel dat er een ssf 8808 poort op zat maar het enige waar ik me mee bekend ben is 8087 ssf, dus hoe kan ik van een ssf 8808 naar sata poorten gaan?
was dan dus even verder gaan zoeken in het onderwerp. En zag wel dat er een ssf 8808 poort op zat maar het enige waar ik me mee bekend ben is 8087 ssf, dus hoe kan ik van een ssf 8808 naar sata poorten gaan?
Een sff-8088 naar sff-8087 kabel naar binnen doen door een opening.
Maar als je naar losse hdds wilt moet je Sff-8088 naar sata hebben.
Maar als je naar losse hdds wilt moet je Sff-8088 naar sata hebben.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Aah, oke bedankt, dus gewoon een fout in de descripte(?).jacovn schreef op maandag 23 maart 2015 @ 19:20:
Een sff-8088 naar sff-8087 kabel naar binnen doen door een opening.
Maar als je naar losse hdds wilt moet je Sff-8088 naar sata hebben.
Zo kon ik het wel ineens vinden in google

Mooi is wellicht anders, maar converters die 4 voudig sff-8088 naar sff8087 of sata (weet niet of er varianten met 16 sata connectoren zijn) kunnen wel. Maar je moet ook 4x een sff-8088 naar sff-800 kabel kopen om het aan te sluiten.
Dat wordt veel duurder, of je moet uit China kopen, dan is het nog betaalbaar.
Dat wordt veel duurder, of je moet uit China kopen, dan is het nog betaalbaar.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Huh? Nu begrijp ik het even niet, ik moet toch gewoon 4 ssf 8088 naar sata's kopen? en dan zit ik goed... Of moet ik toch nog andere kabels kopen? Dit gaat toch een van de goedkoopste opties dan zijn hoor.(?)jacovn schreef op maandag 23 maart 2015 @ 19:27:
Mooi is wellicht anders, maar converters die 4 voudig sff-8088 naar sff8087 of sata (weet niet of er varianten met 16 sata connectoren zijn) kunnen wel. Maar je moet ook 4x een sff-8088 naar sff-800 kabel kopen om het aan te sluiten.
Dat wordt veel duurder, of je moet uit China kopen, dan is het nog betaalbaar.
http://www.amazon.co.uk/S...rnal-Fanout/dp/B00MHKFLR8 dit toch x4
[ Voor 6% gewijzigd door thibautb op 23-03-2015 19:43 ]
Die lijkt me prima, 3 feet is ongeveer 1 meter lijkt me
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Zou best wel eens willen weten hoe deze PM kaartjes het doen, voor $22.50 per kaartje is het een koopje.

[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Weet iemand eigenlijk waar de kaart die een tweetal maanden geleden in price watch stond met 32 sata poorten voor 340 euro naartoe is?
Al gevonden en veel duurder geworden.
Al gevonden en veel duurder geworden.
[ Voor 15% gewijzigd door thibautb op 23-03-2015 22:57 ]
AAAAAAAAAH Kill it with fire!player-x schreef op maandag 23 maart 2015 @ 22:43:
Zou best wel eens willen weten hoe deze PM kaartjes het doen, voor $22.50 per kaartje is het een koopje.
[afbeelding]
1 Sata poort delen met meerder disks = yukkie yukkie.
[ Voor 5% gewijzigd door Q op 23-03-2015 23:02 ]
Zie je het als een technisch of als een bandbreedte probleem, want de Storage Pod 4.5 gebruikt ze ook gewoon weer.Q schreef op maandag 23 maart 2015 @ 23:01:
1 Sata poort delen met meerder disks = yukkie yukkie.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Er lijk $112.50 te staan..player-x schreef op maandag 23 maart 2015 @ 22:43:
Zou best wel eens willen weten hoe deze PM kaartjes het doen, voor $22.50 per kaartje is het een koopje.
[afbeelding]
Kun je beter intel sas expanders kopen voor $60-70 in usa.
Is dat aliexpress een goede site om dingen te kopen ? Zie veel dingen 1:1 terug op ebay lijkt het.
Edit: even zoeken en er staan hier wel ergens ervarings topics dus..
[ Voor 11% gewijzigd door jacovn op 24-03-2015 09:16 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Voor hun toepassing lijkt het mij ok maar niet voor mensen die een RAID(Z) draaien.player-x schreef op maandag 23 maart 2015 @ 23:14:
[...]
Zie je het als een technisch of als een bandbreedte probleem, want de Storage Pod 4.5 gebruikt ze ook gewoon weer.
Het was vroeg en ik heb hoge koorts, maar geen excuus, het staat er inderdaad
Dan is de prijs ok inderdaad.
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Ik ben het helemaal eens met Q, die port multipliers hangen ze op een PCIe x4 kaartje... Brrr...
Als je de hele dag kleine hoeveelheden data moet verstoken (zoals Blackblaze doet) kan ik me voorstellen dat het werkt.
Maar voor thuisgebruik... Moet er niet aan denken
Als je de hele dag kleine hoeveelheden data moet verstoken (zoals Blackblaze doet) kan ik me voorstellen dat het werkt.
Maar voor thuisgebruik... Moet er niet aan denken
Even niets...
Maar is dat echt een probleem, als Gbit netwerk je snelheids grens is?FireDrunk schreef op dinsdag 24 maart 2015 @ 08:42:
Maar voor thuisgebruik... Moet er niet aan denken
Het is niet anders dan wanneer je bv de Intel expander gebruikt, daar deel je de bandbreedte met net zo veel drives.
Want of het nu 4p SAS naar 20x SATA is of 1x SATA naar 5x SATA x 4 = 20x SATA, het resultaat is het zelfde, beide kaartjes gebruiken 3Gbps verbindingen vanaf de controller.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Zeker niet, SAS is vele malen beter als het gaat om het aggegreren van bandbreedte dan SATA.
SAS heeft een heel aantal speciale protocol features die er voor zorgen dat drives veel meer ' door elkaar ' kunnen praten. Zo kan een drive aangeven dat hij even bezig is, en kan je OS ondertussen met een andere SAS drive communiceren. Bij SATA kan dat voor zover ik weet niet, en wacht het OS altijd tot hij antwoord heeft gekregen van de specifieke SATA drive.
Je kan dus niet zeggen tegen SATA drives, Heey allemaal, geef mij 16MB. Je moet 16MB aan de eerste vragen, en dan naar de volgende drive.
Als je dus ook nog eens RAID over die port multiplier gaat praten, gaat de snelheid exponentieel omlaag.
Wikipedia: Port multiplier
Zie hierboven: Goedkope multipliers doen Command Based Switching, duurdere doen FIS.
Goedkope controllers ondersteunen alleen Command Based Swtichen, en wederom, de duurdere pikken FIS.
Zowel AMD als Intel's Onboard AHCI controller doen beide FIS.
SAS heeft een heel aantal speciale protocol features die er voor zorgen dat drives veel meer ' door elkaar ' kunnen praten. Zo kan een drive aangeven dat hij even bezig is, en kan je OS ondertussen met een andere SAS drive communiceren. Bij SATA kan dat voor zover ik weet niet, en wacht het OS altijd tot hij antwoord heeft gekregen van de specifieke SATA drive.
Je kan dus niet zeggen tegen SATA drives, Heey allemaal, geef mij 16MB. Je moet 16MB aan de eerste vragen, en dan naar de volgende drive.
Als je dus ook nog eens RAID over die port multiplier gaat praten, gaat de snelheid exponentieel omlaag.
Wikipedia: Port multiplier
Zie hierboven: Goedkope multipliers doen Command Based Switching, duurdere doen FIS.
Goedkope controllers ondersteunen alleen Command Based Swtichen, en wederom, de duurdere pikken FIS.
Zowel AMD als Intel's Onboard AHCI controller doen beide FIS.
[ Voor 20% gewijzigd door FireDrunk op 24-03-2015 09:33 ]
Even niets...
Maar wederom, ik vraag me nog steeds af of dat echt een probleem is, als je beperkt bent door de snelheid van je Gbit netwerk aansluiting.
Is een oplossing als deze niet voldoende om die Gbit verbinding met bv video data 100% te belasten.
Is het geen oplossing voor mensen met een zeer beperkt budget, om de kosten van +15 euro per poort naar beneden te brengen tot ongeveer 5 euro per poort.
En passen deze kaartjes rechtstreeks op je mobo?, of moet je een geschikte controller gebruiken?
ps. heb zelf geen interesse in deze oplossing, daar ik een 10Gbit TB verbinding tussen mijn server en WerkPC heb, en ik voor
duurdere en robuustere oplossingen ga, en op zijn minst deze 6Gbit PM zou nemen.
Is een oplossing als deze niet voldoende om die Gbit verbinding met bv video data 100% te belasten.
Is het geen oplossing voor mensen met een zeer beperkt budget, om de kosten van +15 euro per poort naar beneden te brengen tot ongeveer 5 euro per poort.
En passen deze kaartjes rechtstreeks op je mobo?, of moet je een geschikte controller gebruiken?
ps. heb zelf geen interesse in deze oplossing, daar ik een 10Gbit TB verbinding tussen mijn server en WerkPC heb, en ik voor
duurdere en robuustere oplossingen ga, en op zijn minst deze 6Gbit PM zou nemen.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
Als je een goedkope SAS extender wil..
http://www.ebay.nl/itm/In...eName=ADME:L:COSI:NL:1123
Deze verkoper accepteerd een bod tussen de $60-70 en er komt helaas wel iets van $40 verzending bij.
Ook wordt het invoeren en BTW betalen.
Ik heb er 3 gekocht voor $75 per stuk en kreeg $67,20 shipping erbij. De invoer kosten inlcusief postnl kosten waren 67 euro. Kom ik op 120 euro per stuk uit. 1 stuks zal iets duurder zijn door transport wellicht. Maar je kunt natuurlijk $60 bieden en kijken of dat geaccepteerd wordt.
Er staat bij dat er geen kabels bij zitten, maar bij die ik heb gekregen zitten SFF-8087 kabels bij (6 stuks per controller, 2 lange en 4 kortere)
Wellicht dat $75 meehelpt om de versie met kabels te krijgen en $60 alleen de kaart ? (geen idee of dat klopt, maar voor $15 heb ik goedkoop 6x SFF-8087 kabels
http://www.ebay.nl/itm/In...eName=ADME:L:COSI:NL:1123
Deze verkoper accepteerd een bod tussen de $60-70 en er komt helaas wel iets van $40 verzending bij.
Ook wordt het invoeren en BTW betalen.
Ik heb er 3 gekocht voor $75 per stuk en kreeg $67,20 shipping erbij. De invoer kosten inlcusief postnl kosten waren 67 euro. Kom ik op 120 euro per stuk uit. 1 stuks zal iets duurder zijn door transport wellicht. Maar je kunt natuurlijk $60 bieden en kijken of dat geaccepteerd wordt.
Er staat bij dat er geen kabels bij zitten, maar bij die ik heb gekregen zitten SFF-8087 kabels bij (6 stuks per controller, 2 lange en 4 kortere)
Wellicht dat $75 meehelpt om de versie met kabels te krijgen en $60 alleen de kaart ? (geen idee of dat klopt, maar voor $15 heb ik goedkoop 6x SFF-8087 kabels
[ Voor 20% gewijzigd door jacovn op 24-03-2015 10:35 ]
8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase
Als je goed zoekt:
http://www.ebay.com/itm/D...ain_0&hash=item27f1050027
Valt er best wat te vinden voor minder dan 15 euro per poort.
http://www.ebay.com/itm/D...ain_0&hash=item27f1050027
Valt er best wat te vinden voor minder dan 15 euro per poort.
Even niets...
Kost nog steeds 2x zo veel als de budget PM optie.FireDrunk schreef op dinsdag 24 maart 2015 @ 10:41:
Valt er best wat te vinden voor minder dan 15 euro per poort.
[dislectie] hoeveel forum deelnemers heb je nodig om een peertje te vervangen ?
True, maar de techniek is wel een stuk beter voor mijn gevoel.
Uiteraard zijn er altijd budget oplossingen.
Ik veroordeel Port Multipliers niet direct, maar ik heb er een beetje een wrang gevoel bij...
Uiteraard zijn er altijd budget oplossingen.
Ik veroordeel Port Multipliers niet direct, maar ik heb er een beetje een wrang gevoel bij...
Even niets...
Rebuild van je RAID(Z) duurt triljoen jaar. Big no-no.player-x schreef op dinsdag 24 maart 2015 @ 10:10:
Maar wederom, ik vraag me nog steeds af of dat echt een probleem is, als je beperkt bent door de snelheid van je Gbit netwerk aansluiting.
Ook dat ja, goed punt.
Even niets...
Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.