Hij wilde een tientje voor z'n nieuwe ZFS server. 
Daar is het forum natuurlijk niet voor bedoeld.
Daar is het forum natuurlijk niet voor bedoeld.
Verwijderd
Geeft niet - ik had onverwachts een verjaardagsfeestje, dus ik heb mijn donderdagavondbiertjes toch wel gekregen.Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Daar is het forum natuurlijk niet voor bedoeld.
Oh...Verwijderd schreef op donderdag 16 januari 2014 @ 16:43:
Hij wilde een tientje voor z'n nieuwe ZFS server.
Daar is het forum natuurlijk niet voor bedoeld.
[ Voor 4% gewijzigd door Tsurany op 17-01-2014 13:33 ]
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Ik krijg van iemand een gratis Asrock C2750 mainboard voor mijn Batman-verhalen? Cool!mux schreef op vrijdag 17 januari 2014 @ 13:59:
Schrijf een paar goedgelezen blogs en je krijgt van iedereen allerlei gratis hardware
Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklarenGralgrathor schreef op maandag 13 januari 2014 @ 18:16:
De SATA-poorten op de vreemde controller zijn natuurlijk wel extra.
Alleen als je VT-d nodig hebt; bijv. voor wie ESXi o.i.d. wil draaien en z'n storage controller wil doorgeven aan een vm met FreeNAS. Als je geen PCIe kaart hebt die je wil doorgeven maakt het gebrek van VT-d niets uit. Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden. Voor een fileserver/NAS/SAN of homeserver zal het prima werken. Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.Maakt dat trouwens zonder vt-d heel erg veel uit? (Dat is een serieuze vraag: ik ben me een beetje aan het inlezen, maar het gaat je al snel duizelen).
Verwijderd
Heb ik op mijn ASrock B75 bord gemeten en daar kwam ik aan 0,3 watt. De Intel-chip deed meer; ik geloof 0,6 watt voor 6 poorten (ASmedia voor 2 poorten). Maar de Intel controller verbruikte helemaal niets meer met gebruik van DIPM, ook al heb je geen enkele schijf aangesloten. Dus uiteindelijk is Intel inderdaad zuiniger. Maar het is ook weer niet dat die chip 4W ofzo verbruikt. In elk geval niet in rust.Yup en die dingen nemen ook weer het nodige aan energie af. Daar moet je wel rekening mee houden als je het energiegebruik van het ASrock bord met die van Supermicro gaat vergelijken. Dat soort zaken wil nog wel eens verschillen verklaren
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.Avoton is in ieder geval niet gericht op hardcore virtualisatie met VT-d mogelijkheden.
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.Als je FreeBSD draait heb je niet per definitie VT-d nodig; je kunt daar namelijk gebruik maken van jails (=OS level virtualisation) waardoor je eigenlijk direct de hardware aan kunt spreken.
[ Voor 16% gewijzigd door Verwijderd op 17-01-2014 21:00 ]
Even niets...
Verwijderd
Verwijderd
Even niets...
Zoiets dan maar ??Verwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Nou toch best jammer dat je die meerdere ASMedia controllers niet kunt doorgeven via vt-d. Best wel een bumper voor ESXi gebruikers.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Verwijderd
[ Voor 44% gewijzigd door FireDrunk op 18-01-2014 22:15 ]
Even niets...
nero355 schreef op zaterdag 18 januari 2014 @ 21:32:
[...]
Zoiets dan maar ??
http://www.asrock.com/mb/...0Extreme11ac/index.nl.asp
Is 6x Intel + 16x LSI SAS![]()
![]()
Mini-ATX vind ik ook goed hoor
Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?Verwijderd schreef op zaterdag 18 januari 2014 @ 21:00:
Heeft iemand misschien ervaring met de 'init/shutdown scripts' optie in FreeNas 9?
Ik heb een scriptje gemaakt om enkele bestanden te kopiëren en dat werkt prima vanaf de console. De lees en uitvoerrechten staan dus goed. Het wordt alleen niet uitgevoerd door FreeNas tijdens de init of het afsluiten, wanneer ik het bij 'add init/shutdown script' toevoeg.
Ook als ik het commando uit het script rechtstreeks als een string meegeef in de daarvoor bestemde commandoregel wordt het niet uitgevoerd.
Het is me een raadsel waarom het niet werkt en ik weet ook niet hoe ik nu moet achterhalen waar het mis gaat.
pvoutput. Waarom makkelijk doen, als het ook moeilijk kan! Every solution has a new problem
[ Voor 5% gewijzigd door Flaat op 19-01-2014 17:20 ]
Verwijderd
Bedankt voor het meedenken!imdos schreef op zondag 19 januari 2014 @ 12:19:
[...]
Misschien verkeerde / geen shell (dus csh, ksh, bash of sh) gedefinieerd?
Of niet uitvoerbaar of rechten?
Verwijderd
Een goede ZFS config zou zijn:Flaat schreef op zondag 19 januari 2014 @ 16:59:
Ik heb de volgende drives tot m'n beschikking
2x Samsung spinpoint f3 1tb
1x Seagate 640gb
1x 2.5 inch Toshiba 1tb
1x 2.5 inch WD 750gb
De vraag is dus wat is de simpelste manier om hier een nette storage pool van te maken die het redundant maakt, performance hoeft dus niet hoog te zijn en het lijkt me dat ik 1 drive fail wel redundant genoeg moet zijn. Verder moet 2-3gig wel genoeg zijn dus ik kom denk ik wel op genoeg met wat ik heb.
ZFS is niet lastig of complex. Ook niet noob-onvriendelijk. Een groot voordeel is dat je er geen omkijken meer naar hebt. Geen filesystem checks of andere gekkigheden. Gewoon data opslaan met een 'store and forget' mentaliteit.Ik heb zelf gekeken naar ZFS, normaal raid en Flexraid.
ZFS ziet er erg lastig/complex uit en heeft grote ram requirements wat de bouwprijs van een systeem niet bepaald ten goede komt. Tevens komt het op mij over als iets dat niet echt noob vriendelijk is. Ik heb ook nog geen eenduidig antwoord kunnen vinden of het gaat werken met verschillende drive maten.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Verwijderd
[ Voor 34% gewijzigd door Verwijderd op 20-01-2014 20:47 ]
Verwijderd
"Nodig" is een groot woord.FireDrunk schreef op maandag 20 januari 2014 @ 11:08:
[...]
Als je echt zoveel lanes nodig hebt moet je naar een Socket 2011 bord gaan. Die zijn daar op gemaakt.
Dan krijg je dit soort CPU's
http://ark.intel.com/prod...Cache-up-to-3_80-GHz?q=39
http://ark.intel.com/prod...5M-Cache-2_20-GHz?q=e5-26
Beide 40 PCIe lanes.
[ Voor 44% gewijzigd door FireDrunk op 20-01-2014 23:18 ]
Even niets...
[ Voor 7% gewijzigd door ItsValium op 20-01-2014 23:23 ]
[ Voor 24% gewijzigd door FireDrunk op 20-01-2014 23:28 ]
Even niets...
Lol... Dat is wel een mega kickass board!ItsValium schreef op maandag 20 januari 2014 @ 23:22:
[...] X9DRH-7F [...]
Verwijderd
Alleen ehm, tja, ik vind deze discussie meer iets voor het DIY RAID NAS topic. Goed als ik hem verplaats?(Both CPUs need to be installed for full access to PCI-E slots and onboard controllers. See manual block diagram for details.)
Even niets...
Verwijderd
Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.Phuncz schreef op maandag 20 januari 2014 @ 21:36:
Dat is wel een leuk artikel, met misschien iets teveel lof over Btrfs. Is dit ondertussen op een niveau dat het ZFS kan vervangen of is het nog steeds niet geschikt voor "productie" ?
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs. Sowieso is heel Btrfs nog zwaar experimenteel. Het zou wel eens stabiel genoeg kunnen zijn inmiddels maar wil je dat risico lopen?Gralgrathor schreef op dinsdag 21 januari 2014 @ 14:19:
[...]
Wat mij betreft is een stabiele en complete RAID5/6 (RAIDZ1/2 alternatief) implementatie een must. Zolang dat nog niet af is ga ik er niet eens mee experimenteren, laat staan dat ik het als main storage gebruik.
Klopt, maar wat ik daar over lees boezemt nu niet echt vertrouwen in. Ik ben nog niemand tegengekomen die het als storage solution gebruikt. Terwijl de RAID0/1/10 implementaties volgens de ontwikkelaars en user reviews stabiel is, en niet onaardig presteert.Sleepkever schreef op dinsdag 21 januari 2014 @ 14:35:
Er zit sinds april 2013 experimenteel RAID5/6 support in Btrfs
[ Voor 34% gewijzigd door FireDrunk op 21-01-2014 14:54 ]
Even niets...
Misschien denken de ontwikkelaars aan BTRFS dat ook?FireDrunk schreef op dinsdag 21 januari 2014 @ 14:54:
het komt vanzelf...
Ik begrijp dat Flexraid een laag bovenop het FS is, en dat pariteit (per file, niet per block!) naar een aparte disk wordt geschreven. Heeft zo zijn voordelen, vooral voor de huis-tuin-en-keuken-gebruiker, die wellicht een bij elkaar geraapt zootje schijven heeft waar al data op staat maar niet voldoende ruimte om het zootje naar een nieuwe stack te kopieren. Maar ik vraag me af hoe het omgaat met bad blocks. ZFS kan stilletjes een hoop problemen bij rotte oude disks corrigeren; maar in het geval van Flexraid ben je alsnog aangewezen op het onderliggende FS, en kan corrupte data alsnog naar de parity worden geschreven.
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
Wie is in ontwikkeling?Tsurany schreef op dinsdag 21 januari 2014 @ 16:03:
Dat is toch in ontwikkeling?
Verwijderd
True. Ik zat al een heel relaas te bedenken over hoe het ZFS toegankelijker zou maken voor Jan met de pet, die een willekeurig allegaartje van disks heeft en in willekeurige volgorde vrijmaakt voor zijn opslagsysteem... Maar eigenlijk moeten mensen die geen zin hebben om een beetje na te denken over de vereisten van hun opslag gewoon JBOD draaien. Betrouwbaarheid is voor mensen die serieus bezig zijnVerwijderd schreef op dinsdag 21 januari 2014 @ 16:37:
Dus hoe nuttig is deze feature nou echt?
Even niets...
Verwijderd
Even niets...
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Verwijderd
[ Voor 3% gewijzigd door Verwijderd op 21-01-2014 18:57 ]
Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!]Byte\[ schreef op dinsdag 21 januari 2014 @ 20:32:
Tnx voor alle tips.
Hier kon ik wel aardig mee uit de voeten.
* ]Byte[ heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Lol...
Als ik eerlijk moet zijn had ik ook gedacht dat het duurder zou zijn!ItsValium schreef op dinsdag 21 januari 2014 @ 21:26:
[...]
Zal je geen spijt van krijgen. Ik gebruik al jaren supermicro voor allerhande setups. Beste prijs kwaliteitsverhouding voor echt serverspul!
Dat klinkt als hopeloos verouderde informatie (net als dat deze reactie ook behoorlijk laat isVerwijderd schreef op vrijdag 17 januari 2014 @ 20:59:
Wat heeft jails te maken met de hardware direct aanspreken? Jails is gewoon een veredelde 'chroot' waarbij ook de kernel API is beveiligd.
Ja dat bedoelde ik. Wat we met die virtualisatie mogelijkheden straks kunnen doen is de hardware nog efficiënter gebruiken dan we nu doen. Iets als ESXi heeft namelijk behoorlijk wat overhead. Als je alles toch op 1 OS houdt is dat doodzonde. Juist daar zijn jails/containers zeer nuttig. Met dingen als Xen, Bhyve en Virtualbox kun je dan weer dingen doen die niet met jails/containers mogelijk zijn. Voor zuinigheid kon dit nog wel eens erg belangrijk gaan worden (je kunt het namelijk ook omdraaien: je kunt slome zuinige hardware dusdanig inzetten dat het ineens net zoveel kan als de krachtigere energieslurpende hardware).Verwijderd schreef op zaterdag 18 januari 2014 @ 13:53:
Als Xen of BHyVe een vervanging van ESXi kan worden, gaan we inderdaad een leuk tijdperk in. Dan heb je BSD 100% native die aan de hardware zit (dat bedoel jij ppl?) terwijl je heel efficiënt andere VMs kunt draaien met Xen en BHyVe.
Het grote probleem met ZFS is het verschil in implementatie. Het wordt door diverse systemen gebruikt die ieder weer hun eigen implementatie hebben. Daar hebben ze inmiddels OpenZFS voor opgericht. De ontwikkeling wordt daarmee gecentraliseerd waardoor de implementaties op 1 lijn komen te zitten. Tel daarbij op dat de FreeBSD kernel iets heel anders is als die van Illumos en het feit dat de publieke ZFS ontwikkeling dankzij Oracle op z'n gat ligt en zie daar de reden waarom bepaalde features er (nog) niet in zitten. Ik hoop dat ze met OpenZFS dat wel van de grond krijgen.Paul schreef op dinsdag 21 januari 2014 @ 18:37:
Kom op mensen, het is 2014, geen 1984... Het FS weer waar alle blokjes staan, hoe lastig is het dan om blokje A van positie 1 naar positie 2 te verplaatsen en de pointer bij te werken?
ZFS is relatief eenvoudig om mee te werken en werkt met consumer hardware. Je hebt dus geen diepgaande storage kennis nodig en ook geen servergrade componenten. Ideaal om thuis helemaal los te gaan. En ja, een hobbyist zou een hobbyist niet zijn als ie geen overkill aan hardware zou hebbenMijns inziens is dat ook een van de redenen waarom veel hobbyisten nu een fileserver hebben met een utilization onder de 50% of zo. Je kunt een RAIDZ niet uitbreiden dus maak er maar meteen een van 5 disks ook al heb je maar data voor 2...
Had je niet beter een E5-1620 v2 kunnen nemen? True, 2 cores minder, maar ze lopen wel bijna 2x zo hard. Ik weet niet wat je belasting wordt, ik zie zakelijk gebruik, mogelijk dat je voldoende clients hebt om de 6 cores bezig te houden met Samba (of iets anders)]Byte\[ schreef op dinsdag 21 januari 2014 @ 20:32:
* ]Byte[ heeft net zijn X9SRL-F met (voorlopig) 32 GB-ECC en E5-2620v2 besteld...
Nou ja, gruwelen... Bij een EMC Isilon (ok, die werken meer op node-niveau dan disk, maar het principe blijft redelijk gelijk) kun je data van een node wegmigreren met behoud van redundancy (en daar hebben ze specifiek performance- en archiving nodes, en wat smaken er tussenin, dus data naar een andere tier brengen komt redelijk vaak voor), op een IBM SVC kun je volumes van de ene 'tier' naar de andere kopiëren (true, kopiëren) maar ook volumes / schijven toevoegen aan een mdiskpool en vervolgens rebalancen of mdisks verwijderen uit een mdiskpool etc etc. Ja, daar werk je vaak met 1:1-kopieën met daarnaast backups, maar al die apparaten kunnen wel fatsoenlijk uitgebreid wordenVerwijderd schreef op dinsdag 21 januari 2014 @ 18:52:
Voor een consumentenfilesystem kun je misschien onvolwassen noemen; enterprise gruwelt natuurlijk van RAID5 expansion / rewrite.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.ppl schreef op woensdag 22 januari 2014 @ 00:10:
Btw, ik ben eigenlijk benieuwd in hoeverre Dragonfly met HAMMER op dit moment als NAS in te zetten is. Iemand hier die dit al heeft geprobeerd?
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Het is voor mijn ZFSguru-box, waarop ik o.a. ook dedup zal gaan draaien.
[ Voor 18% gewijzigd door ]Byte[ op 22-01-2014 15:19 ]
interessant om zo'n uitgebreide ervaring te lezen, qua Seagates komt mijn ervaring overeen waarbij bij mij de 4TB tot toe geen uitval hebben terwijl de 3TB in dezelfde periode al wel weer een schijf is uitgevallen.Q schreef op dinsdag 21 januari 2014 @ 23:08:
Which drive should I buy?
Even niets...
DragonflyBSD is een fork van FreeBSD 4. Beide projecten zijn qua omvang van hoeveelheid mensen niet groot. Dat is Linux echter ook niet. De grootte is dus niet anders als menig ander open source project en waarschijnlijk ook niet van die van menig closed source project. Kortom, als je dat griezelig vindt blijft er eigenlijk geen enkel OS meer overDemoniac schreef op woensdag 22 januari 2014 @ 07:55:
[...]
Leeft dat nog? Ik herinner me dat het ten tijde van FreeBSD 4 uitgebracht werd, maar heb er daarna nooit meer iets van gehoord.. HAMMER klinkt op papier ook interessant, maar een compleet OS met eigen filesystem dat door zo'n klein team wordt onderhouden, vind ik toch griezelig.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.ilovebrewski schreef op dinsdag 29 oktober 2013 @ 13:07:
Ik heb begin dit jaar gekozen voor een setup van ZFSguru met 5 stuks 3 TB WD RED in RAIDZ1. Hiervoor gekozen vanwege de garantie van 3 jaar en het lage vermogen.
Echter wil ik nog steeds TLER uitschakelen omdat ik een ZFS configuratie heb. Zijn er mensen die hier ervaring mee hebben? WDTLER.exe schijnt niet meer te werken met deze harde schijven.
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...indian schreef op vrijdag 24 januari 2014 @ 09:58:
[...]
Heeft iemand misschien ervaring met het uitzetten van de TLER op de WD red schijven? Het gaat om een ZFS build net zoals ilovebrewski.
Unix doesn't prevent a user from doing stupid things, because that would necessarily prevent them from doing brilliant things.
while true ; do echo -n "bla" ; sleep 1 ; done
In dit topic staat het advies om TLER uit te zetten voor ZFS omdat er geen sprake is van hardware raid (waar tler geschikt voor is). De green schijven hebben 1 jaar kortere garantie, schijnen niet zo goed tegen vibraties te kunnen (backblaze artikel) en zijn ouder qua techologie.Demoniac schreef op vrijdag 24 januari 2014 @ 10:27:
[...]
Wil je bij ZFS de TLER niet juist aan hebben? Om enorme timeouts te voorkomen en het oplossen van een hardwarematige leesfout aan ZFS over te laten? Als TLER uit moet, had je net zo goed WD Green's kunnen kopen...
Verwijderd
Verwijderd
En non-ECC. Zeker geen onbelangrijk puntje, als je het voor een nextgen FS zou willen gebruiken.Verwijderd schreef op vrijdag 24 januari 2014 @ 11:44:
Enig puntje is dat er maximaal 4GiB So-DIMMs ingaan, ik had liever 8GiB DIMM modules gehad.
[ Voor 82% gewijzigd door FireDrunk op 24-01-2014 16:34 ]
Even niets...
Tnx voor de tip. Dat was al bijna mijn volgende vraag.
Dat had je nu niet moeten zeggen. Die panic had ik ook al eens gehad.[...]
Toen krakte FreeBSD met een dikke kernel panic...
# | Product | Prijs | Subtotaal |
1 | Supermicro SNK-P0050AP4 | € 33,99 | € 33,99 |
1 | be quiet! Shadow Wings PWM, 92mm | € 11,- | € 11,- |
[ Voor 6% gewijzigd door Paul op 24-01-2014 17:01 ]
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
KOOP EEN NARROW SOCKET KOELER!!!!.]Byte\[ schreef op vrijdag 24 januari 2014 @ 16:27:
Vandaag X9SRL-F met CPU binnen, morgen komt memory.
Lol... had er even geen rekening mee gehouden dat bij Xeon CPU's geen cooler zit.
Die moet ik dus morgen nog even halen.
[ Voor 50% gewijzigd door jadjong op 24-01-2014 17:02 ]
NEE!!! Ik ga GEEN NARROW cooler halen!jadjong schreef op vrijdag 24 januari 2014 @ 17:02:
[...]
KOOP EEN NARROW SOCKET KOELER!!!!.
Normale passen niet op een X9SRL.
Ik heb hier ook een -F en daar past zelfs met hamer geen regular in. Welke revisie heb je?]Byte\[ schreef op vrijdag 24 januari 2014 @ 17:40:
[...]
NEE!!! Ik ga GEEN NARROW cooler halen!
Het klopt dat de X9SRL een narrow socket heeft...
Ik heb echter de X9SRL-F en die heeft een REGULAR SOCKET!![]()
Dat was het eerste wat ik net gecontroleerd heb toen ik de doos open maakte.
Ik wist al van de narrow/regular op basis van het user manual wat ik al eerder had gedownload.
"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock
Hier zie ik toch ook een hoop niet-NAS doeleinden in, dus als ik off-topic mag gaan...et36s schreef op vrijdag 24 januari 2014 @ 11:07:
http://www.supermicro.nl/...rd/celeron/X10/X10SBA.cfm
Eindelijk het diy NAS / XBMC board waar ik al jaren op wacht7 year productlife, mSATA (ssd), Mini PCI-e (wifi-AC+bluetooth module), dual GB network, 6xSATA, J1900 quadcore processor passief gekoeld (evensnel als een core i5-1410 volgens cbu-boss) HDMI, USB3.0 en wordt betaalbaar zo rond de 185,-
Verwijderd
Even niets...
Verwijderd
[ Voor 5% gewijzigd door Verwijderd op 24-01-2014 22:40 ]
Verwijderd
SMA SB5.0 + 16x Jinko 310wp OWO + 10x Jinko 310wp WNW |--|--| Daikin 4MXM68N + 1x FTXA50AW + 3x FTXM20N
[ Voor 19% gewijzigd door ]Byte[ op 25-01-2014 09:53 ]
[ Voor 1% gewijzigd door Joni op 25-01-2014 11:00 . Reden: Blaasrichting klopte niet ]
Even niets...
Voor zover ik weet 6Gbps. De RE krijgt wel 600 als transfer snelheid, de RED's niet.
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq