Het is niet mijn bedoeling om een hele flameware te starten maar ik wil toch eventjes inhoudelijk reageren op deze reactie. Het was naar mijn mening ook het idee een discussie te voeren en niet een betoogreden waarom of hoe slecht iets wel niet is.
Uiteraard, maar dat is vaak helemaal niet zo erg, zo lang het meer informatie of meningen aan het onderwerp toevoegt, alleen maar goed! Enigszins geïnformeerd zijn is daarbij wel zo fijn. Wel vind ik je vorm van schrijven enigszins dwingend overkomen, maar dat kan ook aan mij liggen.
Nee
Fijn, daar gaat de hele discussie om, maar naar mijn mening is het antwoord niet dermate simpel.
In iedere productie omgeving wil je niet dat de storage minuten blijft hangen. Als je een desktop hebt met 1 drive zonder redundancy is het anders. Ook heb ik uitgelegd dat andere componenten als ESXi en guest OS's niet goed reageren op lang io timeout's, zonder allerlei tweaks.
We hebben het hier dan ook niet om een zakelijke productie omgeving maar om 'huis' servers. Dan nog is de discussie ook voor de professionele wereld uiteraard interessant, maar het zijn 2 verschillende gebieden die wellicht een ander antwoord krijgen op dezelfde vraag. Ik ben blij dat je ons eventjes hebt uitgelegd hoe ESXi en een guest OS werkt, naar mijn mening heeft een draaiende VM en ESXi niet zoveel last van een tijdelijk hangend storage systeem zolang deze daar eventjes niets van vraagt of op staat te wachten. ESXi heeft juist heel erg goede recovery mechanismes tegen tijdelijk wegvallende disks. Maar dat het niet ideaal is, sure.

Ik hoop dat je mijn uitleg nogmaals wil lezen. Want de meeste FS zijn niet afhankelijk van timeouts, net als ZFS.
Waarom je het hier over een FileSystem hebt terwijl ik het over een hardware RAID controller heb weet ik niet helemaal. Timeouts zijn hoe dan ook nooit ideaal.
Dit is al heel lang instelbaar. Alleen werd het vaak via custom firmware door de array fabrikant geregeld. Zakelijke gebruikers, kopen niet WD of Seagate. Maar kopen een totaal product van EMC of NetApp. Zij gaan niet zelf arrays samenstellen.
Heel goed, zo werken professionele systemen inderdaad al jaren, daarnaast is de SCSI/SAS instructie set een stuk uitgebreider. Maar, uiteindelijk zitten er dezelfde disks in, ze vragen er alleen 5x zoveel voor. Ook is het zo dat op de meeste consumenten schijven het tot voor kort instelbaar was via smartctl en dergelijke maar dat dit een reboot niet overleefde. Op Linux/BSD gebaseerde systemen is dat gelukkig niet zo erg omdat het tijdens elke boot opnieuw ingesteld kan worden.
Ja, het stallen van io pipeline klopt. Ik heb hierboven en eerder een voorbeeld gegeven waar het wel degelijk iets uitmaakt. En ook gezegd dat het misschien niets uitmaakt, dat moet jij als gebruiker uitzoeken en testen. Bij standaard ESXi en guest OS's maakt het WEL wat uit.
Ik heb nooit beweerd dat dit niet uitmaakt, uiteraard is dat vervelend/naar. Maar zoals ik schreef zijn er situaties denkbaar waarbij het toch wenselijk is tegenover de andere optie, data verlies. Dus?
Kies maar: of betere redundancy (triple mirrors ofraidz2 of raidz3) OF allemaal ellende omdat je zpool minuten lang hangt.
Volledig afhankelijk van de situatie en de waarde die je aan je data hecht. Voor thuis of in de zakelijke markt zijn die eisen compleet anders, mede met het prijskaartje wat er aan vast hangt. Koop dan een mooi HDS array met 100% uptime garantie!

Heeft niks met ZFS te maken. Wordt geregeld in de disk en hba drivers. Zie eerdere post voor meer details.
Ja, en, dan, dus? Daar hebben we het toch juist over? Zeker als we kijken dat veelal ZFS word gezien als vervanging van een hardware RAID controller. Dat het in de werkelijkheid een filesystem is die ook voor bepaalde RAID functionaliteit zorgt is bijkomstigheid en niet zoals veel mensen het bekijken.
Retry strategieën zitten in de disk en hba driver en drive firmware. De drivers zijn open source, als jij een eigen strategie wil toepassen, ga je gang. Dat is het mooie van open source. Maar denk even goed na voordat je daaraan begint. Kan jij een betere strategie ontwikkelen dan de duizenden mensen die zich de laatste 20 jaar hiermee bezig hebben gehouden. Je data verlies los je op met een extra drive en daarna eventueel betere drives. Voor iets meer dan 100 euro ben je klaar. En wat als je je zpool verliest? Je hebt toch backups?

Dude, daar gaat de complete discussie toch niet over? Het gaat erover dat met de hardware die gemiddeld genomen gebruikt word door de mensen op dit forum (en de thuis ZFS situatie) hoe daar het beste mee om te gaan. Compleet nutteloze opmerking om dan te gaan roepen dat iemand maar zelf eventjes een AHCI driver moet gaan herschrijven.

Die onderliggende lagen zijn GEOM en CAM. GEOM is al heel oud, FreeBSD 5.0. CAM pas sinds FreeBSD 8.0 Beide zijn goede frameworks. Persoonlijk denk ik dat CAM een hogere waarde heeft dan GEOM. CAM heb je altijd nodig GEOM niet. CAM houd net zo vast aan SCSI als wie dan ook. Die oude systemen zijn een stuk robuster dan CAM en GEOM als je kijk naar de hoeveelheid fixes. De oude systemen krijgen geen fixes omdat ze goed zijn, CAM en GEOM hebben nog lang niet dat niveau bereikt.
Iets anders is dat deze nieuwe frameworks nieuwe ontwikkelingen mogelijk maken en geen erfenis hebben van 20 jaar.
De oude systemen krijgen geen fixes omdat ze OUD zijn, zo werkt dat overal in de professionele wereld, zegt over het algemeen vrij weinig of niets over de kwaliteit ervan. Bewezen is wat anders dan kwaliteit overigens. Ook moeten bepaalde technieken met de tijd mee door immer groeiende capaciteit en I/O behoeften.
Dit is kul. Verdiep je er wat meer in voordat je dit soort uitspraken doet. Een PCIe SSD kan lagere latency en kan hogere doorvoersnelheden bereiken omdat het op de PCIe bus zit, die sneller is dan SAS of SATA en geen hba nodig heeft. Maar al deze apparaten hebben een driver die het als disk laat verschijnen. En hoe spreek je die aan? Via je storage laag.
Pardon?

Dat ligt eraan over wat voor markt we praten. Praten we FusionIO of bijvoorbeeld een Violin Memory dan zijn er andere technieken nodig om een hogere performance te kunnen halen.
http://www.fusionio.com/white-papers/beyond-ssd/ . Overigens is bij een PCIe SSD die kaart zelf de HBA. Verder is dit type PCIe controller sterk in opkomst voor bijvoorbeeld host based caching, of in nieuwere storage arrays zoals Pure Storage. Met de tijd mee gaan, SAS is leuk, maar zeker niet het einde.
Lees bovenstaande nog eens. Ik schreef dat voor de meeste mensen TLER wel van meerwaarde is. En ja het is een keuze die je zelf moet maken. Ik heb alleen uitgelegd wat de gevolgen zijn voor diverse setups als je wel of geen TLER hebt.
Exact het is een keuze die afhankelijk is van een mening wat er belangrijker is, dat zijn we aan het discussiëren.
Alleen zal die timeout een hele kostbare device reset tot gevolg hebben. Het is niet hetzelfde als TLER. TLER is alleen een verkorte timeout voor lezen en schrijven. Die 'enterprise controllers' hebben dit soort settings ook niet nodig. De drives hebben aangepaste firmware en het OS regelt de rest.
Zeker, helemaal waar. Gelukkig hebben we het nu over een discussie qua ZFS en de hier geregeld gebruikte hardware.
Maar eventjes zonder gekkigheid, we hebben hier een discussie over een bepaalde situatie. Is TLER nodig voor in de thuis situatie met ZFS of niet. Verder valt er natuurlijk te discussiëren over wat het ook in andere situaties moet zijn, daar is niets mis mee.
Dat TLER is bedrijfs situaties IO stalls kan voorkomen is uiteraard een goed argument, maar we zijn meer op zoek naar de gevolgen daarvan en wat de gevolgen zijn van dergelijke keuzes. Is het zonder TLER bruikbaar of is dat eigenlijk echt niet te doen.
Persoonlijk voor mij is het zo dat ik het de premium van een RED tegenover een Green niet waard vind voor in een thuis situatie. Verder heb ik mijn data ingedeeld in verschillende classificaties. Laag 1 is puur unieke content die veelal zelf gegeneerd is (Foto's, video's, e-mail, etc.) deze staat op de RAID set, met een kopie op nog een aparte mirror en deze data zit in CrashPlan die elk kwartier een backup maakt (Op dit moment nog 18.9 dagen resterend voor de initiale full). Laag 2 staat op de RAIDz1 en dat wil ik graag behouden, zou dat worst case ooit weg zijn, nou ja, jammer. En Laag 3 staat nu ook op de RAIDz1 maar als dat weg zou zijn, dan download ik het weer opnieuw. Er zitten hier genoeg mensen die redelijk wat van storage afweten, waaronder mezelf die toch al zo'n 16 jaar met huis/tuin en keuken storage spul werkt tot aan de grote enterprise systemen. Dus wellicht is het een idee om de discussie iets meer open te houden?
p.s. Ik ben overigens al vele jaren bezig met dit probleem/topic, zie ook bijvoorbeeld mijn posts op een ander forum hierover uit 2010:
http://forums.storagerevi.../28333-tler-cctl/?hl=tler . Toen was dat allemaal nog makkelijk aan te passen.