Moeilijker dan zonder RAID, maar hoezo zou dit lastiger dan hardware RAID zijn? Ik zou zeggen andersom; van alle RAID is software RAID het makkelijkst te configureren. Niet in de laatste plaats omdat je geen additionele hardware nodig hebt; het werkt op elke controller met de juiste software.
je bent TRIM kwijt
Alleen onder slechte oplossingen zoals onder Windows veelal gebruikt werd. Goede software RAID en andere I/O technieken ondersteunen gewoon TRIM, UNMAP en CF ERASE, zoals het FreeBSD platform.
en het blijft de CPU belasten.
Dat doe je ook als je zonder RAID naar een volume schrijft. De RAID0 of RAID1 overhead die daar bovenop komt is nihil. Bij RAID5 is het nét iets anders, maar niet om de reden dat veel mensen denken (door parity-berekeningen). RAID CPU overhead is grotendeels een mythe.
Met hardware RAID heb je ook geen trim maar word de CPU niet belast en is het instaleren simpel

Dat laatste is niet mijn ervaring. Je CPU wordt ook wel degelijk belast. Blijft over het enige nadeel: je hebt geen TRIM.
Per defenitie word de random accesstime met RAID langzamer
Dat is een vastgeroeste mythe die van toepassing is op RAID0 volumes met een te lage stripesize, dan neemt de access time toe met elke hardeschijf die wordt toegevoegd. Dit is enkel van toepassing op niet-optimale arrays waarbij de stripesize te laag is zodat een I/O request door meerdere drives moet worden afgewikkeld. Doordat hierbij geldt dat de zwakste schakel de performance bepaalt, betekent dit ook dat de schijf die als laatste over de streep komt ook de access time bepaalt.
Uiteraard geldt dit niet voor normale optimale striping/interleaving schema's, anders zou de access time van SSDs die tot 16-voudige RAID0/interleaving gebruiken al snel buiten de perken schieten.
Kortom, tijd om je kennis over RAID wat op te frissen, want wat je nu verkondigt zijn vrij ouderwetse denkbeelden in een tijdperk dat 'men' nauwelijks wist hoe RAID werkte en welke performance-eigenschappen je krijgt met stripesize en alignment en queue depth. Dat stadium zijn velen nu wel voorbij; interleaving is één van de meest wijdverspreide toegepaste technieken die prestaties op een gemakkelijke en goedkope manier flink kunnen verhogen.
@TS: merk op dat SSDs vooral goed zijn in random access en hardeschijven vooral goed zijn in het verwerken van grote bestanden zoals voornamelijk bij videobewerking van toepassing is. SSDs die kunnen schrijven @ 500MB/s per stuk zijn vrij zeldzaam. Dat lukt ook alleen door heel veel SSDs (NAND kanalen) in RAID0 te plaatsen. Dat is wat een moderne SSD is; een Crucial M4 SSD heeft 16-way interleaving en kun je dus beschouwen als 16 SSDs die in RAID0 geplaatst zijn. Dit is ook de reden dat de 4K random read performacne voor vrijwel alle SSDs beperkt is tot 20MB/s; dit is de enkelkanaals performance van NAND wat volledig gebottlenecked wordt door latency. De RAID0/interleaving architectuur van moderne SSDs kan dit type performance niet versnellen. Precies hetzelfde geldt voor software matige RAID0; daar zul je ook zien dat enkel de 4K-64 read verdubbelt terwijl de 4K met enkele queue depth gelijk blijft.
Wat is nu wijsheid? Soms is wijsheid dat je meerdere HDDs in RAID0 zet wanneer je hoge sequential I/O wilt hebben. Vooral als je heel veel schrijft als zware gebruiker. Maar moderne SSDs zoals de Marvell 9187 en Samsung 840Pro kunnen dat wel bereiken. Zelf denk ik dat je ook een RAID-array van hardeschijven kunt overwegen. Je hebt dan wel lekker heel veel ruimte erbij, en haalt hetzelfde performacnetarget met hetzelfde geld of minder.