Hoi!
Ik weet dat ik niet zo vaak post op het forum
maar hier ben ik dan weer 
Alsook zal ik er al maar meteen bij vermelden dat mijn kennis over Linux ondermaats is voor hetgene ik eigenlijk wil hebben maar ik hou wel van een uitdaging
Ik heb een test omgeving beschikbaar met volgende hardware:
Intel Server Board S2600CP4
2x Intel E5-2620V2 (6C/12T)
64GB DDR3 REG ECC RAM (4x 16GB)
Intel HW RAID RMS25PB080
Maintenance Free Backup Unit
4x 900GB 10K SAS2 (RAID 10)
3x Intel X540-T2 10GBIT adapters.
Hiervan heb ik uiteraard zoals het topic al aangeeft 2 nodes.
Ik heb hierop Hyper-V staan als Hypervisor, met aan beide zijde 2x CentOS 7 hierop staat geinstalleerd:
DRBD, Targetcli, Corosync, Pacemaker, PCS
Met deze installatie wil ik een "High Available ISCSI Storage" omgeving maken, om te beginnen met Active-Passive en later als ik het wat beter onder de knie heb Active-Active.
Nu het opzetten van de gehele omgeving is me gelukt (Thanks Google) op een paar issues na.
Ik heb de Active-Passive draaien, zonder mulitpath op dit moment ofzo, met 1 virtueel IP verbonden aan een 10GBIT switch in Hyper-V en deze op zijn manier verbonden naar de fysieke netwerkadapter.
Als ik nu de netwerkverbinding verbreek dan heb ik 1x maal een mooie failover gehad zonder manueele tussenkomst van mezelf.
Eenmaal de netwerkverbinding terug actief op de node in kwestie probeerde ik dit aan de andere kant maar helaas hij moved zijn resources niet...
Als ik dan de cluster manueel failover gaat dit wel en als ik dezelfde handeling toepaste was het ook nougabolle
er gebeurde dus niets meer. (Ik heb al het 1 en ander gaan opzoeken over Heartbeat, hier zal ik mogelijks later dieper op in moeten gaan veronderstel ik.)
Maar ook heb ik het probleem dat ik op het DRBD niveau de disk /dev/sbd1 heb gekoppeld aan /dev/drbd0...
Nu als ik 1 van de 2 nodes reboot komt dit volume niet automatisch online, ik heb de betreffende filters toegepast in LVM, deze werken wel want hij scant zijn sdb1 partitie niet meer maar het drbd0 volume komt er nog steeds niet automatisch op te staan.
Alsook start drbd etc etc etc allemaal automatisch op tijdens het opstarten, want uiteraard komt het drbd0 volume alleen maar online als DRBD zelf actief is en de resources up zijn.
Toch eenmaal alles online is moet ik manueel een pvscan --cache commando uitvoeren vooraleer dit volume beschikbaar is en daarna kan ik gewoon weer verder...
Ik heb al vaak gelezen over timing issues etc etc etc, iets over dracuta -f (Ik weet niet goed wat dit doet, ik heb het al wel geprobeerd maar dit bracht geen oplossing)
Als kers op de taart verbind ik het ISCSI volume met een client welke ook 10GBIT nics heeft en Jumbo frames aangepast naar 9000 voor Linux en 9014 voor Windows merk ik op dat de performance van de betreffende iSCSI disk (Met HDTune, Ik weet dat dit mogelijks niet representatief is maargoed) echt slecht is, ik haal een read van +/- 60MB/s terwijl als ik op de host zelf een performance test ga doen op de de fysieke RAID set hier een goeie 250 a 300MB/s haal zonder problemen.
Hopelijk hebben jullie raad wat ik met deze issues kan aanvangen, uiteraard ben ik mezelf er vol op in aan't verdiepen maar aangezien mijn kennis niet sky-high is haal ik er nu toch wel wat hulp bij...
Verder zit ik er niet echt mee in om veel Try & Error te doen of de omgeving een aantal keer opnieuw op te zetten, ik ben al ver gekomen met de handleidingen op Linbit & Clusterlabs maar ikzelf ken helaas geen Linux engineers die ik onder vuur kan leggen met al mijn vragen.

Ik maak ook deze post om vooral ook naar andere ervaringen te luisteren in verband met High Available Storage over iSCSI liefst omdat ik me geen FiberChannel kan permitteren en ik heb het ook niet zomaar liggen op het werk
Er zullen ongetwijfeld ook mensen zijn die me doorverwijzen naar Open-E
Ik zal er alvast bij vermelden dat ikzelf dit product ken en ook een OECE (Open-E Certified Engineer) voor DSSV7 ben.
Dit is een goed product, maar ik zou graag meer kennis hebben over wat er onder de motorkap draait en wat er eigenlijk allemaal wel en niet kan, dit kan dus niet bij Open-E
, je krijgt een mooie web interface en je kan wat instellingen tweaken maar je krijgt geen echte toegang tot de command line (wat ik ook wel begrijp uiteraard.)
Ik hoop alvast te leren van de verschillende ervaringen die andere mensen hebben met dit onderwerp.
Mvg,
Steven
Ik weet dat ik niet zo vaak post op het forum
Alsook zal ik er al maar meteen bij vermelden dat mijn kennis over Linux ondermaats is voor hetgene ik eigenlijk wil hebben maar ik hou wel van een uitdaging
Ik heb een test omgeving beschikbaar met volgende hardware:
Intel Server Board S2600CP4
2x Intel E5-2620V2 (6C/12T)
64GB DDR3 REG ECC RAM (4x 16GB)
Intel HW RAID RMS25PB080
Maintenance Free Backup Unit
4x 900GB 10K SAS2 (RAID 10)
3x Intel X540-T2 10GBIT adapters.
Hiervan heb ik uiteraard zoals het topic al aangeeft 2 nodes.
Ik heb hierop Hyper-V staan als Hypervisor, met aan beide zijde 2x CentOS 7 hierop staat geinstalleerd:
DRBD, Targetcli, Corosync, Pacemaker, PCS
Met deze installatie wil ik een "High Available ISCSI Storage" omgeving maken, om te beginnen met Active-Passive en later als ik het wat beter onder de knie heb Active-Active.
Nu het opzetten van de gehele omgeving is me gelukt (Thanks Google) op een paar issues na.
Ik heb de Active-Passive draaien, zonder mulitpath op dit moment ofzo, met 1 virtueel IP verbonden aan een 10GBIT switch in Hyper-V en deze op zijn manier verbonden naar de fysieke netwerkadapter.
Als ik nu de netwerkverbinding verbreek dan heb ik 1x maal een mooie failover gehad zonder manueele tussenkomst van mezelf.
Eenmaal de netwerkverbinding terug actief op de node in kwestie probeerde ik dit aan de andere kant maar helaas hij moved zijn resources niet...
Als ik dan de cluster manueel failover gaat dit wel en als ik dezelfde handeling toepaste was het ook nougabolle
Maar ook heb ik het probleem dat ik op het DRBD niveau de disk /dev/sbd1 heb gekoppeld aan /dev/drbd0...
Nu als ik 1 van de 2 nodes reboot komt dit volume niet automatisch online, ik heb de betreffende filters toegepast in LVM, deze werken wel want hij scant zijn sdb1 partitie niet meer maar het drbd0 volume komt er nog steeds niet automatisch op te staan.
Alsook start drbd etc etc etc allemaal automatisch op tijdens het opstarten, want uiteraard komt het drbd0 volume alleen maar online als DRBD zelf actief is en de resources up zijn.
Toch eenmaal alles online is moet ik manueel een pvscan --cache commando uitvoeren vooraleer dit volume beschikbaar is en daarna kan ik gewoon weer verder...
Ik heb al vaak gelezen over timing issues etc etc etc, iets over dracuta -f (Ik weet niet goed wat dit doet, ik heb het al wel geprobeerd maar dit bracht geen oplossing)
Als kers op de taart verbind ik het ISCSI volume met een client welke ook 10GBIT nics heeft en Jumbo frames aangepast naar 9000 voor Linux en 9014 voor Windows merk ik op dat de performance van de betreffende iSCSI disk (Met HDTune, Ik weet dat dit mogelijks niet representatief is maargoed) echt slecht is, ik haal een read van +/- 60MB/s terwijl als ik op de host zelf een performance test ga doen op de de fysieke RAID set hier een goeie 250 a 300MB/s haal zonder problemen.
Hopelijk hebben jullie raad wat ik met deze issues kan aanvangen, uiteraard ben ik mezelf er vol op in aan't verdiepen maar aangezien mijn kennis niet sky-high is haal ik er nu toch wel wat hulp bij...
Verder zit ik er niet echt mee in om veel Try & Error te doen of de omgeving een aantal keer opnieuw op te zetten, ik ben al ver gekomen met de handleidingen op Linbit & Clusterlabs maar ikzelf ken helaas geen Linux engineers die ik onder vuur kan leggen met al mijn vragen.
Ik maak ook deze post om vooral ook naar andere ervaringen te luisteren in verband met High Available Storage over iSCSI liefst omdat ik me geen FiberChannel kan permitteren en ik heb het ook niet zomaar liggen op het werk
Er zullen ongetwijfeld ook mensen zijn die me doorverwijzen naar Open-E
Dit is een goed product, maar ik zou graag meer kennis hebben over wat er onder de motorkap draait en wat er eigenlijk allemaal wel en niet kan, dit kan dus niet bij Open-E
Ik hoop alvast te leren van de verschillende ervaringen die andere mensen hebben met dit onderwerp.
Mvg,
Steven