We zijn nu aan het kijken voor nieuwe database servers, en goede storage vinden is best lastig. We zitten met een database van 220GB, die tot eind 2012 zal groeien naar zo'n 1.2TB. Lees/schrijf verhouding is ongeveer 3:1, en die verhouding zal waarschijnlijk groeien naar 4:1 of 5:1. Een sloot CPU's en een bak memory is redelijk triviaal. Goede IO echter niet. We willen in ieder geval zorgen dat we die 1.2TB vol kunnen schrijven, met optie om later volgend jaar bij te plaatsen.
Eerst dachten we te kijken naar een oplossing met enkel SSD. Gezien het aantal writes zijn echter de goedkopere SSD's (Intel 320) niet interessant. Met Intel 710 explodeert het budget flink.
We willen dus kijken naar alternatieve oplossingen. Enkel SAS disks is helaas niet snel genoeg (zit ook in de huidige server). Een van de oplossingen is het gebruik van SSD caching via de RAID controller, zoals Adaptec maxCache, of LSI CacheCade. Adaptec rommel hoef ik niet meer, dus dan zou LSI overblijven. Ik kan hier echter geen serieuze ervaringen van vinden i.c.m databases. Er is eigenlijk maar een serieuze review te vinden van het ding, en die laat veelbelovende dingen zien. twee of vier Intel X25-E's (die we nog hebben) met 4x600GB SAS in RAID10 zou ons dan voorlopig voldoende storage geven.
Ander alternatief is het gebruik van ZFS i.c.m BSD of Solaris. Dit kennen we al omdat we er ooit al een keer een database server mee gedraaid hebben. Configuratie en management zijn zeer prettig, maar ook hier geldt weer: bijna 0 ervaringen te vinden over een dergelijke setup i.c.m een serieuze PostgreSQL database.
In basis doet ZFS met CLOG en L2ARC hetzelfde als CacheCade, maar ZFS doet natuurlijk nog wel wat meer (checksums bv). Verder is er een voordeel dat zowel RAM als disk cache beiden zoor ZFS gemanaged worden. Hierdoor wordt er minder data dubbel bijgehouden, waardoor de efficiëntie omhoog zou moeten zijn.
Hoe dat in de praktijk uitpakt weet ik dus niet... Aan jullie de vraag wat voor ervaringen of ideeën jullie hebben? We hadden zelf in ieder geval het plan om een Chassis te kopen waarmee we e.a kunnen testen (CacheCade kun je als trail testen), ZFS kan prima via de zelfde LSI controller.
Eerst dachten we te kijken naar een oplossing met enkel SSD. Gezien het aantal writes zijn echter de goedkopere SSD's (Intel 320) niet interessant. Met Intel 710 explodeert het budget flink.
We willen dus kijken naar alternatieve oplossingen. Enkel SAS disks is helaas niet snel genoeg (zit ook in de huidige server). Een van de oplossingen is het gebruik van SSD caching via de RAID controller, zoals Adaptec maxCache, of LSI CacheCade. Adaptec rommel hoef ik niet meer, dus dan zou LSI overblijven. Ik kan hier echter geen serieuze ervaringen van vinden i.c.m databases. Er is eigenlijk maar een serieuze review te vinden van het ding, en die laat veelbelovende dingen zien. twee of vier Intel X25-E's (die we nog hebben) met 4x600GB SAS in RAID10 zou ons dan voorlopig voldoende storage geven.
Ander alternatief is het gebruik van ZFS i.c.m BSD of Solaris. Dit kennen we al omdat we er ooit al een keer een database server mee gedraaid hebben. Configuratie en management zijn zeer prettig, maar ook hier geldt weer: bijna 0 ervaringen te vinden over een dergelijke setup i.c.m een serieuze PostgreSQL database.
In basis doet ZFS met CLOG en L2ARC hetzelfde als CacheCade, maar ZFS doet natuurlijk nog wel wat meer (checksums bv). Verder is er een voordeel dat zowel RAM als disk cache beiden zoor ZFS gemanaged worden. Hierdoor wordt er minder data dubbel bijgehouden, waardoor de efficiëntie omhoog zou moeten zijn.
Hoe dat in de praktijk uitpakt weet ik dus niet... Aan jullie de vraag wat voor ervaringen of ideeën jullie hebben? We hadden zelf in ieder geval het plan om een Chassis te kopen waarmee we e.a kunnen testen (CacheCade kun je als trail testen), ZFS kan prima via de zelfde LSI controller.
Do diamonds shine on the dark side of the moon :?