Het probleem
Wij gebruiken SharePoint MOSS 2007 met SQL 2005 om projecten op buitenlocaties mee te ontsluiten. Wij slaan alle informatie, dat wil zeggen email, correspondentie, tekeningen, contracten etc. op deze SharePoint.
Deze project SharePoint is in feite 1 site collection met zijn eigen content database.
Om SharePoint gebruikersvriendelijker en extra functionaliteit toe te voegen gebruiken we buiten Organice als schil over de SharePoint.
Nu is het dus zo dat deze site collections snel zeer groot worden. We zitten nu al op 1 project op 65 GB.
We verwachten dat nieuw op te starten projecten uiteindelijk op de 250GB uit zal komen.
Nu wordt er op internet en bij onze ICT afdeling vaker gesproken over een max. van 100GB voor de content database. Dit zou betekenen volgens deze richtlijn dat het nieuwe project in 3e (2x 100GB + 1x 50 GB) verdeeld moet worden.
Oplossing ICT afdeling
Ga met managed paths werken. Hierbij lijkt de site uit 1 site collection te bestaan maar in feite kunnen er meerdere site collections in 1 project gemaakt worden. Hierdoor zou een groot project in 2 of meerdere site collections te knippen zijn.
Echter werkt dit voor Organice niet omdat dit pakket niet over meerdere sites documenten kan versturen en registraties kan bijhouden. Ook de verwijzingen van de lookup's die gelijk over alle sites moeten zijn moeten dan op een of andere manier over deze sites gesynchroniseerd moeten worden.
Oplossing leverancier Organice
Die zoeken het in een extern pakket AvePoint DocAve Extension Archiver
Hierbij wordt de informatie i.p.v. in de SQL opgeslagen op de file-server met een link in de SQL. Dit maakt het mogelijk dat projecten veel groter kunnen worden immers de informatie staat op de file-server en in de SQL staan alleen maar verwijzingen.
Het probleem is nu een beetje dat ieder zijn eigen strategie wilt blijven volgen. Onze ICT zegt dus wij gaan de oplossing van Organice niet uitvoeren omdat de SharePoint een cluster server is, bestaande uit 4 front-end servers die allemaal aangepast moeten worden. De oplossing die onze ICT zelf aandraagt gaat dus ook niet werken met ons product wat we gebruiken.
Onze vragen
Is het limiet van 100 GB voor 1 content database met daarbij 1 site collection echt een limiet of zijn er ontwikkelingen op dit gebied?
Nu is onze vraag zijn er nog meer technische oplossingen mogelijk/denkbaar (bijv. meerdere content databases voor 1 site collection etc, SQL 2008, MOSS2010 etc)?
Of heeft iemand nog andere slimme ideeën?
Wij gebruiken SharePoint MOSS 2007 met SQL 2005 om projecten op buitenlocaties mee te ontsluiten. Wij slaan alle informatie, dat wil zeggen email, correspondentie, tekeningen, contracten etc. op deze SharePoint.
Deze project SharePoint is in feite 1 site collection met zijn eigen content database.
Om SharePoint gebruikersvriendelijker en extra functionaliteit toe te voegen gebruiken we buiten Organice als schil over de SharePoint.
Nu is het dus zo dat deze site collections snel zeer groot worden. We zitten nu al op 1 project op 65 GB.
We verwachten dat nieuw op te starten projecten uiteindelijk op de 250GB uit zal komen.
Nu wordt er op internet en bij onze ICT afdeling vaker gesproken over een max. van 100GB voor de content database. Dit zou betekenen volgens deze richtlijn dat het nieuwe project in 3e (2x 100GB + 1x 50 GB) verdeeld moet worden.
Oplossing ICT afdeling
Ga met managed paths werken. Hierbij lijkt de site uit 1 site collection te bestaan maar in feite kunnen er meerdere site collections in 1 project gemaakt worden. Hierdoor zou een groot project in 2 of meerdere site collections te knippen zijn.
Echter werkt dit voor Organice niet omdat dit pakket niet over meerdere sites documenten kan versturen en registraties kan bijhouden. Ook de verwijzingen van de lookup's die gelijk over alle sites moeten zijn moeten dan op een of andere manier over deze sites gesynchroniseerd moeten worden.
Oplossing leverancier Organice
Die zoeken het in een extern pakket AvePoint DocAve Extension Archiver
Hierbij wordt de informatie i.p.v. in de SQL opgeslagen op de file-server met een link in de SQL. Dit maakt het mogelijk dat projecten veel groter kunnen worden immers de informatie staat op de file-server en in de SQL staan alleen maar verwijzingen.
Het probleem is nu een beetje dat ieder zijn eigen strategie wilt blijven volgen. Onze ICT zegt dus wij gaan de oplossing van Organice niet uitvoeren omdat de SharePoint een cluster server is, bestaande uit 4 front-end servers die allemaal aangepast moeten worden. De oplossing die onze ICT zelf aandraagt gaat dus ook niet werken met ons product wat we gebruiken.
Onze vragen
Is het limiet van 100 GB voor 1 content database met daarbij 1 site collection echt een limiet of zijn er ontwikkelingen op dit gebied?
Nu is onze vraag zijn er nog meer technische oplossingen mogelijk/denkbaar (bijv. meerdere content databases voor 1 site collection etc, SQL 2008, MOSS2010 etc)?
Of heeft iemand nog andere slimme ideeën?