Ik zie door de bomen het bos niet meer. Vergeef me mijn onwetendheid, ik ben primair een comp-sci student, en werk ernaast als php programmeur, dus ik ben nog niet helemaal op de hoogte van de beste oplossingen voor deployment van dingen.
Als volgt:
Als je een Laravel site wilt bouwen gebruik je (mogelijk):
Een vrij eenvoudige manier om een skeleton binnen te krijgen. Op m'n werk hebben we nu een soort "enhanced" skeleton, waar we een aparte map hebben waar wat CMS controllers/models/spul in staat. In de composer.json van die skeleton zijn autoload instellingen aangepast, in de global.php van Laravel registreren we bijv. view namespaces enzo,. Dan hebben we dus een soort niet-composer-package maar wel CMS waarmee je aan de slag kan. Dit alles staat in een private Github repository.
Momenteel is het oude "CMS" een paar bestanden die via ftp naar een bepaalde server gekopieerd wordt, men voegt wat site-specifieke php bestanden toe, en editen doen we gewoon lekker op de live server. Versie-beheer is er nog niet, enz. Als er van het "cms" wat veranderd word, dan betekent dat handmatig kopiëren naar alles. Daarnaast zijn m'n collega's beperkt vaardig met de command line, veel gaat via DirectAdmin.
Nu willen we het anders doen. Het moet meer in lijn met betrouwbaardere gebruiken. Ik ken vaag wat buzzwords van de nieuwe manier van deployen. Continuous integration, Git Flow, deploy vanuit Bitbucket enzo. Maar dit staat dus best ver af van wat mijn collega's gewend zijn. En belangrijk is hier een middenweg in te zoeken. Belangrijke context: ons bedrijf pakt regelmatig bestaande projecten op shared hosting elders aan. Daarom is het lastig te voorspellen wat voorhanden is. 80% van ons werk draait op een VPS. Het is wel chill als het ook een beetje robuust is en werkt op shared hosting, tenzij het helemaal dichtgetimmerd is.
Door die "middenweg" is het zo met die "backend" folder in de skeleton zoals ik hierboven schreef. Dan hebben we 1 github repo (we gebruiken de GitHub for Mac client om grafisch te houden), hoeven m'n collega's bijna niet met Composer aan de slag bijvoorbeeld. In Laravel heb je dan nog workbenches voor dingen, maar ik heb nog niet helemaal duidelijk hoe ik dat dus simpel kan houden voor m'n collega's, en dus doen we daar momenteel niks mee (Met alle respect natuurlijk,zijn harde werkers).
Ik heb gekeken hoe ik met composer een "create-project" kan doen met een private Github repository (, dat lukt prima. Dus er is een manier om die skeleton via ssh op locatie te krijgen. Ik heb een beginnetje gemaakt aan een install script, maar zit nu dus te twijfelen of dat wel the "way to go" is voor ik verder ga!
Kortom, we hebben een "skeleton", die als basis moet dienen voor alle nieuwe sites die we zouden bouwen. M'n collega's moet ik niet teveel gaan belasten met Composer & Bower & Grunt & Git & Jenkins &zovoort, maar een beetje mag wel! Hoe kan ik dit het beste aanpakken?
(Net kwam nog in me op dat als we een vps hebben, dat we dat misschien handig kunnen combineren met iets FTPloy misschien dat ik ooit langs zag komen? Ik heb geen idee. )

Als je een Laravel site wilt bouwen gebruik je (mogelijk):
code:
1
| composer create-project laravel/laravel {directory} 4.2 --prefer-dist |
Een vrij eenvoudige manier om een skeleton binnen te krijgen. Op m'n werk hebben we nu een soort "enhanced" skeleton, waar we een aparte map hebben waar wat CMS controllers/models/spul in staat. In de composer.json van die skeleton zijn autoload instellingen aangepast, in de global.php van Laravel registreren we bijv. view namespaces enzo,. Dan hebben we dus een soort niet-composer-package maar wel CMS waarmee je aan de slag kan. Dit alles staat in een private Github repository.
Momenteel is het oude "CMS" een paar bestanden die via ftp naar een bepaalde server gekopieerd wordt, men voegt wat site-specifieke php bestanden toe, en editen doen we gewoon lekker op de live server. Versie-beheer is er nog niet, enz. Als er van het "cms" wat veranderd word, dan betekent dat handmatig kopiëren naar alles. Daarnaast zijn m'n collega's beperkt vaardig met de command line, veel gaat via DirectAdmin.
Nu willen we het anders doen. Het moet meer in lijn met betrouwbaardere gebruiken. Ik ken vaag wat buzzwords van de nieuwe manier van deployen. Continuous integration, Git Flow, deploy vanuit Bitbucket enzo. Maar dit staat dus best ver af van wat mijn collega's gewend zijn. En belangrijk is hier een middenweg in te zoeken. Belangrijke context: ons bedrijf pakt regelmatig bestaande projecten op shared hosting elders aan. Daarom is het lastig te voorspellen wat voorhanden is. 80% van ons werk draait op een VPS. Het is wel chill als het ook een beetje robuust is en werkt op shared hosting, tenzij het helemaal dichtgetimmerd is.
Door die "middenweg" is het zo met die "backend" folder in de skeleton zoals ik hierboven schreef. Dan hebben we 1 github repo (we gebruiken de GitHub for Mac client om grafisch te houden), hoeven m'n collega's bijna niet met Composer aan de slag bijvoorbeeld. In Laravel heb je dan nog workbenches voor dingen, maar ik heb nog niet helemaal duidelijk hoe ik dat dus simpel kan houden voor m'n collega's, en dus doen we daar momenteel niks mee (Met alle respect natuurlijk,zijn harde werkers).
Ik heb gekeken hoe ik met composer een "create-project" kan doen met een private Github repository (, dat lukt prima. Dus er is een manier om die skeleton via ssh op locatie te krijgen. Ik heb een beginnetje gemaakt aan een install script, maar zit nu dus te twijfelen of dat wel the "way to go" is voor ik verder ga!
Kortom, we hebben een "skeleton", die als basis moet dienen voor alle nieuwe sites die we zouden bouwen. M'n collega's moet ik niet teveel gaan belasten met Composer & Bower & Grunt & Git & Jenkins &zovoort, maar een beetje mag wel! Hoe kan ik dit het beste aanpakken?
(Net kwam nog in me op dat als we een vps hebben, dat we dat misschien handig kunnen combineren met iets FTPloy misschien dat ik ooit langs zag komen? Ik heb geen idee. )
IMDB vote history | Next-gen OS, audio en video player, search engine en Movie DB