[wget] mediawiki kopiëren voor lokaal gebruik

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • ieperlingetje
  • Registratie: September 2007
  • Niet online
Ik probeer een mediawiki die ergens online staat binnen te halen via wget. Makkelijk zou je denken, helaas loop ik nu al de ganse tijd tegen het probleem dat ik wel één of andere uitzondering vergeet (komt waarschijnlijk door dit late uur) waardoor ik honderden dynamisch gegenereerde pagina's binnenhaal en ik weer van voor af aan kan beginnen. Op het internet laat men wget sites mirrorren simpelweg via wget -mk http://example.com/wiki maar dat is met een dynamische site onmogelijk. Momenteel doe ik het zo:

code:
1
wget -m -k -r -np --html-extension -l 0 -R *index.php*,*Talk:*,*Special*,*File:* http://example.com/wiki


Iemand die weet welke parameters nog moeten aangepast/toegevoegd worden om een mediawiki offline beschikbaar te maken (zonder toegang tot de database)? Gebruikers zonder technische kennis moeten er ook gebruik van kunnen maken, dus het liefst heb ik een werkbare kopie, waarbij de nodige css/js ingeladen wordt en de afbeeldingen blijven werken en waarbij alle artikelen beschikbaar zijn. Metadata zoals history en talk pagina's hoef ik echter niet, enkel de inhoud van de wiki is belangrijk.

Tijdmachine | Nieuws trends


Acties:
  • 0 Henk 'm!

  • aZuL2001
  • Registratie: September 2002
  • Laatst online: 20-09 13:16
Beheerder van de wiki al gevraagd?

Abort, Retry, Quake ???


Acties:
  • 0 Henk 'm!

  • ieperlingetje
  • Registratie: September 2007
  • Niet online
Dat is net het probleem, de site wordt niet meer onderhouden, en binnenkort gaat hij waarschijnlijk offline, dus wil ik nog snel een dump maken. De eigenaar heb ik al gevraagd om een database dump, maar hij laat niks van zich horen, dus wil ik het nu via wget proberen.

Tijdmachine | Nieuws trends