hoe webpagina back-uppen met Wget?

Pagina: 1
Acties:

  • ieder1
  • Registratie: Oktober 2003
  • Laatst online: 07-08 20:12
de school waarop ik werk gaat zijn website ergens anders hosten. nu wil ik graag een back-up maken van de huidige website omdat die per 1 januari al uit de lucht gaat.

ik heb begrepen dat dat kan met wget. ik heb de windows versie geinstalleerd en werkend gekregen. ik zie alleen de bomen niet meer door het bos van commando's.

het gaar er dus om, om een volledig domein te back-uppen. wie kan me daarbij helpen??

(ps. moderator: als dit topic naar jouw mening op de verkeerde plaats staat: graag verplaatsen naar waar jij nodig acht! :) )

the trick is to keep breathing


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Euhm... waarom niet de beheerders op jouw school vragen die de inlog hebben waar het gehost is, en het zo ff downloaden via FTP?

De files zouden toch ook ergens anders staan, bij degene die de site gemaakt heeft? :?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • bartgabriels
  • Registratie: April 2005
  • Laatst online: 15-03-2022

  • rhodium
  • Registratie: Augustus 2003
  • Laatst online: 20:24
wget is geen backup tool, maar een download tool. Hiermee kan je mits je via ftp access je site download geen php, asp, cgi backupt.

Is het alleen HTML dan wget -r http://nogwat.nl dacht ik zo.

  • ieder1
  • Registratie: Oktober 2003
  • Laatst online: 07-08 20:12
alvast bedankt voor de reacties allemaal! :)

ik heb zelf toegang tot de website dus ik kan in principe overal bij maar het is niet heel gebruiksvriendelijk allemaal. ik moet dan alle mapjes apart langsgaan en saven. daarbij staat er ook een hoop oude meuk op. ik wil dus alleen alles wat actief is back-uppen.

overigens is het volgens mij volledig platte html dus dat zou geen problemen op moeten leveren.

ik zal morgen ook meteen httracker uitproberen.

overigens loopt wget nu na de toevoeging van -r zoals rhodium suggereeerde dus ik ben benieuwd! :)

the trick is to keep breathing


  • Neo
  • Registratie: Juli 2003
  • Laatst online: 06:30

Neo

Kijk eens naar http://debaday.debian.net...k-website-crawler-copier/

Het is een website crawler/copier die wel doet wat jij wilt.


Edit: Spuit 11

[ Voor 7% gewijzigd door Neo op 17-12-2007 20:27 ]


Verwijderd

Als je toegang hebt met ftp is dat toch veel makkelijker (zoals eerder gesuggereerd)? Volgens mij kan je zelfs met je internet browser de bestanden en mappen selecteren en slepen naar je harde schijf. Progsels die sites 'rippen' voegen vaak nog een troep aan code toe om het browsbaar te maken vanaf je hd.

  • ieder1
  • Registratie: Oktober 2003
  • Laatst online: 07-08 20:12
voor zover ik weet kunnen wij de website niet via ftp benaderen, helaas. ;(

the trick is to keep breathing

Pagina: 1