[Debian] Download Op Afstand

Pagina: 1
Acties:

  • ZanomiX
  • Registratie: Januari 2007
  • Laatst online: 13-06-2019
Ik zou graag op mijn debian bak willen downloaden. Nu ben ik gewoon om met FlashGet rapidshare links af te halen. Nu zou ik dit graag op mijn linux bak willen doen, maar via mijn windows machine. Uiteraard zou dit het beste gebeuren door een webinterface.

Na wat zoeken ben ik uitgekomen bij MLDonkey, ik heb ook mijn webui kunnen configureren maar toch kon ik geen rapidshare links toevoegen en downloaden. Dan heb ik maar gezocht achter een webui voor wget. Dit leverde ook geen goede resultaten en heb ik aria2 geprobeerd. Hier is echter geen goede interface voor te vinden.

Volgens mij zitten nog meerdere mensen met dit probleem en moet er toch iemand een oplossing hiervoor hebben. Ik heb geen GUI op mijn linuxbak, ik weet dat het mogelijk is om alles manueel toe te voegen via ssh maar ik zou graag wat gebruiksvriendelijker werken. Bestaat er zoiets om bestanden te downloaden op mijn linuxbak, na deze toe te voegen op mijn windoos (evt via een webui)? Transmission heeft een zeer goede Webui, namelijk Clutch, maar dit is enkel voor torrents als ik me niet vergis.

Zou het mogelijk zijn een simpel scriptje hiervoor te schrijven? Met php bijvoorbeeld?

Mvg

http://parkingwerchter.be


  • thijszor
  • Registratie: Mei 2005
  • Laatst online: 26-12-2025
Is het niet gewoon mogelijk om op de windows bak Dameware te zetten, VNC progseltje en dan je linux bak overnemen? :o

  • ZanomiX
  • Registratie: Januari 2007
  • Laatst online: 13-06-2019
thijszor schreef op zondag 21 december 2008 @ 12:50:
Is het niet gewoon mogelijk om op de windows bak Dameware te zetten, VNC progseltje en dan je linux bak overnemen? :o
Ik heb geen gui op mijn linuxbak, alles is commandline.

http://parkingwerchter.be


  • battler
  • Registratie: November 2004
  • Laatst online: 30-06-2025
Wat ik doe is bij UTorrent een monitor map aan maken. Alle files die daar in komen voegt hij automatisch toe als torrent. Deze map maak je benaderbaar via ftp en voila, toevoegen van torrents op afstand?

Lux.Architectuur | Van Dromen tot Wonen | www.Lux-a.nl


  • Icekiller2k6
  • Registratie: Februari 2005
  • Laatst online: 21:31
battler schreef op zondag 21 december 2008 @ 12:57:
Wat ik doe is bij UTorrent een monitor map aan maken. Alle files die daar in komen voegt hij automatisch toe als torrent. Deze map maak je benaderbaar via ftp en voila, toevoegen van torrents op afstand?
of zelfs een PHP upload page waarmee je .torrents, .nzb's etc kunt uploaden ;)

nog makkelijker

MT Venus E 5KW (V151) P1 HomeWizard | Hackerspace Brixel te Hasselt (BE) - http://www.brixel.be | 9800X3D, 96GB DDR5 6000MHZ, NVIDIA GEFORCE 4090, ASRock X670E Steel Legend, Seasonic GX1000


  • maleadt
  • Registratie: Januari 2006
  • Laatst online: 26-01 20:38
Ik kan er mij niet direct een kant-en-klare WebUI-based programma voor inbeelden, maar het is helemaal niet moeilijk om het zelf te doen.

1) maak/zoek een scriptje dat url's van rapidshare kan downloaden door uitlezen van een urls.txt.

2) Schedule dat script via /etc/crontab om regelmatig alle urls in die database te dloaden, en die database dan te legen

3) schrijf een eenvoudige php/perl pagina met textbox die url's toevoegt aan de locale urls database

Werkt natuurlijk enkel met premium account, anders wordt stap 1) nogal moeilijk.

Op fora lees ik dat het programmatje rsconsole nog goed werkt, maar de pagina lijkt down te zijn

  • ZanomiX
  • Registratie: Januari 2007
  • Laatst online: 13-06-2019
MALEADt schreef op zondag 21 december 2008 @ 13:00:
Ik kan er mij niet direct een kant-en-klare WebUI-based programma voor inbeelden, maar het is helemaal niet moeilijk om het zelf te doen.

1) maak/zoek een scriptje dat url's van rapidshare kan downloaden door uitlezen van een urls.txt.

2) Schedule dat script via /etc/crontab om regelmatig alle urls in die database te dloaden, en die database dan te legen

3) schrijf een eenvoudige php/perl pagina met textbox die url's toevoegt aan de locale urls database

Werkt natuurlijk enkel met premium account, anders wordt stap 1) nogal moeilijk.

Op fora lees ik dat het programmatje rsconsole nog goed werkt, maar de pagina lijkt down te zijn
Zo iets zou ideaal zijn, maar dit moet toch al bestaan? Eerlijk gezegd zou ik niet echt weten hier aan te beginnen.

http://parkingwerchter.be


  • maleadt
  • Registratie: Januari 2006
  • Laatst online: 26-01 20:38
ZanomiX schreef op zondag 21 december 2008 @ 13:11:
[...]


Zo iets zou ideaal zijn, maar dit moet toch al bestaan? Eerlijk gezegd zou ik niet echt weten hier aan te beginnen.
Geen chance, ik vind niet direct iets. Misschien heeft torrentflux (of torrentflux-b4rt) ergens een rapidshare plugin liggen, of is iemand bezig met het ontwikkelen van een webui voor jdownloader, maar dan kan ik ze toch niet vinden.

En wat betreft zelf schrijven, dat valt allemaal goed mee hoor. Pak het stap voor stap aan en binnen het uurtje kan zelf iedereen die wat met de console overweg kan een werkend systeem hebben :)


EDIT
om je wat op weg te helpen, dit is een script dat ik zelf gebruik om rapidshare url's via een premium account 's nachts binnen te halen:
code:
1
2
3
4
5
6
7
8
9
10
11
12
#!/bin/sh
cd /shared/downloads/rapidshare

#
# Download URL's listed in file "url"
#

wget -q --post-data="login=ACCOUNT&password=PASSWORD" --save-cookies=cookie_rapidshare https://ssl.rapidshare.com/cgi-bin/premiumzone.cgi -O /dev/null
wget -i urls --load-cookies=cookie_rapidshare
mv urls urls.done

rm -rf cookie_rapidshare


De volgende /etc/crontab entry start het script elke nacht om 0uur op
code:
1
0 0 * * *       root    nohup /shared/scripts/rapidshare.sh & >/dev/null


Heb het zelf niet zoveel gebruikt, er zit dus nog wat potentiëel in om te verbeteren:
• het script vroegtijdig afbreken als "urls" niet bestaat;
• het script niet direct callen, maar een init script schrijven (baseer je op iets in /etc/init.d), zodat je ook het script op nauwgezette uren kan stopzetten. Hiervoor zal je het script echter zelf ook moeten aanpassen, zodat de downloader continu de urls die hij net gedownload heeft verwijdert. Of je kan ook gebruik maken vna wget's "--continue" flag, maar dit is minder netjes :P

En nu gewoon nog een klein php script maken dat een tekstbox presenteert en de data naar zichzelf linkt. Bij aanwezigheid van een specifieke HTTP_GET data tag, de inhoud ervan toevoegen aan /shared/download/rapidshare/urls, en een berichtje tonen.

Faisable, non?

[ Voor 52% gewijzigd door maleadt op 21-12-2008 16:59 ]


  • ZanomiX
  • Registratie: Januari 2007
  • Laatst online: 13-06-2019
MALEADt schreef op zondag 21 december 2008 @ 16:52:
[...]

En nu gewoon nog een klein php script maken dat een tekstbox presenteert en de data naar zichzelf linkt. Bij aanwezigheid van een specifieke HTTP_GET data tag, de inhoud ervan toevoegen aan /shared/download/rapidshare/urls, en een berichtje tonen.

Faisable, non?
Inderdaad, ik ben er ook een beetje aan het prullen. Ik zal het laten weten wanneer ik iets werkend heb :p
Ik zet eerst alles in een bestandje, daarna haal ik de links in dat bestand binnen door
wget -i /var/www/tom/links -P /var/www --http-user=naam --http-password=pass


Hoe maak ik het bestandje het best leeg? Of controleer ik of het leeg is? Ik heb namelijk nog nooit een shell scriptje gemaakt
#!/bin/bash

test = cat /var/www/tom/links

if [ test = null ]; then

else
	wget -i /var/www/tom/links -P /var/www --http-user=naam --http-password=pass
	echo -n ""  > /var/www/tom/links
fi


enja, alles staat in mijn www dir maar dat is gewoon makkelijker om te testen zo :p

[ Voor 4% gewijzigd door ZanomiX op 21-12-2008 17:20 ]

http://parkingwerchter.be


  • maleadt
  • Registratie: Januari 2006
  • Laatst online: 26-01 20:38
Erasen van het bestand kan je inderdaad zo doen, of via "cat /dev/null > links" om het op de veelgebruikte methode te doen :P aantal URL's kan je via "wc" opzoeken
Bash:
1
2
3
4
if [ `cat links | wc -l` != 0 ]
then
    echo "Bestand niet leeg"
fi


En Rapidshare biedt toch geen HTTP-auth? Je moet dat toch via cookie authentication doen, of mis ik iets?

  • ZanomiX
  • Registratie: Januari 2007
  • Laatst online: 13-06-2019
MALEADt schreef op zondag 21 december 2008 @ 17:55:
Erasen van het bestand kan je inderdaad zo doen, of via "cat /dev/null > links" om het op de veelgebruikte methode te doen :P aantal URL's kan je via "wc" opzoeken
Bash:
1
2
3
4
if [ `cat links | wc -l` != 0 ]
then
    echo "Bestand niet leeg"
fi


En Rapidshare biedt toch geen HTTP-auth? Je moet dat toch via cookie authentication doen, of mis ik iets?
Ik heb het commando uitgetest op een 8-tal links en het werkt :p

Bedankt, dat kan ik zeker gebruiken :)

http://parkingwerchter.be

Pagina: 1