Waar haal jij de Nzb archives vandaan?kmf schreef op maandag 17 december 2012 @ 09:16:
Ik moet zeggen dat ik vrij tevreden ben met mijn setup nu.
Ik heb een HP40L microserver met ubuntu, apache en mysql.
10GB RAM. OS staat op HDD, Mysql op een Crucial M4 van 128GB
MySQL is innodb, met Inno-file per table.
Afgelopen week heb ik 380.000 releases verwerkt. Allemaal van de nzb-archives. Ik denk dat ik nu ongeveer 50% heb verwerkt. Dus ongeveer 2-3 jaar aan materiaal.
Ik laat de database elke keer tot 80GB groeien, en dan optimize ik de database weer. Deze wordt dan weer rond de 15GB.
De update scripts heb ik wel wat aangepast.
Ik draai nu een custom cleanup script. Deze blijft op de achtergrond de verwerkte en dubbele parts opschonen (procstate =4 of 6)
Ik heb een aparte script welke de geselecteerde groepen blijft refreshen. Maar dan alleen update_binaries_threaded.php
Ik heb een stuk of 10 threads lopen, welke de nzb-archives importeert.
Daarnaast draait een script welke de releases doorvoert. (deze is de traagste omdat deze een enorme bak aan backfills moet verwerken.)
Kon ik toch niet wetenkmf schreef op maandag 17 december 2012 @ 13:27:
(je had me gewoon een invite moeten sturen om je mee te helpen)
Thanks voor de uitleg.
Voor Newznab+ donateurs only.joosthaarman schreef op maandag 17 december 2012 @ 13:35:
Waar haal jij de Nzb archives vandaan?
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Ik heb de plus versie... alleen ben dit nog niet tegen gekomen!
Edit:
Of is dit het "Index NZB Contents:"
Edit:
Of is dit het "Index NZB Contents:"
[ Voor 27% gewijzigd door Aapie op 17-12-2012 13:48 ]
Ik kan hem ook niet vinden (ben donateur). Waar staat de file precies?Freekers schreef op maandag 17 december 2012 @ 13:42:
[...]
Kon ik toch niet weten? Check je DM.
Thanks voor de uitleg.
[...]
Voor Newznab+ donateurs only.
Freekers schreef op maandag 17 december 2012 @ 13:09:
Mensen, stop met het vragen EN aanbieden van Invites. Dadelijk gaat dit topic dicht en zijn alle indexers die technische hulp nodig hebben nog verder van huis. Uiteindelijk heb je alleen maar jezelf ermee.
Als je indexer bent, zorg dat je in dit topic in de OP vermeld staat als Indexer: [Newznab] newznab community's - deel 1
Ik ben er ook naar toevallig achter gekomen. Je moet op d'r newznab irc een pm met je dinateurmail sturen om de links te krijgen. De link verandert steedsjoosthaarman schreef op maandag 17 december 2012 @ 13:43:
Ik heb de plus versie... alleen ben dit nog niet tegen gekomen!
Edit:
Of is dit het "Index NZB Contents:"
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Ik ben ermee aan de slag gegaan, maar ik vraag me af wat het verschil is met deze methode die ik voorbij heb zien komen:kmf schreef op maandag 17 december 2012 @ 13:27:
Als je dit in je my.cnf zet, dan krijg je een inno per tabel.
code:
1 2 3 4 [mysqld] innodb_file_per_table #innodb_log_file_size=1G #innodb_buffer_pool_size=4G
Mogelijk moet je je bestaande tabel wel eerst omzetten naar myisam en dan weer innodb om dat mogelijk te maken.
Ik hoop dat het hier in de firstpost komt. We hebben een centrale plek nodig.
sudo mysql -p use newznab; ALTER TABLE parts ENGINE = INNODB; ALTER TABLE binaries ENGINE = INNODB; ALTER TABLE partrepair ENGINE = INNODB; quit
Maar natuurlijk. Ik zal sowieso de OP binnenkort updaten. De afgelopen week is veel gebeurd in Newznab land, dus is het misschien ook handig om wat duidelijkheid te scheppen over zaken zoals deze:kmf schreef op maandag 17 december 2012 @ 13:27:
Ik hoop dat het hier in de firstpost komt. We hebben een centrale plek nodig.
Simkin schreef op maandag 17 december 2012 @ 14:15:
Ik kan hem ook niet vinden (ben donateur). Waar staat de file precies?
(Zie antwoord van Kmf, hij was me net voorjoosthaarman schreef op maandag 17 december 2012 @ 13:43:
Ik heb de plus versie... alleen ben dit nog niet tegen gekomen!
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Puuh ben niet zo beken met irc moet ik dm naar de personen in het rood? op hun webclient irc?
Nvm..
Volgens mij al gevonden! Een dm naar een op of owner??
Nvm..
Volgens mij al gevonden! Een dm naar een op of owner??
[ Voor 26% gewijzigd door Aapie op 17-12-2012 14:48 ]
Dit zijn best mooie prijzen, als we er voor zouden kiezen om het op een server te hosten ipv "thuis"
http://express.ikoula.co.uk/12-21-2012
http://express.ikoula.co.uk/12-21-2012
[ Voor 17% gewijzigd door Limbeckx op 17-12-2012 14:49 ]
www.isgenoeg.nl is goedkoper, aangezien dit geen recurring discount isECiftci schreef op maandag 17 december 2012 @ 14:47:
Dit zijn best mooie prijzen, als we er voor zouden kiezen om het op een server te hosten ipv "thuis"
http://express.ikoula.co.uk/12-21-2012
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Nou het is gelukt en heb de links gekregen.. wel stom dat je ze via torrent moet downloaden, maar het is niet anders.
Het voorgaande zijn de instellingen. Wat je hebt gequote zijn de echte commando's om te selecteren welke tabel innodb moet worden.Freekers schreef op maandag 17 december 2012 @ 14:31:
[...]
Ik ben ermee aan de slag gegaan, maar ik vraag me af wat het verschil is met deze methode die ik voorbij heb zien komen:
sudo mysql -p use newznab; ALTER TABLE parts ENGINE = INNODB; ALTER TABLE binaries ENGINE = INNODB; ALTER TABLE partrepair ENGINE = INNODB; quit
Die drie zijn de tabellen welke het meest te lijden hebben van table locks en mogelijk corruptie (als je myisam gebruikt), daarom moeten ze op innodb.
Maar innodb standaard instellingen zijn niet zo super handig gemaakt op z'n zacht gezegd. Daarom mijn instellingen.
(ik heb het geheugen/buffer uitgequote. Deze mag ook nog wel aan gezet worden, maar dan wel aangepast naar jouw eigen geheugenhoeveelheid. Als het maar log-geheugen ratio maar 1:4 is.
)
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Bedankt voor je antwoord.kmf schreef op maandag 17 december 2012 @ 15:30:
Het voorgaande zijn de instellingen. Wat je hebt gequote zijn de echte commando's om te selecteren welke tabel innodb moet worden.
Die drie zijn de tabellen welke het meest te lijden hebben van table locks en mogelijk corruptie (als je myisam gebruikt), daarom moeten ze op innodb.
Maar innodb standaard instellingen zijn niet zo super handig gemaakt op z'n zacht gezegd. Daarom mijn instellingen.
(ik heb het geheugen/buffer uitgequote. Deze mag ook nog wel aan gezet worden, maar dan wel aangepast naar jouw eigen geheugenhoeveelheid. Als het maar log-geheugen ratio maar 1:4 is.
)
Aha, OK. Maar met jouw verandering in my.cnf worden bestaande myisam tabellen dus ook omgezet naar innodb, of heb ik dat verkeerd begrepen?
Alvast bedankt.
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
nee. bestaande myisam blijven myisam. Je moet zelf de tabellen omzetten.
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Goed, bedankt, dan zal ik me daar maar eens in gaan verdiepen.kmf schreef op maandag 17 december 2012 @ 16:10:
nee. bestaande myisam blijven myisam. Je moet zelf de tabellen omzetten.
Nog een vraagje: Krijgt de database van Newznab voornamelijk OLTP (general-purpose transactional, web application), OLAP (data warehousing, analytics, business intelligence), of read-mostly (forums, blogs, static data) workload voor z'n kiezen? Ik dacht zelf OLAP?
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Verwijderd
zo jongens loopt nu lekker hier
database begint aardig te vullen, mis alleen alle 3D films op dit moment, in welke groep worden deze gepost?
Verwijderd
Ik probeer nog maar één groep te vullen, maar ik krijg steeds constant "Getting next article date... -INF" bij het uitvoeren van /newznab/misc/update_scripts/nix_scripts/newznab_screen_local.sh
Heb ik gewoon niet genoeg geduld, of doe ik iets ontzettend fout?
Nogmaals uitvoeren en ik krijg: Stage 1 : Applying regex to binaries
Dat zal wel even duren op een Atom doosje ja
Heb ik gewoon niet genoeg geduld, of doe ik iets ontzettend fout?
Nogmaals uitvoeren en ik krijg: Stage 1 : Applying regex to binaries
Dat zal wel even duren op een Atom doosje ja
[ Voor 20% gewijzigd door Verwijderd op 17-12-2012 18:19 ]
Verwijderd
Dat valt wel mee hoorVerwijderd schreef op maandag 17 december 2012 @ 18:12:
Ik probeer nog maar één groep te vullen, maar ik krijg steeds constant "Getting next article date... -INF" bij het uitvoeren van /newznab/misc/update_scripts/nix_scripts/newznab_screen_local.sh
Heb ik gewoon niet genoeg geduld, of doe ik iets ontzettend fout?
Nogmaals uitvoeren en ik krijg: Stage 1 : Applying regex to binaries
Dat zal wel even duren op een Atom doosje ja
Heeft er iemand een regexe voor nederlandse releases? denk aan QOQ en SRT, TVFREAKS etc
Ik heb nu:
code:
1
| /^.*?QoQ.*?\[(?P<parts>\d{1,3}\/\d{1,3})\].*?\"(?P<name>.*?)\.(sample|mkv|Avi|mp4|vol|ogm|par|rar|sfv|nfo|nzb|srt|ass|mpg|txt|zip|wmv|ssa|r\d{1,3}|7z|tar|mov|divx|m2ts|rmvb|iso|dmg|sub|idx|rm|ac3|t\d{1,2}|u\d{1,3})/iS |
code:
1
| /^.*?SRT.*?\[(?P<parts>\d{1,3}\/\d{1,3})\].*?\"(?P<name>.*?)\.(sample|mkv|Avi|mp4|vol|ogm|par|rar|sfv|nfo|nzb|srt|ass|mpg|txt|zip|wmv|ssa|r\d{1,3}|7z|tar|mov|divx|m2ts|rmvb|iso|dmg|sub|idx|rm|ac3|t\d{1,2}|u\d{1,3})/iS |
code:
1
| /^.*?TVFREAKS.*?\[(?P<parts>\d{1,3}\/\d{1,3})\].*?\"(?P<name>.*?)\.(sample|mkv|Avi|mp4|vol|ogm|par|rar|sfv|nfo|nzb|srt|ass|mpg|txt|zip|wmv|ssa|r\d{1,3}|7z|tar|mov|divx|m2ts|rmvb|iso|dmg|sub|idx|rm|ac3|t\d{1,2}|u\d{1,3})/iS |
Maar bij mij laat hij niks zien (db is nog niet zo vol) wie kan dit testen?
[ Voor 19% gewijzigd door Verwijderd op 17-12-2012 18:59 ]
Als ik zo wat van de reacties kijk en ook naar mijn eigen VM kijk dan ben ik bang dat een VM misschien niet de beste oplossing is. Ik zou bijna denken dat een deticated machine een betere oplossing is.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Tja wat is goed.. Ik heb hier een i5quad 16gb xenserver de newznab vm heeft een eigen 128ssd en 10gb toegewezen... Wat nog wel terug gedraaid wordt, want hij gebruikt nu nog niet de helft!
Dit.joosthaarman schreef op maandag 17 december 2012 @ 13:35:
[...]
Waar haal jij de Nzb archives vandaan?
Laat maar, is al beantwoord hierboven zie ik nu. "Alleen voor Newznab+ donateurs."
[ Voor 20% gewijzigd door lordsnow op 17-12-2012 20:47 ]
Verwijderd
Ik had een volgens mij degelijke VM, ok het was geen esxi met gigabytes aan ram en Xeon procesoren of zo, maar toch. Een degelijke quadcore met 2gb ram.Ultimation schreef op maandag 17 december 2012 @ 20:08:
Als ik zo wat van de reacties kijk en ook naar mijn eigen VM kijk dan ben ik bang dat een VM misschien niet de beste oplossing is. Ik zou bijna denken dat een deticated machine een betere oplossing is.
Toch liep het ophalen van binaries en het verwerken ervan redelijk traag, in vergelijking wat ik allemaal las op dit forum en op de NN irc chat.
Ik had dan ook als test NN op windows geinstalleerd (een dedicated server) en dat liep al een pak vlotter. Nu ben ik dus net klaar met de installatie / configuratie van een dedicated linux box.
8Gb ram
Quad core (oudere Q9400)
Areca raid met 2 schijven van 750Gb in raid 1
Dit draait nu letterlijk een kwartiertje, en voorlopig loopt dit vlot... Ik blijf tussendoor nog zoeken naar optimalisaties...
Hmm ik zit een beetje met de I/O die dit levert op mijn iSCSI target. Daarop draaien ook nog 3 VM's die ik nodig heb voor een onderzoek voor de minor die ik volg. Ik merk gewoon duidelijk dat die NZBIndexer alle I/O opslurpt. Die andere 3 VM's reageren langzamer, opstarten van OS/applicaties duurt merkbaar langer.Verwijderd schreef op maandag 17 december 2012 @ 21:01:
[...]
Ik had een volgens mij degelijke VM, ok het was geen esxi met gigabytes aan ram en Xeon procesoren of zo, maar toch. Een degelijke quadcore met 2gb ram.
Toch liep het ophalen van binaries en het verwerken ervan redelijk traag, in vergelijking wat ik allemaal las op dit forum en op de NN irc chat.
Ik had dan ook als test NN op windows geinstalleerd (een dedicated server) en dat liep al een pak vlotter. Nu ben ik dus net klaar met de installatie / configuratie van een dedicated linux box.
8Gb ram
Quad core (oudere Q9400)
Areca raid met 2 schijven van 750Gb in raid 1
Dit draait nu letterlijk een kwartiertje, en voorlopig loopt dit vlot... Ik blijf tussendoor nog zoeken naar optimalisaties...
Leuk project, maar op dit moment even niet zo handig.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Verwijderd
Even een vraagje. Ik ben bezig om de dedicated server op te zetten maar krijg bij de News Server Setup de error Failed to write to socket! (connection lost!)
Blockt mijn hoster dan port 119 enzo?
Blockt mijn hoster dan port 119 enzo?
Verwijderd
Of je firewall misschien. Als test de firewall heel even uitschakelen en dan weet je of het dit is...Verwijderd schreef op maandag 17 december 2012 @ 21:22:
Even een vraagje. Ik ben bezig om de dedicated server op te zetten maar krijg bij de News Server Setup de error Failed to write to socket! (connection lost!)
Blockt mijn hoster dan port 119 enzo?
Verwijderd
Ubuntu heeft standaard toch geen Firewall?Verwijderd schreef op maandag 17 december 2012 @ 21:29:
[...]
Of je firewall misschien. Als test de firewall heel even uitschakelen en dan weet je of het dit is...
Verwijderd
Ik weet niet of die vraag aan mij gericht wasjoosthaarman schreef op maandag 17 december 2012 @ 21:06:
Hoeveel groepen gebruik je?
11 groepen
a.b.cores
a.b.etc
a.b.hdtv
a.b.hdtv.x264
a.b.misc
a.b.movies
a.b.multimedia
a.b.multimedia.tv
a.b.teevee
a.b.tvseries
a.b.x264
Dit kan natuurlijk nog veranderen, naar gelang er genoeg gevonden wordt... Backfillen doe ik niet. Er wordt tegenwoordig toch veel sneller gewist op de usenetservers (op vraag van de studios) dus heeft het op zich geen zin om gegevens van jaren terug gaan bij te houden... Enkele maanden is voor mij op dit moment al meer als voldoende.
Verwijderd
Kan je payserver overweg met poort 80 (non-ssl) of 443 (ssl) ? Dan kan je die mss is proberen?Verwijderd schreef op maandag 17 december 2012 @ 21:31:
[...]
Ubuntu heeft standaard toch geen Firewall?
Verwijderd
Doet ie ook niet.Verwijderd schreef op maandag 17 december 2012 @ 21:35:
[...]
Kan je payserver overweg met poort 80 (non-ssl) of 443 (ssl) ? Dan kan je die mss is proberen?
Verwijderd
Het rare van het verhaal is, dat een ander usenetprogramma zoals bvb newsleecher of grabit, dezelfde poorten gebruiken, en toch zonder problemen "buiten" raken. Of heb je met andere programma's vroeger ook al problemen gehad?
Ik kreeg op mijn windows test server ook zo'n socks foutmelding, dat had te maken dat ik de juiste extensions niet had aangezet. als je op linux zit zou dit ook niet het geval mogen zijn...
iets te maken met dat die andere programmas wel gebruik maken van upnp?
android since G1.
Ik heb nu een stuk of 10k nzb files uitgepakt en ben nu bezig om de eerste te importeren. Hoeveel doe jij er per run? standaard staat ie op 100.. dit heb ik nu op 1000 gezet (kijken of dit goed gaat) Als je meerdere threads draait gaat dit niet ten koste van de snelheid van de andere threads?kmf schreef op maandag 17 december 2012 @ 09:16:
Ik moet zeggen dat ik vrij tevreden ben met mijn setup nu.
Ik heb een HP40L microserver met ubuntu, apache en mysql.
10GB RAM. OS staat op HDD, Mysql op een Crucial M4 van 128GB
MySQL is innodb, met Inno-file per table.
Afgelopen week heb ik 380.000 releases verwerkt. Allemaal van de nzb-archives. Ik denk dat ik nu ongeveer 50% heb verwerkt. Dus ongeveer 2-3 jaar aan materiaal.
Ik laat de database elke keer tot 80GB groeien, en dan optimize ik de database weer. Deze wordt dan weer rond de 15GB.
De update scripts heb ik wel wat aangepast.
Ik draai nu een custom cleanup script. Deze blijft op de achtergrond de verwerkte en dubbele parts opschonen (procstate =4 of 6)
Ik heb een aparte script welke de geselecteerde groepen blijft refreshen. Maar dan alleen update_binaries_threaded.php
Ik heb een stuk of 10 threads lopen, welke de nzb-archives importeert.
Daarnaast draait een script welke de releases doorvoert. (deze is de traagste omdat deze een enorme bak aan backfills moet verwerken.)
Verwijderd
Volgens mij blockt Giganews mijn hoster. Ik heb nu een Xsnews account ingevuld en die doet het wel.
Verwijderd
Ik heb ook Giganews, geen problemen. Maar wat bedoel je met je hoster?Verwijderd schreef op maandag 17 december 2012 @ 22:08:
Volgens mij blockt Giganews mijn hoster. Ik heb nu een Xsnews account ingevuld en die doet het wel.
Ik doe runs van 5000 files. Met 10 threads (=categorieen) tegelijkertijd. Ik vind het qua snelheid niet veel trager worden (maar het was dan ook niet al te snel).joosthaarman schreef op maandag 17 december 2012 @ 22:08:
[...]
Ik heb nu een stuk of 10k nzb files uitgepakt en ben nu bezig om de eerste te importeren. Hoeveel doe jij er per run? standaard staat ie op 100.. dit heb ik nu op 1000 gezet (kijken of dit goed gaat) Als je meerdere threads draait gaat dit niet ten koste van de snelheid van de andere threads?
Ondertussen is ook de main (threaded) update script aan het draaien, plus een backfill, plus mijn custom cleanup script, plus de update_releases script.
De database wordt wel sneller gevuld dan dat mijn cleanup-script ze kan verwijderen. Dus na een dagje moet ik weer gaan optimizen.
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
@Brickman:Brickman schreef op zondag 16 december 2012 @ 20:40:
Dan met PHP installeren en daarna verwijderen:
ipkg install php-pear # Install PHP PEAR required for nntp ipkg remove php -force-depends # Remove the php part
Zo moet het wel goed gaan.
@Buzzie: Bestaat /opt/share/pear nu wel?
na alle problemen die ik gisteren had met mijn Synology heb ik die gelukkig kunnen herstellen door de laatste firmware te installeren.
Echter nu na een nieuwe installatie van de bootstrap e.d. en newznab blijf ik de melding krijgen over pear dat hij die niet kan vinden.
hij staat nu wel in bovenstaande wat ook in de open_basedir staat maar hij doet er niet veel mee.
heeft het nu als ik de andere locaties van pear ook toevoeg aan de open_basedir?
Kan iemand mij vertellen waarom het verwerken van de nfo's zo traag gaat? En of ik daar iets aan kan doen?
voor elke nfo wordt daadwerkelijk de nfo opgehaald van de newsserver. Meerdere keren als het eerst niet lukt.
En nee, je kan daar niks aan doen helaas... gelukkig is het alleen traag als je heel veel backfilled of importeerd
En nee, je kan daar niks aan doen helaas... gelukkig is het alleen traag als je heel veel backfilled of importeerd
[ Voor 19% gewijzigd door kmf op 18-12-2012 00:12 ]
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Haha laat dat nou net de bedoeling zijnkmf schreef op dinsdag 18 december 2012 @ 00:11:gelukkig is het alleen traag als je heel veel backfilled of importeerd
Verwijderd
-edit
Snel reggen want ik zet hem over een half uur uit!
Snel reggen want ik zet hem over een half uur uit!
[ Voor 13% gewijzigd door Verwijderd op 18-12-2012 00:40 ]
Reeds geprobeerd het eerst 'allemaal' te verwijderen? Zoals ik moest doen in deze post?Buzzie schreef op maandag 17 december 2012 @ 23:14:
[...]
@Brickman:
na alle problemen die ik gisteren had met mijn Synology heb ik die gelukkig kunnen herstellen door de laatste firmware te installeren.
Echter nu na een nieuwe installatie van de bootstrap e.d. en newznab blijf ik de melding krijgen over pear dat hij die niet kan vinden.
hij staat nu wel in bovenstaande wat ook in de open_basedir staat maar hij doet er niet veel mee.
heeft het nu als ik de andere locaties van pear ook toevoeg aan de open_basedir?
ipkg remove php-pear ipkg install php-pear ipkg remove php -force-depends
Het probleem zit hem in het php.ini bestand.Buzzie schreef op maandag 17 december 2012 @ 23:14:
[...]
@Brickman:
na alle problemen die ik gisteren had met mijn Synology heb ik die gelukkig kunnen herstellen door de laatste firmware te installeren.
Echter nu na een nieuwe installatie van de bootstrap e.d. en newznab blijf ik de melding krijgen over pear dat hij die niet kan vinden.
hij staat nu wel in bovenstaande wat ook in de open_basedir staat maar hij doet er niet veel mee.
heeft het nu als ik de andere locaties van pear ook toevoeg aan de open_basedir?
Configureer deze zoals op onderstaande afbeelding en pear werkt prima. (regel 804)

Ga niet uit van het haalbare, maar van het denkbare
Helaas kan je daar niet omheen. Naja, vast wel. Ik ben op dat onderdeel nog niet ingedoken. ik vind mijn huidige setup wel acceptabel namelijk. Gewoon deze week even alles goed opzetten. Hierna gaat het vast wel sneller met normale updates.joosthaarman schreef op dinsdag 18 december 2012 @ 00:18:
[...]
Haha laat dat nou net de bedoeling zijnIk ben ook de nzb-archive files aan het importeren!
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Welk onderdeel van niet delen van indexers heb je niet begrepen?Verwijderd schreef op dinsdag 18 december 2012 @ 00:21:
-edit
Snel reggen want ik zet hem over een half uur uit!
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Je bent bezig momenteel dit voor iedereen te verzieken ( Als in de mods gooien het topic dicht dan,tevens is hier niet de plek dit gaan over het opzetten van newznab en niet over de communities. ) hou je aan de regels van dit topic, en de regels van GoT
[ Voor 22% gewijzigd door ShadowBumble op 18-12-2012 08:32 ]
"Allow me to shatter your delusions of grandeur."
Ik denk dat MonnoJanssen een beetje last heeft van megalomanie. Ik heb al meerdere posts van hem voorbij zien komen hier voor het 'recruiten' van nieuwe leden / het aanbieden van zijn nieuwe indexer. Prettig voor hem maar ga dat hier niet verkondigen.
Hou je aan de regels MonnoJanssen.
Dank.
Hou je aan de regels MonnoJanssen.
Dank.
Helaas.....ook met deze aanpassing blijf ik de melding krijgen in newznab dat hij Pear niet kan vinden.robbinonline schreef op dinsdag 18 december 2012 @ 00:35:
[...]
Het probleem zit hem in het php.ini bestand.
Configureer deze zoals op onderstaande afbeelding en pear werkt prima. (regel 804)
[afbeelding]
NAS heeft geen herstart nodig toch of wel?
Ik heb de gehele IPKG opnieuw gedaan en ook bovenstaande zojuist nog gedaan helaas zonder succeswitchdoc schreef op dinsdag 18 december 2012 @ 00:24:
[...]
Reeds geprobeerd het eerst 'allemaal' te verwijderen? Zoals ik moest doen in deze post?
ipkg remove php-pear ipkg install php-pear ipkg remove php -force-depends
Zal de NAS even rebooten maar lijkt me niet nodig?
EDIT: Blijkbaar wel nodig want alles is nu groen
Verwijderd
Iemand al ervaring met het werken met de API van newznab?
Ik heb bij url alle correct ingegeven, dus http://ip/ en dan de api key. Hij doet een aanvraag naar de server, maar dan krijg ik de foutmelding:
URL error [Errno 10060] A connection attempt failed because the connected party did not properly respond after a period of time, or established connection failed because connected host has failed to respond while loading URL http://10.10.10.93/api?ag...=tvsearch&cat=5040%2C5030
Als ik die url dan zelf invoer in de browser, dan staat dat scherm er direct, duurt nog geen seconde, dus snap niet dat dit "not respond in a period of time" ?
Ik heb bij url alle correct ingegeven, dus http://ip/ en dan de api key. Hij doet een aanvraag naar de server, maar dan krijg ik de foutmelding:
URL error [Errno 10060] A connection attempt failed because the connected party did not properly respond after a period of time, or established connection failed because connected host has failed to respond while loading URL http://10.10.10.93/api?ag...=tvsearch&cat=5040%2C5030
Als ik die url dan zelf invoer in de browser, dan staat dat scherm er direct, duurt nog geen seconde, dus snap niet dat dit "not respond in a period of time" ?
Verwijderd
Gevonden. Gewoon de hele newznab info deleten uit SB en dan opnieuw ingeven, maar dan nog met een andere naam, SB durft wel eens dingen te "onthouden"...Verwijderd schreef op dinsdag 18 december 2012 @ 10:05:
Iemand al ervaring met het werken met de API van newznab?
Ik heb bij url alle correct ingegeven, dus http://ip/ en dan de api key. Hij doet een aanvraag naar de server, maar dan krijg ik de foutmelding:
URL error [Errno 10060] A connection attempt failed because the connected party did not properly respond after a period of time, or established connection failed because connected host has failed to respond while loading URL http://10.10.10.93/api?ag...=tvsearch&cat=5040%2C5030
Als ik die url dan zelf invoer in de browser, dan staat dat scherm er direct, duurt nog geen seconde, dus snap niet dat dit "not respond in a period of time" ?
apache restart was ook voldoende.
Buzzie schreef op dinsdag 18 december 2012 @ 09:53:
[...]
Helaas.....ook met deze aanpassing blijf ik de melding krijgen in newznab dat hij Pear niet kan vinden.
NAS heeft geen herstart nodig toch of wel?
[...]
Ik heb de gehele IPKG opnieuw gedaan en ook bovenstaande zojuist nog gedaan helaas zonder succes
Zal de NAS even rebooten maar lijkt me niet nodig?
EDIT: Blijkbaar wel nodig want alles is nu groen
Gadget-freakz.com. Feedback en tips zijn welkom.
Kan ik de parts tabel leeg gooien zonder dat mijn releases verwijderd worden? of in de problemen komen?
Verwijderd
In de parts tabel zitten delen die nog niet samengevoegd zijn tot een release. Bij de volgende updateronde, gaat het script kijken in deze tabel of er nog nieuwe delen bijgekomen zijn. Zoja, voegt hij ze samen tot een binary, en verplaatst hij dit naar de binaries tabel. Ze worden dan ook verwijderd uit de parts tabel.joosthaarman schreef op dinsdag 18 december 2012 @ 13:58:
Kan ik de parts tabel leeg gooien zonder dat mijn releases verwijderd worden? of in de problemen komen?
Van wat ik nog kond vinden, wordt na enkele dagen de "overschot" uit de parts tabel gewist, als er geen volledige release kan gemaakt worden. Dit moet ik zelf ook nog ondervinden trouwens. Mijn parts tabel is nu momenteel bijna 5 miljoen rijen en 1.1Gb groot
In principe (onder voorbehoud, zelf nog niet getest) zou je de inhoud kunnen verwijderen, maar dan gaat hij van de reeds gevonden delen, geen volledige release kunnen maken. Als je echt niet gebrek hebt aan diskspace, zou ik dit toch gewoon laten.
Als iemand meer info heeft hierover, verbeter gerust!
[ Voor 16% gewijzigd door Verwijderd op 18-12-2012 14:13 ]
Ik zit nu op 133 Miljoen rijen en is bijna 30Gb Groot.. met optimizen kan ik hem niet kleiner krijgen
Verwijderd
Optimizen duurt dan toch serieus lang bij jou?joosthaarman schreef op dinsdag 18 december 2012 @ 14:22:
Ik zit nu op 133 Miljoen rijen en is bijna 30Gb Groot.. met optimizen kan ik hem niet kleiner krijgen
Misschien die vraag eens stellen op de IRC?
joosthaarman schreef op dinsdag 18 december 2012 @ 13:58:
Kan ik de parts tabel leeg gooien zonder dat mijn releases verwijderd worden? of in de problemen komen?
mysql -r <user> -p use <database_voor_newznab>; TRUNCATE parts;
Hiermee gooi je alleen de tabel parts leeg.
"Allow me to shatter your delusions of grandeur."
Ja dat duurt zeker even, volgens mij zo'n 45min.. Zal het vanmiddag is even vragen op IRC. En anders de gok gewoon nemen.Verwijderd schreef op dinsdag 18 december 2012 @ 14:30:
[...]
Optimizen duurt dan toch serieus lang bij jou?
Misschien die vraag eens stellen op de IRC?
Edit: Ik heb het probleem bij mij al gevonden ik had me header retentie niet op 0 staan.
[ Voor 11% gewijzigd door Aapie op 18-12-2012 14:54 ]
Jullie weten dat er in het admin gedeelte een instelling is voor de hoeveelheid retentie voor de headers en parts? Standaard staat hij op 2 dagen, echter met eventueel backfillen moet je hem op 0 zetten om te disablen.joosthaarman schreef op dinsdag 18 december 2012 @ 14:22:
Ik zit nu op 133 Miljoen rijen en is bijna 30Gb Groot.. met optimizen kan ik hem niet kleiner krijgen
Echter als je alle releases gevormd hebt uit de backfill, dan kan hij gewoon wel weer op 2 dagen. Geloof me als een binary en/of release na 2 dagen nog niet compleet is, dan zal hij dat wel nooit meer worden. Wie heeft er tegenwoordig nog zo'n langzame upload.
Technical enthousiast on a budget - DiY Tutorials, How-To's and Information on how to do things yourself, better & cheaper - The Dutch way.
Verwijderd
Thanx... Stond bij mij op1.5j1nx schreef op dinsdag 18 december 2012 @ 15:04:
[...]
Jullie weten dat er in het admin gedeelte een instelling is voor de hoeveelheid retentie voor de headers en parts? Standaard staat hij op 2 dagen, echter met eventueel backfillen moet je hem op 0 zetten om te disablen.
Echter als je alle releases gevormd hebt uit de backfill, dan kan hij gewoon wel weer op 2 dagen. Geloof me als een binary en/of release na 2 dagen nog niet compleet is, dan zal hij dat wel nooit meer worden. Wie heeft er tegenwoordig nog zo'n langzame upload.
Je moet die dan ook laten deleten. Maar als je al zoveel miljoen hebt, dan zal de standaard delete-query van newznab niet meer werken. Ik kreeg iig een timeout, daarom heb ik zelf een script gemaakt om te verwijderen.joosthaarman schreef op dinsdag 18 december 2012 @ 14:22:
Ik zit nu op 133 Miljoen rijen en is bijna 30Gb Groot.. met optimizen kan ik hem niet kleiner krijgen
Als het overtollige is verwijderd, dan pas moet je optimizen. Anders heeft het geen nut natuurlijk
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
hmm iemand enig idee waarom ik met hitnews geen nieuwe info mag ophalen? andere servers gaan gewoon goed.
En dan blijft ie gewoon wachten zonder data verkeer.
code:
1
2
3
4
5
| Processing alt.binaries.boneless Group alt.binaries.boneless has 5,001 new parts. First: 3520760535 Last: 3570760535 Local last: 0 New group starting with 5000 messages worth. Getting 5,001 parts (3570755535 to 3570760535) - 0 in queue |
En dan blijft ie gewoon wachten zonder data verkeer.
[ Voor 6% gewijzigd door slommer op 18-12-2012 15:43 ]
Even een pre-release van mijn cleanup scripts.
Kopieer deze twee scripts in de "/misc/update_scripts" van newznab.
Er wordt uitgegaan dat deze script in /var/www/newznab/misc/update_scripts terecht komt.
Als je je newznab install op een andere dir heb gegooid, pas dan het pad aan in cleanup.sh
https://dl.dropbox.com/u/4617420/cleanup.sh
https://dl.dropbox.com/u/4617420/cleanupbinaries.php
Open /var/www/newznab/www/lib/releases.php en uitcommentariseer dit gedeelte.
Dus zodat ie er zo uit ziet
Herstart de "update script" als je deze hebt draaien. (waarschijnlijk newznab_screen_local.sh als
Je kan daarna in een nieuwe "screen" het cleanup script draaien.
dus in een terminal
En aanschouw hoe jouw veel te grote database kleiner wordt gemaakt
Kopieer deze twee scripts in de "/misc/update_scripts" van newznab.
Er wordt uitgegaan dat deze script in /var/www/newznab/misc/update_scripts terecht komt.
Als je je newznab install op een andere dir heb gegooid, pas dan het pad aan in cleanup.sh
https://dl.dropbox.com/u/4617420/cleanup.sh
https://dl.dropbox.com/u/4617420/cleanupbinaries.php
Open /var/www/newznab/www/lib/releases.php en uitcommentariseer dit gedeelte.
code:
1
2
3
4
5
| // echo "Stage 7 : Deleting unused binaries and parts\n"; $db->query(sprintf("DELETE parts, binaries FROM parts LEFT JOIN binaries ON binaries.ID = parts.binaryID LEFT JOIN releasenfo rn ON rn.binaryID = binaries.ID WHERE (binaries.procstat IN (%d, %d) AND (rn.binaryid IS NULL OR (rn.binaryid IS NOT NULL AND rn.nfo IS NOT NULL))) OR binaries.dateadded < %s - INTERVAL %d HOUR", Releases::PROCSTAT_RELEASED, Releases::PROCSTAT_DUPLICATE, $db->escapeString($currTime_ori["now"]), ceil($page->site->rawretentiondays$ |
Dus zodat ie er zo uit ziet
code:
1
2
3
4
5
6
7
| // echo "Stage 7 : Deleting unused binaries and parts\n"; /* $db->query(sprintf("DELETE parts, binaries FROM parts LEFT JOIN binaries ON binaries.ID = parts.binaryID LEFT JOIN releasenfo rn ON rn.binaryID = binaries.ID WHERE (binaries.procstat IN (%d, %d) AND (rn.binaryid IS NULL OR (rn.binaryid IS NOT NULL AND rn.nfo IS NOT NULL))) OR binaries.dateadded < %s - INTERVAL %d HOUR", Releases::PROCSTAT_RELEASED, Releases::PROCSTAT_DUPLICATE, $db->escapeString($currTime_ori["now"]), ceil($page->site->rawretentiondays$ */ |
Herstart de "update script" als je deze hebt draaien. (waarschijnlijk newznab_screen_local.sh als
Je kan daarna in een nieuwe "screen" het cleanup script draaien.
dus in een terminal
screen cd /var/www/newznab/misc/update_scripts sh ./cleanup.sh
En aanschouw hoe jouw veel te grote database kleiner wordt gemaakt
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Hey,
Ik ben er ondertussen in geslaagd een newznab server te installeren op mijn NAS.
Maar ik heb toch 2 problemen:
- Bij het draaien van newznab_screen.sh komt er bij het post processen steeds volgende error terug:
1.PHP Warning: file_put_contents(/var/www/newznab/nzbfiles/tmpunrar/rarfile.rar): failed to open stream: Permission denied in /var/www/newznab/www/lib/postprocess.php on line 648
- bij het aanmaken van releases, staan er altijd van die cryptische namen tussen die op niets slaan, zoals te zien is op volgende screenshot: http://s9.postimage.org/4fubnh50f/indexing.png
Iemand die hier een antwoord op weet?
Ik ben er ondertussen in geslaagd een newznab server te installeren op mijn NAS.
Maar ik heb toch 2 problemen:
- Bij het draaien van newznab_screen.sh komt er bij het post processen steeds volgende error terug:
1.PHP Warning: file_put_contents(/var/www/newznab/nzbfiles/tmpunrar/rarfile.rar): failed to open stream: Permission denied in /var/www/newznab/www/lib/postprocess.php on line 648
- bij het aanmaken van releases, staan er altijd van die cryptische namen tussen die op niets slaan, zoals te zien is op volgende screenshot: http://s9.postimage.org/4fubnh50f/indexing.png
Iemand die hier een antwoord op weet?
Verwijderd
Je kan een aantal van deze releases proberen om te vormen naar leesbare releases, door het scriptHorie schreef op dinsdag 18 december 2012 @ 18:33:
Hey,
Ik ben er ondertussen in geslaagd een newznab server te installeren op mijn NAS.
Maar ik heb toch 2 problemen:
- Bij het draaien van newznab_screen.sh komt er bij het post processen steeds volgende error terug:
1.PHP Warning: file_put_contents(/var/www/newznab/nzbfiles/tmpunrar/rarfile.rar): failed to open stream: Permission denied in /var/www/newznab/www/lib/postprocess.php on line 648
- bij het aanmaken van releases, staan er altijd van die cryptische namen tussen die op niets slaan, zoals te zien is op volgende screenshot: http://s9.postimage.org/4fubnh50f/indexing.png
Iemand die hier een antwoord op weet?
update_parsing.php te draaien, dit zit in de folder misc/testing.
Je moet wel eerst in de broncode een paar lijnen "uncommenten", maar dat staat in de source aangegeven welke dit zijn. Als je dit niet doet, laat hij wel zien wat hij zou doen, maar slaat het nergens op.
Verwijderd
Newznab draait nu , maar nu wil ik de verbinding met couchpotato/sickbeard opzetten...
De api instellingen staan correct, de http://ip_address/ en de api key staan erin, maar als ik nu in couchpotato een film wil starten (die al mooi gevonden werd door mijn eigen newznab install - heel leuk
) dan krijg ik de volgende foutmelding in de couchpotato log:
[.core.downloaders.sabnzbd] Failed sending release, probably wrong HOST: Traceback (most recent call last): HTTPError: HTTP Error 401: Unauthorized
Iemand CP al werkend gekregen?
Opgelost: sabnbzd heeft dus 2 verschillende poorten, een voor het http verkeer (8080) en een voor het https verkeer (9090) en als je dan http://ip_address:9090 doet, dan komt er dus niks binnen
De api instellingen staan correct, de http://ip_address/ en de api key staan erin, maar als ik nu in couchpotato een film wil starten (die al mooi gevonden werd door mijn eigen newznab install - heel leuk
[.core.downloaders.sabnzbd] Failed sending release, probably wrong HOST: Traceback (most recent call last): HTTPError: HTTP Error 401: Unauthorized
Iemand CP al werkend gekregen?
Opgelost: sabnbzd heeft dus 2 verschillende poorten, een voor het http verkeer (8080) en een voor het https verkeer (9090) en als je dan http://ip_address:9090 doet, dan komt er dus niks binnen
[ Voor 15% gewijzigd door Verwijderd op 18-12-2012 21:15 . Reden: Opgelost ]
Gedaan.. ik gebruik hiervoor phpmyadmin.. lekker makkelijkShadowBumble schreef op dinsdag 18 december 2012 @ 14:34:
[...]
mysql -r <user> -p use <database_voor_newznab>; TRUNCATE parts;
Hiermee gooi je alleen de tabel parts leeg.
Waarom zou je de broncode aanpassen? Ik hoef niet perse m'n hele database te doen.Verwijderd schreef op dinsdag 18 december 2012 @ 19:27:
Je kan een aantal van deze releases proberen om te vormen naar leesbare releases, door het script
update_parsing.php te draaien, dit zit in de folder misc/testing.
Je moet wel eerst in de broncode een paar lijnen "uncommenten", maar dat staat in de source aangegeven welke dit zijn. Als je dit niet doet, laat hij wel zien wat hij zou doen, maar slaat het nergens op.
Het verschil tussen de 2 regels is:and r.adddate BETWEEN NOW() - INTERVAL 1 DAY AND NOW()");
Dus nu doet hij alleen op de releases tussen nu en 1 dag geleden? Wat opzich prima is voor mij.
Kan iemand mij helpen met backfill, hoe moet ik het aanpakken als ik de database wil vullen met releases tot bijvoorbeeld 2 jaar geleden. Maar per keer moet hij 10 dagen terug gaan.
Als ik backfill op 10 zet voor een bepaalde groep en backfill.php draai dan gaat hij 10 dagen terug vanaf de datum dat hij draait. En op deze manier stop het na de eerste keer gelijk. Ik dacht dat bij het opnieuw draaien van backfill hij verder gaat met waar hij gebleven was.
Als ik backfill op 10 zet voor een bepaalde groep en backfill.php draai dan gaat hij 10 dagen terug vanaf de datum dat hij draait. En op deze manier stop het na de eerste keer gelijk. Ik dacht dat bij het opnieuw draaien van backfill hij verder gaat met waar hij gebleven was.
Was er niet een backfill script wat op datum kan backfillen?
is er wel maar krijg dat script niet aan de praat nog, het liefst heb ik dat iedere dag een cron draait die vanaf nu 10 dagen backfill. En de volgende nacht weer 10 dagen enzovoorts.
Hoe dan andere gebruikers dit? Zijn er ook andere manieren om je database te vullen met releases uit het verleden?
Hoe dan andere gebruikers dit? Zijn er ook andere manieren om je database te vullen met releases uit het verleden?
Verwijderd
Misschien ken je dit al, en anders ben je er misschien iets mee?RobinMM schreef op dinsdag 18 december 2012 @ 22:48:
is er wel maar krijg dat script niet aan de praat nog, het liefst heb ik dat iedere dag een cron draait die vanaf nu 10 dagen backfill. En de volgende nacht weer 10 dagen enzovoorts.
Hoe dan andere gebruikers dit? Zijn er ook andere manieren om je database te vullen met releases uit het verleden?
http://www.tiag.me/how-to...t-bloating-your-database/
Ehm... je beseft wel dat je nu een hoop binaries heb zonder parts?joosthaarman schreef op dinsdag 18 december 2012 @ 22:14:
[...]
Gedaan.. ik gebruik hiervoor phpmyadmin.. lekker makkelijkDe database ging van 30GB naar 300MB
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Absoluut is die er al. Bij de NN+ versie kun je in de misc folder het php script: backfill_date.php vindenRobinMM schreef op dinsdag 18 december 2012 @ 22:48:
is er wel maar krijg dat script niet aan de praat nog, het liefst heb ik dat iedere dag een cron draait die vanaf nu 10 dagen backfill. En de volgende nacht weer 10 dagen enzovoorts.
Hoe dan andere gebruikers dit? Zijn er ook andere manieren om je database te vullen met releases uit het verleden?
Hier moet je de datum als argument meegeven. Bijv. tot 10 Juli 2012 wordt dit:
code:
1
| screen php backfill_date.php 2012-07-10 |
Succes
Bedankt, ik heb het geprobeerd maar hij script sluit gelijk weer af, waar preices moet ik dat stukje code plaatsen:Rhizosis schreef op woensdag 19 december 2012 @ 09:24:
[...]
Absoluut is die er al. Bij de NN+ versie kun je in de misc folder het php script: backfill_date.php vinden
Hier moet je de datum als argument meegeven. Bijv. tot 10 Juli 2012 wordt dit:
code:
1 screen php backfill_date.php 2012-07-10
Succes
<?php
/*
DESCRIPTION:
This script is an alternative to backfill.php.
It allows you to backfill based on a specific date, bypassing
the "backfill target" setting for each group, used by backfill.php
PURPOSE:
If you are backfilling many groups over a long span of time, the # of days
set as your backfill target can become quickly outdated, resulting in
potential gaps in your database. In this case, it may be more practical
to specify a date explicity and just let the backfill work from there.
USAGE:
$ php backfill_date.php 2011-05-15
=> Script will backfill ALL active groups from May 15, 2011
$ php backfill_date.php 2011-05-15 alt.binaries.games.xbox
=> Script will backfill ONLY a.b.games.xbox from May 15, 2011
*/
backfill_date.php 2002-04-27
require("config.php");
require_once(WWW_DIR."/lib/backfill.php");
$time = strtotime($argv[1]);
if (($time > 1) && ($time < time())) {
$groupName = (isset($argv[2]) ? $argv[2] : '');
$backfill = new Backfill();
$backfill->backfillAllGroups($groupName, strtotime($argv[1]));
} else {
echo "You must provide a backfill date in the format YYYY-MM-DD to use backfill_date.php\n";
echo "example: backfill_date.php 2002-04-27 alt.binaries.games.xbox\n";
echo "This will backfill your index with everything posted to a.b.g.x since April 27, 2002";
echo "If you choose not to provide a groupname, all active groups will be backfilled.\n";
echo "\nIf you do not want to use a date, use the backfill.php script instead.\n";
}
?>
het is een commando wat je uitvoert vanaf het console (in dit geval was het een linux commando)
je hoeft het dus niet in het PHP gedeelte te plaatsen.
Als ik op linux zit en draai daar dat commando gaat hij "backfillen"
je hoeft het dus niet in het PHP gedeelte te plaatsen.
Als ik op linux zit en draai daar dat commando gaat hij "backfillen"
Zojuist en HP Proliant ML110 G7 besteld om een newznab server op te proberen configureren!:D Wat raden jullie aan ? Windows server 2012 / 2008r2 of linux?
[ Voor 3% gewijzigd door Xenophoben op 19-12-2012 11:31 ]
linuxXenophoben schreef op woensdag 19 december 2012 @ 11:31:
Zojuist en HP Proliant ML110 G7 besteld om een newznab server op te proberen configureren!:D Wat raden jullie aan ? Windows server 2012 / 2008r2 of linux?
Technical enthousiast on a budget - DiY Tutorials, How-To's and Information on how to do things yourself, better & cheaper - The Dutch way.
Persoonlijk zou ik voor linux gaan, al was het allemaal om het feit dat hoeveelheid documentatie ietwat groter is.Xenophoben schreef op woensdag 19 december 2012 @ 11:31:
Zojuist en HP Proliant ML110 G7 besteld om een newznab server op te proberen configureren!:D Wat raden jullie aan ? Windows server 2012 / 2008r2 of linux?
Ik ben nu al een week flink aan het knoeien met mijn eigen newznab server en ik moet zeggen dat het al aardig goed werkt. Hij draait nu ca. een week en ik ben druk bezig met het importeren van nzbs. Merk nu wel dat mijn huis tuin en keukenservertje hier misschien niet de beste keus voor was, de swap (4GB intern) word continue aangesproken en dan zijn het ook nog trage IDE schijven
Ik heb de link doorgelezen voor het inlezen van NZB's zonder bloaten, maar ik ben er niet uit wat nu het voordeel is van het inlezen van een werkelijk ongelooflijke sh*tload aan nzb's ten opzichte van het draaien van het php backfill_date script??
[ Gathering of Tweakers ] [ GitHub ]
En als je het zonder het commando 'screen' uitvoerd?RobinMM schreef op woensdag 19 december 2012 @ 11:02:
[...]
Bedankt, ik heb het geprobeerd maar hij script sluit gelijk weer af, waar preices moet ik dat stukje code plaatsen:
Dus als volgende:
code:
1
| php backfill_date.php 2012-07-10 |
Wat krijg je dan voor melding? Heb je je Newznab pad trouwens al aangepast in het script?
Ik weet niet meer zeker of dat nodig was.
Let me know.
Volgens mij is het voornamelijk tijdswinst. Je hoeft bijvoorbeeld alles niet zelf te scannen, de regex er op los te laten, etc.Mr. Happy schreef op woensdag 19 december 2012 @ 13:03:
Ik heb de link doorgelezen voor het inlezen van NZB's zonder bloaten, maar ik ben er niet uit wat nu het voordeel is van het inlezen van een werkelijk ongelooflijke sh*tload aan nzb's ten opzichte van het draaien van het php backfill_date script??
De nzbimport een slinger gegeven.henwy schreef op woensdag 19 december 2012 @ 13:09:
[...]
Volgens mij is het voornamelijk tijdswinst. Je hoeft bijvoorbeeld alles niet zelf te scannen, de regex er op los te laten, etc.
Nu zit er een loop in die bij 100 nzb een break geeft en daarmee meteen het screen-script afbreekt...
Hoe kan dit aangepast worden dat de loop wel afgebroken wordt maar dat het screen_local script wel blijft lopen?
[ Gathering of Tweakers ] [ GitHub ]
Ik heb echter geen ervaring met linux... wel Windows Server. Is dit te doen als linux noob?henwy schreef op woensdag 19 december 2012 @ 12:49:
[...]
Persoonlijk zou ik voor linux gaan, al was het allemaal om het feit dat hoeveelheid documentatie ietwat groter is.
Ik ben nu al een week flink aan het knoeien met mijn eigen newznab server en ik moet zeggen dat het al aardig goed werkt. Hij draait nu ca. een week en ik ben druk bezig met het importeren van nzbs. Merk nu wel dat mijn huis tuin en keukenservertje hier misschien niet de beste keus voor was, de swap (4GB intern) word continue aangesproken en dan zijn het ook nog trage IDE schijven.
Verwijderd
Op zich is het set & forget, maar in het begin is het natuurlijk wel even zoeken. Er zijn al een hele hoop tutorials uit, hoe je dit allemaal kan configureren, maar die zijn overwegend geschreven voor linux. Je gaat dus zowiezo meer antwoorden op je vragen vinden als je linux pakt..Xenophoben schreef op woensdag 19 december 2012 @ 15:42:
[...]
Ik heb echter geen ervaring met linux... wel Windows Server. Is dit te doen als linux noob?
En kijk, lukt het je dan na wat proberen toch niet, kan je nog altijd Windows gebruiken niet?
Kan iemand mij uitleggen waarom sommige menu links niets laten zien:
e.g.
Menu->Audio (/music)
Menu->Audio - MP3 (/music?t=3010)
maar de volgende link geeft wel resultaten: /browse?t=3010
e.g.
Menu->Audio (/music)
Menu->Audio - MP3 (/music?t=3010)
maar de volgende link geeft wel resultaten: /browse?t=3010
Hier tikt het fillen van newsnab op 600 na de 300.000 releases aan. Schiet al redelijk op. Draai het trouwens op een windows vm, draait uitermate stabiel.
Heeft iemand een idee, bij welke grootte van de database je het beste InnoDB kunt gebruiken, alles draait nu nog met MyISAM?
Heeft iemand een idee, bij welke grootte van de database je het beste InnoDB kunt gebruiken, alles draait nu nog met MyISAM?
Business Intelligence Consultant
Verwijderd
Windows / Linux?Simkin schreef op woensdag 19 december 2012 @ 15:55:
Kan iemand mij uitleggen waarom sommige menu links niets laten zien:
e.g.
Menu->Audio (/music)
Menu->Audio - MP3 (/music?t=3010)
maar de volgende link geeft wel resultaten: /browse?t=3010
Staan de rewrites ingeschakeld?
In het .htaccess bestand of de virtualhost, staat daar AllowOveride op "on" ?
Dat zijn zo de dingen die het meest passeren als sommige pagina's niet werken... Moest er iets niet duidelijk zijn, vraag gerust!
Ik probeer de queryamazon.php te draaien, nadat ik m'n eigen keys heb ingevuld, maar welke parameters moet ik precies gebruiken om 't werkend te krijgen?
Wat ik ook probeer, hij geeft altijd een failed terug...
Wat ik ook probeer, hij geeft altijd een failed terug...
[ Gathering of Tweakers ] [ GitHub ]
Als ik het script uitvoer sluit het gelijk af, het script backfill.php werkt wel.Rhizosis schreef op woensdag 19 december 2012 @ 13:05:
[...]
En als je het zonder het commando 'screen' uitvoerd?
Dus als volgende:
code:
1 php backfill_date.php 2012-07-10
Wat krijg je dan voor melding? Heb je je Newznab pad trouwens al aangepast in het script?
Ik weet niet meer zeker of dat nodig was.
Let me know.
Heb een print screen kunnen maken vlak voor het moment dat het script afsloot
http://tinypic.com/r/2enyd15/6
Foutmelding zegt: Notice: Undefined offset: 1 in C:\xampp\htdocs\newsab\misc\update_scripts\backfill_date.php on line 25
zo ziet line 25 eruit (dit is het standaard script niks gewijzigd): $time = strtotime($argv[1]);
[ Voor 15% gewijzigd door RobinMM op 19-12-2012 21:36 ]
Had ik ook de 1ste keer. Verander je keys eens. (Heb het nu perfect werkend op mijn QNap NAS)Mr. Happy schreef op woensdag 19 december 2012 @ 20:47:
Ik probeer de queryamazon.php te draaien, nadat ik m'n eigen keys heb ingevuld, maar welke parameters moet ik precies gebruiken om 't werkend te krijgen?
Wat ik ook probeer, hij geeft altijd een failed terug...
[ Voor 5% gewijzigd door Simkin op 19-12-2012 21:45 ]
Oorzaak lag in niet werkende amazon API keys + "View Music Page" en "View Book Page" stonden aan in account details. Ik heb nieuwe keys gegenereerd en toen werkte het (na update binaries)Simkin schreef op woensdag 19 december 2012 @ 15:55:
Kan iemand mij uitleggen waarom sommige menu links niets laten zien:
e.g.
Menu->Audio (/music)
Menu->Audio - MP3 (/music?t=3010)
maar de volgende link geeft wel resultaten: /browse?t=3010
Vergeet ook niet dat je met hetzelfde email adres je Tracking ID ophaald (https://affiliate-program...ociates/network/main.html)
[ Voor 12% gewijzigd door Simkin op 19-12-2012 21:38 ]
Ga ik doen.Simkin schreef op woensdag 19 december 2012 @ 21:34:
[...]
Had ik ook de 1ste keer. Verander je keys eens.
Voor de zekerheid:
Amazon Public Key: = Access Key ID
en
Amazon Private Key: = Secret Access Key?
[ Gathering of Tweakers ] [ GitHub ]
Helemaal juist.Mr. Happy schreef op woensdag 19 december 2012 @ 21:41:
[...]
Ga ik doen.
Voor de zekerheid:
Amazon Public Key: = Access Key ID
en
Amazon Private Key: = Secret Access Key?
Associate Tag: https://affiliate-program...ociates/network/main.html (links boven)
Public/Private keys: https://portal.aws.amazon.com/gp/aws/securityCredentials (Access Credentials)
Heb ik en nog steeds failed, zowel met als zonder parameters...Simkin schreef op woensdag 19 december 2012 @ 21:44:
[...]
Helemaal juist.
Associate Tag: https://affiliate-program...ociates/network/main.html (links boven)
Public/Private keys: https://portal.aws.amazon.com/gp/aws/securityCredentials (Access Credentials)
[ Gathering of Tweakers ] [ GitHub ]
Ik had 1uur geleden hetzelfde probleem. Nieuwe keys aangemaakt en nu werkt het opeens. Heb je op beiden websites hetzelfde account?Mr. Happy schreef op woensdag 19 december 2012 @ 21:54:
[...]
Heb ik en nog steeds failed, zowel met als zonder parameters...
Zelfde account...Simkin schreef op woensdag 19 december 2012 @ 21:57:
[...]
Ik had 1uur geleden hetzelfde probleem. Nieuwe keys aangemaakt en nu werkt het opeens. Heb je op beiden websites hetzelfde account?
Gebruik je bij de php parameters of zonder?
[ Gathering of Tweakers ] [ GitHub ]
Volgens mij moet je even hier naar kijken: Freekers in "[Ervaringen] CouchPotato, Sickbeard, Headphones e.a. deel 2"Simkin schreef op woensdag 19 december 2012 @ 15:55:
Kan iemand mij uitleggen waarom sommige menu links niets laten zien:
e.g.
Menu->Audio (/music)
Menu->Audio - MP3 (/music?t=3010)
maar de volgende link geeft wel resultaten: /browse?t=3010
[ Voor 19% gewijzigd door Coenen op 19-12-2012 22:05 ]
Ben er al uitCoenen schreef op woensdag 19 december 2012 @ 22:03:
[...]
Volgens mij moet je even hier naar kijken: Freekers in "[Ervaringen] CouchPotato, Sickbeard, Headphones e.a. deel 2"
Dat er geen lookups gelukt waren lag aan mijn Amazon API keys die niet werkte
@ mr happy: beiden geprobeerd (als argument een boek naam), kreeg opeens een response ipv Failed
[ Voor 8% gewijzigd door Simkin op 19-12-2012 22:17 ]
Dat komt omdat backfill_date alleen de datum als argument mee hoort te krijgen. Niet een newsgroup specificatie.RobinMM schreef op woensdag 19 december 2012 @ 21:05:
[...]
Als ik het script uitvoer sluit het gelijk af, het script backfill.php werkt wel.
Heb een print screen kunnen maken vlak voor het moment dat het script afsloot
http://tinypic.com/r/2enyd15/6
Foutmelding zegt: Notice: Undefined offset: 1 in C:\xampp\htdocs\newsab\misc\update_scripts\backfill_date.php on line 25
zo ziet line 25 eruit (dit is het standaard script niks gewijzigd): $time = strtotime($argv\[1]);