MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Klopt. Ik heb mijn backfill days op 300 gezet, en in de settings op 30 dagen. Als je dan de eerste keer update_binaries.php draait, dan haalt hij 30 dagen binnen. Duurt wel erg lang hoor.InflatableMouse schreef op maandag 10 december 2012 @ 20:35:
Dat backfillen moet toch ook kunnen met headers als je de group edit en backfill days terug zet? Staat standaard op 1 namelijk.
Als je dan binaries update zou tie toch alles tot die aantal dagen terug moeten ophalen lijkt me ... alleen bij mij update tie de releases niet en ik weet niet waar dat aan ligt ...
De naam Tweakers er dus best niet bij betrekken!F_J_K schreef op maandag 10 december 2012 @ 19:06:
Weer even de boeman spelen. Ho wacht even. Wat jullie allemaal doen binnen of buiten de thuiskopie-wetgeving doen is tussen jullie en de rechterlijke macht van dit land, maar
[modbreak]ga niet via of uit naam van Tweakers een dergelijke site opzetten.
[/modbreak]
“The thing about smart mother fuckers is that sometimes, they sound like crazy mother fuckers to stupid mother fuckers...”
Wanneer we voor een gezamenlijke host zouden gaan zouden we het indexeren van de NZB's door de leden kunnen doen. Misschien dat we een soort van ratio systeem kunnen implementeren? X geïndexeerd = X downloaden? Dan hoef je niet perse met geld te betalen (niet dat er geen geld nodig is) maar dat we zo een flinke index kunnen opzetten. Het zou een soort van groot cluster kunnen worden.ItsValium schreef op maandag 10 december 2012 @ 20:40:
Ik denk dat het een betere keus is om indien er een gezamelijke inspanning komt er net geen vermelding bij te plakken naar tweakers.net je weet maar nooit natuurlijk, ik ben bereid om te kijken wat ik kan betekenen echter een public indexer zal ik er niet van maken, invite only en met IP-restricties kan ik wel voor elkaar krijgen.
Invite only zou ik nog mee uitkijken, misschien dat we dat nog op een andere manier kunnen aanpakken.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Op zich wel een goed idee, echter de ontwikkeling erachter kan ik niet op mij nemen wegens tijdsgebrek (verbouwingen en verschrikkelijk druk met de zaak) hosting en netwerkinfra kan ik zeker wel op mij nemen. Afhankelijk van de load en bandwith kan dat zelfs kosteloos, enkel usenet abo en newznab plus dienen dan nog gefinancierd te worden dus dat valt allemaal wel mee. Voorstellen tot samenwerken en andere zijn altijd welkom.Ultimation schreef op maandag 10 december 2012 @ 20:56:
[...]
Wanneer we voor een gezamenlijke host zouden gaan zouden we het indexeren van de NZB's door de leden kunnen doen. Misschien dat we een soort van ratio systeem kunnen implementeren? X geïndexeerd = X downloaden? Dan hoef je niet perse met geld te betalen (niet dat er geen geld nodig is) maar dat we zo een flinke index kunnen opzetten. Het zou een soort van groot cluster kunnen worden.
Invite only zou ik nog mee uitkijken, misschien dat we dat nog op een andere manier kunnen aanpakken.
1
2
3
| root@wolfman:~# svn co svn://svn.newznab.com/nn/branches/nnplus /var/www/newznab Authentication realm: <svn://svn.newznab.com:3690> Password for 'root': |
Is dat dicht gezet of zo?
[ Voor 8% gewijzigd door UltraSub op 10-12-2012 21:10 ]
Ik weet niet precies hoe dat indexen in werking gaat? Het ophalen van de NZB's en verwerken in een database?ItsValium schreef op maandag 10 december 2012 @ 20:59:
[...]
Op zich wel een goed idee, echter de ontwikkeling erachter kan ik niet op mij nemen wegens tijdsgebrek (verbouwingen en verschrikkelijk druk met de zaak) hosting en netwerkinfra kan ik zeker wel op mij nemen. Afhankelijk van de load en bandwith kan dat zelfs kosteloos, enkel usenet abo en newznab plus dienen dan nog gefinancierd te worden dus dat valt allemaal wel mee. Voorstellen tot samenwerken en andere zijn altijd welkom.
Dan zouden we toch 1 groot cluster kunnen maken? Waarbij de master alle data bij zich heeft en de nodes van een bepaalde group (iod). De bestanden zouden allemaal via bijvoorbeeld FTP naar de master verzonden kunnen worden.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
#1 Haal je Plus ID wegUltraSub schreef op maandag 10 december 2012 @ 21:00:
Watte?
code:
1 2 3 root@wolfman:~# svn co svn://svn.newznab.com/nn/branches/nnplus /var/www/newznab Authentication realm: <svn://svn.newznab.com:3690> Password for 'root':
Is dat dicht gezet of zo?
#2 Gebruik de svn gegevens uit de mail die je hebt gekregen.
Let er trouwens op dat je de juiste aanpassingen doet in je my.cnf en php.ini anders krijg je timeouts bij het backfillen (tenminste op mn 2k8r2 box)
Gaat inderdaad aardig rap.albino71 schreef op maandag 10 december 2012 @ 21:20:
Damn...even eten, kids naar bed en een kop koffie en je loopt een pagina of 6 achter
Ik draai liever een Newznab dan mijn HeadPhones server (welke ik een maand of 2 geleden al heb uitgeschakeld aangezien ik hem niet meer gebruikte), alleen het opzetten is me een gedoe teveel. De instructies voor de Turnkey installatie zeggen me niet zoveel.. Een MusicBrainz server liep makkelijker..
Is er niet iemand die een mooie VM heeft klaarstaan waarin je enkel nog je eigen USP hoeft in te vullen?
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Geef dan mensen de keuze: ik doneer liever dan dat ik NZB's moet bakken, soms kun je ook geen nuttig aanbod meer creeëren en dan krijg je mensen die prul NZB's beginnen bakken om toch maar te kunnen downloaden... Dan heb ik liever het NZBmatrix principe, desnoods wat duurder: jaarlijks X aantal eurootjes betalen.Ultimation schreef op maandag 10 december 2012 @ 20:56:
[...]
Wanneer we voor een gezamenlijke host zouden gaan zouden we het indexeren van de NZB's door de leden kunnen doen. Misschien dat we een soort van ratio systeem kunnen implementeren? X geïndexeerd = X downloaden? Dan hoef je niet perse met geld te betalen (niet dat er geen geld nodig is) maar dat we zo een flinke index kunnen opzetten. Het zou een soort van groot cluster kunnen worden.
Invite only zou ik nog mee uitkijken, misschien dat we dat nog op een andere manier kunnen aanpakken.
[ Voor 92% gewijzigd door ItsValium op 10-12-2012 22:02 ]
Uiteindelijk zal alles waar betaald voor moet worden in welke vorm dan ook een doelwit worden van BREIN en consorten... Private Indexes zijn de enige manier om dit te ontlopen. Een combinatie van newznab en spotned dus en dit zal alleen werken zolang we nog kunnen genieten van nieuwsgroepen aangezien hun db is gehost binnen usenet. Alles wat decentraal en "openbaar" is zal ten prooi gaan vallen aan authoriteiten... Het is dus ook absoluut niet verstandig hier openbaar te praten over zelfopgezette newznab sites (anders dan config issues etc etc) want je zal onherroepelijk een brief van brein gaan vinden op je deurmatje... Of denk je dat hun hier niet mee lezen?? Misschien niet vandaag maar ook hun speuren constant naar nieuwe "paddestoelen" ....HyperBart schreef op maandag 10 december 2012 @ 21:50:
[...]
Geef dan mensen de keuze: ik doneer liever dan dat ik NZB's moet bakken, soms kun je ook geen nuttig aanbod meer creeëren en dan krijg je mensen die prul NZB's beginnen bakken om toch maar te kunnen downloaden... Dan heb ik liever het NZBmatrix principe, desnoods wat duurder: jaarlijks X aantal eurootjes betalen.
Effe de logfiles van sabnzbd eens doorpluizen
One thing's certain: the iPad seriously increases toilet time.. tibber uitnodigingscode: bqufpqmp
Deze errors krijg ik ook, maar ben geen expert op php gebied, zou je me iets meer verheldering kunnen geven hoe je dit opgelost hebt?soulrider schreef op maandag 10 december 2012 @ 14:26:
newznab op apache op windows (usbwebserver8.5 met recentere apache en recentere php):
draaiend sinds gisteren.
Maar ik moest wel even in sommige php-bestanden rommelen:
de if(PEAR::OnError)- regels gaven fouten bij het draaien van de update/crawl-bestanden.
$pear = new PEAR() en if($pear-> onerror) op de juiste plaatsen lostte het op
Maar alhoewel ik newznab+ heb, krijg ik ook maar 2 regex'en![]()
Ik ga toch eens controleren of ik niet per ongeluk de gratis versie heb geïnstalleerd, want ik heb er toch liever +1000 (ipv die zelf te moeten verzinnen)
Thanx onderbuur:
de +-versie is al een tijdje geleden betaald en afgehaald, maar ik heb me wellicht van rar/zip-bestand vergist bij installatie - ach dan wordt het deze avond even zoeken in de mails en op de computer, en dan pruts ik die ook wel 'online' op het eigen netwerk. (het is dus puur een prive-indexer - voor als er teveel openbare sites op slot gaan)
Het enige waar ik nog tegen aan loop is, dat ik hem nog niet fatsoenlijk ge-reversed-proxied (mooi woord
If it is broken, fix it. If it ain't broken, make it better!
als je je error reporting in je php.ini aanpast naar error_reporting = E_ALL | ~E_STRICT dan krijg je die foutmeldingen niet meer.RobinMM schreef op maandag 10 december 2012 @ 22:13:
[...]
Deze errors krijg ik ook, maar ben geen expert op php gebied, zou je me iets meer verheldering kunnen geven hoe je dit opgelost hebt?
Wat is het probleem? Welke software? Apache, nginx, Pound of Varnish?BlackBurn schreef op maandag 10 december 2012 @ 22:13:
Newznab installatie valt reuze mee, dat was zo gepiept en is nu lekker aan het indexen, ben ook maar meteen voor de plus versie gegaan.
Het enige waar ik nog tegen aan loop is, dat ik hem nog niet fatsoenlijk ge-reversed-proxied (mooi woordkrijg. Iemand hier een voorbeeld van?
Care to make a VM? Zou leuk zijn voor de medetweakers waarbij de installatie niet zo vlot verloopt *hint hint*BlackBurn schreef op maandag 10 december 2012 @ 22:13:
Newznab installatie valt reuze mee, dat was zo gepiept en is nu lekker aan het indexen, ben ook maar meteen voor de plus versie gegaan.
Het enige waar ik nog tegen aan loop is, dat ik hem nog niet fatsoenlijk ge-reversed-proxied (mooi woordkrijg. Iemand hier een voorbeeld van?
Gedeelde server sta ik ook voor open, maar dan wel kleinschalig.
Onder Apache, de URL's gingen fout, heb even de reverse proxy er tussen uit gehaald, ga hier morgen weer verder mee knutselensenn schreef op maandag 10 december 2012 @ 22:22:
[...]
Wat is het probleem? Welke software? Apache, nginx, Pound of Varnish?
If it is broken, fix it. If it ain't broken, make it better!
Verwijderd
Het maakt dan wel gelijk die enorme retenties van usenet-providers overbodig, straks hebben we net als vroeger aan één dag weer genoeg
Ik hoor het DMCA takedown verhaal wel vaker tegenwoordig, ik heb er echter nog nooit last van gehad. Bij mij komt alles nog rustig binnen.Verwijderd schreef op maandag 10 december 2012 @ 22:31:
Wat is eigenlijk het doel om nu nog een Newznab server op te zetten? Als ik de berichten van de afgelopen dagen zo lees, wordt al het bekende spul tegenwoordig binnen enkele uren van usenet-servers verwijderd t.g.v. die geautomatiseerde takedown-requests, en dan werken ook die nzb-tjes van Newznab niet meer. Of is het de bedoeling om zovaak nieuwe headers te scannen dat je de files al gedownload kunt hebben nog voordat aan het takedown-verzoek voldaan is? Maar dan heb je maar hooguit een paar uur de tijd toch?
Het maakt dan wel gelijk die enorme retenties van usenet-providers overbodig, straks hebben we net als vroeger aan één dag weer genoeg
Same here, totaal geen last van.senn schreef op maandag 10 december 2012 @ 22:33:
[...]
Ik hoor het DMCA takedown verhaal wel vaker tegenwoordig, ik heb er echter nog nooit last van gehad. Bij mij komt alles nog rustig binnen.
Daarnaast gebruik je een newznab server icm met iets als SickBeard, waardoor alles meteen gedownload wordt en je over het algemeen toch al geen last zult hebben van takedowns.
https://github.com/kop1/n...master/db/latestregex.sql
Even handmatig erin plempen en dan heb je (wellis waar verouderde) meer rexen. Niet de allerlaatste, maar op zijn minst wat meer.
(bron: xbmc forum)
Technical enthousiast on a budget - DiY Tutorials, How-To's and Information on how to do things yourself, better & cheaper - The Dutch way.
Ik ga morgenvroeg tussen het werk door maar eens de docs doorspitten. Jullie praten over heel veel regexen, maar ik zie nergens wat ik aan regexen heb. Ben benieuwd wat er morgen staat. Nu 30 dagen ingesteld.
[ Voor 25% gewijzigd door UltraSub op 10-12-2012 22:43 ]
Je kan er prima over praten. Het er over hebben is wat anders dan het ook echt doen/hosten. Misschien dat de invites e.d. alleen via privé berichten moeten gaan. Anders dan gaat het makkelijk voor ze.x0rcist schreef op maandag 10 december 2012 @ 22:01:
[...]
Het is dus ook absoluut niet verstandig hier openbaar te praten over zelfopgezette newznab sites (anders dan config issues etc etc) want je zal onherroepelijk een brief van brein gaan vinden op je deurmatje... Of denk je dat hun hier niet mee lezen?? Misschien niet vandaag maar ook hun speuren constant naar nieuwe "paddestoelen" ....
Maar daarom ook het idee om allemaal mirrors op te zetten. Mocht er een take-down komen, prima dan word dat stukje content verwijderd. Voor er een takedown kan worden verzonden moet eerst wat uitgezocht en bewezen worden. Met genoeg Tweakers kan je ze juridisch gezien wel even een tijdje leuk bezig houden.
Misschien dat we een beveiliging kunnen inbouwen dat het scannen van de index opvalt, die gebruiker kan dan een tijdje geband worden.
Als je weet hoe de NZB's door de geautomatiseerde takedown-request worden gevonden/gevolgd kan je er iets tegen doen? Versleutelen e.d.Verwijderd schreef op maandag 10 december 2012 @ 22:31:
Wat is eigenlijk het doel om nu nog een Newznab server op te zetten? Als ik de berichten van de afgelopen dagen zo lees, wordt al het bekende spul tegenwoordig binnen enkele uren van usenet-servers verwijderd t.g.v. die geautomatiseerde takedown-requests, en dan werken ook die nzb-tjes van Newznab niet meer. Of is het de bedoeling om zovaak nieuwe headers te scannen dat je de files al gedownload kunt hebben nog voordat aan het takedown-verzoek voldaan is? Maar dan heb je maar hooguit een paar uur de tijd toch?
Het maakt dan wel gelijk die enorme retenties van usenet-providers overbodig, straks hebben we net als vroeger aan één dag weer genoeg
Wikipedia: Online Copyright Infringement Liability Limitation Act
Als ik dat zo lees dan komt dit allemaal uit Amerika. Dat is ook geldig in Nederland?
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Regexes definieren het patroon waar Newznab naar zoekt als hij door alle posts heen gaat. Het is nodig om multi-part posts aan elkaar kunnen koppelen en vervolgens de naam/hoeveelheid posts/etc. eruit te trekken. De regexes zijn dan ook eigenlijk het hele eiereneten van het indexeren.UltraSub schreef op maandag 10 december 2012 @ 22:38:
Ik zal wel scheel zijn, of het zit er echt niet in, maar is er nergens een log in de webinterface, van waar Newznab mee bezig is? Heb nu een init.d script gemaakt, en als het goed is moet het nu automatisch werken, ook na een reboot. Stoppen met dat script werkt echter voor geen meter, blijft gewoon draaien
Ik ga morgenvroeg tussen het werk door maar eens de docs doorspitten. Jullie praten over heel veel regexen, maar ik zie nergens wat ik aan regexen heb. Ben benieuwd wat er morgen staat. Nu 30 dagen ingesteld.
Wat betreft de initfiles: waarom kan je hem niet stoppen? Bestaat de lockfile nog (cat /var/run/newznab.pid)?
Lees ik hier een peer-to-peer/top-down MySQL master-slave systeemUltimation schreef op maandag 10 december 2012 @ 22:48:
[...]
Maar daarom ook het idee om allemaal mirrors op te zetten. Mocht er een take-down komen, prima dan word dat stukje content verwijderd. Voor er een takedown kan worden verzonden moet eerst wat uitgezocht en bewezen worden. Met genoeg Tweakers kan je ze juridisch gezien wel even een tijdje leuk bezig houden.
[...]
Zeker als we newsnab poorten naar een NoSQL oplossing (hbase anyone). Dan kunnen we altijd nog de 'plausible deniability' kaart trekken...
"ik weet niet welk deel van de data er op mijn node staat, meneer de agent"
Everybody happy??? I soon change that here we go...
Ik snap wat regexes doensenn schreef op maandag 10 december 2012 @ 22:49:
[...]
Regexes definieren het patroon waar Newznab naar zoekt als hij door alle posts heen gaat. Het is nodig om multi-part posts aan elkaar kunnen koppelen en vervolgens de naam/hoeveelheid posts/etc. eruit te trekken. De regexes zijn dan ook eigenlijk het hele eiereneten van het indexeren.
Wat betreft de initfiles: waarom kan je hem niet stoppen? Bestaat de lockfile nog (cat /var/run/newznab.pid)?
Zie ze alleen nergens staan, en omdat mensen hier zeggen dat ze er honderden hebben met de + versie, vroeg ik me af waar ze die dan zien staan...
Over het stoppen, init script zegt netjes stopped, maar als ik daarna start krijg ik een already running. En inderdaad, als ik na het stoppen kijk, zie ik verschillende processen nog lopen. Ik zoek dat morgen wel ff uit, laat hem maar eens lekker rammelen nu... Snapshot staat nog op de VM, dus ik kan altijd nog makkelijk terug mocht het niks worden.
^^ Goed idee eigenlijkMysteryman schreef op maandag 10 december 2012 @ 22:54:
[...]
Lees ik hier een peer-to-peer/top-down MySQL master-slave systeemDan kunnen ze inderdaad gaan rennen
Zeker als we newsnab omzetten naar een NOSQL oplossing. Dan kunnen we altijd nog de 'plausible deniability' kaart trekken...
"ik weet niet welk deel van de data er op mijn node staat, meneer de agent"
We zijn natuurlijk niet voor niets tweaker dus laten we het dan gelijk masaal en groots aanpakken onder het motto "Just because we can"
[ Voor 10% gewijzigd door ShadowBumble op 10-12-2012 22:57 ]
"Allow me to shatter your delusions of grandeur."
Dan deel je geen bestanden alleen data waarmee je een NZB zou kunnen maken.. Is het verboden om van tekst in een database een NZB te maken voor eigen gebruik? Hmm makes you think..
[ Voor 14% gewijzigd door Ultimation op 10-12-2012 22:59 ]
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Nou zullen we dan even helemaal gek doen ?Ultimation schreef op maandag 10 december 2012 @ 22:58:
Cluster kun je altijd nog verder uitbreiden. Misschien moet je ook niet de NZB's op internet delen. Maar mensen beperkt toegang geven tot het cluster. En alle informatie opslaan in de database.
Dan deel je geen bestanden en mogelijkheden alleen data waarmee je een NZB zou kunnen maken.. Hmm makes you think..
- Top Down MySQL cluster
- Alles backends verbonden via P2P Encypted VPN tunnels
- Alles dicht getimmerd met ufw ( Ip restricted backend peering dus )
Ach zullen we dan ook maar bgp routing ertussen doen zodat de node beheerders lekker op elkaars nassen mee kunnen draaien
EDIT//
Bedenk net als we dan als frontserving ngix gebruiken die het static serverveerd en daarachter apache2 gebruiken om de dynamisch content af te handellen of sla ik nu door
[ Voor 10% gewijzigd door ShadowBumble op 10-12-2012 23:03 ]
"Allow me to shatter your delusions of grandeur."
Waarom in reverse proxy modus draaien? Bij Sickbeard etc snap ik dat wel, omdat ze hun ingebouwde webserver hebben. Maar newznab is php dus die draai je gewoon direct via Apache. Ik heb het zo gedaan:BlackBurn schreef op maandag 10 december 2012 @ 22:13:
Newznab installatie valt reuze mee, dat was zo gepiept en is nu lekker aan het indexen, ben ook maar meteen voor de plus versie gegaan.
Het enige waar ik nog tegen aan loop is, dat ik hem nog niet fatsoenlijk ge-reversed-proxied (mooi woordkrijg. Iemand hier een voorbeeld van?
1
2
3
4
5
6
7
8
9
| Alias /newznab /opt/newznab/www
<Directory /opt/newznab/www/>
Options FollowSymLinks
AllowOverride All
Order allow,deny
Allow from 192.168.1
Allow from 127.0.0.1
Satisfy Any
</Directory> |
En dan in de .htaccess:
1
| RewriteBase /newznab |
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
[ Voor 33% gewijzigd door Mysteryman op 10-12-2012 23:17 . Reden: hadoop idee geschrapt... te volatile ]
Everybody happy??? I soon change that here we go...
Niet perse je kan ook alles Master maken in een HA setupMysteryman schreef op maandag 10 december 2012 @ 23:12:
Nadeel van top-down is dat als de eerste node dood gaat, de rest niet meer geupdate wordt. Ik zat meer te denken aan random peer-to-peer; waarbij de master node gewoon random bepaald wordt en een update doet
Verder: je zou ook de database kunnen scoopen op Hadoop en iedereen data nodes laten draaien over vpn, dan kun je (zoals ik al eerder zei) nog plausible deniability toepassen
Maar ik denk dat we rustig kunnen stellen dat je met zo'n setup plausible deniability wel kunt vergeten
"Het is de database voor de familiealbums" gaat dan echt niet op hoor
"Allow me to shatter your delusions of grandeur."
Meteen ook de geneugten van lvm leren kennen vanavond, mijn vm op esx geresized van 16gb naar 120gb, online
If it ain't broken it doesn't have enough features
Ah, my bad; ik had onderstaande regel begrepen als: er staat nergens wat een regex voor mij doet.
UltraSub schreef op maandag 10 december 2012 @ 22:38:
Jullie praten over heel veel regexen, maar ik zie nergens wat ik aan regexen heb.
Trouwens gevonden:
http://url/admin/regex-list.php
Niet om roet in het eten te gooien oid (want het is een schitterend hobby project als ik het zo lees)Ultimation schreef op maandag 10 december 2012 @ 23:06:
Volgens mij hebben we zojuist een goed plan bedacht.
Maar BREIN en consorten hebben echt totaal geen interesse in de technische achtergrond van jouw oplossing. Die zijn gewoon van de manier van : Bewijs je onschuld maar voor de rechter of betaal je schuld maar af.
En als jij een advocaat een zwaar technische verklaring laat geven voor het bewaren van je boodschappenlijstje, tja dan is de kans vrij groot dat de rechter die uitleg "twijfelachtig" vind (als jij het uiteraard al voor het gerecht wilt slepen, want BREIN zal dit niet snel doen)
Volgens mij is de Nederlandse wet nog steeds zo dat de aanklager bewijst en niet de aangeklaagde maar das een hele andere discussie en laat je dus ook nooit wat wijs maken daarover. Tevens als ze je toch aangeklagen heb je het RECHT de bewijsstukken in te zien.Gomez12 schreef op maandag 10 december 2012 @ 23:34:
Maar BREIN en consorten hebben echt totaal geen interesse in de technische achtergrond van jouw oplossing. Die zijn gewoon van de manier van : Bewijs je onschuld maar voor de rechter of betaal je schuld maar af.
"Allow me to shatter your delusions of grandeur."
Het idee van dit hobby project is ook dat partijen als Brein e.d. natuurlijk niet achter onze activiteiten komen.Gomez12 schreef op maandag 10 december 2012 @ 23:34:
[...]
Niet om roet in het eten te gooien oid (want het is een schitterend hobby project als ik het zo lees)
Maar BREIN en consorten hebben echt totaal geen interesse in de technische achtergrond van jouw oplossing. Die zijn gewoon van de manier van : Bewijs je onschuld maar voor de rechter of betaal je schuld maar af.
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Technical enthousiast on a budget - DiY Tutorials, How-To's and Information on how to do things yourself, better & cheaper - The Dutch way.
Klopt ik ik draai nu ngix + php-fpm + percura db draait echt razendsnel met belachelijk weinig load.j1nx schreef op maandag 10 december 2012 @ 23:51:
Overigens is Apache nogal geheugen hongerig. Gezien MySQL straks ook wel het een en andere nodig gaat hebbenkun je misschien nu beter voor Nginx icm php-fpm kiezen.
Full overview : ( Allemaal latest release )
PHP
Pear
Percona
Nginx
FFmpeg
MediaInfo
Lame
unrar
Sphinx
"Allow me to shatter your delusions of grandeur."
[ Voor 7% gewijzigd door White_Collar op 11-12-2012 00:12 ]
"The reason for time is so that everything doesn't happen at once"
Mijn Films en TV Series, Games en Muziek.
Verwijderd
Maar afgaande op een paar antwoorden op mijn vraag eerder hier, blijkt niet iedereen last te hebben van die takedowns, dus wellicht valt het wel mee.
Dit is niet verschillend van andere usenetindexers. Ze kennen hetzelfde probleem (dat nogal meevalt hier).Anthirian schreef op dinsdag 11 december 2012 @ 01:11:
Wat mij nog niet helemaal duidelijk is (vast omdat ik de fijne kneepjes van usenet niet ken) is hoe "onze" te bouwen newznabserver uiteindelijk zal kunnen indexeren als bij de usenetservers zelf alle posts meteen verwijderd zijn. Is het dan niet mosterd na de maaltijd? Ik weet dat bij uploaden naar usenet alles gemirrord wordt naar de andere aanbieders van usenet, maar is het niet zo dat bij een takedown die data ook automatisch van de andere aanbieders verwijderd wordt? Volgens mij maakt het in dat geval helemaal niet uit hoevaak en hoe snel je indexeert, want als je een backlog aan series die je wil zien hebt staan krijg je die toch nooit meer binnen als het al verwijderd is?
Op nzbmatrix zag je wel eens een diff group post voorbij komen als de eerste taken down of genuked was. Eventueel dat we in die richting kunnen zoeken?
Anyone who gets in between me and my morning coffee should be insecure.
Veel uploaders naar usenet plaatsen hun spul gewoon expres in meerdere groepen.jarco5000 schreef op dinsdag 11 december 2012 @ 02:08:
[...]
Dit is niet verschillend van andere usenetindexers. Ze kennen hetzelfde probleem (dat nogal meevalt hier).
Op nzbmatrix zag je wel eens een diff group post voorbij komen als de eerste taken down of genuked was. Eventueel dat we in die richting kunnen zoeken?
De goedkope en gratis usenet providers hebben namelijk niet altijd alle alt.bin groepen beschikbaar, of hele slechte retentie in de grote groepen.
Verwijderd
//
Somige sites hebben een community die ook handmatig bestanden indexeert. Da's onvermijdelijk als de bestandsnamen geen gangbare naamgeving of 'vreemde' namen hebben, die Newznab niet herkent.Dick schreef op dinsdag 11 december 2012 @ 03:25:
Als ik het goed begrijp is Newznab dus eigenlijk de indexer waarmee de bekende (al dan niet betaalde) NZB-websites werken? In feite doen zij dus niet veel meer dan een abonnement verlenen dat toegang geeft tot hun NewzNab server?
[ Voor 40% gewijzigd door Verwijderd op 11-12-2012 03:48 ]
Ik draai ongeveer dezelfde setup maar heb nog wat problemen met Sphinx:ShadowBumble schreef op maandag 10 december 2012 @ 23:53:
Klopt ik ik draai nu ngix + php-fpm + percura db draait echt razendsnel met belachelijk weinig load.
Full overview : ( Allemaal latest release )
Sphinx
1
| PHP Notice: Undefined index: total-documents in /var/www/newznab/www/lib/sphinx.php on line 331 |
1
2
3
4
5
6
7
8
9
| WARNING: failed to open pid_file '/var/www/newznab/db/sphinxdata/searchd.pid'. indexing index 'releases_delta'... collected 799 docs, 0.1 MB sorted 0.4 Mhits, 100.0% done total 799 docs, 119660 bytes total 0.541 sec, 220951 bytes/sec, 1475.35 docs/sec total 3 reads, 0.005 sec, 693.9 kb/call avg, 1.6 msec/call avg total 13 writes, 0.014 sec, 398.5 kb/call avg, 1.1 msec/call avg WARNING: indices NOT rotated. |
Tijdens update releases
Enig idee?
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Als je ubuntu draait :Freekers schreef op dinsdag 11 december 2012 @ 08:00:
[...]
Ik draai ongeveer dezelfde setup maar heb nog wat problemen met Sphinx:
code:
1 PHP Notice: Undefined index: total-documents in /var/www/newznab/www/lib/sphinx.php on line 331
code:
1 2 3 4 5 6 7 8 9 WARNING: failed to open pid_file '/var/www/newznab/db/sphinxdata/searchd.pid'. indexing index 'releases_delta'... collected 799 docs, 0.1 MB sorted 0.4 Mhits, 100.0% done total 799 docs, 119660 bytes total 0.541 sec, 220951 bytes/sec, 1475.35 docs/sec total 3 reads, 0.005 sec, 693.9 kb/call avg, 1.6 msec/call avg total 13 writes, 0.014 sec, 398.5 kb/call avg, 1.1 msec/call avg WARNING: indices NOT rotated.
Tijdens update releases
Enig idee?
http://sphinxsearch.com/downloads/release/
En daar gewoon het pre-compiled package pakken
"Allow me to shatter your delusions of grandeur."
Bedankt voor de snelle reply.ShadowBumble schreef op dinsdag 11 december 2012 @ 08:03:
Als je ubuntu draait :
http://sphinxsearch.com/downloads/release/
En daar gewoon het pre-compiled package pakkendat deed de trick voor mij
Yes I draai Ubuntu. Ik heb eerst deze tutorial gevolgd: http://newznab.readthedoc...tall_ubuntu-11.10/#sphinx
Hoe kan ik deze het beste ongedaan maken en overstappen op het pre-compiled package?
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
eerst dkpg -r sphinx doenFreekers schreef op dinsdag 11 december 2012 @ 08:05:
[...]
Bedankt voor de snelle reply.
Yes I draai Ubuntu. Ik heb eerst deze tutorial gevolgd: http://newznab.readthedoc...tall_ubuntu-11.10/#sphinx
Hoe kan ik deze het beste ongedaan maken en overstappen op het pre-compiled package?
"Allow me to shatter your delusions of grandeur."
En daarna het Ubuntu package wgetten vanaf die site?ShadowBumble schreef op dinsdag 11 december 2012 @ 08:06:
eerst dkpg -r sphinx doen
Ik draai wel 12.04 en niet 10.04..
🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp
Momenteel ben ik Ubuntu aan het installeren in een VM en natuurlijk Newznab. Als er eventueel wat gedaan moet worden met PHP / MySQL / HTML / CSS ben ik natuurlijk bereid om mee te helpen
Ik kan eventueel de VM delen mochten mensen hier behoefte aanhebben
[ Voor 13% gewijzigd door MaNDaRK op 11-12-2012 10:56 ]
Hier ook problemen met Sphinx,Freekers schreef op dinsdag 11 december 2012 @ 08:00:
[...]
Ik draai ongeveer dezelfde setup maar heb nog wat problemen met Sphinx:
./nnindexer generate
nnindexer bestaat niet. Moet ik nog even uitzoeken, want alle compiles en installaties gingen wel goed. Weird.
Nog beter zou zijn als de releasegroepen direct op onze Index de releases zouden droppen.Anthirian schreef op dinsdag 11 december 2012 @ 01:11:
Wat mij nog niet helemaal duidelijk is (vast omdat ik de fijne kneepjes van usenet niet ken) is hoe "onze" te bouwen newznabserver uiteindelijk zal kunnen indexeren als bij de usenetservers zelf alle posts meteen verwijderd zijn. Is het dan niet mosterd na de maaltijd? Ik weet dat bij uploaden naar usenet alles gemirrord wordt naar de andere aanbieders van usenet, maar is het niet zo dat bij een takedown die data ook automatisch van de andere aanbieders verwijderd wordt? Volgens mij maakt het in dat geval helemaal niet uit hoevaak en hoe snel je indexeert, want als je een backlog aan series die je wil zien hebt staan krijg je die toch nooit meer binnen als het al verwijderd is?
MacBook Pro 2023 [14-inch, M2 Pro, 32GB RAM, 512GB]
Ja je kan natuurlijk ook gewoon hun PPA installerenFreekers schreef op dinsdag 11 december 2012 @ 08:07:
[...]
En daarna het Ubuntu package wgetten vanaf die site?
Ik draai wel 12.04 en niet 10.04..
https://launchpad.net/~chris-lea/+archive/sphinxsearch
Dan pakt hij direct de juist versie voor je distro
Doe eens ./nnindexer.php generateUltraSub schreef op dinsdag 11 december 2012 @ 09:30:
[...]
Hier ook problemen met Sphinx,
./nnindexer generate
nnindexer bestaat niet. Moet ik nog even uitzoeken, want alle compiles en installaties gingen wel goed. Weird.
[ Voor 30% gewijzigd door ShadowBumble op 11-12-2012 09:36 ]
"Allow me to shatter your delusions of grandeur."
UltraSub schreef op dinsdag 11 december 2012 @ 09:30:
[...]
Hier ook problemen met Sphinx,
./nnindexer generate
nnindexer bestaat niet. Moet ik nog even uitzoeken, want alle compiles en installaties gingen wel goed. Weird.
chmod +x nnindexer.php
Of anders;
php nnindexer.php
Technical enthousiast on a budget - DiY Tutorials, How-To's and Information on how to do things yourself, better & cheaper - The Dutch way.
Iedereen is hier nu voor zichzelf een ( pc-verslindende ) service aan het opzetten.
Hebben jullie nagedacht over het 'feit' dat je gewoon weer ouderwets aan het headeren zijn ?
Ik denk dat het binnenkort voor usenet weer zo gaat zijn, NBpro met favoriete groepen, en elke 30minuten een run op de filters laten doen ?
Correct, maar daarmee stuur je nog steeds niet je sickbeard en dergelijke aan met dit welFreshMaker schreef op dinsdag 11 december 2012 @ 09:45:
My 2cts ?
Iedereen is hier nu voor zichzelf een ( pc-verslindende ) service aan het opzetten.
Hebben jullie nagedacht over het 'feit' dat je gewoon weer ouderwets aan het headeren zijn ?
Ik denk dat het binnenkort voor usenet weer zo gaat zijn, NBpro met favoriete groepen, en elke 30minuten een run op de filters laten doen ?
Voor de mensen die nu al hun indexer hebben draaien welke groups watchen jullie en hoeveel backlog stellen jullie in ?
[ Voor 9% gewijzigd door ShadowBumble op 11-12-2012 09:52 ]
"Allow me to shatter your delusions of grandeur."
Inderdaad, ben erg benieuwd of er iets centraals gaat komen met een donatie systeemschumi2004 schreef op maandag 10 december 2012 @ 13:53:
Even de ontwikkelingen hiervan volgen.
Verwijderd
Ik heb de minimal file size op 100MB gezet voor wat groups, maar dat is een beetje een non-oplossing.
Ja, dat wil ik ook wel wetenShadowBumble schreef op dinsdag 11 december 2012 @ 09:47:
[...]
Correct, maar daarmee stuur je nog steeds niet je sickbeard en dergelijke aan met dit welBovendien is het wel weer eens leuk om zo te headeren.
Voor de mensen die nu al hun indexer hebben draaien welke groups watchen jullie en hoeveel backlog stellen jullie in ?
[ Voor 37% gewijzigd door Apie! op 11-12-2012 10:53 ]
My lungs taste the air of Time
Blown past falling sands
Idem dito hierWhy_easy schreef op dinsdag 11 december 2012 @ 09:37:
Ik heb helaas geen hardware over waar ik Newznab op kan draaien, anders had ik graag geholpen. Ik heb natuurlijk wel in interesse in een private server. Dus zodra die gestart is, zou ik hem graag willen joinen. Bereid om een donatie te doen natuurlijk
Ben je niet bang dat je straks met een donatieversie hetzelfde lot ondergaat als nzbmatrix?
[ Voor 63% gewijzigd door Apie! op 11-12-2012 11:00 ]
My lungs taste the air of Time
Blown past falling sands
Als je 'm privé houdt, zie ik dat niet gebeuren. Of bedoel je wanneer we zoiets met zn allen op zouden zetten?Apie! schreef op dinsdag 11 december 2012 @ 10:59:
Dat komt doordat de gratis versie een hoop regexp mist. Ik heb nu de plus versie en die indexeert echt een hoop meer.
Ben je niet bang dat je straks met een donatieversie hetzelfde lot ondergaat als nzbmatrix?
Maar inderdaad, als we zoiets met z'n allen opzetten lopen we toch hetzelfde risico?
[ Voor 35% gewijzigd door Apie! op 11-12-2012 11:06 ]
My lungs taste the air of Time
Blown past falling sands
Ja, dat wil ik inderdaad doen. Maar in het begin wil ik m sowieso niet public maken.Apie! schreef op dinsdag 11 december 2012 @ 11:04:
Oh, ik las je post niet goed... Ik dacht je een donatieversie op ging zetten
edit: De donate-versie van Newznab bedoel ik dan.
[ Voor 9% gewijzigd door BioHazard op 11-12-2012 11:06 ]
Ik zou helemaal niks public maken , maar das mijn mening.BioHazard schreef op dinsdag 11 december 2012 @ 11:06:
[...]
Ja, dat wil ik inderdaad doen. Maar in het begin wil ik m sowieso niet public maken.
edit: De donate-versie van Newznab bedoel ik dan.
j1nx schreef op maandag 10 december 2012 @ 22:38:
Voor de mensen die niet voor de Plus versie willen gaan, maar toch wat meer als twee regexen willen;
https://github.com/kop1/n...master/db/latestregex.sql
Even handmatig erin plempen en dan heb je (wellis waar verouderde) meer rexen. Niet de allerlaatste, maar op zijn minst wat meer.
(bron: xbmc forum)
Gewoon direct in mn database importeren?Coenen schreef op dinsdag 11 december 2012 @ 11:21:
@BioHazard, mocht je wat regexen willen hebben;
[...]
My lungs taste the air of Time
Blown past falling sands
Dit staat in je mail:Apie! schreef op dinsdag 11 december 2012 @ 11:31:
@Coenen, moest jij die plusregex.sql andmatig importeren voor de plus versie? Ik wel vanaf een schone install. Beetje vreemd.
Once entered, the next time you run an update of binaries/releases the latest user contributed regexes will be pulled down into your installation.
Also known as Oizopower | When Life Gives You Questions, Google has Answers
My lungs taste the air of Time
Blown past falling sands
https://docs.google.com/s...Bmc0d2LTlQYkdxNFJkUnF6QlE
Wellicht makkelijk om deze in de OP te zetten, zodat hier iedereen zijn/haar naam kan bijzetten, zonder elke keer de +1 te plaatsen.
PS. Vele wilde zelf een server opzetten, die staat hier nu niet in. Daarnaast zal ik er ongetwijfeld een stel vergeten zijn, dit is niet bewust!
Verwijderd
Count me in!FabianNL schreef op dinsdag 11 december 2012 @ 11:38:
Om het iets makkelijker te houden, alle donateurs in een Excel bestandje:
https://docs.google.com/s...Bmc0d2LTlQYkdxNFJkUnF6QlE
Wellicht makkelijk om deze in de OP te zetten, zodat hier iedereen zijn/haar naam kan bijzetten, zonder elke keer de +1 te plaatsen.
PS. Vele wilde zelf een server opzetten, die staat hier nu niet in. Daarnaast zal ik er ongetwijfeld een stel vergeten zijn, dit is niet bewust!
Arrived anxious, left bored
[code]
Updating 'releases'
FATAL: no indexes found in config file '/var/www/newznab/db/sphinxdata/'
Updating 'releasefiles'
FATAL: no indexes found in config file '/var/www/newznab/db/sphinxdata/'
Updating 'releasenfo'
FATAL: no indexes found in config file '/var/www/newznab/db/sphinxdata/'
[/code]
Maar ff kijken wat daar mis gaat
Laat maar Sphinx werkt nu perfect hier
[ Voor 97% gewijzigd door MrOizo2005 op 11-12-2012 11:51 ]
Also known as Oizopower | When Life Gives You Questions, Google has Answers
Daarnaast ben ik best bereid te doneren maar als deze dan maar tot halverwege volgend jaar duurt is het ook jammer.
Het is me al duidelijk (denk ik)
[ Voor 6% gewijzigd door schumi2004 op 11-12-2012 11:45 ]
nu voel ik me oudFabianNL schreef op dinsdag 11 december 2012 @ 11:38:
Om het iets makkelijker te houden, alle donateurs in een Excel bestandje:
https://docs.google.com/s...Bmc0d2LTlQYkdxNFJkUnF6QlE
Wellicht makkelijk om deze in de OP te zetten, zodat hier iedereen zijn/haar naam kan bijzetten, zonder elke keer de +1 te plaatsen.
PS. Vele wilde zelf een server opzetten, die staat hier nu niet in. Daarnaast zal ik er ongetwijfeld een stel vergeten zijn, dit is niet bewust!
intergalactic.fm
'You like a gay cowboy and you look like a gay terrorist.' - James May
Als er genoeg mensen bereid zijn tot een kleine donatie, is de kans ook wat groter dat mensen hun server hievoor willen inzetten. Inderdaad klopt het wel wat je zegt, de kans is groot dat het alsnog maar een paar maanden blijft draaien. Maar als we allemaal een 'paar euro' neerleggen, lijkt me dat per persoon ook niet zo spannend.schumi2004 schreef op dinsdag 11 december 2012 @ 11:42:
Hoe wat waar doneren? Kan mijn naam er wel bij zetten maar dan is er nog niks gebeurt. Vraag me ook af of we dit wel mogen bespreken hier maar dat is een tweede.
Daarnaast ben ik best bereid te doneren maar als deze dan maar tot halverwege volgend jaar duurt is het ook jammer.
Verder moeten degene welke een server hebben maar even zelf kijken of ze hier aan willen beginnen. Kan me voorstellen dat als straks 200 man erop zitten, het toch wel wat vraagt van de server? Of gewoon op invite, en voor elke invite 5 euro betalen? Ik roep nu ook maar iets!
En inderdaad, geen flauw idee of we dit hier mogen bespreken
Eens, goed plan! Kunnen we een beetje vraag/aanbod gaan vergelijken.Phyxion schreef op dinsdag 11 december 2012 @ 11:47:
Misschien ook handig om een lijstje op te stellen met mensen die server capaciteit kunnen leveren (incl. specificaties)? Dan is het tenminste ook mogelijk om daar wat voor te regelen.
[ Voor 14% gewijzigd door FabianNL op 11-12-2012 11:48 ]