Het leek mij leuk om een idee van mij hier te sharen en te kijken of dit enigzins haalbaar is en of dit idee een oplossing is voor een veel voorkomend probleem.
Historie
Back in '99 had je Napster, een superproduct met helaas een fout (juridisch) uitgangspunt: de index van bestanden stond op een centrale server. De makers konden hierdoor makkelijk worden aangepakt en er werd geëist dat er een filter over de server heen moest om copyright-issues te voorkomen. We weten allemaal hoe dit is afgelopen (Napster is zo goed als verdwenen).
De oplossing lag in P2P: geen centrale server meer waardoor er geen 'centrale' plek meer was wat kon worden aangepakt. We weten hoe dit is afgelopen: nog steeds een groot succes via eerst Kazaa en later Torrents.
Probleem
Bij het zoeken naar torrents is er echter weer een probleem. De informatie over torrents staat op een website die vaak op een centrale plek staat. De sitemakers (en in mindere mate de providers) zijn traceerbaar en zijn nu in een groots gevecht met copyrightholders (denk piratebay.org). Voor nu hebben ze nog redelijk de dans kunnen ontspringen maar naar mijn idee duurt dit niet lang meer.
Parallel hieraan hebben sites met controversiële en soms illegale inhoud het ook moeilijk (bijvoorbeeld Wikileaks).
Oplossing
Waarom zouden we P2P techniek niet kunnen toepassen voor websites? Verdeel stukjes website over gebruikers en het uit de lucht halen van zo'n website is schier onmogelijk. DDOS attacks behoren tot het verleden, opschalen is een eitje en content die controversieel is (copyright, klokkeluiders) blijft voor iedereen bereikbaar.
Vraag
- Is dit technisch mogelijk?
- Hoe gaan we om met DNS?
- Hoe bouw je zoiets?
- 'What's in it' voor de gebruiker? (bij torrents is dat obvious)
- Kunnen we een gezamenlijk project hier van maken?
Ben benieuwd!
Historie
Back in '99 had je Napster, een superproduct met helaas een fout (juridisch) uitgangspunt: de index van bestanden stond op een centrale server. De makers konden hierdoor makkelijk worden aangepakt en er werd geëist dat er een filter over de server heen moest om copyright-issues te voorkomen. We weten allemaal hoe dit is afgelopen (Napster is zo goed als verdwenen).
De oplossing lag in P2P: geen centrale server meer waardoor er geen 'centrale' plek meer was wat kon worden aangepakt. We weten hoe dit is afgelopen: nog steeds een groot succes via eerst Kazaa en later Torrents.
Probleem
Bij het zoeken naar torrents is er echter weer een probleem. De informatie over torrents staat op een website die vaak op een centrale plek staat. De sitemakers (en in mindere mate de providers) zijn traceerbaar en zijn nu in een groots gevecht met copyrightholders (denk piratebay.org). Voor nu hebben ze nog redelijk de dans kunnen ontspringen maar naar mijn idee duurt dit niet lang meer.
Parallel hieraan hebben sites met controversiële en soms illegale inhoud het ook moeilijk (bijvoorbeeld Wikileaks).
Oplossing
Waarom zouden we P2P techniek niet kunnen toepassen voor websites? Verdeel stukjes website over gebruikers en het uit de lucht halen van zo'n website is schier onmogelijk. DDOS attacks behoren tot het verleden, opschalen is een eitje en content die controversieel is (copyright, klokkeluiders) blijft voor iedereen bereikbaar.
Vraag
- Is dit technisch mogelijk?
- Hoe gaan we om met DNS?
- Hoe bouw je zoiets?
- 'What's in it' voor de gebruiker? (bij torrents is dat obvious)
- Kunnen we een gezamenlijk project hier van maken?
Ben benieuwd!