Beste medetweakers,
Ik zit al een tijdje met het volgende in mijn hoofd. Computerontwikkelingen gaan de laatste tijd erg hard. Waar we een paar jaar terug nog computers hadden op 500 Mhz, tegenwoordig werken we op Quad processors van ieder 3,5 Ghz. We hebben ook steeds meer schrijfruimte. van Een paar GB naar personen met een prive raid setup van 1TerraByte.
Ik zit nu met een idee in mijn hoofd dat over circa een 10 jaar misschien mogelijk is. Een nieuwe manier om gegevens te versturen over het internet. Denk aan een nieuw protocol. Je hebt een Fileserver met grote bestanden, bijvoorbeeld grote documenten, trailers, mp3's etc. Stel nu dat die server in plaats van jou een file upload jou slechts een hash van de file meestuurt. Over 10 jaar is een computer waarschijnkijk snel genoeg om een document van 100mb in enkele seconden te bruteforcen. Je download alleen de hash, encode de file opnieuw en je hebt zonder enig gebruik van bandbreedte een groot file gedownload.
Is het mogelijk om dit te realiseren? Theoretisch goed uit te werken en mogelijk voor in de toekomst dus waarheid te maken?
De eerste problemen waar ik tegenkom zijn collisions. Dit kan je voorkomen voor herkenningspunten mee te geven, bijv: de bronfile moet beginnen met string "xxxxx" en eindigen met string "xxxxx". Kost een paar bytes extra en zal het decodeerproces versnellen.
Even snel een paar punten waar ik dan aan denk
+ Supersnel gegevens zenden over het internet
+ Geen bandbreedte gebruik, in feite unlimited snel gegevens downloaden
Ik kom meteen tot het volgende discussiepunt. Als dit in de toekomst mogelijkheid zou zijn. In hoeverre is grootte dan nog van belang?
Als we nog verder kijken. Is het dan niet mogelijk om enkel nog hashes van documenten te bewaren op een HDD, en deze realtime te decoderen en encoderen. Dan zou zelfs een harddisk van 1gb van nu terrabytes aan gegevens kunnen bevatten. Kijk eens naar de mogelijkheden die dit levert.
Kort samengevat:
- Is het mogelijk dit theoretisch uit te werken? (technieken, hash, protocol etc)
- Is het mogelkijk dit in de toekomst te realiseren?
- Heeft het nut om dit te realiseren?
- Wat zijn de voordelen
- Wat zijn de nadelen
Graag serieus meedenken ipv meteen het idee afkraken. Graag beargumenteerd meedenken. Dank
Ik zit al een tijdje met het volgende in mijn hoofd. Computerontwikkelingen gaan de laatste tijd erg hard. Waar we een paar jaar terug nog computers hadden op 500 Mhz, tegenwoordig werken we op Quad processors van ieder 3,5 Ghz. We hebben ook steeds meer schrijfruimte. van Een paar GB naar personen met een prive raid setup van 1TerraByte.
Ik zit nu met een idee in mijn hoofd dat over circa een 10 jaar misschien mogelijk is. Een nieuwe manier om gegevens te versturen over het internet. Denk aan een nieuw protocol. Je hebt een Fileserver met grote bestanden, bijvoorbeeld grote documenten, trailers, mp3's etc. Stel nu dat die server in plaats van jou een file upload jou slechts een hash van de file meestuurt. Over 10 jaar is een computer waarschijnkijk snel genoeg om een document van 100mb in enkele seconden te bruteforcen. Je download alleen de hash, encode de file opnieuw en je hebt zonder enig gebruik van bandbreedte een groot file gedownload.
Is het mogelijk om dit te realiseren? Theoretisch goed uit te werken en mogelijk voor in de toekomst dus waarheid te maken?
De eerste problemen waar ik tegenkom zijn collisions. Dit kan je voorkomen voor herkenningspunten mee te geven, bijv: de bronfile moet beginnen met string "xxxxx" en eindigen met string "xxxxx". Kost een paar bytes extra en zal het decodeerproces versnellen.
Even snel een paar punten waar ik dan aan denk
+ Supersnel gegevens zenden over het internet
+ Geen bandbreedte gebruik, in feite unlimited snel gegevens downloaden
Ik kom meteen tot het volgende discussiepunt. Als dit in de toekomst mogelijkheid zou zijn. In hoeverre is grootte dan nog van belang?
Als we nog verder kijken. Is het dan niet mogelijk om enkel nog hashes van documenten te bewaren op een HDD, en deze realtime te decoderen en encoderen. Dan zou zelfs een harddisk van 1gb van nu terrabytes aan gegevens kunnen bevatten. Kijk eens naar de mogelijkheden die dit levert.
Kort samengevat:
- Is het mogelijk dit theoretisch uit te werken? (technieken, hash, protocol etc)
- Is het mogelkijk dit in de toekomst te realiseren?
- Heeft het nut om dit te realiseren?
- Wat zijn de voordelen
- Wat zijn de nadelen
Graag serieus meedenken ipv meteen het idee afkraken. Graag beargumenteerd meedenken. Dank
Feeling lonely and content at the same time, I believe, is a rare kind of happiness