Nav musiman in 'nieuws: Helft gebruikers Tweakers.net blijkt zwak wachtwoord te hebben' vroeg ik me eigenlijk eens af wat de maximale grootte van een nuttige dictionary is. (Ja, uiteraard precies degene met enkel de juiste wachtwoorden
)
Compressed 33Gb, volgens mij is dat sneller te genereren dan je hdd het kan produceren en combineren.
Rainbow tables zie ik nog wel een toegevoegde waarde in, omdat een md5-hash nog relatief zwaar is tov een enkel index-read.
Maar 33Gb compressed, dat is volgens mij helemaal niet zinnig meer omdat zo ongeveer alle bewerkingen daarin uitgeschreven zullen staan, terwijl volgens mij een GPU/CPU sneller een bewerking kan doen dan een HDD kan lezen.
Denk ik hier verkeerd en heeft een grotere dictionary altijd nut, of is er ergens een keerpunt (en zoja, waar ongeveer?)
Compressed 33Gb, volgens mij is dat sneller te genereren dan je hdd het kan produceren en combineren.
Rainbow tables zie ik nog wel een toegevoegde waarde in, omdat een md5-hash nog relatief zwaar is tov een enkel index-read.
Maar 33Gb compressed, dat is volgens mij helemaal niet zinnig meer omdat zo ongeveer alle bewerkingen daarin uitgeschreven zullen staan, terwijl volgens mij een GPU/CPU sneller een bewerking kan doen dan een HDD kan lezen.
Denk ik hier verkeerd en heeft een grotere dictionary altijd nut, of is er ergens een keerpunt (en zoja, waar ongeveer?)