Ik vroeg me af hoe de mensen hier in hun code met geld bedragen omgaan ivm de machine onnauwkeurigheid. Dit is eigenlijk een vrij bekend probleem, en er is dan ook enorm veel al over geschreven. Echter die hoeveelheid materiaal is ook een beetje het probleem. Via google stuit ik op talloze papers over de voordelen of juist nadelen van bijvoorbeeld binary coded decimals (BCD). Volgens de ene is het de oplossing van alle problemen, maar volgens de andere maskeer je het echte probleem juist en geven floats bij dezelfde aantal bits altijd de effecientste nauwkeurigheid.
Al die theoretische verhandelingen zijn erg interesant, maar wat doet iedereen nu in de praktijk?
Als ik nu bijvoorbeeld bedragen als floats opsla in de DB als duizendste centen, dan zou ik toch bijna nooit een probleem moeten hebben?
Dus, 1 cent = 1000 in de DB. In de range van 0 t/m 0.001 cent heb ik dan geen onnauwkeurigheid, en beneden die grens ben ik aan het binaire deel stelsel overgeleverd hoe exact ie een specificiek bedrag kan weergeven.
Nu lijkt me dit systeem bijna -te- simpel. Zie ik iets over het hoofd? Als het zo simpel was dan zou je zeggen dat er geen complete boeken over dit onderwerp geschreven hoeven te worden. Dus wat mis ik?
Al die theoretische verhandelingen zijn erg interesant, maar wat doet iedereen nu in de praktijk?
Als ik nu bijvoorbeeld bedragen als floats opsla in de DB als duizendste centen, dan zou ik toch bijna nooit een probleem moeten hebben?
Dus, 1 cent = 1000 in de DB. In de range van 0 t/m 0.001 cent heb ik dan geen onnauwkeurigheid, en beneden die grens ben ik aan het binaire deel stelsel overgeleverd hoe exact ie een specificiek bedrag kan weergeven.
Nu lijkt me dit systeem bijna -te- simpel. Zie ik iets over het hoofd? Als het zo simpel was dan zou je zeggen dat er geen complete boeken over dit onderwerp geschreven hoeven te worden. Dus wat mis ik?
It's shocking to find how many people do not believe they can learn, and how many more believe learning to be difficult.