Confusion schreef op vrijdag 01 december 2006 @ 13:30:
[...]
Je zou in plaats van gelijkstroom wisselstroom kunnen gebruiken
[1] en een kleur toekennen aan bepaalde frequentiegebieden. Of je zou het energiespectrum van de electronen die door de transistor komen kunnen bepalen en daar per schaaldeel een 'kleur' aan koppelen (om wat vage definities van 'kleur' te introduceren die niet minder excentriek zijn dan de indeling van quarks in 'kleuren').
[1] Het levert heel wat nare problemen en moeilijkheden op, maar dit is alleen maar
for the sake of argument
Conclusie: het heeft helemaal niks met de golflengte van electromagnetische straling te maken

Dat je een golflengte kunt meten en kwantificeren om deze vervolgens in de toestand van een bepaald object vast te leggen, dat is triviaal. De vraag is meer: "Hoeveel informatie kun je met een transistor beschrijven?" Die vraag is weer direct gelinkt aan: "In hoeveel verschillende toestanden kun je een transistor brengen?".
Het leuke is dat de statistiek van de toestand van een transistor bepaald hoeveel informatie deze daadwerkelijk bevat. Als deze bij iedere keer uitlezen dezelfde toestand heeft, dan bevat hij geen informatie. Als de kans op de ene toestand gelijk is aan de kans op de andere toestand, dan is de toestand van de transistor maximaal onzeker en dan beschrijft het uitlezen van de transistor een maximale hoeveelheid van 1.44 nat (of 1 bit dus) gegeven 2 mogelijke toestanden.
Een transistor die 20% van de tijd een nul voorstelt en 80% van de tijd een 1 bevat een informatie gelijk aan: I = - ( 0.2log2(0.2) + 0.8log2(0.8) ) ~ 0.72 bits. Hetzelfde geldt voor een stuk tekst. Stel dat we een tekst hebben waarin 26 letters kunnen voorkomen. De hoeveelheid informatie is maximaal als iedere letter voorkomt met een kans van 1 op 26. Stel dat we een tekst hebben van 100 van die symbolen. Dan is de totale informatie 100 x log2(26) = 470 bits.
Stel nu dat we eenzelfde tekst uit een iets andere bron hebben; de bron heeft nu een voorkeur voor bepaalde symbolen. Stel dat alleen de eerste 13 symbolen in de output van de bron voorkomen. De kans op de andere symbolen is 0. De andere symbolen komen dan voor met een kans 1/13. De informatie van 100 tekens van deze bron is nu I = 100 * - 13 * 1/13 log2 ( 1/13) = 370 bits. We zien nu dat de 100 tekens van de bron minder informatie bevatten. We zouden nu voor ieder symbool niet langer 4.7 bits nodig hebben maar nog slechts 3.7 bits. Er is dus een encodeerschema (bijvoorbeeld Huffmann) dat deze 100 symbolen in 370 bits kan comprimeren.
Wat velen hier in dit topic beweren is iets in de zin van: "Maar als we een tekst opslaan, dan kunnen we de spaties wel weglaten. Het leest moeilijker, maar het is nog wel te begrijpen!" Wat ze hierbij vergeten is dat je een compleet woordenboek mee moet opslaan (okee, jij en ik hebben die al in ons hoofd, maar een computer of ander uitleesapparaat niet!) om de spaties in te voegen op de plekken waar ze zijn weggelaten.
[
Voor 7% gewijzigd door
0rbit op 01-12-2006 14:11
]