Lieve adjes,
ik heb even geen idee waar ik dit topic het beste kan plaatsen, vandaar dat ik hem even hierin zet in de hoop dat jullie het beste subforum weten en hem daarheen willen verplaatsen?
bvd
het topic zelf:
Ik wil graag de lichtsnelheid meten. is allemaal goed en aardig, en al zo'n 20x gedaan door enkele wetenschappers, maar ik wil het op een andere manier doen.
het licht reist met een snelheid van een kleine 300.000 km/seconde.
300.000 km/s
300.000.000 m/s
als opstelling laat ik het licht een afstand van 1km afleggen.
je krijgt dan dus een tijdsverschil tussen punt A ( 0 meter) en punt B ( 1000 meter) van
3.333 x 10^ -6 seconden.
of tewel: 3.333 microseconde.
nu zat ik te denken hoe ik deze tijd kan meter met de computer. er bestaan op school programma's die redelijk nauwkeurig im ms kunnen meten. maar dat is dus niet genoeg.
vervolgens vroeg ik me af hoesnel de computer kan meten.
uitgaande van een 100mbit netwerk krijgt de pc iedere seconde 100.000.000 bits binnen
dat is dus 1bit / 1.0x10^ -8 seconde.
zou er een manier zijn om dit verschil te meten met de computer?
je zou dan dus zo'n soort grafiek krijgen:
ik heb even geen idee waar ik dit topic het beste kan plaatsen, vandaar dat ik hem even hierin zet in de hoop dat jullie het beste subforum weten en hem daarheen willen verplaatsen?
bvd
het topic zelf:
Ik wil graag de lichtsnelheid meten. is allemaal goed en aardig, en al zo'n 20x gedaan door enkele wetenschappers, maar ik wil het op een andere manier doen.
het licht reist met een snelheid van een kleine 300.000 km/seconde.
300.000 km/s
300.000.000 m/s
als opstelling laat ik het licht een afstand van 1km afleggen.
je krijgt dan dus een tijdsverschil tussen punt A ( 0 meter) en punt B ( 1000 meter) van
3.333 x 10^ -6 seconden.
of tewel: 3.333 microseconde.
nu zat ik te denken hoe ik deze tijd kan meter met de computer. er bestaan op school programma's die redelijk nauwkeurig im ms kunnen meten. maar dat is dus niet genoeg.
vervolgens vroeg ik me af hoesnel de computer kan meten.
uitgaande van een 100mbit netwerk krijgt de pc iedere seconde 100.000.000 bits binnen
dat is dus 1bit / 1.0x10^ -8 seconde.
zou er een manier zijn om dit verschil te meten met de computer?
je zou dan dus zo'n soort grafiek krijgen:

