Acties:
  • 0 Henk 'm!

  • MicroWhale
  • Registratie: Februari 2000
  • Laatst online: 05-06 17:44

MicroWhale

The problem is choice

Topicstarter
Iets dat mij altijd al verbaasd heeft is de definitie van Entropie. In mijn hoofd is het precies het omgekeerde van wat het zou moeten zijn. De definitie (volgens wikipedia)
Entropie is een belangrijk begrip in de thermodynamica. Het is op het fundamenteelste niveau een maat voor de wanorde of de ontaarding in een systeem, of liever de waarschijnlijkheid, als het aantal mogelijke moleculaire configuraties van een macroscopische toestand (in termen van macroscopische grootheden druk, temperatuur, etc.) gedeeld door het totale aantal mogelijke moleculaire configuraties.
Op diezelfde pagina staat een voorbeeld van een glas frisdrank met ijsblokjes, met daaronder de ondertitel: "Smeltende ijsblokjes: een klassiek voorbeeld van toenemende entropie."

Mijn redenering bij het geheel is als volgt:
- De ijsblokjes hebben een lage temperatuur X
- Het glas frisdrank heeft een minder lage temperatuur Y
- De omgeving waarin het geheel zich bevindt heeft temperatuur Z
- Temperaturen X, Y, Z verhouden zich als volgt: X < Y < Z en dus ook X <> Y <> Z

De onbalans (wanorde) in dit geheel lijkt mij dus HOOG en gaat omlaag. De temperaturen van de verschillende elementen is immers verschillend. De wetten van de thermodynamica zullen er dus voor gaan zorgen dat er balans (orde) in het systeem, ofwel dat de wanorde (entropie) in het systeem 0 wordt of iets er dichtbij; de hoogst haalbare evenwichtige toestand.

Waarom wordt de entropie hoger als er meer orde ontstaat? Ik snap dat de berekening zo is gemaakt, maar zou een andere berekening niet nuttiger zijn? Je wilt toch juist weten/berekenen of/wanneer een systeem volledig in balans is. Als het getal van de entropie groter wordt, weet je immers nooit waar je op uit moet komen om een systeem in complete balans te krijgen (ofwel een systeem is in balans als wanorde = 0).

Het enige belangrijke is dat je vandaag altijd rijker bent dan gisteren. Als dat niet in centen is, dan wel in ervaring.


Acties:
  • 0 Henk 'm!

  • Osiris
  • Registratie: Januari 2000
  • Niet online
De Engelse Wiki heeft zoals gewoonlijk een veel betere uitleg: Wikipedia: Entropy

Acties:
  • 0 Henk 'm!

  • MicroWhale
  • Registratie: Februari 2000
  • Laatst online: 05-06 17:44

MicroWhale

The problem is choice

Topicstarter
Osiris schreef op dinsdag 21 februari 2012 @ 21:40:
De Engelse Wiki heeft zoals gewoonlijk een veel betere uitleg: Wikipedia: Entropy
Ook in deze Engelse versie wordt gesproken over een toenemende entropie als het ijs smelt, terwijl ik juist bepleit dat de entropie (dus de wanorde) in het glas zou moeten afnemen: De natuurlijke balans van alle elementen in het glas neemt immers toe, dus de wanorde gaat richting de 0.

[ Voor 3% gewijzigd door MicroWhale op 21-02-2012 21:56 ]

Het enige belangrijke is dat je vandaag altijd rijker bent dan gisteren. Als dat niet in centen is, dan wel in ervaring.


Acties:
  • 0 Henk 'm!

  • Ares408
  • Registratie: April 2000
  • Niet online
Je begrijpt niet wat ze met wanorde bedoelen. Dat is ook niet zo gek, er is een heldere manier om het uit te leggen.

De entropie S = k ln (omega)

Met omega het aantal mogenlijke microtoestanden van het systeem. Er zijn veel meer mogenlijke toestanden in de vloeistof dan in het ijsblokje.

Acties:
  • 0 Henk 'm!

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 03-06 13:34

Lord Daemon

Die Seele die liebt

Vergeet de termen "orde" en "wanorde" helemaal als het over entropie gaat. Als ik mensen wil uitleggen waarom ze die termen moeten vergeten, dan geef ik precies het voorbeeld waar jij nu mee zit: een kamer waarin alles dezelfde temperatuur heeft lijkt ordelijker dan een kamer waarin het ene ding heet en het andere koud is, en toch is de entropie van de eerste hoger dan de entropie van de tweede.

Entropie is geen maat van orde of wanorde, maar een maat voor het aantal mogelijke micro-manieren waarop een macro-toestand gemaakt kan worden. (Althans, dit is de Boltzmann-entropie. Om het moeilijk te maken zijn er allerlei verschillende definities van entropie, maar laten we het ons gemakkelijk maken en dat negeren.) De reden dat het lauwe glas water meer entropie heeft dan het hete glas met het ijsblokje, is omdat er meer manieren zijn om energie te verdelen in het eerste geval.

In dit filmpje geef ik een hopelijk heldere uitleg van wat entropie is; ik heb op dit moment geen Silverlight/Moonlight, dus ik kan even niet kijken vanaf welk tijdstip in het filmpje, maar het begint waar je een slide ziet met een foto van een pak kaarten (ik schat pakweg rond de 15 minuten).

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Acties:
  • 0 Henk 'm!

  • MicroWhale
  • Registratie: Februari 2000
  • Laatst online: 05-06 17:44

MicroWhale

The problem is choice

Topicstarter
Ares408 schreef op dinsdag 21 februari 2012 @ 22:25:
Je begrijpt niet wat ze met wanorde bedoelen. Dat is ook niet zo gek, er is een heldere manier om het uit te leggen.

De entropie S = k ln (omega)

Met omega het aantal mogenlijke microtoestanden van het systeem. Er zijn veel meer mogenlijke toestanden in de vloeistof dan in het ijsblokje.
Nogmaals ik begrijp goed hoe de berekening gaat, ik vind het alleen gek dat entropie berekent wordt richting oneindig, in plaats van richting 0.

Daarbij vind ik het vreemd dat iets met een lage entropie (een auto) als ordelijk wordt beschouwd, terwijl het vanuit de natuur gezien een zeer wanordelijk systeem is. En omgekeerd iets met een hoge entropie (een plas stilstaand water) als een zeer wanordelijk systeem gezien wordt, terwijl dat vanuit de natuur gezien juist een systeem is wat erg in balans is.

Een trucje leren (hoe bereken ik entropie) kunnen we allemaal, maar waarom wordt juist die kant op gerekend, terwijl de andere kant op mijns inziens veel zinvoller is.

Het enige belangrijke is dat je vandaag altijd rijker bent dan gisteren. Als dat niet in centen is, dan wel in ervaring.


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 05-06 11:14

Mx. Alba

hen/die/zij

Ik zie nu wat je bedoelt. Het zou inderdaad logischer zijn om entropie andersom te definiëren. Je hebt immers energie nodig om de onbalans te vergroten, terwijl de onbalans verlagen "vanzelf" gaat. Als je de definitie van entropie dus zou omkeren, dan zou het vrij makkelijk te zien zijn dat entropie een soort potentiële energie is. Net zoals dat je energie "stopt in" een knikker als je die een helling op duwt, waarna die knikker "vanzelf" de heuvel weer af rolt om de potentiële energie ervan te verlagen.

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 03-06 13:34

Lord Daemon

Die Seele die liebt

Er zijn twee redenen om entropie zo te definiëren als wij het definiëren. Ten eerste, entropie is een maat voor het aantal toestanden waarin het systeem zich kan bevinden, en met onze huidige definitie geldt: hoge entropie is veel toestanden. Dat is dus vrij logisch. (En nogmaals, entropie is een maat voor het aantal toestanden, niet voor "wanorde" of "chaos" of iets in die richting. Vergeet al die termen!)

Ten tweede, en dit is eigenlijk historisch gezien relevanter, is entropie oorspronkelijk ingevoerd in de thermodynamica. Clausius ontdekte het Clausius-theorema, waaruit volgde dat je een nieuwe grootheid S (entropie) kon invoeren als "dS = dQ/T". Dat geeft het entropiebegrip dat wij nu hebben. (Althans, een thermodynamische equivalent van het statistische entropiebegrip dat wij nu hebben.)
Als je de definitie van entropie dus zou omkeren, dan zou het vrij makkelijk te zien zijn dat entropie een soort potentiële energie is.
Dan is het maar goed dat we dat niet doen, want (omgekeerde) entropie is geen vorm van potentiële energie! :) Natuurlijk zitten er wel wat aspecten aan entropie die het daarop doen lijken, bijvoorbeeld het feit dat we bij het omzetten van arbeid naar warmte (dus voor ons goed te gebruiken naar voor ons minder goed te gebruiken energie) de entropie verhogen -- het lijkt dan misschien alsof je omgekeerde entropie kan zien als een soort reservoir van nuttige energie. Maar entropie is geen energie; er geldt geen wet van energiebehoud waarin entropie een rol speelt; er geldt geen überhaupt geen wet van entropiebehoud; enzovoorts.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 05-06 11:14

Mx. Alba

hen/die/zij

Hmmm... Oké, ik ben overstag. Entropie is dus een maat voor het aantal microscopische toestanden die "achter" de waargenomen macroscopische toestand kunnen zitten. In een voor ons gevoel geordend systeem (alles mooi gesorteerd) is dat aantal mogelijke microscopische toestanden veel minder dan in een voor ons gevoel chaotisch systeem waarin alles "netjes" gemengd is.

Maar dan loop ik bij zwaartekracht tegen een probleem aan. Zwaartekracht zorgt toch juist voor een afname van de entropie? Door de neiging om materie te concentreren zorgt het ervoor dat het universum minder "vlak" is. Of mis ik nu weer iets?

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

Anoniem: 426307

Mx. Alba schreef op woensdag 22 februari 2012 @ 09:42:
Hmmm... Oké, ik ben overstag. Entropie is dus een maat voor het aantal microscopische toestanden die "achter" de waargenomen macroscopische toestand kunnen zitten. In een voor ons gevoel geordend systeem (alles mooi gesorteerd) is dat aantal mogelijke microscopische toestanden veel minder dan in een voor ons gevoel chaotisch systeem waarin alles "netjes" gemengd is.

Maar dan loop ik bij zwaartekracht tegen een probleem aan. Zwaartekracht zorgt toch juist voor een afname van de entropie? Door de neiging om materie te concentreren zorgt het ervoor dat het universum minder "vlak" is. Of mis ik nu weer iets?
Zwaartekracht is een vorm van 'energie' die aan een systeem toegevoegd wordt, als je entropie in zijn thermodynamische vorm bekijkt, dan moet je hiermee rekening houden.

Stel een glas water, een watermolecule die onderaan het glas zit, kan, doordat het water een temperatuur heeft waarbij t > 0°C, vrij gemakkelijk bovenaan het glas geraken tot aan het oppervlakte van het water. Daarom zijn er enorm veel mogelijkheden om de watermoleculen in het glas te ordenen zonder ingrijpen van buitenaf. (= hoge entropie)

Als het water in het glas bevroren is (t < 0°C), dan is er een heel minieme beweging in de troep moleculen die we dan ijs noemen. (=lage(re) entropie)

Als je de externe kracht die zwaartekracht meetelt, ja dan heb je een heel andere situatie. Zwaartekracht zorgt ervoor dat de subtiele veranderingen in temperatuur van het water voor meer beweging zorgt, omdat in deze situatie het warme water zal stijgen en het koude water zal dalen. En meer beweging wilt ook vaak zeggen een hogere entropie. Ik vermoed dat zwaartekracht bij ijs weinig invloed gaat hebben, maar het is en blijft een toevoeging van 'energie'.


Het is vrij logisch dat in een vaste stof de entropie per definitie lager is dan in een gas. Omdat in een gas de afzonderlijke deeltjes meer ruimte hebben om te bewegen, waar bij een vaste stof de deeltjes quasi-fixed zijn.

Wat sommigen zeggen dat de termen 'wanorde' en 'chaos' verkeerd zijn klopt niet, deze termen zijn overgenomen uit de engelse taal waar ze een licht uitgebreidere betekenis hebben. In het nederlands verstaat iedereen onder wanorde bv. een rommelige kamer of een hoop mensen die als een gek staan te dringen voor de ingang van het concert van de Backstreet Boys...

Maar onder wanorde moet je verstaan het afwezig zijn van een vaste orde. Als je onder 'vaste orde' het thermisch equilibrium verstaat, dan is het vrij duidelijk in welke richting entropie zich vertaald als je het hebt over een toenemende graad van wanorde. Dat men het woord chaos gebruikt begrijp ik ook niet echt goed, maar ik zie het gewoon als synoniem.

Iemand verwijst ook naar de Boltzmann-entropie, terwijl die hopeloos verouderd is. De kern van de entropie zoals Boltzmann die omschrijft is dat in een gesloten systeem, elke toestand die mogelijk is, op een gegeven moment ook zal bereikt worden. Dat wil zeggen als je een bak water hebt waar geen energie in of uit gaat hebt, dat op een gegeven moment het water tegen de bovenkant zal hangen, of al het water in losse atomen een soort oververzadigd gas zal vormen. Natuurlijk kan dit theoretisch, al is het maar omdat gravitatie en dergelijk ook als toegevoegde energie kunnen gezien worden. Maar Feynmann heeft toch al min of meer verkondigd dat hoe Boltzmann het begrip entropie omschreef hopeloos achterhaald is.

[ Voor 35% gewijzigd door Anoniem: 426307 op 22-02-2012 09:54 ]


Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
Mx. Alba schreef op woensdag 22 februari 2012 @ 09:42:
...
Maar dan loop ik bij zwaartekracht tegen een probleem aan. Zwaartekracht zorgt toch juist voor een afname van de entropie? Door de neiging om materie te concentreren zorgt het ervoor dat het universum minder "vlak" is. Of mis ik nu weer iets?
Als je twee groepen elementen combineert tot één heb je meer mogelijke toestanden, mogelijk zelfs inclusief die van de twee groepen(?). Als leek stel ik me zo voor dat hoe minder regels je nodig hebt om 'het systeem' te definiëren, hoe groter de entropie.
Helder en interessant filmpje Lord Daemon.

Acties:
  • 0 Henk 'm!

Anoniem: 426307

Ultra schreef op woensdag 22 februari 2012 @ 10:58:
[...]

Als je twee groepen elementen combineert tot één heb je meer mogelijke toestanden, mogelijk zelfs inclusief die van de twee groepen(?). Als leek stel ik me zo voor dat hoe minder regels je nodig hebt om 'het systeem' te definiëren, hoe groter de entropie.
Helder en interessant filmpje Lord Daemon.
Wat versta je onder 'regels'? Bedoel je hiermee grenswaarden, gedragsfuncties?

Een van de interessante eigenschappen van entropie is trouwens, dat in een gesloten systeem, entropie nooit kan zakken. Het kan hoogstens gelijk blijven

Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
Anoniem: 426307 schreef op woensdag 22 februari 2012 @ 11:30:
[...]

Wat versta je onder 'regels'? Bedoel je hiermee grenswaarden, gedragsfuncties?

Een van de interessante eigenschappen van entropie is trouwens, dat in een gesloten systeem, entropie nooit kan zakken. Het kan hoogstens gelijk blijven
Ja, daar heb je me :+. Ik kan de goede term niet vinden. Iets als beschrijvende (begin)toestand van je systeem, ze leggen restricties op. Zodra je bijvoorbeeld de 'regel' toevoegt dat er twee groepen (met een verschillende positie in de ruimte dus) zijn, dan beperkt dat de mogelijke toestanden.

Acties:
  • 0 Henk 'm!

Anoniem: 426307

Ultra schreef op woensdag 22 februari 2012 @ 11:42:
[...]


Ja, daar heb je me :+. Ik kan de goede term niet vinden. Iets als beschrijvende (begin)toestand van je systeem, ze leggen restricties op. Zodra je bijvoorbeeld de 'regel' toevoegt dat er twee groepen (met een verschillende positie in de ruimte dus) zijn, dan beperkt dat de mogelijke toestanden.
Daarom dus dat ze in de wetenschap van die overdreven gedefiniëerde begrippen gebruiken, ik heb het daar ook altijd moeilijk mee gehad. Op een thesisverdediging het de hele tijd hebben over 'dingen' komt niet zo goed over :p

Uit wat je zegt versta ik dat je gewoon heel streng definiëerd hoe je 'systeem' er daadwerkelijk uitziet? Dus bv. een temperatuurvaste kubus water, waar geen enkele elektromagnetische straling of andere krachten op kunnen inwerken?

Acties:
  • 0 Henk 'm!

  • Ultra
  • Registratie: Maart 2000
  • Niet online
Anoniem: 426307 schreef op woensdag 22 februari 2012 @ 11:56:
[...]


Daarom dus dat ze in de wetenschap van die overdreven gedefiniëerde begrippen gebruiken, ik heb het daar ook altijd moeilijk mee gehad. Op een thesisverdediging het de hele tijd hebben over 'dingen' komt niet zo goed over :p

Uit wat je zegt versta ik dat je gewoon heel streng definiëerd hoe je 'systeem' er daadwerkelijk uitziet? Dus bv. een temperatuurvaste kubus water, waar geen enkele elektromagnetische straling of andere krachten op kunnen inwerken?
Nou ja, het gaat om het mogelijke verschil in definitie. Bijvoorbeeld het verschil tussen "1 kubus van 2 liter" en "2 kubussen van 1 liter", waarbij het systeem van die ene kubus een hogere entropie heeft(?). En dat pas ik dan toe op zwaartekracht door me voor te stellen dat zwaartekracht ervoor zorgt dat heel simpel gezegd 2 kubussen 1 worden.

Acties:
  • 0 Henk 'm!

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 03-06 13:34

Lord Daemon

Die Seele die liebt

Anoniem: 426307 schreef op woensdag 22 februari 2012 @ 09:42:
Wat sommigen zeggen dat de termen 'wanorde' en 'chaos' verkeerd zijn klopt niet [...] Maar onder wanorde moet je verstaan het afwezig zijn van een vaste orde. Als je onder 'vaste orde' het thermisch equilibrium verstaat, dan is het vrij duidelijk in welke richting entropie zich vertaald als je het hebt over een toenemende graad van wanorde.
Maar waarom zou je onder "orde" "vaste orde", en onder "vaste orde" dan weer "thermisch equilibrium" verstaan? Natuurlijk, als je "wanorde" op een heel andere dan gebruikelijke manier gaat definiëren, dan kan je het vast aan entropie koppelen; mijn punt is echter dat de normale manier om dat woord te gebruiken alleen maar verwarring wekt, zoals de topicstart ook al aangeeft. :)
Iemand verwijst ook naar de Boltzmann-entropie, terwijl die hopeloos verouderd is. De kern van de entropie zoals Boltzmann die omschrijft is dat in een gesloten systeem, elke toestand die mogelijk is, op een gegeven moment ook zal bereikt worden. Dat wil zeggen als je een bak water hebt waar geen energie in of uit gaat hebt, dat op een gegeven moment het water tegen de bovenkant zal hangen, of al het water in losse atomen een soort oververzadigd gas zal vormen. Natuurlijk kan dit theoretisch, al is het maar omdat gravitatie en dergelijk ook als toegevoegde energie kunnen gezien worden. Maar Feynmann heeft toch al min of meer verkondigd dat hoe Boltzmann het begrip entropie omschreef hopeloos achterhaald is.
Volgens mij haal je drie dingen door elkaar: (1) Boltzmann-entropie; (2) de stelling dat een Hamiltoniaans systeem met een begrensde faseruimte altijd weer willekeurig dicht bij zijn originele toestand komt; en (3) ergodiciteit.

Boltzmann-entropie is simpelweg de logaritme van het aantal micro-toestanden dat hoort bij een macro-toestand. Dit is een getalletje dat je aan een systeem toe kan kennen, en dat op zich niets beweert over of elke toestand bereikt gaat worden of niet. Het is een maat van entropie die nog steeds heel veel gebruikt wordt, dus ik snap niet waarom het "hopeloos verouderd" zou zijn.

Boltzmann heeft een argument gegeven waarom we moeten verwachten dat elk systeem dat in lage entropie is begonnen ooit weer naar lage entropie terug zal keren, en je kan wiskundig mooi bewijzen voor gesloten Hamiltoniaanse systemen met een eindige faseruimte (gebruik makend van de stelling van Liouville) dat zelfs de sterkere claim geldt dat je altijd weer oneindig dicht in de buurt zal komen van elke toestand waar je ooit geweest bent. Dus ja, als ons universum zo'n systeem is, dan zal ik ooit dit bericht weer typen -- over heel veel tijd. ;) Of ons universum zo'n systeem is, tja, dat is natuurlijk niet erg helder.

Deze twee dingen hebben niet veel met elkaar te maken: je kan Boltzmann-entropie perfect definiëren op een niet-Hamiltoniaans systeem, bijvoorbeeld.

Een systeem dat al zijn mogelijke toestanden doorloopt is een ergodisch systeem. Als ik het me goed herinner is het in de praktijk vrijwel onmogelijk om te bewijzen dat systemen ergodisch zijn, maar het is vaak wel erg handig om het aan te nemen. Opnieuw heeft dit op zich niets met Boltzmann-entropie te maken: je kan die ook voor niet-ergodische systemen definiëren.

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Acties:
  • 0 Henk 'm!

  • Lord Daemon
  • Registratie: Februari 2000
  • Laatst online: 03-06 13:34

Lord Daemon

Die Seele die liebt

Anoniem: 426307 schreef op woensdag 22 februari 2012 @ 11:30:
Een van de interessante eigenschappen van entropie is trouwens, dat in een gesloten systeem, entropie nooit kan zakken. Het kan hoogstens gelijk blijven
Dit is een uitspraak met dezelfde waarheidswaarde als: "Je kan nooit een pak kaarten op volgorde krijgen door willekeurig te schudden." Dat wil zeggen: het kan best, en als je maar lang genoeg doorgaat gebeurt het vanzelf een keer, maar het is niet iets wat je voor de nabije toekomst ooit hoeft te verwachten te zien.

Entropiedalingen zijn onwaarschijnlijk, en hoe dieper de daling hoe onwaarschijnlijker. Hele kleine daling gebeuren wel heel vaak, continu om ons heen zelfs; Brownse bewegingen van zichtbare deeltjes in een oplossing zijn hier een zichtbaar voorbeeld van. (Die bewegingen laten zien dat de oplossing nooit echt een drukevenwicht bereikt, maar dat steeds opnieuw een klein beetje vanaf wijkt, wat betekent dat de entropie steeds weer een klein beetje daalt en dan weer stijgt. Maar nogmaals, dit zijn dus hele kleine dalingen, en grotere dalingen zijn uiterst onwaarschijnlijk..)

Welch Schauspiel! Aber ach! ein Schauspiel nur!
Wo fass ich dich, unendliche Natur?


Acties:
  • 0 Henk 'm!

Anoniem: 426307

Lord Daemon schreef op woensdag 22 februari 2012 @ 12:18:
[...]

Maar waarom zou je onder "orde" "vaste orde", en onder "vaste orde" dan weer "thermisch equilibrium" verstaan? Natuurlijk, als je "wanorde" op een heel andere dan gebruikelijke manier gaat definiëren, dan kan je het vast aan entropie koppelen; mijn punt is echter dat de normale manier om dat woord te gebruiken alleen maar verwarring wekt, zoals de topicstart ook al aangeeft. :)
Ik had het vooral over het subtiele symantische verschil tussen het originele engelse woord en zijn nederlandse vertaling ;)

Ik weet trouwens niet hoe je het begrip 'wanorde' als iets anders dan 'het gebrek aan orde' kan definiëren, maar daar zal mijn beperkte kennis van de nederlandse taal voor iets tussen zitten ;)
[...]

Volgens mij haal je drie dingen door elkaar: (1) Boltzmann-entropie; (2) de stelling dat een Hamiltoniaans systeem met een begrensde faseruimte altijd weer willekeurig dicht bij zijn originele toestand komt; en (3) ergodiciteit.

Boltzmann-entropie is simpelweg de logaritme van het aantal micro-toestanden dat hoort bij een macro-toestand. Dit is een getalletje dat je aan een systeem toe kan kennen, en dat op zich niets beweert over of elke toestand bereikt gaat worden of niet. Het is een maat van entropie die nog steeds heel veel gebruikt wordt, dus ik snap niet waarom het "hopeloos verouderd" zou zijn.

Boltzmann heeft een argument gegeven waarom we moeten verwachten dat elk systeem dat in lage entropie is begonnen ooit weer naar lage entropie terug zal keren, en je kan wiskundig mooi bewijzen voor gesloten Hamiltoniaanse systemen met een eindige faseruimte (gebruik makend van de stelling van Liouville) dat zelfs de sterkere claim geldt dat je altijd weer oneindig dicht in de buurt zal komen van elke toestand waar je ooit geweest bent. Dus ja, als ons universum zo'n systeem is, dan zal ik ooit dit bericht weer typen -- over heel veel tijd. ;) Of ons universum zo'n systeem is, tja, dat is natuurlijk niet erg helder.

Deze twee dingen hebben niet veel met elkaar te maken: je kan Boltzmann-entropie perfect definiëren op een niet-Hamiltoniaans systeem, bijvoorbeeld.

Een systeem dat al zijn mogelijke toestanden doorloopt is een ergodisch systeem. Als ik het me goed herinner is het in de praktijk vrijwel onmogelijk om te bewijzen dat systemen ergodisch zijn, maar het is vaak wel erg handig om het aan te nemen. Opnieuw heeft dit op zich niets met Boltzmann-entropie te maken: je kan die ook voor niet-ergodische systemen definiëren.
Ik haal helemaal niets door mekaar, maar ik heb me wel slecht uitgedrukt. Ik had het namelijk over een quote van Boltzmann en niet over de effectieve (Boltzmann)-entropie zoals die gebruikt wordt.

Als ik thuis ben zal ik, tenzij ik het weer vergeet, een bron zoeken. Maar zoals jij al uitlegt, heeft Boltzmann ooit verklaard dat ons (en ik gebruik specifiek het woord ons ;)) universum begonnen is in lage entropie en zal evolueren naar hoge entropie (of maximale entropie als je wil) om daarna terug naar lage entropie over te gaan. In eenzelfde adem heeft hij verklaart dat een systeem (hij pastte het toe op het universum) al zijn mogelijke toestanden zal doorlopen als er maar genoeg tijd passeert. Daarom misschien dat ik het verkeerderlijk Boltzmann entropie genoemd heb, geen idee, dat jij dit een ergodisch systeem noemt is leuk en zal wel zo zijn, maar ik associeer dit nog altijd met Boltzmann, blijkbaar verkeerdelijk ;)

Maar het is dus dit 'inzicht' dat ons universum van lage naar hoge en terug naar lage entropie zal gaan dat Feynmann heeft tegengesproken. Ik heb dit niet zelf gevonden of bedacht, maar ik heb vorig jaar in Kopenhagen een lezing van Sean Caroll bijgewoond. Een gelijkaardige, zij het enorm verkortte, lezing van hem staat ook op TED.
Lord Daemon schreef op woensdag 22 februari 2012 @ 12:21:
[...]

Dit is een uitspraak met dezelfde waarheidswaarde als: "Je kan nooit een pak kaarten op volgorde krijgen door willekeurig te schudden." Dat wil zeggen: het kan best, en als je maar lang genoeg doorgaat gebeurt het vanzelf een keer, maar het is niet iets wat je voor de nabije toekomst ooit hoeft te verwachten te zien.

Entropiedalingen zijn onwaarschijnlijk, en hoe dieper de daling hoe onwaarschijnlijker. Hele kleine daling gebeuren wel heel vaak, continu om ons heen zelfs; Brownse bewegingen van zichtbare deeltjes in een oplossing zijn hier een zichtbaar voorbeeld van. (Die bewegingen laten zien dat de oplossing nooit echt een drukevenwicht bereikt, maar dat steeds opnieuw een klein beetje vanaf wijkt, wat betekent dat de entropie steeds weer een klein beetje daalt en dan weer stijgt. Maar nogmaals, dit zijn dus hele kleine dalingen, en grotere dalingen zijn uiterst onwaarschijnlijk..)
'Microdalingen' gebeuren wel in systemen, maar ik heb geen thermodynamica gestudeerd, maar een uitbreiding astrofysica ;) Daarom ken ik het begrip entropy vooral toegepast op ons universum....

Maar volgens de tweede hoofdwet van de thermodynamica stijgt de entropie in ons universum constant en kan het enkel stijgen, gewoon omdat er meer manieren zijn om hoge entropie te hebben dan om lage entropie te hebben. Dit alles volgens Boltzmann.

Wat Boltzmann ook zegt, is dat in hoge entropie, een van de vele toestanden een toestand van lage(re) entropie is, wat op het eerste zicht een tegenstelling lijkt maar dit is zo een microfluctuatie. Maar wat Boltzmann daarbij ook vertelt is dat ons universum zo een fluctuatie naar een staat van lagere entropie is. Wat Feynmann op zijn beurt tegenspreekt.

"From the hypotheses that the world is a fluctuation, all of the predictions are that if we look at a part of the world we have never seen before, we will find it mixed up, and not like the piece we just looked at. If our order were due to a fluctuation, we would not expect order anywhere but where we have just noticed it. We therefore conclude that the universe is not a fluctuation."

Zo zie je maar hoe natuurkunde en filosofie soms met mekaar in aanraking komen ;)

[ Voor 7% gewijzigd door Anoniem: 426307 op 22-02-2012 13:05 ]


Acties:
  • 0 Henk 'm!

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Is het vreemd als ik 'wanorde' opvat als 'willekeur' op de probabilistische manier (en dus een link met Shannon entropie uit de informatietheorie)? Als ijs smelt wordt het moeilijker om de exacte staat van alle deeltjes te beschrijven; de willekeur van het systeem gaat dus omhoog: het systeem wordt meer random en heeft een hoger minimum aan informatie nodig om beschreven te worden.

Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
De Duitse wikipedia is IMHO ook (vaak) wel aardig: Entropie (Thermodynamik)

Acties:
  • 0 Henk 'm!

Anoniem: 426307

Zoijar schreef op woensdag 22 februari 2012 @ 12:44:
Is het vreemd als ik 'wanorde' opvat als 'willekeur' op de probabilistische manier (en dus een link met Shannon entropie uit de informatietheorie)? Als ijs smelt wordt het moeilijker om de exacte staat van alle deeltjes te beschrijven; de willekeur van het systeem gaat dus omhoog: het systeem wordt meer random en heeft een hoger minimum aan informatie nodig om beschreven te worden.
Zo omschrijf je het vrij wanordelijk ;)

Nee, zoals iemand al eerder aangaf, de beste manier om entropie te omschrijven is het aantal manieren waarop je de inhoud van een systeem kan ordenen zonder dat je het verschil zit op macroscopisch niveau.

Maar je vraag gaat blijkbaar over het begrip wanorde. In het engels omschrijft men entropie als de randomness, disorder, chaoticness... ik weet niet of je wanorde hieruit kan halen? Maar willekeur komt overeen met randomness, maar eigenlijk bestaat 'willekeurig' niet echt in het geval van entropie.

Acties:
  • 0 Henk 'm!

  • Zoijar
  • Registratie: September 2001
  • Niet online

Zoijar

Because he doesn't row...

Anoniem: 426307 schreef op woensdag 22 februari 2012 @ 12:52:
Zo omschrijf je het vrij wanordelijk ;)

Nee, zoals iemand al eerder aangaf, de beste manier om entropie te omschrijven is het aantal manieren waarop je de inhoud van een systeem kan ordenen zonder dat je het verschil zit op macroscopisch niveau.

Maar je vraag gaat blijkbaar over het begrip wanorde. In het engels omschrijft men entropie als de randomness, disorder, chaoticness... ik weet niet of je wanorde hieruit kan halen? Maar willekeur komt overeen met randomness, maar eigenlijk bestaat 'willekeurig' niet echt in het geval van entropie.
Het ging er eigenlijk om dat mijn eerste ingeving toen ik de TS las was dat dit overeenkomt met de beschrijven van shannon entropie in de informatietheorie en of dat ook daadwerkelijk dan hetzelfde principe is. Heb wat gezocht net en dat blijkt geen gek idee te zijn: Wikipedia: Statistical mechanics maar de (natuurkundige) details gaan mij te boven...

Acties:
  • 0 Henk 'm!

  • MicroWhale
  • Registratie: Februari 2000
  • Laatst online: 05-06 17:44

MicroWhale

The problem is choice

Topicstarter
Lord Daemon schreef op dinsdag 21 februari 2012 @ 22:46:
Vergeet de termen "orde" en "wanorde" helemaal als het over entropie gaat. Als ik mensen wil uitleggen waarom ze die termen moeten vergeten, dan geef ik precies het voorbeeld waar jij nu mee zit: een kamer waarin alles dezelfde temperatuur heeft lijkt ordelijker dan een kamer waarin het ene ding heet en het andere koud is, en toch is de entropie van de eerste hoger dan de entropie van de tweede.

Entropie is geen maat van orde of wanorde, maar een maat voor het aantal mogelijke micro-manieren waarop een macro-toestand gemaakt kan worden. (Althans, dit is de Boltzmann-entropie. Om het moeilijk te maken zijn er allerlei verschillende definities van entropie, maar laten we het ons gemakkelijk maken en dat negeren.) De reden dat het lauwe glas water meer entropie heeft dan het hete glas met het ijsblokje, is omdat er meer manieren zijn om energie te verdelen in het eerste geval.

In dit filmpje geef ik een hopelijk heldere uitleg van wat entropie is; ik heb op dit moment geen Silverlight/Moonlight, dus ik kan even niet kijken vanaf welk tijdstip in het filmpje, maar het begint waar je een slide ziet met een foto van een pak kaarten (ik schat pakweg rond de 15 minuten).
Ik ben erg blij met je uitleg in het filmpje: Hierin wordt veel duidelijker verwoord wat entropie nu eigenlijk is en waar het voor gebruikt wordt. De uitleg begint rond de 16:20. Waarvoor dank. d:)b

Rest de vraag: Is er een manier om de mate van (natuurlijke) onbalans in een systeem te meten, die richting 0 evalueert naarmate er minder onbalans in het systeem komt?

(Waar de plas water in mijn voorbeeld dus een waarde dicht bij nul heeft (zeg 0,00023) en de auto een zeer hoge waarde (zeg 1230540656)

[ Voor 3% gewijzigd door MicroWhale op 22-02-2012 13:12 ]

Het enige belangrijke is dat je vandaag altijd rijker bent dan gisteren. Als dat niet in centen is, dan wel in ervaring.


Acties:
  • 0 Henk 'm!

Anoniem: 426307

Zoijar schreef op woensdag 22 februari 2012 @ 13:05:
[...]

Het ging er eigenlijk om dat mijn eerste ingeving toen ik de TS las was dat dit overeenkomt met de beschrijven van shannon entropie in de informatietheorie en of dat ook daadwerkelijk dan hetzelfde principe is. Heb wat gezocht net en dat blijkt geen gek idee te zijn: Wikipedia: Statistical mechanics maar de (natuurkundige) details gaan mij te boven...
In principe heb je geen ongelijk, misschien dat daarom entropie voorgesteld wordt als een maat om de wanorde of chaos voor te stellen. Shannon entropie lijkt mij gewoon het principe van entropie toegepast op dat specifieke vakgebied.

  • Techneut
  • Registratie: September 2007
  • Niet online
Nog niet gezien in deze discussie is meneer Carnot.
Deze geleerde heeft samen met een paar anderen in de thermodynamica dacht ik de ultieme consequentie van entropie laten zien dat, eenvoudig uitgelegd, warmte uiteindelijk het laagste niveau van energie is. Moeiteloos vindt omzetting van een hogere vorm van energie naar een lagere, zoals b.v. electriciteit naar warmte in een gesloten systeem plaats met een rendement van 100%. Maar dat in omgekeerde richting altijd verlies optreedt, hoogst haalbare rendement wederom in een gesloten systeem, temperatuurverschil gedeeld door de hoogste temperatuur.

M.a.w. allemaal warmte die er wel is (er gaat niets verloren) maar die je niet nog een keer kan gebruiken omdat daarvoor toegevoerde energie nodig is om die warmte weer op een hoger niveau te brengen.. Uiteindelijk resulterend is een louw heelal. Vergeleken bij een waterval, water dat gevallen is kun je zonder toegevoerde energie niet nog eens gebruiken om energie op te wekken.

Acties:
  • 0 Henk 'm!

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 14-04 17:27
Carnot is een voorganger van Clausius (zie linkje van LD eerder), en was nog niet bekend met entropie. Carnot begon specifiek met twee soorten energie: mechanisch en thermisch, en beredeneerde hoe je de twee in elkaar kon omzetten. Dat is praktisch wel belangrijk (voor bijvoorbeeld verbrandingsmotoren) maar off-topic hier.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


Acties:
  • 0 Henk 'm!

  • Techneut
  • Registratie: September 2007
  • Niet online
Toch heb ik tijdens mijn studie een heel hoofdstuk gehad over thermodynamica en het theoretisch maximaal haalbare rendement bij de omzetting van warmte naar mechanische energie (denk aan een stoomketel en
-turbine) Dit werd uitgelegd d.m.v. een denkbeeldig model van dezelfde Carnot met uitgebreid aandacht voor de entropie in dat proces.
Een ander aspect dus van entropie, ook al is het in de bovenstaande discussie misschien wat offtopic. Niettemin is het zogenaamde entropiediagram een heel bekend begrip in de thermodynamica.

Acties:
  • 0 Henk 'm!

  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Ik vind overigens het kaartspel niet echt een goed voorbeeld om entropie uit te leggen. (Of ik snap nog steeds niet wat entropie nu eigenlijk is).

Er is 1 gesorteerde toestand, maar eigenlijk is iedere toestand op zijn eigen manier gesorteerd en dus equivalent. Het feit dat je toestanden gaat samenvoegen en daar het woord "scenario" aan plakt zorgt voor het probleem; Pas als je dat doet kun je spreken van entropie. Maar eigenlijk is iedere toestand op zich even waarschijnlijk.

Ik ben geheel voldaan, dank u wel!


Acties:
  • 0 Henk 'm!

Anoniem: 426307

0rbit schreef op zondag 04 maart 2012 @ 00:57:
Ik vind overigens het kaartspel niet echt een goed voorbeeld om entropie uit te leggen. (Of ik snap nog steeds niet wat entropie nu eigenlijk is).

Er is 1 gesorteerde toestand, maar eigenlijk is iedere toestand op zijn eigen manier gesorteerd en dus equivalent. Het feit dat je toestanden gaat samenvoegen en daar het woord "scenario" aan plakt zorgt voor het probleem; Pas als je dat doet kun je spreken van entropie. Maar eigenlijk is iedere toestand op zich even waarschijnlijk.
Je moet een verschil maken tussen macro- en microtoestand.

Een pakje (of boek) kaarten heeft 1 macro-toestand, de kaarten zitten in het doosje en het doosje is dicht. Nu, er zijn vrij veel mogelijkheden om de kaarten in dit gesloten doosje te steken. Bv. ruiten vier als eerste, of klaveren koning als eerste en ruiten vier als tweede, enz enz.

Hoe je de kaarten ook sorteert (zolang je ze niet vouwt en weet ik nog wat), de macro-toestand is nog steeds een pakje kaarten dat gesloten is. Nu, de mate waarin er mogelijkheden zijn is eigenlijk entropie. Zitten er maar 2 kaarten in dan is de entropie lager dan dat er 52 kaarten inzitten.

Acties:
  • 0 Henk 'm!

  • witeken
  • Registratie: September 2011
  • Laatst online: 24-11-2021

witeken

nieuwsgierig

Ik heb nog maar kort geleden op National Geographic Channel een interessant programma gezien. Het ging over tijd. Einstein zijn theorie daarover en die smeer. Het laatste onderdeel ging waarom tijd van het heden naar de toekomst gaat, dus van orde naar entropie.
In een ander topic in dit forum gaat het over natuurwetten. In geen enkele natuurwet staat beschreven dat het niet omgekeerd kan gaan. Waarom een gevallen glas geen heel glas meer kan worden.

Het antwoord is dat het waarschijnlijk met de oerknal te maken heeft. Ervoor was het ordelijk en de oerknal heel die orde vernietigd. Sinds dien is de entropie aan het werk gegaan.

“I think of it like a Thanksgiving dinner. You [do] all this preparation, you invite all the guests, you have the meal, and then suddenly, it seems, it’s over.”
Tweakblog van de maand


  • digidokter.net
  • Registratie: April 2014
  • Laatst online: 07-01-2024

digidokter.net

... en 'Niets' van 'Alles' LOL

witeken schreef op maandag 12 maart 2012 @ 22:38:
Ik heb nog maar kort geleden op National Geographic Channel een interessant programma gezien. Het ging over tijd. Einstein zijn theorie daarover en die smeer. Het laatste onderdeel ging waarom tijd van het heden naar de toekomst gaat, dus van orde naar entropie.
In een ander topic in dit forum gaat het over natuurwetten. In geen enkele natuurwet staat beschreven dat het niet omgekeerd kan gaan. Waarom een gevallen glas geen heel glas meer kan worden.

Het antwoord is dat het waarschijnlijk met de oerknal te maken heeft. Ervoor was het ordelijk en de oerknal heel die orde vernietigd. Sinds dien is de entropie aan het werk gegaan.
Mijn eigen theorie (hogere wiskunde) op basis van mijn kennis en ervaringsdeskundigheid van de oorzaak van mijn acht psychoses, dat "Mijn psychoses een vorm/staat van E= 'entropie' is, waarin ik telkens verval!" En ik ben bezig met de formule/concept om dat te berekenen en te voorkomen/copen:
Om het statistische begrip aanschouwelijk te maken kan men zich een brein met een scheidingsvlak voorstellen. In de linker(hersen)helft liggen alleen rode hersencellen en in de rechter(hersen)helft witte. Wanneer je het brein schudt bewegen de knikkers, maar de rode mengen niet met de witte. Er is maar één toestand of realisatie B=Balans. De entropie is dan volgens Ludwig Boltzmann, waarbij C=constante de Boltzmannconstante is:

E= C ln (B(v)) :P

gelijk aan 0 omdat B=1. Oftewel deze toestand heeft de laagste entropie('gezond'/'mooi'/rationeel). (Entropie kan immers niet negatief zijn omdat noch C noch B negatief zijn).
Deze toestand war van mijn geboorte tot mijn 20-22ste, toen verloor ik mijn grote liefde en brak met drugs, drank etc mijn scheidingsvlak. Wanneer er geen scheidingsplaat aanwezig is, dan zullen bij het schudden van de doos de knikkers telkens weer een andere rangschikking maken. Het schudden in dit voorbeeld is een metafoor voor de toevoer van energie. Van belang is dat door het schudden en het weghalen van het scheidingsvlak de rode (en ook de witte) meer ruimte hebben gekregen. Daardoor zijn er meer verschillende ordeningen van de witte en rode ballen in de doos mogelijk. Logisch toch?!
Iedere knikker heeft nu twee realisaties!: hij kan in de linker- of in de rechterhelft zitten. Als er evenveel witte als rode initieel in de doos waren, zeg N in totaal, dan zijn er in totaal W=2N realisaties. De entropie na het schudden is dan

E=N*C ln (2*B(vi)) B)

Deze waarde is groter dan de beginsituatie en dus zal het systeem van knikkers spontaan evolueren naar een toestand van gelijkmatige menging. Dit komt overeen met de klassieke waarneming dat in een geïsoleerd systeem de entropie de spontane neiging heeft zo groot mogelijk te worden. Dus dat resulteerde in een hoge entropie =psychosediagnose en depressie boven op een burn-out en irrationeel mindset. Ook logisch niet waar? Kan je het nog volgen?? :thump
Het model van hersencellen in een brein is van een eenvoudig soort. 'hersencellen' trekken elkaar niet (meetbaar) aan, alle ordeningen hebben een gelijke energie, en dus heeft een bepaalde ordening van rood en wit een gelijke kans om voor te komen. De weegfactor van alle realisaties is dan gelijk aan 1. Verder, als er in het geheel niet geschud wordt, dan is als het ware de absolute temperatuur gelijk aan nul. En dan is volgens de derde wet van de thermodynamica de absolute entropie gelijk aan nul wanneer de rode apart van de witte liggen en beide kleuren netjes gerangschikt zijn.
Het label 'psychose=chaos/wanorde/anarchie' kan ons een idee geven van wat we ons bij entropie moeten voorstellen en het voorbeeld met de hersencellen kan een nuttig hulpmiddel zijn om een en ander aanschouwelijk/praktisch te maken. In werkelijkheid is entropie niet hetzelfde als psychose=chaos/wanorde/anarchie omdat het aantal realisaties B ook in sterke mate afhangt van welke energietoestanden=mindset/gesteldheid ieder hersencel/molecuul/dna/etc heeft en niet alleen van de plaats waar het zich bevindt. En dus daarmee ook je toestand bepaald. Medicatie in vorm (risperdal/abilifi etc zorgt weer van herstellen van de scheidingswand en daarmee de lage toestand van lage entropie('gezond'/'mooi'/rationeel) Dus de cirkel is rond. Nu ik voor de 9e maal mijn medicatie aan afbouwen ben en met coping de 'scheidingsvlak' moet herstellen hoop ik deze toestand(mindset) van laagste entropie('gezond'/'mooi'/rationeel) te behouden! Erg technisch nietwaar? Begrijp je het nu??!

Absolute entropie (katatone toestand/hyperpsychose)

Het is over het algemeen in de reële wereld vrij moeilijk om de absolute entropie van een systeem te bepalen. Daartoe zou het systeem eerst naar het absolute nulpunt moeten worden afgebouwd/afgekoeld, zodat de hersencellen/moleculen niet meer bewegen, en bovendien moeten de hersencellen/moleculen in de meest stabiele toestand zijn. In dat specifieke geval is de absolute entropie gelijk aan nul (derde wet van de thermodynamica). De verandering van deze stabiele toestand bij 0 graden/Kelvin naar het uitgangspunt geeft de absolute entropie. Gelukkig is het voor de praktische toepassing van de entropie meestal voldoende om met entropie-verschillen te rekenen. En dat is experimenteel vrij goed mogelijk. Entropieveranderingen als gevolg van omkeerbare hoeveelheid-volume-/temperatuurverandering berekent men met behulp van de hoeveelheid-/volume-/warmtecapaciteit: de integraal van het quotiënt van hoeveelheid/volume/warmtecapaciteit en hoeveelheid/volume/temperatuur over het hoeveelheid-/volume-/temperatuurveranderingsgebied. :lol

Mijn inspiratie heb ik hier gevonden: :cheer
https://nl.wikipedia.org/wiki/Entropie

Als je entropie begrijpt zie je ook dat 'het systeem(de wereldmaatschappij)' naar een hoge staat van entropie aan gaan is of zelfs in terugvalt (crisis etc) of flipfloppen is! Maar dat is een andere perceptie van me....;)

Ik geloof sterk dat mijn entropie gelinkt is met die van het systeem een soort van symbiose, maar dat ben ik nog aan onderzoeken....::S
De intelligentie om dwars door de onzin van de reguliere media te zien.
De Entropie die weer terug komt om de levenskracht weer te herstellen.
http://worldunity.me/leve...entaal-onstabiele-mensen/
En de cirkel is weer rond!B) begrijp je??!
Het antwoord is dat het waarschijnlijk met de burn-out(+drugspsychose+depressie) te maken heeft. Ervoor was het 'ordelijk' en de burn-out+drugspsychose+depressie) heel die orde vernietigd. Sinds dien is de entropie acht maal in mijn leven aan het werk gegaan...
Nu zoek ik nog factoren/manieren/copin buiten medicatie om die entropie tegen te gaan! HELP! _/-\o_

Verstand van 'Alles' van 'Niets'


  • defiant
  • Registratie: Juli 2000
  • Laatst online: 05:12

defiant

Moderator General Chat
Het is niet de bedoeling een topic van 5 jaar oud te kicken met een eigen verzonnen pseudowetenschappelijke theorie, daarvoor is AWM niet bedoelt. Ik doe dit topic daarom dan ook op slot.

Climate dashboard | “Reality is that which, when you stop believing in it, doesn't go away.”

Pagina: 1

Dit topic is gesloten.