Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Matched: psi
edit:
spellingscontrole komt morgen wel - ik wil het posten! en wel nu! :)


In een recentelijk topic heb ik empirisch bewijs voor het bestaan van ESP, of buiten-zintuigelijke waarneming, behandeld. Dit topic is, voor geinteresseerden, hier te vinden:
Ganzfeld en het bewijs voor ESP en PSI

Het bewijs dat in dat topic wordt genoemd is voornamelijk afkomstig van de zogenaamde ‘Ganzfeld’ methode. Hoe deze methode precies werkt is goed uitgelegd in het genoemde draadje, maar het komt erop neer dat zij onderzoekt in hoeverre telepatie plaats kan vinden tussen twee proefpersonen. Indien je nu al enige reservering voelt en vraagtekens plaats, raad ik je aan het eerder genoemde draadje te lezen zodat je begrijpt hoe deze methode werkt, en dat zij dankzij haar geautomatiseerde, resistent is tegen vervalsing.

Recentelijk is, mede dankzij het succes van de Ganzfeld-methode, een groot aantal andere methoden ontstaan die de laatste jaren veel succesvoller dan Ganzfeld zelf zijn geworden. Wetenschappelijke studies zijn betrouwbaar indien zij herhaalbaar zijn, en dat was een probleem bij Ganzfeld-studies. Huidige methodes omzeilen die problemen en komen, vergeleken met Ganzfeld en veel andere psychologische fenomenen, met sterkere effecten. Het doel van dit topic is om die nieuwe studies de revue te laten passeren in de hoop de uiterst skeptische aard van de meeste tweakers tegenover dit soort fenomenen te doen afnemen. Bij mijn bespreking basseer ik me enkel op wetenschappelijk onderzoek dat is gepubliceerd in wetenschappelijke tijdschriften. Zeven meta-analyses (zie uitleg verderop) zullen gepresenteerd worden. Waar mogelijk neem ik bronverwijzingen op, zodat je de informatie zelf kunt controleren.

Wat is ESP?
ESP is in feite iedere vorm van waarneming die niet tot stand komt middels de vijf bekende zintuigen. Een goed voorbeeld is ‘remote viewing’, waarbij personen een andere locatie, waar ze niet fysiek aanwezig zijn, kunnen beschrijven. Een ander voorbeeld is ‘precognition’; het voorspellen van de toekomst. Dit is overigens niet zo spectaculair als wat Nostradamus mogelijk heeft gedaan. ESP, en dat is soms wat lastig, is vaak amper waar te nemen. De meeste studies laten zien dat ieder mens in feite beschikt over ESP-gaven, maar dat die amper gebruikt worden. Het lijkt erop dat veel legendes en verhalen over mensen die bijzondere dingen hebben meegemaakt op dit gebied het geluk hebben gehad een moment meegemaakt te hebben waarbij hun eigen ESP-gave, of die van een ander, ineens zeer actief werd.

Waarom is ESP zo belangrijk?
ESP-studies kunnen een antwoord geven op het eeuwenoude probleem van ‘mind over matter’. Zij komt neer op de vraag of de geest in bepaalde mate onafhankelijk is van het fysieke brein. Deze vraag relateert weer sterk aan het probleem van de menselijke ziel, en of zij wel of niet bestaat. De antwoorden waar ESP-studies mee komen kunnen duidelijkheid scheppen in wat onze geest wel of niet kan, en in hoeverre zij daarbij losstaat van ons lichaam als fysiek object.

Hoe onderzoekt men ESP?
ESP wordt onderzocht middels een aantal methoden. De Ganzfeld-methode is zonder meer de meest bekende, maar er zijn ook andere vormen. In de bespreking loop ik deze methoden door, en behandel ze op datzelfde moment. Omdat niet iedere lezer even bekend is met psychologisch onderzoek, zal ik enkele kern-aspecten toelichten.

Bij (para)psychologisch onderzoek heeft men altijd te maken met zeer complexe objecten. Mensen zijn niet simpel, en wat zij doen wordt beinvloed door duizenden (zo niet veel meer) factoren die zowel intern zijn als extern. Dit betekent dat men niet zo gemakkelijk het te onderzoeken fenomeen kan isoleren als bijvoorbeeld bij natuurkunde of scheikunde. Het meeste psychologisch onderzoek betreft de afname van een test bij deelnemers. De complexiteit van de mens zorgt ervoor dat sommige deelnemers hele andere (of geen!) resultaten krijgen dan anderen. Men maakt bij psychologisch onderzoek daarom gebruik van grote groepen deelnemers waarbij men de gemiddelde score op de test bepaald. Eveneens door de complexiteit kan het soms gebeuren dat resultaten een bepaald effect laten zien dat er helemaal niet is - bijvoorbeeld door simpele pech door toeval. Om dat te voorkomen bepaalt men van te voren meestal een drempel. Doorgaans accepteert men de resultaten als geldig en 'waar' als de kans dat de resultaten door toeval zijn veroorzaakt kleiner is dan 5% (ook p genoemd). In dit geval zijn de gegevens, zoals men dat zegt, ‘significant’. De meeste psychologische studies laten een p-waarde tussen de 0.10 en 0.30 zien. Als ze kleiner zijn, zijn de effecten ‘zeer significant’. Hoe kleiner, hoe beter.

Nu kan het zo zijn dat één studie komt met resultaten waarvoor geldt dat p kleiner is dan 0.05, maar dat er alsnog studies zijn die met resultaten komen op hetzelfde gebied waarvoor dat niet geld. Dit komt veel voor binnen de psychologie, en men heeft een methode ontwikkeld om te bepalen, over meerdere onderzoeken, of het gemiddelde gevonden effect van al die onderzoeken wel of niet significant is. Deze methode wordt de ‘meta-analyse’ genoemd. Hoe dit precies werkt is zeer lastig uit te leggen en vereist veel kennis van statistiek. Het komt erop neer dat men het gezamelijke gemiddelde effect van alle studies over een bepaald onderwerp bepaald en berekent of dat wel of niet significant is.

Het ‘file-drawer’ probleem
Parapsychologen is vaak verweten dat ze alleen succesvolle onderzoeken publiceren, terwijl ze niet succesvolle studies in hun bureau laten. Indien dat zo is, dan laten de meta-analyses een sterk vertekenend beeld zien. Statisticus Rosenthal [1] heeft hier iets op verzonnen, door de ‘fail-safe N’ te berekenen. Dit getal geeft aan hoeveel studies zonder significant effect niet gepubliceerd moeten zijn om het gevonden gemiddelde effect van de meta-analyse terug naar nul te krijgen. Het file-drawer probleem blijkt sowieso verwaarloosbaar klein te zijn, zo concludeerde Susan Blackmore na een studie naar niet-gepubliceerde artikelen bij Ganzfeld-onderzoeken. Van de 14 niet-gepubliceerde studies had zelfs 43% een significant resultaat....

Maar laten we maar eens beginnen

Ganzfeld studies
In het eerder genoemde draadje is al een uiteenzetting gegeven van deze variant van ESP-onderzoek. Hierbij is sprake van een ‘zender’ en een ‘ontvanger’ die zich in twee afgeschermde kamers bevinden. De ontvanger krijgt een foto te zien, die hij of zij moet doorzenden naar de ontvanger. Deze moet vervolgens uit vier fotos bepalen welke hij of zij heeft ‘ontvangen’. Deze methode is tegenwoordig vrijwel volledig geautomatiseerd, door computers te gebruiken die vier fotos selecteren, en daar vervolgens eentje uit kiezen. Een uitgebreide bespreking is te vinden in het eerder genoemde draadje.

Indien ESP niet bestaat, dan zou je verwachten dat de ontvanger in 25% van de gevallen goed gokt. In een meta-analyse van 29 Ganzfeld-studies vond Honorton [2] een gemiddelde hitratio van 33%. Dit verschil was sterk significant, p < 0.1-10. Naar aanleiding van deze eerste grote meta-analyze barstte een strijd uit tussen skepticus Hyman (die nu ook samenwerkt met James Randi) en Honorton. Intussen merkte onafhankelijk statisticus, en expert op het gebied van meta-analyses, Rosenthal [3] eenzelfde effect op na een eigen meta-analyse (32%). Uiteindelijk publiceerden Hyman en Honorton samen een paper waarin ze verklaarden dat de studies inderdaad een significant effect lieten zien, maar dat meer studies nodig waren die bovendien een betere methode kenden.

Dit leidde tot de autoganzfeld-studies waarbij enkel computers (en natuurlijk 2 deelnemers) gebruikt werden. Net na de dood van Honorton, in 1989, werd een meta-analyse van 11 van deze studies gepubliceerd, die betrekking hadden op 355 sessies van acht onderzoekers. De gevonden hitrate was 34.4% en zij was sterk significant, p = 0.00005. Deze gegevens vormden een bevestiging van de eerdere meta-analyse, en de methode zelf, daar zij tot eenzelfde hitrate kwam. Hyman [4] schreef in 1991 “Honorton's experiments have produced intriguing results. If, as Utts (een onafhankelijk statisticus – chris) suggests, independent laboratories can produce similar results with the same relationships and with the same attention to rigorous methodology, then parapsychology may indeed have finally captured its elusive quarry.'' (p. 392).”

Replicatie is succesvol. De universiteit in Edinburgh vond een (significante) hitrate van 33% met een variant van autoganzfeld die nog sterker beschermd was tegen fraude door de onderzoeker en de proefpersonen [5].

Precognitie studies
Precognitie, of het ‘in de (recente) toekomst kijken’, wordt doorgaans onderzocht middels zogenaamde ‘forced-choice ESP studies’. Een deelnemer krijgt hier doorgaans vier mogelijkheden te zien, waarvan hij of zij er één moet kiezen. Pas na de keuze van de proefpersoon kiest een computer willekeurig uit die vier mogelijkheden één object en bepaalt of de keuze van de deelnemer klopt. Vergeleken met andere ESP-studies is er vrijwel geen mogelijkheid tot vals spelen, omdat niemand weet wat de computer gaat kiezen (men kan dus niets voorzeggen), totdat werkelijk gekozen is *nadat* de deelnemer een keuze maakt.

Honorton & Ferrari [6] voerden een meta-analyse uit van 309 precognitie-studies die uitgevoerd zijn tussen 1935 en 1987. Het betroffen studies van 62 verschillende onderzoekers over 50.000 deelnemers. Het gevonden gezamelijke effect van deze studies was klein, 0.02 (van 1), maar extreem significant, z = 11.41, p < 0.63-26. Om het gevonden gezamelijke effect terug te krijgen naar 0 waren 14.268 niet-gepubliceerde studies nodig met geen significant resultaat.

Zelfs nadat alle studies die ook maar een beetje van de methode afweken gefilterd waren (er bleven er toen 248 over), was het gevonden resultaat nog steeds zeer sterk significant, p < 1.1-10. Interessant is het gegeven dat de resultaten de laatste jaren steeds significanter zijn geworden, wat betekent dat de methode van recentere onderzoeken beter is om ESP te meten dan die van oudere studies.

De conclusie van Honorton en Ferrari was dan ook: “`the forced-choice precognition experiments confirm the existence of a small but highly significant precognition effect.'' (p. 300).

Dobbelsteen studies
Bij Dobbelsteen studies proberen deelnemers de uitkomst van een vallende dobbelsteen te beinvloeden. Je mag binnen 100 worpen verwachten dat iedere kant tenminste in 17% van de gevallen naar boven wijst. Hoe meer worpen, hoe meer deze verdeling gelijk wordt (centrale limietstelling).

Radin & Ferrari [7] voerden een meta-analyse uit over 148 van dit soort studies, uitgevoerd tussen 1935 en 1987. Dit betrof eveneens 31 controle-studies waarbij geen ESP-invloed werd uitgeoefend (simpelweg een geautomatiseerde procedure). Het gevonden effect was 0.012 en was zeer significant, z = 18.2, p < 10[sup]-70[sup]. Om uit te sluiten dat dobbelstenen niet gewoon vaker op 6 kwamen omdat daar meer ‘verf’ zat werden 69 studies uit de set vergeleken die gebruik maakten van methoden waarbij dat probleem geen invloed kon hebben. Het gevonden effect was hetzelfde, en was ster significant, p < 10-11. 2960 ongepubliceerde studies zonder enig significant zijn nodig om dit effect terug naar 0 te brengen.

RNG studies
RNG-studies zijn een geavanceerde variant van dobbelsteen-studies, waarbij een zogenaamde ‘random number generator’ wordt gebruikt. Dit zijn meestal apparaten die op basis van radioactief verval nummers uitspugen die beschouwd worden als ‘truly random’. Proefpersonen moeten hier proberen de uitkomst te beinvloeden zodat zij in een niet-random patroon cijfers uit gaat spugen.
Radin & Nelson [8] voerden een meta-analyse uit over 832 experimenten (!!!) waarvan 235 controle-studies waren zonder een ESP-beinvloeding. Het gevonden effect was zeer klein, 0.0003, maar zeer consistent over de studies en zeer significant (p < 0.00004) vergeleken met de controle-studies. Dit betekent dat bewuste beinvloeding van een deelnemer zorgde voor een zeer significant verschil in het uiteindelijke patroon, vergeleken met het patroon dat gegenereerd wordt als er geen bewuste invloed op uitgeoefend wordt. Om dit effect terug naar 0 te krijgen zijn 54.000 niet-gepubliceerde studies zonder een significant resultaat nodig.

Radin & Nelson concluderen dan ook: “it is difficult to avoid the conclusion that under certain circumstances, consciousness interacts with random physical systems'' (p. 1512)”

DMILS studies
De meest bijzondere studies naar ESP behelzen DMILS studies, of Direct Mental Interactions with Living Systems. In tegenstelling tot de twee bovenstaande varianten maakt men hier gebruik van beinvloeding van levende organismen door deelnemers. Meestal gebruikt men hier kleine visjes of andere diertjes die zich bevinden sensorisch afgeschermde ruimten die iedere vorm van contact met de deelnemer voorkomen. De activiteit, meestal ademhaling of bloeddruk, van het diertje wordt gemeten voor, tijdens en na beinvloeden door de deelnemer. Het doel weet niet wanneer beinvloeden plaats zal vinden (bij een vis niet zo raar, maar men gebruikt soms mensen). De deelnemer ontvangt via een monitor tekens wanneer beinvloeding moet beginnen en stoppen (random) en ontvangt vaak ook feedback over de veranderingen in de fysiek van het doel.

Braud & Schlitz [9] voerden een meta-analyse uit over 37 experimenten van dit soort. Dit betroffen studies onder leiding van 13 verschillende leiders over 655 sessies. De studies maten verschillende zaken, zoals electrodermale activiteit, bloeddruk, en de hemolyse-ratio van rode bloedcellen. Het gevonden effect was, vergeleken met andere studies (eveneens gewone psychologische studies!), zeer sterk, ES = 0.33 en was zeer sterk significant, z = 7.72, p < 2.58-14.

Een kritiek op deze studies is dat zij uitgevoerd werden in hetzelfde lab. Desalniettemin vind replicatie momenteel succesvol plaats, waarbij men dezelfde effectgrootten waarneemt (Delanoy & Sah [10]; Tart [11]; Targ & Puthoff [12]).


Relaties tussen ESP en persoonlijkheidstrekken
Indien ESP een bestaand fenomeen is, mag men verwachten dat een aantal variabelen invloed op haar uitoefent. De eerste variabele die onderzocht werd, betrof de vraag of mensen met bepaalde karaktereigenschappen beter of slechter scoorden dan mensen met andere eigenschappen. Doorgaans wordt hier de ‘Big Five’ voor gebruikt, die 5 dimensies in persoonlijkheidskenmerken onderscheid en binnen de psychologie geaccepteerd is als zeer betrouwbaar.

De meest onderzochte dimensie is die van extraversie/introversie. Honorton, Ferrari & Bem [14] voerden een meta-analyse uit over 60 gepubliceerde studies die een dergelijke relatie onderzochten. De gevonden gemiddelde correlatie was klein, 0.09, maar wel sterk significant, p = 0.000004. De gevonden effectgrootten verschilden per studie sterk, wat betekent dat kleine verschillen in de methode waarschijnlijk tot grote verschillen leidden in ESP-prestaties. Na een herclassificering vond men een sterke correlatie van 0.20 (de rest, allen significant) zat tussen 0.09 en 0.20 bij tests met individueen in zogenaamde ‘free response’ condities (de deelnemer mag alles zeggen wat in hem opkomt, in plaats van te moeten kiezen uit een beperkt aantal keuzen). Deze correlatie was sterk significant, p = 0.000005.

Validatie vond plaats toen Honorton et al [14] deze correlatie ook vonden in de autoganzfeld-database. Een andere, feitelijk ongerelateerde, verzameling aan onderzoeken lieten eenzelfde resultaat zien.

Eveneens belangrijk blijkt de mate waarin een individu wel of niet in ESP gelooft, het zogenaamde ‘sheep/goat effect’. Lawrence [15] voerde een meta-analyse uit over 73 studies die onderzochten of de houding tegenover ESP de resultaten beinvloede. Dit betrof studies uitgevoerd door 37 onderzoekers, verdeeld over 4500 deelnemers die 685.000 Ganzfeld-rondes doorliepen. Het gevonden effect was klein, 0.029 maar sterk significant, 1.33-16.

Conclusie
De bovenstaande meta-analyses geven een doorsnede van de uitgevoerde ESP-onderzoeken. De gevonden effecten zijn dan wel klein, maar dat betekent niet dat zij verwaarloosbaar zijn. Zelfs een zeer zwakke ESP-gave kan in het dagelijks leven leiden tot belangrijke veranderingen. Deze lage effect-grootte maakt replicatie van studies vaak wel enorm moeilijk.

De resultaten zijn onverklaarbaar door fraude, het 'file-drawer'-probleem en kwade intenties. Het lijkt erop dat het niet het niet langer mogelijk het bestaan van ESP zomaar te ontkennen.

Bronnen
[1] R. Rosenthal, Meta-Analytic Procedures for Social Research., Revised edition, Sage Publications, Inc., 1991.
[2] C. Honorton, Meta-analysis of psi ganzfeld research: A response to Hyman, J. of Parapsychology 49:1 (1985), 51--91.
[3] R. Rosenthal, Meta-analytic procedures and the nature of replication: The ganzfeld debate, J. of Parapsychology 50:4 (1986), 315--336.
[4] R. Hyman, Comment, Statistical Science 6:4 (1991), 389--392.
[5] K. S. Dalton, R. L. Morris, D. L. Delanoy, D. Radin, R. Taylor and R. Wiseman, Security measures in an automated ganzfeld system, In: Proceedings of the 37th Annual Convention of the Parapsychological Association, Parapsychological Association, 1994, 114--123.
[6] D. I. Radin and R. D. Nelson, Evidence for consciousness-related anomalies in random physical systems, Foundations of Physics 19:12 (1989), 1499--1514.
[7] D. I. Radin and D. C. Ferrari, Effects of consciousness on the fall of dice: A meta-analysis, J. of Scientific Exploration 5:1 (1991), 61--85.
[8] W. G. Braud and M. J. Schlitz, Consciousness interactions with remote biological systems: Anomalous intentionality effects, Subtle Energies 2:1 (1991), 1--46.
[9] D. I. Radin and R. D. Nelson, Evidence for consciousness-related anomalies in random physical systems, Foundations of Physics 19:12 (1989), 1499--1514.
[10] D. L. Delanoy and S. Sah, Cognitive and physiological psi responses to remote positive and neutral emotional states, In: Proceedings of the 37th Annual Convention of the Parapsychological Association, Parapsychological Association, 1994, 128--138.
[11] C. T. Tart, Physiological correlates of psi cognition, Int'l. J. of Parapsychology 5 (1963), 357--386.
[12] R. Targ and H. Puthoff, Information transmission under conditions of sensory shielding, Nature 252 (1974), 602--607.
[13] C. Honorton, D. C. Ferrari and D. J. Bem, Extraversion and ESP performance: A meta-analysis and a new confirmation, In: L. A Henkel and G. R Schmeidler (eds.) Research in Parapsychology 1990, Scarecrow Press, 1992, 35--38.
[14] A. R. Lawrence, Gathering in the sheep and goats... A meta-analysis of forced-choice sheep-goat ESP studies, 1947--1993, In: Proceedings of the 36th Annual Convention of the Parapsychological Association, Parapsychological Association, 1993, 75--86.
[15] C. Honorton, D. C. Ferrari and D. J. Bem, Extraversion and ESP performance: A meta-analysis and a new confirmation, In: L. A Henkel and G. R Schmeidler (eds.) Research in Parapsychology 1990, Scarecrow Press, 1992, 35--38.

[ Voor 4% gewijzigd door Christiaan op 29-06-2003 23:17 ]


Acties:
  • 0 Henk 'm!

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 13-09 00:05
Geen matches
Lange posts - ik ga niet integraal quoten, dat wordt onhandig.
Een van de grootste problemen met meta-analyse is fraude. Juist omdat er met extreem zwakke verbanden wordt gewerkt kan een enkel fraude geval tientallen zoniet honderden negatieve resultaten teniet doen. Dat fraude wel eens voorkomt binnen de ESP community is een gegeven - fraude komt overal wel voor.

Je stelt evengoed dat
De resultaten onverklaarbaar [zijn] door fraude.
Dit lijkt me niet door je post bewezen te worden, alhoewel ik natuurlijk niet op zondagavond je referenties al kan doorspitten.
Het file-drawer probleem blijkt sowieso verwaarloosbaar klein te zijn, zo concludeerde Susan Blackmore na een studie naar niet-gepubliceerde artikelen bij Ganzfeld-onderzoeken. Van de 14 niet-gepubliceerde studies had zelfs 43% een significant resultaat....
Helaas, maar ik ben bang dat je geen fatsoenlijke statistiek hierop kunt doen. Ten eerste kun je nooit een volledig overzicht krijgen van alle niet-gepubliceerde studies. Je mist een essentieel populatie-overzicht. Ten tweede is onvoldoende kwaliteit een belangrijke reden waarom studies niet worden gepubliceerd. Ten derde is het file-drawer issue beperkt tot die studies die niet gepubliceerd zijn omdat er geen significant resultaat uitkwam. Als deze studie dus 6 voorbeelden vindt waar dat wel het geval is, dan is er iets anders bestudeerd.
In het eerder genoemde draadje is al een uiteenzetting gegeven van deze variant van ESP-onderzoek. Hierbij is sprake van een ‘zender’ en een ‘ontvanger’ die zich in twee afgeschermde kamers bevinden. De ontvanger krijgt een foto te zien, die hij of zij moet doorzenden naar de ontvanger. Deze moet vervolgens uit vier fotos bepalen welke hij of zij heeft ‘ontvangen’. Deze methode is tegenwoordig vrijwel volledig geautomatiseerd, door computers te gebruiken die vier fotos selecteren, en daar vervolgens eentje uit kiezen. Een uitgebreide bespreking is te vinden in het eerder genoemde draadje.

Indien ESP niet bestaat, dan zou je verwachten dat de ontvanger in 25% van de gevallen goed gokt.
Klinkt aannemelijk, maar is het niet.

Stel dat ik foto's van 4 huidige politici laat zien. Worden die dan elk met 25% kans gekozen?

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
<offtopic>
heb je dit nu zelf geschreven of ergens vandaan geplakt ? :9
</offtopic>

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
MSalters schreef op 30 June 2003 @ 00:11:
Lange posts - ik ga niet integraal quoten, dat wordt onhandig.
Een van de grootste problemen met meta-analyse is fraude. Juist omdat er met extreem zwakke verbanden wordt gewerkt kan een enkel fraude geval tientallen zoniet honderden negatieve resultaten teniet doen. Dat fraude wel eens voorkomt binnen de ESP community is een gegeven - fraude komt overal wel voor.
Uiteraard komt het voor. Maar je vergeet daarbij een aantal aspecten. Ten eerste zijn parapsychologen zeer fel in het opsporen van fraude. Ze weten zelf tenslotte hoe hard ze daarvoor gepakt worden en hoe hard het hun imago schaad als wetenschappers. Als je The Journal of Parapsychology leest zie je duidelijk dat de felste kritiek op onderzoeken komt uit van andere bekende parapsychologen, en niet van mensen van buitenaf. Bovendien heeft de American Association of Parapsychology al heel vroeg een stringente set voorschriften opgesteld waaraan onderzoekers moeten voldoen. Data gebruikt bij de onderzoeken moet bijvoorbeeld lange tijd bewaard worden en opvraagbaar zijn door derden. In de meeste vakgebieden is dit eveneens belangrijk, maar binnen de parapsychologie is het een eis om gepubliceerd te willen worden.
Helaas, maar ik ben bang dat je geen fatsoenlijke statistiek hierop kunt doen. Ten eerste kun je nooit een volledig overzicht krijgen van alle niet-gepubliceerde studies. Je mist een essentieel populatie-overzicht. Ten tweede is onvoldoende kwaliteit een belangrijke reden waarom studies niet worden gepubliceerd. Ten derde is het file-drawer issue beperkt tot die studies die niet gepubliceerd zijn omdat er geen significant resultaat uitkwam. Als deze studie dus 6 voorbeelden vindt waar dat wel het geval is, dan is er iets anders bestudeerd.
Blackmore heeft simpelweg geprobeerd te bepalen hoeveel ongerapporteerde Ganzfeld onderzoeken er nog liggen sinds 1980. Ze vond 32 studies, waarvan er 12 nooit voltooid waren en waarvan er eentje niet geanalyzeer kon worden. Van de overige 19 studies waren 14 acceptabel om op te nemen in meta-analyses, en vijf van hen lieten significante resultaten zien. Haar eigen conclusie is dat: "the bias introduced by selective reporting of ESP ganzfeld studies is not a major contributor to the overall proportion of significant results'' (p. 217). Hmmm...zie alleen wel dat ik de verkeerde data in mijn oorspronk. post heb gebruikt. nou ja...bij deze de correcte data :)

Uiteraard is dit geen nauwkeurige statistische bevestiging dat fraude niet voorkomt of in ieder geval zeer klein is. Het maakt het echter wel aannemelijk dat er bij parapsychologen niet meer of minder gefraudeerd wordt. Hoe je het ook went of keert; het verklaart de effecten niet. Het file-drawer argument wordt door de Fail-safe N regel van Rosenthal omver geblazen omdat zij totaal niet in staat is de gevonden effecten ook maar enigszins te verklaren.

Wat de kwaliteit betreft. Meta-analyses zijn meestal zo in elkaar gezet dat men, blind, een 'judge' laat bepalen, op grond van criteria, hoe betrouwbaar een studie is en in hoeverre zij voldoet aan methodologische eisen. De studies die opgenomen worden, worden op die manier voorzien van een rank. Doorgaans berekend men ook of resultaten beter worden naarmate de kwaliteit van het onderzoek toeneemt. Tot op heden is dat nog niet gebleken (niet voor zover ik weet).
Klinkt aannemelijk, maar is het niet.

Stel dat ik foto's van 4 huidige politici laat zien. Worden die dan elk met 25% kans gekozen?
Men laat geen fotos van 4 politici zien. Meestal zijn het vier figuren. Bovendien is het statistisch gezien alsnog onmogelijk wat je hier beweerd. Ook al zouden mensen statistisch gezien meer voor een ster dan voor een rondje kiezen - de computer selecteert nog steeds volledig at random een plaatje. Men gaat er ook vanuit dat het keuzepatroon van een proefpersoon niet random is, maar aangezien het selectieproces van de target dat wel is - maakt het ook niet uit. Als ik stelselmatig voor de foto van Balkenende kies uit vier fotos van politici, dan maakt dat de kans die dat die foto ook door de computer gekozen is niet groter. Snap je?

[ Voor 3% gewijzigd door Christiaan op 30-06-2003 00:42 ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 30 June 2003 @ 00:13:

heb je dit nu zelf geschreven of ergens vandaan geplakt ? :9
Dat is naast een off-topic reactie ook niet een erg vriendelijke reactie ;). Uiteraard heb ik gebruik gemaakt van de genoemde bronnen, maar ik heb dit verhaal niet geknipt en geplakt hoor. Heb wel gebruik gemaakt van de structuur van een erg goed essay over dit onderwerp dat hier ligt.

[ Voor 16% gewijzigd door Christiaan op 30-06-2003 00:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Wat kwam er nou uit de extrovert/introvert testen. Je zegt wel dat het resultaat signifikant was, maar niet welke van de twee karaktereigenschappen nou beter zijn in ESP.

Alle onderzoeken kwamen uit wetenschappelijke tijdschriften, maar dan vind ik het nog vreemd dat er niet een nieuwsbericht is geweest met als kop "ESP bewezen".

Acties:
  • 0 Henk 'm!

  • pinockio
  • Registratie: Juli 2001
  • Laatst online: 13-03 13:38
Geen matches
Interessant verhaal... Ik was er al van overtuigd dat er zoiets moest bestaan. Een anecdote (dus absoluut geen bewijs, maar dát is al gegeven):

Tijdens de Natuurkundeles wilde de leraar "bewijzen" dat een multiple-choice vragen met 4 antwoorden voor 25% goed geraden zouden worden. Ik had zin om hier tegenin te gaan, omdat ik geloofde dat ik meer dan 25% goed zou raden (ik zat vooraan, vlak bij de leraar, maar kon zijn antwoorden niet lezen).

De methode was als volgt: de docent schreef "random" 20 antwoorden op: 1C, 2B, 3B, 4A, etc. Elke leerling ook.

Het bleek dat inderdaad gemiddeld 5 van de 20 (25%) "goede" antwoorden werden gegeven. Er waren weinig afwijkingen, behalve mijn uitkomst... ik had 50% goede antwoorden... Dit zou een combinatie van een "voorspellend" en "beïnvloedend" effect kunnen zijn. Nogmaals, geen bewijs, wel een opmerkelijke gebeurtenis. Ik denk ook dat op "bijzondere mogelijkheden" geselecteerde proefpersonen betere resultaten zullen geven dan een gemiddeld publiek.

Disclaimer: P. aanvaardt geen aansprakelijkheid op grond van dit bericht.


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 30 juni 2003 @ 00:49:
Wat kwam er nou uit de extrovert/introvert testen. Je zegt wel dat het resultaat signifikant was, maar niet welke van de twee karaktereigenschappen nou beter zijn in ESP.
Dom :) Extraversie scoort hoger. Er zijn overigens meer variabelen, zoals religiositeit (Honorton, 1997) en atmosferische activiteit (Houtkooper et al., 2001).
Alle onderzoeken kwamen uit wetenschappelijke tijdschriften, maar dan vind ik het nog vreemd dat er niet een nieuwsbericht is geweest met als kop "ESP bewezen".
Dat is niet een maat om te bepalen of iets wel of niet waar is :) Als skeptici met dit soort argumenten gaan komen, zijn ze duidelijk door geloofwaardige argumenten heen lijkt me zo. Bovendien is parapsychologie ook nog maar sinds kort in staat om dit soort effecten zo sterk aan te tonen. Eveneens besteedt men er bij veel psychologie-opleidingen al aandacht aan (helaas nog niet in Utrecht). Het bekendste psychologie-boek voor eerstejaars bevat al informatie over ESP.

Het probleem is dat er zoveel statistiek bij komt kijken dat het moeilijk is dit uit te leggen aan een leek. Zelfs nu is het nog moeilijk, zelfs bij een publiek dat er in ieder geval meer van weet van een leek. En bovendien is het niet bijzonder nieuwswaardig. Wat moet je in de krant zetten? "Minimaal ESP-effect gevonden"? Het is niet zo spectulair voor de krant, maar de gevolgen van de conclusies die me eraan verbindt zijn dat wel. Overigens heeft KIJK! er bijvoorbeeld al aandacht aan besteed.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
pinockio schreef op 30 juni 2003 @ 00:54:
Het bleek dat inderdaad gemiddeld 5 van de 20 (25%) "goede" antwoorden werden gegeven. Er waren weinig afwijkingen, behalve mijn uitkomst... ik had 50% goede antwoorden... Dit zou een combinatie van een "voorspellend" en "beïnvloedend" effect kunnen zijn. Nogmaals, geen bewijs, wel een opmerkelijke gebeurtenis. Ik denk ook dat op "bijzondere mogelijkheden" geselecteerde proefpersonen betere resultaten zullen geven dan een gemiddeld publiek.
Dat klopt. Met name met een persoon genaamd Sean Harribance heeft al veel opgeleverd. Ik heb twee papers met zijn resultaten. Het probleem is alleen dat het met 1 persoon allemaal niet zo makkelijk is er conclusies uit te trekken. Wat men soms wel doet is groepen formeren van individueen die in eerdere rondes goed presteerden. De scores zijn dan vaak veel beter, alleen streeft men doorgaans naar gelijke groepen, en dan is het wat lastig om het op deze manier aan te pakken. Gezien de meta-analyse die ik hier beschreven heb, vallen dat soort onderzoeken buiten de boot omdat ze een ander design hebben. Ik zal proberen hier nog iets over te schrijven. Wat in ieder geval al duidelijk is, is dat ook creavititeit een voorspeller is van goede prestaties, net als het soort psychologische verdedingsmechanismen (DMT) dat je gebruikt.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 30 June 2003 @ 00:58:
Dat is niet een maat om te bepalen of iets wel of niet waar is :) Als skeptici met dit soort argumenten gaan komen, zijn ze duidelijk door geloofwaardige argumenten heen lijkt me zo. Bovendien is parapsychologie ook nog maar sinds kort in staat om dit soort effecten zo sterk aan te tonen. Eveneens besteedt men er bij veel psychologie-opleidingen al aandacht aan (helaas nog niet in Utrecht). Het bekendste psychologie-boek voor eerstejaars bevat al informatie over ESP.

Het probleem is dat er zoveel statistiek bij komt kijken dat het moeilijk is dit uit te leggen aan een leek. Zelfs nu is het nog moeilijk, zelfs bij een publiek dat er in ieder geval meer van weet van een leek. En bovendien is het niet bijzonder nieuwswaardig. Wat moet je in de krant zetten? "Minimaal ESP-effect gevonden"? Het is niet zo spectulair voor de krant, maar de gevolgen van de conclusies die me eraan verbindt zijn dat wel. Overigens heeft KIJK! er bijvoorbeeld al aandacht aan besteed.
Daar heb je wel gelijk in. Wat ik zelf het grootste probleem vind is het feit dat er geen goeie theorie is over hoe het zou moeten werken. Als er een goede theorie zou zijn hoe het werkt dan zou het veel meer worden geaccepteerd. Ikzelf heb ook nog steeds mijn twijfels. Simpelweg omdat onze theorieën over fraude verder zijn dan over ESP.

Omdat er ook zoveel statistiek nodig is, is de data ook niet zo duidelijk. Als ik met een telescoop een lichtflits van gammastraling waarneem zal niemand zeggen dat dat niet zo is, ook al heb ik geen theorie over het hemellichaam waar het vandaan komt. Bij ESP is het moeilijker omdat er wel veel fraude bij zit en dan natuurlijk vooral van de niet-wetenschappelijke kant.

Wanneer deze experimenten redelijk reproduceerbare resultaten opleveren, lijkt het mij logisch dat men gaat testen hoe de sterkte van het effect verandert met afstand, en meer van dit soort testen. Dan heeft men weer meer houvast voor een theorie over hoe het werkt.

Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
Maar waarom streeft men naar een homogene groep?

Stel dat je wilt "bewijzen" dat een mens 100kg kan liften. Je neemt 100 willekeurige mensen. Uiteraard zal het grootste deel niet in staat zijn om 100kg te liften, en je zal dus geen spectaculaire (lees: nieuwswaardige) onderzoeksresultaten krijgen, hoewel ze misschien wel wetenschappelijk gezien zeer significant zijn.

Stel nou dat je 10 van dat soort groepen neemt, en daaruit de mensen selecteert die het in die 10 tests goed deden, en daarmee vervolgens nog zo'n test doet, zal je een voor de leek veel interessanter resultaat verkrijgen, zelfs al is het wetenschappelijk gezien vrij zinloos.

In het geval van ESP-onderzoek zouden ze het zelfde kunnen doen. Zoals gezegd, wetenschappelijk gezien vrij zinloos, maar het heeft nieuwswaarde, creëert dus publieke bekendheid, en zorgt zo ook voor meer geldstroom richting toekomstig onderzoe naar ESP. Een onderzoek voor de PR, zegmaar ;)

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
Verwijderd schreef op 30 June 2003 @ 11:10:
Daar heb je wel gelijk in. Wat ik zelf het grootste probleem vind is het feit dat er geen goeie theorie is over hoe het zou moeten werken. Als er een goede theorie zou zijn hoe het werkt dan zou het veel meer worden geaccepteerd. Ikzelf heb ook nog steeds mijn twijfels. Simpelweg omdat onze theorieën over fraude verder zijn dan over ESP.

Omdat er ook zoveel statistiek nodig is, is de data ook niet zo duidelijk. Als ik met een telescoop een lichtflits van gammastraling waarneem zal niemand zeggen dat dat niet zo is, ook al heb ik geen theorie over het hemellichaam waar het vandaan komt. Bij ESP is het moeilijker omdat er wel veel fraude bij zit en dan natuurlijk vooral van de niet-wetenschappelijke kant.

Wanneer deze experimenten redelijk reproduceerbare resultaten opleveren, lijkt het mij logisch dat men gaat testen hoe de sterkte van het effect verandert met afstand, en meer van dit soort testen. Dan heeft men weer meer houvast voor een theorie over hoe het werkt.
In den beginne wist niemand hoe licht werkte. Er zijn allerlei experimenten met licht gedaan om de snelheid ervan en andere eigenschappen te bepalen. Volgde jarenlang "religieuze" gevechten tussen golfaanhangers en deeltjesaanhangers, om uiteindelijk beide theorieën harmonieus samen te kunnen brengen.

In de tijd dat onbekend was hoe licht precies werkte, was er niemand die om die reden twijfelde aan de onderzoeksresultaten. Ik bedoel, als je denkt dat licht uit deeltjes bestaat, sta je bij het resultaat van een interferentie-onderzoek wel even met je ogen te knipperen! Maar de onderzoeksresultaten spreken voor zich, dus daar moet je je theorieën dan maar op aanpassen!

Bij ESP is het het zelfde. Hoe het werkt is onbekend, maar DAT het werkt blijkt uit de testresultaten. Vervolgens moet je andere tests doen om uit te kunnen vinden HOE het werkt. Ook daarvoor zou zo'n in mijn vorige posting aangehaald "PR-onderzoek" handig kunnen zijn...

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 30 June 2003 @ 11:10:
Daar heb je wel gelijk in. Wat ik zelf het grootste probleem vind is het feit dat er geen goeie theorie is over hoe het zou moeten werken. Als er een goede theorie zou zijn hoe het werkt dan zou het veel meer worden geaccepteerd. Ikzelf heb ook nog steeds mijn twijfels. Simpelweg omdat onze theorieën over fraude verder zijn dan over ESP.
Op zich een terechte kritiek, ware het niet dat het bij (para)psychologie zelden anders gaat. Meestal bemerkt men iets raars, en gaat vervolgens kijken waarom dat 'rare' optreed. Een voorbeeld is de emotionele stroop-taak waar ik in het draadje over die concentratie-test over schreef. Stroop ontdekte dat effect bij toeval. Overigens zijn er wel degelijk theorieen over, alleen ging het me eerst even om de resultaten.
Omdat er ook zoveel statistiek nodig is, is de data ook niet zo duidelijk. Als ik met een telescoop een lichtflits van gammastraling waarneem zal niemand zeggen dat dat niet zo is, ook al heb ik geen theorie over het hemellichaam waar het vandaan komt. Bij ESP is het moeilijker omdat er wel veel fraude bij zit en dan natuurlijk vooral van de niet-wetenschappelijke kant.
Nu kan ik dit keer, itt het vorige draadje, zeggen dat ik mijn neus genoeg binnen de wereld van de psychologie heb begeven om te zien dat het met de statistiek helaas niets anders gaat. Het afgelopen jaar heb ik 10 onderzoeksverslagen geschreven, en de significantie-waarden (de p-waarden) waren overal veel en veel groter dan hier. Ik was blij met een p-waarde van 0.03 ipv de ultiem kleine p-waarden waar bovenstaande analyses mee komen. Kortom; de resultaten van bovenstaande analyses zijn duizenden malen significanter.

Zelfs uiterst logische verschillen, zoals de mate van agressie bij mannen en vrouwen, leiden nog steeds tot zeer kleine effecten. Een recentelijke meta-analyse laat een verschil tussen mannen en vrouwen zien van 0.10. Dat is enorm klein, maar toch is het voor de leek een zeer logisch gegeven dat mannen agressiever zijn dan vrouwen (overigens betreft het wel een hele nauwe operationalisatie waarbij men rekening heeft gehouden met de vormen van agressie van mannen en vrouwen). Dergelijke kleine effecten zijn eerder regel dan uitzondering, en daarom is statistiek zo belangrijk binnen de psychologie. Het voorbeeld dat je zelf geeft is een voorbeeld van een exacte wetenschap - en dat werkt per definitie heel anders dan iets als psychologie, waarbij men rekening moet houden met duizenden variabelen die de uitkomsten kunnen veranderen.
Wanneer deze experimenten redelijk reproduceerbare resultaten opleveren, lijkt het mij logisch dat men gaat testen hoe de sterkte van het effect verandert met afstand, en meer van dit soort testen. Dan heeft men weer meer houvast voor een theorie over hoe het werkt.
Daar is men nu dan ook mee bezig. In een eerdere reply op jouw reactie schreef ik al dat men persoonlijkheidskenmerken probeert te correleren met ESP-vermogens, maar ook dominantie van de hersenhelft, atmosferische stoornissen, religiositeit, het 'openstaan voor ESP'. Ik zal er nog eens iets over opzoeken.

De mens blijft een black box, zeker op dit gebied. Je kunt uit de effecten alleen maar infereren hoe het daaronder werkt. Zoals Honorton zelf zei; 'to make a rabbit stew, you first have to lure the rabbit'.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Mx. Alba schreef op 30 June 2003 @ 11:16:
Maar waarom streeft men naar een homogene groep?
De meta-analyse die ik gaf was een analyse van onderzoeken met een design met homogene groepen. Er zijn wel andere onderzoeken gedaan op dat gebied, maar die mag je niet opnemen in de meta-analyse tezamen met ander-soortige designs - dat vervormd de resultaten.

Met de PR ligt het overigens moeilijk. Er komen, zoals gezegd, wel steeds meer parapsychologen bij die goed geschoold zijn in statistiek (beter dan de gemiddelde psycholoog in ieder geval). Bovendien wordt er in boeken en in studies vaak aandacht aan besteed. Maar me blijft de parapsychologie, en diens resultaten, wantrouwen. Op zich niet zo erg, want skepticisme is goed. Maar je kunt er ook te ver in doorschieten.

Studies als in Edinburgh, die gebruik maken van een extreem beveiligde autoGanzfeld-methode, komen met dezelfde hitrates (33%) als Honorton. Naast dat dit een replicatie is waarvan de resultaten vrijwel onvervalsbaar zijn, is het een sterk effect. Toch weigeren nog veel mensen dit te aanvaarden als bewijs. Op de W&L-meeting had ik het hier met Sandalf over. Het heeft veel te maken met het niet kunnen passen van ESP in je wereldbeeld vermoed ik.

[ Voor 51% gewijzigd door Christiaan op 30-06-2003 11:28 ]


Acties:
  • 0 Henk 'm!

  • pinockio
  • Registratie: Juli 2001
  • Laatst online: 13-03 13:38
Geen matches
Mx. Alba schreef op 30 June 2003 @ 11:16:
(...)

Stel nou dat je 10 van dat soort groepen neemt, en daaruit de mensen selecteert die het in die 10 tests goed deden, en daarmee vervolgens nog zo'n test doet, zal je een voor de leek veel interessanter resultaat verkrijgen, zelfs al is het wetenschappelijk gezien vrij zinloos. (...)
Ik zou zeggen dat dat soort resultaten wetenschappelijk juist wel relevant zijn, omdat ze - naast het bestaan van ESP aan te tonen - ook nog eens bewijzen dat deze vermogens ongelijk verdeeld zijn. Om interessante gegevens op te leveren hoef je niet aan te tonen dat alle mensen dit kunnen. De algemene gedacht is namelijk dat ESP niet bestaat. Bij een bepaalde groep dit aantonen is al "bewijs" dat dit niet klopt. Daarmee is dan die hypothese van de baan.

Ook zou je daarna onderzoek kunnen doen naar andere karakteristieken van die mensen (opleiding/training, achtergrond, etc.) Je zou twee groepen kunnen selecteren: één die beter dan gemiddeld scoort (neem dan bijv. de beste 5%) en één die minder scoort (de minste 5%).
Je kunt dit vergelijken met IQ-tests: 5% zit boven de 130 (geloof ik) en 5% onder de 90 o.i.d. (Zoek maar op Normale Verdeling.) De resultaten moeten dan wel herhaalbaar zijn.

Disclaimer: P. aanvaardt geen aansprakelijkheid op grond van dit bericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Mx. Alba schreef op 30 juni 2003 @ 11:21:
In de tijd dat onbekend was hoe licht precies werkte, was er niemand die om die reden twijfelde aan de onderzoeksresultaten. Ik bedoel, als je denkt dat licht uit deeltjes bestaat, sta je bij het resultaat van een interferentie-onderzoek wel even met je ogen te knipperen! Maar de onderzoeksresultaten spreken voor zich, dus daar moet je je theorieën dan maar op aanpassen!
Dat er interferentie is bij licht zie je in een oogopslag, maar dat ESP bestaat zie je niet zo snel. Je hebt eerst allerlei ingewikkelde statistiek en dan komt er een resultaat uit, waaruit blijkt dat het heel onwaarschijnlijk is dat het niet bestaat. We kunnen trouwens de theorieën niet aanpassen zolang we niet weten hoe het wel zit. De huidige theorieën sluiten ESP ook niet uit, maar ze zeggen ook niets over hoe het zou moeten werken.
ChristiaanVerwijs schreef op 30 June 2003 @ 11:23:
Het voorbeeld dat je zelf geeft is een voorbeeld van een exacte wetenschap - en dat werkt per definitie heel anders dan iets als psychologie, waarbij men rekening moet houden met duizenden variabelen die de uitkomsten kunnen veranderen.
Exacte wetenschap werkt misschien wel anders dan psychologie, maar ESP heeft ook sterk te maken met exacte wetenschap. Bij psychologie, blijf je in principe beperkt tot de hoofden van mensen. Bij ESP gaat het om beïnvloeding van kansgebeurtenissen en informatieoverdracht vanuit de omgeving. Misschien dat een theorie over ESP wel belangrijke gevolgen heeft voor de quantum-mechanica.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Exacte wetenschap werkt misschien wel anders dan psychologie, maar ESP heeft ook sterk te maken met exacte wetenschap. Bij psychologie, blijf je in principe beperkt tot de hoofden van mensen. Bij ESP gaat het om beïnvloeding van kansgebeurtenissen en informatieoverdracht vanuit de omgeving. Misschien dat een theorie over ESP wel belangrijke gevolgen heeft voor de quantum-mechanica.
Psychologie is niet beperkt tot de hoofden van mensen :) Dat is de wat stereotypische benadering. Het is wel zo dat de mens centraal staat in het geheel, maar men bestudeert ook hoe de situatie de persoon beinvloed (evenals andersom). Maar goed, voor je argument maakt dat niet zo uit - meer een definitieprobleem.

Het probleem waar ESP-onderzoek, net als psychologisch onderzoek, mee kampt is dat men niet weet hoeveel modererende variabelen er meespelen en hoe men die het beste kan isoleren of 'uit' kan schakelen. Om die reden gebruikt men liefst zoveel mogelijk deelnemers, want op die manier vlak je eventuele randeffecten zo veel mogelijk uit. Dit leidt tot een enorme berg statistiek. Als je die methoden echter goed toepast, zijn de conclusies die je eruit trekt zeker gerechtvaardigd.

Juist omdat er zoveel variabelen meespelen zijn de gevonden effecten vaak zo klein. Al die invloeden zorgen voor steeds andere test-scores bij verschillende proefpersonen, en dat zorgt vereist zorgvuldige statistische verwerking.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
ESP en Extraversie - een samenhang
De meest onderzochte relatie is dus tussen ESP-vermogens en extraversie. Extraversie is een karaktertrek die gekenmerkt wordt door sterk uitgaand sociaal gedrag, een zucht naar uitdagingen en prikkels en ander-gericht denken. In dit geval wordt gekeken in hoeverre extraversie samenhangt met ESP, dus of mensen die meer extravert zijn beter scoren op ESP-tests zoals de Ganzfeld methode.

Dergelijk onderzoek maakt gebruik van groepen, waarbij één groep bestaat uit extraverten en één groep uit niet-extraverten (of introverten). Deze verdeling kan voor of na het onderzoek tot stand komen, en men gebruikt meestal bekende extraversie-tests die zichzelf bewezen hebben als betrouwbare indicatoren van de mate van extraversie. Men kan de mate van extraversie dus voor het onderzoek meten, en op basis daarvan groepen formuleren, of men meet de mate van extraversie van deelnemers pas na het onderzoek en verdeeld de behaalde scores op grond van die post-hoc scores.

Honorton, Ferrari & Bem (1998) voerden een meta-analyse uit over alle 60 studies, uitgevoerd door 17 verschillende onderzoekers, die gerapporteerd waren tussen 1945 en 1983. De totale database bestond uit 2963 deelnemers die deel hadden genomen aan 45 ESP kaart-gok (uit vier kaarten) studies of soortgelijke ‘forced-choice’ studies en 15 ‘free-response’ studies. De gemiddelde gevonden correlatie klein, maar significant, r = 0.09, p = 0.00004. De door de 60 studies gevonden correlaties varieerden echter zeer sterk, en dat betekende dat de verdeling niet homogeen was, daarom werden groepen herverdeeld naar type; ‘free-response’ óf ‘forced-choice’ en ‘individuele tests’ óf ‘groep-tests’.

De 21 forced-choice studies die gebruik maakten van individuele testing kwamen tot een grotere en nog significantere correlatie, r = 0.15, p = 0.00006. De 24 forced-choice studies die gebruik maakten van groep testing lieten geen correlatie zien tussen extraversie en ESP-performance, r = 0.00.

De 12 free-response studies die gebruik maakten van individuele testing kwamen tot een significante correlatie, r = 0.20, p = 0.000015. De resultaten van deze 12 studies, uitgevoerd door drie verschillende onderzoekers met 512 deelnemers, waren homogeen. Dat betekent dat de 12 studies correlaties vonden die niet significant van elkaar verschilden, wat betekent dat replicatie volledig succesvol was. De 2 free-response lieten eveneens eens correlatie zien, r = 0.19. Vanwege de kleine N (2) was zij echter niet significant, p = 0.067.

De ‘fail-safe N’ was 10, wat betekent dat iedere uitgevoerde en opgenomen studie 10 niet-gepubliceerde studies zonder enig resultaat tegenover zich moet hebben om het gevonden effect terug te krijgen naar 0.

De conclusie van de studie is dat zij de eerder gevonden relatie tussen ESP en extraversie versterkt en generalizeerd over nieuwe onderzoeken en nieuwe onderzoekers. ESP-prestaties op ‘free-response’ tests leidden hierbij tot de hoogste correlatie met extraversie, wat betekent dat deze vorm van ESP-onderzoek waarschijnlijk succesvoller is ESP op te roepen. Vooral de homogeniteit van de 12 FR studies op individueel niveau geven aan dat gegevens niet beinvloed werden door verdere variabelen, daar resultaten van de 12 onderzoeken niet significant van elkaar verschilden. Extraversie heeft daarbij een predictieve validiteit ten opzichte van ESP, daar zij samenhangt met ESP-prestaties. De correlatie van 0.20 laat zien dan 20% van de variantie in de ESP-prestaties verklaard kan worden door de variantie in de scores op extraversie van deelnemers. Predictieve validiteit is het belangrijkste kenmerk van goede wetenschap, en daarmee lijkt parapsychologie een meer geavanceerde fase binnen te komen.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs:
ESP-studies kunnen een antwoord geven op het eeuwenoude probleem van ?mind over matter?. Zij komt neer op de vraag of de geest in bepaalde mate onafhankelijk is van het fysieke brein. Deze vraag relateert weer sterk aan het probleem van de menselijke ziel, en of zij wel of niet bestaat. De antwoorden waar ESP-studies mee komen kunnen duidelijkheid scheppen in wat onze geest wel of niet kan, en in hoeverre zij daarbij losstaat van ons lichaam als fysiek object.
Waarom zou de ontdekking van een nieuw zintuig direct moeten leiden tot de opvatting dat de geest meer is dan een verzameling lichamelijke processen? Het hele beeld wat wij hebben van het lichaam is louter een gevolg van onze interpretaties van de 5 zintuigen - dit beeld zou, te samen met ons gehele wereldbeeld!, radicaal veranderd kunnen worden wanneer wij systematisch gebruik kunnen maken van een nieuwe toegang tot de wereld in de vorm van een 'zesde zintuig'. Hoe dat beeld eruit ziet, en of in dat beeld 'geest' een entiteit is die los van het lichaam kan bestaan, zijn vragen die vanuit ons huidige, door de 6 zintuigen bepaalde, perspectief onbeantwoordbaar zijn.

Acties:
  • 0 Henk 'm!

  • MSalters
  • Registratie: Juni 2001
  • Laatst online: 13-09 00:05
Geen matches
ChristiaanVerwijs schreef op 30 June 2003 @ 00:35:

Men laat geen fotos van 4 politici zien. Meestal zijn het vier figuren. Bovendien is het statistisch gezien alsnog onmogelijk wat je hier beweerd. Ook al zouden mensen statistisch gezien meer voor een ster dan voor een rondje kiezen - de computer selecteert nog steeds volledig at random een plaatje. Men gaat er ook vanuit dat het keuzepatroon van een proefpersoon niet random is, maar aangezien het selectieproces van de target dat wel is - maakt het ook niet uit. Als ik stelselmatig voor de foto van Balkenende kies uit vier fotos van politici, dan maakt dat de kans die dat die foto ook door de computer gekozen is niet groter. Snap je?
Ja - het was ook een commentaar op de niet-geautomatiseerde variant waarbij twee proefpersonen elk een keuze maken. Dan geldt dat de kans op een identieke keus gelijk is aan

p12+p22+p32+p42 wat een minimum heeft voor pi=1/4, dwz alle kansen identiek. Met een verdeling 1/3,1/3,1/3,0 krijg je bv een kans van 33% dat het goede plaatje wordt gekozen.

Man hopes. Genius creates. Ralph Waldo Emerson
Never worry about theory as long as the machinery does what it's supposed to do. R. A. Heinlein


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
MSalters schreef op 30 June 2003 @ 21:05:
Ja - het was ook een commentaar op de niet-geautomatiseerde variant waarbij twee proefpersonen elk een keuze maken. Dan geldt dat de kans op een identieke keus gelijk is aan
Oh, maar bij de niet-geautomatiseerde variant wordt eveneens random gekozen hoor. Het is niet zo dat beide personen kiezen. De zender krijgt uit de set 1 van de vier fotos aangereikt. Die is at-random gekozen door een computer of een of ander randomizatie-proces :) Anders zou het onderzoek natuurlijk helemaal niet kloppen omdat keuzepatronen van deelnemers de effecten beinvloeden

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Christiaan, je hebt een mooi betoog neergezet. Petje af. Echter, de kracht van het betoog is meteen ook zijn zwakte: de enige reacties die je er op zult krijgen zijn van het soort -ja maar als-, en niemand zal met een echt mooi en overtuigend tegenbetoog kunnen komen.

Zo ook ik, ik heb een paar dingen:
Indien ESP niet bestaat, dan zou je verwachten dat de ontvanger in 25% van de gevallen goed gokt. In een meta-analyse van 29 Ganzfeld-studies vond Honorton [2] een gemiddelde hitratio van 33%.
De vraag is wat significantie hier zegt. Je zou een idee van relevantie moeten bepalen. Een verschuiving van een gokkans van 1/4 naar 1/3 kan heel groot zijn als het aantal trials waarop het gebaseerd is groot is, maar het kan ook weinig voorstellen als het aantal trials klein is.

Significantie betekent: "wat is de kans dat ik waargenomen effect observeer, of extremer, in een populatie waar geen effect is".

Dat kan een problematische uitspraak zijn. Een gokkans van 1/4 zal als je het bij mensen! onderzoekt nooit exact op 1/4 uitkomen. Je zult dus altijd je nulhypothese verwerpen als het aantal proefpersonen omhoog gaat.

Verder, stel dat je je nulhypothese verwerpt, dan weet je nog niet wat er aan de hand is. Het is alleen onwaarschijnlijk dat je je observatie doet uit een populatie waar geen effect is, maar is dat een bewijs voor het bestaan van ESP, of zijn er nog alternatieve verklaringen?


Ik heb 1x een paragnost (Anton Pauwe) aan het werk gezien, en ik dat heeft veel indruk gemaakt. Of die man was een geniaal oplichter, of hij kon dingen die ik echt niet kan verklaren. Echter, in het dagelijks leven kom ik nooit iets tegen wat een aternatieve (ESP) verklaring behoeft. Dat vind ik jammer, maar het is een feit.


Op de vraag of ESP bestaat, is er voor mij dus een simpel antwoord: nee, want ik wordt er nooit mee geconfronteerd. Dat mag misschien een makkelijk antwoord zijn, maar er zijn genoeg dingen die wel lonen om over na te denken. Voor mij is het zinniger bv een heldere blik van mij zelf te hebben, dan te theoretiseren of er een verschijnsel bestaat dat ik zelf nooit waarneem.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 01 July 2003 @ 09:52:
Dat kan een problematische uitspraak zijn. Een gokkans van 1/4 zal als je het bij mensen! onderzoekt nooit exact op 1/4 uitkomen. Je zult dus altijd je nulhypothese verwerpen als het aantal proefpersonen omhoog gaat.
Dat lijkt me erg sterk. Hoe groter de groep wordt, hoe meer de verdeling naar 25% zal neigen. Nu is het inderdaad zo dat zelfs 26% bij een groep die groot genoeg is kan leiden tot verwerping van de null-hypothese, maar we hebben het hier over een waarde, 33%, die aanzienlijk veel verder weg ligt. Het kan ook zijn dat je de situatie hetzelfde benadert als MSalters, als je zegt dat mensen geen random keuzepatroon hebben. Dat is echter geen enkel probleem, maar als dat is waar je op doelt, dan zal ik in de volgende post de methode beter uitleggen.

Bovendien is de nullhypothese, indien die tenminste is dat er geen effect bestaat, niet eenmaal verworpen, maar vele honderden malen. Nu kan een type 1 fout per ongeluk optreden, maar hoe extreem klein is de kans dat dat in de honderden onderzoeken gebeurt die opgenomen zijn in de meta-analyse? En is dat niet precies waarom uberhaupt bepaald wordt of iets wel of niet significant is - om dat soort fouten te voorkomen?
Verder, stel dat je je nulhypothese verwerpt, dan weet je nog niet wat er aan de hand is. Het is alleen onwaarschijnlijk dat je je observatie doet uit een populatie waar geen effect is, maar is dat een bewijs voor het bestaan van ESP, of zijn er nog alternatieve verklaringen?
Er kan best een alternatieve verklaring zijn. Het probleem van deze discussie is dat zij een verklaring vereist, ESP, die verder niet getoetst kan worden middels de wetenschappelijke methode. Zij gaat, als het ware, nog verder dan huidig psychologisch onderzoek.
Op de vraag of ESP bestaat, is er voor mij dus een simpel antwoord: nee, want ik wordt er nooit mee geconfronteerd. Dat mag misschien een makkelijk antwoord zijn, maar er zijn genoeg dingen die wel lonen om over na te denken. Voor mij is het zinniger bv een heldere blik van mij zelf te hebben, dan te theoretiseren of er een verschijnsel bestaat dat ik zelf nooit waarneem.
Dus als je er niet mee te maken krijgt moet je er ook geen aandacht aan besteden? In dat geval sluit je een hoop andere wetenschappelijke richtingen uit. Tenzij jij in het dagelijks leven benadert wordt door ART-verschijnselen :). Waarschijnlijk is je redenatie dat ESP te weinig effect heeft in het dagelijks leven. Op zich is die minimalistische benadering van dit fenomeen acceptabel, maar zelfs een zeer klein effect kan nog tot grote gevolgen leiden.

Zelf begrijp ik de praktische beperktheid van het fenomeen, maar het is meer bedoeld om te laten zien dat ook de wetenschappelijke methode dingen kan aantonen die bij veel Tweakers niet zomaar passen in hun beeld van de wereld. Hoe vaak hoor je mensen niet roepen dat het bewezen is dat het allemaal onzin is - bij deze bewijs ik het tegendeel. Zijn er alternatieve verklaringen? Zeker, maar die zijn veel moeilijker te rijmen met de gegevens van al de zeven meta-analyses dan het bestaan van een kracht in de mens die zij kan richten op haar omgeving.

Bovendien hebben een aantal takken wel degelijk praktische toepassing. Vooral DMILS-effecten kunnen in de praktijk goed gebruikt worden om de effecten van gebedsgenezers te verklaren, en dat kan leiden tot acceptatie in de medische wereld.

[ Voor 10% gewijzigd door Christiaan op 01-07-2003 10:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 01 July 2003 @ 10:24:
[...]

Dat lijkt me erg sterk. Hoe groter de groep wordt, hoe meer de verdeling naar 25% zal neigen. Nu is het inderdaad zo dat zelfs 26% bij een groep die groot genoeg is kan leiden tot verwerping van de null-hypothese, maar we hebben het hier over een waarde, 33%, die aanzienlijk veel verder weg ligt.
Even een korte reactie (ik ben aan het werk)

Lees dit eens:

http://www.npwrc.usgs.gov/resource/1999/statsig/stathyp.htm

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Interessant. Deze kritiek kun je dus direct koppelen aan het alle conclusies die op grond van statistische significantie-testen getrokken worden. Niet alleen bij bovenstaande studies, maar eveneens bij alle wetenschappelijke studies die er gebruik van maken. Zij hebben echter enkel betrekking op zeer kleine verschillen tussen de twee gemiddelden, of andere waarden, die vergeleken worden.

Toch weet ik niet of ik die kritiek terecht vind. Het is tenslotte een statistisch principe dat naarmate de groep groter wordt, de waarde steeds meer naar het gemiddelde neigt. Een simpel voorbeeld. De kans of ik kop krijg bij het opgooien van een munt is 50%. Bij een kleine populatie, bijvoorbeeld 10 munten, is het niet bijzonder als ik 6 maal kop en 4 maal munt krijg. Het is ook niet vreemd als ik 7 maal munt en 3 maal kop krijg. Als ik echter 8 maal kop krijg en 2 maal munt, dan wordt het waarschijnlijk tijd om eens te kijken of de munt wel goed gebalanceerd is. Naarmate de populatie toeneemt zal de verdeling steeds gelijker verdeeld worden. Na duizend worpen is de verdeling waarschijnlijk iets van 499/501, en dat wordt steeds vlakker, totdat de verdeling gelijk is. Hoe groter de groep, hoe meer schommelingen uitgevlakt worden. Als ik nu een miljoen munten opgooi, dan is het bijzonder als de verdeling 49% kop en 51% munt is! Een dergelijke verdeling zou niet zo raar zijn geweest bij een veel kleinere groep, zeg 10 munten, maar door de extreem grote populatie is een dergelijk verschil significant van heb ik jou daar.

Het argument dat in dat artikel, als ik het goed begrijp, gebruikt wordt stelt dat dergelijke kleine verschillen te snel geaccepteerd worden omdat de groep zo extreem groot is. Maar dat is toch helemaal niet raar! Bij extreem grote groepen zijn zelfs zeer kleine verschillen in de verdeling al zeer bijzonder. Bovendien betreffen de studies verschillen die meerdere standaard-deviaties (ten opzichte van kansverwachting) groot zijn, en zijn zeker niet verwaarloosbaar klein. Dit argument lijkt me dus niet echt van toepassing op de besproken meta-analyses

Maar ik denk dat je die link voornamelijk aanhaalt omdat het op het einde claimt dat men zich niet moet richten op kleine, amper observeerbare, effecten:
The annoying unimportant differences that were significant indicate that too large a sample was obtained. Further, if an important difference was not significant, the investigator concludes that the sample was insufficient and calls for further research. This schizophrenic nature of the interpretation of significance greatly reduces its value.
Wat ik eigenlijk niet begrijp is wat je doel met je post is. Wil je nu laten zien dat de statistische methode ineens nu kan leiden tot problemen (want dat commentaar heb ik werkelijk nog nooit gehoord bij andere, wat dat betreft veel belangrijkere effecten die ook zo zijn aangetoond) of dat dit effect niet belangrijk is, maar toch significant wordt aangetoond.

Bovendien, en dat zei ik net ook al, spreken we hier niet over kleine verschillen. Een effect van 0.33 bij DMILS studies is werkelijk enorm. Je kunt dat met geen mogelijkheid wijten aan een T1-fout. Dat geldt overigens ook voor de rest. Het lijkt me ook raar als gerenommeerde statistici als Utts, Hyman en Rosenthal allemaal dergelijke fouten maken, terwijl zij bovendien nog objectief en skeptisch tegenover het fenomeen staan ook.

[ Voor 54% gewijzigd door Christiaan op 01-07-2003 14:24 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Christiaan,

petje af voor je betoog!

Ik heb echter een probleempje met dit soort "bewijzen", en dat valt niet weg te nemen met het file-drawer argument: wat nou als de meetresultaten al VOOR publicatie vervalst zijn? Immers, de personen die dit soort proeven doen willen (over het algemeen) ook aantonen dat ESP bestaat, en dan is vervalsing in mijn ogen niet onwaarschijnlijk. Deze mensen krijgen veel researchgeld voor hun onderzoeken, en als resultaat uitblijft is het einde research... Vergelijk het met de autoverkoper en zijn auto.

Waarom zet je zelf niet zo'n experiment op? Als de hit-ratio 33% is heb je dat met een paar sessies wel aangetoond. Eenvoudig zelfs.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Nog even een extra set overwegingen.

Ten eerste nog een argument met betrekking tot de problemen die aangekaart worden in het door Olav aangehaalde artikel. De problemen die hierin genoemd worden hebben, indien zij terecht zijn (waar ik, zoals gezegd, zeer aan twijfel), van toepassing op alle conclusies die zijn getrokken op grond van statistiek in *alle* onderzoeksgebieden. De wetenschappelijke methode komt in dit geval met conclusies die moeilijk te weerleggen zijn. Is het dan ineens het laadste redmiddel om de wetenschappelijke methode zelf maar aan te vallen? Lijkt me niet een goede benadering voor welke wetenschapper dan ook.

Met betrekking tot JoepP. Falsificatie is altijd een probleem. Er is echter een aantal redenaties die wel belangrijk zijn met betrekking tot fraude. Ten eerste weten parapsychologen dondersgoed dat fraude, indien dat ontdekt wordt, kan leiden tot groot imago-verlies. Ze denken dus wel twee keer na voordat ze gegevens manipuleren. Bovendien leidt dit ertoe dat collega-parapsychologen zeer fel controleren op mogelijke fraude. Als zij het zelf niet doen uit angst voor gek te staan, dan willen ze niet dat collegas dat wel doen. De laatste reden is misschien de belangrijkste; wat is het gewin van parapsychologen bij fraude? Ook al kan je zeggen dat men meer resultaten wil om meer subsidie te krijgen, maar waarom zou je dat willen als je zelf weet dat het toch een dood spoor is? Denk je werkelijk dat er wetenschappers zijn die hun leven wijden aan dit onderwerp en constant frauderen omdat ze weten dat het toch niet bestaat? En ook niet onbelangrijk is het feit dat we te maken hebben met vele tientallen onderzoekers. Het lijkt me *zeer* onwaarschijnlijk dat fraude invloed heeft (ook al sluit ik niet uit dat het voorkomt). Met betrekking tot het opzetten van een eigen experiment; ik beschik niet over de juiste geluidsdichte ruimten, de computers en andere apparatuur. Bovendien weet ik zeker dat als ik kom met significante resultaten, nog niemand het gelooft :)

Ik heb bovendien vandaag een reply van James Randi gekregen op mijn vraag of parapsychologen ooit geprobeerd hebben het prijzengeld te claimen. Zijn reactie was de volgende:
None have applied.

Re the meta-analyses, when others have "weeded" and assigned values to the
admitted records, the studies show nothing. Meta-analysis is a very weak
tool, depending upon who uses it. After all, if you subjected the Geller
"experiments" to that process, you'd get VERY strong, significant
results....!

One parapsychologist angrily declared that he is a scientist, and doesn't
try for "prizes"! I asked him about the Nobel Prize, and he broke off
communication....

James Randi
Zijn argument vind ik persoonlijk zwak, daar ook hij de methode zelf aanvalt. Meta-analyses zijn helemaal geen zwakke tools als zij goed gebruikt worden. In vroegere meta-analyses was het nog wel eens lastig de juiste studies op te nemen. Meta-analyses vereisen namelijk een zogenaamde 'ranking' van studies op de kwaliteit. Op die manier kan men studies die van lage kwaliteit zijn toch meenemen, maar hun effect beperken tot een minimum vergeleken met studies die goed van kwaliteit zijn. Randi verwijst naar het feit dat een oude meta-analyse van Honorton en Bem met betrekking tot Ganzfeld ooit, bij controle, incorrect bleek te zijn. Dit zorgde voor commotie, en leidde tot betrekking van meta-analyse expert Rosenthal en skepticus Hyman (die vreemd genoeg samenwerkt met Randi). Rosenthal formuleerde criteria die gebruikt konden worden bij de kwaliteits-ranking, en Hyman voerde een dergelijke ranking zelf uit, waarna Honorton er een analyse op los liet. Zowel Hyman als Honorton kwamen tot hetzelfde significante effect van 33%, en Rosenthal bevestigde dat onafhankelijk. Randi focust zich op 1 studie die gebruik maakte van een zeer selecte groep studies, en juist die onderzoekers werd verweten, zelfs door Rosenthal, dat zij probeerden de effecten te verdoezelen door selectief studies op te nemen in de analyse.

Randi, kortom, gelooft alleen dat meta-analyses goed werken in de handen van mensen die komen met resultaten die ESP-effecten lijken te ontkennen, maar verwerpt iedere studie die die effecten wel aantoont. Zelfs als vele tientallen bevestigende studies zijn, en wel 1 (meer kan ik er iig niet vinden op de universiteit en in de journals die ik hier heb) die het ontkennen.

Wat hij over Geller schrijft raakt kant nog wal aangezien dat helemaal nooit wetenschappelijk onderzoek betrof. Kortom; ik vind dat Randi hier laat zien dat hij erg selectief zoekt naar die argumenten die zijn punt ondersteunen. Ik heb, subtieler, deze mening, evenals bovenstaande informatie naar hem toegestuurd en zal jullie op de hoogte houden van zijn reactie.

[ Voor 8% gewijzigd door Christiaan op 02-07-2003 10:09 ]


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
_/-\o_ _/-\o_ _/-\o_ _/-\o_ _/-\o_

Ga zo door Chris!

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Heb je misschien ook voorbeelden van acceptatie van deze resultaten in de wetenschappelijke wereld. Ik weet dat iets niet meer waar wordt als meer mensen het denken. Maar het laat wel zien hoe de huidige opinie is.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Matched: psi
Er is helaas zeer weinig acceptatie. Tot op heden is er maar 1 nobelprijswinnaar, een natuurkundige genaamd Brian Josephson, die de resultaten geaccepteerd heeft als bewijs voor ESP, of zogenaamde PSI effecten (wat een bredere term is). En dan is er nog een eerstejaars psychologie boek (veel gebruikt in de states) waar ESP in vermeld wordt (en goed behandeld wordt).

Stel je eens voor wat het betekent voor de wetenschap als zij moet erkennen dat ESP bestaat? Ten eerste is het een klap in de gezichten van materialisten, die moeten accepteren dat er 'krachten' bestaan die boven het materialistische wereldbeeld uitstijgen. Bovendien moeten grote aantallen psychologische studies geinvalideerd worden omdat ineens bewijs is gekomen voor een nieuwe factor die de resultaten beinvloed. Hetzelfde geldt voor natuurkundige experimenten, zoals bij deeltjesversnellers. De impact van erkenning van ESP is gigantisch. De interactie die ESP met de omgeving mogelijk maakt is bovendien zeer moeilijk te vangen in theoretische modellen. Momenteel kan men enkel laten zien dat zij bestaat, maar niet hoe zij werkt. Dit is een dode weg wat de wetenschap betreft, daar zij waarschijnlijk nooit zal begrijpen, met haar methoden die hier niet goed toepasbaar zijn, hoe ESP zelf werkt. In een interessant artikel schrijft:
Experimental psychology as now practiced would be destroyed as a scientific enterprise. Psychiatry, for its part, would have to go back and start from the beginning
Een erg goed artikel over dit onderwerp is hier te vinden:
http://www.ramcconnell.com/sovereignty.pdf

[ Voor 11% gewijzigd door Christiaan op 02-07-2003 10:45 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 02 July 2003 @ 01:03:
Met betrekking tot JoepP. Falsificatie is altijd een probleem. Er is echter een aantal redenaties die wel belangrijk zijn met betrekking tot fraude. Ten eerste weten parapsychologen dondersgoed dat fraude, indien dat ontdekt wordt, kan leiden tot groot imago-verlies. Ze denken dus wel twee keer na voordat ze gegevens manipuleren. Bovendien leidt dit ertoe dat collega-parapsychologen zeer fel controleren op mogelijke fraude. Als zij het zelf niet doen uit angst voor gek te staan, dan willen ze niet dat collegas dat wel doen. De laatste reden is misschien de belangrijkste; wat is het gewin van parapsychologen bij fraude? Ook al kan je zeggen dat men meer resultaten wil om meer subsidie te krijgen, maar waarom zou je dat willen als je zelf weet dat het toch een dood spoor is? Denk je werkelijk dat er wetenschappers zijn die hun leven wijden aan dit onderwerp en constant frauderen omdat ze weten dat het toch niet bestaat? En ook niet onbelangrijk is het feit dat we te maken hebben met vele tientallen onderzoekers. Het lijkt me *zeer* onwaarschijnlijk dat fraude invloed heeft (ook al sluit ik niet uit dat het voorkomt).
Ik vind het zeer naief van je dat je aanneemt dat er niet/amper gefraudeerd wordt in onderzoek. Ook binnen gerenommeerde vakgebieden wordt wat afgelogen, laatst nog een man die (ik meen) ruim 30 natuurkundige artikelen in grote bladen had gepubliceerd. Allemaal vervalst.

Verder zijn onderzoekers in de meeste vakgebieden redelijk vooringenomen, en doen hun onderzoek slechts om hun vermoedens te bevestigen, niet om ze te toetsen. Als jij een jaar ergens aan hebt gewerkt -wil- je dat je experimenten bevestigend zijn. Verder kunnen mensen sterk genoeg geloven dat iets bestaat dat ze de zaken wat mooier voordoen als ze zijn. Bijvoorbeeld door alleen de gunstige helft van de experimenten te gebruiken, en de rest weg te gooien. Dat soort fraude is niet op te sporen als het goed gebeurt.

Ik ben gewoon super kritisch tov dit soort niet-controleerbare experimenten, en dat geldt niet alleen voor dit vakgebied...
Met betrekking tot het opzetten van een eigen experiment; ik beschik niet over de juiste geluidsdichte ruimten, de computers en andere apparatuur. Bovendien weet ik zeker dat als ik kom met significante resultaten, nog niemand het gelooft :)

Ik heb bovendien vandaag een reply van James Randi gekregen op mijn vraag of parapsychologen ooit geprobeerd hebben het prijzengeld te claimen. Zijn reactie was de volgende:
Zo makkelijk kom je er niet vanaf.

Je steekt zeer veel tijd in het onderzoeken van reeds gedane experimenten, maar je weigert zelf een experiment te doen. Als er echt 33% ipv 25% gescoord wordt, kan je met betrekkelijk weinig waarnemingen tot deze conclusie komen. Software wil ik wel voor je schrijven. Je maakt het moeilijker dan het is, waarom?

Weet je wat? Als jij een fatsoenlijk (in mijn ogen) plan van aanpak schrijft, het uitvoert, en controleerbare (door mij) resultaten vindt dat ESP bestaat, geef ik je €1000. Lukt het je niet dan gaan we op jouw kosten uit eten.

Deal?

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 02 July 2003 @ 11:42:
Ik vind het zeer naief van je dat je aanneemt dat er niet/amper gefraudeerd wordt in onderzoek. Ook binnen gerenommeerde vakgebieden wordt wat afgelogen, laatst nog een man die (ik meen) ruim 30 natuurkundige artikelen in grote bladen had gepubliceerd. Allemaal vervalst.
We hebben het over 'een man' en niet over meer dan honderd wetenschappers die allemaal met studies komen die significante ESP-effecten aantonen. Noem mij dus niet naief op dit punt! Ik ben zeer wel bewust van het feit dat fraude gebeurt, en wat dat betreft zijn er ook zeker studies bekend binnen de parapsychologie waarbij gefraudeerd is. Maar als je ziet hoe die wetenschapper die dat betrof gelynched is, dan wil je echt niet meer frauderen. Bovendien is de statistische methode ook bedoeld om dit soort effecten uit te vlakken. Het is totaal geen realistisch argument te zeggen dat ESP-effecten enkel voortkomen uit fraude door wetenschappers. Natuurlijk zijn niet alle wetenschappers, ongeacht het vakgebied, even eerlijk, maar de meeste wetenschappers zijn eerlijk en zoeken de waarheid - niet hun eigen waarheid.
Verder zijn onderzoekers in de meeste vakgebieden redelijk vooringenomen, en doen hun onderzoek slechts om hun vermoedens te bevestigen, niet om ze te toetsen. Als jij een jaar ergens aan hebt gewerkt -wil- je dat je experimenten bevestigend zijn. Verder kunnen mensen sterk genoeg geloven dat iets bestaat dat ze de zaken wat mooier voordoen als ze zijn. Bijvoorbeeld door alleen de gunstige helft van de experimenten te gebruiken, en de rest weg te gooien. Dat soort fraude is niet op te sporen als het goed gebeurt.
In feite maakt dat niet zo uit. Als er al gunstige experimenten zijn, dan zegt dat genoeg. Maar de 'fail-safe N' sluit die verklaring volledig uit. Als je een willekeurig wetenschappelijk parapsychologisch journal lees, dan barst dat, naast papers, van kleine essays over de onnauwkeurigheid en fouten in andere studies. Geloof me, men is hier veel kritischer ten opzichte van elkaar dan bij andere vakgebieden.
Ik ben gewoon super kritisch tov dit soort niet-controleerbare experimenten, en dat geldt niet alleen voor dit vakgebied...
Hoe zijn ze niet controleerbaar dan? De zogenaamde autoganzfeld-studies maken gebruik van geautomatiseerde systemen die resultaten voorzien van Hash-codes. Probeer dat maar eens te veranderen als wetenschapper.
Zo makkelijk kom je er niet vanaf.

Je steekt zeer veel tijd in het onderzoeken van reeds gedane experimenten, maar je weigert zelf een experiment te doen. Als er echt 33% ipv 25% gescoord wordt, kan je met betrekkelijk weinig waarnemingen tot deze conclusie komen. Software wil ik wel voor je schrijven. Je maakt het moeilijker dan het is, waarom?

Weet je wat? Als jij een fatsoenlijk (in mijn ogen) plan van aanpak schrijft, het uitvoert, en controleerbare (door mij) resultaten vindt dat ESP bestaat, geef ik je €1000. Lukt het je niet dan gaan we op jouw kosten uit eten.

Deal?
Nee, je onderschat hoeveel moeite zoiets kost en hoeveel tijd je er in moet stoppen. Bovendien is het niet realistisch te verwachten dat een eerstejaars psychologie student beschikt over de benodigde (statistische, zowel als methodologische) kennis om een dergelijk onderzoek vorm te geven. Je moet proefpersonen hebben die afkomstig zijn uit zoveel mogelijk bevolkingsgroepen omdat gelijke groepen nu eenmaal belangrijk zijn. Wetenschappelijk onderzoek moet je goed doen, niet half. Ik laat het wel over aan parapsychologen die hier in Utrecht en in Amsterdam hun werkzaamheden verrichten. Ga eerst maar eens lezen hoe de Ganzfeld-methode opgezet moet worden - dan begrijp je wel hoe verrot moeilijk het is dat waterdicht op te zetten (want als je dat niet doet, is dat de eerste kritiek die je krijgt op je resultaten). Het onderzoek van reeds gedane studies kost me wel een uur, en een studie naar dit onderwerp kost meer dan enkele maanden. 1000 euro is nog niet een kwart van het geld dat je kwijt bent voor vijf televisies, een computersysteem met echte randomizer (niet pseudo-ranzomizers uit computers), de huur van drie losse ruimtes voor enkele weken, een audioset met 'witte' ruis, de kosten van verzameling van proefpersonen en de vele tijd die in de verwerking van de data gaat zitten. Bovendien bereik je er uiteindelijk weinig mee, omdat je het niet kunt publiceren.

[ Voor 9% gewijzigd door Christiaan op 02-07-2003 13:03 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 02 July 2003 @ 12:57:
[...]

We hebben het over 'een man' en niet over meer dan honderd wetenschappers die allemaal met studies komen die significante ESP-effecten aantonen. Noem mij dus niet naief op dit punt! Ik ben zeer wel bewust van het feit dat fraude gebeurt, en wat dat betreft zijn er ook zeker studies bekend binnen de parapsychologie waarbij gefraudeerd is. Maar als je ziet hoe die wetenschapper die dat betrof gelynched is, dan wil je echt niet meer frauderen. Bovendien is de statistische methode ook bedoeld om dit soort effecten uit te vlakken. Het is totaal geen realistisch argument te zeggen dat ESP-effecten enkel voortkomen uit fraude door wetenschappers. Natuurlijk zijn niet alle wetenschappers, ongeacht het vakgebied, even eerlijk, maar de meeste wetenschappers zijn eerlijk en zoeken de waarheid - niet hun eigen waarheid.
Hierin verschillen we van mening, ik ga niet uit van het goede in de mens. En dus ook niet van het naieve beeld dat een wetenschapper slechts de waarheid zoekt. In het academische circuit tellen alleen je publicaties, en de verleiding tot fraude is erg groot als resultaten op de normale manier uitblijven. Zonder resultaten geen publicatie, en je kan je data best een handje helpen als je overtuigt bent van je gelijk.
In feite maakt dat niet zo uit. Als er al gunstige experimenten zijn, dan zegt dat genoeg. Maar de 'fail-safe N' sluit die verklaring volledig uit. Als je een willekeurig wetenschappelijk parapsychologisch journal lees, dan barst dat, naast papers, van kleine essays over de onnauwkeurigheid en fouten in andere studies. Geloof me, men is hier veel kritischer ten opzichte van elkaar dan bij andere vakgebieden.
Dat maakt wel degelijk uit. Je kan op geen enkele manier controleren of de onderzoekers wel alle data hebben gebruikt voor hun onderzoek. Als ze na analyse de slechtste runs (qua resultaat) weggooien zie je dat niet. Zoiets kan ook met een dobbelsteenexperiment waarin ik aantoon dat er relatief veel 6 gegooid kan worden door iemand. Gewoon sessies van 96x gooien meten, en alle slechte sessies weggooien. Hoe ga jij mijn fraude detecteren?
Hoe zijn ze niet controleerbaar dan? De zogenaamde autoganzfeld-studies maken gebruik van geautomatiseerde systemen die resultaten voorzien van Hash-codes. Probeer dat maar eens te veranderen als wetenschapper.
Ze zijn niet controleerbaar doordat er resultaten weggegooid kunnen zijn. Precies de resultaten die niet naar wens waren. Dit soort experimenten zijn (voor mij althans) bijna principieel oncontroleerbaar.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 02 July 2003 @ 10:43:
Stel je eens voor wat het betekent voor de wetenschap als zij moet erkennen dat ESP bestaat? Ten eerste is het een klap in de gezichten van materialisten, die moeten accepteren dat er 'krachten' bestaan die boven het materialistische wereldbeeld uitstijgen. Momenteel kan men enkel laten zien dat zij bestaat, maar niet hoe zij werkt.
Materialisten geloven toch ook in zwaartekracht, magnetisme en elektriciteit. Naar mijn mening moet ESP als het bestaat ook werken via fysische principes, misschien via bestaande principes of via nieuwe.

Natuurwetenschappelijk onderzoek werkt heel vaak op de manier dat eerst wordt aangetoond dat iets bestaat en dat daarna wordt geprobeerd het te begrijpen. Supergeleiding is iets van 50 jaar eerder aangetoond dan dat er een goeie theorie over was.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Wat ik zie is dat er momenteel twee categorieen argumenten zijn die ingezet worden:
1 - parapsychologen flessen de boel met valse data
2 - de statistische methode is geen goed middel om tot conclusies te komen

De effecten zelf zijn niet meer het doel van kritiek, want zij staan als een huis. De vraag die beide argumenten proberen te stellen of zij wel ontstaan zijn door werkelijke ESP-effecten, of dat zij ontstaan zijn door vervalsing van de parapsychologen.

Het tweede argument is te weerleggen op grond van het feit dat de methoden overal gebruikt worden, en dus hier net zo gerechtigd zijn in het trekken van conclusies. Het eerste argument kan ik nooit weerleggen. Ik moet maar gaan bewijzen dat die wetenschappers hun data niet vervalsen..... Ik kan niet bewijzen dat fraude niet voorkomt. Kortom; skeptici kunnen wat mij betreft weer rustig slapen bij de gedachte dat ESP niet bestaat omdat alle wetenschappers opzettelijk hun data vervalsen.

Het klinkt misschien overdreven als ik het zo schrijf, maar de kritiek is gewoon niet realistisch meer op dit moment. De controleerbaarheid van wetenschappelijk onderzoek wordt bepaald door haar repliceerbaarheid. Als meerdere onderzoeksteams dezelfde resultaten krijgen, dan is er sprake van een hoge repliceerbaarheid. Enkel als alle teams samenwerken om te frauderen EN dezelfde resultaten te krijgen, is je argument nog geldig. Toch is wat ik hier beschrijf precies wat er gebeurt. De later beschreven meta-analyse waarbij de link tussen extraversie en ESP onderzocht, liet zien dat 14 studies homogene en significante resultaten opleverden (wat betekent dat ze niet significant meer van elkaar verschilden). Dit is precies waaraan wetenschappelijk onderzoek moet voldoen van repliceerbaarheid.

Bovendien snap ik nog niet eens wat de motieven moeten zijn van vervalsende psychologen. Ze werken enkel zichzelf in de wielen. Bovendien lijkt het me uiterst onwaarschijnlijk dat alle betrokken studies met significante resultaten vervalst zijn. Waarom wordt ineens nu zoveel waarde gehecht aan vervalsing? Alle psychologische studies zijn volgens jouw definities oncontroleerbaar, volledig vervalsbaar en daarom, als je consistent bent, eveneens niet te vertrouwen. Wordt hier niet heel erg met twee maten gemeten simpelweg omdat het uiterst moeilijk is om ESP te rijmen met een wereldbeeld dat geen plek kent voor ESP? Doet me erg denken aan mensen die bleven roepen dat de aarde plat was, en dat Galileo een vervalser was.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 02 juli 2003 @ 20:42:
Materialisten geloven toch ook in zwaartekracht, magnetisme en elektriciteit. Naar mijn mening moet ESP als het bestaat ook werken via fysische principes, misschien via bestaande principes of via nieuwe.

Natuurwetenschappelijk onderzoek werkt heel vaak op de manier dat eerst wordt aangetoond dat iets bestaat en dat daarna wordt geprobeerd het te begrijpen. Supergeleiding is iets van 50 jaar eerder aangetoond dan dat er een goeie theorie over was.
Hoe kan jouw biologische brein, bestaande uit enkel chemische stofjes en prikkels een ander biologisch systeem beinvloeden?

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:59

Q

Au Contraire Mon Capitan!

Geen matches
ESP

Wat de hele ESP discussie betreft zitten mij een aantal dingen dwars.

Aannemelijk bewijs
Als ESP bestaat moet het, mijns inziens, volgens een natuurkundig principe werken. Mocht dit niet het geval zijn dan kunnen we ook wel de gehele natuurkunde overboord gooien en stoppen met nadenken. Mocht dit wel het geval zijn dan betreft het hier een fenomeen wat de gehele wetenschap ondersteboven zal gooien. Dit alles acht ik niet onmogelijk, echter wel onwaarschijnlijk. Dit is mijn visie omdat de huidige natuurkundige inzichten en theorieen gebaseerd zijn op 'hard' fysisch en wiskundig onderzoek. Met proeven en dergelijke die keer op keer de zelfde resultaten geven en verifieerbaar zijn door derden. Wat ESP betreft hebben wij hier nog, naar mijn weten, niets van gezien. Daarom acht ik zelf de kans dus zeer klein dat ESP bestaat.

Statistiek of: (Lies, damn lies, and statistics)

De parapsychologie heeft zich altijd moeten behelpen met statistiek. Statistieken zijn zo fraude gevoelig, in tegenstelling tot een goede natuurkundige proef die gemakkelijk herhaald kan worden door derden in gelijke condities. Zoals medeforumleden aangeven moeten we teveel afgaan op de accuratie van de onderzoeker. Nu wil ik niet meteen iedere parapsycholoog verdacht maken, maar het verleden laat wat dit betreft geen rooskleurig beeld zien. Los daarvan hoeft eventuele fraude ook helemaal niet bewust te worden gepleegd.

Statistiek kan best wat interessante of waardevolle info opleveren. Het kan eventueel een fenomeen registreren: mannen drinken meer dan vrouwen. Of: vrouwen maken minder brokken achter het stuur dan mannen. Of: mannen zijn assertiever dan vrouwen (volgens mij onzin maar even als illustratie). Het kan een indicatie geven dat "er iets aan de hand is" dat misschien nader onderzoek waard is: "HOE & WAAROM". Die vragen worden niet door de statistische gegevens beantwoord.

Wat de onderzoeksresultaten omtrend ESP betreft: de vraag die telkens moet worden gesteld luidt: hoe en waarom ontstaat deze afwijkende score tov de te verwachten normale kansverdeling? De eerste plaats waar men moet gaan zoeken is het onderzoek zelf. Is er iets fout gedaan?

Ik heb naar aanleiding van dit topic eens iemand gevraagd voor wat meer informatie omtrend dit onderwerp. Uit die informatie valt een aantal interessante punten te ontdekken.

Zo blijkt dat als je naar de Ganzfeld experimenten kijkt die over de afgelopen jaren zijn uitgevoerd, het steeds moeilijker wordt om 'succesvolle resultaten' te behalen. Vanuit wetenschappelijk oogpunt zou je juist een verbetering verwachten. Dit gegeven sluit aan bij mijn 'theorie' dat de oorzaak van de afwijkende resultaten in eerste plaats in de onderzoeken zelf moet worden gezocht. De onderzoeken worden blijkbaar steeds 'beter' en daarmee sluiten de resultaten steeds meer aan op de normale kansverdeling.

Ik werd er ook op gewezen dat toen Honorton met zijn ganzfeldonderzoek begon 30 sessies
voldoende waren om een significant effect te bereiken. Inmiddels zijn vele honderden nog niet genoeg.

Dan nog wat gegevens. De laatste meta-analyse geeft een overzicht van 40 experimenten met
in totaal 1661 sessies, die met uitzondering van 14 sessies allemaal
in de jaren negentig werden gepubliceerd. Ze leverden 500 treffers op:
30,1 procent. Dit valt allemaal te controleren in deze bron: Ganzfeld meta-analyse

Dit heb ik zelf ook geverifieerd (even alles in excel gezet en wat optellingen gedaan + die factor meegerekend). Ik werd ook op het volgende gewezen: het meeste succesvolle experiment werd uitgevoerd door Kathy Dalton. Als je dat weglaat, dan is het percentage treffers nog maar
28,7 procent. Daarnaast zijn vermoedelijk niet alle experimenten in dit overzicht
opgenomen. Er ontbreken in ieder geval 4 Nederlandse experimenten
(109 sessies met slechts 27 treffers).

Hierbij wil ik wel kwijt dat de bepaling van de 'factor' nog altijd subjectief is.

Nog wat informatie: In Nederland werden in de jaren 1990 als het goed is in totaal
429 sessies uitgevoerd met 118 treffers, een trefferpercentage van slechts
27,5. Dat is niet statistisch significant (p=0,127). (De twee eerdere
experimenten uit de jaren tachtig werden door studenten uitgevoerd.)

Daarnaast hoorde ik ook nog iets over een aardige curiositeit: We zien misschien wel afwijkingen van de te verwachte waarde, maar we weten niet hoe. Het hoeft hier geen telepathie te betreffen maar kan ook iets met 'in de toekomst kijken' te maken te hebben. Zo bleek ook dat het helemaal niet nodig is om een zender te gebruiken bij Gansfeld experimenten. Achteraf pas voorstellingen kiezen bleek gelijke resultaten op te leveren.

Tot slot
Mijns inziens is de stelling dat het bestaan van ESP bewezen is gewoon onjuist. Een veel te voorbarige conclusie die helemaal niet uit de gegevens getrokken mag worden. De enige conclusie die onder groot voorbehoud mag worden getrokken luidt: er is misschien 'iets aan de hand' . Let op de woorden 'misschien' en 'iets'. Op basis van de huidige informatie en onze kennis ga ik er zelf vanuit dat dit 'iets' eerder betrekking heeft op de onderzoekers en hun onderzoeken dan op ESP.

Zelf zie ik het geloof in ESP meer als een methode om het leven wat 'op te leuken' en wat te mystificeren zodat het dus wat spannender lijkt. Die hele zoektocht naar ESP houd mensen zelfs een leven lang bezig. Zelf vind ik het leven overigens ook zonder ESP al spannend genoeg. Maar natuurlijk mag ik de mogelijkheid van het bestaan van ESP niet uitsluiten. Net zoals dat ik het bestaan van vliegende roze olifanten niet mag uitsluiten. Voor beiden geldt voor mij echter: buitengewoon onwaarschijnlijk.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 02 July 2003 @ 22:50:
Hoe kan jouw biologische brein, bestaande uit enkel chemische stofjes en prikkels een ander biologisch systeem beinvloeden?
Volgens jou kan het, want er bestaat volgens jou ESP.

Als ik een theorie zou moeten bedenken dan zou ik het zoeken in de quantummechanische sfeer. Gestuurde quantummechanische interferentie van waarschijnlijkheidsgolven, bla, bla, bla.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 02 July 2003 @ 22:49:
[...]

Wat ik zie is dat er momenteel twee categorieen argumenten zijn die ingezet worden:
1 - parapsychologen flessen de boel met valse data
2 - de statistische methode is geen goed middel om tot conclusies te komen

De effecten zelf zijn niet meer het doel van kritiek, want zij staan als een huis. De vraag die beide argumenten proberen te stellen of zij wel ontstaan zijn door werkelijke ESP-effecten, of dat zij ontstaan zijn door vervalsing van de parapsychologen.

Het tweede argument is te weerleggen op grond van het feit dat de methoden overal gebruikt worden, en dus hier net zo gerechtigd zijn in het trekken van conclusies. Het eerste argument kan ik nooit weerleggen. Ik moet maar gaan bewijzen dat die wetenschappers hun data niet vervalsen..... Ik kan niet bewijzen dat fraude niet voorkomt. Kortom; skeptici kunnen wat mij betreft weer rustig slapen bij de gedachte dat ESP niet bestaat omdat alle wetenschappers opzettelijk hun data vervalsen.
Je bent wel erg vooringenomen, en klinkt hier op het gefrustreerde af... Niet de juiste instelling voor wetenschap, meer voor geloof. Probeer je mening en de feiten eens wat meer te scheiden, dit kwalificeert bijna als flame.

Inhoudelijk: ik ben sceptisch, maar niet blind. Er is absoluut iets aan de hand met die resultaten. Hiervoor zijn 4 oorzaken mogelijk: fraude, fouten, ESP of "iets anders". Jij trekt keihard de conclusie voor het bestaan van ESP, zonder de optie fraude maar te overwegen. Al mijn argumenten veeg je van tafel met de mededeling "dat je niet kan geloven dat wetenschappers dat doen.". Vandaar dat ik voorstel om het zelf te herhalen (desnoods in het klein) wat volgens jou niet kan vanwege de enorme complexiteit. Hoe bedoel je, reproduceerbaar?

(En ja, deze kritiek kan je ook hebben op natuurkundige experimenten. Maar die worden niet opgezet om een vooraf opgestelde en sterk voor waar-veronderstelde hypothese te bevestigen. Plus dat er dan niet zo'n lading onbetrouwbare statistiek bij komt kijken)
Het klinkt misschien overdreven als ik het zo schrijf, maar de kritiek is gewoon niet realistisch meer op dit moment. De controleerbaarheid van wetenschappelijk onderzoek wordt bepaald door haar repliceerbaarheid. Als meerdere onderzoeksteams dezelfde resultaten krijgen, dan is er sprake van een hoge repliceerbaarheid. Enkel als alle teams samenwerken om te frauderen EN dezelfde resultaten te krijgen, is je argument nog geldig. Toch is wat ik hier beschrijf precies wat er gebeurt. De later beschreven meta-analyse waarbij de link tussen extraversie en ESP onderzocht, liet zien dat 14 studies homogene en significante resultaten opleverden (wat betekent dat ze niet significant meer van elkaar verschilden). Dit is precies waaraan wetenschappelijk onderzoek moet voldoen van repliceerbaarheid.
Nee.

Reproduceerbaar zal het zijn als ALLE studies (binnen een marge) met hetzelfde expiriment PRECIES dezelfde resultaten verkrijgen. Niet als een deel wel, en een deel niet tot die resultaten komt. Waar komen die verschillen dan vandaan, als het effect soms veel sterker (significant!) is dan andere keren?
Bovendien snap ik nog niet eens wat de motieven moeten zijn van vervalsende psychologen. Ze werken enkel zichzelf in de wielen. Bovendien lijkt het me uiterst onwaarschijnlijk dat alle betrokken studies met significante resultaten vervalst zijn. Waarom wordt ineens nu zoveel waarde gehecht aan vervalsing? Alle psychologische studies zijn volgens jouw definities oncontroleerbaar, volledig vervalsbaar en daarom, als je consistent bent, eveneens niet te vertrouwen.
Laten we zeggen dat ik niet zo geloof in het goede van de mens. Als er belang is bij aandikken van resultaten gebeurt dat. Zelfs in gerenommeerde bladen worden nog lulkoek onderzoeken gepubliceerd dat "cannabis wel eens net zo verslavend kan zijn als heroine". Jij hebt een veel te mooi beeld van de wetenschappelijke wereld in mijn optiek.
Wordt hier niet heel erg met twee maten gemeten simpelweg omdat het uiterst moeilijk is om ESP te rijmen met een wereldbeeld dat geen plek kent voor ESP? Doet me erg denken aan mensen die bleven roepen dat de aarde plat was, en dat Galileo een vervalser was.
Je mag dit soort teksten voor jezelf houden in een discussie, het is op de man en doet niet ter zake. Ik proef uberhaubt een beetje een negatieve houding ten opzichte van "niet-gelovigen", dat maakt je betoog en verdediging er niet sterker op.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 July 2003 @ 09:32:
Inhoudelijk: ik ben sceptisch, maar niet blind. Er is absoluut iets aan de hand met die resultaten. Hiervoor zijn 4 oorzaken mogelijk: fraude, fouten, ESP of "iets anders". Jij trekt keihard de conclusie voor het bestaan van ESP, zonder de optie fraude maar te overwegen. Al mijn argumenten veeg je van tafel met de mededeling "dat je niet kan geloven dat wetenschappers dat doen.". Vandaar dat ik voorstel om het zelf te herhalen (desnoods in het klein) wat volgens jou niet kan vanwege de enorme complexiteit. Hoe bedoel je, reproduceerbaar?
Je trekt mijn lijn te ver door. Ik zeg nergens dat fraude totaal onmogelijk is, enkel dat het niet in staat is het effect volledig te verklaren *tenzij* alle studies met significante resultaten voortkomen uit fraude.
(En ja, deze kritiek kan je ook hebben op natuurkundige experimenten. Maar die worden niet opgezet om een vooraf opgestelde en sterk voor waar-veronderstelde hypothese te bevestigen. Plus dat er dan niet zo'n lading onbetrouwbare statistiek bij komt kijken)
Ik denk dat je ten eerste maar overboord moet zetten dat je hier de exacte methode van de natuurkunde kunt toepassen. Alle menswetenschappen kampen met enorme problemen met reproduceerbaarheid, en daar is geen parapsychologie helaas geen uitzondering op. De regel 'although replication is problematic' komt zo vaak voor in mijn tekstboeken over psychologische vakgebieden dat jij waarschijnlijk geen enkele van die theorieen ooit kan aannemen. Je werkt met een mens, en zij bestaat uit vele duizenden variabelen die de effecten beinvloeden. Pas als je al die variabelen kent en weet hoe ze te manipuleren, pas dan kun je tot 100% replicatie komen. Het probleem is dat dat niet het geval is, en waarschijnlijk ook nooit zal gebeuren. 100% replicatie is geen criterium bij psychologisch onderzoek, omdat dat zou betekenen dat alle theorieen van de tafel geveegd moeten worden. Het is belangrijker dat men over het geheel genomen significante effecten krijgt. Waarom denk je dat meta-analyses uberhaupt zijn ontwikkeld? Als welke theorie dan ook 100% repliceert, dan heb je helemaal niet zo'n methode nodig. Je mag mijn argument dan een soort flame vinden, maar ik vind eerlijk gezegd dat je te weinig rekening houd met de complexiteit van dit soort onderzoek en hoe onmogelijk het is om dit te vergelijken met iets exacts als natuurkundige wetenschap.
Nee.

Reproduceerbaar zal het zijn als ALLE studies (binnen een marge) met hetzelfde expiriment PRECIES dezelfde resultaten verkrijgen. Niet als een deel wel, en een deel niet tot die resultaten komt. Waar komen die verschillen dan vandaan, als het effect soms veel sterker (significant!) is dan andere keren?
Dat is de definitie die je kunt gebruiken bij natuurwetenschappelijke studies. Verschillen bij resultaten bij mensstudies komen meestal voort uit op dat moment onbekende variabelen die een invloed uitoefenen op de resultaten. Neem eens iets simpels als een IQ-test; zou iemand daar altijd exact hetzelfde scoren? Iedere dag en op ieder moment? Nee, want zijn stemming is de eerste invloed, motivatie de tweede, bovendien is de tijd waarop de test plaatsvindt belangrijk, want avondmensen scoren 's avonds beter dan 's ochtends.
Laten we zeggen dat ik niet zo geloof in het goede van de mens. Als er belang is bij aandikken van resultaten gebeurt dat. Zelfs in gerenommeerde bladen worden nog lulkoek onderzoeken gepubliceerd dat "cannabis wel eens net zo verslavend kan zijn als heroine". Jij hebt een veel te mooi beeld van de wetenschappelijke wereld in mijn optiek.
Misschien wel. Maar als je geen vertrouwen hebt in de wetenschap, hoe kun je er dan waarde aan ontlenen? Het is dan toch helemaal niets waard? Of tenminste; op die manier moet je alle onderzoek waar statistiek gebruikt wordt in feite wantrouwen, en dan kun je er toch niets mee? Psychologie, sociologie, enzovoorts kampen dan toch allemaal met dezelfde fundamentele onbetrouwbaarheid?

[ Voor 4% gewijzigd door Christiaan op 03-07-2003 11:39 ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Q schreef op 02 July 2003 @ 23:07:
Statistiek kan best wat interessante of waardevolle info opleveren. Het kan eventueel een fenomeen registreren: mannen drinken meer dan vrouwen. Of: vrouwen maken minder brokken achter het stuur dan mannen. Of: mannen zijn assertiever dan vrouwen (volgens mij onzin maar even als illustratie). Het kan een indicatie geven dat "er iets aan de hand is" dat misschien nader onderzoek waard is: "HOE & WAAROM". Die vragen worden niet door de statistische gegevens beantwoord.
Maar dat is ook niet belangrijk. Je gebruikt statistiek enkel om hypothesen te toetsen, niet om uit te leggen hoe het werkt. Je begint met een bepaalde verwachting, die bij ESP overigens nogal vaag zijn, en daarna kom je tot een toetsing van data om te bepalen of je hypothese wel of niet bevestigd wordt door de gegevens. Je kunt veel dingen die in mensen gebeuren gewoon niet zien, dus je moet aan de buitenkant wel meten of iets wel of niet gebeurd door te berekenen hoe groot het verschil is met een controlegroep. Het hele idee van een controlegroep komt voort uit het hebben van een statistische norm om de gegevens mee te vergeleken. Wordt een significant verschil gevonden, dan wordt de theorie aangenomen totdat verdere studies ontdekken wat alternatieve verklaringen, of confounds, zijn voor die resultaten.
Zo blijkt dat als je naar de Ganzfeld experimenten kijkt die over de afgelopen jaren zijn uitgevoerd, het steeds moeilijker wordt om 'succesvolle resultaten' te behalen. Vanuit wetenschappelijk oogpunt zou je juist een verbetering verwachten. Dit gegeven sluit aan bij mijn 'theorie' dat de oorzaak van de afwijkende resultaten in eerste plaats in de onderzoeken zelf moet worden gezocht. De onderzoeken worden blijkbaar steeds 'beter' en daarmee sluiten de resultaten steeds meer aan op de normale kansverdeling.
Je hebt het daarbij over het gebruik van meta-analyses die tegenwoordig een wat minder sterk resultaat laten zien dan de eerste lichting. Het document dat je hebt gebruikt verteld als het goed is ook waarom dat zo is. De huidige ganzfeld-database wordt tegenwoordig ook gevuld met onderzoeken die wel gebruik maken van de Ganzfeld methode, maar niet enkel meer dienen om resultaten te repliceren. De subtitel van het artikel is niet voor niets 'the victim of it's own succes'. Juist omdat Ganzfeld-studies repliceerbaar werden, begonnen veel parapsychologen wat meer factoren te varieren om de invloed van dergelijke onafhankelijke variabelen was. Alhoewel er wel sprake was van Ganzfeld onderzoek, werd de database als het ware 'vervuild' met studies die niet 100% aan de methode voldeden.
Ik werd er ook op gewezen dat toen Honorton met zijn ganzfeldonderzoek begon 30 sessies voldoende waren om een significant effect te bereiken. Inmiddels zijn vele honderden nog niet genoeg.
Op zich is dat niet zo heel raar. Bij 30 sessies is het gemiddelde veel gevoeliger voor uitschieters dan bij grotere groepen. Het Ganzfeld effect bij de eerste tests was soms echt extreem hoog, 74% bijvoorbeeld. Dat is zo hoog dat er zeer waarschijnlijk sprake is geweest van een confounding factor. Huidige studies laten een kleiner, maar niet een kleiner-wordend effect, zien. Zelfs als het effect kleiner zou worden, dan is dat nog niet zo vreemd, want de eerdere studies die extremer effecten lieten zien worden steeds meer uitgevlakt in analyses op de database. Huidige studies komen wel met significante resultaten, maar zij zijn simpelweg zwakker. Dat is niet zo vreemd, want het is wel logisch dat ESP zeer zwak is - anders zouden dit soort studies niet nodig zijn om het te bewijzen.
Dit heb ik zelf ook geverifieerd (even alles in excel gezet en wat optellingen gedaan + die factor meegerekend). Ik werd ook op het volgende gewezen: het meeste succesvolle experiment werd uitgevoerd door Kathy Dalton. Als je dat weglaat, dan is het percentage treffers nog maar
28,7 procent. Daarnaast zijn vermoedelijk niet alle experimenten in dit overzicht
opgenomen. Er ontbreken in ieder geval 4 Nederlandse experimenten
(109 sessies met slechts 27 treffers).
Het is niet echt realistisch er 1 studie uit te halen en dan de scoring opnieuw te berekenen. Desalniettemin is dit een bekend probleem met Ganzfeld-studies die ook terecht is. Meestal zijn er een aantal studies met zeer sterke effecten die de rest meetrekken. Ik heb wel enige vraagtekens bij je methode - je kunt een meta-analyse niet zo even in Excel uitvoeren (Excel is sowieso niet erg goed in dit soort dingen, zo heb ik op een pijnlijke manier ontdekt).

In mijn eerste post beschrijf ik dit probleem al, alsmede de problematische replicatie. Juist om die reden haal ik juist studies aan uit hele andere gebieden die niet geeent zijn op Ganzfeld. Dergelijke studies ervaren die problemen die jij aankaart niet, en worden daarom ook gezien als beter om ESP aan te tonen dan de vervuilde Ganzfeld-database (alhoewel ik ook die nog belangrijk vind). De conclusie van het door jou geciteerde artikel is dan ook om of beter te blijven bij de oorspronkelijke Ganzfeld methode, of meer te focussen op beter zichtbare en repliceerbare effecten zoals bij RNG, DMILS en dergelijke studies.
Nog wat informatie: In Nederland werden in de jaren 1990 als het goed is in totaal
429 sessies uitgevoerd met 118 treffers, een trefferpercentage van slechts
27,5. Dat is niet statistisch significant (p=0,127). (De twee eerdere
experimenten uit de jaren tachtig werden door studenten uitgevoerd.)
Ik heb enige reserveringen bij die berekening. Hoe heb je dit berekend met Excel? Niet dat het veel uitmaakt hoor, maar ik wil even weten hoe je Excel gebruikt om het te berekenen, want Excel, zoals gezegd, is niet goed in statistische toetsing. Je kunt beter SPSS gebruiken.
Daarnaast hoorde ik ook nog iets over een aardige curiositeit: We zien misschien wel afwijkingen van de te verwachte waarde, maar we weten niet hoe. Het hoeft hier geen telepathie te betreffen maar kan ook iets met 'in de toekomst kijken' te maken te hebben. Zo bleek ook dat het helemaal niet nodig is om een zender te gebruiken bij Gansfeld experimenten. Achteraf pas voorstellingen kiezen bleek gelijke resultaten op te leveren.
Dat klopt. Een recentelijke theorie is dat het geheugen van de mens (volgens mij is die theorie van Blackmore, maar dat zou ik moeten opzoeken) gevoelig voor informatie uit de toekomst. Eerlijk gezegd vind ik dat persoonlijk ook wat realistischer - het doet mij aan alsof dat natuurkundig beter te verklaren. Maar dat weet ik zelf eigenlijk niet. Op zich maakt het niet zo uit, telepathie of in de toekomst kijken - beiden even bizar als je het rijmt met het huidige wereldbeeld.

Mijn eerste post is bedoeld om juist even over Ganzfeld heen te stappen, en aandacht te besteden aan andere gebieden waar betere resultaten geboekt zijn. Het is niet zo erg om het steeds over Ganzfeld te hebben, maar die methode heeft zo zijn problemen opgelopen in de loop der tijd. Niet zozeer met de resultaten, alswel het feit dat de resultaten in diens database op dit moment nogal gemixt zijn.

[ Voor 8% gewijzigd door Christiaan op 03-07-2003 11:42 ]


Acties:
  • 0 Henk 'm!

  • XangadiX
  • Registratie: Oktober 2000
  • Laatst online: 26-05 15:01

XangadiX

trepanatie is zóó kinderachtig

Geen matches
Laat ik vooraf even zeggen dat ik denk dat er een heleboel vormen van ESP bestaan; of liever dat de mens een stuk meer zintuigen heeft dan dat wordt aangenomen. Maar ik vind de term ESP misleidend omdat het EXTRA sensory percetpion zou zijn en dat denk ik niet. Ik denk eerder dat het brein uitstekend in staat is in te 'tunen' op breinen van andere (telepatie) eigenfrequentie van materie (telekinese) of zelfs quantumfluctuaties (precognitie). Ik kan daar een heel betoog over schrijven maar ik heb helaas niet zoveel vrije tijd als Christiaan, maar petje af voor je betoog, hulde!

Ik ga er nu wel tegenin :P
Waarom is ESP zo belangrijk?
ESP-studies kunnen een antwoord geven op het eeuwenoude probleem van ‘mind over matter’. Zij komt neer op de vraag of de geest in bepaalde mate onafhankelijk is van het fysieke brein. Deze vraag relateert weer sterk aan het probleem van de menselijke ziel, en of zij wel of niet bestaat. De antwoorden waar ESP-studies mee komen kunnen duidelijkheid scheppen in wat onze geest wel of niet kan, en in hoeverre zij daarbij losstaat van ons lichaam als fysiek object.
Dat vind ik een rare kwinkslag, als ESP namelijk bestaat, wat heel wel mogelijk is, dan snap ik niet waarom dat zou betekenen dat geest of zelfs ziel los staat van het lichaam. Ik denk dat het bein, of het lichaam, in staat is signalen op te pikken waarvan we altijd hebben gedacht dat ze buiten ons bereik liggen, niet de ziel of de geest. Ik vind de biologische benadering van dit probleem dan eigenlijk ook interessanter dan de psychologische, ik weet niet of je bekend bent met het werk van Sheldrake; daarin wordt verondersteld dat telepatie niet meer is dan een geavanceerde vorm van kudde gedrag die we ook zien bij groepen vogels en vissen. Het gaat dan vooral om hoe beesten samen in een formatie kunnen vliegen en 'tegelijkertijd' naar links kunnen gaan.
Deze theorie wordt verder uitgewerkt in de Mime-these waarbij aangenomen wordt dat 'gedachten' vrij kunnen zweven. (dat er als het ware gedachtenvelden bestaan). Een volkskrantpuzzel is dan s'avonds makkelijker in te vullen dan s'ochtends omdat meer mensen het al gedaan hebben en de antwoorden 'in de lucht' hangen.
Ook het fenomeen dat 'de tijd rijp is' binnen wetenschap en cultuur kan vanuit hier verklaard worden. Het is vaak zo dat bepaalde ideeen of uitvindingen tegelijkertijd gedaan worden en deze correlatie is dermate hoog dat ie niet alleen verklaard kan worden uit de huidige stand van de wetenschap of de zeigeist dat er meer aan de hand moet zijn.

Kern van dit betoog is dat ik denk dat dergelijke dingen dus best bestaan maar dat het helemaal niets zegt over de ziel of de geest van de mens.
Zelfs uiterst logische verschillen, zoals de mate van agressie bij mannen en vrouwen, leiden nog steeds tot zeer kleine effecten. Een recentelijke meta-analyse laat een verschil tussen mannen en vrouwen zien van 0.10. Dat is enorm klein, maar toch is het voor de leek een zeer logisch gegeven dat mannen agressiever zijn dan vrouwen
Dit zijn dus de dingen waarom ik psychologie en parapsychologie zo'n aparte wetenschap vind. Ik vind het dus helemaal geen logische aanname dat mannen en vrouwen in verschillende mate aggressief zouden zijn. hooguit op een andere manier. Een quote van Seinfeld is erg illustratief in dit verband:

(George verteld dat ie altijd 'wedgies' kreeg van zijn gymleraar kreeg)
Elaine: mannen zijn ook altijd zo onaardig tegen elkaar
Seinfeld: ow en vrouwen niet? wat doen jullie dan?
Elaine: wij treiteren elkaar zo lang dat iemand een eetstoornis krijgt

Beide zijn vreselijk aggressief, de een lichamelijk de andere geestelijk, maar beide doen echt niet onder voor elkaar. Wat de these van het onderzoek moet zijn is dus dat mannelijke aggressie zich eerder fysiek vertaald dan vrouwelijke, en zelfs dat vind ik al een zwakke aanname.
Psychologie onderzoekt zaken zonder ze duidelijk te definieren ( zaken als bewustzijn, impulsfactor, altruisme ) en komt met uitspraken daarover die dus een hele aparte basis hebben, dat is raar.

Stoer; Marduq


Acties:
  • 0 Henk 'm!

  • Confusion
  • Registratie: April 2001
  • Laatst online: 01-03-2024

Confusion

Fallen from grace

Geen matches
Heej Christiaan, volgens mij is dit een re-post, niet? ;)

Joep, als je uitgaat van fraude kan je elke wetenschappelijk onderzoek wel opdoeken. Het zijn zoveel verschillende studies, door mensen met zulke verschillende instellingen, met bovendien veel dubbelblind onderzoek, dat fraude gewoon niet waarschijnlijk is.

Maargoed, ik was er al van overtuigd dat er significante resultaten waren. Het effect bestaat, maar is ongericht en zwak. Interessant is nu uit te vinden hoe het werkt (maar dat vind ik, als fysicus)

Wie trösten wir uns, die Mörder aller Mörder?


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Fused schreef op 03 July 2003 @ 14:09:
Heej Christiaan, volgens mij is dit een re-post, niet? ;)

Joep, als je uitgaat van fraude kan je elke wetenschappelijk onderzoek wel opdoeken. Het zijn zoveel verschillende studies, door mensen met zulke verschillende instellingen, met bovendien veel dubbelblind onderzoek, dat fraude gewoon niet waarschijnlijk is.

Maargoed, ik was er al van overtuigd dat er significante resultaten waren. Het effect bestaat, maar is ongericht en zwak. Interessant is nu uit te vinden hoe het werkt (maar dat vind ik, als fysicus)
Een re-post is het zeker niet :). In de vorige post had ik 1 meta-analyse en verderop enkele losse studies op de andere gebieden. Dit keer dus alleen maar meta-analyses, en de resultaten zijn dan stukken betrouwbaarder dan van een losse studie. Kortom, meer resultaten van meer gebieden van meer studies die hopelijk tezamen overtuigender zijn dan de eerdere posts.

Wat de verklaring betreft, ook daar zijn intussen wel vernieuwingen ten opzichte van het vorige topic. Ik wil daar ook nog op ingaan, maar dat kost enige tijd om die informatie te verzamelen. Het huidige model probeert alles te verklaren middels, zoals Q al aangaf, een vorm van precognitie. Het enige dat ik zelf wat onmogelijk te verklaren vind middels die theorie zijn DMILS studies waarbij andere biologische systemen beinvloed worden.

Acties:
  • 0 Henk 'm!

  • XangadiX
  • Registratie: Oktober 2000
  • Laatst online: 26-05 15:01

XangadiX

trepanatie is zóó kinderachtig

Geen matches
Het enige dat ik zelf wat onmogelijk te verklaren vind middels die theorie zijn DMILS studies waarbij andere biologische systemen beinvloed worden.
als je het vanuit de biologie verklaard (dus ESP is een 'extra' zintuig, in plaats van buitenzintuigelijk) is het juist wel logisch dat ook andere biologische systemen hiervan gebruik maken. (zie ook vorige post). Juist dingen als precognitie zijn dan een stuk moeilijker te verklaren.

Stoer; Marduq


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 11:13:
Dat is de definitie die je kunt gebruiken bij natuurwetenschappelijke studies. Verschillen bij resultaten bij mensstudies komen meestal voort uit op dat moment onbekende variabelen die een invloed uitoefenen op de resultaten. Neem eens iets simpels als een IQ-test; zou iemand daar altijd exact hetzelfde scoren? Iedere dag en op ieder moment? Nee, want zijn stemming is de eerste invloed, motivatie de tweede, bovendien is de tijd waarop de test plaatsvindt belangrijk, want avondmensen scoren 's avonds beter dan 's ochtends.
Ik ben me perfect bewust van het probleem van de alfa-wetenschappen, en
juist daarom ben ik zo verdomde sceptisch. Jij neemt aan dat het uitgangspunt (de data) in orde is, ik niet. Dan kan je eeuwig discussieren, maar verder komen we niet. Niet tot jij ZELF experimenten gaat doen (of ik).
Misschien wel. Maar als je geen vertrouwen hebt in de wetenschap, hoe kun je er dan waarde aan ontlenen? Het is dan toch helemaal niets waard? Of tenminste; op die manier moet je alle onderzoek waar statistiek gebruikt wordt in feite wantrouwen, en dan kun je er toch niets mee? Psychologie, sociologie, enzovoorts kampen dan toch allemaal met dezelfde fundamentele onbetrouwbaarheid?
Nee, de wetenschappelijke methode is (voor mij dan) veruit de beste en enige methode om tot kennis te komen. Dat wil echter niet zeggen dat ik blind ben voor de zwakheden van de mens, en de invloed daarvan op het verrichtte onderzoek. Dat de relativiteitstheorie klopt neem ik aan, evenals vele andere theorieen die dingen voorspellen en verklaren. ESP onderzoek waar zo'n belachelijke dosis statistiek voor nodig is verklaart ongeveer niets, en voorspelt nog minder. Dit nog los van de fraudegevoeligheid van dit soort methoden.

Nog even iets, ik heb het gevoel dat jij het hele ESP verhaal ziet als een bevestiging van je vermoedens dat er meer is tussen hemel en aarde. Zelfs al zal het bewijs 100% zijn, zelfs voor een zeikerd als ik, dan nog is die conclusie veel te sterk. Hooguit toont het aan dat mensen nog een zesde zintuig hebben, een heel wat logischere verklaring (zeker uit wetenschappelijk oogpunt!).

Tot slot, stel nou dat er ook nog eens wat is tussen hemel en aarde, denk je dat dat "iets" niet aan bepaalde natuurwetten is gebonden? En dat het daarmee eigenlijk net zo aards is als alles wat we waarnemen? Of denk je dat er processen zijn die zich buiten alle systemen gedragen, waar geen logica of wetten voor zijn?

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 juli 2003 @ 17:10:
Ik ben me perfect bewust van het probleem van de alfa-wetenschappen, en
juist daarom ben ik zo verdomde sceptisch. Jij neemt aan dat het uitgangspunt (de data) in orde is, ik niet. Dan kan je eeuwig discussieren, maar verder komen we niet. Niet tot jij ZELF experimenten gaat doen (of ik).
Het is wel een beetje flauw om het met zo'n argument af te sluiten? Nu moet ik het zelf maar aantonen? Waarom zitten de heren en dames wetenschappers nu hun werk te doen? Zodat ik dat zelf niet hoef te doen. Ik heb je al eerder uitgelegd dat het uitvoeren van dit soort experimenten, of wat voor soort experimenten, niet iets is dat je zomaar even doet. Bovendien moet je toestemming hebben van psychologie-panels, want je kunt niet zomaar proefpersonen werven. Dat vereist weer een registratie als psycholoog, of als student - maar dan moet je het onderzoek ook op de uni doen. Kortom; dit argument vind ik toch wel erg flauw aandoen. Je mag dat persoonlijk vinden, een flame noemen, of wat dan ook. Maar als discussies gaan verworden tot 'bewijs jij het zelf maar!', dan zie ik het nut van heel dit forum niet in eigenlijk. Ik wil het best bewijzen, en als ik de middelen had zou ik het zeker doen, maar ik heb nog de middelen nog de tijd. Misschien over vier jaar, als ik een afstudeeronderzoek ga doen. En neem maar alvast van mij aan dat parapsychologie allang staat op de wensenlijst van vakken in mijn vrije ruimte - dus ik ga er zeker in verder. Maar vooralsnog heb ik geen behoefte aan het zelf, met een krakkemikkig half experiment zogezegd aan te tonen als dat al gebeurdt is door vele andere wetenschappers die wel over voldoende subsidies beschikken.
Nee, de wetenschappelijke methode is (voor mij dan) veruit de beste en enige methode om tot kennis te komen. Dat wil echter niet zeggen dat ik blind ben voor de zwakheden van de mens, en de invloed daarvan op het verrichtte onderzoek. Dat de relativiteitstheorie klopt neem ik aan, evenals vele andere theorieen die dingen voorspellen en verklaren. ESP onderzoek waar zo'n belachelijke dosis statistiek voor nodig is verklaart ongeveer niets, en voorspelt nog minder. Dit nog los van de fraudegevoeligheid van dit soort methoden.
De benodigde statistiek is echt niet groter dan bij andere studies hoor. Wat gebeurt is eenvoudig; men pakt een groep individueen die redelijk random zijn en vergelijkt het met kansvergelijking (de 'controle-conditie'). Is het verschil tussen de behaalde scores van beide 'groepen' (de echte groep en de kansconditie) dan is het resultaat significant, en is er sprake van een effect dat niet te wijten is aan toeval. Meta-analyses doen niets anders dan het algehele effect over vele tientallen, zoniet honderdtallen, studies aantonen. Dit is zeer elementaire statistiek, op de meta-analyse na dan (die meer bedoeld is om het overzichtelijker te maken). Dus de term 'belachelijke dosis' klinkt mij overdreven in de oren. Wat voorspelbaarheid betreft heb ik eerder al een studie geplaatst waarbij de predictieve validiteit van extraversie op ESP vermogens gegeven wordt. Extraversie voorspelt ESP. En bovendien gaan alle uitgevoerd studies ervan uit dat ESP bestaat, met de nullhypothese dat zij niet bestaat, en werken van daaruit verder met de verwachting dat er dus een effect moet optreden. Dat is toch voorspelling?
Nog even iets, ik heb het gevoel dat jij het hele ESP verhaal ziet als een bevestiging van je vermoedens dat er meer is tussen hemel en aarde. Zelfs al zal het bewijs 100% zijn, zelfs voor een zeikerd als ik, dan nog is die conclusie veel te sterk. Hooguit toont het aan dat mensen nog een zesde zintuig hebben, een heel wat logischere verklaring (zeker uit wetenschappelijk oogpunt!).
Tja, als jij van dat gevoel uitgaat kan ik er weinig aan veranderen. Vroeger vond ik ESP onzin, totdat ik een boekje over het onderwerp in handen gedrukt kreeg. Nu vind ik het erg interessant, vooral omdat het nieuwe wetenschap is met een grote potentie. Bovendien maakt mijn motivatie voor de gehele discussie niets uit, of wel? Het verandert toch totaal niets aan wat ik aan studies gepresenteerd heb? Dat jij het wijt aan fraude is jouw keuze, en bovendien is die misschien zelfs terecht. Ik zie ESP echt niet als bewijs voor God ofzo. Dat is een stap die veel te ver is - mocht je denken dat ik die kant op wil. Ik observeer een raar effect, dat door parapsychologische studies aangetoond wordt. Vervolgens raak ik geinteresseerd in waarom dat gebeurt, en wat de gevolgen van dergelijke effecten zijn.
Tot slot, stel nou dat er ook nog eens wat is tussen hemel en aarde, denk je dat dat "iets" niet aan bepaalde natuurwetten is gebonden? En dat het daarmee eigenlijk net zo aards is als alles wat we waarnemen? Of denk je dat er processen zijn die zich buiten alle systemen gedragen, waar geen logica of wetten voor zijn?
Natuurlijk is het iets dat past binnen de natuurwetten en past in het beeld van de wereld. Het betekent alleen niet automatisch dat het past binnen ons beeld van de wereld, of binnen onze natuurwetten. De term 'parapsychologie' is misplaatst, en de term 'bovennatuurlijk' nog veel meer. Het is een natuurlijk fenomeen, we begrijpen alleen nog niet hoe het werkt.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 11:39:
Ik heb enige reserveringen bij die berekening. Hoe heb je dit berekend met Excel? Niet dat het veel uitmaakt hoor, maar ik wil even weten hoe je Excel gebruikt om het te berekenen, want Excel, zoals gezegd, is niet goed in statistische toetsing. Je kunt beter SPSS gebruiken.
Excel? SPSS? Voor dit soort testjes?

De kans dat je met 429 gokken >=118 keer goed gokt met een kans van 25% kan je met de hand ook wel berekenen... Op zoveel experimenten kan je de binomiale verdeling benaderen met een normale, met gemiddelde 0,25*429 en standaardafwijking sqrt(429*(1/4)*(3/4)) = 8,97. De kans dat je onder deze hypothese minstens 118 goed hebt is:

P(X >= 118) = 1 - P(X <= 117) = 1 - Z(X <=(117,5-0,25*429)/8,97) = 1 - Z(X <= 1,09) = 1 - TabelNormaleVerdeling(1,09) = 1 - 0.862 = 0.138.

Wiskunde A, VWO...

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 July 2003 @ 17:39:
Excel? SPSS? Voor dit soort testjes?

De kans dat je met 429 gokken >=118 keer goed gokt met een kans van 25% kan je met de hand ook wel berekenen... Op zoveel experimenten kan je de binomiale verdeling benaderen met een normale, met gemiddelde 0,25*429 en standaardafwijking sqrt(429*(1/4)*(3/4)) = 8,97. De kans dat je onder deze hypothese minstens 118 goed hebt is:

P(X >= 118) = 1 - P(X <= 117) = 1 - Z(X <=(117,5-0,25*429)/8,97) = 1 - Z(X <= 1,09) = 1 - TabelNormaleVerdeling(1,09) = 1 - 0.862 = 0.138.

Wiskunde A, VWO...
Ik heb het niet over een Z-test, maar een meta-analyse :). Je kunt niet zomaar het gemiddelde van alle experimenten gaan berekenen en dan zeggen of dat wel of niet significant is. Studies hebben verschillende groepsgrootten, verschillende factoren en verschillende kwaliteiten. Daar moet je wel rekening mee houden als je een berekening uitvoert. Als meta-analyses zo makkelijk zijn is er geen reden om er een speciaal vak binnen de opleiding van te maken. Het was misschien een beetje een verkeerde plaats waar ik die opmerking maakte, want ik doelde nog op het stuk waar Q het had over het weghalen van het experiment met die hoge score.

[ Voor 8% gewijzigd door Christiaan op 03-07-2003 17:44 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 juli 2003 @ 17:30:
De benodigde statistiek is echt niet groter dan bij andere studies hoor. Wat gebeurt is eenvoudig; men pakt een groep individueen die redelijk random zijn en vergelijkt het met kansvergelijking (de 'controle-conditie'). Is het verschil tussen de behaalde scores van beide 'groepen' (de echte groep en de kansconditie) dan is het resultaat significant, en is er sprake van een effect dat niet te wijten is aan toeval. Meta-analyses doen niets anders dan het algehele effect over vele tientallen, zoniet honderdtallen, studies aantonen. Dit is zeer elementaire statistiek, op de meta-analyse na dan (die meer bedoeld is om het overzichtelijker te maken). Dus de term 'belachelijke dosis' klinkt mij overdreven in de oren. Wat voorspelbaarheid betreft heb ik eerder al een studie geplaatst waarbij de predictieve validiteit van extraversie op ESP vermogens gegeven wordt. Extraversie voorspelt ESP. En bovendien gaan alle uitgevoerd studies ervan uit dat ESP bestaat, met de nullhypothese dat zij niet bestaat, en werken van daaruit verder met de verwachting dat er dus een effect moet optreden. Dat is toch voorspelling?
Begrijp je me niet, of wil je het niet begrijpen? Met belachelijke dosis bedoel ik dat statistiek hier de basis van het bewijs is. En je hoeft me geen basiskennis voor te kauwen, ik weet (helaas :) ) meer dan genoeg van statistiek...
Tja, als jij van dat gevoel uitgaat kan ik er weinig aan veranderen. Vroeger vond ik ESP onzin, totdat ik een boekje over het onderwerp in handen gedrukt kreeg. Nu vind ik het erg interessant, vooral omdat het nieuwe wetenschap is met een grote potentie. Bovendien maakt mijn motivatie voor de gehele discussie niets uit, of wel? Het verandert toch totaal niets aan wat ik aan studies gepresenteerd heb? Dat jij het wijt aan fraude is jouw keuze, en bovendien is die misschien zelfs terecht. Ik zie ESP echt niet als bewijs voor God ofzo. Dat is een stap die veel te ver is - mocht je denken dat ik die kant op wil. Ik observeer een raar effect, dat door parapsychologische studies aangetoond wordt. Vervolgens raak ik geinteresseerd in waarom dat gebeurt, en wat de gevolgen van dergelijke effecten zijn.
Dan had ik je verkeerd begrepen, excuses.
Natuurlijk is het iets dat past binnen de natuurwetten en past in het beeld van de wereld. Het betekent alleen niet automatisch dat het past binnen ons beeld van de wereld, of binnen onze natuurwetten. De term 'parapsychologie' is misplaatst, en de term 'bovennatuurlijk' nog veel meer. Het is een natuurlijk fenomeen, we begrijpen alleen nog niet hoe het werkt.
Ik stelde die vraag meer om een brugje offtopic verder te gaan: denk je dat jouw God zich ook aan natuurwetten moet houden? En dat dat onze natuurwetten zijn? Maar nogmaals, dat is offtopic :)

[ Voor 3% gewijzigd door joepP op 03-07-2003 17:48 ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 July 2003 @ 17:48:
Begrijp je me niet, of wil je het niet begrijpen? Met belachelijke dosis bedoel ik dat statistiek hier de basis van het bewijs is. En je hoeft me geen basiskennis voor te kauwen, ik weet (helaas :) ) meer dan genoeg van statistiek...
Als ik op W&L zit probeer ik je uiteraard te begrijpen. Als ik mensen niet wil begrijpen, kom ik ook niet op dit forum. Al het bewijs voor psychologische theorieen (of bijna al het bewijs) komt tot stand op basis van statistiek. Ik snap je hekel aan statistiek om tot conclusies te komen omtrent de juistheid of onjuistheid van hypothesen van (para)psychologische theorieen. Maar zie jij een andere manier het onderzoek dan vorm te geven?
Ik stelde die vraag meer om een brugje offtopic verder te gaan: denk je dat jouw God zich ook aan natuurwetten moet houden? En dat dat onze natuurwetten zijn? Maar nogmaals, dat is offtopic :)
Nou ja, dat is inderdaad een stap te ver voor dit draadje. Natuurwetten zijn geen rigide systeem dat we nu hebben en dat nooit kan veranderen. Ik weet vrij zeker dat ESP gewoon gebonden is aan de wetmatigheden van het universum - alleen kennen we die wetmatigheden schijnbaar niet. ESP zal ook wel gewoon geevolueerd zijn omdat het een adaptief doel dient (of diende).

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Matched: psi
Ik heb eens rondgezocht naar methoden om te voorkomen dat externe critici teveel moeten vertrouwen op de experimenteerders bij de bepaling van ESP-effecten. Het probleem is dat de statistische methoden benodigd weken kosten, en dat maakt de aanwezigheid van objectieve observeerders onpraktisch. Ik kwam in het journal of parapsychology echter een interessante studie tegen van Schmidt, Morris & Rudolp (1986) waarbij wel directe observatoren zijn betrokken.

Dit experiment betrof een zogenaamde PK studie. PK is beinvloeden van andere systemen (DMILS en RNG studies vallen hier onder), terwijl ESP te maken heeft met een mogelijk 'nieuw' zintuig. Samen vallen beide termen onder PSI - wat een meer algemene term is voor wat de parapsychologie onderzoekt.

De methode is lastig, dus probeer het goed te volgen. Men gebruikt een computer om op twee tapes hetzelfde random bitpatroon te laten printen. 1 tape gaat naar een proefleider en de andere naar de andere tape wordt getoond aan de proefpersoon. Deze persoon krijgt het bitpatroon te zien doordat een lampje aan gaat bij 0-en of bij 1-en. De proefleider bepaalt, zonder naar het door hem ontvangen patroon te kijken, welke van de twee patronen gebruikt wordt; of dus het 0-patroon gebruikt wordt om het lampje te laten branden, of dat het 1-patroon gebruikt wordt. De proefpersoon moet mentaal proberen het lampje vaker aan te laten gaan. Strikt gezien lijkt dit onmogelijk, omdat de verdeling al vast ligt.

Schmidt (1976, 1984) was de eerste die ontdekte dat de proefpersoon het patroon toch kan veranderen! Dit kan alleen als het gegenereerde patroon door de computer niet bekeken wordt voordat de proefpersoon ermee aan de slag gaat. Dit 'blocking-effect' is intussen aangetoond (Schmidt, 1985).

Een variant op deze methode laat een computer true-random (dus niet pseudo-random) seed-nummer van 6 getallen genereren. Men laat een andere computer op basis van deze seed een quasi-random patroon genereren van 100 0-en en 1-en waarbij iedere seconde een bitcode wordt aangeboden aan de deelnemer. De behaalde score van de deelnemer, met het aantal 0-en en 1-en, is hiermee afkomstig van een eveneens random patroon van 0-en en 1-en. Het voordeel van deze methode is dat het zien van enkel de seed niet leidt tot een 'blocking-effect' (Schmidt, 1982).

Deze methode laat zich goed lenen voor gebruik van een observator, in het geval van bovengenoemde studie (helemaal bovenin) twee skeptici van PK. In dit geval werd een lijst van seeds van ieder 6 getallen gestuurd aan deze skeptici. Zij zetten naar wens en inzicht een H of een L voor iedere seed. De 'H' betekent dat het doel van de deelnemer bij die seed is om een zo hoog mogelijk aantal 1-en te bereiken in het patroon dat gegenereerd wordt op basis van die seed. 'L' betekent het tegenovergestelde. De seeds worden door het subject in een computer geplaatst, die de seeds doorloopt en op basis van iedere seed een pseudo-random patroon 0-en en 1-en. De proefpersoon krijgt per seed te zien wat het doel is (H of L) en probeert dat te bewerkstellingen. Als PK optreed, dan zouden de scores van bij H-seeds significant moeten zijn dan L-seeds. De observatoren kunnen zelf bepalen of dit klopt, zonder dat daar proefleiders of andere wetenschappers tussen moeten komen. De studie maakte gebruik van twee onafhankelijke observatoren die apart vaststelden of er een anomalie was opgetreden.

Het gehele artikel is hier te vinden - voor vragen over de methode (die daar ook uitgebreider wordt toegelicht), kun je beter dat lezen:
http://www.fourmilab.ch/rpkp/chan-evid.html

De resultaten waren significant op p = 0.0032. In geval van L-taken waren het aantal 0-en groter dan het aantal 1-en en bij H-taken was het omgedraaid.

De implicaties van dit effect zijn groot. Fraude lijkt in ieder geval een stuk moeilijker (hoewel nog altijd mogelijk - zij het veel onwaarschijnlijker, tot vrijwel onmogelijk). Zij lijken op het fenomeen van Schrodinger's kat, en duiden op beinvloeding van kansprocessen in het verleden. Het lijkt erop dat alhoewel de computer een patroon heeft gegenereerd, zij nog steeds kan veranderen totdat zij beschouwd wordt door een mens.

Ik ga zoeken of er meer van deze studies zijn uitgevoerd (vast wel, maar het is ff spitten). Een uitgebreide verhandeling van het fenomeen en diens methode en resultaten is hier te vinden:
http://www.fourmilab.ch/rpkp/retro.html

[edit]
Het moet PK van mij zijn geweest, maar ik sla de Kijk! open (waar ik lid van ben) en mijn oog valt op een heel stuk over PK en een site met heel veel informatie over PK. Die site is nu juist de site waar ik mijn data vandaan heb :) Anyways. De site is een soort online experiment van PK, en probeert te laten zien of er wel of geen effect is. Momenteel is men nog data aan het verzamelen, en kunnen er nog geen conclusies getrokken worden, maar het is zeer interessant wat dit project gaat brengen (alhoewel ik mijn vraagtekens zou plaatsen bij een significant resultaat - vervuiling is een groot probleem bij dit experiment). Enkel de standaarddeviatie is momenteel bekend gemaakt op de site, en zij laat een bias zien van 1.0384 ten opzichte van het doel van de deelnemer.

[ Voor 14% gewijzigd door Christiaan op 03-07-2003 20:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Hulde Christiaan voor dit interesante stuk.

Ik had overigens begrepen dat wetenschappers de effecten wilden gebruiken om een gedachten bestuurde schakelaar te maken. Computers zijn zo snel dat je een virtueel munstuk in een seconde een miljard keer kan laten opgooien. Wanneer je middels gedachtenbeinvloeding de uitkomst signifant meer of minder van een half miljard keer kan laten afwijken dan is dit eenvoudig meetbaar en zo heb je een schakelaar.

Ik heb er al een paar jaar niets meer over gehoord, ik ben benieuwd hoever men op dit gebied is. Zo'n schakelaar zou alle critici in ieder geval het zwijgen opleggen.

[ Voor 6% gewijzigd door Verwijderd op 03-07-2003 19:47 ]


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 19:41:
Ik ga zoeken of er meer van deze studies zijn uitgevoerd (vast wel, maar het is ff spitten). Een uitgebreide verhandeling van het fenomeen en diens methode en resultaten is hier te vinden:
http://www.fourmilab.ch/rpkp/retro.html
Ik heb gehoord van een onderzoek met een true random number generator, die getallen tussen, bijvoorbeeld, 0 en 100 genereert. Als je dat ding dus gewoon laat lopen, kom je op een gegeven moment natuurlijk op een gemiddelde van 50 uit. Maar als een proefpersoon de opdracht werd gegeven dat gemiddelde te verhogen of te verlagen, gaf inderdaad een effect op de uitslag! Ik meen me te herinneren dat het behaalde verschil zelfs vrij groot was... Ik heb alleen geen enkel idee door wie of laat staan wanner dat experiment gedaan is...

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
Verwijderd schreef op 03 July 2003 @ 19:45:
Hulde Christiaan voor dit interesante stuk.

Ik had overigens begrepen dat wetenschappers de effecten wilden gebruiken om een gedachten bestuurde schakelaar te maken. Computers zijn zo snel dat je een virtueel munstuk in een seconde een miljard keer kan laten opgooien. Wanneer je middels gedachtenbeinvloeding de uitkomst signifant meer of minder van een half miljard keer kan laten afwijken dan is dit eenvoudig meetbaar en zo heb je een schakelaar.

Ik heb er al een paar jaar niets meer over gehoord, ik ben benieuwd hoever men op dit gebied is. Zo'n schakelaar zou alle critici in ieder geval het zwijgen opleggen.
Cool, die kende ik niet! Lijkt me heel erg interessant!

Doet me denken aan die film waarin een Russisch jachtvliegtuig wordt gejat door een stel Amerikanen. Dat vliegtuig werkt met gedachtenbesturing, dus als je "vuur raket!" denkt (wel in het Russisch!), dan doet hij dat :)

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 19:41:
...

Deze methode laat zich goed lenen voor gebruik van een observator, in het geval van bovengenoemde studie (helemaal bovenin) twee skeptici van PK. In dit geval werd een lijst van seeds van ieder 6 getallen gestuurd aan deze skeptici. Zij zetten naar wens en inzicht een H of een L voor iedere seed. De 'H' betekent dat het doel van de deelnemer bij die seed is om een zo hoog mogelijk aantal 1-en te bereiken in het patroon dat gegenereerd wordt op basis van die seed. 'L' betekent het tegenovergestelde. De seeds worden door het subject in een computer geplaatst, die de seeds doorloopt en op basis van iedere seed een pseudo-random patroon 0-en en 1-en. De proefpersoon krijgt per seed te zien wat het doel is (H of L) en probeert dat te bewerkstellingen. Als PK optreed, dan zouden de scores van bij H-seeds significant moeten zijn dan L-seeds. De observatoren kunnen zelf bepalen of dit klopt, zonder dat daar proefleiders of andere wetenschappers tussen moeten komen. De studie maakte gebruik van twee onafhankelijke observatoren die apart vaststelden of er een anomalie was opgetreden.
Als ik het goed heb begrepen, is dit 100% fraude. Sorry :)

Met een gegeven seed en pseudo-random number generator is de uitkomst deterministisch (ligt van de tevoren vast). Dit is precies het principe van pseudo-random generatoren, hierover kan je genoeg vinden op internet. Als de uitkomst van tevoren vast staan, kan een proefpersoon daar niets aan veranderen, dat moet je met me eens zijn.

Pseudo-random-number generatoren maken gebruik van een aantal instellingen (getallen) die veranderbaar zijn, en het gedrag aanpassen. Door 1000 verschillende instellingen van tevoren te testen tegen de opgegeven H en L kan eenvoudig een instelling gevonden worden die voldoet.

Zeg me alsjeblieft dat ik iets helemaal verkeerd zie...

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Verwijderd schreef op 03 juli 2003 @ 19:45:
Ik had overigens begrepen dat wetenschappers de effecten wilden gebruiken om een gedachten bestuurde schakelaar te maken. Computers zijn zo snel dat je een virtueel munstuk in een seconde een miljard keer kan laten opgooien. Wanneer je middels gedachtenbeinvloeding de uitkomst signifant meer of minder van een half miljard keer kan laten afwijken dan is dit eenvoudig meetbaar en zo heb je een schakelaar.

Ik heb er al een paar jaar niets meer over gehoord, ik ben benieuwd hoever men op dit gebied is. Zo'n schakelaar zou alle critici in ieder geval het zwijgen opleggen.
Als zo'n schakelaar gemaakt wordt zal ik de eerste zijn om toe te geven dat ik er compleet naast zit. Maar waarom denk je dat je er al jaren niets over gehoord hebt?

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 July 2003 @ 20:01:
Als ik het goed heb begrepen, is dit 100% fraude. Sorry :)
Het is 100% fraude omdat je niet gelooft dat dit kan, terwijl het toch gebeurt. De enige alternatieve verklaring die je nog hebt is fraude. Fraude is in dit geval echt vrijwel volledig onmogelijk. Het is wel jammer dat je zo snel naar deze conclusie springt.
Met een gegeven seed en pseudo-random number generator is de uitkomst deterministisch (ligt van de tevoren vast). Dit is precies het principe van pseudo-random generatoren, hierover kan je genoeg vinden op internet. Als de uitkomst van tevoren vast staan, kan een proefpersoon daar niets aan veranderen, dat moet je met me eens zijn.
Uh, dan moet je het artikel toch lezen. De seeds worden gegenereerd met een true-random generator, zoals een Geiger-teller (staat er iig). Vervolgens worden die seeds gebruikt om het patroon voor de proefpersoon te genereren, en dat patroon is inderdaad pseudo-random. Maar dat is helemaal niet erg.

Lees het artikel maar eens voordat je oordeelt. Check ook de site (www.fourmilab.ch) maar eens - er staat een boel over PK, over deze methode en wat wetenschappers ervan vinden.

[ Voor 9% gewijzigd door Christiaan op 03-07-2003 20:08 ]


Acties:
  • 0 Henk 'm!

  • Mx. Alba
  • Registratie: Augustus 2001
  • Laatst online: 16-09 19:06

Mx. Alba

hen/hun/die/diens

Geen matches
joepP schreef op 03 July 2003 @ 20:01:

Als ik het goed heb begrepen, is dit 100% fraude. Sorry :)

Met een gegeven seed en pseudo-random number generator is de uitkomst deterministisch (ligt van de tevoren vast). Dit is precies het principe van pseudo-random generatoren, hierover kan je genoeg vinden op internet. Als de uitkomst van tevoren vast staan, kan een proefpersoon daar niets aan veranderen, dat moet je met me eens zijn.

Pseudo-random-number generatoren maken gebruik van een aantal instellingen (getallen) die veranderbaar zijn, en het gedrag aanpassen. Door 1000 verschillende instellingen van tevoren te testen tegen de opgegeven H en L kan eenvoudig een instelling gevonden worden die voldoet.

Zeg me alsjeblieft dat ik iets helemaal verkeerd zie...
Je ziet iets helemaal verkeerd ;)

De uitkomst lijkt inderdaad vantevoren vast te leggen. Maar dit is wat er gebeurd:

Een lijstje random seeds wordt gegenereerd. Aan de hand van die seed is het voor een mens onmogelijk te zien wat voor een bitpatroon er aan de andere kant uit zal rollen.

Een persoon markeert bij elke seed een H of een L.

Een andere persoon krijgt vervolgens die series door... Hij ziet eerst of hij naar boven (H) of naar beneden (L) moet streven, en vervolgens komt het semi-random bitpatroon voorbij.

Je zou natuurlijk denken dat die tweede proefpersoon totaal geen invloed zou hebben op de uitkomst. Maar de statistiek wijst dus uit dat hij dat WEL heeft!

Het is gewoon quantumphysica (Schrödringers Kat) op een macrophysisch niveau!

Het is alleen een echte hetze als het uit Hetzerath komt, anders is het gewoon sprankelende ophef.


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
http://pulse.servicez.org/untitled.JPG

Het is allemaal zo moeilijk nog niet..

Straks even een nickchange doen door wat bitjes aan te passen op de GoT server in het verleden.. :P

[ Voor 40% gewijzigd door Verwijderd op 03-07-2003 20:14 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Mx. Alba schreef op 03 July 2003 @ 20:06:
[...]

Je ziet iets helemaal verkeerd ;)

De uitkomst lijkt inderdaad vantevoren vast te leggen. Maar dit is wat er gebeurd:

Een lijstje random seeds wordt gegenereerd. Aan de hand van die seed is het voor een mens onmogelijk te zien wat voor een bitpatroon er aan de andere kant uit zal rollen.

Een persoon markeert bij elke seed een H of een L.

Een andere persoon krijgt vervolgens die series door... Hij ziet eerst of hij naar boven (H) of naar beneden (L) moet streven, en vervolgens komt het semi-random bitpatroon voorbij.

Je zou natuurlijk denken dat die tweede proefpersoon totaal geen invloed zou hebben op de uitkomst. Maar de statistiek wijst dus uit dat hij dat WEL heeft!

Het is gewoon quantumphysica (Schrödringers Kat) op een macrophysisch niveau!
Ehm, weet jij hoe een pseudo-random-number-generator werkt? Zo ja, dan weet je dat die dingen gegeven een seed ALTIJD hetzelfde resultaat uitpoepen. Daar valt niets aan te veranderen zolang die generator vast staat. Dat kan je niet beinvloeden.

Als er wel een effect gemeten wordt is er gefraudeerd, of iets anders grondig mis.

Acties:
  • 0 Henk 'm!

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
joepP schreef op 03 July 2003 @ 20:13:
[...]


Ehm, weet jij hoe een pseudo-random-number-generator werkt? Zo ja, dan weet je dat die dingen gegeven een seed ALTIJD hetzelfde resultaat uitpoepen. Daar valt niets aan te veranderen zolang die generator vast staat. Dat kan je niet beinvloeden.

Als er wel een effect gemeten wordt is er gefraudeerd, of iets anders grondig mis.
Dit wil nog niet zeggen dat de uitkomsten voorspelbaar zijn. Als je een bepaalde offset gebruikt is het alsnog anders. Tevens zal een klein verschil in seed resulteren in een volstrekt andere uitkomst.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
OpifexMaximus schreef op 03 July 2003 @ 20:15:
[...]

Dit wil nog niet zeggen dat de uitkomsten voorspelbaar zijn. Als je een bepaalde offset gebruikt is het alsnog anders. Tevens zal een klein verschil in seed resulteren in een volstrekt andere uitkomst.
Ik zeg dat ook niet, en ik weet precies hoe zo'n algoritme werkt.

Christiaan komt met een onderzoek wat zogenaamd bewijst dat je gegeven een seed, en gegeven een random-number-generator de uitkomst kan beinvloeden. Significant nog wel. En dat zonder de instellingen van de generator aan te passen.

Acties:
  • 0 Henk 'm!

  • Opi
  • Registratie: Maart 2002
  • Niet online

Opi

Geen matches
joepP schreef op 03 July 2003 @ 20:18:
[...]


Ik zeg dat ook niet, en ik weet precies hoe zo'n algoritme werkt.

Christiaan komt met een onderzoek wat zogenaamd bewijst dat je gegeven een seed, en gegeven een random-number-generator de uitkomst kan beinvloeden. Significant nog wel. En dat zonder de instellingen van de generator aan te passen.
Ik heb het verhaal doorgelezen en volgens mij heb je idd gelijk;
Random door observatoren te kiezen: "Zij zetten naar wens en inzicht een H of een L voor iedere seed."
Deterministisch: "De 'H' betekent dat het doel van de deelnemer bij die seed is om een zo hoog mogelijk aantal 1-en te bereiken in het patroon dat gegenereerd wordt op basis van die seed."
Dit zou moeten suggereren dat zo'n persoon de algorithmen zou kunnen beïnvloeden wat volgens mij niet kan.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 03 July 2003 @ 20:18:
Ik zeg dat ook niet, en ik weet precies hoe zo'n algoritme werkt.

Christiaan komt met een onderzoek wat zogenaamd bewijst dat je gegeven een seed, en gegeven een random-number-generator de uitkomst kan beinvloeden. Significant nog wel. En dat zonder de instellingen van de generator aan te passen.
Lees het artikel nou eens :). Daar staan zelfs de BASIC-codes in die gebruikt zijn om de pseudo-randomizatie te bewerkstelligen :) Je bent niet op het spoort van iets dat ze zelf niet wisten hoor, je snapt enkel het principe niet (en eerlijk gezegd kan ik het ook niet anders uitleggen - dus lees het zelf maar, misschien snap je het beter als zij het schrijven). Overigens wordt met de pseudo-generator door de observatoren ook berekent hoeveel 0-en en 1-en er uit een seed zouden moeten komen zonder dat zij gemanipuleerd is.

Er zit geen fout in het design, er zit een 'fout' in de resultaten. Een anomalie die niet verklaard kan worden met iets anders dan PK (of fraude - maar dat is hier praktisch onmogelijk omdat de methode juist bedoeld is dat uit te sluiten). En als je straks alsnog concludeert 'he, dit kan niet!' moet je toch het alternatief 'het is wel PK' eens overwegen ;)

[ Voor 27% gewijzigd door Christiaan op 03-07-2003 21:14 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 juli 2003 @ 20:36:
[...]

Lees het artikel nou eens :)
Ik moet nu ff weg, ik ga het daarna grondig doorlezen.

U hoort van mij :)

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
joepP schreef op 03 July 2003 @ 20:04:
Als zo'n schakelaar gemaakt wordt zal ik de eerste zijn om toe te geven dat ik er compleet naast zit. Maar waarom denk je dat je er al jaren niets over gehoord hebt?
Ik kan mij daar wel wat bij voorstellen. Weet jij hoe moeilijk het is om een volledig random proces te maken. De meeste randomgeneratoren zijn namelijk helemaal niet random, vanuit de seed liggen de uitkomsten gewoon vast. Daarbij moet de uitkomst volkomen ongevoelig zijn voor andere factoren.

Misschien zou je de spin van een elektron daarvoor kunnen gebruiken?

[ Voor 7% gewijzigd door Verwijderd op 03-07-2003 21:25 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
joepP, even een vraagje, geloof jij dat we in een deterministische wereld leven?

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Hier een twee quotes van http://www.fourmilab.ch/rpkp/chan-evid.html:
The weak violation hypothesis. The weak violation hypothesis, already implicitly suggested by Beloff and Evans (1961), implies that PK violates conventional physics only in a weak sense. Only the outcome of indeterministic quantum processes can be affected, whereas the nonstatistical laws, like the conservation laws for energy, momentum, symmetry, and so forth, remain in force. Therefore, PK can achieve nothing that is strictly forbidden by conventional physics. Only the probabilities for the outcomes of chance processes may change.
Dit lijkt mij ook een hypothese die past in de huidige natuurkunde en toch ook ESP mogelijk maakt.
In an attempt to interpret these results (Schmidt, 1976, 1984), one might speculate that the PK mechanism is truly noncausal, that the subject's effort reached back to the time when the random events were generated (which would explain why the copies agree). As an alternative, one might try to avoid such noncausality by the argument that, perhaps, events are not physically real until there has been an observation. From this viewpoint, the PK effort would not have to reach into the past because nature had not yet decided on the outcome before the PK subject, the first observer, saw the result. Then, the PK effort should no longer succeed if we have some other observer look at the prerecorded data previous to the PK subject's attempt. The only experiment to study this situation so far has, indeed, reported a blocking of the PK effect by a previous observation (Schmidt, 1985).
Dit doet mij sterk denken aan een ander topic [rml][ voor de natuurkundige tweaker] Quantum Theorie?[/rml] en dan vooral de vraag in quantummechanica: "Wat is een meting?" en het gedoe met schrodingers kat. Dit soort onderzoeken geven mij hoop dat ESP (indien het bestaat) uiteindelijk toch goed verklaart kunnen worden met natuurkundige theorieën.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Ok, misschien kan ik het toch beter uitleggen.

Je begint met een 6-tallige seed die werkelijk random is (gegenereerd door een Geiger-teller, of iig een ander fysisch chaotisch proces). De seed wordt gebruikt door een pseudo-randomizer om een patroon van 100 0-en en 1-en te genereren. Dit is een gedetermineerd patroon dat altijd hetzelfde is, maar wel random aandoet omdat zij tot stand is gekomen middels een werkelijke random seed. Een proefpersoon krijgt het patroon te zien, waarbij 1 0 of 1 per keer wordt gepresenteerd totdat de 100 bits doorgewerkt zijn (dit kan overigens ook visueel gebeuren, via een pendulum, een bell curve, oid). Het doel van de deelnemer kan zijn om OF meer 1-en te krijgen (High) in het patroon OF om meer 0-en (Low) in het patroon te krijgen door mentaal te proberen het proces te beinvloeden. De 'score' is in dit geval het aantal 1-en in het patroon. De seed bepaalt volledig wat de score gaat worden, daar het patroon dat voortkomt uit de werkelijk willekeurige seed zelf niet willekeurig is. Desalniettemin bevat het patroon wel een willekeurig element, daar de seed die de basis voor haar vormt zelf wel volledig willekeurig is.

Welnu. Een onafhankelijke observeerder ontvangt een lijst met, zeg, 20 seeds. Hij vult willekeurig, soms bijgestaan door een randomizer, per seed in wat het doel van de deelnemer is. Moet de deelnemer proberen een High score (veel 1-en) of een Low score (veel 0-en) behalen? Een copy van deze lijst gaat naar de proefleider die de seeds invoert in een computer en de deelnemer aan de slag laat gaan. De deelnemer krijgt achtereenvolgens de bitpatronen (100 bits) van iedere seed te zien, evenals de opdracht (high of low) per bitpatroon. De proefpersoon probeert daar vervolgens aan te voldoen door mentaal te trachten het patroon zelf te beinvloeden. Stap even over de gedachte dat het patroon gedetermineerd is, want dat is juist het mooie aan het geheel (wordt zo wel duidelijk hoop ik).

Welnu. Na het experiment worden er geen verdere gegevens uitgewisseld met de onafhankelijke observeerder, zelfs geen scores of wat dan ook. De proefleider laat enkel weten dat de proefpersoon klaar is met de opdrachten. Vervolgens voert de observeerder de seeds in in een eigen pseudo-generator en krijgt daaruit dezelfde patronen als de deelnemer heeft gezien. Het enige dat gedaan hoeft te worden door de observeerder is per bitpatroon (afkomstig van iedere seed) de score te laten berekenen (het aantal 1-en).

En nu komt het bizarre. PK-experimenten, of eigenlijk RetroPK-experimenten, laten zien dat de patronen gebiased zijn geraakt. Dat wil zeggen dat de seeds die patronen genereren waarbij de opdracht was om een hoge score te behalen ook een significant hogere score kennen dan bitpatronen gegenereerd op basis van seeds waarbij de opdracht van de deelnemer was om een lage score te behalen. Snappie?

Waarschijnlijk niet ;) Het is niet eenvoudig je brein eromheen te vouwen. De verklaring is dat de deelnemer een random proces in het verleden met zijn bewustzijn heeft beinvloed, waardoor de seeds die uit de seed voortkomen nu zelf ook gebiased zijn geraakt in de richting waarin de deelnemer zijn 'kracht' moest uitoefenen.

Het is vrijwel onmogelijk dit proces te vervalsen als men onafhankelijke observatoren gebruikt worden. De enige fraude die plaats kan vinden is dat ze allemaal onder een hoedje spelen, en het is wel erg raar als skeptici onder een hoedje gaan spelen met een parapsycholoog, of niet? En voordat je zegt dat studies beperkt zijn, bekijk de huidige database maar eens:
http://www.fourmilab.ch/rpkp/bierman-metaanalysis.html

De meta-analyse die daar staat laat een z-waarde van 5.31 zien. Dat is zeer significant, p = 0.0000000548. Het wordt nog sterker als je de sum of squares uitvoert. Ik citeer letterlijk (van ieman die de meta-analyse heeft gecontroleerd):
The sum of the squares of the Z-scores in this chart is 111.29, which should be compared to a chi-square distribution with 26 (not 25, is this the same error once again? Did Dick miscount the number of Z-scores he was working with?) degrees of freedom. How extreme is this? The odds of this sum being this large is one chance in 630 thousand million (what us Yanks call 630 billion). This is clearly more extreme than the "mere" one chance in 18 million which the "total-Z" indicates.
http://www.fourmilab.ch/rpkp/topher.html
De opmerkingen die daar staan zijn overigens ook belangrijk voor wat Q eerder deed bij zijn 'meta-analyse'. Het weghalen van 1 studie kun je niet zomaar doen. Misschien kun je het met die informatie die daar staat opnieuw berekenen? Alleen zou ik dan wel SPSS gaan gebruiken :)

[ Voor 12% gewijzigd door Christiaan op 03-07-2003 22:39 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 July 2003 @ 22:26:
joepP, even een vraagje, geloof jij dat we in een deterministische wereld leven?
Ik weet dat deze vraag niet aan mij gericht is, maar ik wilde even stellen dat ook in een deterministische wereld ESP mogelijk is. In zo'n wereld lag het immers al vast wat die persoon ging doen, het lag al vast dat iemand met zijn gedachten iets ging beïnvloeden.

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:59

Q

Au Contraire Mon Capitan!

Geen matches
Cristiaan Verwijs
Maar dat is ook niet belangrijk.(over dat statistiek niets zegt over hoe & waarom)
Huh? Daar gaat het juist om. Daarom mag je juist niet beweren dat ESP bestaat.

Ik sta trouwens opeens te kijken van de quotes die jij plaatst, ik had dit niet van je verwacht: ik ben het helaas eens met Joep's kritiek dat met name deze quote toch wel buitengewoon vooringenomen is:
Wordt hier niet heel erg met twee maten gemeten simpelweg omdat het uiterst moeilijk is om ESP te rijmen met een wereldbeeld dat geen plek kent voor ESP? Doet me erg denken aan mensen die bleven roepen dat de aarde plat was, en dat Galileo een vervalser was.
Ik denk dat je helaas het feit dat mensen niet zo makkelijk zijn te onderzoeken als, laten wij zeggen, chemische stoffen, waarbij men alle omgevingsfactoren WEL kan beheersen, gebruikt als een schild om de vage en sterk wisselende resultaten te verdedigen.
Ik denk dat je ten eerste maar overboord moet zetten dat je hier de exacte methode van de natuurkunde kunt toepassen. Alle menswetenschappen kampen met enorme problemen met reproduceerbaarheid, en daar is geen parapsychologie helaas geen uitzondering op. De regel 'although replication is problematic' komt zo vaak voor in mijn tekstboeken over psychologische vakgebieden dat jij waarschijnlijk geen enkele van die theorieen ooit kan aannemen. Je werkt met een mens, en zij bestaat uit vele duizenden variabelen die de effecten beinvloeden. Pas als je al die variabelen kent en weet hoe ze te manipuleren, pas dan kun je tot 100% replicatie komen. Het probleem is dat dat niet het geval is, en waarschijnlijk ook nooit zal gebeuren. 100% replicatie is geen criterium bij psychologisch onderzoek, omdat dat zou betekenen dat alle theorieen van de tafel geveegd moeten worden. Het is belangrijker dat men over het geheel genomen significante effecten krijgt. Waarom denk je dat meta-analyses uberhaupt zijn ontwikkeld? Als welke theorie dan ook 100% repliceert, dan heb je helemaal niet zo'n methode nodig. Je mag mijn argument dan een soort flame vinden, maar ik vind eerlijk gezegd dat je te weinig rekening houd met de complexiteit van dit soort onderzoek en hoe onmogelijk het is om dit te vergelijken met iets exacts als natuurkundige wetenschap.
Dit is dus wat ik bedoel. Nee we verwachten geen 100% juiste score van subjecten. Nee, psychologie, etc. is niet zo'n harde exacte wetenschap als Natuurkunde. Het maakt alleen gebruik van wetenschappelijke methoden en daarom mogen we het misschien wetenschap noemen, maar psychologie is altijd een beetje een schemergebied. Juist daarom moeten wij de onderzoeksresultaten omtrent ESP met extra wantrouwen bekijken. Niet alleen ESP trouwens, al het psychologisch onderzoek.
Je hebt het daarbij over het gebruik van meta-analyses die tegenwoordig een wat minder sterk resultaat laten zien dan de eerste lichting. Het document dat je hebt gebruikt verteld als het goed is ook waarom dat zo is. De huidige ganzfeld-database wordt tegenwoordig ook gevuld met onderzoeken die wel gebruik maken van de Ganzfeld methode, maar niet enkel meer dienen om resultaten te repliceren. De subtitel van het artikel is niet voor niets 'the victim of it's own succes'. Juist omdat Ganzfeld-studies repliceerbaar werden, begonnen veel parapsychologen wat meer factoren te varieren om de invloed van dergelijke onafhankelijke variabelen was. Alhoewel er wel sprake was van Ganzfeld onderzoek, werd de database als het ware 'vervuild' met studies die niet 100% aan de methode voldeden.
Juist omdat de onderzoeken niet 100% gelijk zijn is er des te meer reden om ze te wantrouwen. Daarom wantrouw ik ook die extra 'score' tabel om te bepalen in hoeverre een onderzoek afwijkt.
Huidige studies laten een kleiner, maar niet een kleiner-wordend effect, zien. Zelfs als het effect kleiner zou worden, dan is dat nog niet zo vreemd, want de eerdere studies die extremer effecten lieten zien worden steeds meer uitgevlakt in analyses op de database. Huidige studies komen wel met significante resultaten, maar zij zijn simpelweg zwakker. Dat is niet zo vreemd, want het is wel logisch dat ESP zeer zwak is - anders zouden dit soort studies niet nodig zijn om het te bewijzen.
Waarom is het logisch dat ESP zeer zwak is? Nogmaals Deze onderzoeken bewijzen helemaal NIETS . Ze geven alleen maar aan dat er misschien 'iets' aan de hand is. Zoals ook Joep al schreef: fraude, al dan niet moetwillige fouten, iets anders, of heel misschien wel ESP. Maar dat laatste mag je nimmer, maar dan ook echt nimmer uit deze onderzoeken afleiden.
Het is niet echt realistisch er 1 studie uit te halen en dan de scoring opnieuw te berekenen. Desalniettemin is dit een bekend probleem met Ganzfeld-studies die ook terecht is. Meestal zijn er een aantal studies met zeer sterke effecten die de rest meetrekken. Ik heb wel enige vraagtekens bij je methode - je kunt een meta-analyse niet zo even in Excel uitvoeren (Excel is sowieso niet erg goed in dit soort dingen, zo heb ik op een pijnlijke manier ontdekt).
Sorry, maar ik heb niets anders gedaan dan de kollomen opgeteld en de factoren op de getallen los te laten. Excel werkt prima hoor als het om optellen, delen vermenigvuldigen en aftrekken gaat. Excel niet betrouwbaar? Hoezo?
In mijn eerste post beschrijf ik dit probleem al, alsmede de problematische replicatie. Juist om die reden haal ik juist studies aan uit hele andere gebieden die niet geeent zijn op Ganzfeld. Dergelijke studies ervaren die problemen die jij aankaart niet, en worden daarom ook gezien als beter om ESP aan te tonen dan de vervuilde Ganzfeld-database (alhoewel ik ook die nog belangrijk vind). De conclusie van het door jou geciteerde artikel is dan ook om of beter te blijven bij de oorspronkelijke Ganzfeld methode, of meer te focussen op beter zichtbare en repliceerbare effecten zoals bij RNG, DMILS en dergelijke studies.
Wat hier dus eigenlijk staat: we mogen dus eigenlijk geen enkele conclusie uit de gegevens trekken omdat ze niet met elkaar vergeleken mogen worden omdat de onderzoeken niet gelijk van opzet zijn. Maw: of er moet inderdaad 1 gigantische nieuwe Gansfeld test gedaan worden, of naar andere methoden gezocht worden....
Ik heb enige reserveringen bij die berekening. Hoe heb je dit berekend met Excel? Niet dat het veel uitmaakt hoor, maar ik wil even weten hoe je Excel gebruikt om het te berekenen, want Excel, zoals gezegd, is niet goed in statistische toetsing. Je kunt beter SPSS gebruiken.
Dit heb ik zelf niet uitgerekend, alleen dat van die link van die Ganzfeld onderzoeken heb ik even wat dingetjes bij elkaar opgeteld en gemiddelden uitgerekend. Wat die andere getallen betreft: dit kun je ook gewoon op je rekenmachine uitrekenen + zo'n kansentabelletje dat in je statistiekboek zit.
Dat klopt. Een recentelijke theorie is dat het geheugen van de mens (volgens mij is die theorie van Blackmore, maar dat zou ik moeten opzoeken) gevoelig voor informatie uit de toekomst. Eerlijk gezegd vind ik dat persoonlijk ook wat realistischer - het doet mij aan alsof dat natuurkundig beter te verklaren. Maar dat weet ik zelf eigenlijk niet. Op zich maakt het niet zo uit, telepathie of in de toekomst kijken - beiden even bizar als je het rijmt met het huidige wereldbeeld.
Ons geheugen gevoelig voor informatie uit de toekomst. Inderdaad bizar, nee waanzinnig. Vraag mij af waarop deze hypothese in vredesnaam op gefundeerd is. Het lijkt mij allemaal buitengewoon sterk en momenteel zie ik het als fantasie, maar ik heb momenteel nog makkelijk praten omdat voor deze 'fantasie' geen wetenschappelijke basis is. Maar ik zal de eerste zijn die zal zwijgen als het tegendeel wordt bewezen...
Mijn eerste post is bedoeld om juist even over Ganzfeld heen te stappen, en aandacht te besteden aan andere gebieden waar betere resultaten geboekt zijn. Het is niet zo erg om het steeds over Ganzfeld te hebben, maar die methode heeft zo zijn problemen opgelopen in de loop der tijd. Niet zozeer met de resultaten, alswel het feit dat de resultaten in diens database op dit moment nogal gemixt zijn.
In ieder geval mogen we dus conclusies trekken uit de meta-analyses van de Ganzfeld onderzoeken. Wat de andere onderzoeken betreft: ik heb mij er niet in verdiept en kan er nog niets over zeggen, maar ik vind het curieus om te zien dat men nu maar van Ganzfeld weer naar iets nieuws overstapt. Iets wat wel een tendens lijkt. Oeps, ik zie dat dit juist hele oude onderzoeken zijn....... Dus mogen we eigenlijk concluderen dat het hele ESP onderzoek eigenlijk gewoon na 30 jaar nul heeft opgeleverd?

Lasker
Zo'n schakelaar zou alle critici in ieder geval het zwijgen opleggen.
Subtiel. ;)

[ Voor 3% gewijzigd door Q op 03-07-2003 22:57 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 22:32:
De verklaring is dat de deelnemer een random proces in het verleden met zijn bewustzijn heeft beinvloed, waardoor de seeds die uit de seed voortkomen nu zelf ook gebiased zijn geraakt in de richting waarin de deelnemer zijn 'kracht' moest uitoefenen.
Hij hoeft niet persé iets in het verleden te hebben verandert. Een van de theorieën die ook de schrijvers van het artikel noemen is vergelijkbaar met schrodingers kat. Omdat er geen waarneming wordt gedaan totdat de test wordt afgelegd verkeren de waardes nog niet in een exacte toestand. De proefpersoon verandert dus de uitkomst van de waarschijnlijkheidsgolf tijdens de test. Dan pas ligt deze vast en ligt ook pas de seed vast. Als deze seed weer in een pseudo-random-generator wordt gegooid komt er weer hetzelfde uit.

Ze hebben deze theorie ook eens getest zoals in een quote staat in deze post van mij Verwijderd in "Het bewijs voor ESP: Zeven meta-analyses". Als de random-seed getallen van tevoren al worden waargenomen door iemand dan verdwijnt het PK effect. Dit was wel maar een enkele studie.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 juli 2003 @ 22:33:
[...]
Ik weet dat deze vraag niet aan mij gericht is, maar ik wilde even stellen dat ook in een deterministische wereld ESP mogelijk is. In zo'n wereld lag het immers al vast wat die persoon ging doen, het lag al vast dat iemand met zijn gedachten iets ging beïnvloeden.
Nee, daar ging het mij niet om, het ging mij om de RNG's. In een deterministische wereld bestaan deze niet, omdat alles al vast ligt. Je kunt in een deterministische wereld slechts de illusie hebben dat iets random is.

joepP zei net dit:
Met een gegeven seed en pseudo-random number generator is de uitkomst deterministisch (ligt van de tevoren vast).
En omdat hij ook zei dat het daarom voor 100% fraude was, omdat iets dat vast ligt niet te beinvloeden is volgens joepP, neem ik aan dat hij niet in een deterministische omgeving gelooft. Vandaar mijn eerdere vraag.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Matched: psi
Q schreef
Ik sta trouwens opeens te kijken van de quotes die jij plaatst, ik had dit niet van je verwacht: ik ben het helaas eens met Joep's kritiek dat met name deze quote toch wel buitengewoon vooringenomen is:
Tja, ik vind het erg jammer als iemand studies verwerpt op de basis dat alle onderzoekers die met die resultaten komen schijnbaar frauderen. Dat vind ik persoonlijk een zwak argument dat vast in enkele gevallen opgaat, maar niet alles kan verklaren. Het komt echt op mij over als het zoeken naar een verklaring zolang maar niet te maken heeft met ESP, PK of wat dan ook - terwijl die laatste verklaringen, zeker in het geval van PK-studies veel beter passende verklaringen zijn. De opmerking 'meten met twee maten' komt voort uit het feit dat Joep de resultaten zou geloven als ik zelf die studie zou uitvoeren en een effect zou aantonen. Dat is toch met twee maten meten? Als wij het zouden aantonen (Joep en ik) dan is het wel betrouwbaar en anders niet?
Ik denk dat je helaas het feit dat mensen niet zo makkelijk zijn te onderzoeken als, laten wij zeggen, chemische stoffen, waarbij men alle omgevingsfactoren WEL kan beheersen, gebruikt als een schild om de vage en sterk wisselende resultaten te verdedigen.
Het is niet meer dan een simpele constatering van de stand van zaken. Je wilt graag horen dat ESP erg eenvoudig repliceerbaar is, en dat is het gewoon niet (zeker in een verkennende fase). Net, overigens, als bijna alle andere psychologische verschijnselen. Bovendien vallen de vage en wisselende resultaten wel mee. Iedere keer als ik sterke resultaten aanhaal ga je daar niet op in. Ik heb intussen al meermaals gezegd dat ik veertien studies gepresenteerd heb met homogene resultaten, en dat betekent dat ze met dezelfde waarden komen (niet significant verschillend). Daar reageer je nooit op - je blijft enkel doorduwen dat resultaten wisselend en sterk verschillend zijn. Ik vind deze discussie erg interessant, en ik doe mijn best met nieuwe informatie te komen - maar als je daar niets mee doet behalve blijven zitten met die paar studies die je overtuiging steunen dat ESP vaag is, wat moet ik dan?
Dit is dus wat ik bedoel. Nee we verwachten geen 100% juiste score van subjecten. Nee, psychologie, etc. is niet zo'n harde exacte wetenschap als Natuurkunde. Het maakt alleen gebruik van wetenschappelijke methoden en daarom mogen we het misschien wetenschap noemen, maar psychologie is altijd een beetje een schemergebied. Juist daarom moeten wij de onderzoeksresultaten omtrent ESP met extra wantrouwen bekijken. Niet alleen ESP trouwens, al het psychologisch onderzoek.
Dus om ESP omver te krijgen ga je nu ook psychologie als wetenschap aan de kaak stellen? Ik vind het goed dat je zo kritisch bent, maar trek je de lijn niet te ver door? Statistiek is gewoon een handig gereedschap dat je soms nodig hebt als het moeilijk is een effect met het blote oog waar te nemen. Als ik 10 keer een munt opwerp, dan is het statistisch gezien vreemd als die munt 7 keer op kop komt. Psychologen doen hetzelfde, alleen dan met mensen.
Juist omdat de onderzoeken niet 100% gelijk zijn is er des te meer reden om ze te wantrouwen. Daarom wantrouw ik ook die extra 'score' tabel om te bepalen in hoeverre een onderzoek afwijkt.
Juistem. En om die reden heeft men ESP-studies op dit moment even op een lager pitje gezet. Men is momenteel bezig met autoGanzfeld studies die wel volledig voldoen aan de richtlijnen en daarom niet in kwaliteit mogen verschillen. Verderop schrijf je ergens dat je het raar vind dat ze ineens overstappen. ESP-studies waren een eerste groep aan studies, en de database is intussen vervuild geraakt met ambitieuze studies die steeds verder afweken van de norm. Op zich heel goed, want wetenschappelijk onderzoek moet zich niet op hetzelfde blijven richten. Maar het probleem van die aanpak was dat men eerst nog keihard vast moet stellen dat een effect uberhaupt optreed, en daarbij helpt een gemixte database niet.
Waarom is het logisch dat ESP zeer zwak is? Nogmaals Deze onderzoeken bewijzen helemaal NIETS . Ze geven alleen maar aan dat er misschien 'iets' aan de hand is. Zoals ook Joep al schreef: fraude, al dan niet moetwillige fouten, iets anders, of heel misschien wel ESP. Maar dat laatste mag je nimmer, maar dan ook echt nimmer uit deze onderzoeken afleiden.
Als ESP sterk was zouden er veel meer verhalen over zijn, denk je niet? En waarom mag je bewijs voor ESP niet afleiden uit statistische data? Wetenschappelijk onderzoek bewijst niets nee, maar het maakt bepaalde verklaringen wel aannemelijker dan anderen. Weet jij dan een betere verklaring voor PK of ESP studies? Fraude ja, maar is dat de enige verklaring? En hoe realistisch is die verklaring?
Sorry, maar ik heb niets anders gedaan dan de kollomen opgeteld en de factoren op de getallen los te laten. Excel werkt prima hoor als het om optellen, delen vermenigvuldigen en aftrekken gaat. Excel niet betrouwbaar? Hoezo?
Je moet de opmerkingen eens lezen die hier staan:
http://www.fourmilab.ch/rpkp/topher.html
Volgens mij zijn die ook van toepassing op wat jij deed bij het weghalen van 1 studie.
Wat hier dus eigenlijk staat: we mogen dus eigenlijk geen enkele conclusie uit de gegevens trekken omdat ze niet met elkaar vergeleken mogen worden omdat de onderzoeken niet gelijk van opzet zijn. Maw: of er moet inderdaad 1 gigantische nieuwe Gansfeld test gedaan worden, of naar andere methoden gezocht worden....
Nee, omdat studies geranked worden door blinde helpers naar kwaliteit, kun je de studies die het beste voldoen aan de ESP-methode nog steeds vergelijken met elkaar. En die laten zien dat er wel een effect is, namelijk 33%. Maar inderdaad, eigenlijk moet de database gepopuleerd worden met enkel strikt-aan-de-norm voldoende Ganzfeld-studies, en daar is men momenteel mee bezig.
Ons geheugen gevoelig voor informatie uit de toekomst. Inderdaad bizar, nee waanzinnig. Vraag mij af waarop deze hypothese in vredesnaam op gefundeerd is. Dit is echt speculatie in het kwadraat. Dit is mijns inziens echt wegdrijven op de fantasie.
Fantasie of niet. Heb je al eens wat over PK gelezen? PK en ESP vallen samen onder PSI, en het lijkt er toch echt op dat PK wel degelijk verklaringen kan bieden op grond van quantummechanische processen. Het menselijk brein kan op bepaalde manieren processen in het verleden (en misschien zelfs in de toekomst) beinvloeden. Je kunt het uiterst bizar vinden, maar sinds wanneer moet de natuur niet-bizar zijn? Als je uit de theorie bepaalde voorspellingen kunt formuleren die je kunt toetsen, dan is men toch wetenschappelijk bezig?
In ieder geval mogen we dus conclusies trekken uit de meta-analyses van de Ganzfeld onderzoeken. Wat de andere onderzoeken betreft: ik heb mij er niet in verdiept en kan er nog niets over zeggen, maar ik vind het curieus om te zien dat men nu maar van Ganzfeld weer naar iets nieuws overstapt. Iets wat wel een tendens lijkt. Oeps, ik zie dat dit juist hele oude onderzoeken zijn....... Dus mogen we eigenlijk concluderen dat het hele ESP onderzoek eigenlijk gewoon na 30 jaar nul heeft opgeleverd?
Ten eerste getuigd je laatste regel van een opmerkelijke sprong in je conclusie. Eerst schrijf je dat er 'een effect' is en vervolgens is er 'nul'. Er is wel degelijk een effect, alleen schrijf jij het toe aan alternatieve verklaringen als fraude. Dat kan natuurlijk. De Ganzfeld-methode heeft zijn problemen, en diens database ook. Maar net als ieder wetenschappelijk gebied richt men zich op die gebieden die het meest vruchtzaam zijn. Misschien wil je het zien als het verlaten van een zinkend schip, maar de aanname die je dan zou maken is dat het schip uberhaupt zinkt. ESP-studies hebben effecten laten zien, maar sterkere effecten zijn elders te vinden die bovendien minder gevoelig zijn voor fraude - en men moet toch iets doen om skeptici te laten zien dat ESP bestaat?

[ Voor 5% gewijzigd door Christiaan op 03-07-2003 23:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 juli 2003 @ 23:01:
Nee, daar ging het mij niet om, het ging mij om de RNG's. In een deterministische wereld bestaan deze niet, omdat alles al vast ligt. Je kunt in een deterministische wereld slechts de illusie hebben dat iets random is.

joepP zei net dit:


[...]


En omdat hij ook zei dat het daarom voor 100% fraude was, omdat iets dat vast ligt niet te beinvloeden is volgens joepP, neem ik aan dat hij niet in een deterministische omgeving gelooft. Vandaar mijn eerdere vraag.
In een deterministische wereld bestaan er geen RNG's, maar als de wereld deterministisch is dan moet quantummechanica nog steeds gelden. Dit zou dan kunnen met verborgen variabelen theorieën. ESP zou dan misschien alleen invloed kunnen hebben op deze verborgen variabelen. De RNG's die we nu als echt random zien werken dan met deze variabelen de pseude-RNG's werken dan volgens de compleet begrepen algoritme.

Ik zeg niet dat het zo is, maar alleen maar dat het ook in een deterministische wereld uit zou kunnen maken wat voor RNG je hebt en dat ESP mogelijk is.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 July 2003 @ 23:15:
[...]
In een deterministische wereld bestaan er geen RNG's, maar als de wereld deterministisch is dan moet quantummechanica nog steeds gelden. Dit zou dan kunnen met verborgen variabelen theorieën. ESP zou dan misschien alleen invloed kunnen hebben op deze verborgen variabelen. De RNG's die we nu als echt random zien werken dan met deze variabelen de pseude-RNG's werken dan volgens de compleet begrepen algoritme.

Ik zeg niet dat het zo is, maar alleen maar dat het ook in een deterministische wereld uit zou kunnen maken wat voor RNG je hebt en dat ESP mogelijk is.
Nee, want hij zei dat iets dat vast ligt niet te beinvloeden valt, dus ook niet met ESP. Het doet er niet toe wat voor soort RNG je pakt in een deterministische wereld, de uitslag ligt vast, en is dus niet te beinvloeden volgens joepP.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 July 2003 @ 23:22:
Nee, want hij zei dat iets dat vast ligt niet te beinvloeden valt, dus ook niet met ESP. Het doet er niet toe wat voor soort RNG je pakt in een deterministische wereld, de uitslag ligt vast, en is dus niet te beinvloeden volgens joepP.
Ik houd er misschien een ander beeld op na wat nou een deterministische wereld is dan joepP en misschien ook jij. Maar naar mijn mening is in een deterministische wereld alle beïnvloeding een illusie. Als ik een stoeltje verzet stond al vast dat, dat ging gebeuren ook al denk ik dat ik die stoel heb beïnvloed. Zo is het volgens mij dan ook met een RNG. Je kan hem dan misschien wel beïnvloeden, maar dan stond het al vast dat je dat ging doen.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
Verwijderd schreef op 03 July 2003 @ 23:27:
[...]
Ik houd er misschien een ander beeld op na wat nou een deterministische wereld is dan joepP en misschien ook jij. Maar naar mijn mening is in een deterministische wereld alle beïnvloeding een illusie. Als ik een stoeltje verzet stond al vast dat, dat ging gebeuren ook al denk ik dat ik die stoel heb beïnvloed. Zo is het volgens mij dan ook met een RNG. Je kan hem dan misschien wel beïnvloeden, maar dan stond het al vast dat je dat ging doen.
Wij hebben dezelfde opvatting hierover, in een deterministische wereld staat alles vast, en als je denkt dat je iets beinvloedt is dat een illusie. Volgens joepP is het echter niet mogelijk de uitslag van een RNG te veranderen, en hier ben ik het niet mee eens. Het is mogelijk de uitslag van een RNG te veranderen in een deterministische wereld, alleen stond het al vantevoren vast dat de uitslag veranderd ging worden.

Maar bovenstaande is allemaal gespeculeer, omdat joepP zelf niet aan het woord is geweest. Misschien denkt hij er wel net zo over :)

[ Voor 7% gewijzigd door Verwijderd op 03-07-2003 23:53 ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Verwijderd schreef op 03 July 2003 @ 23:47:
Maar bovenstaande is allemaal gespeculeer, omdat joepP zelf niet aan het woord is geweest. Misschien denkt hij er wel net zo over :)
Ik wil jullie discussie niet verknallen, maar snapt ie het niet gewoon niet? :) Volgens mij begreep ie niet goed hoe de methode werkt (wat niet raar is gezien de complexiteit) Volgens mij vatte hij het zo op dat de proefpersonen proberen direct een patroon op te dringen aan een al vastliggend patroon (namelijk het pseudo-patroon) - en dat gebeurt niet. Het is een indirect effect dat via de oorspronkelijke seed werkt.

[ Voor 24% gewijzigd door Christiaan op 04-07-2003 00:07 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 03 July 2003 @ 22:32:
Ok, misschien kan ik het toch beter uitleggen.

(uitleg)

Snappie?

Waarschijnlijk niet ;)
Je onderschat mijn verstandelijke vermogens, ik snapte het na de eerste uitleg van je al perfect. En ik zag ook direct dat het geclaimde resultaat onmogelijk kan zijn. Maar ja, ik ben een beta, en dus wat analtischer aangelegd ;)
Het is niet eenvoudig je brein eromheen te vouwen. De verklaring is dat de deelnemer een random proces in het verleden met zijn bewustzijn heeft beinvloed, waardoor de seeds die uit de seed voortkomen nu zelf ook gebiased zijn geraakt in de richting waarin de deelnemer zijn 'kracht' moest uitoefenen.
Het spijt me Christiaan, maar dit gaat me veel te ver. Ik heb een veel betere verklaring, zie verderop
Het is vrijwel onmogelijk dit proces te vervalsen als men onafhankelijke observatoren gebruikt worden. De enige fraude die plaats kan vinden is dat ze allemaal onder een hoedje spelen, en het is wel erg raar als skeptici onder een hoedje gaan spelen met een parapsycholoog, of niet? En voordat je zegt dat studies beperkt zijn, bekijk de huidige database maar eens:
http://www.fourmilab.ch/rpkp/bierman-metaanalysis.html
Het is wel degelijk te vervalsen. Sterker nog, het experiment is inherent waardeloos opgezet. Ik zal het uitleggen:

D = definitie, A = aanname, C = conclusie, O = observatie/redenering

D1: De proefpersoon is degene die moet beinvloeden
D2: De observator is degene die de High en Lows kiest
D3: De proefleider is degene die de lijst in de computer invoert en de deelnemer vertelt of hij Highs of Lows moet scoren
D4: De PRNG is de pseudo-random-number-generator

A1: De lijst met 20 seeds van 6 getallen is echt random.

O1: Als de observator de PRNG heeft -voordat- hij de H's en L's mag kiezen is het experiment waardeloos, aangezien hij dan de H's en L's zo kan kiezen, dat de proefpersoon altijd faalt/scoort.

C1: De observator krijgt de PRNG pas -na- het bepalen van zijn H's en L's (wegens O1).

C2: De PRNG is instelbaar, dwz dat er keuzes zijn voor bepaalde parameters die het gedrag beinvloeden. Dit is zo voor alle PRNG, en ook diegene die gebruikt zijn voor dit experiment.

O2: Na het invoeren van de lijst met seeds en hun doel door de proefleider kan de PRNG worden losgelaten op deze lijst. Dit kan eenvoudig 1000x gedaan worden, met steeds een andere waarde voor de instelparameter voor het PRNG. Hieruit kiezen we die instelling, die de proefpersoon het beste doet scoren. Omdat er slechts 20 H/L's zijn, vinden we eenvoudig een significant resultaat.

O3: Als de PRNG van tevoren ter controle aan de observator wordt gegeven, is het experiment waardeloos wegens grote mogelijkheid tot fraude (C1). Als dit niet gebeurt is het experiment ook waardeloos wegens grote mogelijkheid tot fraude (C2).

C3: Het experiment is waardeloos wegens grote mogelijkheid tot fraude (wegens O3).

Ik zie werkelijk niet in wat je hier tussen kan krijgen. Dit is gewoon een goocheltruc, niets meer en niets minder. Te triest voor woorden. Om aan dit soort inherent waardeloze experimenten conclusies te verbinden als zou de proefpersoon keuzes van een ander/computer in het verleden kunnen beinvloeden zijn nog erger.

Concreter, ik kan het volgende experiment met je doen:

a) Iemand maakt een lijst van 20 seeds van 6 cijfers aan en stuurt die ons toe
b) Jij stuurt mij de H's en L's
c) Ik stuur je de PRNG die ik gebruikt heb om iets/iemand (huisgenoot, de kat, een flesje bier) de resultaten te laten zien/beinvloeden, waarin ik de 20 seeds en H's en L's heb ingevoerd
d) Jij controleert de resultaten op fraude met PRNG
e) We hebben een publiceerbaar resultaat!

Tot slot, de fraudegevoeligheid van dit experiment kan eenvoudig tot 0 gereduceerd worden als ik jou van tevoren niet de PRNG stuur, maar de hashcode daarvan, een soort digitale vingerafdruk. Dat dit in dit experiment niet gebeurt is zegt mij al genoeg.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
ChristiaanVerwijs schreef op 04 juli 2003 @ 00:06:
[...]


Ik wil jullie discussie niet verknallen, maar snapt ie het niet gewoon niet? :) Volgens mij begreep ie niet goed hoe de methode werkt (wat niet raar is gezien de complexiteit) Volgens mij vatte hij het zo op dat de proefpersonen proberen direct een patroon op te dringen aan een al vastliggend patroon (namelijk het pseudo-patroon) - en dat gebeurt niet. Het is een indirect effect dat via de oorspronkelijke seed werkt.
Zelfs als hij dat denkt hoeft hij geen gelijk te hebben, dat gaven we hierboven al aan. Het is mogelijk dat de uitslag van een vastliggend patroon zelfs in een deterministische wereld veranderd kan worden, alleen moet er dan wel bij worden verteld dat het veranderen van de uitslag al vast lag.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Verwijderd schreef op 03 July 2003 @ 22:26:
joepP, even een vraagje, geloof jij dat we in een deterministische wereld leven?
Ja, maar dat wil niet zeggen dat we de complete levensloop van het heelal tot op het detail kunnen berekenen.

Er zijn chaos-systemen (bv een eenvoudige aangedreven slinger), waarbij het gedrag niet te voorspellen is, omdat een willekeurig kleine afwijking in de beginvoorwaarden compleet ander gedrag op de lange termijn induceert. Dit is volledig wiskundig bewijsbaar, en hier is niets vaags aan. Verder lijkt de quantummechanica ook nondeterministisch, maar ik ben ervan overtuigt dat het onderliggende proces wel deterministisch is. Dat we nooit zullen ontdekken hoe dit precies werkt kan ik wel geloven.

Verder vindt ik het complete kul om het nondeterminisme van de quantummechanica te gebruiken als verklaring voor allerhande paranormale verschijnselen. Die brug gaat 1000 maal verder, en zal alleen geslagen worden door mensen zonder enig benul van wat de quantummechanica precies inhoudt, voor zover iemand deze uberhaubt compleet kan begrijpen.

Acties:
  • 0 Henk 'm!

Verwijderd

Geen matches
joepP schreef op 04 juli 2003 @ 00:23:
[...]


Ja, maar dat wil niet zeggen dat we de complete levensloop van het heelal tot op het detail kunnen berekenen.
Dat wil ik ook in z'n geheel niet beweren, ik wou alleen even aangeven dat schijnbaar niet-beinvloedbare systemen zelfs in een deterministische wereld mogelijk beinvloed kunnen worden. Nogmaals, er moet dan alleen even bij worden verteld dat het beinvloeden ook al vast lag.
Verder vindt ik het complete kul om het nondeterminisme van de quantummechanica te gebruiken als verklaring voor allerhande paranormale verschijnselen. Die brug gaat 1000 maal verder, en zal alleen geslagen worden door mensen zonder enig benul van wat de quantummechanica precies inhoudt, voor zover iemand deze uberhaubt compleet kan begrijpen.
Ik ben het helemaal met je eens dat het niet juist is om dit als verklaring aan te dragen, alleen zou de verklaring voor dit soort fenomenen daar wel in verscholen kunnen liggen.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Verwijderd schreef op 04 juli 2003 @ 00:29:

[...]

Ik ben het helemaal met je eens dat het niet juist is om dit als verklaring aan te dragen, alleen zou de verklaring voor dit soort fenomenen daar wel in verscholen kunnen liggen.
Kijk, als we het hebben over ESP in de zin van Ganzfeld experimenten zal ik nog kunnen geloven dat dit bestaat. Een soort zesde zintuig, communicatie door middel van brainwaves, zoiets. Ik ga er niet van uit, maar het is niet totaal ondenkbaar.

Experimenten echter waaruit "blijkt" dat mensen met slechts hun brein het verleden kunnen beinvloeden zijn wel even van een andere orde. Dit soort conclusies uit slechte experimenten trekken gaat oneindig veel te ver. Indien waar, zijn de conclusies van een grotere inpact dan ALLES wat we als wetenschap ooit hebben voortgebracht. Alles.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 04 July 2003 @ 00:17:
Je onderschat mijn verstandelijke vermogens, ik snapte het na de eerste uitleg van je al perfect. En ik zag ook direct dat het geclaimde resultaat onmogelijk kan zijn. Maar ja, ik ben een beta, en dus wat analtischer aangelegd ;)
Nou ja, het was niet zo bedoeld :) Ik heb al zoveel mensen gezien die het niet snapten. Het is nu eenmaal niet erg gemakkelijk te begrijpen. En zoals we zo zijn geld het toch nog steeds.
Het spijt me Christiaan, maar dit gaat me veel te ver. Ik heb een veel betere verklaring, zie verderop
Ja, vervalsing. Wederom. Wat heb je toch met die wetenschappers joh? Ze zijn echt voor geen hout te vertrouwen of wel? Overigens is het experiment uiteraard vervalsbaar. Maar dat maakt nog niet dat het gebeurt is.
Het is wel degelijk te vervalsen. Sterker nog, het experiment is inherent waardeloos opgezet. Ik zal het uitleggen:

D = definitie, A = aanname, C = conclusie, O = observatie/redenering

D1: De proefpersoon is degene die moet beinvloeden
D2: De observator is degene die de High en Lows kiest
D3: De proefleider is degene die de lijst in de computer invoert en de deelnemer vertelt of hij Highs of Lows moet scoren
D4: De PRNG is de pseudo-random-number-generator
A1: De lijst met 20 seeds van 6 getallen is echt random.
Dat was geen aanname daar zij getest is in voorronden. Bovendien geen problematische aanname ook, zoals de paper zelf al zegt:
As a first step, the experimenter used a computer with an attached Geiger counter arrangement to generate and to print a supply of truly random 6-digit seed numbers sufficient for the whole experiment. Some previous randomness tests with this arrangement had indicated no deviations from randomness. But we need not go into this because the later nonparametric evaluation method makes no assumptions about the randomness of the seed numbers.
O1: Als de observator de PRNG heeft -voordat- hij de H's en L's mag kiezen is het experiment waardeloos, aangezien hij dan de H's en L's zo kan kiezen, dat de proefpersoon altijd faalt/scoort.
Ja, maar de observator krijgt de PRNGs toch niet? Hij krijgt de seeds, kijkt er enkel naar en merkt aan welke taak de proefpersoon overal moet vervullen. En wat heeft de observator, die zelf tenslotte wordt gepresenteerd als skepticus, er nou voor baat bij om mee te werken aan vervalsing? Iemand die skepticus is gaat zich niet lenen voor fraude. Dat zou hetzelfde zijn als dat ik jou vraag om mij te helpen een ESP-experiment te faken.

Bovendien was die opmerking dat de observator handmatig selecteert wat de taak per seed is fout. De paper zelf zegt:
Next, the second observer, who had at this stage no access to the seed numbers, used his own electronic random generator (with electronic noise as source of randomness) to generate and record a sequence of binary decisions to specify the target assignments. One decision (H or L) was recorded for each pair of subsequent seeds, specifying the target for the first seed, and the second seed in the pair got the opposite assignment.
C1: De observator krijgt de PRNG pas -na- het bepalen van zijn H's en L's (wegens O1).
Obvious.
O2: Na het invoeren van de lijst met seeds en hun doel door de proefleider kan de PRNG worden losgelaten op deze lijst. Dit kan eenvoudig 1000x gedaan worden, met steeds een andere waarde voor de instelparameter voor het PRNG. Hieruit kiezen we die instelling, die de proefpersoon het beste doet scoren. Omdat er slechts 20 H/L's zijn, vinden we eenvoudig een significant resultaat.
Huh? Als ik snap wat je bedoelt dan snap je niet wat de methode behelst :) (echt, sorry, ik bedoel het niet kwaad). De PRNG is, op basis van Seed X, altijd hetzelfde (omdat men hetzelfde BASIC-tooltje gebruikt om een patroon te maken en later de score te berekenen). Deze observatie klopt niet met de opzet, namelijk dat er geen enkele informatie reist tussen proefleider en deelnemer NADAT de proefleider een copy van de seeds en de taak per seed heeft ontvangen van de observator behalve de melding 'we zijn klaar, bereken de scores maar'.

Jij gaat er zeker vanuit dat men de PRNGs zo afstelt dat de scores positief uitvalt voor de deelnemer, of niet? Dat kan helemaal niet. Die scores gaan namelijk hoe dan ook nooit terug naar de observator, dus daar heeft de proefleider helemaal niets aan.
O3: Als de PRNG van tevoren ter controle aan de observator wordt gegeven, is het experiment waardeloos wegens grote mogelijkheid tot fraude (C1). Als dit niet gebeurt is het experiment ook waardeloos wegens grote mogelijkheid tot fraude (C2).
De PRNG wordt niet gegeven aan de observator? Enkel de seed gaat naar de observator. Volgens mij, maar dat weet ik zo ff niet, heeft de observator enkel een tooltje om de score van 1-en van het PRNG-patroon van de seed te bepalen. Maar nogmaals. Waarom zou een skepticus uberhaupt willen frauderen?
Ik zie werkelijk niet in wat je hier tussen kan krijgen. Dit is gewoon een goocheltruc, niets meer en niets minder. Te triest voor woorden. Om aan dit soort inherent waardeloze experimenten conclusies te verbinden als zou de proefpersoon keuzes van een ander/computer in het verleden kunnen beinvloeden zijn nog erger.
Nou, nadat al je argumenten onderuit liggen op grond van het verkeerd interpreteren van de methode lijkt me dat er nog heel wat tussen te krijgen is ;). Geloof me nou maar dat het niet zo makkelijk is en dat je de paper echt nog drie keer moet lezen voordat je het snapt (ik heb het wel 10 keer moeten lezen - overigens wel flinke tijd terug).

We beginnen met 20 seeds. Die zijn random, zoals getest, die moeten leiden tot pseudo-random bitpatronen van 100 bits. De proefleider ontvangt enkel een lijst met de seeds en per seed de opdracht (High of Low). Beide partijen hebben een BASIC-programmatje dat op basis van de seed een bitpatroon genereerd dat voor beide partijen hetzelfde is. De observator heeft het nodig om de score van het patroon te bepalen (het aantal 1-en in het patroon) en de proefleider om de computer de taak te laten presenteren aan de deelnemer (waarbij bit voor bit voorbij komt, zij het visueel, als geluid of wat dan ook).

Laten we het experiment zelf even weglaten. Als je op basis van de seeds en de bitpatronen die zij genereren in combinatie met het BASIC-tooltje de score berekent, dan mag je verwachten dat je voor alle seeds ongeveer dezelfde score krijgt (het is een random proces, normaal verdeeld enzo). Toch blijkt na 'manipulatie' door de deelnemer dat seeds waarbij de taak was om meer 1-en te krijgen in het bitpatroon dat zij genereren ook significant meer 1-en kennen dan patronen bij welke de taak andersom is.

Het fenomeen wordt het best verwoord op deze manier:
A complete stranger hands you a sealed envelope and asks you to choose an number between one and fifty. A bit puzzled, perhaps, you think for a moment and announce "twenty-eight". The stranger scribbles this in a notebook, tells you to open the envelope in two weeks, smiles, and disappears.

Two weeks later you open the envelope to find a piece of paper with "28" printed neatly in the centre. Your mind swims with possible explanations, including the possibility that it was merely a coincidence. But a few days later, the stranger reappears with another envelope, you choose another number, and the sequence of events repeats. How many times would this have to occur before you accepted that something VERY STRANGE INDEED was going on?
Misschien is de simpele vorm van PK eenvoudiger om mee te beginnen (want de studie die we nu bespreken is wat complexer om derde observatoren te betrekken, en dat werkt denk ik nu even verwarrend):
First, signals (1's and 0's) from a binary random generator are recorded simultaneously on two cassette tapes. Next, one of the identical tapes is given to an independent observer who, without looking at the recorded data, specifies the subject's PK aim, an excess of 1's or an excess of 0's. Finally, the sequence of 1's and 0's from the other tape is displayed to the PK subject, who is trying to mentally enforce the appearance of predominantly 1's or 0's, as specified by the independent observer.

In this example, the equivalence hypothesis suggests that the subject may still succeed in his PK effort, because PK should work equally well on all types of true random generators. The weak violation hypothesis, on the other hand, implies that the two tapes should still agree after the PK effort, because the identical recording of the two tapes was guaranteed by reliable recording equipment that leaves practically no room for chance (and with it PK effects) to enter.

Thus, the independent observer can, at the end, confirm the success of the PK effort firsthand, by playing his copy of the tape into a computer that counts the recorded 0's and 1's.

Previously reported experiments (Schmidt, 1976) (without independent observers) suggest that PK still operates under these conditions and that the two records still agree after the PK effort.

In an attempt to interpret these results (Schmidt, 1976, 1984), one might speculate that the PK mechanism is truly noncausal, that the subject's effort reached back to the time when the random events were generated (which would explain why the copies agree). As an alternative, one might try to avoid such noncausality by the argument that, perhaps, events are not physically real until there has been an observation. From this viewpoint, the PK effort would not have to reach into the past because nature had not yet decided on the outcome before the PK subject, the first observer, saw the result. Then, the PK effort should no longer succeed if we have some other observer look at the prerecorded data previous to the PK subject's attempt. The only experiment to study this situation so far has, indeed, reported a blocking of the PK effect by a previous observation (Schmidt, 1985).
PK-studies laten zien dat een nog-niet beschouwde tape na bewerking door een deelnemer meer 1-en bevat als de taak was meer 1-en op de tape te krijgen via mentale manipulatie dan als de taak was om meer 0-en op de tape te krijgen. De taak wordt echter door een onafhankelijk observeerder gegeven NADAT de tape gemaakt is. Desalniettemin verandert de tape wel, maar niet direct. De deelnemer beinvloedt een random proces uit het verleden, waardoor de tape verandert. De tape bestaat feitelijk niet totdat hij aanschouwt wordt door een mens. Waarom denk je dat de term 'Schrodinger's kat' al twee keer gevallen is in dit topic? Dit is quantummechanica op macro-niveau. Als je het principe nu begrijpt, weet je dat fraude niet mogelijk is op de manieren die jij beschreven hebt. Alleen als ze allemaal onder 1 hoedje spelen en het experiment nooit uitvoeren is fraude mogelijk. Maar die verklaring is niet te rijmen met de opzet van een studie om juist skeptische mensen te betrekken om juist dat argument te bestrijden. Weet jij een andere verklaring voor de effecten?

[ Voor 28% gewijzigd door Christiaan op 04-07-2003 00:59 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Je snapt me niet...

Ik concludeer, en dat ben je met me eens, dat er eenvoudig gefraudeerd kan worden in dit experiment. Hetzij door de observator als hij het programmaatje al heeft (en dus ook als het programmaatje vaststaat), hetzij door de proefleider door het programmaatje af te stellen op het gewenste resultaat. Mijn argumenten liggen dus niet onderuit, ze staan nog als een huis. Doordat er zo gefraudeert kan worden is het experiment waardeloos.
Huh? Als ik snap wat je bedoelt dan snap je niet wat de methode behelst (echt, sorry, ik bedoel het niet kwaad). De PRNG is, op basis van Seed X, altijd hetzelfde (omdat men hetzelfde BASIC-tooltje gebruikt om een patroon te maken en later de score te berekenen). Deze observatie klopt niet met de opzet, namelijk dat er geen enkele informatie reist tussen proefleider en deelnemer NADAT de proefleider een copy van de seeds en de taak per seed heeft ontvangen van de observator behalve de melding 'we zijn klaar, bereken de scores maar'.
En verderop zeg je:
We beginnen met 20 seeds. Die zijn random, zoals getest, die moeten leiden tot pseudo-random bitpatronen van 100 bits. De proefleider ontvangt enkel een lijst met de seeds en per seed de opdracht (High of Low). Beide partijen hebben een BASIC-programmatje dat op basis van de seed een bitpatroon genereerd dat voor beide partijen hetzelfde is. De observator heeft het nodig om de score van het patroon te bepalen (het aantal 1-en in het patroon) en de proefleider om de computer de taak te laten presenteren aan de deelnemer (waarbij bit voor bit voorbij komt, zij het visueel, als geluid of wat dan ook).
Snap je het zelf wel? Wat is het nou, heeft de observator het programmaatje nou wel of niet van tevoren? Of krijgt ie het pas na afloop? Als je de exacte uitvoering van het experiment niet duidelijk voor je hebt kunnen we wel bezig blijven natuurlijk :)

Overigens kunnen we dit experiment WEL heel eenvoudig zelf herhalen.

(Ik heb die paper nog niet eens gelezen, dat terzijde. En ik wil graag even verder gaan op dit onderzoek, voordat je weer met nieuwe aan komt zetten. Deze discussie is verre van over).

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Tot slot van deze avond het volgende...

Ik heb net het artikel gelezen, en ik voel me genaaid. Heel erg zelfs. Het is niets meer dan gegoochel met cijfertjes op dubieuze manieren. Nog nooit van mijn leven heb ik zulke troep onder ogen gehad. Als je dit soort pulp serieus neemt heb je nog een hele hoop te leren.

Sorry, maar ik ben even :r

[ Voor 22% gewijzigd door joepP op 04-07-2003 01:53 ]


Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Ik kan het niet laten, ik ga toch even inhoudelijk posten :)

(Dit is alleen leesbaar voor mensen die het artikel gelezen hebben.)

Onze vriendelijke vriend denkt de kansverdeling van W als volgt te kunnen definieren: met neme de gemiddelde waarde van de reeks 1..N, dat is 0,5(N+1). Omdat gemiddeld de helft van de getallen gekozen worden vermenigvuldigen we dit met 0,5N. Resultaat: N(N+1)/4. Goh. Hierbij wordt er voor het gemak dus vanuit gegaan dat er geen bias is tov positieve/negatieve getallen. Het feit dat de getallen geordend worden wordt ook buiten beschouwing gelaten, iets wat al helemaal niet mag. En zo kan ik nog even doorgaan. Ik wil dan ook iedereen met een beetje wiskundig inzicht/opleiding uitnodigen het stuk te lezen en zijn mening te geven. Probeer wel de ogen droog te houden...

Mijn conclusie is dat Dhr Prutser zijn data tegen een totaal verkeerde kansverdeling toets, hierdoor tot zogenaamde resultaten komt, en concludeert dat het verleden beinvloed is.

Als dit onderzoek typerend is voor het gemiddelde onderzoek in het terrein van de parapsychologie is het nog triester gesteld met deze tak van "wetenschap" dan ik al vreesde.

Dat je dit soort pulp aandraagt pleit niet voor je Christiaan...

Acties:
  • 0 Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 22:59

Q

Au Contraire Mon Capitan!

Matched: psi
Dus om ESP omver te krijgen ga je nu ook psychologie als wetenschap aan de kaak stellen? Ik vind het goed dat je zo kritisch bent, maar trek je de lijn niet te ver door? Statistiek is gewoon een handig gereedschap dat je soms nodig hebt als het moeilijk is een effect met het blote oog waar te nemen. Als ik 10 keer een munt opwerp, dan is het statistisch gezien vreemd als die munt 7 keer op kop komt. Psychologen doen hetzelfde, alleen dan met mensen.
Bij 10 worpen met uitkomst 7x kop en 3x munt ga ik nog niet twijfelen aan de munt. Statistisch is die uitkomst minder waarschijnlijk dan, zeg, 6 om 4 of 5 om 5, maar niet zo heel erg onwaarschijnlijk. Pas bij N=1000 met uitkomst dat er 700x kop wordt gegooid ga ik concluderen dat er "iets aan de hand is". Dit "iets" kan zijn: onzuivere munt, iemand gooit niet goed, iets anders.

Nogmaals, psychologie maakt gebruik van wetenschappelijke methoden en kan zeker met zinnige onderzoeken komen waar wij ook wat van kunnen opsteken, maar het staat in mijn visie op een lagere betrouwbaarheidsschaal dan iets als natuurkunde of scheikunde. Nogsteeds een wetenschap, alleen zijn de resultaten niet zo zwartwit.
Juistem. En om die reden heeft men ESP-studies op dit moment even op een lager pitje gezet. Men is momenteel bezig met autoGanzfeld studies die wel volledig voldoen aan de richtlijnen en daarom niet in kwaliteit mogen verschillen. Verderop schrijf je ergens dat je het raar vind dat ze ineens overstappen. ESP-studies waren een eerste groep aan studies, en de database is intussen vervuild geraakt met ambitieuze studies die steeds verder afweken van de norm. Op zich heel goed, want wetenschappelijk onderzoek moet zich niet op hetzelfde blijven richten. Maar het probleem van die aanpak was dat men eerst nog keihard vast moet stellen dat een effect uberhaupt optreed, en daarbij helpt een gemixte database niet.
Okee.
Het is niet meer dan een simpele constatering van de stand van zaken. Je wilt graag horen dat ESP erg eenvoudig repliceerbaar is, en dat is het gewoon niet (zeker in een verkennende fase). Net, overigens, als bijna alle andere psychologische verschijnselen. Bovendien vallen de vage en wisselende resultaten wel mee. Iedere keer als ik sterke resultaten aanhaal ga je daar niet op in. Ik heb intussen al meermaals gezegd dat ik veertien studies gepresenteerd heb met homogene resultaten, en dat betekent dat ze met dezelfde waarden komen (niet significant verschillend). Daar reageer je nooit op - je blijft enkel doorduwen dat resultaten wisselend en sterk verschillend zijn. Ik vind deze discussie erg interessant, en ik doe mijn best met nieuwe informatie te komen - maar als je daar niets mee doet behalve blijven zitten met die paar studies die je overtuiging steunen dat ESP vaag is, wat moet ik dan?
Gewoon mijn gedachten lezen: waar denk ik nu aan? of beter, waar dacht ik aan op het moment dat ik dit schreef? ;)
Als ESP sterk was zouden er veel meer verhalen over zijn, denk je niet? En waarom mag je bewijs voor ESP niet afleiden uit statistische data? Wetenschappelijk onderzoek bewijst niets nee, maar het maakt bepaalde verklaringen wel aannemelijker dan anderen. Weet jij dan een betere verklaring voor PK of ESP studies? Fraude ja, maar is dat de enige verklaring? En hoe realistisch is die verklaring?
Bewijs voor ESP mag je niet afleiden uit statistische data. Uit statistische data mag je alleen de conclusie trekken dat er 'iets' aan de hand is. Je mag bijvoorbeeld wel concluderen: mannen scoren beter bij wiskunde dan vrouwen. (onzin volgensmij maar slechts voorbeeld). Die conclusie kan je simpelweg trekken op basis van de getallen.
Maar hoe het komt dat deze scores ontstaan, daar mag je toch geen uitspraak over doen? Dat staat toch los van elkaar? Je mag alleen constateren: ja of nee, er treedt wel of geen effect op. Hoe dit effect ontstaat valt nimmer uit de statistiek af te leiden. Lijkt mij.
Je moet de opmerkingen eens lezen die hier staan:
http://www.fourmilab.ch/rpkp/topher.html
Volgens mij zijn die ook van toepassing op wat jij deed bij het weghalen van 1 studie.
Hoezo? Dat Gansfeld onderzoek met die metalalyse is even wat excel werk (gewoon aantallen optellen en middelen) Dat andere verhaal is zoals Joep zei gewoon precies die berekening die hij maakte.
Fantasie of niet. Heb je al eens wat over PK gelezen? PK en ESP vallen samen onder PSI, en het lijkt er toch echt op dat PK wel degelijk verklaringen kan bieden op grond van quantummechanische processen. Het menselijk brein kan op bepaalde manieren processen in het verleden (en misschien zelfs in de toekomst) beinvloeden. Je kunt het uiterst bizar vinden, maar sinds wanneer moet de natuur niet-bizar zijn? Als je uit de theorie bepaalde voorspellingen kunt formuleren die je kunt toetsen, dan is men toch wetenschappelijk bezig?
Niet bizar, maar op basis van de huidige kennis onwaarschijnlijk. Ik kan zelf de pkstudies niet op hun waarde schatten. Het klinkt allemaal spannend, maar het enige wat ik momenteel dan heb te vragen: waarom horen we er momenteel niets over? Zijn er geen recente onderzoeken? (Recenter dan de jaren 80?)

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
Q schreef op 04 July 2003 @ 02:29:
Niet bizar, maar op basis van de huidige kennis onwaarschijnlijk. Ik kan zelf de pkstudies niet op hun waarde schatten. Het klinkt allemaal spannend, maar het enige wat ik momenteel dan heb te vragen: waarom horen we er momenteel niets over? Zijn er geen recente onderzoeken? (Recenter dan de jaren 80?)
Lees dit artikel maar waar Christiaan mee aan kwam zetten, dan weet je genoeg :)

http://www.fourmilab.ch/rpkp/chan-evid.html

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 04 July 2003 @ 02:24:
Ik kan het niet laten, ik ga toch even inhoudelijk posten :)

(Dit is alleen leesbaar voor mensen die het artikel gelezen hebben.)

Onze vriendelijke vriend denkt de kansverdeling van W als volgt te kunnen definieren: met neme de gemiddelde waarde van de reeks 1..N, dat is 0,5(N+1). Omdat gemiddeld de helft van de getallen gekozen worden vermenigvuldigen we dit met 0,5N. Resultaat: N(N+1)/4. Goh. Hierbij wordt er voor het gemak dus vanuit gegaan dat er geen bias is tov positieve/negatieve getallen. Het feit dat de getallen geordend worden wordt ook buiten beschouwing gelaten, iets wat al helemaal niet mag. En zo kan ik nog even doorgaan. Ik wil dan ook iedereen met een beetje wiskundig inzicht/opleiding uitnodigen het stuk te lezen en zijn mening te geven. Probeer wel de ogen droog te houden...
Wil het experiment succesvol zijn, dan hoeft de PRNG helemaal niet volledig gelijk verdeeld te zijn. Het is geen probleem dat de pseudo-randomizer niet werkelijk random is.
Mijn conclusie is dat Dhr Prutser zijn data tegen een totaal verkeerde kansverdeling toets, hierdoor tot zogenaamde resultaten komt, en concludeert dat het verleden beinvloed is.

Als dit onderzoek typerend is voor het gemiddelde onderzoek in het terrein van de parapsychologie is het nog triester gesteld met deze tak van "wetenschap" dan ik al vreesde.
PK-experimenten zijn al aangetoond met duizend-en-een verschillende randomizers. Er zijn legio studies die gebruik maken van dezelfde RNGs en tot hetzelfde resultaat komen, en er zijn legio andere studies die hetzelfde laten zien bij andere RNGs. Deze studie heeft gepoogd om objectieve observeerders te betrekken zodat men aan kan tonen dat het effect ook dan nog voorkomt. Als je problemen hebt met de aanpak, wees dan helder in je kritiek zodat ik (en de rest) kan bepalen hoe geldig die kritiek is. En als je zoveel problemen hebt met de kansverdeling, waarom test je het BASIC-programmatje niet en laat je niet zien wat het probleem is? Veel overtuigender dan je huidige tirade, en bovendien wat minder subjectief.
Dat je dit soort pulp aandraagt pleit niet voor je Christiaan...
Schijnbaar is er werkelijk geen andere uitweg meer dan dit soort posts schrijven. Dit is pure frustratie die je hier uit, en alhoewel dat mag komen door de paper, vind ik het alsnog een nogal onhandige manier waarop je dat hier opschrijft. Je post blaakt van de persoonlijke aanvallen op mij, op alles, behalve op je eigen aanpak. Je bekritiseert alles en iedereen, en leest het artikel zelf pas nadat je al die kritiek geschreven hebt. Hoe niet je met het artikel ook overweg kunt, het is doorgaans handig het eerst te lezen. Als ik dat benadruk, ga je er vervolgens de spot mee drijven ook door overal aan te halen dat mensen het artikel moeten lezen. Hoe kun je nou kritiek hebben op iets zonder dat je het gelezen en begrepen hebt.

Je maakt het, kortom, nodeloos persoonlijk, je begint woorden (en kots-smileys) te gebruiken die hier echt niet horen en je drijft de spot met anderen. Ook al mag je vinden dat dat allemaal gerechtvaardigd is, dat is het zeker niet. Je laat op deze manier geen enkele ruimte voor een constructieve discussie, en ik wil je vriendelijk verzoeken om dat soort reacties hier niet meer te plaatsen.

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 04 July 2003 @ 01:09:
Ik concludeer, en dat ben je met me eens, dat er eenvoudig gefraudeerd kan worden in dit experiment. Hetzij door de observator als hij het programmaatje al heeft (en dus ook als het programmaatje vaststaat), hetzij door de proefleider door het programmaatje af te stellen op het gewenste resultaat. Mijn argumenten liggen dus niet onderuit, ze staan nog als een huis. Doordat er zo gefraudeert kan worden is het experiment waardeloos.
Hoe dan? Er wordt helemaal geen gewenst resultaat uitgewisseld tussen beide partijen? De proefleider kan de machine helemaal niet af stellen op de seed zodat deze uitkomt op een hoger of lagere score (afhankelijk van de opdracht), want dezelfde seed ligt ook bij de observator - en die zal dan zien dat er gerotzooid is omdat hij tot een andere bitpatroon-score komt dan de proefleider. De enige die de resultaten kan aanpassen is de observator, maar aangezien dat juist een skepticus is....waarom zou die ooit mee willen werken aan fraude? (bovendien kan de proefleider zien dat dat gebeurt - en die moet dus ook meespelen). De enige verklaring die ik zie is massale fraude waarbij het hele experiment nooit uitgevoerd is, skeptici verzonnen zijn en scores gewoon uit de duim gezogen zijn.
Snap je het zelf wel? Wat is het nou, heeft de observator het programmaatje nou wel of niet van tevoren? Of krijgt ie het pas na afloop? Als je de exacte uitvoering van het experiment niet duidelijk voor je hebt kunnen we wel bezig blijven natuurlijk :)
Ja, ik snap het, maar ik had dat verkeerd opgeschreven. Ik neem aan dat je het zelf gelezen hebt en nu weet hoe het zat. Het maakt overigens niets uit voor het eindresultaat omdat beide partijen het niet bij elkaar hebt.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 04 July 2003 @ 10:47:
[...]

Wil het experiment succesvol zijn, dan hoeft de PRNG helemaal niet volledig gelijk verdeeld te zijn. Het is geen probleem dat de pseudo-randomizer niet werkelijk random is.
Waar zeg ik dat de PRNG niet gelijk verdeeld is? Nergens. Ik heb het over de methode om de resultaten om te rekenen richting een kansmodel (wat in nadere beschouwing misschien toch wel een valide methode is...)

Wat ik niet begrijp is het volgende: Er is een score behaald op de H-instanties, en op de L-instanties. Als Gem(H) > Gem(L) heb je een resultaat. Lijkt me eenvoudig te checken. Maar wat wordt er gedaan? Rekenen, schuiven, ordenen, afbeelding richting positieve bias-somfunctie, kansverdelinkje afschatten, nog ff wat middelen et voila: een signifikant resultaat.

Dit is een bekende fout: niet van tevoren je statistische analyse vastleggen. Nadat je meetresultaten hebt verkregen kan je wel een miljoen methoden gebruiken met dit soort rekenwerk om te analyseren. En dat je dan tot resultaat komt lijkt me logisch, het zal zelfs erg vreemd zijn als dat niet lukt. Dus nogmaals, waarom niet gewoon de gemiddelden van de H-trials en de L-trials bekijken?
PK-experimenten zijn al aangetoond met duizend-en-een verschillende randomizers. Er zijn legio studies die gebruik maken van dezelfde RNGs en tot hetzelfde resultaat komen, en er zijn legio andere studies die hetzelfde laten zien bij andere RNGs. Deze studie heeft gepoogd om objectieve observeerders te betrekken zodat men aan kan tonen dat het effect ook dan nog voorkomt. Als je problemen hebt met de aanpak, wees dan helder in je kritiek zodat ik (en de rest) kan bepalen hoe geldig die kritiek is. En als je zoveel problemen hebt met de kansverdeling, waarom test je het BASIC-programmatje niet en laat je niet zien wat het probleem is? Veel overtuigender dan je huidige tirade, en bovendien wat minder subjectief.
Dat progje (waar overigens tekens zijn weggevallen) doet niet eens ter zake, het gaat om het gegoochel met de cijfers om tot een conclusie te komen.
Schijnbaar is er werkelijk geen andere uitweg meer dan dit soort posts schrijven. Dit is pure frustratie die je hier uit, en alhoewel dat mag komen door de paper, vind ik het alsnog een nogal onhandige manier waarop je dat hier opschrijft. Je post blaakt van de persoonlijke aanvallen op mij, op alles, behalve op je eigen aanpak. Je bekritiseert alles en iedereen, en leest het artikel zelf pas nadat je al die kritiek geschreven hebt. Hoe niet je met het artikel ook overweg kunt, het is doorgaans handig het eerst te lezen. Als ik dat benadruk, ga je er vervolgens de spot mee drijven ook door overal aan te halen dat mensen het artikel moeten lezen. Hoe kun je nou kritiek hebben op iets zonder dat je het gelezen en begrepen hebt.

Je maakt het, kortom, nodeloos persoonlijk, je begint woorden (en kots-smileys) te gebruiken die hier echt niet horen en je drijft de spot met anderen. Ook al mag je vinden dat dat allemaal gerechtvaardigd is, dat is het zeker niet. Je laat op deze manier geen enkele ruimte voor een constructieve discussie, en ik wil je vriendelijk verzoeken om dat soort reacties hier niet meer te plaatsen.
Ik was wat ongenuanceerd, ik had me moeten inhouden. Ook had ik inderdaad het artikel eerst moeten lezen, aangezien jouw uitleg het meest essentiele deel van mijn uiteindelijke kritiek (walging is een beter woord) niet noemde. Dit had veel misverstanden gescheeld.

Mijn excuses :)

Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 04 juli 2003 @ 11:31:
Wat ik niet begrijp is het volgende: Er is een score behaald op de H-instanties, en op de L-instanties. Als Gem(H) > Gem(L) heb je een resultaat. Lijkt me eenvoudig te checken. Maar wat wordt er gedaan? Rekenen, schuiven, ordenen, afbeelding richting positieve bias-somfunctie, kansverdelinkje afschatten, nog ff wat middelen et voila: een signifikant resultaat.
Ik geloof dat dat een nonparamatrische test is die je daar ziet. Ik herken de stappen, maar verder kan ik (nog) niet uitleggen waarom dat gebeurt. Verder dan herkennen kom ik niet. Dit soort tests behoort tot het volgende blok statistiek dat ik krijg. Het feit dat dit rapport gepubliceerd is maakt het aannemelijk dat de statistiek wel klopt, want daar wordt tenslotte grondig op gecontroleerd bij toelating. Het kan best, maar vooralsnog weet ik te weinig over dit soort tests om er inhoudelijk wat over te zeggen. Gezien de publicatie (en ook het feit dat de onderzoekers geen n00bs zijn) ga ik ervan uit dat de gebruikte methode wel een geschikte is. Een simpele z- of t-test kun je hier denk ik niet uitvoeren omdat je met een wat andere verdeling zit. Maar dat is niet meer dan een gok van mij - ik weet hier momenteel gewoon te weinig van. De paper zegt in ieder geval dit:
Under the chance hypothesis, positive and negative values in this sequence are equally likely. The subject's PK effort, however, was directed toward biasing these numbers toward positive values. To check for such a bias, a t test might seem appropriate. To avoid any assumptions about the distribution, however, we used a nonparametric rank order test (Hoel, 1962).
Het lijkt mij persoonlijk dus een betere keuze als ik het zo lees. Door een nonparametrische test is de resulterende score alleen maar betrouwbaarder, omdat zij niet uitgaat van bepaalde verdelingen.
Dit is een bekende fout: niet van tevoren je statistische analyse vastleggen. Nadat je meetresultaten hebt verkregen kan je wel een miljoen methoden gebruiken met dit soort rekenwerk om te analyseren. En dat je dan tot resultaat komt lijkt me logisch, het zal zelfs erg vreemd zijn als dat niet lukt. Dus nogmaals, waarom niet gewoon de gemiddelden van de H-trials en de L-trials bekijken?
Niet helemaal terecht. In de paper staat dit:
We decided in advance on the test procedure and the final statistical evaluation method described below. In particular, the whole experiment was to consist of 10 sections of test runs. Each section was to be evaluated independently, and the total significance was to be calculated from the resulting 10 scores.
De methode is dus wel degelijk van tevoren vastgesteld. Kun je natuurlijk niet controleren, maar het staat hier wel.

[ Voor 4% gewijzigd door Christiaan op 04-07-2003 11:49 ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
Q schreef op 04 July 2003 @ 02:29:
Bij 10 worpen met uitkomst 7x kop en 3x munt ga ik nog niet twijfelen aan de munt. Statistisch is die uitkomst minder waarschijnlijk dan, zeg, 6 om 4 of 5 om 5, maar niet zo heel erg onwaarschijnlijk. Pas bij N=1000 met uitkomst dat er 700x kop wordt gegooid ga ik concluderen dat er "iets aan de hand is". Dit "iets" kan zijn: onzuivere munt, iemand gooit niet goed, iets anders.
Uiteraard. Daarom pakken we ook 1000 deelnemers. Met als gevolg dat het nogal lastig wordt om te zien of de muntworpen duiden of een afwijking op niet, en je dus statistisch moet bepalen of de afwijking toeval is of dat er iets met de munt is.
Nogmaals, psychologie maakt gebruik van wetenschappelijke methoden en kan zeker met zinnige onderzoeken komen waar wij ook wat van kunnen opsteken, maar het staat in mijn visie op een lagere betrouwbaarheidsschaal dan iets als natuurkunde of scheikunde. Nogsteeds een wetenschap, alleen zijn de resultaten niet zo zwartwit.
Nee, haar resultaten zijn inderdaad een stuk grijzer. Maar is dat zo erg?
Bewijs voor ESP mag je niet afleiden uit statistische data. Uit statistische data mag je alleen de conclusie trekken dat er 'iets' aan de hand is. Je mag bijvoorbeeld wel concluderen: mannen scoren beter bij wiskunde dan vrouwen. (onzin volgensmij maar slechts voorbeeld). Die conclusie kan je simpelweg trekken op basis van de getallen.
Strikt genomen formuleer je een nullhypothese die zegt dat er geen effect optreed. Gebeurt dat wel, dan verwerp je de nullhypothese. Je neemt de hypothese, 'er is wel een effect', echter niet automatisch ook aan. Het is dus niet zo, nee, dat ESP aangetoond wordt middels de verwerping van hypothesen op grond van statistiek. Maar het maakt de verklaring ESP wel aannemelijker. Overigens kent het voorbeeld dat je noemt echt gigantisch veel problemen :) Dus ik het vind het wel leuk dat je juist die aanhaalt. Ten eerste vereist het een definitie van 'wiskunde', ten tweede vereist het een zeer diverse groep vrouwen waarbij geen enkele vorm van bias is bij de selectie. Hetzelfde geldt voor de mannen. Je zult waarschijnlijk komen tot een klein verschil omdat vrouwen doorgaans (let op dit woord!) meer problemen ervaren met wiskunde dan mannen. Om terug te komen op 'doorgaans', dit is dus een gemiddelde. Het is niet zo dat alle vrouwen niet goed zijn in wiskunde, maar dat een bepaalt percentage wel goed is. Dit is net zo grijs (of net zo niet-grijs) als ESP aantonen. De nullhypothese zou zijn dat er geen verschil is tussen mannen en vrouwen in prestaties op wiskunde-tests. Je kunt alleen met behulp van statistiek toetsen of die hypothese wel of niet klopt :)
Maar hoe het komt dat deze scores ontstaan, daar mag je toch geen uitspraak over doen? Dat staat toch los van elkaar? Je mag alleen constateren: ja of nee, er treedt wel of geen effect op. Hoe dit effect ontstaat valt nimmer uit de statistiek af te leiden. Lijkt mij.
Als je nooit een oorzaak mag benoemen heeft statistiek helemaal geen zin. Een hypothese is feitelijk de verwachting (of juist niet) van een bepaald effect. De hypothese is het logisch voortvloeisel uit een theorie, en indien de hypothese bevestigd wordt geldt dat als bevestiging van de theorie (let wel; niet het onomstotelijk bewijs van de juistheid van de theorie). In die zin mag je de oorzaak dus wel afleiden uit de statistiek, omdat zij een effect laat zien dat op basis van de theorie verwacht mag worden.
Niet bizar, maar op basis van de huidige kennis onwaarschijnlijk. Ik kan zelf de pkstudies niet op hun waarde schatten. Het klinkt allemaal spannend, maar het enige wat ik momenteel dan heb te vragen: waarom horen we er momenteel niets over? Zijn er geen recente onderzoeken? (Recenter dan de jaren 80?)
'Onwaarschijnlijkheid' is gelukkig geen criterium om iets waar of onwaar te laten zijn in de wetenschap. PK is momenteel de meest succesvolle stroming. Je zegt dat we er niets over horen, maar van de zeven meta-analyses die ik in het begin noemde zijn vijf recentelijke analyses van PK-studies :). Ik zal eens voor je gaan zoeken in grotere bladen als Nature en Scientific American.

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 04 July 2003 @ 11:47:
Ik geloof dat dat een nonparamatrische test is die je daar ziet. Ik herken de stappen, maar verder kan ik (nog) niet uitleggen waarom dat gebeurt. Verder dan herkennen kom ik niet. Dit soort tests behoort tot het volgende blok statistiek dat ik krijg. Het feit dat dit rapport gepubliceerd is maakt het aannemelijk dat de statistiek wel klopt, want daar wordt tenslotte grondig op gecontroleerd bij toelating. Het kan best, maar vooralsnog weet ik te weinig over dit soort tests om er inhoudelijk wat over te zeggen. Gezien de publicatie (en ook het feit dat de onderzoekers geen n00bs zijn) ga ik ervan uit dat de gebruikte methode wel een geschikte is. Een simpele z- of t-test kun je hier denk ik niet uitvoeren omdat je met een wat andere verdeling zit. Maar dat is niet meer dan een gok van mij - ik weet hier momenteel gewoon te weinig van. De paper zegt in ieder geval dit:
Weet je hoe dit heet? Gepast domme blondjes gedrag :)

Je moet niet blind vertrouwen in wiskunde, het is allemaal logisch en afleidbaar. Net als je opmerking over de "onbetrouwbaarheid van Excel" komt dit niet echt sterk over. Statistiek is geen magie. Met een beetje puzzelen kan je zo zien wat er gebeurt, ik zal het toelichten:

1) De random seeds worden in paren van 2 verdeeld. Op een element van het paar moet een H (of L) gescoord worden door de proefpersoon, op de ander een L (of H). Deze LH of HL verdeling wordt door een externe observator random gegenereerd.
2) De score per paar wordt berekend als Score(H) - Score(L). We krijgen nu bijvoorbeeld de volgende reeks: -40, -20, 59, 17, -5, 10.
3) De score van alle paren wordt geordend, zonder naar het teken te kijken: -5, 10, 17, -20, -40, 59.
4) Dit wordt gewogen, waarbij we alleen positieve instanties een waarde geven, en wel een waarde gelijk aan de positie. Dus nu 0 + 2 + 3 + 0 + 0 + 6 = 11.
5) Deze waarde wordt vergeleken met de verwachtte verdeling, met gemiddelde N(N+1)/4 en bijbehorende standaarddeviatie.
6) Er volgt een conclusie.

Komt dit soort gekunstel niet zeer verdacht op je over? Waarom wordt er gewogen met de positie, waarom niet met de omgekeerde positie? Waarom wordt er uberhaubt geordend? Waarom wordt de meest voor de hand liggende standaardtest niet gebruikt? Waarom worden de resultaten van deze standaardtest niet eens vermeld? Waar is de originele ruwe data van alle tests?
Het lijkt mij persoonlijk dus een betere keuze als ik het zo lees. Door een nonparametrische test is de resulterende score alleen maar betrouwbaarder, omdat zij niet uitgaat van bepaalde verdelingen.
Het is misschien een valide methode, maar ik kan wel 1000 valide methodes bedenken. Allicht dat er eentje signifikant is.
De methode is dus wel degelijk van tevoren vastgesteld. Kun je natuurlijk niet controleren, maar het staat hier wel.
En wat vinden wetenschappers van uitspraken die totaal niet verifieerbaar zijn? Juist, helemaal niets.

En om op basis van dit soort zeer verdachte experimenten conclusies te trekken dat iemand gebeurtenissen in het verleden kan beinvloeden gaat helemaal te ver. Dat je dat zomaar aanneemt valt me vies van je tegen, waarom zal je niet eerst eens uitgaan van een "iets" waarschijnlijker scenario: a) fouten in de statistiek, b) achteraf pas vaststellen van analyse-methode of c) iets anders?

Acties:
  • 0 Henk 'm!

  • joepP
  • Registratie: Juni 1999
  • Niet online
Geen matches
ChristiaanVerwijs schreef op 04 July 2003 @ 12:11:
Als je nooit een oorzaak mag benoemen heeft statistiek helemaal geen zin. Een hypothese is feitelijk de verwachting (of juist niet) van een bepaald effect. De hypothese is het logisch voortvloeisel uit een theorie, en indien de hypothese bevestigd wordt geldt dat als bevestiging van de theorie (let wel; niet het onomstotelijk bewijs van de juistheid van de theorie). In die zin mag je de oorzaak dus wel afleiden uit de statistiek, omdat zij een effect laat zien dat op basis van de theorie verwacht mag worden.
Een theorie zonder onderliggend systeem verklaart niets, en is dus intrinsiek waardeloos. Om door te gaan op het gegeven voorbeeld: mijn theorie is dat vrouwen beter zijn in "iets" dan mannen. Neem ik 1000x een "iets", dan vindt ik zeker wel 10 publiceerbare resultaten met foutkans 1%. Als ik dan ook nog eens allerlei verschillende statistische tests mag gebruiken om de resultaten te interpreteren lukt het me wel om 100 resultaten te publiceren. Zegt dat iets? Nee dus.

Blind zoeken zonder onderliggend systeem is geen valide onderzoeksmethode!

[ Voor 9% gewijzigd door joepP op 04-07-2003 12:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Matched: psi
Leuke discussie. Ik wil er ook wel wat aan toevoegen.

Schmidts RNG-experimenten met zogenoemde “pre-recorded targets” zouden uitermate geschikt zijn om skeptici te overtuigen van het bestaan van psi-verschijnselen. Dat schreef ik vijftien jaar geleden al in een kritisch boek over parapsychologie. Bij Schmidts experimenten traden enkele collega-parapsychologen op als onafhankelijke controleurs (oa Bob Morris en William Braud). Maar er waren nog geen ‘echte’ skeptici bij betrokken.

Ik heb geprobeerd om in Nederland een reeks van zulke experimenten van de grond te krijgen. De kosten daarvan zijn erg gering en de stichting Skepsis wilde er graag aan meewerken. Maar helaas bleken parapsychologen er weinig belangstelling voor te hebben. Dick Bierman (de huidige bijzonder hoogleraar in de parapsychologie) wil zo min mogelijk te maken hebben met skeptici omdat zij volgens hem de vooruitgang in de weg staan.

Gelukkig had Skepsis wel goede contacten met drie parapsychologen van de SRU in Eindhoven: Jeff Jacobs, Hans Michels en Brian Millar – allen aangesloten bij de Parapsychological Association, de internationale vakorganisatie van parapsychologen. Millar zat ook in het bestuur van Skepsis. Michels had eerder al enkele succesvolle RNG-experimenten uitgevoerd, waarbij hij zelf als proefpersoon fungeerde. Na lang aandringen was de SRU bereid om samen met skeptici een RNG-experiment uit te voeren (dat eind 1993 in het tijdschrift Skepter werd gepubliceerd).

Met behulp van een echte toevalsgenerator produceerde Jacobs 20 reeksen van 100.000 toevalsgetallen (nullen en enen). De bestanden werden op een diskette gezet. Er werden in totaal drie van zulke diskettes gemaakt, voor drie experimenten. Alle diskettes werden gekopieerd en de kopieën werden veilig opgeborgen in een geldkist die van een extra hangslot was voorzien. Skepsis kreeg deze kist in bewaring, zonder de sleutels.

Tijdens een gezamenlijke bijeenkomst kozen we voor elke diskette 1 file die voor het experiment zou worden gebruikt. De overige files fungeerden als controle. De drie files werden door middel van een toevalsprocedure gekozen, waarbij we allemaal met dobbelstenen gooiden. Op basis van onze worpen werd een telefoonnummer uit een telefoonboek gekozen. Op het toevallig gekozen nummer (6 cijfers) werd de bewerking modulo 20 uitgevoerd. Dat resulteerde in een getal van 1 tot 20 en bepaalde welke dataset voor het experiment werd gebruikt.

De drie gekozen files werden op de PC van Michels gezet, samen met een computerprogramma dat Jacobs had geschreven. Via dit programma kon Michels van elke file 50.000 nullen en enen op zijn beeldscherm bekijken. Hij bekeek ze stuk voor stuk, waarbij hij zoveel mogelijk enen probeerde te zien. Als het een 1 was, schoof er blokje op zijn scherm een stukje naar rechts. Was het een 0, dan schoof het blokje naar links. De files waren versleuteld, zodat ze alleen met het programma van Jacobs konden worden bekeken. Jacobs verstrekte Skepsis van te voren een programma waarmee de uitkomst van de experimenten snel kon worden bepaald. Maar dat mocht pas gebeuren nadat Michels de data had bekeken. Daarom zat onze kist op slot.

Parapsychologen die met pre-recorded targets werken, nemen aan dat de toevalsgetallen kunnen worden beïnvloed op het moment dat ze door iemand worden waargenomen. Voordat de waarneming heeft plaatsgevonden, liggen ze nog niet vast, zelfs niet wanneer ze naar een computerdiskette zijn gekopieerd. Pas op het moment van waarneming wordt als het ware met terugwerkende kracht bepaald welk getal de randomgenerator heeft gekozen.

Dit noemt men de “observationele theorie”. (Het is een nogal onwaarschijnlijke theorie, maar laten we het daar niet over hebben.) De theorie voorspelt dat een kopie van de randomreeks identiek zal blijven aan het origineel. Dus als Michels erin zou slagen om op zijn beeldscherm extra veel enen te zien, dan zou dit resultaat later ook te vinden zijn in de geldkist die Skepsis reeds in haar bezit had. Een waterdichte controle!

De drie experimenten leverden in totaal 75.391 treffers (enen) op. Als je dit vergelijkt met de theoretische kansverwachting dan is de p-waarde vrijwel exact 0,05. We hadden echter van te voren schriftelijk afgesproken dat we de experimentele files met de controle files zouden vergelijken, omdat we niet wisten of de RNG helemaal zuiver was. Daardoor steeg de gevonden p-waarde naar 0,085.

Michels was nogal teleurgesteld dat al zijn werk zo weinig had opgeleverd. Hij had gerekend op een p die kleiner zou zijn dan 0,01. Zelf wilde ik graag doorgaan met de experimenten, maar Michels had er geen zin meer in. Dat was tien jaar geleden. Ik zou graag meer van zulke experimenten willen uitvoeren, samen met succesvolle parapsychologen. Maar die parapsychologen zijn rare jongens: ze houden hun bewijsmateriaal liever in eigen hand en vinden het helemaal niet nodig om skeptici daarvan te overtuigen.

Misschien is het ook niet mogelijk om skeptici met eigen ogen een psi-effect te laten zien. Parapsychologen geven namelijk toe dat ze last hebben van het “proefleidereffect”. Dit zorgt ervoor dat sommige onderzoekers veel meer (of minder) succes boeken dan andere. Vooral de aanwezigheid van skeptici schijnt niet bevorderlijk te zijn voor de resultaten.

Ik wil ook nog iets zeggen over de Ganzfeldexperimenten, want daar is deze discussie mee begonnen. Zoals eerder werd opgemerkt zijn er Nederland meer dan 400 Ganzfeldsessies uitgevoerd. Dat is erg veel als je weet dat men per dag niet meer dan twee sessies kan doen. Wanneer je alle treffers bij elkaar optelt, dan is het resultaat niet significant op 5% niveau. Zie http://www.skepsis.nl/honorton.html

Het lijkt me niet juist om dit debacle toe te schrijven aan het feit dat sommige experimenten niet helemaal “standaard” waren. Neem bijvoorbeeld de succesvolle autoganzfeld-experimenten van Honorton, die Christiaan aanhaalde. Daarbij gebruikte Honorton tijdens 165 sessies foto’s die door een zender werden bekeken, zoals hij eerder ook had gedaan. Ze leverden slechts 27% treffers op. Hij boekte veel meer succes door de foto’s te vervangen door bewegende videobeelden (77 treffers uit 190 sessies = 40%).

Het lijkt me niet zo duidelijk wat we als “standaard” kunnen aanduiden. Parapsychologen probeerden van alles uit om de resultaten te verbeteren. Het was natuurlijk niet de bedoeling dat die steeds geringer zouden worden.

Er zijn allerlei manieren denkbaar om het Ganzfeldeffect sterker te maken. Zo zou je bijvoorbeeld alleen de sessies kunnen tellen waarbij de proefpersonen er van overtuigd zijn dat ze de juiste doelvoorstelling hebben gekozen omdat deze goed aansluit bij hun eerdere ervaringen in het Ganzfeld. Maar helaas blijken de proefpersonen niet van te voren te kunnen bepalen wanneer hun indrukken juist zijn. In de praktijk heb je niet veel aan zo'n 'paranormaal vermogen' dat slechts sporadisch werkt zonder dat je weet wanneer.

Rob

[ Voor 2% gewijzigd door Verwijderd op 04-07-2003 16:05 . Reden: drie typefoutjes zijn gecorrigeerd ]


Acties:
  • 0 Henk 'm!

  • Christiaan
  • Registratie: Maart 2001
  • Laatst online: 09-08-2021
Geen matches
joepP schreef op 04 July 2003 @ 12:20:
Weet je hoe dit heet? Gepast domme blondjes gedrag :)
Kun je dit soort overbodige opmerkingen nou niet gewoon achterwege laten? Je suggereert dat ik hier moedwillig dom blijf. Ik ben bekend met de moeilijkheid van statistiek, en aangezien mijn kennis van de gebruikte methoden nog lang niet voldoende ga ik er vooralsnog niet zelf proberen iets van te maken. Het resultaat zou dan alleen maar zijn dat ik domme dingen ga roepen, en dat is wel domme blondjes gedrag. Ik vertrouw er liever op dat de peer-reviewers van deze onderzoeken, zoals zij zouden moeten doen, de statistische methoden controleren en publicatie weigeren indien de methoden volstrekt foutief toegepast zijn.
Komt dit soort gekunstel niet zeer verdacht op je over? Waarom wordt er gewogen met de positie, waarom niet met de omgekeerde positie? Waarom wordt er uberhaubt geordend? Waarom wordt de meest voor de hand liggende standaardtest niet gebruikt? Waarom worden de resultaten van deze standaardtest niet eens vermeld? Waar is de originele ruwe data van alle tests?
Originele ruwe data staat vrijwel nooit in een paper, zeker niet als zij gepubliceerd wordt. Deze data kun je opvragen bij de parapsychologen in kwestie, en ik zou daar ook naartoe gaan met je vragen over de statistiek. Je kritiek klinkt goed doordacht, maar ik kan niet beoordelen of zij terecht is, of dat jij er volledig naast zit.
Het is misschien een valide methode, maar ik kan wel 1000 valide methodes bedenken. Allicht dat er eentje signifikant is.
Non-parametrische tests worden gebruikt indien men de vorm van de verdeling niet kent. T- en z-tests vereisen beiden bepaalde verdelingen (student en normale verdelingen). Men heeft een dergelijke aanname niet gemaakt en is van het zekere uitgegaan door geen aannames over de verdeling te maken. Dit is helemaal niet zo'n vreemde benadering daar zij vaak gebruikt wordt bij psychologische studies die ook niet weten hoe de vorm van de verdeling ongeveer is.
En wat vinden wetenschappers van uitspraken die totaal niet verifieerbaar zijn? Juist, helemaal niets.
Dit is nonsense. We hebben het hier over een paper die gepubliceerd is. Je kunt per definitie niet gaan controleren of iedere regel in de paper klopt met de waarheid. Dat is een 'probleem' waar iedere paper dan mee kampt, en op basis van je argument kun je dan alle papers die maar geschreven zijn verwerpen omdat je niet bij iedere regel als lezer kunt vaststellen of ze wel of niet nageleeft zijn.
En om op basis van dit soort zeer verdachte experimenten conclusies te trekken dat iemand gebeurtenissen in het verleden kan beinvloeden gaat helemaal te ver. Dat je dat zomaar aanneemt valt me vies van je tegen, waarom zal je niet eerst eens uitgaan van een "iets" waarschijnlijker scenario: a) fouten in de statistiek, b) achteraf pas vaststellen van analyse-methode of c) iets anders?
Het blijft voornamelijk dus bij fraude? Dat is dus de conclusie van deze hele discussie wat jou betreft?
Pagina: 1 2 Laatste