De waarden waren gewoon verzonnen, maar zijn ook weer niet zo verrassend uit of sync. Het gaat hier om 6000 features op een ruimte van minder dan 1 bij 1 cm, wiens fluorescentie worden gemeten bij 635 en 532 nm. Een overlay van 635 (rood) en 532 (groen) ziet er ongeveer zo uit:Verwijderd schreef op zondag 16 maart 2008 @ 13:12:
[...]
Om hier even inhoudelijk op in te gaan: je bedoelt dus trends in (de gemiddelden van de ratio per ID voor) de verschillende experimenten / vergelijkingen?
Want per experiment heb je natuurlijk ook al meerdere waarden van de ratio per ID. Wat is de reden hierachter? Is dat dat de ratio's per experiment statistisch meer verantwoord zijn?
Ik weet namelijk niet of je "reele" data gegeven hebt, maar als dit het geval is dan vind ik de verschillen in de uitkomsten binnen 1 experiment wel erg groot...
. Een rode spot is er eentje waar veel meer 635 signaal is, geel is vergelijkbaar signaal, groen is meer 532 signaal. De getallen zijn een interpretatie van de helderheid van de spot in het specifieke kanaal, de ratio is vergelijkbaar met de kleuring.
Wij hebben triplo features van alles waarin we geinteresseerd zijn, verspreid over de chip, zodat we inderdaad een statistische evaluatie kunnen laten doen hoeveel we de data vertrouwen. Ook kan het wel eens zijn dat een deel van de array niet goed gegaan is, en dan heb je toch nog kans een deel van (dure!) array te gebruiken. Ter inschatting, zo'n slide met 2 arrays kost al iets van 200 euro, exclusief verbruiksgoederen voor het werk. Een enkel experiment zal al snel naar de 500-600 euro gaan, dus je wilt de data wel kunnen vertrouwen! Maar goed, dit is meer als achtergrond van het rekenwerk bedoeld
Ik heb trouwens de formule:
{=average(if(A:A="Cj1530",C:C)) - average(if(D:D="Cj1530",F:F))}
eens geprobeerd (exclusief de {} natuurlijk
I had a decent lunch, and I'm feeling quite amiable. That's why you're still alive.