ik zette er voor mijn boin-projecten 4 of 5 Os'en en liet ze om de buurt werken.
in vmware workstation 6.* kon ik maximaal 2 van de 4 cores toewijzen aan een virtuele machine en had ik dus een paar dualcores extra.
Eerst de native OS (het echte OS op die pc of verder nOS) op 4 cores de volledige voorraad laten verwerken,
in de laatste uren de eerste virtuele-OS (vOS) opgestart en een voorraad laten binnenhalen en parallel laten werken met die andere BOINC-client. beiden gingen dan wat trager dan anders want die vOS pakte natuurlijk 2 cores af en ging die zwaar proberen te belasten, terwijl de boinc op de nOS nog steeds de 4 cores probeerte te gebruiken. (Daarmee niet direct alles tegelijk wu's laten verwerken)
nadat de BOINC op de nOS alles gedaan had, ging die in pauze: geen netwerkverbinding, geen nieuw werk afhalen en "werk onderbreken".
en kreeg de BOINC op de eerst vOS full access tot zijn 2 cores.
je kan dan eventueel ook de 2de vOS al opstarten en mee laten werken
(en via je takenbeheer die virtuele machine op 2 andere cores toewijzen)
door de overhead van het virtueel zijn verlies je wel wat verwerkingskracht en ga je bv ipv 1u per wu er 1u15 over doen, maar alle beetjes helpen om een schone flush-actie te doen eh.
en met die vOS'en kan je dan telkens de vOS die klaar is in pauze zetten of zelfs stopzetten en de volgende starten zodra er weer een voorraad verwerkt is.
start je alle virutele systemen op en laat je die allemaal BOINC doen op zoveel mogelijk cores als je vritualisatie-programma/-tool je toelaat om toe te kennen per virtuele host, dan krijg je het effect dat je met 1 native OS op een quadcore en bv 5 virtuele hosts en 2 cores per virtuele host je werk voor 1x4 + 5x2 = 14 cores op 4 cores draait, en met alle overhead van de virtualisatie enzo heb je dan zekers niet meer de snelheid die je anders had, en dus ook veel minder credits voor je wu's. wat dan de gehele actie teniet doet.
ps: elke BOINC-client op een vOS wordt gezien als een gewone aparte BOINC-client, dus in je lijst van computers krijg je dan plots wel een paar bij. Ze hebben ook elk hun eigen verwerkingstijd en dus eigen credits per verwerkte wu. Dus als je gaat voor de meeste punten in een bepaalde periode (bv geflushed tijdens de maand december) kan je beter gewoon je standaard BOINC-client laten werken. Ga je echter voor de grootste flush op een bepaalde datum. (bv een eindejaars- of nieuwjaarsflush) dan kan je op deze manier zoveel mogelijk verwerkte wu's in voorraad houden.
wederom: die einddatum van de BOINC op je nOS in het oog houden en zodra die datum heel kortbij is, alle sluizen om buurt opzetten, in dezelfe volorde als je ze telkens hebt opgestart. (zet dan ev. bij elke vOS "geen nieuw werk ophalen" aan.. anders heb je direct terug nieuwe voorraden, wat niet altijd wenselijk is

)
Dit is toch telkens de manier geweest waarop ik een poging deed naar een top5 positie in de megaflush-stand in de projecten waar ik mee doe.
het is me onbekend of ook cuda lukt met virtual pc en/of de nieuwste vmware (7.0) maar dat laat ik graag aan jou over om dat te testen.
je probeert mss ook best voor beiden voor evenveel dagen te krijgen - of toch zeker zoveel mogelijk voor de client op je gewone OS. want daar is de minste overhead en dus de hoogste snelheid.
Moge de flushes die volgen de moeite waard zijn eh
(ps: niet elk boinc-project vind het leuk dat er plots veel wu's achter blijven tot net voor de einddatum om dan de server te overstelpen met alles, of verdelen de wu's over bv 3 of 4 clients waarbij enkel de eerste 2 die overeenkomen punten krijgen)
(ik zette op mijn quadcore dus telkens 2vOS'en tegelijk actief met 2 cores per vOS en in elke client stond buffer en netwerktoegang op 10dagen en dan in het menu: geen netwerkverkeer toestaan ofzo aanvinken want anders flushde die tussentijds alsnog)
[
Voor 19% gewijzigd door
soulrider op 04-12-2009 16:58
]