Waarschuuwing:
Heb je geen zin om te lezen, scroll naar beneden voor de pics
Het id:
Simpel gezegt veel CPU's die dedicated een Distributed Computing project draaien.
Het liefst tegen de zo laag mogelijke kosten, of we daarin geslaagd zijn....?
Waarom:
Tja wat kan ik zeggen...voor de lol en de stats
Wie we zijn:
Broer en Spamlame, twee collega's/ vrienden en beide lid (vanaf morgen [DPC] Team Unimatrix One) van [DPC]. Ik (Spamlame) zat al met het id van een crackrack te spelen toen ik een jaar RC5-64 deed. Wat ik me kan herinneren was dit een jaar of 2/3 geleden. Op de fora van Anandtech werd er veel over gesproken en in mindere mate ook hier op GOT. Naarmate de tijd verstreek is het id wat verwatert....
Toen kwam RC5-72:
Broer had ik inmiddels ook aan de RC5-64 gekregen en attendeerde mij op RC5-72.
Dus van OGR naar RC5-72 overgestapt en met hem het id van een crackrack voor RC5-72 besproken.
Begin 2003 de website van jobnegotiator gevonden. Deze deed mij enthousiastme om "zo'n ding" te bouwen oplaaien, gelukkig kon ik Broer ook zo "gek" krijgen om mee te doen.
De geschiedenis (mijlpalen, perikelen en andere meuk) van begin 2003 tot juli zal ik hier niet posten. Liefhebbers kunnen deze link naar ons logboek volgen.
Komen we bij de hardware:
Momenteel draait het rack op 13 nodes + de server.
Ons rack bied nog plaats voor nog 1 node.
De nodes zijn gebaseerd op ECS moederborden, deze zijn niet al te prijzig en doen het best goed.
CPU's zijn XP's van AMD, deze bieden niet de beste prijs/ prestatie verhouding.
Dat was ten tijde van de berekeningen de Duron. Door de XP's te gebruiken,
zijn de totale kosten helaas met 1/4 gestegen.
De meeste voedingen zijn 235 Watt, 2 bieden wat meer nl. 300.
235 Watt is voldoende, er zijn immers geen HD's of GF4's aangesloten.
12 nodes draaien op een K7VMM+ (vid,nic o.b.), hierop huist een XP2000 aangevuld met een reepje 128 mb PC133 + FDD's
1 node doet zijn best op een L7VMM, hier is een XP1700 aanwezig met 256 mb DDR
De server moet het doen met een K7S5A + XP1800 en 128 Mb PC133. Tevens is dit de enige met een HD (4.3 Gb).
Als OS is de keuze op FreeBSD 4.7 gevallen. Broer had hier nl. de meeste ervaring mee. Oorspronkelijk was het de bedoeling dat alles middels PXE boot voorzien werd van de images. De L7VMM die we als testbord gebruikt hebben, kan dat als enige, de rest van de nodes worden geboot van een floppy met etherboot
Alle nodes gebruiken de zelfde images, tijdens de boot worden deze in de RAM geplaats. Filesystemen die nodig zijn voor boot worden in een RAM-disk gezet.
Overige filesystemen die nodig zijn, zijn middels NFS beschikbaar vanaf de server.
Oa de D.net client staat op een van de NFS's.
Hierdoor is het noodzakelijk dat deze zo ingericht is dat de buffers in geheugen worden bewaard. Gevolg is dat werk verloren gaat als een van de nodes crasht, om dit op te vangen is de buffer-groote ingestelt op 1 WU.
Het netwerk is een oude 3Com SS2 1100 switch.
Deze heeft 24 10Mbit port + 2 op 100
De nodes zitten op 10Mbit, terwijl de server op 100Mbit zit.
Netwerk statistieken zijn hier te vinden.
Todo:
Mosix clustering software installeren (OS word dan hoogtswaarschijnlijk een Linux smaak).
Controle of de nodes en server nog beschikbaar zijn > zo niet, automagisch reset van het bord.
Evnt. standby server
PerProxy op Locutus
Aanpassing installatie handleiding
Kabels netjes wegwerken
Verdere uitbreiding....
verders
ATM wordt het rack door de PerProxy van Broer gevoed.
Deze wijst weer naar mij. Links naar de stats van beide proxies hieronder:
Broer (eigen + het rack) : klik
Spamlame (eigen + Broer = totaal) : klik
Output van het rack ligt op ongv. 1400 WU's/dag. Met de rest erbij zitten we als team op 2000 WU's/dag. Minder dan de meeste teams hier, maar genoeg om de daily's te halen
Zo een flinke lap text, NU een paar foto's.
Klik voor fotogallery
nodetestopstelling (met disk zodat ie toch nog nuttig is)

mobo dozen

10 xp 2000's

complete rack achterkant

complete rack voorkant

Klik voor fotogallery
Reakties zijn welkom
Heb je geen zin om te lezen, scroll naar beneden voor de pics
Het id:
Simpel gezegt veel CPU's die dedicated een Distributed Computing project draaien.
Het liefst tegen de zo laag mogelijke kosten, of we daarin geslaagd zijn....?
Waarom:
Tja wat kan ik zeggen...voor de lol en de stats
Wie we zijn:
Broer en Spamlame, twee collega's/ vrienden en beide lid (vanaf morgen [DPC] Team Unimatrix One) van [DPC]. Ik (Spamlame) zat al met het id van een crackrack te spelen toen ik een jaar RC5-64 deed. Wat ik me kan herinneren was dit een jaar of 2/3 geleden. Op de fora van Anandtech werd er veel over gesproken en in mindere mate ook hier op GOT. Naarmate de tijd verstreek is het id wat verwatert....
Toen kwam RC5-72:
Broer had ik inmiddels ook aan de RC5-64 gekregen en attendeerde mij op RC5-72.
Dus van OGR naar RC5-72 overgestapt en met hem het id van een crackrack voor RC5-72 besproken.
Begin 2003 de website van jobnegotiator gevonden. Deze deed mij enthousiastme om "zo'n ding" te bouwen oplaaien, gelukkig kon ik Broer ook zo "gek" krijgen om mee te doen.
De geschiedenis (mijlpalen, perikelen en andere meuk) van begin 2003 tot juli zal ik hier niet posten. Liefhebbers kunnen deze link naar ons logboek volgen.
Komen we bij de hardware:
Momenteel draait het rack op 13 nodes + de server.
Ons rack bied nog plaats voor nog 1 node.
De nodes zijn gebaseerd op ECS moederborden, deze zijn niet al te prijzig en doen het best goed.
CPU's zijn XP's van AMD, deze bieden niet de beste prijs/ prestatie verhouding.
Dat was ten tijde van de berekeningen de Duron. Door de XP's te gebruiken,
zijn de totale kosten helaas met 1/4 gestegen.
De meeste voedingen zijn 235 Watt, 2 bieden wat meer nl. 300.
235 Watt is voldoende, er zijn immers geen HD's of GF4's aangesloten.
12 nodes draaien op een K7VMM+ (vid,nic o.b.), hierop huist een XP2000 aangevuld met een reepje 128 mb PC133 + FDD's
1 node doet zijn best op een L7VMM, hier is een XP1700 aanwezig met 256 mb DDR
De server moet het doen met een K7S5A + XP1800 en 128 Mb PC133. Tevens is dit de enige met een HD (4.3 Gb).
Als OS is de keuze op FreeBSD 4.7 gevallen. Broer had hier nl. de meeste ervaring mee. Oorspronkelijk was het de bedoeling dat alles middels PXE boot voorzien werd van de images. De L7VMM die we als testbord gebruikt hebben, kan dat als enige, de rest van de nodes worden geboot van een floppy met etherboot
Alle nodes gebruiken de zelfde images, tijdens de boot worden deze in de RAM geplaats. Filesystemen die nodig zijn voor boot worden in een RAM-disk gezet.
Overige filesystemen die nodig zijn, zijn middels NFS beschikbaar vanaf de server.
Oa de D.net client staat op een van de NFS's.
Hierdoor is het noodzakelijk dat deze zo ingericht is dat de buffers in geheugen worden bewaard. Gevolg is dat werk verloren gaat als een van de nodes crasht, om dit op te vangen is de buffer-groote ingestelt op 1 WU.
Het netwerk is een oude 3Com SS2 1100 switch.
Deze heeft 24 10Mbit port + 2 op 100
De nodes zitten op 10Mbit, terwijl de server op 100Mbit zit.
Netwerk statistieken zijn hier te vinden.
Todo:
Mosix clustering software installeren (OS word dan hoogtswaarschijnlijk een Linux smaak).
Controle of de nodes en server nog beschikbaar zijn > zo niet, automagisch reset van het bord.
Evnt. standby server
PerProxy op Locutus
Aanpassing installatie handleiding
Kabels netjes wegwerken
Verdere uitbreiding....
verders
ATM wordt het rack door de PerProxy van Broer gevoed.
Deze wijst weer naar mij. Links naar de stats van beide proxies hieronder:
Broer (eigen + het rack) : klik
Spamlame (eigen + Broer = totaal) : klik
Output van het rack ligt op ongv. 1400 WU's/dag. Met de rest erbij zitten we als team op 2000 WU's/dag. Minder dan de meeste teams hier, maar genoeg om de daily's te halen
Zo een flinke lap text, NU een paar foto's.
Klik voor fotogallery
nodetestopstelling (met disk zodat ie toch nog nuttig is)
mobo dozen
10 xp 2000's
complete rack achterkant
complete rack voorkant
Klik voor fotogallery
Reakties zijn welkom