Yup, hoewel het met deze snelheden niet heel veel zin meer heeft om over snelheid te praten, daarom wordt de grootheid energie gebruikt (snelheid schaalt niet lineair met energie dankzij de relativiteitstheorie; een verdubbeling in energie levert geen snelheidsverdubbeling op, dit effect wordt sterker naarmate je dichter bij
c komt).
De eerste botsingen zullen onder de 1 TeV (tera-electron-volt, een energie-maat) hebben, de maximale capaciteit van de LHC is 14 TeV, maar het gaat nog meer dan een jaar duren voordat de botsingen op deze energie zitten.
Wat betreft de detectie van nieuwe deeltjes en fenomenen (zwarte gaten). Deze dingen zullen allemaal niet stabiel zijn (want als ze dat wel waren, waren we ze al lang tegengekomen in de natuur als resultaat van atmosferische botsingen). Ze zullen dus vrijwel meteen uitelkaar vallen in allerlei andere deeltjes, die op hun beurt ook weer uit elkaar kunnen vallen. Iedere detector bestaat uit een aantal lagen die gevoelig zijn voor verschillende dingen. Er zijn detectoren die lading oppikken en doorgeven aan de computers. Zo zijn er ook apparaten die de energie van de deeltjes meten.
Al deze informatie wordt vervolgens verwerkt en er wordt geprobeerd om uit deze gegevens te reconstrueren wat er precies gebeurd is. Door de ontzettend hoge hoeveelheid botsingen per seconde en de complexiteit van dit "terugrekenen" is er gigantisch veel computercapaciteit nodig. Hiervoor is een internationale "super grid" van super-computers waarover de data verdeeld wordt.
Grappig om te weten is dat de software die de reconstructie gaat doen een klein geheugenlek had, voor ieder deeltje dat gereconstrueerd wordt zorgde voor een klein lek. Als een zwart gat gecreerd zou worden, zou dit in zoveel deeltjes uiteenvallen, dat de software zou crashen. Dit was dus de detectie-methode voor micro zwarte gaten; Software crashed? Zwart gat!

Helaas (of gelukkig) is dit lek gefixed en moeten ook zwarte gaten op de normale methode gereconstrueerd worden in de software.