Beste Forummmers,
Ik ben bezig met een applicatie waar ik database technisch mijn bedenkingen bij heb.
Het volgende:
Een applicatie die *.csv files die uit temperatuur loggers komen moet deze in een MySQL database wegschrijven. Het is een tracking systeem voor slecht conserveerbare goederen. Per zending zullen er maximaal 4 loggers mee gaan (deze kunnen op verschillende tijden gestart worden)
Een csv bevat gemiddeld 5000 records (20.000 records per zending dus!) Deze records bestaan uit een datum+tijd en temperatuur. Hieraan moet een het ID van de zending worden toegevoegd zodat de gegevens opzoekbaar zijn in de database en een Logger ID omdat er meerdere metingen van een moment zijn. (deze kunnen ook van verschillende zendingen komen).
De database wordt dus binnen de een korte tijd enorm. En ik heb geen ervaring met deze enorme aantallen van gegevens. In het kort zal MySQL dus moeten filteren op zending ID en dan joinen op de datum+tijd, alleen dit over 20.000 records. Elke dag een aantal keer.
Deze temperatuur gegevens worden daarna weergegeven in grafieken en opnieuw terug in csv's (alleen dan met 1x datum en tijd en 4x temperatuur gejoined dus). Mijn vraag is dus of dit gaat werken en of ik nog iets er aan kan optimaliseren. (Ik zou iets kunnen indexen maar welke? geen van de getallen zijn uniek)
En toen was ik de titel vergeten af te maken
Ik ben bezig met een applicatie waar ik database technisch mijn bedenkingen bij heb.
Het volgende:
Een applicatie die *.csv files die uit temperatuur loggers komen moet deze in een MySQL database wegschrijven. Het is een tracking systeem voor slecht conserveerbare goederen. Per zending zullen er maximaal 4 loggers mee gaan (deze kunnen op verschillende tijden gestart worden)
Een csv bevat gemiddeld 5000 records (20.000 records per zending dus!) Deze records bestaan uit een datum+tijd en temperatuur. Hieraan moet een het ID van de zending worden toegevoegd zodat de gegevens opzoekbaar zijn in de database en een Logger ID omdat er meerdere metingen van een moment zijn. (deze kunnen ook van verschillende zendingen komen).
De database wordt dus binnen de een korte tijd enorm. En ik heb geen ervaring met deze enorme aantallen van gegevens. In het kort zal MySQL dus moeten filteren op zending ID en dan joinen op de datum+tijd, alleen dit over 20.000 records. Elke dag een aantal keer.
Deze temperatuur gegevens worden daarna weergegeven in grafieken en opnieuw terug in csv's (alleen dan met 1x datum en tijd en 4x temperatuur gejoined dus). Mijn vraag is dus of dit gaat werken en of ik nog iets er aan kan optimaliseren. (Ik zou iets kunnen indexen maar welke? geen van de getallen zijn uniek)
En toen was ik de titel vergeten af te maken
[ Voor 6% gewijzigd door 0fbe op 10-02-2007 16:50 ]