Inleidend verhaaltje: Ik ben een student elektrotechniek en we hebben een opdracht gekregen van school om een aantal segways (OSPV van elektor) te gaan modificeren. Deze segways gaan we zo verbouwen dat deze informatie over hun status gaan verzenden naar een centraal punt. Deze informatie is onder andere batterijduur, aantal gereden kilometers. Welke zijn op pad? Etc.
Nou is het plan om deze informatie op een lokaal servertje op te slaan en deze informatie het web op te sturen door middel van een website (website1). Deze lokale server heeft natuurlijk niet veel bandbreedte tot zijn beschikking en daarom wordt dit een mega simpele website.
Daarnaast hebben we een hoofdwebsite die dan de informatie van website 2 moet afhalen. Echter ben ik opzoek gegaan op google hoe je dit kan realiseren. Volgens mij zoek ik fout want ik denk dat het wel bestaat.
Ik heb een aantal vraagjes:
- Is dit een realistisch idee, of moet ik een verbinding naar de host van website 2 maken die daar een database vol gooit met de informatie (heb ik eigenlijk liever maar ik weet niet of dat mogelijk is.)
- Kan een website een andere website soort van crawlen en de informatie opslaan in een database om dat later te verwerken?
- Hebben jullie misschien alternatieven. Het hosten van de hoofdwebsite kan echt niet lokaal en moet extern gebeuren vanwege geplande bezoekers aantallen.
Dit is geen huiswerk opdracht aangezien we geen huiswerk meer hebben
.
Nou is het plan om deze informatie op een lokaal servertje op te slaan en deze informatie het web op te sturen door middel van een website (website1). Deze lokale server heeft natuurlijk niet veel bandbreedte tot zijn beschikking en daarom wordt dit een mega simpele website.
Daarnaast hebben we een hoofdwebsite die dan de informatie van website 2 moet afhalen. Echter ben ik opzoek gegaan op google hoe je dit kan realiseren. Volgens mij zoek ik fout want ik denk dat het wel bestaat.
Ik heb een aantal vraagjes:
- Is dit een realistisch idee, of moet ik een verbinding naar de host van website 2 maken die daar een database vol gooit met de informatie (heb ik eigenlijk liever maar ik weet niet of dat mogelijk is.)
- Kan een website een andere website soort van crawlen en de informatie opslaan in een database om dat later te verwerken?
- Hebben jullie misschien alternatieven. Het hosten van de hoofdwebsite kan echt niet lokaal en moet extern gebeuren vanwege geplande bezoekers aantallen.
Dit is geen huiswerk opdracht aangezien we geen huiswerk meer hebben