Ik heb een redelijk simpel Python script om beursinformatie op te halen. Ik ben een beginner met Python maar dit loopt prima:
Dit pakt netjes de eerste pagina van de tabel en leest de data uit.van: https://www.guruwatch.nl/adviezen/default.aspx
Als ik, handmatig, op "volgende" klik wordt dit uitgevoerd:
Is er een manier om dit te automatiseren zodat ik alle data uit kan lezen? Ik las dat het wellicht met "Selenium" maar ik begrijp niet helemaal hoe dat in mijn situatie werkt.
Uiteindelijk wil ik het geautomatiseerd gaan draaien vanaf mijn Synology
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen('https://www.guruwatch.nl/adviezen/default.aspx').read() soup = BeautifulSoup(html, 'lxml') table = soup.find('table',{'class':'ContentTable'}) rows = table.find_all('tr') for row in rows: data = row.find_all('td') if (len(data) > 0): cell = data[0] print(cell.text) cell = data[1] print(cell.text) cell = data[2] print(cell.text) cell = data[3] print(cell.text) cell = data[4] print(cell.text) cell = data[5] print(cell.text) |
Dit pakt netjes de eerste pagina van de tabel en leest de data uit.van: https://www.guruwatch.nl/adviezen/default.aspx
Als ik, handmatig, op "volgende" klik wordt dit uitgevoerd:
code:
1
| javascript:__doPostBack('ctl00$ctl00$ContentPlaceHolder1$RightContent$ListAdviezen$cmdNext','') |
Is er een manier om dit te automatiseren zodat ik alle data uit kan lezen? Ik las dat het wellicht met "Selenium" maar ik begrijp niet helemaal hoe dat in mijn situatie werkt.
Uiteindelijk wil ik het geautomatiseerd gaan draaien vanaf mijn Synology