Hallo fijne Tweakers,
Sinds enige tijd heb ik een bijzonder probleempje met mijn Home Assistant installatie, en ik krijg de vinger maar niet achter wat de oorzaak is.
TL;DR: Vage vertragingen, korte 'hangs' van HASS, netwerk en systeem zelf lijkt in orde
Al vanaf de migratie naar de NAS was het eigenlijk problematisch qua regelmatig meldingen dat de verbinding verbroken was, opvragen van stats (simpelweg klikken op bv. een temperatuursensor om de recente historie te zien) duurde soms >30s, check voor updates zorgde voor een 'verbinding verbroken', automatiseringen (bv. licht aan op basis van bewegingsdetectie) reageerden te laat (loop soms al een halve minuut in de hal voordat het licht aan gaat, dat was altijd instant). Uiteindelijk deze problemen toegeschreven aan de performanceissues van de NAS (CPU stond regelmatig strak op 100%). RPi5 gekocht, SSD en PoE HAT er op, en gaan met die banaan.... dacht ik.
Problemen houden dus nog steeds aan, lijken redelijk random (als in; geen vast patroon, 'soms' is de boel gewoon snel en snappy (zowel in de UI als bv. lichten die reageren op beweging/knoppen), en soms duurt het gewoon 30/40s. Het is enigszins te triggeren door bv. 'intensieve' zaken uit te voeren (check op updates, lange termijn stats opvragen, energiedashboard 1 jaar terug + vergelijking, etc.).
Ik zie ook iedere 6/8 uur de volgende melding, dit is schijnbaar gewoon een health check binnen Home Assistant zelf, maar vermoed dat deze ook tegen een vertraging aanloopt, en daardoor een timeout, en dus daardoor als 'failed login' wordt gerapporteerd. Is nl. gewoon het docker subnetje van HAOS zelf:
2025-01-07 02:20:35.503 WARNING (MainThread) [homeassistant.components.http.ban] Login attempt or request with invalid authentication from supervisor (172.30.32.2). Requested URL: '/api/core/state'. (HomeAssistantSupervisor/2024.12.3 aiohttp/3.11.11 Python/3.12)
Het rare is dat qua verbruik de RPi5 er helemaal geen moeite mee lijkt te hebben, als ik de system monitor stats bekijk komt het geheugengebruik de afgelopen anderhalve maand niet boven de 37,5%, CPU niet boven de 50% (hangt gemiddeld rond de 8%). Disk is net aan 6% vol.
Als ik de database check (via sqlite PRAGMA quick_check & PRAGMA integrity_check & foreign_key_check) ziet dat er ook goed uit, geen errors. Ik heb ook direct lokaal ingelogd op het LAN IP van Home Assistant en bevestigd dat ik daar hetzelfde gedrag zie (om een probleem met Nabu Casa cloud uit te sluiten).
Disk "gecheckt" via dd if=/dev/zero of=/data/testfile bs=1M count=10240 oflag=direct & dd if=/data/testfile of=/dev/null bs=1M count=10240, daar haal ik schrijf snelheden van rond de 360Mb/s en lees van rond de 450Mb/s, lijkt me meer dan voldoende. Als ik ping naar zowel intern als extern (vanaf Hass) zie ik 0% packet loss;
--- 8.8.8.8 ping statistics ---
3781 packets transmitted, 3781 packets received, 0% packet loss
round-trip min/avg/max = 3.506/4.386/10.583 ms
--- 192.168.4.1 ping statistics ---
4935 packets transmitted, 4935 packets received, 0% packet loss
round-trip min/avg/max = 0.257/0.419/16.509 ms
Ook commando's als 'ha core repair' gedraaid, wat succesvol afgerond wordt maar uiteindelijk geen verschil lijkt te maken.
Waarom geen clean install? Er zit nogal wat historie in deze instance, hij draait al jaaaaaren en alhoewel bv. database wel overgezet kan worden ben ik toch wat huiverig om de boel helemaal 'from scratch' weer op te bouwen, met 30+ apparaten in Deconz, 5+ in Z-Wave, redelijk wat automations die op een hoop lopen als entiteiten andere namen krijgen etc. etc. Dus als last resort zou het kunnen, maar dat gaat best ingrijpend en tijdrovend zijn, dus liever probeer ik het te fiksen (maar loop daar dus beetje vast, vandaar dit topic).
- Advanced SSH & Web Terminal
- deCONZ (Conbee II USB Stick)
- Z-Wave JS (Aeon Labs USB Z-Stick GEN5)
- Home Assistant Google Drive Backup (binnenkort niet meer nodig
)
- Mosquitto Broker
- Studio Code Server
Supervisor 2024.12.3
Operating System 14.1
Frontend 20250106.0
1 NIC met auto configure aan (statisch IP ingesteld in Unifi, zowel lokale als 8.8.8.8/1.1.1.1 als DNS geprobeerd).
Die vele PVOutput errors lijkt overigens ook iets van de laatste release te zijn...
2025-01-07 02:20:53.595 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:21:48.704 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:22:43.800 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:23:38.897 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:24:33.993 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:25:40.304 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:25:40.305 WARNING (MainThread) [hass_nabucasa.google_report_state] Connection closed: Cannot write to closing transport
Sinds enige tijd heb ik een bijzonder probleempje met mijn Home Assistant installatie, en ik krijg de vinger maar niet achter wat de oorzaak is.
TL;DR: Vage vertragingen, korte 'hangs' van HASS, netwerk en systeem zelf lijkt in orde
Stukje historie
Home Assistant draaide jaaaaaren stabiel in een VM op ProxMox, is daarna gemigreerd (backup/restore) naar een VM op mijn QNAP NAS (Virtualization Station). Hier was ik niet helemaal tevreden over qua performance (was gewoon too much op een systeem met een dualcore CPU waar ook nog meerdere docker containers draaide) dus vervolgens een RPI5 gekocht met SSD (via PoE/SSD HAT) en wederom de boel overgezet.Al vanaf de migratie naar de NAS was het eigenlijk problematisch qua regelmatig meldingen dat de verbinding verbroken was, opvragen van stats (simpelweg klikken op bv. een temperatuursensor om de recente historie te zien) duurde soms >30s, check voor updates zorgde voor een 'verbinding verbroken', automatiseringen (bv. licht aan op basis van bewegingsdetectie) reageerden te laat (loop soms al een halve minuut in de hal voordat het licht aan gaat, dat was altijd instant). Uiteindelijk deze problemen toegeschreven aan de performanceissues van de NAS (CPU stond regelmatig strak op 100%). RPi5 gekocht, SSD en PoE HAT er op, en gaan met die banaan.... dacht ik.
Problemen houden dus nog steeds aan, lijken redelijk random (als in; geen vast patroon, 'soms' is de boel gewoon snel en snappy (zowel in de UI als bv. lichten die reageren op beweging/knoppen), en soms duurt het gewoon 30/40s. Het is enigszins te triggeren door bv. 'intensieve' zaken uit te voeren (check op updates, lange termijn stats opvragen, energiedashboard 1 jaar terug + vergelijking, etc.).
Ik zie ook iedere 6/8 uur de volgende melding, dit is schijnbaar gewoon een health check binnen Home Assistant zelf, maar vermoed dat deze ook tegen een vertraging aanloopt, en daardoor een timeout, en dus daardoor als 'failed login' wordt gerapporteerd. Is nl. gewoon het docker subnetje van HAOS zelf:
2025-01-07 02:20:35.503 WARNING (MainThread) [homeassistant.components.http.ban] Login attempt or request with invalid authentication from supervisor (172.30.32.2). Requested URL: '/api/core/state'. (HomeAssistantSupervisor/2024.12.3 aiohttp/3.11.11 Python/3.12)
Het rare is dat qua verbruik de RPi5 er helemaal geen moeite mee lijkt te hebben, als ik de system monitor stats bekijk komt het geheugengebruik de afgelopen anderhalve maand niet boven de 37,5%, CPU niet boven de 50% (hangt gemiddeld rond de 8%). Disk is net aan 6% vol.
Wat heb ik al geprobeerd;
Logs naspitten, daar staan wel wat waarschuwingen en foutmeldingen (zie onder), maar het is een beetje lastig oorzaak en gevolg te duiden. Ik heb meerdere integraties uitgeschakeld en/of verwijderd om uit te sluiten dat het daar aan ligt (pvoutput, roborock, google assist). Ook logs nagekeken binnen Unifi, het device behoudt gewoon z'n connectie en ik zie geen firewall/ad/ids/ips-blocks voor het apparaat.Als ik de database check (via sqlite PRAGMA quick_check & PRAGMA integrity_check & foreign_key_check) ziet dat er ook goed uit, geen errors. Ik heb ook direct lokaal ingelogd op het LAN IP van Home Assistant en bevestigd dat ik daar hetzelfde gedrag zie (om een probleem met Nabu Casa cloud uit te sluiten).
Disk "gecheckt" via dd if=/dev/zero of=/data/testfile bs=1M count=10240 oflag=direct & dd if=/data/testfile of=/dev/null bs=1M count=10240, daar haal ik schrijf snelheden van rond de 360Mb/s en lees van rond de 450Mb/s, lijkt me meer dan voldoende. Als ik ping naar zowel intern als extern (vanaf Hass) zie ik 0% packet loss;
--- 8.8.8.8 ping statistics ---
3781 packets transmitted, 3781 packets received, 0% packet loss
round-trip min/avg/max = 3.506/4.386/10.583 ms
--- 192.168.4.1 ping statistics ---
4935 packets transmitted, 4935 packets received, 0% packet loss
round-trip min/avg/max = 0.257/0.419/16.509 ms
Ook commando's als 'ha core repair' gedraaid, wat succesvol afgerond wordt maar uiteindelijk geen verschil lijkt te maken.
Waarom geen clean install? Er zit nogal wat historie in deze instance, hij draait al jaaaaaren en alhoewel bv. database wel overgezet kan worden ben ik toch wat huiverig om de boel helemaal 'from scratch' weer op te bouwen, met 30+ apparaten in Deconz, 5+ in Z-Wave, redelijk wat automations die op een hoop lopen als entiteiten andere namen krijgen etc. etc. Dus als last resort zou het kunnen, maar dat gaat best ingrijpend en tijdrovend zijn, dus liever probeer ik het te fiksen (maar loop daar dus beetje vast, vandaar dit topic).
Add-ons die ik gebruik:
- Afvalbeheer (custom component)- Advanced SSH & Web Terminal
- deCONZ (Conbee II USB Stick)
- Z-Wave JS (Aeon Labs USB Z-Stick GEN5)
- Home Assistant Google Drive Backup (binnenkort niet meer nodig
- Mosquitto Broker
- Studio Code Server
Installatiedetails:
Core 2025.1.1Supervisor 2024.12.3
Operating System 14.1
Frontend 20250106.0
1 NIC met auto configure aan (statisch IP ingesteld in Unifi, zowel lokale als 8.8.8.8/1.1.1.1 als DNS geprobeerd).
Logs:
Core:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
| 2025-01-07 13:20:59.564 WARNING (MainThread) [homeassistant.helpers.entity] Update of sensor.naar_werk is taking over 10 seconds 2025-01-07 14:01:02.395 ERROR (MainThread) [homeassistant.components.roborock.coordinator] Error fetching roborock data: id=20980 Timeout after 4 seconds 2025-01-07 14:12:52.659 WARNING (MainThread) [homeassistant.helpers.entity] Update of switch.wol_desktop is taking over 10 seconds 2025-01-07 14:30:36.767 ERROR (MainThread) [homeassistant.components.uptimerobot] Error fetching uptimerobot data: Request timeout for 'https://api.uptimerobot.com/v2/getMonitors' 2025-01-07 15:05:12.865 ERROR (MainThread) [homeassistant.components.uptimerobot] Error fetching uptimerobot data: Request for 'https://api.uptimerobot.com/v2/getMonitors' failed with status code '502' 2025-01-07 15:11:07.995 ERROR (MainThread) [homeassistant.components.pvoutput] Unexpected error fetching pvoutput data Traceback (most recent call last): File "/usr/local/lib/python3.13/site-packages/pvo/pvoutput.py", line 83, in _request response = await self.session.request( ^^^^^^^^^^^^^^^^^^^^^^^^^^^ ...<4 lines>... ) ^ File "/usr/local/lib/python3.13/site-packages/aiohttp/client.py", line 730, in _request await resp.start(conn) File "/usr/local/lib/python3.13/site-packages/aiohttp/client_reqrep.py", line 1059, in start message, payload = await protocol.read() # type: ignore[union-attr] ^^^^^^^^^^^^^^^^^^^^^ File "/usr/local/lib/python3.13/site-packages/aiohttp/streams.py", line 671, in read await self._waiter asyncio.exceptions.CancelledError The above exception was the direct cause of the following exception: Traceback (most recent call last): File "/usr/local/lib/python3.13/site-packages/pvo/pvoutput.py", line 82, in _request async with asyncio.timeout(self.request_timeout): ~~~~~~~~~~~~~~~^^^^^^^^^^^^^^^^^^^^^^ File "/usr/local/lib/python3.13/asyncio/timeouts.py", line 116, in __aexit__ raise TimeoutError from exc_val TimeoutError The above exception was the direct cause of the following exception: Traceback (most recent call last): File "/usr/src/homeassistant/homeassistant/helpers/update_coordinator.py", line 379, in _async_refresh self.data = await self._async_update_data() ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/usr/src/homeassistant/homeassistant/components/pvoutput/coordinator.py", line 36, in _async_update_data return await self.pvoutput.status() ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/usr/local/lib/python3.13/site-packages/pvo/pvoutput.py", line 116, in status data = await self._request("getstatus.jsp") ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/usr/local/lib/python3.13/site-packages/pvo/pvoutput.py", line 92, in _request raise PVOutputConnectionError(msg) from exception pvo.exceptions.PVOutputConnectionError: Timeout occurred while connecting to the PVOutput API ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) ("'NoneType' object is not subscriptable",) |
Die vele PVOutput errors lijkt overigens ook iets van de laatste release te zijn...

Supervisor:
2025-01-07 02:20:35.503 WARNING (MainThread) [homeassistant.components.http.ban] Login attempt or request with invalid authentication from supervisor (172.30.32.2). Requested URL: '/api/core/state'. (HomeAssistantSupervisor/2024.12.3 aiohttp/3.11.11 Python/3.12)2025-01-07 02:20:53.595 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:21:48.704 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:22:43.800 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:23:38.897 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:24:33.993 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:25:40.304 INFO (MainThread) [hass_nabucasa.google_report_state] Timeout while waiting to receive message
2025-01-07 02:25:40.305 WARNING (MainThread) [hass_nabucasa.google_report_state] Connection closed: Cannot write to closing transport
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| 2025-01-07 15:03:12.024 INFO (MainThread) [supervisor.resolution.check] System checks complete 2025-01-07 15:03:12.024 INFO (MainThread) [supervisor.resolution.evaluate] Starting system evaluation with state running 2025-01-07 15:03:12.100 INFO (MainThread) [supervisor.resolution.evaluate] System evaluation complete 2025-01-07 15:03:12.100 INFO (MainThread) [supervisor.resolution.fixup] Starting system autofix at state running 2025-01-07 15:03:12.100 INFO (MainThread) [supervisor.resolution.fixup] System autofix complete 2025-01-07 15:03:28.255 INFO (MainThread) [supervisor.store.git] Update add-on https://github.com/music-assistant/home-assistant-addon repository 2025-01-07 15:03:28.264 INFO (MainThread) [supervisor.store.git] Update add-on https://github.com/esphome/home-assistant-addon repository 2025-01-07 15:03:28.267 INFO (MainThread) [supervisor.store.git] Update add-on https://github.com/home-assistant/addons repository 2025-01-07 15:03:28.271 INFO (MainThread) [supervisor.store.git] Update add-on https://github.com/sabeechen/hassio-google-drive-backup repository 2025-01-07 15:03:28.283 INFO (MainThread) [supervisor.store.git] Update add-on https://github.com/hassio-addons/repository repository 2025-01-07 15:03:29.306 INFO (MainThread) [supervisor.store] Loading add-ons from store: 81 all - 0 new - 0 remove 2025-01-07 15:03:29.307 INFO (MainThread) [supervisor.store] Loading add-ons from store: 81 all - 0 new - 0 remove 2025-01-07 15:16:01.722 INFO (MainThread) [supervisor.auth] Auth request from 'core_mosquitto' for 'shelly_afvoer' 2025-01-07 15:16:08.590 INFO (MainThread) [supervisor.auth] Auth request from 'core_mosquitto' for 'shelly_afvoer' 2025-01-07 15:16:14.145 INFO (MainThread) [supervisor.auth] Successful login for 'shelly_afvoer' 2025-01-07 15:16:17.773 INFO (MainThread) [supervisor.auth] Auth request from 'core_mosquitto' for 'shelly_afvoer' 2025-01-07 15:16:18.070 INFO (MainThread) [supervisor.auth] Successful login for 'shelly_afvoer' |
Host:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
| 2025-01-07 11:46:24.451 homeassistant NetworkManager[508]: <info> [1736250384.4509] dhcp4 (end0): state changed new lease, address=192.168.2.150 2025-01-07 11:46:24.498 homeassistant systemd[1]: Starting Network Manager Script Dispatcher Service... 2025-01-07 11:46:24.509 homeassistant systemd[1]: Started Network Manager Script Dispatcher Service. 2025-01-07 11:46:34.525 homeassistant systemd[1]: NetworkManager-dispatcher.service: Deactivated successfully. 2025-01-07 12:43:17.758 homeassistant kernel: kauditd_printk_skb: 6 callbacks suppressed 2025-01-07 12:43:17.758 homeassistant kernel: audit: type=1334 audit(1736253797.753:1539): prog-id=452 op=LOAD 2025-01-07 12:43:17.758 homeassistant kernel: audit: type=1334 audit(1736253797.753:1540): prog-id=453 op=LOAD 2025-01-07 12:43:17.758 homeassistant kernel: audit: type=1334 audit(1736253797.753:1541): prog-id=454 op=LOAD 2025-01-07 12:43:17.774 homeassistant systemd[1]: Starting Hostname Service... 2025-01-07 12:43:17.922 homeassistant systemd[1]: Started Hostname Service. 2025-01-07 12:43:17.930 homeassistant kernel: audit: type=1334 audit(1736253797.925:1542): prog-id=455 op=LOAD 2025-01-07 12:43:17.934 homeassistant kernel: audit: type=1334 audit(1736253797.929:1543): prog-id=456 op=LOAD 2025-01-07 12:43:17.934 homeassistant kernel: audit: type=1334 audit(1736253797.929:1544): prog-id=457 op=LOAD 2025-01-07 12:43:17.950 homeassistant systemd[1]: Starting Time & Date Service... 2025-01-07 12:43:18.073 homeassistant systemd[1]: Started Time & Date Service. 2025-01-07 12:43:18.083 homeassistant rauc[1491324]: tryboot get-state A 2025-01-07 12:43:18.083 homeassistant rauc[1491324]: returning good 2025-01-07 12:43:18.085 homeassistant rauc[1491326]: tryboot get-state B 2025-01-07 12:43:18.085 homeassistant rauc[1491326]: returning good 2025-01-07 12:43:47.952 homeassistant systemd[1]: systemd-hostnamed.service: Deactivated successfully. 2025-01-07 12:43:48.062 homeassistant kernel: audit: type=1334 audit(1736253828.057:1545): prog-id=454 op=UNLOAD 2025-01-07 12:43:48.062 homeassistant kernel: audit: type=1334 audit(1736253828.057:1546): prog-id=453 op=UNLOAD 2025-01-07 12:43:48.062 homeassistant kernel: audit: type=1334 audit(1736253828.057:1547): prog-id=452 op=UNLOAD 2025-01-07 12:43:48.108 homeassistant systemd[1]: systemd-timedated.service: Deactivated successfully. 2025-01-07 12:43:48.134 homeassistant kernel: audit: type=1334 audit(1736253828.129:1548): prog-id=457 op=UNLOAD 2025-01-07 12:43:48.134 homeassistant kernel: audit: type=1334 audit(1736253828.129:1549): prog-id=456 op=UNLOAD 2025-01-07 12:43:48.134 homeassistant kernel: audit: type=1334 audit(1736253828.129:1550): prog-id=455 op=UNLOAD 2025-01-07 13:44:24.054 homeassistant kernel: audit: type=1334 audit(1736257464.047:1551): prog-id=458 op=LOAD 2025-01-07 13:44:24.065 homeassistant systemd-timesyncd[592]: Network configuration changed, trying to establish connection. 2025-01-07 13:44:24.086 homeassistant systemd-timesyncd[592]: Contacted time server 162.159.200.1:123 (time.cloudflare.com). 2025-01-07 13:44:24.086 homeassistant systemd[1]: Started Journal Gateway Service. |
DNS:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
| ERROR] plugin/errors: 2 mqtt-eu.roborock.com. AAAA: read udp 127.0.0.1:35743->127.0.0.1:5553: i/o timeout [INFO] 127.0.0.1:34919 - 57465 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000056834s [INFO] 127.0.0.1:49552 - 26622 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000103722s [INFO] 127.0.0.1:33132 - 28284 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000112778s [INFO] 127.0.0.1:42732 - 23838 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000102278s [INFO] 127.0.0.1:45611 - 36106 "A IN m1.tuyaeu.com. udp 31 false 512" - - 0 9.702648437s [ERROR] plugin/errors: 2 m1.tuyaeu.com. A: dial tcp 1.0.0.1:853: i/o timeout [INFO] 127.0.0.1:36576 - 15034 "AAAA IN m1.tuyaeu.com. udp 31 false 512" - - 0 8.701264665s [ERROR] plugin/errors: 2 m1.tuyaeu.com. AAAA: dial tcp 1.0.0.1:853: i/o timeout [INFO] 127.0.0.1:49669 - 35510 "AAAA IN eu-central-1-11.ui.nabu.casa. udp 46 false 512" - - 0 5.99174762s [ERROR] plugin/errors: 2 eu-central-1-11.ui.nabu.casa. AAAA: dial tcp 1.1.1.1:853: i/o timeout [INFO] 127.0.0.1:37339 - 35700 "AAAA IN api.uptimerobot.com. udp 37 false 512" - - 0 5.991265767s [ERROR] plugin/errors: 2 api.uptimerobot.com. AAAA: dial tcp 1.1.1.1:853: i/o timeout [INFO] 127.0.0.1:43342 - 11103 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000155556s [INFO] 127.0.0.1:54468 - 17018 "A IN m1.tuyaeu.com. udp 31 false 512" - - 0 9.703084049s [ERROR] plugin/errors: 2 m1.tuyaeu.com. A: dial tcp 1.1.1.1:853: i/o timeout [INFO] 127.0.0.1:49790 - 4985 "AAAA IN m1.tuyaeu.com. udp 31 false 512" - - 0 10.704767137s [ERROR] plugin/errors: 2 m1.tuyaeu.com. AAAA: dial tcp 1.1.1.1:853: i/o timeout [INFO] 127.0.0.1:50816 - 31755 "NS IN . udp 17 false 512" REFUSED qr,aa,rd 17 0.000081463s s6-rc: info: service s6rc-oneshot-runner: starting s6-rc: info: service s6rc-oneshot-runner successfully started s6-rc: info: service fix-attrs: starting s6-rc: info: service fix-attrs successfully started s6-rc: info: service legacy-cont-init: starting cont-init: info: running /etc/cont-init.d/corefile.sh cont-init: info: /etc/cont-init.d/corefile.sh exited 0 s6-rc: info: service legacy-cont-init successfully started s6-rc: info: service legacy-services: starting services-up: info: copying legacy longrun coredns (no readiness notification) s6-rc: info: service legacy-services successfully started .:53 .:5553 CoreDNS-1.11.4 linux/arm64, go1.23.3, 6e11ebd-dirty [INFO] 127.0.0.1:45163 - 45873 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.000136437s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s [INFO] 127.0.0.1:46213 - 26231 "HINFO IN 4899785068415712820.2005835029820177576. udp 57 false 512" REFUSED qr,aa,rd 57 0.319950177s |