1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
| alias: PompUit description: Verwarmen Blokkeren Itho trigger: - platform: state entity_id: - input_boolean.emergency_heat_block from: "off" to: "on" condition: - condition: and conditions: - condition: state state: "on" entity_id: input_boolean.emergency_heat_block - condition: state entity_id: schedule.pomp_schedule state: "on" enabled: true action: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":1, "manual_operation_dryrun":false } enabled: true - delay: hours: 0 minutes: 45 seconds: 0 milliseconds: 0 enabled: true - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":0, "manual_operation_dryrun":false } enabled: true - service: input_boolean.turn_off metadata: {} data: {} target: entity_id: input_boolean.emergency_heat_block mode: single |
Als de conditie van de scheduler namelijk niet "on" maar "off" is ten tijde van de trigger wil ik dat hij de boolean emergency_heat_block ook weer naar "off" zet.
Let op dat de ZBDongle-E nog altijd experimental is met Z2M, dus random issues zijn mogelijk.ocf81 schreef op maandag 5 februari 2024 @ 16:10:
[...]
Z2M met een SONOFF Zigbee 3.0 USB Dongle Plus-E aan een verlengsnoer van ca 1m. Ik zal eens kijken of ik een trace terug kan vinden in de logs.
De ZBDongle-P is een van de preferred sticks voor Z2M.
Overigens zijn mijn ervaringen met de ZBDongle-P ook voor ZHA veel stabieler dan met de ZBDongle-E die ik eerst voor ZHA gebruikte. Dus heb nu twee ZBDongle-P in gebruik aan een 1,5m USB2 verlengkabel per dongle.
Sindsdien 100% stabiel.
En nog wat om rekening mee te houden:
- Conditions zijn standaard AND dus hoef je niet nogmaals te doen.
- Delays overleven een reload van automations fo een herstart van HA niet. Dus dan zou de tweede MQTT + turn_off niet gebeuren.
De tweede AND maakt hij zelf, ik zal het eruit halen.Septillion schreef op maandag 5 februari 2024 @ 19:39:
@GeeMoney Ja, maar waar wil je nu op checken dan? Wat je nu als condities hebt?
En nog wat om rekening mee te houden:
- Conditions zijn standaard AND dus hoef je niet nogmaals te doen.
- Delays overleven een reload van automations fo een herstart van HA niet. Dus dan zou de tweede MQTT + turn_off niet gebeuren.
Het is via de webUI mogelijk om de boolean emergency_heat_block van off naar on te zetten, dan gaat deze automation dus lopen en controleert of de 2 condities waar zijn.
Als 1 van die twee condities niet waar is dan breekt hij nu af maar de boolean emergency_heat_block blijft evengoed op ON staan. Ik wil dat hij dat dus ook weer terug naar OFF zet omdat de automation niet gelopen heeft.
Ik weet dat een Delay niet overleeft maar het betreft een Delay van 45 minuten die zelden getriggered zal worden en ik heb op de pomp een override dat welke manuele setting er ook gedaan is hij deze ongedaan maakt na 2 uur. Dus dat is geen probleem.
Overigens had ik dus in Fibaro een API call gemaakt welke een disabled automation kon triggeren en dus ook ging lopen, is dat normaal ? (ook gek dat hij trouwens niet laat zien hoe die automation getriggered is, via api call had namelijk in 2 tellen duidelijkheid gegeven
[ Voor 22% gewijzigd door GeeMoney op 05-02-2024 19:49 ]
Dankje, ik weet even niet welk bericht je op reageert, maar ik gebruik een samsung galaxy tab A8
Dit in combinatie met een beweging sensor die via zigbee met home assistant verbind.
Automatie daarvoor is :
trigger, sensor detecteert beweging
Actie, notificatie sturen naar tablet, message: command_screen_on
Je kan de beweging sensor van de tablet gebruiken, maar ik zelf vond die slecht reageren. pas erg dichtbij.
Ieder zijn voorkeur, maar die beweging sensoren die geen dieren oppikken, die werken heeel goed.
Hoewel ze soms wel katten oppikken. maar qua snelheid van automaties zijn ze erg goed.
Die bolletjes met lichtsensor er ook in, werken voor geen meter.
Mocht je meer willlen weten kanje altijd berichten, ik ben alleen niet altijd op dit forum.
Anders even zoeken naar command_screen_on , dan kan je veel vinden.
Ik heb meer op forums gereageerd hierover, ook HA community.
Let ook op dat je zorgt dat je tablet slaapstanden zoveel mogelijk uit staan, hier zijn ook sites van die uitleggen hoe dat moet, al moet je soms een beetje vogelen en uitproberen omdat het per elke telefoon/tablet toch weer een beetje anders werkt.
Kan je uitleggen hoe dat werkt? Ik heb een Solaredge (2021 gekocht) en via Modbus TCP haal ik lokaal de data op. Ik moet er wel bij zeggen dat ik meteen na installatie de connectie heb opengesteld en daarna via een blokkade in de firewall voorkom dat een update wordt gedraaid die deze modbus connectie weer ongedaan maakt of andere Amerikaanse firmware ongein. Dus moet ik toch een firmware draaien? Kan ik dan nog wel bij mijn modbus?belly89 schreef op maandag 5 februari 2024 @ 15:12:
[...]
Solaredge local heeft ook een optie om de teruglevering terug te schroeven/uit te zetten.
Ah, ja. Dan zou je de condities in een IF in je acties kunnen zetten.GeeMoney schreef op maandag 5 februari 2024 @ 19:46:
Het is via de webUI mogelijk om de boolean emergency_heat_block van off naar on te zetten, dan gaat deze automation dus lopen en controleert of de 2 condities waar zijn.
Als 1 van die twee condities niet waar is dan breekt hij nu af maar de boolean emergency_heat_block blijft evengoed op ON staan. Ik wil dat hij dat dus ook weer terug naar OFF zet omdat de automation niet gelopen heeft.
Maar dan staat je helper dus fout. Andere kant, zonder feedback van je WP is die kans gewoon groot.Ik weet dat een Delay niet overleeft maar het betreft een Delay van 45 minuten die zelden getriggered zal worden en ik heb op de pomp een override dat welke manuele setting er ook gedaan is hij deze ongedaan maakt na 2 uur. Dus dat is geen probleem.
Ik snap even niet wat je hier gedaan hebt maar kan aan mijn gebrek van Fibaro liggen...Overigens had ik dus in Fibaro een API call gemaakt welke een disabled automation kon triggeren en dus ook ging lopen, is dat normaal ? (ook gek dat hij trouwens niet laat zien hoe die automation getriggered is, via api call had namelijk in 2 tellen duidelijkheid gegeven)
Even zelf mee zitten spelen en zou ik er denk ik (als ik het een automation zou laten) van maken:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
| alias: Pomp vanaf helper description: Verwarmen Blokkeren Itho trigger: - platform: state entity_id: - input_boolean.emergency_heat_block to: "on" id: to on - platform: state entity_id: - input_boolean.emergency_heat_block to: "on" for: hours: 0 minutes: 45 seconds: 0 id: to off - platform: state entity_id: - input_boolean.emergency_heat_block to: "off" id: to off condition: [] action: - if: - condition: trigger id: - to on - condition: state entity_id: schedule.pomp_schedule state: "on" enabled: true then: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":1, "manual_operation_dryrun":false } enabled: true else: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":0, "manual_operation_dryrun":false } enabled: true - service: input_boolean.turn_off metadata: {} data: {} target: entity_id: input_boolean.emergency_heat_block mode: single max_exceeded: silent |
[ Voor 4% gewijzigd door Septillion op 05-02-2024 20:19 ]
Je kan het nog anders oplossen (zoals zoveel dingen in HA zijn er veel mogelijkheden). Dan hoef je geen trigger ID’s in te stellen, maar dan leest hij de Friendly Name uit. Overigens kan ik ook aanraden om platform state te gebruiken i.p.v. platform device voor de triggers.QempZoR schreef op maandag 5 februari 2024 @ 18:21:
[...]
Thanks heren! De Trigger ID's was het duwtje in de juiste richting![]()
Met onderstaande YAML ben ik eruit gekomen en werkt het zoals ik zou willen
Het device_id en entity_id zijn namelijk random en als je een apparaat opnieuw zou pairen of door een integratie van ID veranderd, zijn al je automatiseringen kapot bij een reboot… (al meegemaakt).
Gebruik nu enkel state triggers om dit te voorkomen, dan hoeft enkel het entitiy id gelijk te zijn en die kan je makkelijk zelf instellen. Ook als je apparaat A vervangt voor B en je geeft B dezelfde entiteit, dan werkt je automation direct.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
| alias: Alarm - Smoke description: "" trigger: - platform: state entity_id: - binary_sensor.entree_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.gang_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.gameroom_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.schuur_brandmelder_smoke to: "on" condition: [] action: - service: notify.notify metadata: {} data: message: Brand gedetecteerd door {{ trigger.to_state.name }}! data: push: sound: name: default critical: 1 volume: 1 title: Alarm! alias: Notify - service: switch.turn_on metadata: {} data: {} target: entity_id: - switch.entree_brandmelder_alarm - switch.gang_brandmelder_alarm - switch.gameroom_brandmelder_alarm - switch.schuur_brandmelder_alarm alias: Trigger all fire alarms mode: restart |
Tweede commando zorgt ervoor dat alle sirenes van de brandmelders af gaan, dat werkt prima met degene van Frient direct in Z2M.
[ Voor 11% gewijzigd door BiG-GuY op 05-02-2024 21:01 ]
En je conditie is altijd AND #flauw
Ah, ninja edit
Idee is duidelijk, alleen als de condities waar zijn moet hij de eerste mqtt publish actie doen gevolgd door de tweede mqtt na 45 minuten (dit enabled de pomp weer namelijk).
Als maar 1 van de twee condities waar is, moet hij niets doen en alleen de boolean weer naar OFF zetten.
Ik had in Fibaro gewoon een call gemaakt die een API call deed op dit automation ID.
Ik had de automation echter disabled maar mijn fibaro deed dus elke 15minuten die API aanroepen en de automation ging dus gewoon lopen ondanks zijn disabled state.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
| alias: Pomp vanaf helper description: Nood Verwarmen Blokkeren Itho trigger: - platform: state entity_id: - input_boolean.emergency_heat_block to: "on" id: to on - platform: state entity_id: - input_boolean.emergency_heat_block to: "on" for: hours: 0 minutes: 45 seconds: 0 id: to off - platform: state entity_id: - input_boolean.emergency_heat_block to: "off" id: to off condition: [] action: - if: - condition: trigger id: - to on - condition: state entity_id: schedule.pomp_schedule state: "on" enabled: true then: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":1, "manual_operation_dryrun":false } enabled: true - delay: hours: 0 minutes: 45 seconds: 0 milliseconds: 0 - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":0, "manual_operation_dryrun":false } enabled: true else: - service: input_boolean.turn_off metadata: {} data: {} target: entity_id: input_boolean.emergency_heat_block mode: single max_exceeded: silent |
Dit doet volgens mij exact wat ik wil maar inderdaad de helper staat dan fout tijdens een spontane reboot/crash van HA. Er is helaas geen state op te vangen vanuit de pomp binnen deze commando's (vandaar dat ook de mqtt switch niet gaat). Zoals de naam doet vermoeden is dit een soort nood knop die alleen tussen 01:00 en 05:00 uur te triggeren is, HA herstart ik niet om die tijdstippen en als remedie kan ik weer een automation maken die de boolean gewoon zonder condities naar OFF zet om 07:00 uur. (als hij namelijk om uiterlijk 05:00 uur getriggered wordt en HA reboot dan zorgt de manual override op de pomp automatisch weer dat om 07:00 uur de normale status gehandhaafd is)
Enfin, ik klijk wel even wat de praktijk uitwijst.
[ Voor 116% gewijzigd door GeeMoney op 05-02-2024 21:00 ]
/f/image/l28v9eUUJ9kuhGciSL4PYKPU.png?f=fotoalbum_large)
Iemand enig idee hoe ik dit soort grappen kan voorkomen?
Als ik in stats naar de entity ga en de datum zoek waarop dit voorgekomen is, dan staat daar niets bijzonders, ook onder history tab ga ik naar een datum terug en zie ik geen bijzondere getallen.
Het is echt het energie dashboard die hier iets vaags van maakt lijkt het.
Als ik een spike als dit pak op 16 januari, dan staat er een getal van 14500kWh. Maar in de history is het slechts 2,4kWh geweest op die dag, ook netjes met grafiek te zien.
Waarom komt het energy dashboard op dit soort getallen uit? Ik kan dit niet in de long term stats aanpassen, omdat het daar ook correct staat, opgeteld 2,4kWh.
Alles went behalve een Twent.
⏩ PVOutput☀️
Nee, ik heb de delay eruit geslooptGeeMoney schreef op maandag 5 februari 2024 @ 20:25:
@Septillion listig, je zet de Delay bij de boolean voor de condities.
Die anders zo bij elkaar geklikt in de UIMaar dit is een mooi voorbeeld van in mijn ogen onlogische code wat ook slecht in de UI te maken is
Naar mijn idee staat die doodsimpele if-else er nu...en wat eigenlijk een doodsimpele if-then-else is.
Ja, die moest er nu juist compleet uit maar was het juist door copy-past in de UI nog vergeten weg te halenEn je conditie is altijd AND #flauw
Ah, ninja edit
Dat is nu ook wat er gebeurd. Waarbij het uitzetten van 45 minuten alleen door een exrtra trigger nu gebeurdIdee is duidelijk, alleen als de condities waar zijn moet hij de eerste mqtt publish actie doen gevolgd door de tweede mqtt na 45 minuten (dit enabled de pomp weer namelijk).
Als maar 1 van de twee condities waar is, moet hij niets doen en alleen de boolean weer naar OFF zetten.
Enige is dat je nu het "zet uit" MQTT bericht ook stuurt als je de helper aan zet maar dat niet mocht. Maar dit leek me geen kwaad te kunnen.
Dit zal aan mijn complete onbekendheid van Fibaro en de API liggen maar hier kan ik niets over zeggen.Ik had in Fibaro gewoon een call gemaakt die een API call deed op dit automation ID.
Ik had de automation echter disabled maar mijn fibaro deed dus elke 15minuten die API aanroepen en de automation ging dus gewoon lopen ondanks zijn disabled state.
Hier doe je dus alleen maar weer extra moeite om de delay er terug in te bouwen. Een taak die dus al door de extra trigger gedaan wordtYAML:
1 2 3 4 5 6 7 8 alias: Pomp vanaf helper [...] - delay: hours: 0 minutes: 45 seconds: 0 milliseconds: 0 [...]
Dit doet volgens mij exact wat ik wil [...]
Blijft jammer dat er geen feedback is. Dan kan je alleen een bepaalde state forceren na een start of het accepteren dat het fout kan zijn.maar inderdaad de helper staat dan fout tijdens een spontane reboot/crash van HA. Er is helaas geen state op te vangen vanuit de pomp binnen deze commando's
Maakt niets onmogelijk aan een MQTT swichvandaar dat ook de mqtt switch niet gaat).
Ingebouwde sensor van Z-Wave integratie.Septillion schreef op maandag 5 februari 2024 @ 21:15:
@Quad Wat is de integratie achter die sensor?
Alles went behalve een Twent.
⏩ PVOutput☀️
Je kan toch niet met droge ogen beweren dat dit voor iedereen "een logische if-else" klikwerkje is als je op New Automation plusje klikt? Je bent dus met 3 when's begonnen slaat de UI and-if over om vervolgens een gekke conditionally execute an action and default to another action toe te voegen.
Die laatste zie ik namelijk standaard niet eens ah, het is een building block zie ik nu.
Ik ontkom niet aan die Delay omdat als alles dus "waar" is hij beide mqtt commando's moet runnen met dus 45 minuten ertussen.
Je hebt geen kennis van Fibaro nodig maar alleen van de Rest API van HA
Dit stuk van jouw yaml runt toch de tweede mqtt alleen als hij in de else terecht komt ?
Die moet dus ook draaien als hij de eerste mqtt aantikt maar pas na 45min. (en kan denk ik inderdaad geen kwaad als hij in de else sowieso draait)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
| action: - if: - condition: trigger id: - to on - condition: state entity_id: schedule.pomp_schedule state: "on" enabled: true then: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":1, "manual_operation_dryrun":false } enabled: true else: - service: mqtt.publish data: topic: itho/cmd payload: >- { "manual_operation_index":30, "manual_operation_datatype":0, "manual_operation_value":0, "manual_operation_checked":0, "manual_operation_dryrun":false } enabled: true |
Ik daag je uit om eens 2 weken een fibaro neer te zetten met wat zwave devices en dan de LUA code en building blocks daar eens door te nemen. Ik kan mij niet herinneren dat ik zelfs daar voor de meest complexe scenes zo "anders" te werk moet gaan om tot het gewenste resultaat te komen. Ik voel mij echt oliedom in HA
[ Voor 104% gewijzigd door GeeMoney op 05-02-2024 21:52 . Reden: grrr autospeller ]
Jawel... Zo veel staat er niet in...GeeMoney schreef op maandag 5 februari 2024 @ 21:32:
@Septillion Ik heb de code nu in een automation gezet en vervolgens even edit in visual editor gezet.
Je kan toch niet met droge ogen beweren dat dit voor iedereen "een logische if-else" klikwerkje is als je op New Automation plusje klikt?
Van die termen die introduceert zijn in de laatste update, daar krijg ik wel tranen van in mijn ogen jaJe bent dus met 3 when's begonnen slaat de UI and-if over
Maar goed, je had er ook twee iets meer rechttoe rechtaan automations van kunnen maken. Alleen moet je jezelf dan iets meer herhalen.
Dus is nu exact de if-else waar je naar vroegom vervolgens een gekke conditionally execute an action and default to another action toe te voegen..
Je ontkomt er dus wel aanIk ontkom niet aan die Delay omdat als alles dus "waar" is hij beide mqtt commando's moet runnen met dus 45 minuten ertussen.
Ipv 45 minuten duimen te draaien kan je ook gewoon een alarm (aka trigger) instellen 45 minuten nadat je hem aan zet.
Ahh, de Rest API van HA. Daar ook geen ervaring meeJe hebt geen kennis van Fibaro nodig maar alleen van de Rest API van HA.Hoe kan het dat ik middels de REST API een automation kan triggeren die de state "disabled" heeft ?
Dat klopt.Dit stuk van jouw yaml runt toch de tweede mqtt alleen als hij in de else terecht komt ?
Vandaar dus de derde triggerDie moet dus ook draaien als hij de eerste mqtt aantikt maar pas na 45min. (en kan denk ik inderdaad geen kwaad als hij in de else sowieso draait)
De termen uit de UI zijn wel vaker onderdeel van discussie. Idee van HA is dat ze echt uit moeten leggen. Maar net als de debiele termen voor trigger, condition en action vind ik HA af en toe ook iets te ver doorslaan met nieuwe termen verzinnen.Ik daag je uit om eens 2 weken een fibaro neer te zetten met wat zwave devices en dan de LUA code en building blocks daar eens door te nemen. Ik kan mij niet herinneren dat ik zelfs daar voor de meest complexe scenes zo "anders" te werk moet gaan om tot het gewenste resultaat te komen. Ik voel mij echt oliedom in HA.
Maar LUA, nee bedankt... Daar in de begintijd van ESP mee gespeeld en was geen fan
Top! Even more thanksBiG-GuY schreef op maandag 5 februari 2024 @ 20:19:
[...]
Je kan het nog anders oplossen (zoals zoveel dingen in HA zijn er veel mogelijkheden). Dan hoef je geen trigger ID’s in te stellen, maar dan leest hij de Friendly Name uit. Overigens kan ik ook aanraden om platform state te gebruiken i.p.v. platform device voor de triggers.
Het device_id en entity_id zijn namelijk random en als je een apparaat opnieuw zou pairen of door een integratie van ID veranderd, zijn al je automatiseringen kapot bij een reboot… (al meegemaakt).
Gebruik nu enkel state triggers om dit te voorkomen, dan hoeft enkel het entitiy id gelijk te zijn en die kan je makkelijk zelf instellen. Ook als je apparaat A vervangt voor B en je geeft B dezelfde entiteit, dan werkt je automation direct.
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 alias: Alarm - Smoke description: "" trigger: - platform: state entity_id: - binary_sensor.entree_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.gang_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.gameroom_brandmelder_smoke to: "on" - platform: state entity_id: - binary_sensor.schuur_brandmelder_smoke to: "on" condition: [] action: - service: notify.notify metadata: {} data: message: Brand gedetecteerd door {{ trigger.to_state.name }}! data: push: sound: name: default critical: 1 volume: 1 title: Alarm! alias: Notify - service: switch.turn_on metadata: {} data: {} target: entity_id: - switch.entree_brandmelder_alarm - switch.gang_brandmelder_alarm - switch.gameroom_brandmelder_alarm - switch.schuur_brandmelder_alarm alias: Trigger all fire alarms mode: restart
Tweede commando zorgt ervoor dat alle sirenes van de brandmelders af gaan, dat werkt prima met degene van Frient direct in Z2M.
Smarthome - HomeAssistant | Zigbee2MQTT | Homekit | Philips Hue | Synology | Unifi
Die condition zit in een building block terwijl ik dus alleen in actions zat te kijken.
Voor wat betreft de API zal ik mijn code weer even opzoeken maar feitelijk gewoon een curl met mijn token en automation.entity_id als POST opdracht. Kom ik op terug
Verschil in denken:
1 trigger met 2 uitkomsten
vs
3 triggers
[ Voor 39% gewijzigd door GeeMoney op 05-02-2024 22:53 ]
Dan zou dat in de sensor ook te zien moeten zijn lijkt me.Septillion schreef op maandag 5 februari 2024 @ 22:18:
@Quad Klinkt mij namelijk alsof de sensor even 0 / naar beneden is gegaan ipv unavailable te worden. En dan wel state_class: total_increasing hebben. Dat is binnen HA namelijk een grote nono en dus een bug als de integratie dat doet.
/f/image/eJe3jby0x4Hy8v5Jo2c4x15e.png?f=fotoalbum_large)
Dat is niet het geval. En energy dashboard gebruikt deze waarde per uur en telt het bij elkaar op, als ik dit goed heb gezien.
Ik kan dit niet zo goed achterhalen waar dit dan vandaan komt, de waarden zijn ook niet correct met een komma of punt verkeerd. Niet dat ik het energiedashboard echt nodig heb of gebruik, worst case is dat ik deze entiteit er gewoon uit haal.
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik vermoed dat voor een disabled automation alleen de triggers uit staan, maar dat hij met de automation.trigger service call nog wel te starten is. Dat is wellicht ook wat je via de rest API doetGeeMoney schreef op maandag 5 februari 2024 @ 22:30:
@Septillion ik zie nu in wat je doet met die id’s en dat maakt mijn delay inderdaad overbodig!
Die condition zit in een building block terwijl ik dus alleen in actions zat te kijken.
Voor wat betreft de API zal ik mijn code weer even opzoeken maar feitelijk gewoon een curl met mijn token en automation.entity_id als POST opdracht. Kom ik op terug
Verschil in denken:
1 trigger met 2 uitkomsten
vs
3 triggers
Heb je de kWh standen van je device rond die dag ook nog? Als die naar nul gaat omdat het apparaat gereset is (stroom eraf?) komt dat hier tot uitingQuad schreef op maandag 5 februari 2024 @ 21:03:
[Afbeelding]
Iemand enig idee hoe ik dit soort grappen kan voorkomen?
Als ik in stats naar de entity ga en de datum zoek waarop dit voorgekomen is, dan staat daar niets bijzonders, ook onder history tab ga ik naar een datum terug en zie ik geen bijzondere getallen.
Het is echt het energie dashboard die hier iets vaags van maakt lijkt het.
Als ik een spike als dit pak op 16 januari, dan staat er een getal van 14500kWh. Maar in de history is het slechts 2,4kWh geweest op die dag, ook netjes met grafiek te zien.
Waarom komt het energy dashboard op dit soort getallen uit? Ik kan dit niet in de long term stats aanpassen, omdat het daar ook correct staat, opgeteld 2,4kWh.
Het wordt netjes opgeteld als ik het zie de dagen ervoor en na in de longterm stats. Maar al zou het naar 0 gaan, dan zou ik een verklaarbaar getal van ~630 in de plus moeten zien, niet ruim 14k.biomass schreef op maandag 5 februari 2024 @ 23:13:
[...]
Heb je de kWh standen van je device rond die dag ook nog? Als die naar nul gaat omdat het apparaat gereset is (stroom eraf?) komt dat hier tot uiting
Alles went behalve een Twent.
⏩ PVOutput☀️
In het energie dashboard? Nee.biomass schreef op maandag 5 februari 2024 @ 23:23:
Als het getal niet in de buurt komt van alle energie die je ooit met de vloerverwarming hebt gebruikt, moet het een bug zijn. Heb je nog andere entiteiten die een tellerstand van vergelijkbare grootte hebben. Misschien is er tijdelijk iets verwisseld geraakt op die dag?
Lijkt me dan idd een bug maar ja, dan kan ik ermee dealen of wegmikken.
Alles went behalve een Twent.
⏩ PVOutput☀️
Gulfstream G650
PS5 staat aan
Deurtje van meubel is dicht.
Ik heb meerdere triggers omdat er veschillende dingen kunnen gebeuren, maar ik wil ook dat de meldingen blijven herhalen als het deurtje niet wordt open gedaan terwijl de PS5 aan blijft staan. Hier dacht ik dus met een timer uit de voeten te kunnen. Helaas is dat niet zo. Als de timer af loopt, vind er geen nieuwe trigger plaats.
Ik heb ook de timer zelf een vaste duration van 60 gegeven, maar dat helpt ook niet.
Wat doe ik fout?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
| alias: Notify - PS5 Verstikt description: "" trigger: - platform: state entity_id: - switch.playstation_5_power to: "on" id: PS5 Aan - platform: state entity_id: - binary_sensor.tv_meubel_contact to: "off" id: Meubel Dicht - platform: state entity_id: - switch.playstation_5_power to: "off" id: PS5 Uit - platform: state entity_id: - binary_sensor.tv_meubel_contact to: "on" id: Meubel Open - platform: event event_type: timer.finished event_data: enitity_id: timer.ps5kast id: Timer Finished condition: [] action: - choose: - conditions: - condition: state entity_id: switch.playstation_5_power state: "on" - condition: trigger id: - Meubel Dicht sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Playstation Aan, Kastje wordt dicht gedaan - conditions: - condition: state entity_id: binary_sensor.tv_meubel_contact state: "off" - condition: trigger id: - PS5 Aan sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Kastje dicht, Playstation wordt aangezet - conditions: - condition: trigger id: - Timer Finished - condition: state entity_id: binary_sensor.tv_meubel_contact state: "off" - condition: state entity_id: switch.playstation_5_power state: "on" sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Kastje nog steeds dicht - conditions: - condition: or conditions: - condition: trigger id: - Meubel Open - condition: trigger id: - PS5 Uit sequence: - service: timer.cancel target: entity_id: timer.ps5kast data: {} alias: Timer uitzetten mode: single |
HACS is te installeren op elke HA versie, maar is niet iets wat standaard met HA mee komt.SalimRMAF schreef op maandag 5 februari 2024 @ 23:30:
Ik draai dus HA op een Synology NAS, maar heb na het installeren van HA op de NAS helemaal geen HACS, en dit lijkt ook niet te kunnen op een Synology NAS?
https://hacs.xyz/docs/setup/prerequisites
De add-on store komt wel standaard met HA OS mee, maat is bij andere installatievormen niet nodig omdat je dan al een OS hebt waarop je zelf software kunt installeren.
Herhalende notificaties zijn iets waarvoor de alert integratie gemaakt is.Oulewappeur schreef op dinsdag 6 februari 2024 @ 06:45:
Ik heb een automation die een melding geeft als als de volgende twee condities kloppen:
PS5 staat aan
Deurtje van meubel is dicht.
Ik heb meerdere triggers omdat er veschillende dingen kunnen gebeuren, maar ik wil ook dat de meldingen blijven herhalen als het deurtje niet wordt open gedaan terwijl de PS5 aan blijft staan. Hier dacht ik dus met een timer uit de voeten te kunnen. Helaas is dat niet zo. Als de timer af loopt, vind er geen nieuwe trigger plaats.
Ik heb ook de timer zelf een vaste duration van 60 gegeven, maar dat helpt ook niet.
Wat doe ik fout?
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 alias: Notify - PS5 Verstikt description: "" trigger: - platform: state entity_id: - switch.playstation_5_power to: "on" id: PS5 Aan - platform: state entity_id: - binary_sensor.tv_meubel_contact to: "off" id: Meubel Dicht - platform: state entity_id: - switch.playstation_5_power to: "off" id: PS5 Uit - platform: state entity_id: - binary_sensor.tv_meubel_contact to: "on" id: Meubel Open - platform: event event_type: timer.finished event_data: enitity_id: timer.ps5kast id: Timer Finished condition: [] action: - choose: - conditions: - condition: state entity_id: switch.playstation_5_power state: "on" - condition: trigger id: - Meubel Dicht sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Playstation Aan, Kastje wordt dicht gedaan - conditions: - condition: state entity_id: binary_sensor.tv_meubel_contact state: "off" - condition: trigger id: - PS5 Aan sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Kastje dicht, Playstation wordt aangezet - conditions: - condition: trigger id: - Timer Finished - condition: state entity_id: binary_sensor.tv_meubel_contact state: "off" - condition: state entity_id: switch.playstation_5_power state: "on" sequence: - service: tts.google_say metadata: {} data: cache: true entity_id: media_player.woonkamer language: nl message: De Playstation 5 heeft frisse lucht nodig - service: timer.start target: entity_id: timer.ps5kast data: duration: "60" alias: Kastje nog steeds dicht - conditions: - condition: or conditions: - condition: trigger id: - Meubel Open - condition: trigger id: - PS5 Uit sequence: - service: timer.cancel target: entity_id: timer.ps5kast data: {} alias: Timer uitzetten mode: single
Je kunt eventueel met je automation een input boolean aan- een uitzetten. Deze input boolean kun je dan gebruiken voor je alert
Voor een alert heb je wel een notify service nodig. Je kunt een TTS service ombouwen naar een notify service.
Hoe heb je HA op je SYNO draaien als Docker Container of als een VM?SalimRMAF schreef op maandag 5 februari 2024 @ 23:30:
Ik draai dus HA op een Synology NAS, maar heb na het installeren van HA op de NAS helemaal geen HACS, en dit lijkt ook niet te kunnen op een Synology NAS?
IK had HA op mijn Synology als Container draaien maar nadat ik er achter kwam dat het met een container lastiger is om add-on's etc te installeren ben ik oivergestap naar HA op een VM binnen de VMM hypervisor van Synology. Dit werkt perfect en je kunt alle ADD-ON's en HACS etc installeren.
Ik heb dat wel in scripts verwerkt maar het kan ook in een automatisering.Wachten... schreef op maandag 5 februari 2024 @ 18:11:
[...]
Ik wil nog iets voor elkaar krijgen, en vraag me af of dit ook handig is om met scripts te doen.
Ik wil in de ochtend overal in huis een andere helderheid en warmte dan bijvoorbeeld in de middag en in de avond. Nu zijn daar wel integraties voor zoals adaptive lighting, echter heb ik dit geprobeerd, maar gingen de lampen vaker een eigen leven leiden en werkte het niet altijd out of the box. Ik heb later wel al HA lichtgroepen omgezet naar z2mqtt lichtgroepen, dus misschien zal het nu wat beter zijn. Kortom was mijn ervaring niet heel erg goed.
Ik wil echter wel hetzelfde bereiken, dus aan de hand van de stand van de zon wil ik dat de helderheid en de warmte automatisch aanpast zodra ik lampen aan zet (dus daarna niet meer, enkel als ik ze aan zet).
Is zoiets makkelijk in elkaar te zetten met een script? Of zijn die integraties dan toch echt de uitkomst?
Ik heb 1 automatisering voor alle lampen met lichtsterkte en verschillende trigger-id's voor de verschillende lampen.
Voorbeeld in mijn geval voor de bijkeuken:
1
2
3
4
5
6
| platform: device type: turned_on device_id: cb94ec50a0bff2193707de9121c18c4f entity_id: 33ea4aed69c4a3c2c7231d9bca64c250 domain: light id: bijkeuken |
1
2
3
4
5
6
7
| choose: - conditions: - condition: trigger id: bijkeuken sequence: - service: script.bijkeuken_lichtsterkte data: {} |
Script:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
| alias: Bijkeuken-lichtsterkte sequence: - choose: - conditions: - condition: time after: "15:30:00" before: "20:00:00" sequence: - service: scene.turn_on target: entity_id: scene.bijkeuken_regular metadata: {} - conditions: - condition: time after: "21:00:00" before: "06:00:00" sequence: - service: scene.turn_on target: entity_id: scene.bijkeuken_dim metadata: {} - conditions: - condition: time after: "06:00:00" before: "10:00:00" sequence: - service: scene.turn_on target: entity_id: scene.bijkeuken_regular metadata: {} mode: single |
Who's general failure, and why is he reading my disk?
/f/image/8lPkaqkgKCGzuugUXJmFHrar.png?f=fotoalbum_large)
Elke lamp kan reageren op meerdere motion of presence sensoren die afhankelijk van welke groep verschillende lightsterkte triggeren. Er is een nacht modes en een voor en an zonsopgang licht sterkte.
Het doel is dat het licht met je mee beweegt in het huis en vloeiend overgaat van minder naar lichter afhankelijk van hoe dicht je bij de lampen bent.
Daarnaast wordt de temperatuur van de lampen door adaptive lighting geregeld. En als het light boven een bepaalde waarde komt op een sensor gaan de lampen vanzelf uit.
[ Voor 4% gewijzigd door dotcode op 06-02-2024 08:55 ]
Als je de modbus integratie gebruikt kan je bij alle entiteiten zoeken opoltk schreef op maandag 5 februari 2024 @ 20:09:
[...]
Kan je uitleggen hoe dat werkt? Ik heb een Solaredge (2021 gekocht) en via Modbus TCP haal ik lokaal de data op. Ik moet er wel bij zeggen dat ik meteen na installatie de connectie heb opengesteld en daarna via een blokkade in de firewall voorkom dat een update wordt gedraaid die deze modbus connectie weer ongedaan maakt of andere Amerikaanse firmware ongein. Dus moet ik toch een firmware draaien? Kan ik dan nog wel bij mijn modbus?
"active_power_limit". Daar vind je als het goed is een entiteit waar je dit kan aanpassen. Ik vind deze entiteit niet onder het "apparaat" van de integratie, dus hij zit ietwat verstopt
Top. Ik snap het niet helemaal, je kan een % instellen dat wordt teruggeleverd. Maar hoe ik dat effectief kan inzetten (behalve als blijkt dat mijn zonnepanelen worden uitgeschakeld door netoverbelasting) weet ik niet precies.belly89 schreef op dinsdag 6 februari 2024 @ 09:02:
[...]
Als je de modbus integratie gebruikt kan je bij alle entiteiten zoeken op
"active_power_limit". Daar vind je als het goed is een entiteit waar je dit kan aanpassen. Ik vind deze entiteit niet onder het "apparaat" van de integratie, dus hij zit ietwat verstopt
edit: bij negatieve prijzen natuurlijk
Hier overigens wel de handleiding van de setapp/modbus solaredge
[ Voor 8% gewijzigd door oltk op 06-02-2024 09:15 ]
Niet wat wordt teruggeleverd maar wat wordt geproduceerd. Een omvormer met maximaal vermogen van bv 5000W zal als je deze setting op 10% zet nog maar 500W produceren.oltk schreef op dinsdag 6 februari 2024 @ 09:12:
[...]
Top. Ik snap het niet helemaal, je kan een % instellen dat wordt teruggeleverd. Maar hoe ik dat effectief kan inzetten (behalve als blijkt dat mijn zonnepanelen worden uitgeschakeld door netoverbelasting) weet ik niet precies.
edit: bij negatieve prijzen natuurlijk
Hier overigens wel de handleiding van de setapp/modbus solaredge
Uitzetten (0%) kan overigens ook een slecht idee zijn. Omdat bepaalde modellen (?) ook weer vrij traag opstarten. Je kunt dan beter een heel laag vermogen instellen zodat die wel actief blijft.
Zo veel mogelijk denken in trigger, dus kan je een event bedenken waar je direct je actie op kunt uitvoeren ipv zitten wachtenGeeMoney schreef op maandag 5 februari 2024 @ 22:30:
@Septillion ik zie nu in wat je doet met die id’s en dat maakt mijn delay inderdaad overbodig!
Die condition zit in een building block terwijl ik dus alleen in actions zat te kijken.
Voor wat betreft de API zal ik mijn code weer even opzoeken maar feitelijk gewoon een curl met mijn token en automation.entity_id als POST opdracht. Kom ik op terug
Verschil in denken:
1 trigger met 2 uitkomsten
vs
3 triggers
Maar zo ver ik de API zie biedt dat geen directe mogelijkheid om een automation te runnen. Want een turn on actie op een automation is volgens mij gewoon een enable (en turn off dus disable). Zo is dit binnen HA met service calls ook zo namelijk.
Misschien ligt het aan mij, maar is de P niet een stukje zeldzamer dezer dagen?BiG-GuY schreef op maandag 5 februari 2024 @ 19:35:
[...]
Let op dat de ZBDongle-E nog altijd experimental is met Z2M, dus random issues zijn mogelijk.
De ZBDongle-P is een van de preferred sticks voor Z2M.
Overigens zijn mijn ervaringen met de ZBDongle-P ook voor ZHA veel stabieler dan met de ZBDongle-E die ik eerst voor ZHA gebruikte. Dus heb nu twee ZBDongle-P in gebruik aan een 1,5m USB2 verlengkabel per dongle.
Sindsdien 100% stabiel.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Kan je zien op welk uur het gebeurde? Dan kan je namelijk even wat meer inzoomen. Op 24uur view kan je het makkelijk misse.Quad schreef op maandag 5 februari 2024 @ 22:54:
[...]
Dan zou dat in de sensor ook te zien moeten zijn lijkt me.
[Afbeelding]
Dat is niet het geval. En energy dashboard gebruikt deze waarde per uur en telt het bij elkaar op, als ik dit goed heb gezien.
Ik kan dit niet zo goed achterhalen waar dit dan vandaan komt, de waarden zijn ook niet correct met een komma of punt verkeerd. Niet dat ik het energiedashboard echt nodig heb of gebruik, worst case is dat ik deze entiteit er gewoon uit haal.
Neen. De P gebruikt een chip van Texas Instruments, en toen die tijdelijk minder beschikbaar was hebben ze de E met een chip van Silicon Labs geïntroduceerd. De een is dus niet beter / nieuwer dan de ander. Beiden zijn er nog, worden gefabriceerd, verkocht, ....ocf81 schreef op dinsdag 6 februari 2024 @ 10:55:
[...]
Misschien ligt het aan mij, maar is de P niet een stukje zeldzamer dezer dagen?
En voordeel van de P / TI chip is dat de firmware hiervan open is (en door de Z2M devs ontwikkeld wordt), terwijl de E / SL chip een closed source firmware heeft.
En de andere chip met andere firmware heeft ook als gevolg dat de "integratie" met Z2M anders is waardoor de P "ondersteund" is en de E "experimenteel" is.
Oké, dan heb ik in de verkeerde webshops gekeken bij het zoeken. Ik kon destijds de E makkelijk aanschaffen, terwijl de P niet zo goed verkrijgbaar was bij die webshops. Heeft het zin om nu alsnog de P te kopen, nu ik al een E heb?RobertMe schreef op dinsdag 6 februari 2024 @ 11:14:
[...]
Neen. De P gebruikt een chip van Texas Instruments, en toen die tijdelijk minder beschikbaar was hebben ze de E met een chip van Silicon Labs geïntroduceerd. De een is dus niet beter / nieuwer dan de ander. Beiden zijn er nog, worden gefabriceerd, verkocht, ....
En voordeel van de P / TI chip is dat de firmware hiervan open is (en door de Z2M devs ontwikkeld wordt), terwijl de E / SL chip een closed source firmware heeft.
En de andere chip met andere firmware heeft ook als gevolg dat de "integratie" met Z2M anders is waardoor de P "ondersteund" is en de E "experimenteel" is.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Op Amazon NL heb ik laatst nog twee stuks gekocht (voor net geen €20 per stuk), zijn gewoon beschikbaar.ocf81 schreef op dinsdag 6 februari 2024 @ 10:55:
[...]
Misschien ligt het aan mij, maar is de P niet een stukje zeldzamer dezer dagen?
Sonoff verkoopt ze ook nog zelf. De ZBDongle-E is toentertijd gemaakt, omdat de chipset van de ZBDongle-P vanwege productie problemen niet leverbaar was. Er komen nog steeds sticks uit met die chipset, juist omdat het een goede chipset is die breed ondersteund wordt.
[ Voor 3% gewijzigd door BiG-GuY op 06-02-2024 13:20 ]
Ik koop nooit via Amazon. Die winkels is de dood van onze middenstand.BiG-GuY schreef op dinsdag 6 februari 2024 @ 13:20:
[...]
Op Amazon NL heb ik laatst nog twee stuks gekocht (voor net geen €20 per stuk), zijn gewoon beschikbaar.
Sonoff verkoopt ze ook nog zelf. De ZBDongle-E is toentertijd gemaakt, omdat de chipset van de ZBDongle-P vanwege productie problemen niet leverbaar was. Er komen nog steeds sticks uit met die chipset, juist omdat het een goede chipset is die breed ondersteund wordt.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Dat is een keuze. Zoals aangegeven verkoopt Sonoff ze ook via hun webshop, dan moet je alleen wel wat meer geduld hebben, want die shippen uit China.ocf81 schreef op dinsdag 6 februari 2024 @ 13:27:
[...]
Ik koop nooit via Amazon. Die winkels is de dood van onze middenstand.
Ze gebruiken Amazon als verzendende partij in de verschillende landen waar Amazon opereert, vandaar dat ze geen eigen webshops hebben buiten het thuisland.
https://sonoff.tech/where-to-buy/
Als je liever iets Europees wilt, kan je ook kijken naar de SMLight SLZB-06. Gebruikt dezelfde Zigbee chip maar heeft als extra's dat deze via LAN/PoE en zelfs Wifi is te gebruiken, naast USB-connectie. In sommige situaties kan dat handig zijn.
Bezig met het toevoegen van podcast op mijn audio systeem.
op de telefoon is het af. voor mijn thuis moet ik nog wat met mpd rommelen.
>.< >.< >.< >.<
Op de load na dan. Mijn HA installatie geeft een 2% processorload (volgens Synology broncontrole) op mijn DS220+ met 10GB werkgeheugen wanneer deze in een docker container draait. Als VM gaat dat omhoog naar 20% (wederom volgens Synology broncontrole). Nou, dan ga ik zelf we even stoeien met de instellingen tussen de containers want die 20% continue processorload is me echt te gortig.peterstr schreef op dinsdag 6 februari 2024 @ 07:12:
[...]
Hoe heb je HA op je SYNO draaien als Docker Container of als een VM?
IK had HA op mijn Synology als Container draaien maar nadat ik er achter kwam dat het met een container lastiger is om add-on's etc te installeren ben ik oivergestap naar HA op een VM binnen de VMM hypervisor van Synology. Dit werkt perfect en je kunt alle ADD-ON's en HACS etc installeren.
André Huisman (www.new-line.nl)
Wat je alleen mist is dat HassOS(de VM) veel meer optie's heeft (installeren van add-ons, updaten van het OS etc) heeft dan een losse container. Die zijn echt best beperkt.HuismAndré schreef op dinsdag 6 februari 2024 @ 14:05:
[...]
Op de load na dan. Mijn HA installatie geeft een 2% processorload (volgens Synology broncontrole) op mijn DS220+ met 10GB werkgeheugen wanneer deze in een docker container draait. Als VM gaat dat omhoog naar 20% (wederom volgens Synology broncontrole). Nou, dan ga ik zelf we even stoeien met de instellingen tussen de containers want die 20% continue processorload is me echt te gortig.
Owner of DBIT Consultancy | DJ BassBrewer
Ik ben nieuw in deze wereld in sta op het punt om een ZBDongle aan te schaffen. Wat is de reden dat je meerdere dongels nodig zou hebben?BiG-GuY schreef op dinsdag 6 februari 2024 @ 13:20:
[...]
Op Amazon NL heb ik laatst nog twee stuks gekocht (voor net geen €20 per stuk), zijn gewoon beschikbaar.
Sonoff verkoopt ze ook nog zelf. De ZBDongle-E is toentertijd gemaakt, omdat de chipset van de ZBDongle-P vanwege productie problemen niet leverbaar was. Er komen nog steeds sticks uit met die chipset, juist omdat het een goede chipset is die breed ondersteund wordt.
Vrijstaand 1990 | Brabant | 210m2 | Quatt Hybrid Duo | 100 m2 VVW | HR++ | 7cm spouwmuur isolatie | 7cm dakisolatie | Gasverbruik voor Quatt: 1700m3
Voor elke Zigbee software heb je een eigen Coördinator (USB/LAN) nodig.Vetifuro schreef op dinsdag 6 februari 2024 @ 15:19:
[...]
Ik ben nieuw in deze wereld in sta op het punt om een ZBDongle aan te schaffen. Wat is de reden dat je meerdere dongels nodig zou hebben?
Heb een deel van mijn Zigbee apparaten via ZHA (native van HA) draaien en een deel via Z2M (externe ontwikkelaars). Ligt erg aan de apparaten welke van de twee de beste keuze is qua implementatie en ondersteuning.
Over het algemeen zie je dat in Z2M er meer apparaten officieel ondersteund worden, met meer entiteiten per apparaat. Echter voor ZHA hoeven ze vaak geen specifieke ondersteuning toe te voegen en werken nieuwe producten direct, als deze producten zich aan de Zigbee standaarden houden.
Omdat ik in totaal 99 Zigbee apparaten heb, heb ik wel een splitsing aangebracht.
Heb gemerkt dat Zigbee stroomplugs die energiemonitoring hebben, best een belasting zijn voor het Zigbee netwerk. Binnen Z2M worden die plugs standaard gelimiteerd in hoe vaak ze mogen rapporteren, afhankelijk van de plug is dat dan standaard elke 30sec.
Via ZHA kan je dit niet instellen, en rapporteren de plugs minimaal elke 5 sec. Heb nu 8 smart plugs gekoppeld via ZHA en de rest loopt via Z2M. Je ziet nu in netwerkscans dat het Zigbee kanaal van ZHA een constant 30-40% belasting heeft, en dat is dus enkel met 8 smart plugs die constant hun status rapporteren.
Nu vind ik het wel fijn om die stroommetingen in een 'hogere resolutie' te hebben. En als ik later apparaten toevoeg die beter werken in ZHA kan ik ze via die weg koppelen.
Die van Z2M schommelt tussen 5-50% met normaal gebruik.
En juist die add-ons maken HA zo fijn en flexibel!Septillion schreef op dinsdag 6 februari 2024 @ 14:09:
Mja, abstractie komt wel met extra overhead natuurlijk. Ook al zal een deel wel de extra functionaliteit zijn rond addons en container managment.
Owner of DBIT Consultancy | DJ BassBrewer
Add-Ons zijn op de achtergrond gewoon Docker Containers, dus je kan alles wat in Docker bestaat erop draaien.
Toen ik een tijd terug meerdere keren begon met HA, heb ik elke keer alleen gespeeld met de Container versie van HA. Maar elke keer weer mee gestopt, doordat zoveel te beperkt was.
Uiteindelijk eigen hardware gepakt voor HA OS en dat draait imho veel fijner. Je hoeft je ook geen zorgen te maken over het up-to-date houden van je Host OS, want dat wordt ook meegenomen door HA OS, dus alles beheer je vanuit je HA frontend.
Heb zo geen VM's, host OS updates of losse Docker containers te beheren en bij te houden. Alles gaat via HA qua updates. En ben al van meerdere platforms gewisseld qua HA OS, zelfs tussen ARM64 en X86-64 en elke keer kon ik mijn back-up gewoon overzetten en weer door.
Ik draai in een docker de supervised versie op een intel i3 nuc en kan “gewoon” alles installeren.BiG-GuY schreef op dinsdag 6 februari 2024 @ 15:40:
Jup, heb juist bewust ervoor gekozen om mijn NUC te voorzien van HA OS. Omdat ik alles wat ik erop wil draaien, kan draaien via Add-Ons.
Add-Ons zijn op de achtergrond gewoon Docker Containers, dus je kan alles wat in Docker bestaat erop draaien.
Toen ik een tijd terug meerdere keren begon met HA, heb ik elke keer alleen gespeeld met de Container versie van HA. Maar elke keer weer mee gestopt, doordat zoveel te beperkt was.
Uiteindelijk eigen hardware gepakt voor HA OS en dat draait imho veel fijner. Je hoeft je ook geen zorgen te maken over het up-to-date houden van je Host OS, want dat wordt ook meegenomen door HA OS, dus alles beheer je vanuit je HA frontend.
Heb zo geen VM's, host OS updates of losse Docker containers te beheren en bij te houden. Alles gaat via HA qua updates. En ben al van meerdere platforms gewisseld qua HA OS, zelfs tussen ARM64 en X86-64 en elke keer kon ik mijn back-up gewoon overzetten en weer door.
https://www.rouwette.com/
Supervised is een ander verhaal. Ik had het over de pure Home Assistant Container, welke veel mensen die beginnen met HA zullen proberen.Rouwette schreef op dinsdag 6 februari 2024 @ 20:15:
[...]
Ik draai in een docker de supervised versie op een intel i3 nuc en kan “gewoon” alles installeren.
Supervised moet je veel meer stappen en losse dingen bijhouden om hetzelfde te bereiken als het geval is met Home Assistant OS.
Wat is de reden dat je kiest voor Supervised ipv HA OS?
Persoonlijk wil ik niet meer anders, want het bied me genoeg flexibiliteit en veiligheid. En hoef niet meer zelf bezig te zijn met het host OS up-to-date te houden.
Voorheen met Ubuntu server gewerkt met VM’s en later Docker containers, die ik dan weer van tijd tot tijd ging updaten en bijhouden. Toen gebruikte ik nog geen HA.
Iemand een idee? Snap er de ballen van.vortexnl1982 schreef op maandag 5 februari 2024 @ 17:05:
Opeens werkt m'n deCONZ stick niet meer in HA. Ik heb zelfs een full backup teruggezet van een paar dagen terug (voordat ik upgrade naar de laatste versie van HA) maar dat hielp ook niet.
Als ik in de system logs kijk:
[...]
Het device is ook in een foutstaat.
En als ik de deCONZ addon wil openen dan is hij niet gestart (The add-on is not running. Do you want to start it now?). En als ik vervolgens de add-on probeer te starten dan lukt dat ook niet. Als ik de logs van de deCONZ addon bekijk zie ik het volgende:
[...]
Het lijkt wel alsof de addon vanzelf stopt..
[...]
De hele deconz addon start opeens niet meer op. Ook niet als ik een backup terug zet van een week geleden.
Nu draai ik HA OS en merk dat het gebruik van Addons fijn is om sneller dingen te installeren, tegelijkertijd mis ik ook wel controle over zaken die via addons draaien. Bijv het migreren van data of maken van backups van de data binnen de add ons etc.
Tot op heden merk ik dat het simpeler te draaien is maar vraag me wel af of gebruikers van de addons door hebben dat het inrichten van backups etc wel zelf moet!
Heb jij de power limit werkend gekregen? Ik krijg hem op een 3 jaar oude se15k niet werkend.belly89 schreef op dinsdag 6 februari 2024 @ 09:02:
[...]
Als je de modbus integratie gebruikt kan je bij alle entiteiten zoeken op
"active_power_limit". Daar vind je als het goed is een entiteit waar je dit kan aanpassen. Ik vind deze entiteit niet onder het "apparaat" van de integratie, dus hij zit ietwat verstopt
Ik heb de hacs plug-ins modbus tcp en modbus multi geprobeerd maar de entiteiten voor power control zijn niet beschikbaar.
Juiste link naar de correcte usb poort? Soms verspringt dat wel eens.vortexnl1982 schreef op dinsdag 6 februari 2024 @ 20:45:
[...]
Iemand een idee? Snap er de ballen van.
De hele deconz addon start opeens niet meer op. Ook niet als ik een backup terug zet van een week geleden.
Niks, HA zelf is hetzelfde. Alleen krijg je bij HA OS dus een volledig OS incl "app store" zodat je de meest willekeurige zaken in dat OS kunt draaien. Omdat je zelf dus geen controle over het OS hebt. Aan de ene kant wellicht handig, aan de andere kant wellicht niet zo? Want de addon developers staan vast verder af van de originele developers van de software. Als in: hoe weet ik dat addon X net zo goed is als Docker container X van de product van X? Nu zal dat bij echte IoT gerelateerde containers wel los lopen (ZWave JS UI, Mosquitto, Zigbee2mqtt). Maar wie "garandeert" dat bv de addon voor de UniFi Network Controller net zo kwalitatief is als de Docker containers met miljoenen pulls (helaas is er geen officiële van Ubiquiti zelf, maar jullie begrijpen hopelijk het punt).Sander schreef op dinsdag 6 februari 2024 @ 21:01:
Kan iemand me uitleggen wat er beperkt is aan de HA docker setup? Want ik heb die een paar jaar gedraaid en helemaal niks gemist!
En zelf zou ik sowieso nooit met OS kunnen werken. Mijn systeem met HA is nu plain Debian met Docker. Waarbij het systeem in meerdere VLANs hangt en containers in specifieke VLANs hangen etc.. Met HA OS zou dat nooit voor elkaar te krijgen zijn. Dan zou het systeem untagged in het IoT VLAN komen. Maar de UniFi Controller zou weer alleen toegang moeten hebben tot het "default" (/"infrastructuur") VLAN. En DNS (Unbound) moet weer in alle VLANs zitten. Onmogelijk te regelen met HA OS zoiets. En "dan installeer je toch Proxmox met HA OS in een VM" is geen oplossing. Dan moeten nog meer OSen beheert worden, neemt het energieverbruik (fors) toe, en draaien er uiteindelijk nog maar enkele tot geen addons in HA OS waardoor het hele voordeel weer wegvalt.
De entiteit is bij mij beschikbaar en staat op 100%. Verder ben ik niet gekomen. Heb een vast contract dus geen interesse om de teruglevering terug te schroeven. Gebruik de SolarEdge modbus van HACS. Heb de se4000h omvormer.TheMystery schreef op dinsdag 6 februari 2024 @ 21:04:
[...]
Heb jij de power limit werkend gekregen? Ik krijg hem op een 3 jaar oude se15k niet werkend.
Ik heb de hacs plug-ins modbus tcp en modbus multi geprobeerd maar de entiteiten voor power control zijn niet beschikbaar.
Dit is wat er in de addon is ingesteld:maxoss schreef op dinsdag 6 februari 2024 @ 21:07:
[...]
Juiste link naar de correcte usb poort? Soms verspringt dat wel eens.
/dev/serial/by-id/usb-dresden_elektronik_ingenieurtechnik_GmbH_ConBee_II_DE2481334-if00
De andere optie die ik heb is:
/dev/serial/by-id/usb-0658_0200-if00
Dan lijkt me dat goed te staan.
Ik probeer deze te installeren maar ik krijg mijn BLID en Password credentials niet opgehaald. Ik heb het volgende stappenplan gevolgd https://www.home-assistan...trieving-your-credentials, maar loop vast bij de installatie krijg bij het runnen van dorita980 op mijn mac na het runnen van de code de foutmelding.
1
2
3
4
5
6
7
8
9
10
11
12
13
| sudo npm install -g dorita980
get-roomba-password-cloud <iRobot Username> <iRobot Password>
Authentication error. Please check your credentials.
{
callId: '3e3d588f93364cd29d8a62128698e56b',
errorCode: 403042,
errorDetails: 'invalid loginID or password',
errorMessage: 'Invalid LoginID',
apiVersion: 2,
statusCode: 403,
statusReason: 'Forbidden',
time: '2024-02-06T20:57:27.215Z'
} |
Hebben anderen ook problemen met het ophalen van de credentials voor de Irobot integratie?
Merk je dat je andere zaken op je NAS onder die load lijden?HuismAndré schreef op dinsdag 6 februari 2024 @ 14:05:
[...]
Op de load na dan. Mijn HA installatie geeft een 2% processorload (volgens Synology broncontrole) op mijn DS220+ met 10GB werkgeheugen wanneer deze in een docker container draait. Als VM gaat dat omhoog naar 20% (wederom volgens Synology broncontrole). Nou, dan ga ik zelf we even stoeien met de instellingen tussen de containers want die 20% continue processorload is me echt te gortig.
Linux (waar DSM op draait) is anders dan Windows waar een zware CPU belasting negatief is voor de performance. Bij Linux merk je ook wel performance verlies maar minder. Op mijn NAS (DS918+ met 16 GB RAM) is de HA load gemiddeld 10%. Maar ja daar is de CPU ook voor gemaakt. Eerlijkheids halve moet ik er ook bij vermelden dat ik 2 NVME plaatjes heb die ik als SSD cache gebruik en dat is ook te merken in de algehele performance van mijn NAS.
Wel ervaring met de strip, geen ervaring met de (local)Tuya integratie.magnifor schreef op dinsdag 6 februari 2024 @ 19:07:
Zijn er users die ervaring hebben met de Action ledstrips die op wifi werken? Zoektocht leert mij dat je de Tuya App moet downloaden en daaraan moet koppelen, vervolgens dat je de Tuya intigratie moet toevoegen. Echter vind weinig of de strips een beetje werken zoals kleuren kunnen verwijderen en op zijn minst de helderheid etc kunt instellen?
Maar lijkt me gezien de reputatie prima gewoon een te sturen. Zou ik zelf wel voor Local Tuya gaan.
Zelf had ik hem gekocht om met CloudCutter en LibreTiny @ ESPhome te prutsen. En ze hangen nu via ESPhome volledig lokaal aan HA. Helaas is er in LibreTuya nog geen ondersteuning voor addressable leds dus mja, nu alleen CCT. Hij gaat nog even de kast in
Of, en qua ervaring met de strip, voor het geld zeker leuk! Niet mega veel ledjes / super fel of een goede CRI, maar wel grappig als accent verlichting ergens. 10m incl adapter en afgewerkte controller is dan best prima.
[ Voor 11% gewijzigd door Septillion op 07-02-2024 08:16 ]
Je mag in geen enkele app actief zijn. Ik heb het wachtwoord gewijzigd van mijn roomba account en toen integratie toegevoegdb.akkes schreef op dinsdag 6 februari 2024 @ 22:19:
Zijn er users die ervaring hebben met de iRobot Roomba integratie?
Ik probeer deze te installeren maar ik krijg mijn BLID en Password credentials niet opgehaald. Ik heb het volgende stappenplan gevolgd https://www.home-assistan...trieving-your-credentials, maar loop vast bij de installatie krijg bij het runnen van dorita980 op mijn mac na het runnen van de code de foutmelding.
code:
1 2 3 4 5 6 7 8 9 10 11 12 13sudo npm install -g dorita980 get-roomba-password-cloud <iRobot Username> <iRobot Password> Authentication error. Please check your credentials. { callId: '3e3d588f93364cd29d8a62128698e56b', errorCode: 403042, errorDetails: 'invalid loginID or password', errorMessage: 'Invalid LoginID', apiVersion: 2, statusCode: 403, statusReason: 'Forbidden', time: '2024-02-06T20:57:27.215Z' }
Hebben anderen ook problemen met het ophalen van de credentials voor de Irobot integratie?
Uhh, nee. Die zitten gewoon in de complete HA backupSander schreef op dinsdag 6 februari 2024 @ 21:01:
Tot op heden merk ik dat het simpeler te draaien is maar vraag me wel af of gebruikers van de addons door hebben dat het inrichten van backups etc wel zelf moet!
Wel zal je zelf moeten zorgen dat die backup werkelijk nog ergens anders staat. Kan via bijvoorbeeld de Drive addon maar je kan deze tegenwoordig ook al naar een netwerklocatie maken. Maar goed, die is backup in het algemeen en niet addon specifiek.
Via docker kan zeker goed werken als je daar de kennis voor hebt en de moeite neemt om het te onderhouden. Maar moet je alles stap voor stap vanaf een tutorial doen om het voor elkaar te krijgen zou ik het niet doen of aanraden. Zelfs niet als eerste stapjes in de wereld van Docker.
HA OS daarin is gewoon een redelijk fool proof methode en ook geschikt voor set and forget. Of je dan allerhande non-smart home gerelateerde Dockers moet draaien, mja, dat is een andere vraag. Andere kant vind ik Addon daarin net zo transparant als de gemiddelde image van Docker Hub of ghcr.io.
Supervised zou ik dan weer nooit aanraden. Gewoon veel geklooi om dat netjes supported te houden en 0 garantie voor de toekomst. Ook al is dat ook voortschrijdend inzicht want draai het hier nog steeds wel omdat dit 3 jaar terug de enige methode was om een RPi van een SSD te booten. Het is dat het nog niet echt volledig omgevallen is maar de plannen om naar HAOS te gaan liggen er
Oh nee, het was ook zeker niet mijn bedoeling om te zeggen dat iedereen Core in Docker moet draaien. Maar als je Core in Docker hebt draaien en daar tevreden over bent (en daarmee dus ook aantoont dat je "Docker kunt gebruiken" / "kennis van Docker hebt", en het OS kunt onderhouden) dan zie ik geen enkele reden om naar HA OS te switchen.Septillion schreef op woensdag 7 februari 2024 @ 08:37:
@Sander en @RobertMe Het hangt heel erg van de gebruiker af. Zowel qwa eisen maar zeker ook qua kennis.
Als je nog nooit in je leven Linux gebruikt hebt dan zou ik idd gewoon voor HA OS gaan.
En eens v.w.b. supervised. Het is noch vlees noch vis. Volgens mij heeft @TheFes ook al eens geschreven dat supervised de kleinste install base heeft maar relatief de meeste support vragen? Puur doordat je dan in zo'n situatie halverwege zit waarbij je denkt zaken uit handen te geven (want je krijgt de addons etc) maar toch nog veel zelf moet doen (v.w.b. onderhoud aan OS, supervised installatie, ...). Waarbij supervised het onderhoud aan zaken juist complexer maakt dan nodig is (ten opzichte van Core in Docker), maar je het onderhoud wel zelf moet doen (ten opzichte van HA OS).
Ja maar bijv de postgres addon heeft raw DB files in de backup zitten, in hoeverre die daadwerkelijk consistent en bruikbaar zijn bij een restore is (op basis van mijn professionele ervaring) erg de vraag...Septillion schreef op woensdag 7 februari 2024 @ 08:23:
[...]
Uhh, nee. Die zitten gewoon in de complete HA backup
Wel zal je zelf moeten zorgen dat die backup werkelijk nog ergens anders staat. Kan via bijvoorbeeld de Drive addon maar je kan deze tegenwoordig ook al naar een netwerklocatie maken. Maar goed, die is backup in het algemeen en niet addon specifiek.
Daarnaast backup ik thuis alles dmv Restic en merk je dan ook dat je eigenlijk gelijk unsupported dingen zit te doen in HAOS.
Nogmaals: Ik zeg niet dat het slechter is, tot nu toe is de reden dat ik overging van docker naar HAOS juist stabiliteit en dat is zeker zo. Maar goed, dat is wel wetende dat HAOS tot nu toe nog niet alle taken heeft overgenomen.
Ik vraag me ook nog even af of ik die dan ook wil behouden (met 6y data), of ook over wil naar de extentie van HASS hiervoor.
Is het jou professionele ervaring dat een volledige backup van de (ruwe) files van Postgresql niet werkt om te restoren? Want PG geeft hier wel een garantie over af: https://www.postgresql.or...continuous-archiving.html . Enige (belangrijke!) voorwaarde is dat het een consistent snapshot van alle files moet zijn. Dus bv ZFS snapshots die atomic zijn is prima. Maar je moet niet sequentieel de files gaan lezen (/kopieren), aangezien de ene file dan aangepast kan worden terwijl de ander nog/al gelezen wordt. Waardoor de state van de combinatie van bestanden niet consistent is.Sander schreef op woensdag 7 februari 2024 @ 09:21:
[...]
Ja maar bijv de postgres addon heeft raw DB files in de backup zitten, in hoeverre die daadwerkelijk consistent en bruikbaar zijn bij een restore is (op basis van mijn professionele ervaring) erg de vraag...
In mijn beperkte (hobby) test kon ik in ieder geval perfect PG laten opstarten met de bestanden uit een oud ZFS snapshot.
En deze theorie gaat voor alle systemen die een Write Ahead Log gebruiken op. Alleen geeft bv InfluxDB niet de garantie dat je ten alle tijden op basis van de WAL kunt restoren. En ook met InfluxDB heb ik dit getest en kon ik zo de server starten vanaf de bestanden uit een ZFS snapshot.
En dan heb je nog MySQL dat uberhaupt geen WAL gebruikt, of in ieder geval de InnoDB engine niet. Dus dan is een mysqldump uitvoeren echt de enige optie.
Maar als je Restic hard in HA OS installeert dan ja. Maar dat is dan ook juist niet de bedoeling (en lastig gemaakt
Wat bedoel je met "extentie van HASS"? Of had je nu purge_keep_days heel hoog?
Maar net als @RobertMe ben ik dus ook zeker niet tegen docker install maar alleen tegen het aanraden aan iemand die nog niet met docker werkt. Als een gebruiker gewoon set and forget wil => HAOS. En als hij/zij docker (of anders) overweegt dat er dan wel bewustzijn is wat dat dan aan verantwoordelijkheid inhoudt.
Ik gebruik nu het https://github.com/dsmrreader/dsmr-reader project met eigen UI (die vervolgens messages published via MQTT naar HASS en het energy dashboard. Het alternatief is natuurlijk de directe P1 DSMR integratie in HASS zelf. Dus die overweging ben ik nu aan het maken :-)Septillion schreef op woensdag 7 februari 2024 @ 09:58:
@Sander
Wat bedoel je met "extentie van HASS"? Of had je nu purge_keep_days heel hoog?
daar zijn een paar redenen voor:
- optimalisatie op OS gebied: DietPi bvb is onderliggend Debian maar net met wat scripts die perfect passen bij een low power use case zoals home assistant. Daarnaast laat het me toe om zelf nog verder te optimaliseren mbv TLP. Het totaal effect van deze twee is dat m'n ha systeem gemiddeld lager dan 3W verbruikt, waar dit anders 2 a 3x zoveel zou zijn. Ik kan me niet voorstellen dat het ha team ook nog tijd over heeft om zich hier mee bezig te houden. (net zoals ik overigens vind dat ze zich niet met dns zouden moeten bezig houden, maar dat is naast het punt hier)
- heel af en toe heb ik een Linux omgeving nodig. Door supervised te gebruiken heb ik daarvoor geen apart systeem nodig. Lijkt me nogal wiedes dat ik dus een systeem dat iets performanter is dan een rpi er zowel voor zorgt dat ha vlot draait, en dat ik dat dus ook voor situaties kan inzetten naast ha, al is het occasioneel en zorg ik er voor dat ik ha niet impacteren
- supervised laat idd toe addons, hacs etc te gebruiken.
Ik snap je redenatie, maar HACS kan op elke installatievormChurch of Noise schreef op woensdag 7 februari 2024 @ 10:42:
Rond de beste keuze qua ha variant, gebruik ik bewust supervised.
daar zijn een paar redenen voor:
- optimalisatie op OS gebied: DietPi bvb is onderliggend Debian maar net met wat scripts die perfect passen bij een low power use case zoals home assistant. Daarnaast laat het me toe om zelf nog verder te optimaliseren mbv TLP. Het totaal effect van deze twee is dat m'n ha systeem gemiddeld lager dan 3W verbruikt, waar dit anders 2 a 3x zoveel zou zijn. Ik kan me niet voorstellen dat het ha team ook nog tijd over heeft om zich hier mee bezig te houden. (net zoals ik overigens vind dat ze zich niet met dns zouden moeten bezig houden, maar dat is naast het punt hier)
- heel af en toe heb ik een Linux omgeving nodig. Door supervised te gebruiken heb ik daarvoor geen apart systeem nodig. Lijkt me nogal wiedes dat ik dus een systeem dat iets performanter is dan een rpi er zowel voor zorgt dat ha vlot draait, en dat ik dat dus ook voor situaties kan inzetten naast ha, al is het occasioneel en zorg ik er voor dat ik ha niet impacteren
- supervised laat idd toe addons, hacs etc te gebruiken.
Ik heb inderdaad de apps op mijn telefoon en die van mijn vriendin gedwongen gestopt, en de integratie met google home verwijderd, maar dit heeft helaas niet gewerkt. Goede tip van het wachtwoord veranderen, zal dit eens proberen.mitchdc schreef op woensdag 7 februari 2024 @ 08:22:
[...]
Je mag in geen enkele app actief zijn. Ik heb het wachtwoord gewijzigd van mijn roomba account en toen integratie toegevoegd
Ik hoop ten stelligste dat men daar aan HA kant niet nog strenger in gaat worden en verstaat dat die zaken ook best nuttig kunnen zijn...
[ Voor 19% gewijzigd door Church of Noise op 07-02-2024 11:37 ]
Heb je het hele systeem al eens uitgezet? Usb verwijderd en teruggeplaatst. En dan weer opgestart? Dat is de simpelste foutoplossing. Het kan aan de usb-stick, het host-systeem, Home-assistant en of de addon liggen.vortexnl1982 schreef op dinsdag 6 februari 2024 @ 21:34:
[...]
Dit is wat er in de addon is ingesteld:
/dev/serial/by-id/usb-dresden_elektronik_ingenieurtechnik_GmbH_ConBee_II_DE2481334-if00
De andere optie die ik heb is:
/dev/serial/by-id/usb-0658_0200-if00
Dan lijkt me dat goed te staan.
"usb-dresden_elektronik_ingenieurtechnik_GmbH_ConBee_II_DE1964348-if00" zou goed moeten zijn.
1
2
3
4
5
6
7
8
9
10
| homeassistant: packages: !include_dir_named packages/ name: Home country: NL # Location required to calculate the time the sun rises and sets latitude: 51.264192 longitude: 5.679536 time_zone: Europe/Amsterdam #external_url: "https://kerkhofies.duckdns.org:8123/" #internal_url: "http://kerkhofies.duckdns.org:8123/" |
Maar ik heb die internal en external commentaar gemaakt maar nog steeds is dit geblokkeerd. Ik kan dat hele HA deel er wel uit halen maar wat gebeurt er dana met packages, waar moet dat heen?
Xiaomi 13T Pro
Yes, allemaal gedaan. Ook in andere usb poort gestoken. Backups teruggezet van een week terug (toen alles nog werkte).ahbart schreef op woensdag 7 februari 2024 @ 12:58:
[...]
Heb je het hele systeem al eens uitgezet? Usb verwijderd en teruggeplaatst. En dan weer opgestart? Dat is de simpelste foutoplossing. Het kan aan de usb-stick, het host-systeem, Home-assistant en of de addon liggen.
"usb-dresden_elektronik_ingenieurtechnik_GmbH_ConBee_II_DE1964348-if00" zou goed moeten zijn.
MAAR vanmorgen nog een reboot gedaan en je raad het nooit: nu werkt het...
Alleen m'n solar addon werkt nog niet, die is ook kapot gegaan. Ik krijg een X-Ratelimit-Limit error terwjil dat voorheen altijd perfect werkte
packages moet je laten staan, de rest weghalen en in de GUI doen.Btje schreef op woensdag 7 februari 2024 @ 13:33:
Ik wil ngix instellen, in een tutorial staat dat ik in de gui bij netwerk instellingen van HA dus nog niet in ngix de duckdns verwijzing moet toevoegen echter is dit geblokkeerd omdat dit al in de config staat.
YAML:
1 2 3 4 5 6 7 8 9 10 homeassistant: packages: !include_dir_named packages/ name: Home country: NL # Location required to calculate the time the sun rises and sets latitude: 51.264192 longitude: 5.679536 time_zone: Europe/Amsterdam #external_url: "https://kerkhofies.duckdns.org:8123/" #internal_url: "http://kerkhofies.duckdns.org:8123/"
Maar ik heb die internal en external commentaar gemaakt maar nog steeds is dit geblokkeerd. Ik kan dat hele HA deel er wel uit halen maar wat gebeurt er dana met packages, waar moet dat heen?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
| - type: custom:apexcharts-card graph_span: 24h span: start: day experimental: color_threshold: true brush: true header: show: true show_states: true colorize_states: true apex_config: legend: show: false grid: strokeDashArray: 0 borderColor: rgb(52,52,52) xaxis: axisBorder: show: false color: rgb(52,52,52) tickAmount: 1 axisTicks: show: false labels: style: colors: rgb(128,128,128) yaxis: - id: Aan/uit decimals: 0 opposite: true - id: Boiler decimals: 0 apex_config: tickAmount: 2 all_series_config: type: area curve: smooth stroke_width: 1 group_by: func: avg duration: 10min color_threshold: - value: 10 opacity: 0.1 - value: 20 opacity: 0.3 - value: 30 opacity: 0.5 - value: 40 opacity: 0.7 - value: 50 opacity: 0.9 series: - entity: sensor.keuken_vloerverwarming_status yaxis_id: Aan/uit color: yellow float_precision: 0 extend_to: now curve: straight type: area - entity: sensor.technieken_boiler_actueel_vermogen_2 yaxis_id: Boiler color: purple float_precision: 1 curve: smooth extend_to: now type: line |
geeft me eigenlijk een verschrikkelijke grafiek....
1. Hoe kan ik y-as beter verdelen ? (rechts moet enkel 0 en 1 worden). links wat onderverdelingen meer.
2. Hoe verander ik de titels ? mijn idee van yaxis_id werkt blijkbaar niet
3. Eigenlijk moeten de titels verwisselt worden van kant... Hoe doe ik dat ?
Deze wil ik in een tile kaart laten zien en dat lukt ook maar het format is "last_triggered: 2024-02-06T23:00:00.014589+00:00".
Kan ik deze makkelijk omzetten naar alleen de uren en minuten geleden?
1
| {% set z = (now()-state_attr("automation.fan_auto_speed", "last_triggered")) %} |
Geeft: 5:37:23.24576, dus h:mm:ss.sssss
Ook toepassen van de relative_time functie hierop geeft hetzelfde resultaat.
Ik wil graag HH:MM format als uitvoer.
Wil je de tijd dat hij voor het laatst getriggerd is als resultaat, of hoe lang het geleden is? En wat als het langer dan een dag geleden isTWKterry schreef op woensdag 7 februari 2024 @ 15:34:
Een automation heeft een "last triggered" attribute.
Deze wil ik in een tile kaart laten zien en dat lukt ook maar het format is "last_triggered: 2024-02-06T23:00:00.014589+00:00".
Kan ik deze makkelijk omzetten naar alleen de uren en minuten geleden?
YAML:
1 {% set z = (now()-state_attr("automation.fan_auto_speed", "last_triggered")) %}
Geeft: 5:37:23.24576, dus h:mm:ss.sssss
Ook toepassen van de relative_time functie hierop geeft hetzelfde resultaat.
Ik wil graag HH:MM format als uitvoer.
Is echter onwaarschijnlijk dat het langer dan 24 uur duurt voordat de ventialtie snelheid aangepast wordt.
Nee, dat niet (zal mede komen doordat ik alleen maar SSD's in de DS220+ heb zitten). Wel zag ik het verbruik toenemen met een paar W (en dat was juist een van de redenen waarom ik HA op de toch al draaidende NAS wilde hebben in plaats van op een los N100 doosje of zo).peterstr schreef op dinsdag 6 februari 2024 @ 23:14:
[...]
Merk je dat je andere zaken op je NAS onder die load lijden?
André Huisman (www.new-line.nl)
Je kunt daar eventueel mijn relative time plus macro voor gebruikenTWKterry schreef op woensdag 7 februari 2024 @ 15:49:
De tijd dat het geleden is in uren en minuten (kan dus meer dan 24 worden.
Is echter onwaarschijnlijk dat het langer dan 24 uur duurt voordat de ventialtie snelheid aangepast wordt.
Of wil je een format als 12:34?
Oh, dat is een aardige lap text voor een macro. Het format 12:34 is wat mij betreft ok als het dan met een simpele functie kan.TheFes schreef op woensdag 7 februari 2024 @ 16:01:
[...]
Je kunt daar eventueel mijn relative time plus macro voor gebruiken
Of wil je een format als 12:34?
Ik krijg nu nog de volgende melding.
Ongeldige lokale netwerk-URL
Je hebt een HTTPS-certificaat geconfigureerd in Home Assistant. Dit betekent dat je interne URL moet worden ingesteld op een domein dat onder het certificaat valt.
Ik heb idd https geconfigureerd dmv base url. Moet dat er ook uit als je ngix gebruikt?
En kan ik die regels zomaar verwijderen. Wil niet zonder toegang komen te zitten.
TheFes schreef op woensdag 7 februari 2024 @ 14:46:
[...]
packages moet je laten staan, de rest weghalen en in de GUI doen.
Xiaomi 13T Pro
Het idee is dus dat je hem in custom templates zet, en dan importeert als je hem nodig hebt.TWKterry schreef op woensdag 7 februari 2024 @ 16:08:
[...]
Oh, dat is een aardige lap text voor een macro. Het format 12:34 is wat mij betreft ok als het dan met een simpele functie kan.
12:34 kan ook, maar dan moet je dat uit het aantal seconden gaan berekenen.
@TWKterry
Deze is niet al te lang, maar werkt maar tot 24u
1
| {{ (now()-state_attr("automation.fan_auto_speed", "last_triggered")).total_seconds() | timestamp_custom('%H:%M', false) }} |
[ Voor 19% gewijzigd door TheFes op 07-02-2024 17:50 ]
Jup, zijn al meerdere issues open. Klik even op het zonnetje, dan wordt het opgelost voor nu.bbn_ldp schreef op woensdag 7 februari 2024 @ 18:02:
Meer mensen last na de laatste update van Zigbee2Mqtt dat de layout niet meer goed is?
[Afbeelding]
Iemand een idee wat ik her aan kan doen buiten een backup terugzetten?
Ik heb Piper en Whisper geïnstalleerd, en een tutorial online gevolgd om het in te stellen.
Zover ik weet en zie is alles correct ingevuld, echter verstaat de assistant me meer niet dan wel. Ook is de reactie die ik terug krijg alsof iemand zonder tong aan het praten is.
Ik heb alle settings meermaals nagelopen, maar kan niet goed vinden waardoor dit kan komen.
Heel soms pakt hij het wel goed op, maar eigenlijk 80% van de keren niet, of reageert het heel traag.
Als ik iets typ in the Voice Assistant, dan werkt het wel direct en snel en pakt hij alles op.
er gaat dus enkel iets niet goed met spraak.
[ Voor 11% gewijzigd door Wachten... op 07-02-2024 19:53 ]
Als je dit kunt lezen, dan werkt mij Signature!
Gebruik zelf enkel de Text to Speech en daarbij gebruik ik in Piper de nl_be stem. Deze is veel hogere kwaliteit dan de nl_nl omdat je kan kiezen voor type “medium” i.p.v. “low”.Wachten... schreef op woensdag 7 februari 2024 @ 19:36:
Zijn er hier meer mensen waarbij de Voice Assistant erg slecht werkt (in het Nederlands)?
Ik heb Piper en Whisper geïnstalleerd, en een tutorial online gevolgd om het in te stellen.
Zover ik weet en zie is alles correct ingevuld, echter verstaat de assistant me meer niet dan wel. Ook is de reactie die ik terug krijg alsof iemand zonder tong aan het praten is.
Ik heb alle settings meermaals nagelopen, maar kan niet goed vinden waardoor dit kan komen.
Heel soms pakt hij het wel goed op, maar eigenlijk 80% van de keren niet, of reageert het heel traag.
Als ik iets typ in the Voice Assistant, dan werkt het wel direct en snel en pakt hij alles op.
er gaat dus enkel iets niet goed met spraak.
Maar zal dit dan ook echt verschil maken voor mij? Want ik wil hoofdzakelijk spraak gebruiken op mijn telefoon. Ik heb mijn telefoon zo ingesteld dat ik de home knop ingedrukt kan houden, en dat dan de Home Assistant (voice assistant) opent. Als ik dan vervolgens iets simpels zeg zoals "zet keukelamp uit" dan maakt die daar altijd iets geks en onverstaanbaars van, en snapt hij het nooit.BiG-GuY schreef op woensdag 7 februari 2024 @ 20:37:
[...]
Gebruik zelf enkel de Text to Speech en daarbij gebruik ik in Piper de nl_be stem. Deze is veel hogere kwaliteit dan de nl_nl omdat je kan kiezen voor type “medium” i.p.v. “low”.
Als je dit kunt lezen, dan werkt mij Signature!
Oké, dan ligt het denk ik aan de se15k, bij mijn neef werkt het namelijk ook op een se500h.belly89 schreef op dinsdag 6 februari 2024 @ 21:33:
[...]
De entiteit is bij mij beschikbaar en staat op 100%. Verder ben ik niet gekomen. Heb een vast contract dus geen interesse om de teruglevering terug te schroeven. Gebruik de SolarEdge modbus van HACS. Heb de se4000h omvormer.
Dus enkel fase is misschien anders dan een 3 fase.
Heb hem net op NL be gezet, en de reactie die ik krijg is nu op zn minst verstaanbaar (soort van).
Echter maakt hij dus dit soort dingen ervan als ik gewoon vraag "zet keukelamp uit"
Als je dit kunt lezen, dan werkt mij Signature!
Die gekke verbasteringen herken ik niet.
Zet je code tussen [code=yaml] [/code] tags om het goed leesbaar te houden; ook makkelijker voor de eventuele foutopsporing.
Lees ook eerst even de topicstart voor je je vraag plaatst, wellicht wordt je vraag daar al beantwoord. Wil je pronken met je setup mag dat in Home Assistant - Show je setup.
/f/image/or6q2XGRXV1Ox3lFEJI8lzmD.png?f=fotoalbum_large)