Muszę się przyznać do kilku porażek w tym jednej bezpośrednio związanej z HA - wykorzystując do tego zastosowania sprzęt ze sporym nadmiarem wydajności w stosunku do realnych potrzeb oraz równocześnie mając możliwość bajecznie łatwej integracji z wieloma serwisami online dopuściłem do sytuacji, w której pojedyncza instalacja HA generowała 700MB-800MB dobowego ruchu z/do internetu (realnie koło 650MB down i 150MB up) i to bez cyklicznych backupów (a wrzucam je na gdrive, więc też trochę danych leci) co w przypadku pracy instalacji z wykorzystaniem jedynie dostępu do internetu przez LTE "stanęło mi ością w wąskim gardle" pakietu (100GB miesięcznie… więc ~24GB robi różnicę ;P).
Teraz pozostało mi znaleźć winowajcę (winowajców?) tak dużego ruchu, oczywiście tego ruchu nie da się zlikwidować całkowicie (choć HA na sprzęcie PC, u mnie to NUC, może pracować całkowicie offline radząc sobie nawet z zanikami zasilania dzięki podtrzymywanemu RTC stosowanym powszechnie w pecetach, ale trudno zrezygnować np. z aktualizacji, serwisu pogodowego i paru innych) wstępnie wyłączyłem niemal wszystko co może pobierać dane z internetu ;P (integracje konfigurowane z UI jak i w yaml, niektóre add-on'y oraz nieco kodu chałupniczej produkcji - w sumie najbardziej podejrzany
)
Poza podejrzeniami jak dotąd pozostają:
- met.no
- weatherbit (ma możliwość łatwej regulacji częstotliwości aktualizacji)
- coronavirus (monitoruję dane zbierane z 20 interesujących mnie krajów)
- simpleicons
- breaking changes
- openexchangerates
- Folding@home (mam na myśli sam obliczeniowy engine, bo obrabiane paczki danych ani wyniki nie są wielkimi plikami, natomiast nie wiem jak się sprawy mają z podglądem statystyk online, ale nie przypuszczam aby mogły one generować większy ruch niż same obliczenia)
oraz wszystkie integracje działające w oczywisty sposób jedynie w oparciu o dane uzyskiwane lokalnie.
Jest oczywiście kilka integracji, które z wiadomych przyczyn mogą generować spore ilości przesłanych danych, a wśród nich np.
- speedtestdotnet (to jest po prostu Ookla, oczywiście tylko w trakcie pomiaru, ale np. w zdalnej lokalizacji, także z dostępem LTE wykorzystywałem tą integrację, do testów stabilności pracy zestawu modem-router, przy okazji sprawdzając jak się prezentują dostępne prędkości przez całą dobę - takie testy tam trwały koło tygodnia co pół godziny i zużyłem na to koło 25GB)
- blitzortung (developer nawet ostrzega przed potencjalnym wpływem na wydajność HA w przypadku intensywnych burz, więc tymczasowo wyłączyłem, okres burzowy i tak już raczej minął).
Pozostało mi do sprawdzenia kilkanaście innych, z dużej części z nich mogę zrezygnować lub zastąpić innymi, no ale jednak siła przyzwyczajenia działa (szkoda się pozbywać niektórych ciekawych funkcji…), niestety to jest zadanie na paręnaście dni (po prostu przyjąłem najprostsze z możliwych rozwiązań - wyłączyłem wszystko co podejrzewałem i będę uruchamiał "po kawałku" w takich odstępach czasu by widzieć wpływ na najprostsze statystyki ruchu).
W sumie porażka nie jest zupełna - wyczyściłem nieco konfigurację
pakiet odnowi się dopiero za kilka dni, więc dopiero wtedy mogę zaszaleć na uruchomienie najbardziej podejrzanych składników konfiguracji.
edit: Sprawdzone i OK:
- here (czas podróży)
- 17track (śledzenie przesyłek)
- antistorm
- airly
- tuya
- supla
- ZeroTier One (również z podpiętym klientem)
w trakcie
- Blitzortung (w prognozie pogody zapowiadali burze!)