FDI
Jak działa
Generuj rezidua: r(t) = y(t) - ŷ(t), gdzie ŷ(t) = wyjście modelu/obserwatora. Zastosuj test statystyczny lub próg: r > γ → detekcja. Użyj banku obserwatorów (każdy wrażliwy na jeden komponent) lub parity equations do izolacji. Identyfikacja: adaptacyjne metody online (np. least squares) do estymacji wielkości uszkodzenia.
Rozwiązany problem
Jak automatycznie wykryć, zlokalizować i scharakteryzować uszkodzenie w systemie dynamicznym na podstawie sygnałów wejściowych i wyjściowych, bez ingerencji operatora.
Komponenty
Moduł obliczający rezidua r(t) = y(t) - ŷ(t) na podstawie modelu nominalnego lub obserwatora.
Moduł porównujący rezidua z progami lub stosujący testy statystyczne (CUSUM, GLR, χ²) do podjęcia decyzji o uszkodzeniu.
Zestaw obserwatorów (Luenberger, KF) zaprojektowanych dla różnych scenariuszy uszkodzeń — każdy generuje rezidua wrażliwe na jeden rodzaj uszkodzenia.
Estymuje wielkość i charakter uszkodzenia (adaptive parameter estimation, LS, Bayesian methods) po jego izolacji.
Implementacja
Zmniejszenie progu detekcji zwiększa FAR; zwiększenie progu zwiększa MDR. Konieczny kompromis zależny od aplikacji.
FDI oparte na obserwatorach może mylić zakłócenia zewnętrzne z uszkodzeniami (brak odporności).
Standardowe schematy banku obserwatorów projektowane dla uszkodzeń pojedynczych zawodzą przy dwóch jednoczesnych awariach.
Ewolucja
R. V. Beard (MIT) formalizuje fault accommodation — początek model-based FDI.
P. M. Frank systematyzuje metody obserwatorowe FDI w serii publikacji; Dedicated Observer Scheme (DOS) i GOS.
J. Gertler formalizuje podejście parity equations do FDI jako alternatywę dla obserwatorów.
Pierwsza konferencja IFAC SAFEPROCESS (Safety of Computer Control Systems) — FDI/FTC staje się odrębną subdyscypliną.
Wzrost zastosowania SVM, random forests i sieci neuronowych do FDI na danych przemysłowych (diagnostyka predykcyjna).
Autoenkodery, LSTM i Transformer-based anomaly detection stosowane do FDI w robotyce i przemyśle 4.0.
Szczegóły techniczne
Wymagania sprzętowe
FDI realizowane na RT CPU w pętli sterowania (typowo ta sama platforma co regulator).
Deep learning FDI (autoenkodery, LSTM) może korzystać z GPU dla offline treningu lub inference w systemach nieciągłoczasowych.
Model-based FDI jest hardware-agnostic; kluczowy jest deterministyczny scheduler RT.