Gdzie działa geometria różniczkowa? Mapa zastosowań
Kiedy zaczynałem przygodę z geometrią różniczkową, myślałem że to nisza — coś między akademicką ciekawostką a filozofią matematyki. Z czasem okazało się inaczej. Geometria różniczkowa pojawia się w co najmniej pięciu różnych obszarach inżynierii i nauki o danych. Każdy z nich ma inny charakter, inną motywację i inne narzędzia. Poniżej próbuję narysować tę mapę.
Punkt wyjścia: co łączy wszystkie obszary? #
Jeden wspólny mianownik:
Odmowa traktowania problemu jako płaskiego, gdy nim nie jest.
Inżynier który nie zna geometrii różniczkowej nie wie czego nie wie. Układ działa w punkcie pracy, testy przechodzą, produkt idzie na rynek — a potem przy granicznych warunkach pojawia się nieoczekiwana osobliwość. I nikt nie rozumie dlaczego.
Obszar 1: Fizyka i mechanika #
To najbardziej naturalny obszar. Wszędzie tam gdzie pojawiają się obroty, kąty, orientacje — przestrzeń stanów nie jest płaskim $\mathbb{R}^n$.
Inżynierowie już to robią, ale pod innymi nazwami. Kąty Eulera to lokalne współrzędne na $SO(3)$. Transformata Parka w sterowaniu silnikiem to sekcja wiązki nad $S^1$ — kąt wirnika żyje na okręgu, nie na prostej. Gimbal lock to nie błąd programisty lecz osobliwość układu współrzędnych, która pojawia się nieuchronnie gdy próbujesz opisać $SO(3)$ tylko trzema liczbami.
Przykład z mojej pracy: w sterowaniu polowo-zorientowanym (FOC) człony sprzęgające $\omega \psi_d$ i $\omega \psi_q$ które “przeszkadzają” regulatorom PI — to nie zakłócenia. To geometryczny ślad zakrzywienia połączenia na obracającej się rozmaitości. Odsprzęganie w FOC to dosłownie kompensacja tej krzywizny.
Brak świadomości geometrycznej tutaj boli przy: kompozycji obrotów (stąd kwaterniony), interpolacji orientacji (stąd SLERP), globalnej stabilności regulatorów zaprojektowanych lokalnie.
Osobną gałęzią w tym obszarze są układy Port-Hamiltonowskie (van der Schaft, Ortega). Klasyczne podejście do sterowania pyta: “jak zmusić układ do pożądanego zachowania?” Port-Hamiltonowskie pyta inaczej: “jaka jest naturalna geometria energetyczna układu i jak ją ukształtować?” Układ opisuje się przez hamiltonian $H$ i strukturę Diraca która koduje przepływy mocy między podsystemami. Sterowanie passivity-based (PBC) nie walczy z geometrią — używa jej jako zasobu. Dla maszyn elektrycznych oznacza to regulatory które z natury szanują ograniczenia energetyczne i mają gwarantowaną stabilność globalną, nie tylko lokalną wokół punktu pracy.
Obszar 2: Dane i uczenie maszynowe #
Tu geometria jest mniej oczywista, bo dane pozornie “nie mają fizyki”. Ale dane żyją na rozmaitościach — tylko że tych rozmaitości nikt nam nie podaje. CNN je odkrywa przez trening.
Klasyczny przykład: obrazy twarzy nie wypełniają całej przestrzeni $\mathbb{R}^{1000 \times 1000}$. Leżą na niskowymiarowej rozmaitości w tej przestrzeni. Sieć neuronowa uczy się tej rozmaitości bez jej jawnego opisywania.
Geometryczne uczenie głębokie (Bronstein i in.) idzie dalej: jeśli znamy strukturę symetrii danych z góry (obrotowa, translacyjna, permutacyjna), możemy wbudować ją w architekturę sieci. CNN jest ekwiwariantna translacyjnie — dlatego działa na obrazach. GNN jest ekwiwariantna permutacjom węzłów — dlatego działa na grafach.
Przykład: w moim projekcie detekcji kawitacji w pompach hydraulicznych sieć CNN przetwarza sygnał akustyczny jako spektrogram. Fizycznie: uczy się rozmaitości “stanów kawitacyjnych” w przestrzeni cech. Transformata Fouriera którą stosuję wcześniej to zmiana współrzędnych — ta sama operacja co Park w FOC, tylko na innych danych.
Obszar 3: Optymalizacja na rozmaitościach #
To osobny świat, niedoceniany przez inżynierów. Gdy minimalizujesz funkcję kosztu której dziedzina ma strukturę rozmaitości, zwykłe metody gradientowe zawodzą — bo krok gradientowy może wyprowadzić poza rozmaitość.
Zamiast gradientu euklidesowego trzeba gradientu riemannowskiego. Zamiast kroku $x \leftarrow x - \alpha \nabla f$ — retrakcji na rozmaitość.
Kilka przykładów gdzie to się pojawia bez ostrzeżenia:
- PCA → optymalizacja na Grassmannianie $Gr(k, n)$
- Kalibracja IMU → optymalizacja na $SE(3)$
- Synchronizacja zegarów w sieciach → optymalizacja na $SO(n)$
Przykład: inżynier który kalibruje IMU i parametryzuje orientację kątami Eulera dostaje źle uwarunkowany problem z osobliwościami. Ten który wie że kalibracja to optymalizacja na $SE(3)$ i użyje biblioteki typu geomstats lub pymanopt — dostaje globalną zbieżność bez osobliwości.
Obszar 4: Geometria informacji #
Przestrzeń rozkładów prawdopodobieństwa sama jest rozmaitością riemannowską — z metryką Fishera jako tensorem metrycznym. To nie jest abstrakcja: ma bezpośrednie konsekwencje dla uczenia maszynowego i filtracji.
Naturalny gradient (Amari, 1998) to gradient obliczony z uwzględnieniem tej metryki. Zwykłe SGD traktuje przestrzeń parametrów sieci jako płaskie $\mathbb{R}^n$ — naturalny gradient szanuje jej prawdziwą geometrię. Efekt: szybsza zbieżność, lepsza generalizacja.
Przykład: filtr komplementarny który stosuję do estymacji orientacji to szczególny przypadek bayesowskiej filtracji na $SO(3)$. Gdy zaprojektuje się go świadomie geometrycznie (Mahony, Hamel, Vidal) — zyskuje globalną stabilność której wersja naiwna nie ma. To ten sam aparat co geometria informacji, tyle że na rozmaitości grupy Liego zamiast na rozmaitości statystycznej.
Obszar 5: Geometria kształtu #
Przestrzeń kształtów (shape spaces) — jak porównać dwa serca na obrazie MRI? Jak śledzić deformację tkanki? Kształty same tworzą rozmaitości, często nieskończeniewymiarowe.
To jest najdalej od mojej codziennej pracy, ale wspominam go dla kompletności obrazu. Zastosowania obejmują analizę obrazów medycznych, przetwarzanie siatek 3D i śledzenie deformacji materiałów w mechanice.
Podsumowanie: pełna mapa #
| Obszar | Rozmaitość | Przykład inżynierski |
|---|---|---|
| Fizyka i mechanika | $SO(3)$, $SE(3)$, $S^1$ | Sterowanie silnikiem, robotyka |
| Dane i ML | nieznana, odkrywana | CNN, GNN, detekcja anomalii |
| Optymalizacja | Grassmannian, $SE(3)$ | Kalibracja, PCA, synchronizacja |
| Geometria informacji | rozmaitość statystyczna | Naturalne gradienty, filtry bayesowskie |
| Geometria kształtu | shape spaces | Obrazowanie medyczne, deformacje |
Wszystkie pięć obszarów mają wspólny aparat: rozmaitości, wiązki, koneksje, krzywizna. Różnią się tym co jest rozmaitością — konfiguracja fizyczna, przestrzeń danych, przestrzeń parametrów, przestrzeń rozkładów, przestrzeń kształtów.
Jeśli pracujesz z obrotami, kątami, orientacjami, rozkładami prawdopodobieństwa lub danymi wysokowymiarowymi — prawdopodobnie już jesteś w jednym z tych obszarów. Pytanie tylko czy wiesz w którym.