Kiedy naukowcy z Los Alamos badali te wewnętrzne działania ich algorytmu, czego się nauczyli, zaskoczyli ich. Cecha statystyczna, na której algorytm opierał się najbardziej dla swoich przewidywań, była niezwiązana z prekursorskimi wydarzeniami tuż przed trzęsieniem w laboratorium. Była to raczej wariancja — miara wahań sygnału względem średniej — i była transmitowana przez cały cykl poślizgu, a nie tylko w momentach bezpośrednio przed awarią., Wariancja zaczynałaby się mała, a następnie stopniowo wspinać się podczas biegu do trzęsienia ziemi, prawdopodobnie gdy ziarna między blokami coraz bardziej przepychały się pod naprężeniem ścinającym. Po prostu znając tę wariancję, algorytm mógł przyzwoicie odgadnąć, kiedy nastąpi poślizg; informacje o zdarzeniach prekursorowych pomogły udoskonalić te domysły.
odkrycie miało duże potencjalne implikacje. Przez dziesięciolecia niedoszli prognostycy trzęsienia ziemi wpatrywali się w foreshoki i inne izolowane wydarzenia sejsmiczne., Wynik Los Alamos sugerował, że wszyscy szukali w niewłaściwym miejscu — że klucz do przewidywania leżał zamiast tego w bardziej subtelnej transmisji informacji w stosunkowo spokojnych okresach między dużymi wydarzeniami sejsmicznymi.
Aby pokazać, że uczenie maszynowe może przewidywać prawdziwe trzęsienia ziemi, Johnson musiał przetestować je na prawdziwej usterce. Pomyślał, że nie ma lepszego miejsca, niż północno-zachodni Pacyfik?,
poza laboratorium
większość, jeśli nie wszystkie miejsca na Ziemi, które mogą doświadczyć trzęsienia ziemi wielkości 9 są strefy subdukcji, gdzie jedna płyta tektoniczna nurkuje pod inną. Strefa subdukcji na wschód od Japonii była odpowiedzialna za trzęsienie ziemi w Tohoku i późniejsze tsunami, które zniszczyło linię brzegową kraju w 2011 roku. Pewnego dnia Strefa subdukcji Cascadia, gdzie Płyta Juan De Fuca nurkuje pod płytą północnoamerykańską, podobnie zniszczy Puget Sound, wyspę Vancouver i otaczający ją Pacyfik Północno-Zachodni.,
Strefa subdukcji Cascadia rozciąga się wzdłuż około 1000 kilometrów wybrzeża Pacyfiku od Przylądka Mendocino w północnej Kalifornii do wyspy Vancouver. Ostatni raz, w styczniu 1700 r., wywołał temblor wielkości 9 i tsunami, które dotarło do wybrzeży Japonii. Zapisy geologiczne sugerują, że przez cały Holocen uskok produkował takie megakwakie mniej więcej raz na pół tysiąclecia, mniej więcej kilkaset lat. Statystycznie rzecz biorąc, następny wielki ma być za sto lat.,
to jeden z powodów, dla których sejsmolodzy zwrócili tak dużą uwagę na powolne trzęsienia ziemi w regionie. Uważa się, że powolne poślizgi w dolnych granicach uskoku strefy subdukcji przenoszą niewielkie ilości stresu do kruchej skorupy powyżej, gdzie występują szybkie, katastrofalne wstrząsy. Z każdym powolnym poślizgiem w rejonie Puget Sound-Vancouver Island, szanse na megaquake Północno-Zachodniego Pacyfiku rosną tak lekko. Rzeczywiście, powolny poślizg zaobserwowano w Japonii w miesiącu poprzedzającym trzęsienie Tohoku.,
dla Johnsona jest jednak inny powód, aby zwrócić uwagę na powolne trzęsienia ziemi poślizgu: produkują wiele, wiele danych. Dla porównania, nie było żadnych dużych szybkich trzęsień ziemi na odcinku winy między Puget Sound i Vancouver Island w ciągu ostatnich lat 12. W tym samym czasie uskok spowodował kilkanaście powolnych poślizgów, z których każdy zapisano w szczegółowym katalogu sejsmicznym.
ten katalog sejsmiczny jest prawdziwym odpowiednikiem nagrań akustycznych z eksperymentu Johnsona., Podobnie jak w przypadku nagrań akustycznych, Johnson i jego współpracownicy posiekali dane sejsmiczne na małe segmenty, charakteryzując każdy segment za pomocą zestawu cech statystycznych. Następnie przekazali te dane treningowe wraz z informacjami o czasie przeszłych zdarzeń slow slip do algorytmu uczenia maszynowego.
po przeszkoleniu w zakresie danych z lat 2007-2013, algorytm był w stanie przewidzieć powolne poślizgi, które miały miejsce w latach 2013-2018, na podstawie danych zarejestrowanych w miesiącach przed każdym wydarzeniem., Kluczową cechą była energia sejsmiczna, ilość ściśle związana z wariancją sygnału akustycznego w eksperymentach laboratoryjnych. Podobnie jak wariancja, energia sejsmiczna wspięła się w charakterystyczny sposób w okresie poprzedzającym każdy powolny poślizg.
prognozy Cascadia nie były tak dokładne, jak te dla trzęsień laboratoryjnych. Współczynniki korelacji charakteryzujące, jak dobrze prognozy pasują do obserwacji, były znacznie niższe w nowych wynikach niż w badaniu laboratoryjnym., Mimo to algorytm był w stanie przewidzieć wszystkie z wyjątkiem jednego z pięciu powolnych poślizgów, które miały miejsce między 2013 a 2018, wskazując czasy rozpoczęcia, mówi Johnson, w ciągu kilku dni. (Powolny poślizg, który miał miejsce w sierpniu 2019 r., nie został uwzględniony w badaniu.)
Dla de Hoopa dużym problemem jest to, że „techniki uczenia maszynowego dały nam Korytarz, wejście do wyszukiwania w danych w celu poszukiwania rzeczy, których nigdy wcześniej nie zidentyfikowaliśmy lub nie widzieliśmy.”Ale ostrzega, że jest więcej pracy do zrobienia. „Podjęto ważny krok — niezwykle ważny krok., Ale to jest jak mały krok we właściwym kierunku.”
trzeźwe prawdy
celem prognozowania trzęsień ziemi nigdy nie było przewidywanie powolnych poślizgów. Raczej, to przewidzieć nagłe, katastrofalne wstrząsy, które stanowią zagrożenie dla życia i kończyn. Dla podejścia do uczenia maszynowego stanowi to pozorny paradoks: największe trzęsienia ziemi, te, które sejsmolodzy najbardziej chcieliby być w stanie przewidzieć, są również najrzadsze. W jaki sposób algorytm uczenia maszynowego uzyska wystarczającą ilość danych treningowych, aby przewidzieć je z pewnością?,
grupa Los Alamos obstawia, że ich algorytmy nie będą musiały trenować na katastrofalnych trzęsieniach ziemi, aby je przewidzieć. Ostatnie badania sugerują, że wzorce sejsmiczne przed małymi trzęsieniami ziemi są statystycznie podobne do tych z ich większych odpowiedników, a każdego dnia dziesiątki małych trzęsień ziemi mogą wystąpić na jednym uskoku. Komputer przeszkolony na tysiącach tych małych temblorów może być wystarczająco wszechstronny, aby przewidzieć te duże., Algorytmy uczenia maszynowego mogą również trenować symulacje komputerowe szybkich trzęsień ziemi, które pewnego dnia mogą służyć jako proxy dla prawdziwych danych.
ale mimo to, naukowcy skonfrontują tę otrzeźwiającą prawdę: chociaż procesy fizyczne, które prowadzą błąd na krawędź trzęsienia ziemi mogą być przewidywalne, rzeczywiste wywołanie trzęsienia-wzrost małego zakłócenia sejsmicznego do pełnego pęknięcia uskoku-jest uważana przez większość naukowców zawierać co najmniej element przypadkowości., Zakładając, że tak jest, bez względu na to, jak dobrze maszyny są wyszkolone, mogą nigdy nie być w stanie przewidzieć trzęsień ziemi, jak również naukowcy przewidują inne klęski żywiołowe.
„nie wiemy jeszcze, co oznacza prognozowanie w odniesieniu do czasu” – powiedział Johnson. „Czy to będzie jak huragan? Nie, Nie sądzę.”
w najlepszym przypadku przewidywania dużych trzęsień ziemi będą prawdopodobnie miały granice czasu tygodni, miesięcy lub lat. Takie prognozy prawdopodobnie nie mogłyby być wykorzystane, powiedzmy, do koordynacji masowej ewakuacji w przeddzień tembloru., Mogą one jednak zwiększyć gotowość społeczeństwa, pomóc urzędnikom publicznym w ukierunkowaniu wysiłków na modernizację niebezpiecznych budynków i w inny sposób ograniczyć zagrożenia związane z katastrofalnymi trzęsieniami ziemi.
Johnson postrzega to jako cel, do którego warto dążyć. Realista wie jednak, że to zajmie trochę czasu. „Nie mówię, że będziemy przewidywać trzęsienia ziemi w moim życiu, „powiedział,” ale … będziemy robić piekło dużo postępu.”
artykuł został przedrukowany na Wired.com.