da Los Alamos-forskerne undersøgte de indre funktioner i deres algoritme, overraskede det, de lærte dem. Den statistiske funktion algoritmen lænede sig mest for sine forudsigelser var ikke relateret til precursorhændelserne lige før et laboratorieskælv. Det var snarere variansen — et mål for, hvordan signalet svinger omkring middelværdien-og det blev sendt gennem stick-slip-cyklussen, ikke kun i øjeblikket umiddelbart før fiasko., Variansen ville starte små og derefter gradvist klatre under opkørslen til et jordskælv, formodentlig da kornene mellem blokkene i stigende grad skød hinanden under monteringsskæringsspændingen. Bare ved at kende denne varians kunne algoritmen gøre et anstændigt gæt på, hvornår en slip ville forekomme; oplysninger om forløberbegivenheder hjalp med at forfine disse gæt.
fundet havde store potentielle konsekvenser. I årtier, ville være Jordskælv prognosticatorer havde indtastet på forhocks og andre isolerede seismiske begivenheder., Los Alamos-resultatet antydede, at alle havde set på det forkerte sted — at nøglen til forudsigelse i stedet lå i den mere subtile information, der blev sendt i de relativt rolige perioder mellem de store seismiske begivenheder.
for at være sikker begynder glideblokke ikke at fange den kemiske, termiske og morfologiske kompleksitet af ægte geologiske fejl. For at vise, at maskinlæring kunne forudsige virkelige jordskælv, havde Johnson brug for at teste det ud på en reel fejl. Hvilket bedre sted at gøre det, regnede han, end i det nordvestlige Stillehav?,
Ud af Laboratoriet
de Fleste, hvis ikke alle steder på Jorden, der kan opleve en størrelsesorden 9 jordskælv er subduktion zoner, hvor en tektonisk plade dykker under en anden. En forkastningszone område lige øst for Japan var ansvarlig for Tohoku jordskælvet og den efterfølgende tsunami, der hærgede landets kystlinje i 2011. En dag, Cascadia subduktion zone, hvor Juan de Fuca plade dykker under den nordamerikanske plade, vil på samme måde ødelægge Puget Sound, Vancouver Island og de omkringliggende Pacific Northwest.,
Cascadia-subduktions zoneonen strækker sig omkring 1.000 kilometer fra Stillehavskysten fra Cape Mendocino i det nordlige Californien til Vancouver Island. Sidste gang det brød i Januar 1700, begyndte det en styrke 9 temblor og en tsunami, der nåede Japans kyst. Geologiske optegnelser tyder på, at hele Holocæn, fejlen har produceret sådanne mega .uakes omtrent en gang hvert halve årtusinde, give eller tage et par hundrede år. Statistisk set skyldes den næste store et århundrede nu.,
det er en af grundene til, at seismologer har lagt så stor vægt på regionens jordskælv med langsom glidning. De langsomme glider i den nedre rækkevidde af en subduktions zoneonefejl antages at overføre små mængder stress til den sprøde skorpe ovenfor, hvor hurtige, katastrofale jordskælv forekommer. Med hver langsom slip i Puget Sound-Vancouver Island-området, chancerne for en Pacific North .est megaquuake ratchet op nogensinde så lidt. Faktisk blev der observeret en langsom glide i Japan i måneden op til Tohoku-jordskælvet.,
for Johnson er der dog en anden grund til at være opmærksom på jordskælv med langsom glidning: de producerer masser og masser af data. Til sammenligning har der ikke været store hurtige jordskælv på fejlstrækningen mellem Puget Sound og Vancouver Island i de sidste 12 år. I samme tidsrum har fejlen produceret et dusin langsomme glider, hver optaget i et detaljeret seismisk katalog.
at seismiske katalog er den virkelige verden modstykke til de akustiske optagelser fra Johnsons laboratorium jordskælv eksperiment., Ligesom de gjorde med de akustiske optagelser, hakkede Johnson og hans kolleger de seismiske data i små segmenter, der karakteriserede hvert segment med en række statistiske funktioner. De fodrede derefter disse træningsdata sammen med oplysninger om tidspunktet for tidligere langsomme slip-begivenheder til deres maskinlæringsalgoritme.
efter at have været trænet i data fra 2007 til 2013, var algoritmen i stand til at forudsige langsomme glider, der opstod mellem 2013 og 2018, baseret på de data, der er logget ind månederne før hver begivenhed., Nøglefunktionen var den seismiske energi, en mængde, der var tæt knyttet til variansen af det akustiske signal i laboratorieeksperimenterne. Ligesom variansen klatrede den seismiske energi på en karakteristisk måde i løbet af hver langsom slip.
Cascadia prognoserne var ikke helt så nøjagtige som dem til laboratorieskælv. Korrelationskoefficienterne, der karakteriserer, hvor godt forudsigelserne passer til observationer, var væsentligt lavere i de nye resultater, end de var i laboratorieundersøgelsen., Alligevel var algoritmen i stand til at forudsige alle undtagen en af de fem langsomme glider, der opstod mellem 2013 og 2018, og pegede på starttiderne, siger Johnson, inden for få dage. (En langsom slip, der opstod i August 2019, var ikke inkluderet i undersøgelsen.)
For de Hoop, den store takeaway er, at “machine learning teknikker har givet os en korridor, og en indgang til at søge i data for at se efter ting, som vi aldrig har fundet eller set før.”Men han advarer om, at der er mere arbejde, der skal gøres . “Et vigtigt skridt er taget-et ekstremt vigtigt skridt., Men det er som et lille lille skridt i den rigtige retning.”
nøgterne sandheder
målet med jordskælvsprognoser har aldrig været at forudsige langsomme glider. Det er snarere at forudsige pludselige, katastrofale jordskælv, der udgør fare for liv og lemmer. For maskinlæringsmetoden præsenterer dette et tilsyneladende paradoks: de største jordskælv, dem, som seismologer mest gerne vil kunne forudsige, er også de sjældneste. Hvordan vil en maskinlæringsalgoritme nogensinde få nok træningsdata til at forudsige dem med tillid?,Los Alamos-gruppen satser på, at deres algoritmer faktisk ikke behøver at træne på katastrofale jordskælv for at forudsige dem. Nylige undersøgelser tyder på, at den seismiske mønstre, før små jordskælv er statistisk set ligner dem af deres større kolleger, og på en given dag, snesevis af små jordskælv kan opstå på en enkelt fejl. En computer trænet på tusindvis af disse små temblors kan være alsidig nok til at forudsige de store., Maskinlæringsalgoritmer kan også være i stand til at træne på computersimuleringer af hurtige jordskælv, der en dag kunne tjene som fuldmagter til reelle data.
Men selv så, forskere vil konfrontere denne nøgterne sandhed: Selv om de fysiske processer, der drev en fejl på randen af et jordskælv kan være forudsigelige, den faktiske igangsættelse af en quake — væksten af en lille seismiske forstyrrelser i fuld-blæst fejl brud — menes af de fleste forskere til at indeholde mindst et element af tilfældighed., Forudsat at det er tilfældet, uanset hvor godt maskiner trænes, kan de aldrig være i stand til at forudsige jordskælv såvel som forskere forudsiger andre naturkatastrofer.
“vi ved ikke, hvad prognoser med hensyn til timing betyder endnu,” sagde Johnson. “Ville det være som en orkan? Nej, det tror jeg ikke.”
i bedste fald vil forudsigelser af store jordskælv sandsynligvis have tidsbegrænsninger på uger, måneder eller år. Sådanne prognoser kunne sandsynligvis ikke bruges til at koordinere en massevakuering på tærsklen til en temblor., Men de kunne øge det offentlige beredskab, hjælpe offentlige embedsmænd med at målrette deres bestræbelser på at eftermontere usikre bygninger og ellers mindske farerne ved katastrofale jordskælv.Johnson ser det som et mål værd at stræbe efter. Nogensinde realisten, imidlertid, han ved, at det vil tage tid. “Jeg siger ikke, at vi vil forudsige jordskælv i min levetid,” sagde han, “men … vi vil gøre et helvede af mange fremskridt.”
denne artikel blev genoptrykt på Wired.com.