Når Los Alamos forskere analysert de indre arbeidet i sin algoritme, hva de har lært overrasket dem. Den statistiske funksjonen algoritmen lente seg på de fleste tungt for sine spådommer var relatert til forløper hendelsene like før et laboratorium quake. Det var heller avvik — et mål på hvor signalet varierer om de mener — og det ble kringkastet over hele stick-slip syklus, ikke bare i det øyeblikk umiddelbart før svikt., Variansen ville starte liten, og så gradvis stigning under run-up til en quake, antagelig som korn mellom blokkene stadig jostled hverandre under montering skjærspenning. Bare ved å vite dette varians, algoritmen kan gjøre en anstendig gjette på når en slip som ville skje; informasjon om forløper hendelser hjalp avgrense disse gjetninger.
jeg hadde store potensielle konsekvenser. For flere tiår, ville være jordskjelv prognosticators hadde tastet inn på foreshocks og andre isolerte seismiske hendelser., Los Alamos resultat foreslått at alle hadde vært ute på feil sted — at nøkkelen til prediksjon lå i stedet i mer subtile informasjon kringkasting i løpet av den relativt rolige perioder mellom de store seismiske hendelser.
for Å være sikker, skyve blokker ikke begynne å ta kjemisk, termisk og morfologiske kompleksiteten av ekte geologiske forkastninger. For å vise at maskinlæring kunne forutsi ekte jordskjelv, Johnson som trengs for å teste det ut på en skikkelig feil. Hva bedre sted å gjøre det, skjønte han, enn i Pacific Northwest?,
Ut av Lab ‘
de Fleste om ikke alle steder på Jorden som kan oppleve en størrelsesorden 9 jordskjelv er subduksjonssoner, hvor en tektonisk plate dykk under en annen. En subduction sone rett øst for Japan var ansvarlig for Tohoku jordskjelvet og den påfølgende tsunamien som rammet landets kystlinje i 2011. En dag, Cascadia subduction sone, hvor Juan de Fuca plate dykk under den Nord-Amerikanske platen, vil på samme måte herje Puget Sound, Vancouver Island og de omkringliggende Pacific Northwest.,
Cascadia subduction sone strekker seg langs omtrent på 1000 kilometer over Stillehavet kysten fra Cape Mendocino i Nord-California til Vancouver Island. Den siste tiden har det brutt i januar 1700, det fått en størrelsesorden 9 temblor og en tsunami som nådde kysten av Japan. Geologiske registreringer tyder på at hele Holocene, feilen har produsert slike megaquakes omtrent en gang hver halve årtusen, gi eller ta et par hundre år. Statistisk sett, er det neste store er på grunn av noen århundre nå.,
Det er en grunn til seismologer har betalt så nøye for å regionen er treg slip jordskjelv. Sakte glipper i de nedre delene av en subduction-sone feil er tenkt å sende små mengder stress til sprø skorpe over hvor rask, katastrofale jordskjelv oppstår. Med hver sakte gli i Puget Sound-Vancouver-Øya-området, og sjansene for en Pacific Northwest megaquake ratchet opp aldri så lite. Faktisk, en langsom slip ble observert i Japan i måneden frem til Tohoku quake.,
For Johnson, men det er en annen grunn til å betale oppmerksomhet til å bremse slip jordskjelv: De produserer massevis av data. Til sammenligning, det har ikke vært noen store rask jordskjelv på den strekningen av feil mellom Puget Sound og Vancouver Island i de siste 12 årene. I samme tidsrom, feilen har produsert et dusin sakte glipper, hver og en er tatt opp i en detaljert seismikk-katalogen.
At seismikk-katalogen er den virkelige verden motstykke til den akustiske innspillinger fra Johnson ‘ s laboratorium jordskjelv eksperiment., Akkurat som de gjorde med de akustiske innspillinger, Johnson og hans co-arbeidere hakket den seismiske data i små segmenter, karakteriserer hvert segment med en suite av statistiske funksjoner. De så lei at trening data, sammen med informasjon om tidspunkt for siste sakte skli hendelser, til sin maskin læring algoritme.
Etter å ha blitt trent på data fra 2007 til 2013, algoritmen var i stand til å gjøre forutsigelser om sakte glipper som oppstod mellom 2013 og 2018, basert på dataene som er logget i månedene før hvert arrangement., Den viktigste funksjonen var den seismiske energi, en mengde som er nært knyttet til variansen av akustisk signal i laboratorium eksperimenter. Som variansen, den seismiske energi klatret i en karakteristisk måte i den kjøres opp til hver sakte skli.
Cascadia prognoser var ikke fullt så nøyaktige som de for laboratorie-skjelv. Korrelasjonen koeffisienter som karakteriserer hvor godt spådommer passer observasjoner var vesentlig lavere i den nye resultater enn de var i laboratoriet for undersøkelse., Likevel, algoritmen var i stand til å forutsi alt, men en av de fem sakte glipper som oppstod mellom 2013 og 2018, lede start ganger, Johnson sier, for å i løpet av dager. (En langsom slip som skjedde i August 2019 var ikke inkludert i studien.)
For de Hoop, den store takeaway, er at «maskinlæring teknikker har gitt oss en korridor, en adgang til å søke i data for å lete etter ting som aldri har vi identifisert eller sett før.»Men han advarer om at det er mer arbeid som må gjøres. «Et viktig skritt har blitt tatt — et svært viktig skritt., Men det er som et bitte lite skritt i riktig retning.»
Tankevekkende Sannheter
målet av jordskjelv prognoser har aldri vært å forutsi sakte glipper. Snarere er det å forutsi plutselige og katastrofale jordskjelv som utgjør en fare for liv og helse. For maskinlæring tilnærming, dette utgjør et tilsynelatende paradoks: De største jordskjelv, de som seismologer ville de fleste liker å være i stand til å forutsi, er også den mest sjeldne. Hvordan vil en maskin læring algoritme noen gang få nok trening data for å forutsi dem med tillit?,
Los Alamos-gruppen satser på at deres algoritmer vant faktisk ikke trenger å trene på katastrofalt jordskjelv til å forutsi dem. Nyere studier tyder på at den seismiske mønstre før små jordskjelv er statistisk ligner på deres større kolleger, og på en gitt dag, dusinvis av små jordskjelv kan forekomme på en enkelt feil. En datamaskin trent på tusenvis av disse små temblors kan være allsidig nok til å forutse de store., Maskinlæring algoritmer kan også være i stand til å trene på datasimuleringer av rask jordskjelv som en dag kunne stedfortredere for reelle data.
Men selv så, forskere vil konfrontere dette tankevekkende sannheten: Selv om de fysiske prosessene som driver en feil til randen av et jordskjelv kan være forutsigbar, selve utløsningen av en quake — veksten av en liten seismisk forstyrrelse i full-blåst feil ruptur — antas av de fleste forskere til å inneholde minst et element av tilfeldighet., Forutsatt at dette er så, uansett hvor godt maskiner er trent, kan de aldri være i stand til å forutsi jordskjelv, så vel som forskere spår andre naturkatastrofer.
«Vi vet ikke hva prognoser i forhold til timing betyr likevel,» Johnson sa. «Ville det være som en orkan? Nei, jeg tror ikke det.»
I beste fall, spådommer av store jordskjelv vil sannsynligvis har tid rammene av uker, måneder eller år. Slike prognoser sannsynligvis ikke kunne brukes for eksempel til å koordinere et masse-evakuering på slutten av en temblor., Men de kunne øke offentlig beredskap, hjelpe offentlige tjenestemenn målrette innsatsen for å ettermontere usikre bygninger, og ellers redusere farer av katastrofalt jordskjelv.
Johnson ser det som et mål som er verdt å strebe etter. Noen gang realist, men han vet det vil ta tid. «Jeg sier ikke at vi kommer til å forutsi jordskjelv i mitt liv,» sa han, «men … vi kommer til å lage et helvete for en stor fremgang.»
Denne artikkelen ble gjengitt på Wired.com.