lorsque les chercheurs de Los Alamos ont sondé le fonctionnement interne de leur algorithme, ce qu’ils ont appris les a surpris. La caractéristique statistique sur laquelle l’algorithme s’appuyait le plus pour ses prédictions n’était pas liée aux événements précurseurs juste avant un tremblement de terre en laboratoire. C’était plutôt la variance — une mesure de la façon dont le signal fluctue par rapport à la moyenne — et il a été diffusé tout au long du cycle stick-slip, pas seulement dans les moments immédiatement avant l’échec., La variance commencerait faible, puis grimperait progressivement pendant la période précédant un tremblement de terre, probablement à mesure que les grains entre les blocs se bousculaient de plus en plus sous la contrainte de cisaillement de montage. Juste en connaissant cette variance, l’algorithme pourrait faire une estimation décente du moment où un glissement se produirait; les informations sur les événements précurseurs ont aidé à affiner ces suppositions.
la conclusion avait de grandes implications potentielles. Pendant des décennies, les pronostiqueurs de tremblements de terre potentiels avaient mis en évidence des avant-chocs et d’autres événements sismiques isolés., Le résultat de Los Alamos a suggéré que tout le monde avait cherché au mauvais endroit — que la clé de la prédiction résidait plutôt dans les informations plus subtiles diffusées pendant les périodes relativement calmes entre les grands événements sismiques.
pour être sûr, les blocs coulissants ne commencent pas à capturer la complexité chimique, thermique et morphologique des véritables failles géologiques. Pour montrer que l’apprentissage automatique pouvait prédire de vrais tremblements de terre, Johnson avait besoin de le tester sur une faille réelle. Quel meilleur endroit pour le faire, pensa-t-il, que dans le Pacifique nord-ouest?,
hors du laboratoire
la plupart, sinon tous les endroits sur Terre qui peuvent subir un tremblement de terre de magnitude 9 sont des zones de subduction, où une plaque tectonique plonge sous une autre. Une zone de subduction juste à l’est du Japon a été responsable du tremblement de terre de Tohoku et du tsunami qui a dévasté le littoral du pays en 2011. Un jour, la zone de subduction de Cascadia, où la plaque Juan de Fuca plonge sous la plaque nord-américaine, dévastera également Puget Sound, L’Île de Vancouver et le nord-ouest du Pacifique environnant.,
la zone de subduction de Cascadia s’étend sur environ 1 000 kilomètres de la côte du Pacifique, du Cap Mendocino, dans le nord de la Californie, à L’Île de Vancouver. La dernière fois qu’il a percé, en janvier 1700, il a engendré un tremblement de terre de magnitude 9 et un tsunami qui a atteint les côtes du Japon. Les archives géologiques suggèrent que tout au long de l « Holocène, la faille a produit de tels mégaquakes environ une fois tous les demi-millénaires, donner ou prendre quelques centaines d » années. Statistiquement parlant, le prochain grand est dû n’importe quel siècle maintenant.,
c’est l’une des raisons pour lesquelles les sismologues ont accordé une telle attention aux tremblements de terre à glissement lent de la région. On pense que les glissements lents dans le cours inférieur d’une faille de zone de subduction transmettent de petites quantités de stress à la croûte fragile au-dessus, où des tremblements de terre rapides et catastrophiques se produisent. À chaque glissement lent dans la région de Puget Sound-Île de Vancouver, les chances d’un mégaquake du Nord-ouest du Pacifique augmentent encore un peu. En effet, un glissement lent a été observé au Japon dans le mois précédant le séisme de Tohoku.,
pour Johnson, cependant, il y a une autre raison de prêter attention aux tremblements de terre à glissement lent: ils produisent beaucoup, beaucoup de données. À titre de comparaison, il n’y a eu aucun tremblement de terre rapide majeur sur le tronçon de faille entre Puget Sound et L’Île de Vancouver au cours des 12 dernières années. Dans le même laps de temps, la faille a produit une douzaine de glissements lents, chacun enregistré dans un catalogue sismique détaillé.
Ce catalogue sismique est la contrepartie réelle des enregistrements acoustiques de L’expérience sismique en laboratoire de Johnson., Tout comme ils l’ont fait avec les enregistrements acoustiques, Johnson et ses collègues ont découpé les données sismiques en petits segments, caractérisant chaque segment avec une suite de caractéristiques statistiques. Ils ont ensuite alimenté ces données d’entraînement, ainsi que des informations sur le calendrier des événements de glissement lent passés, à leur algorithme d’apprentissage automatique.
Après avoir été formé sur les données de 2007 à 2013, l’algorithme a pu faire des prédictions sur les glissements lents survenus entre 2013 et 2018, en se basant sur les données enregistrées dans les mois précédant chaque événement., La principale caractéristique est l’énergie sismique, une quantité étroitement liée à la variance du signal acoustique dans les expériences de laboratoire. Comme la variance, l’énergie sismique a grimpé d’une manière caractéristique à l’approche de chaque glissement lent.
Les prévisions de Cascadia n’étaient pas aussi précises que celles des tremblements de terre en laboratoire. Les coefficients de corrélation caractérisant l’adéquation des prédictions avec les observations étaient nettement inférieurs dans les nouveaux résultats qu’ils ne l’étaient dans l’étude en laboratoire., Pourtant, L’algorithme a pu prédire tous les glissements lents, sauf un, qui se sont produits entre 2013 et 2018, en identifiant les heures de début, dit Johnson, en quelques jours. (Un glissement lent survenu en août 2019 n’a pas été inclus dans l’étude.)
Pour De Hoop, le grand point à retenir est que « les techniques d’apprentissage automatique nous ont donné un couloir, une entrée dans la recherche de données pour rechercher des choses que nous n’avons jamais identifiées ou vues auparavant. »Mais il prévient qu’il reste encore du travail à faire. « Une étape importante a été franchie: une étape extrêmement importante., Mais, c’est comme un tout petit pas dans la bonne direction. »
vérités qui donnent à réfléchir
l’objectif de la prévision des tremblements de terre n’a jamais été de prédire les glissements lents. Il s’agit plutôt de prédire des tremblements de terre soudains et catastrophiques qui mettent en danger la vie et les membres. Pour l’approche de l’apprentissage automatique, cela présente un paradoxe apparent: les plus grands tremblements de terre, ceux que les sismologues aimeraient le plus pouvoir prédire, sont également les plus rares. Comment un algorithme d’apprentissage automatique obtiendra-t-il suffisamment de données d’entraînement pour les prédire en toute confiance?,
le groupe Los Alamos parie que ses algorithmes n’auront pas réellement besoin de s’entraîner sur des tremblements de terre catastrophiques pour les prédire. Des études récentes suggèrent que les modèles sismiques avant les petits tremblements de terre sont statistiquement similaires à ceux de leurs homologues plus grands, et un jour donné, des dizaines de petits tremblements de terre peuvent se produire sur une seule faille. Un ordinateur formé sur des milliers de ces petits temblors pourrait être assez polyvalent pour prédire les grands., Les algorithmes d’apprentissage automatique pourraient également être en mesure de s’entraîner sur des simulations informatiques de tremblements de terre rapides qui pourraient un jour servir de proxy pour des données réelles.
Mais même ainsi, les scientifiques seront confrontés à cette vérité qui donne à réfléchir: bien que les processus physiques qui conduisent une faille au bord d’un tremblement de terre puissent être prévisibles, le déclenchement réel d’un tremblement de terre — la croissance d’une petite perturbation sismique en rupture de faille à part entière-est considéré par la plupart des scientifiques, En supposant que c’est ainsi, peu importe la façon dont les machines sont bien formés, ils peuvent ne jamais être en mesure de prédire les tremblements de terre ainsi que les scientifiques prédisent d’autres catastrophes naturelles.
« Nous ne savons pas encore ce que signifie la prévision en ce qui concerne le calendrier”, a déclaré Johnson. « Serait-il comme un ouragan? Non, je ne le pense pas. »
dans le meilleur des cas, les prédictions de grands tremblements de terre auront probablement des limites de temps de semaines, de mois ou d’années. De telles prévisions ne pourraient probablement pas être utilisées, disons, pour coordonner une évacuation de masse à la veille d’un temblor., Mais ils pourraient améliorer la préparation du public, aider les agents publics à cibler leurs efforts pour rénover des bâtiments dangereux et atténuer les risques de tremblements de terre catastrophiques.
Johnson voit cela comme un objectif qui mérite d’être recherché. Toujours réaliste, cependant, il sait que cela prendra du temps. ” Je ne dis pas que nous allons prédire les tremblements de terre de mon vivant », a-t-il déclaré, » Mais we nous allons faire beaucoup de progrès.”
Cet article a été réimprimé le Wired.com.