Les défis du calcul du risque de fuite d’un laboratoire

Avatar photo

On a sunny Un matin de septembre 2011, lors d’une conférence sur l’île méditerranéenne de Malte, le virologue Ron Fouchier a fait une annonce qui a secoué le monde scientifique. Son laboratoire, disait-il, avait pris le virus H5N1 de la grippe aviaire – qui tue environ 60 % des personnes dont le cas est connu, mais qui ne peut pas se propager facilement d’une personne à l’autre – et l’avait modifié pour qu’il se transmette chez les mammifères.

Il avait créé, déclarait-il à un journaliste plus tard cette année-là, “probablement l’un des virus les plus dangereux que l’on puisse fabriquer”.

Fouchier et d’autres ont déclaré que de telles recherches peuvent aider les scientifiques à se préparer aux futures pandémies. Mais à plusieurs milliers de kilomètres de là, dans le Massachusetts, Lynn Klotz a réagi avec inquiétude. Biochimiste physique, M. Klotz faisait partie de la faculté de l’université de Harvard dans les années 1970, à l’époque des litiges concernant la recherche sur l’ADN recombinant. Depuis 2005, il est chargé de mission scientifique au Center for Arms Control and Non-Proliferation, une organisation à but non lucratif, où il a écrit sur les armes biologiques.

D’autres scientifiques ont également exprimé leur inquiétude quant aux risques des expériences de Fouchier, réalisées au Centre médical Erasmus aux Pays-Bas, et de recherches similaires dans un laboratoire de l’Université du Wisconsin-Madison. Klotz a décidé de rechercher un chiffre réel : Ce qui étaient les chances qu’un virus s’échappe d’un laboratoire à haut niveau de confinement et déclenche une pandémie mondiale ?

Klotz a commencé par parcourir la littérature universitaire, à la recherche d’enregistrements de laboratoires travaillant avec des virus inquiétants pour les pandémies : les coronavirus du SRAS ou les souches de grippe particulièrement risquées. Puis, sur la base d’une évaluation des risques réalisée par le gouvernement et d’incidents passés d’évasion dans des laboratoires à haut niveau de confinement, il a estimé la probabilité que des travailleurs de laboratoire puissent être accidentellement infectés par un agent pathogène – des incidents rares qui, du moins en théorie, pourraient déclencher des épidémies.

Globalement, Klotz a estimé en 2012 qu’il y avait peut-être 50 % de chances qu’un agent pathogène s’échappe de l’un de ces laboratoires au cours des cinq années et demie à venir. Ses estimations moins prudentes ont calculé une probabilité encore plus grande d’une évasion. (Dans un article publié cette année-là, Klotz et un collaborateur ont écrit qu’il n’était pas certain que cette fuite conduise à une pandémie ou qu’elle s’éteigne simplement, mais que le risque était “trop élevé”.

Tout le monde n’est pas d’accord sur le fait que le risque est si élevé, et les responsables fédéraux soulignent les mesures importantes prises par les laboratoires à haut niveau de confinement pour atténuer les risques. Mais, dix ans plus tard, ces questions sont de nouveau d’actualité, dans la mesure où l’on craint que la pandémie de Covid-19 ne résulte d’un accident de laboratoire. Aujourd’hui âgé de 81 ans, M. Klotz a continué à analyser les risques d’accident de laboratoire depuis sa maison sur la côte de la Nouvelle-Angleterre jusqu’à l’année dernière. Il a été rejoint par d’autres scientifiques, qui utilisent les méthodes de l’analyse formelle des risques pour estimer les chances d’une évasion de laboratoire.

Les chiffres qu’ils ont produits peuvent varier de façon spectaculaire. Et certains experts affirment qu’il est impossible de produire des chiffres fiables sur les risques d’une pandémie induite par un laboratoire à partir des données existantes, et peut-être même contre-productif.

Pour le moins, disent certains analystes, les écarts soulignent les grandes inconnues qui subsistent en matière de sécurité des laboratoires – et les défis que représente l’utilisation d’estimations de risques spécifiques pour comprendre les complexités de l’erreur humaine et des défaillances du système.

In 2014, après une série de défaillances embarrassantes en matière de sécurité dans les laboratoires gouvernementaux, le gouvernement fédéral a imposé un moratoire sur le financement des études qui, comme les travaux de Fouchier sur le H5N1, confèrent à un agent pathogène des propriétés nouvelles et améliorées. (De tels travaux sont appelés recherche sur les gains de fonction, bien que la définition exacte de ce terme soit contestée).

Peu après, deux éminents experts en maladies infectieuses, Marc Lipsitch et Tom Inglesby, ont demandé une analyse quantitative rigoureuse des risques de ces recherches, “afin de fournir des calculs et des informations spécifiques pour éclairer les décisions”. (Les deux scientifiques ont assumé des rôles de premier plan dans la réponse à la pandémie au sein du gouvernement fédéral, respectivement aux Centers for Disease Control and Prevention et à la Maison Blanche, bien qu’Inglesby ait quitté son poste récemment ; ni l’un ni l’autre n’était disponible pour un commentaire).

Un résumé des rapports, qu’il a partagé avec Undark, est un catalogue de mésaventures : Des chercheurs se sont piqués avec des aiguilles contaminées, ont fait tomber des plaques de cellules infectées par le virus de la variole du singe et ont renversé un flacon de virus de la fièvre de la vallée du Rift. Lors d’un incident survenu en 2013, une souris légèrement anesthésiée, infectée par une souche génétiquement modifiée du virus du SRAS, a glissé des mains d’un chercheur et a couru sous un congélateur de laboratoire (les scientifiques ont fini par l’attraper).et la plupart de ces incidents n’ont pas provoqué d’infection. Mais les rapports révèlent plusieurs cas où des travailleurs ont quitté leur laboratoire et ont ensuite été testés positifs à la tuberculose, à la tularémie et à d’autres maladies.

En se basant sur le nombre de ces infections qui se produisent au cours d’une période donnée, les analystes peuvent estimer la probabilité de tels accidents. Ensuite, les analystes estiment les chances qu’une infection due à un accident de laboratoire déclenche effectivement une pandémie. Cela peut dépendre de nombreux facteurs, tels que la transmissibilité de l’agent pathogène et l’emplacement du laboratoire, qui sont intégrés dans des modèles épidémiologiques sophistiqués. Enfin, les analystes du risque tentent d’estimer le nombre de décès que causerait une telle pandémie, en se basant sur les taux de mortalité de divers agents pathogènes.

Parfois, ces évaluations peuvent devenir très élaborées. Par exemple, une analyse risques/bénéfices de 1 021 pages sur la recherche sur les gains de fonction, commandée par le gouvernement américain, estime la probabilité de divers types de mésaventures, puis construit des modèles complexes pour simuler les chances que ces événements s’alignent pour permettre une catastrophe. L’un de leurs modèles, qui tente de simuler l’émission d’un virus transmissible par les oiseaux à partir d’une installation, prend en compte le volume d’air inhalé chaque minute par un canard typique.

Les analyses de risque peuvent être rigoureuses, mais elles peuvent impliquer de nombreuses décisions subjectives. Quelles données sur les accidents sont pertinentes ? Lorsque des scientifiques ne sont pas d’accord sur la létalité d’un virus spécifique, quels résultats sont les plus crédibles ? Le modèle doit-il prendre en compte les acteurs malveillants qui volent un agent pathogène – et, si oui, comment ?

“Ce que les gens ne parviennent souvent pas à apprécier, c’est le nombre d’hypothèses sous-jacentes qu’il y a dans ces analyses de risques”, a déclaré Daniel Rozell, chercheur à l’Université de Stony Brook et auteur de “Dangerous Science”, un livre de 2020 sur la politique scientifique et l’analyse des risques. “Des personnes très bien informées et raisonnables vont souvent regarder les données de manière totalement différente et aboutir à des évaluations entièrement différentes.”

En effet, les analyses de risque des agents pathogènes pandémiques peuvent varier considérablement dans leurs conclusions. Dans leur article de 2014, Lipsitch et Inglesby ont estimé que pour chaque année d’expérimentation “sur un virus grippal virulent et transmissible”, un seul laboratoire avait une chance de 0,01 à 0,1 % de provoquer une pandémie. Cette pandémie, selon leurs prévisions, tuerait entre 20 millions et 1,6 milliard de personnes.

Fouchier, dans une réponse, a déclaré qu’ils avaient ignoré les mesures de sécurité cruciales en place dans de nombreux laboratoires. Selon lui, les chances de déclencher une épidémie au cours d’une année donnée étaient plutôt de l’ordre de 0,0000000003 %. Un tel événement, a-t-il poursuivi, “devrait se produire bien moins fréquemment qu’une fois tous les 33 milliards d’années.”

“On pourrait attribuer à cette probabilité le terme de ‘négligeable'”, a-t-il ajouté, “étant donné que l’âge de notre planète n’est que de 5 milliards d’années.”

Certains experts ont trouvé cette estimation peu plausible, sur la base des données historiques. À eux seuls, les virus du SRAS, par exemple, se sont échappés des laboratoires au moins cinq fois au cours des 20 dernières années. (Fouchier a refusé de commenter pour cette histoire).

Les estimations les plus autorisées proviennent peut-être de l’analyse risques/bénéfices commandée par le gouvernement fédéral. Réalisé en 2016 par une société appelée Gryphon Scientific, le rapport a estimé que les chances qu’un laboratoire provoque une pandémie étaient faibles, mais pas nulles. On peut s’attendre à une infection accidentelle contractée dans un laboratoire américain spécialisé dans la grippe ou le coronavirus une fois tous les trois à huit ans et demi, avec une probabilité d’environ 1 sur 250 que l’incident entraîne une pandémie mondiale.

Mais surtout, le rapport Gryphon remet en question la possibilité même de produire une estimation précise du risque absolu. Les données sur la fréquence des erreurs humaines dans les laboratoires sont rares. Et, comme deux des auteurs du rapport l’ont écrit en 2017, “les États-Unis n’ont pas de système normalisé ou complet pour suivre les incidents de laboratoire ou les quasi-incidents dans les laboratoires à haut niveau de confinement”, ce qui rend difficile l’évaluation de la fréquence de ces incidents. Entre-temps, les failles de sécurité – comme le fait que quelqu’un laisse intentionnellement s’échapper un agent pathogène – posent des risques inconnus et difficiles à quantifier.

Dans le très court laps de temps que nous consacrons à parler du risque absolu – parce que nous, vous savez…”, avions nous disons pourquoi c’est une mauvaise idée”, a déclaré Rocco Casagrande, auteur du rapport et cofondateur de Gryphon Scientific, une société de recherche et de conseil qui travaille souvent pour des agences gouvernementales. Dans des écrits publics ultérieurs, Casagrande a plaidé pour une recherche plus rigoureuse sur les sources et les conséquences des accidents de laboratoire, afin de donner aux décideurs une idée plus claire des risques possibles et d’améliorer la sécurité dans les installations.

Klotz, dont les estimations s’appuient sur des données obtenues par le biais de requêtes en vertu de la loi sur la liberté de l’information, ainsi que sur d’autres études d’accidents de laboratoire, a déclaré qu’il n’y avait pas eu d’accidents de laboratoire.a déclaré à Undark qu’il n’était pas d’accord avec Casagrande sur le fait qu’il y a trop peu de données pour produire une estimation spécifique du risque. Une analyse récente qu’il a menée a révélé que, sur une période donnée de cinq ans, les laboratoires comme celui de Fouchier ont 2,37 % de chances de déclencher une pandémie mondiale.

De telles chances, selon Klotz, sont beaucoup trop élevées. Il s’oppose à la quasi-totalité des recherches sur les agents pathogènes améliorés susceptibles de provoquer une pandémie. “Il n’est pas nécessaire que la probabilité soit très élevée”, a-t-il dit, “pour que l’on commence à en avoir peur.”

Fanalyse du risque de maladie a ses racines dans la recherche nucléaire – où, comme pour les agents pathogènes pandémiques, un manque de sécurité dans une installation peut avoir des conséquences mondiales. Dans les années 1960, les responsables de la Commission américaine de l’énergie atomique ont cherché à quantifier le risque d’accident nucléaire. Ils ont mis au point des techniques permettant d’estimer les chances d’un accident et le nombre attendu de vies perdues.

Tout le monde n’a pas été convaincu par cet exercice. Les détracteurs de cette discipline émergente l’ont parfois décrite comme une sorte de stratégie politique, visant à utiliser des déclarations d’experts faisant autorité pour étouffer le débat public. Certains se sont également demandé si les chiffres étaient vraiment fiables. “Les estimations des risques réels sont toujours très approximatives et imprécises”, a écrit la philosophe Kristin Shrader-Frechette dans un livre sur le risque publié en 1991. Et, ajoutait-elle, “certains des aspects les plus importants des dangers, qu’ils soient réels ou perçus, ne se prêtent pas à la quantification”. Il s’agit notamment d’inconnues que les gens ne pensent peut-être même pas à prendre en compte dans leur analyse.

Lorsque, en 2014, le gouvernement fédéral a commencé à réévaluer le financement de la recherche sur les gains de fonction, au moins un conseiller a exprimé des inquiétudes. Baruch Fischhoff, psychologue et expert en analyse des risques à l’Université Carnegie Mellon, a fait partie d’un groupe consultatif du National Science Advisory Board for Biosecurity, qui était chargé de fournir des recommandations sur le processus d’évaluation.

Fischhoff, ancien président de la Society for Risk Analysis, a déclaré que les outils peuvent être utiles – mais, souligne-t-il, ils ont des limites.

“Personne ne comprend ces systèmes dans leur intégralité”, a-t-il déclaré. Les entreprises et les organismes de réglementation gouvernementaux peuvent ressentir une pression pour trouver et utiliser un chiffre spécifique pour le risque – et peuvent souvent trouver des entrepreneurs bien intentionnés capables de répondre à ce besoin. “Je pense que l’ensemble du système est devenu incontrôlable”, a-t-il ajouté. “Les choses sont impénétrables pour les membres du grand public, largement impénétrables pour les autres experts techniques.”

Fischhoff avait des préoccupations spécifiques concernant l’analyse de la recherche sur les agents pathogènes. “J’étais vraiment sceptique quant à la possibilité de faire une analyse formelle des risques, en partie parce que nous n’avons pas les chiffres”, a-t-il déclaré à Undark. M. Fischhoff a déclaré que l’équipe de Gryphon Scientific avait fait un “travail consciencieux” sur le rapport, même s’il a exprimé quelques réserves quant à ses implications. “Le rapport semblait faire autorité”, a-t-il déclaré. “Mais il n’y avait aucun sens de la quantité – vous savez, ce que vous devriez faire avec ces chiffres, et comme la plupart des analyses de risque, il est essentiellement non vérifiable.” La raison pour laquelle il était difficile de l’évaluer, a-t-il ajouté, était que les analyses étaient si complexes et le rapport si long.

M. Casagrande a déclaré qu’il était d’accord avec certaines des préoccupations concernant le calcul du risque absolu, bien qu’il ait souligné que le rapport avait contribué à clarifier les risques de la recherche sur le gain de fonction par rapport aux autres recherches sur les pathogènes. (Par exemple, a-t-il noté, le rapport constate que les expériences modifiant la transmissibilité des coronavirus pourraient être risquées).

Mais il a déclaré que le “désir de l’équipe de montrer tout notre travail nous a miné, dans la mesure où le rapport était tout simplement trop complexe”. Aujourd’hui, il dit qu’il se demande si un rapport de deux pages mettant en évidence les risques et les avantages spécifiques aurait été meilleur. “Je pense que beaucoup de gens auraient peut-être accroché à cela un peu plus. Mais malheureusement, ce que nous avons fait, c’est que nous avons écrit la Bible, n’est-ce pas ? Et donc vous pouviez en gros prendre n’importe quelle allégorie que vous vouliez pour défendre votre cause.”

Un an après la publication du rapport, les National Institutes of Health ont décidé de relancer le financement de la recherche sur les gains de fonction, avec de nouvelles procédures de surveillance. Pour certains observateurs, il semblait que peu de choses avaient changé.

“En fin de compte, le moratoire a été levé, et le processus qu’ils ont terminé n’était pas si différent du point de départ”, a déclaré Rozell, l’auteur de “Dangerous Science”. “On peut donc se demander si ce n’est pas un de ces exemples de feuille de vigne : Nous allions le faire de toute façon, et voici notre couverture.”

Tujourd’hui, c’est difficile de savoir exactement comment les analyses de risque sont utilisées pour évaluer la recherche sur les gains de fonction. Le cadre fédéral actuel pour l’évaluation de ces travaux, publié en 2017, donne pour instruction aux responsables du Département américain de la santé et des services sociaux d’examiner une analyse risques/bénéfices de la recherche proposée avant de recommander…s’il faut la financer. (Le rapport utilise le terme “recherche impliquant des agents pathogènes pandémiques potentiels améliorés” plutôt que recherche à gain de fonction). Mais, malgré les recommandations du National Science Advisory Board for Biosecurity et de la Maison Blanche d’Obama, ces délibérations sont menées hors de la vue du public. (Un porte-parole des NIH a renvoyé les questions sur le processus d’examen des gains de fonction au HHS ; le HHS n’a pas répondu aux demandes de commentaires d’Undark).

En février 2022, les responsables fédéraux ont annoncé une révision de ce processus. Les nouvelles recommandations sont attendues plus tard cette année.

Au sein de la communauté de recherche sur la biosécurité, il y a eu récemment une poussée pour développer de meilleures données sur la façon – et la fréquence – des accidents dans les laboratoires.

L’équipe de Casagrande mène actuellement des études sur la fiabilité humaine, avec le financement d’Open Philanthropy, une fondation liée à la Silicon Valley. “Nous utilisons essentiellement des environnements cliniques réels et des simulateurs pour observer les gens commettre des erreurs de toutes sortes”, explique-t-il. “Certaines d’entre elles impliquent, vous savez, tout simplement : A quel point les gens sont-ils maladroits ? Combien de fois renversons-nous de la merde ?” L’équipe mesure également la fréquence à laquelle les gens suivent réellement les protocoles, comme se laver les mains avant de quitter le laboratoire.

Au moins en principe, ce travail pourrait un jour aider à formuler des politiques de biosécurité mieux fondées sur des preuves – et donner une meilleure idée de la fréquence des erreurs humaines. Mais comme le souligne M. Casagrande, même dans ce cas, certains éléments du comportement humain sont plus difficiles à cerner. “Il n’est pas forcément possible de détecter les grosses erreurs, comme le fait de se faire dire que l’on ne peut pas travailler ou voyager parce que l’on a pu être exposé à un agent pathogène, et de l’ignorer et de le faire quand même”, a déclaré M. Casagrande. “Mais vous pouvez attraper le “Oh, j’étais censé porter une blouse de laboratoire, et je ne l’ai pas fait”.”

Related Posts