SARS-CoV-2 : une approche computationnelle pour « prévoir statistiquement l’apparition de variants inédits »
Le 14 janvier 2022 à 09h22
2 min
Sciences et espace
Sciences
Des travaux ont été menés par une équipe de recherche du Laboratoire de biologie computationnelle et quantitative de l'Institut de Biologie Paris Seine en collaboration avec l'Université de Lausanne. Ils sont publiés dans PNAS.
Le CNRS rappelle que « depuis le début de la pandémie de Covid-19, de nouveaux variants du virus SARS-CoV-2 ont émergé et se sont propagés au sein de la population humaine, certains devenant un problème majeur de santé mondiale » :
« Chacun d'entre eux, y compris les variants Delta et Omicron, présente un schéma caractéristique de mutations génétiques, susceptibles de renforcer la transmissibilité du virus ou de réduire l'efficacité des vaccins ou des traitements avec des anticorps. Anticiper les mutations encore inconnues qui pourraient apparaître dans les futurs variants du SARS-CoV-2 est devenu un enjeu majeur ».
Les chercheurs proposent ainsi « une nouvelle approche informatique dont l’objectif est de prédire la mutabilité de toutes les positions individuelles dans les protéines du SARS-CoV-2 […] Les prédictions obtenues sont cohérentes avec la variabilité actuellement observable des protéines du SARS-CoV-2, qui a évolué au cours des deux dernières années, suggérant que ce modèle est capable de prévoir statistiquement l'apparition de variants inédits ».
C’est une étape importante car cela pourrait « contribuer à orienter la conception de nouveaux vaccins ou de thérapies par anticorps qui combattront les futurs variants du SARS-CoV-2 en ciblant des positions moins mutables mais immunogènes ».
Enfin, le CNRS ajoute que « si l'article se concentre sur le SARS-CoV-2, les résultats peuvent également être considérés comme preuve de concept de l'applicabilité à de potentielles futures épidémies causées par de nouveaux pathogènes viraux ».
Le 14 janvier 2022 à 09h22
Commentaires (3)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/01/2022 à 13h02
“Prévoir statistiquement”, cela laisse songeur.
Alors certes, l’idée est alléchante : la technologie à la rescousse de l’humanité ! Oh, attendez… n’est-ce pas encore du technologisme (solution technologique à un problème qui ne l’est pas) déguisé ?
Les statistiques, par nature, quantifient des données collectées, donc passées, dont les résultats dépendant de la qualité des échantillons considérés.
Il faut ainsi être vigilant via-à-vie de toute une palanquée de biais, quand les données brutes sont tirées du monde réel, afin d’éviter de tirer de mauvaises observations et donc donner une mauvaise explication aux données exploitées.
Par nature, donc, les statistiques ne travaillent que sur le passé, voire sur le présent si la collecte & l’analyse se terminent & s’enchaînent suffisamment rapidement… jamais le futur.
Ici… les données brutes seront virtuelles, inventant un monde qui n’existe pas, et donc personne ne pourra prétendre sérieusement en la réalité.
Pour ceux qui ont eu la chance de manipuler ce jouet très amusant, les algorithmes génétiques (sélection, mutation, croisement) permettent depuis longtemps de s’amuser à trouver empiriquement des équilibres (in)stables dans une population.
Mais c’est un jouet, tant que l’exercice n’est pas finement maitrisé. Ce qui ne sera pas le cas ici, bien évidemment, puisqu’un parle d’un laboratoire de chercheurs spécialistes.
Cependant… cette question de la qualité des échantillons me taraude :
Comment peut-on s’assurer de la qualité d’un échantillon inventé de toutes pièces ?
Les meilleurs spécialistes, la meilleure analyse, la meilleure technologie ne pourront rien face à des données présentant un futur qui pourra être exact ou bidon… ce qu’on ne saura qu’une fois que la réalité sera passée par là, les statistiques étant retournées par là-même dans leur domaine de fonctionnement.
Le 16/01/2022 à 15h17
Dire qu’il faut une équipe aujourd’hui pour déterminer que la position la moins mutable, le point commun de tout les virus qui nous emmerde ou susceptible de nous emmerder, l’élément présent dans toutes expériences nous confrontant a notre propre finitude c’est l’humain.
Maintenant que j’ai fièrement aidé l’algorithme je vous laisse trouver des financements pour développer le vaccin et trouver des volontaires pour les tests, je ne peux être bon partout.
*générique_de_terminator
Le 17/01/2022 à 09h09
Je pense que ce n’est pas très bien formulé dans l’annonce.
L’idée est que l’on possède l’intégralité du code des variants existants.
Et qu’ensuite on remplace ici et là une chaine par une autre. Il doit y avoir des milliers ou des dizaines de milliers de possibilités. Les outils permettent de savoir pour chacun si d’une part ce variant serait inquiétant par sa nocivité ou sa réplicabilité, et d’autre part s’il est possible qu’il apparaisse un jour (selon sa complexité ou la différence ave les variants actuels), sachant que presque systématiquement la plupart ne feraient pas long feu (instable, facilement identifiable par les défenses immunitaires, …).
Tout ça algorithmiquement. L’aspect “statistiquement” s’applique à évaluer la possibilité qu’apparaisse un tel variant, en tout cas c’est comme ça que je le comprends.
Par contre ce qui laisse songeur, c’est que pour ceux sortant du lot il faudrait déjà commencer à trouver la parade, alors que l’on a déjà du mal avec les existants.