menulogo
Actualités 24
notifications
Notifications
notifications
Aucune notification non lue.
user
Close

vendredi, novembre 7

www.actualites24.fr
ai
Source Logo

La Recherche

Down
FollowSuivre
UnfollowÀ suivre
News Image
Classer le vivant : entre rigueur latine et flou évolutionniste

Classer le vivant : entre rigueur latine et flou évolutionniste etreyz mar 16/09/2025 - 00:00 Diane Dabir-Moghaddam BIOLOGISTE, PARIS Pierre Kerner GÉNÉTICIEN, PARIS Plus de 47 000 espèces sont aujourd'hui menacées d'extinction. Mais encore faut-il savoir ce qu'on entend par «espèce». Derrière ce mot central en biologie se cache un concept bien plus fuyant qu'il n'y paraît, débattu depuis plus de deux mille ans. Selon que l'on se place du point de vue de l'écologie, de la génétique ou de la morphologie, la définition évolue, chacune avec ses avantages et ses angles morts. Les biologistes disposent ainsi de plusieurs outils. Problème: aucun n'embrasse parfaitement la diversité du vivant. (1) T. Matthews et al., Science, 386, 6717, 2024. (2) tinyurl.com/HeritageLinne (3) E. Mayr, Systematics and the Origin of Species, 1942 ; K. de Queiroz, PNAS, 2, 6600, 2005. (4) G. Constable et H. Kokko, Nat. Ecol. Evol., 2, 1168, 2018. (5) ial-lichenology.org (6) J. Staley, Philos. Trans. R. Soc. Lond. B. Biol. Sci., 361, 1475, 2006. (7) J. Fennessy et al., Curr. Biol., 26, 2543, 2016 ; IUCN-girafes (8) M. Root-Bernstein, Qu'est-ce qu'une espèce ?, humenSciences, 2025. (9) J. Borgelt et al., Communic. Biol., 5, 679, 2022. 80 Histoire des sciences Lundi 27 octobre 2025 - 11:59 Gratuit 2099 3 Ajouter au flux RSS 1 À en croire les chiffres compilés par l'Union internationale pour la conservation de la nature (UICN), sur les 169 400 espèces évaluées à ce jour, plus de 47 000 sont menacées d'extinction en raison des activités humaines. Et l'hécatombe ne date pas d'hier: une étude récente a ainsi révélé la disparition de 610 espèces d'oiseaux ayant accompagné l'essor de l'humanité au cours de ces 130 000 dernières années (1). On pense immédiatement à l'iconique dodo ou dronte de l'île Maurice (Raphus cucullatus), éradiqué vers la fin du XVIIe siècle par les colons européens et leurs activités, moins d'un siècle après sa découverte. Or, la biodiversité et sa santé reposent sur cette unité fondamentale qu'est l'espèce - une notion pourtant difficile à cerner. Comme le «vivant», qu'aucun biologiste ne définit vraiment mais que tous étudient, l'espèce reste insaisissable malgré son rôle central dans les sciences, l'écologie et la politique. À première vue, le concept semble simple: le mot vient du latin species, «apparence» et, pour Aristote, au IVe siècle avant notre ère, une espèce se définit par sa reproduction fidèle – les chiens engendrent toujours des chiens. Cette définition traversera les siècles, reprise notamment par le naturaliste suédois Carl von Linné (1707-1778) qui la cristallise en essayant d'attribuer un nom, binominal et en latin, à toutes les espèces vivantes. La construction est toujours la même: il juxtapose toujours un genre et une épithète spécifique. La vache, par exemple, est appelée Bos taurus, où Bos est le nom de genre, et taurus, son épithète spécifique. Cette manière de dénommer les espèces s'accompagne de quelques conventions : on écrit toujours les noms en italique ou soulignés, et seule la première lettre du nom de genre doit être en majuscule, le reste est en minuscule ; lorsqu'on abrège un nom d'espèce, on peut ne garder que cette majuscule suivie d'un point – pas de tiret ! –, donnant B. taurus, pour reprendre notre exemple, ou T. rex, pour parler du théropode le plus charismatique du cinéma. L'avantage de cette nomenclature binomiale est d'indiquer immédiatement la place d'une espèce dans le grand arbre du vivant. Linné élabore ainsi la première classification hiérarchique, le Systema naturæ, où chaque espèce appartient à un genre, chaque genre à une famille, puis à un ordre et à un règne. Même si ces catégories, souvent arbitraires, sont aujourd'hui progressivement abandonnées, l'espèce reste l'unité de base de la classification du vivant. SEPT «APÔTRES» DE LINNÉ ONT PÉRI AU COURS D'EXPÉDITIONS En vue de découvrir de nouvelles espèces, Linné a formé (et disons-le, exploité) de nombreux étudiants brillants de l'université d'Uppsala (Suède) en les envoyant, à partir de 1741, pour des expéditions au nom du groupe qu'il a lui-même baptisé «les apôtres de Linné». Ces expéditions étaient périlleuses: sept moururent en mission, ce qui poussa Linné à ne recruter que des célibataires. Certains voyagèrent loin, comme Pehr Löfling en Amérique du Sud, ou Daniel Solander qui accompagna James Cook en Océanie. Carl Peter Thunberg, pour sa part, réussit à pénétrer le Japon à l'époque où le pays était fermé aux étrangers. Au total, Linné et ses dix-sept disciples auraient décrit environ 12 000 espèces (2). Toutes n'ont pas survécu à l'épreuve des découvertes postérieures, comme celles du genre Lacerta, qui regroupait à l'époque aussi bien des lézards que des crocodiles, alors que nous savons aujourd'hui qu'ils ne sont pas exclusivement apparentés. Mais cette nomenclature classique ne dit toujours pas ce qu'est une espèce. Pour Linné et la plupart des naturalistes du XVIIIe siècle, la réponse était simple: le monde vivant est fixe. Chaque espèce correspond à une catégorie immuable, et les différences observées entre individus ne sont que des écarts accidentels. Derrière ce fixisme se cache l'idée – séduisante mais fausse – d'un vivant stable et immuable. LA SÉLECTION NATURELLE ASSOCIÉE AU CONCEPT DE VARIATION Au XIXe siècle, tout bascule. Des naturalistes tels que Jean-Baptiste Lamarck en France, Alfred Russel Wallace et Charles Darwin en Angleterre défendent une vision radicalement différente: les variations entre individus ne sont pas négligeables. Pour eux, elles démontrent que les espèces évoluent au fil des générations. Cette proposition est un bouleversement : pour la première fois, on envisage les espèces dans une dimension temporelle – ce qui rend instable sa définition. Et ce n'est pas tout. Wallace et Darwin complètent cette réflexion en associant au concept de variation celui de la sélection naturelle: dans une population, les individus les mieux adaptés à leur environnement survivent et se reproduisent davantage, transmettant leurs caractères avantageux à leur descendance. Cela explique pourquoi, au sein d'une même espèce, certains individus portent des caractères avantageux qui, génération après génération, sont favorisés par la sélection naturelle, modifiant peu à peu la forme de la population. Variation et sélection naturelle constituent, de manière très simplifiée, les piliers de la théorie de l'évolution. Par la suite, tout l'enjeu pour les biologistes sera de réconcilier le concept d'espèce avec la théorie évolutionniste du vivant. C'est l'une des entreprises du biologiste germano-américain Ernst Mayr qui, en 1942, propose la «définition biologique de l'espèce», devenue l'une des plus répandues chez les taxonomistes (les scientifiques qui classent et nomment les êtres vivants). Selon lui, «les espèces sont des groupes de populations naturelles qui sont effectivement ou potentiellement interfécondes, et isolées [notamment génétiquement] d'autres groupes» (3). Sur le papier, cette définition paraît simple : si les descendants d'une population sont capables de se reproduire à leur tour, et qu'ils ne remplissent pas ces critères avec une autre population, alors il s'agit bien de deux espèces différentes. Toutefois, cette définition, en apparence idéale, se heurte vite à la réalité du terrain. Il peut arriver, par exemple, que les individus accessibles aux scientifiques au moment de l'étude ne soient plus féconds – comme des femelles en fin de vie – ou qu'il ne s'y trouve que des mâles. Par ailleurs, si la plupart des espèces présentent deux types sexuels, certains champignons possèdent des systèmes de reproduction beaucoup plus complexes. Ainsi, une espèce de petits champignons blancs poussant sur le bois mort, Schizophyllum commune, compte plus de 23 000 types sexuels différents, qui ne sont pas tous compatibles entre eux (4). Dans ces conditions, il est évidemment impossible de tester toutes les combinaisons de croisements. D'autres champignons mettent également à mal cette définition biologique, notamment lorsqu'ils forment des assemblages symbiotiques. C'est le cas des lichens qui, tels que définis par l'Association internationale de lichénologie (5), sont constitués d'un (ou de plusieurs) champignons associés à un partenaire photosynthétique (algues unicellulaires ou bactéries). Cette redéfinition a représenté une véritable révolution conceptuelle. Jusqu'à la fin du XIXe siècle, les lichens étaient considérés comme des organismes proches des plantes, regroupés dans leur propre genre. Mais l'accumulation de données a conduit à les concevoir comme des assemblages d'espèces distinctes – champignons, algues, bactéries –, formant ce que l'on appelle désormais des holobiontes ou supraorganismes. En d'autres termes, les lichens apparaissent de plus en plus comme de véritables écosystèmes, impossibles à réduire à une unique dénomination binominale en latin. LE PROCESSUS DE TRANSFERT GÉNÉTIQUE HORIZONTAL De surcroît, nombre de lichens abritent des partenaires bactériens qui, eux-mêmes, défient la définition biologique de l'espèce. Les bactéries regroupent en effet une multitude d'organismes unicellulaires se reproduisant principalement de façon asexuée, mais capables d'échanger des gènes entre populations très différentes – un processus appelé transfert génétique horizontal (par opposition au transfert vertical lié à la descendance). Dans ce contexte, les microbiologistes classent les bactéries selon divers critères moléculaires, toujours un peu arbitraires. L'un d'eux repose sur le taux d'hybridation de l'ADN entre deux souches: si la complémentarité entre leurs séquences est inférieure à 70 %, elles sont considérées comme appartenant à deux espèces différentes. Ce critère est devenu célèbre car, appliqué aux primates, il conduirait... à tous les classer dans une seule et même espèce (6). Pour toutes ces raisons, la notion d'espèce ne peut pas se limiter au concept biologique. Les scientifiques doivent mobiliser d'autres approches, plus adaptées selon les cas. Prenons la définition morphologique, par exemple. Proche des réflexions d'Aristote, elle considère que deux individus dont la morphologie est suffisamment semblable appartiennent à la même espèce. Cette définition se révèle particulièrement utile pour identifier des espèces disparues, puisqu'il est évidemment impossible de tester leur capacité d'hybridation. Mais elle présente aussi de sérieuses limites, en particulier face aux espèces dites cryptiques, espèces différentes qui se ressemblent tellement qu'on ne peut pas les distinguer à l'oeil nu. Ainsi, la pipistrelle commune (Pipistrellus pipistrellus) et la pipistrelle soprane (Pipistrellus pygmaeus) sont presque indiscernables morphologiquement, mais elles ne peuvent pas se reproduire entre elles. À l'inverse, certaines espèces présentent une variabilité morphologique impressionnante: leurs individus semblent très différents, tout en remplissant les critères de la définition biologique de l'espèce. C'est le cas du chien (Canis lupus) et de ses innombrables variétés domestiques, ou encore de la néphile dorée (Trichonephila inaurata), dont le mâle est dix fois plus petit que la femelle. Un autre type de distinction consiste à recourir à la génétique. La définition phylogénétique repose sur le prélèvement et la comparaison des séquences d'ADN d'un grand nombre de spécimens issus de différentes populations. Grâce à divers calculs, on évalue alors leur degré de proximité génétique: plus il est élevé, plus les séquences sont similaires, ce qui suggère que les organismes partagent un ancêtre commun récent. Ces analyses produisent des représentations en réseau – arbres phylogénétiques ou arbres de parenté – où apparaissent clairement des regroupements d'individus présentant de fortes similarités génétiques. Ces regroupements sont ensuite interprétés comme des unités de reproduction potentielles, pouvant correspondre à des espèces. Le séquençage génétique permet-il pour autant de clore le débat? Pas tout à fait. Il est indéniable que ces outils ont résolu de nombreuses énigmes. Tout récemment, par exemple, l'UICN a officialisé la division des girafes en quatre espèces distinctes, sur la base de l'analyse de l'ADN d'une centaine de spécimens (7). Mais cette approche n'est pas exempte de biais. L'usage exclusif du séquençage peut conduire à une surestimation du nombre d'espèces, en séparant artificiellement des groupes qui, dans la réalité, appartiennent à une même entité. Une approche qui suscite de vifs débats au sein de la communauté scientifique. Le cas des fougères est emblématique de cette inflation: là où un système de classification reconnaît 319 genres (des grands ensembles d'espèces), d'autres classifications n'en retiennent qu'environ 207. Les partisans du découpage fin y voient une meilleure reconnaissance de la diversité, tandis que leurs opposants jugent qu'un tel éclatement complique inutilement l'identification. UNE LARGE PANOPLIE DE MÉTHODES Chaque définition de la notion d'espèce comportant son lot d'inconvénients, il paraît donc illusoire d'en établir une qui soit parfaitement satisfaisante. En réalité, lorsqu'un scientifique nomme une espèce, il ne fixe pas une identité définitive: il formule une hypothèse (lire l'encadré ci-dessous). Pour l'étayer, il mobilise toute une panoplie de méthodes - anatomiques, moléculaires, comportementales, etc. Malgré tout, le vivant semble bien séparé en unités distinctes et non s'organiser en continuum. Dans son ouvrage Qu'est-ce qu'une espèce? (humenSciences, 2025), l'éthnobiologiste et écologue Meredith Root-Bernstein rappelle que «les espèces, évidemment, ne sont pas des catégories exactes. Ce n'est pas que les biologistes n'arrivent pas à percer le mystère de l'espèce, c'est que la formation des espèces distinctes est un accident de l'évolution et non un résultat inévitable de la vie, ou le but de l'évolution. L'évolution n'a pas de but et la vie sur Terre n'a pas de résultat inévitable» (8). Bien que l'on peine tant à définir clairement la notion d'espèce, celle-ci est fondamentale car étroitement liée aux enjeux de biodiversité et de conservation. Elle permet notamment de réaliser des inventaires, de mesurer la diversité biologique d'un site, ce qui sert ensuite à hiérarchiser les zones à protéger en priorité. Mais toutes les espèces sont loin d'avoir été décrites, notamment parmi les insectes et d'autres organismes discrets comme certains vers, pourtant essentiels au recyclage de la matière organique. Il en résulte que certains milieux ne bénéficient pas de la protection qu'ils mériteraient, faute d'identification complète de leurs espèces. Une étude publiée en 2022 a ainsi montré que la conservation de régions sud-américaines riches en biodiversité pourrait être renforcée de 20 % si l'on tenait compte des espèces encore non répertoriées faute de données (9). Cette problématique soulève une interrogation de fond: est-il réellement pertinent de fonder la protection de la biodiversité uniquement sur la notion d'espèce? Attendre qu'une espèce soit découverte et jugée digne de protection avant d'agir revient à retarder la préservation des milieux naturels. Il semble plus cohérent de protéger directement les écosystèmes, sachant qu'il est chimérique de connaître l'intégralité des espèces qui les peuplent. De la même manière que pour la notion de «vivant», dont l'absence de définition consensuelle n'empêche ni l'étude scientifique, ni l'urgence de le protéger, l'indétermination du concept d'espèce ne devrait pas freiner nos efforts de conservation.   Crédit : J. Vigne / La Collection Parution product Au cœur des atomes Diane Dabir-Moghaddam BIOLOGISTE, PARIS Doctorante au laboratoire de l'Institut de systématique, évolution, biodiversité du Muséum national d'histoire naturelle à Paris. Pierre Kerner GÉNÉTICIEN, PARIS Enseignant-chercheur en génétique évolutive du développement à l'université Paris Cité et à l'Institut Jacques-Monod. Serait-ce une nouvelle espèce ? Vous pensez avoir découvert un organisme inconnu du monde vivant? Et s'il s'agissait d'une nouvelle espèce! Pour la décrire officiellement, il vous faudra réunir quatre ingrédients: un type (le spécimen de référence), une description complète, une solide expertise du groupe étudié, et enfin un peu d'imagination pour lui trouver un nom inédit. Le type est le spécimen «porte-nom»: c'est à lui que l'on se référera si l'espèce doit un jour être redéfinie ou comparée à de nouveaux individus. Avec un seul spécimen, on parle d'holotype et avec une série, il s'agit de syntypes (souvent déposés dans différents musées ou collections pour plus de sécurité). Le type doit être accessible à tout chercheur, sinon il ne peut pas être utilisé pour comparaison, et l'espèce n'est pas valide. La description et le nom doivent ensuite être publiés dans un support reconnu: de nos jours, principalement des revues scientifiques spécialisées. Cette description doit être la plus détaillée possible: aspect général, critères de distinction (la «diagnose»), répartition géographique, biologie, saisonnalité, et parfois même un extrait de séquence génétique pour faciliter les comparaisons. Enfin, le nom choisi doit être formé avec les 26 lettres de l'alphabet latin. Il peut provenir d'un mot existant, d'une dérivation ou être inventé de toutes pièces, mais il doit être absolument inédit. Sinon, la nouvelle espèce n'est pas valide. Les règles officielles sont édictées dans plusieurs codes internationaux: l'ICZN (International Code of Zoological Nomenclature) pour les animaux, l'ICN (International Code of Nomenclature for algae, fungi and plants) pour les plantes, algues et champignons, et l'ICNP (International Code of Nomenclature of Prokaryotes) pour les bactéries et archées. D. D.-M. 85 % DES AMPHIBIENS mal évalués sont menacés. Parmi les espèces classées « données insuffisantes » par l'Union internationale de la conservation de la nature, la grande majoritédes amphibiens (grenouilles, salamandres, crapauds) sont en réalité menacés d'extinction.

Source LogoLa Recherche
News Image
L’Anthropocène, un concept artistique

L’Anthropocène, un concept artistique Gaz à effet de serre, réchauffement climatique, déforestation, plastiglomérats (roches sédimentaires contenant des plastiques), etc. : notre impact sur l’ensemble de la planète ne fait aucun doute. Si la pieuse intention du terme "Anthropocène" était de nous remettre face à nos responsabilités, le mot lui-même, avant son récent abandon par la Commission internationale de stratigraphie le 6 mars 2024, n’en demeurait pas moins débattu quant à son origine et son commencement. Flou artistique On attribue souvent – et faussement – le néologisme « Anthropocène » au météorologue et chimiste de l’atmosphère Paul J. Crutzen (1933-2021) et au biologiste marin Eugene F. Stoermer (1934-2012). Dans une courte note publiée dans la lettre d’information N°41 du Programme International Géosphère-Biosphère (IGPB Newsletter ou Global Change NewsLetter, mai 2000) – qui n’est donc pas une publication scientifique car elle n’a été ni relue ni corrigée par leurs pairs –, les auteurs font la liste de nos impacts sur le système Terre et complètent (p. 17) : "Considérant ces impacts majeurs et bien d’autres, toujours croissants, des activités humaines sur la Terre et l’atmosphère, et à toutes les échelles, y compris mondiales, il nous semble plus qu’approprié de souligner le rôle central de l’humanité dans la géologie et l’écologie en proposant d’utiliser le terme "anthropocène" pour l’époque géologique actuelle." (la lettre (en anglais) est téléchargeable ici : Global Change NewsLetter). Pour eux, l’Anthropocène démarre avec l’invention de la machine à vapeur, c’est-à-dire précisément en 1784. Si Crutzen et Stoermer mentionnent certains auteurs antérieurs ou précurseurs de l’idée, comme le philologue américain George Perkins Marsh (1801-1882) qui publie, en 1864, Man and Nature, Physical Geography as Modified by Human Action, ils ne citent ni la toute première formalisation du concept que l’on doit au naturaliste français Buffon (1707-1788) ("La face entière de la Terre porte aujourd’hui l’empreinte de la puissance de l’homme", Les époques de la nature, 1778), ni la première occurrence du terme "Anthropocène" dans la littérature scientifique, due au géologue et paléontologue russe Alexeï Petrovitch Pavlov (1854-1929), et qui remonte à 1922 dans un article (en russe). Mais grâce à la notoriété de Crutzen, alors Prix Nobel de chimie, le terme "Anthropocène" (qu’il utilise cependant sans majuscule dans sa note de 2000, sans suivre en cela le code de nomenclature des géologues) se popularise alors qu’il n’est pas validé par la communauté scientifique internationale. En effet, une période géologique se définit par sa limite inférieure, c’est-à-dire son commencement, qui de fait doit être synchrone, c’est-à-dire simultanée à l’échelle mondiale (voir encadré ci-dessous). Le débat fait donc rage entre les défenseurs de l’Anthropocène pour savoir quel effet anthropique et donc quel âge prendre en compte… Aussi le terme doit-il vraiment correspondre à une époque (avec le suffixe "cène", du grec kaïnós qui veut dire "nouveau" car il appartiendrait bien à la nouvelle ère Cénozoïque) ou plutôt à une période ("anthropogène" ?), voire à une ère géologique ("anthropozoïque" ?). De leur côté, les géologues arguent d’une part que l’Anthropocène est redondant avec l’Holocène qui existe déjà (il commence il y a 11700 ans, c’est-à-dire au début du dernier Interglaciaire) et, d’autre part, qu’il est finalement très anthropocentrique – pour ne pas dire prétentieux – de vouloir inscrire l’humain dans une quelconque temporalité géologique : la planète, même malmenée par sapiens, continuera bien de tourner… La réponse de collègues – dont certains issus des Sciences humaines et sociales, mais pas que – fut de mauvaise foi : toute personne osant remettre en cause le terme Anthropocène – mot-valise toujours en vogue pour décrocher des financements de recherche – fut taxée de climatoscepticisme… Or, contester le terme d’Anthropocène, tout comme parler d’extinctions autre que la dernière en cours, ce n’est ni être climatosceptique ni remettre en cause le concept. Ainsi, durant plus de deux décennies, et avec la promotion du terme anthropocène – sans majuscule – lancée par Crutzen et Stoermer, le débat s’est noyé dans des guerres plus politiques que scientifiques, et la notion d’Anthropocène, déjà plastique en soi, est devenue vide de sens… Jusqu’au jour où, récemment, dans le cadre d’un projet "art et science" que nous menons, nous découvrîmes, dans les archives de la salle Piette du Musée national d’Archéologie de Saint-Germain-en-Laye, une échelle des temps préhistoriques basée entre autres sur l’histoire de l’art rupestre, et que nous reproduisons ici. L’échelle des temps préhistoriques d’Edouard Piette (1907), basée notamment sur l’histoire de l’art, englobe (à gauche) l’« Anthropique » qui préfigure l’Anthropocène, terme encore en vogue aujourd’hui. Une préhistoire de l’anthropocène Édouard Piette (1827-1906), arrière-grand-père d’Hervé Fischer co-auteur de cet article, était avocat puis juge de paix, mais aussi géologue et préhistorien amateur (au sens de celui qui aime). Il a consacré son temps libre – et son argent – à concilier ses deux passions en appliquant les méthodes géologiques (notamment stratigraphiques) à ses recherches préhistoriques et archéologiques. Il lance et finance de longues campagnes de fouilles dans de nombreuses grottes dans le Sud-Ouest de la France. En 1889 il définit, grâce à ses découvertes dans la grotte du Mas-d’Azil, en Ariège, l’Azilien, une culture du Paléolithique final d’Europe de l’Ouest qui débute il y a 14000 ans. En découlera également cette classification stratigraphique du Quaternaire qui n’est plus usitée aujourd’hui mais qui se révèle extrêmement intéressante à plus d’un titre : cette échelle tente en effet de subdiviser le temps en prenant en compte simultanément le climat (notez l’âge "frigidaire" vers le haut du tableau), les éléments de la faune mais aussi les cultures, les industries et les techniques artistiques (voir colonne de droite ; époque "de la gravure", époque "de la sculpture"). Par ailleurs, dans la colonne gauche de son tableau, Édouard Piette superpose l’"Anthropique" avec le Quaternaire en précisant cependant dans son texte que l’"ère anthropique" désigne non pas l’apparition de l’humain mais celle de son industrie et des premiers outils : "Il n’y a pas d’industrie sans outils (…). C’est donc bien l’apparition de l’industrie humaine dans une région assez étendue et non celle de l’homme qui doit être choisie pour le point de départ de l’ère nouvelle." (Piette, 1907, p. 8). L’"Anthropique" de Piette débute donc avec la culture "Chélleenne" (en haut à droite du tableau) – qu’il faut lire "Chélleenne", du site de Chelles en Seine-et-Marne – il y a plusieurs millions d’années, dès que des humains taillent des silex, gravent sur des parois rocheuses et/ou écrasent du pigment pour leurs pochoirs rupestres. Une culture impliquant un art :, avec Piette, l’Anthropocène devient donc artistique. En découle l’analyse de son arrière-petit-fils Hervé Fischer, qui stipule que "l’art (même contemporain) est toujours premier" (1). À quoi bon inventer l’Anthropocène si nous ne sommes pas sortis de la préhistoire ? Déjà, Piette s’opposait à l’usage des termes "temps géologiques" pour désigner les temps passés car tous les temps, même l’actuel, étaient selon lui géologiques : "Dites, si vous le voulez, temps préquaternaires ; inventez tel nom qu’il vous plaira, mais respectez la langue ; cessez de dénaturer le sens des mots, n’introduisez pas dans la science des locutions capables de faire naître des opinions inexactes et de propager des erreurs. " Une remarque valable aussi pour l’Anthropocène… Par Jean-Sébastien Steyer et Hervé Fischer (1) Les arts sont toujours premiers, Hervé Fischer, Journée d’étude et exposition à la Sorbonne Art Gallery, 10-12 février 2025, organisée par Yann Toma et la revue ArtsHebdoMédias  Les auteurs Jean-Sébastien Steyer est paléontologue au CNRS et au Muséum national d’histoire naturelle, à Paris. Hervé Fischer, philosophe, sociologue et artiste à Montréal, et arrière-petit-fils du préhistorien Édouard Piette. Remerciements : les auteurs remercient Laurence Honnorat pour sa mise en relation.   ENCADRÉ L’Anthropocène, une ère sans point de départ  La stratigraphie, littéralement "l’étude des strates", est la discipline qui établit le découpage du temps géologique. Afin qu’une période soit reconnue officiellement, il faut en fixer avec précision le début, appelé limite inférieure. Ainsi, le Jurassique – nommé en 1795 par Alexander von Humboldt d’après les reliefs du Jura – commence il y a 201,4 millions d’années ; il est suivi du Crétacé, qui débute il y a 66,0 millions d’années. Pour établir ces limites, les stratigraphes choisissent un affleurement de référence, le stratotype, qui présente un repère net et universellement reconnaissable. Ce marqueur devient le point stratotypique mondial (ou golden spike), garantissant que le début de la période est synchrone, c’est-à-dire valable partout sur Terre. Le problème de l’Anthropocène est précisément qu’aucun golden spike n’a été retenu. Sa date de commencement varie selon les auteurs : certains privilégient la fin du XVIIIᵉ siècle (révolution industrielle), d’autres le Néolithique (début de l’agriculture du riz), d’autres encore les années 1960 (pic du carbone 14 lié aux essais nucléaires). Après plus de quinze ans de débats, la sous-commission de stratigraphie du Quaternaire, rattachée à la Commission internationale de stratigraphie, a finalement abandonné le terme. J.-S. S.   Pour en savoir plus  Nous avions consacré en 2017 un dossier illustrant le débat sur l'anthropocène. D'un côté, les géologues Patrick De Wever et Stan Finney soulignaient que cette période n'avait pas les caractéristiques d'une nouvelle ère géologique. Alors que d'autres avançaient, au contraire, que les preuves justifiant d'une nouvelle ère géologique ne manquaient pas. Si le débat est désormais clos, l'historien des sciences Jean-Baptiste Fressoz craignait pour sa part qu'en admettant cette nouvelle ère, on risquait d'officialiser une vision dépolitisée de la crise environnementale.   Image d'ouverture : bulles de méthane piégées dans la glace de l'Antarctique (crédit : CSIRO / SPL / COSMOS) ppajot@sophiap… mer 10/09/2025 - 16:35 Popularisé en 2000 par les scientifiques Paul Crutzen et Eugene Stoermer, le terme "Anthropocène" a été officiellement rejeté en 2024 par la Commission internationale de stratigraphie. Pourtant, son origine et sa définition restent floues, entre débats scientifiques et récupérations politiques. Une découverte récente dans les archives du Musée d’archéologie nationale de Saint-Germain-en-Laye révèle que l’idée d’une ère marquée par l’humain avait déjà été formulée… au XIXe siècle, par le préhistorien Édouard Piette. Retour sur l’histoire méconnue d’un concept qui divise toujours. Géologie Mercredi 10 septembre 2025 - 16:41 C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche
News Image
Le mathématicien Stéphane Mallat lauréat de la médaille d’or 2025 du CNRS

Le mathématicien Stéphane Mallat lauréat de la médaille d’or 2025 du CNRS Les honneurs continuent de s’accumuler pour Stéphane Mallat. Membre de l’Académie des sciences (depuis 2014), de l’Académie des technologies (depuis 2018) et de la National Academy of Engineering (États-Unis, depuis 2017), le chercheur en mathématiques appliquées, spécialiste du traitement du signal et des algorithmes d'apprentissage profond, est aussi, depuis ce jeudi 11 septembre 2025, lauréat de la médaille d’or du CNRS. Stéphane Mallat, qui vient de lancer MathAData, un programme d’enseignement des mathématiques au lycée "avec des expérimentations numériques sur des problèmes motivants d’Intelligence Artificielle", est récompensé pour avoir "marqué de son empreinte les mathématiques appliquées à l’informatique. Du format de compression d’images JPEG 2000 aux fondements mathématiques de l’intelligence artificielle, il a façonné des outils devenus incontournables", souligne le CNRS dans l’article qui lui est consacré. Nous avions rencontré Stéphane Mallat au moment où, élu professeur au Collège de France, il venait de commencer les cours de sa chaire de sciences des données. Il nous avait détaillé les raisons à l’origine de la création de cette chaire, décrit les familles de problèmes auxquelles s’intéressent les sciences des données, ou encore expliqué ce que sont les données de grande dimension et la « malédiction » qui les frappe. Nous vous proposons de (re)lire ci-dessous ce grand entretien, aussi disponible ici. La rédaction -------------------   Stéphane Mallat : "Le domaine des sciences des données est tout juste en train de se cristalliser"   Spécialiste des algorithmes d'apprentissage profond, le chercheur français Stéphane Mallat est à l'initiative de la nouvelle chaire de sciences des données au Collège de France. C'est aussi le thème du cours qu'il y donne depuis janvier et dont la ligne directrice est d'approfondir les liens entre mathématiques et applications.   Avec plus de 88 000 citations dans Google Scholar, Stéphane Mallat est le chercheur français le plus cité dans le domaine des sciences de l'ingénieur et l'informatique. Et pour cause ! En 1987, il met au point un algorithme fondé sur la théorie mathématique dite « des ondelettes », qui donne lieu à de multiples applications, dont le standard de compression Jpeg 2000. En 2001, il met en pratique son expertise mathématique et fonde la start-up Let It Wave, spécialisée dans la fabrication de puces électroniques pour les télévisions. Grâce aux ondelettes, ces puces sont capables de transformer des images de résolution standard en images haute définition. En 2008, après avoir revendu sa start-up, il revient à ses premières amours : la recherche en mathématiques. Il s'intéresse alors de près aux algorithmes d'apprentissage profond (ou deep learning), dont les performances en reconnaissance visuelle impressionnent la communauté scientifique. Le graal ? Percer le secret de ces algorithmes. C'est-à-dire comprendre mathématiquement comment ils font pour traiter les données en grande dimension. La Recherche - Vous avez commencé en janvier les cours de la nouvelle chaire en sciences des données du Collège de France. Quel cap voudriez-vous lui donner ? Stéphane Mallat - La chaire s'intitule « sciences des données » au pluriel, car il me paraissait important de rappeler qu'il s'agit d'un domaine né de l'agrégation de plusieurs disciplines scientifiques. Un mélange comprenant notamment les statistiques, l'informatique, l'intelligence artificielle, le traitement du signal, la théorie de l'information, mais aussi toutes les sciences traditionnelles comme la physique, la biologie, l'économie ou les sciences sociales, qui nécessitent de modéliser et d'analyser de grandes quantités de données. Cette chaire a pour ambition d'apporter une vision et un langage communs au-delà des spécificités de chacun de ces domaines. C'est ce point de vue des mathématiques appliquées que j'aimerais développer dans ce cours. Sans pour autant oublier la composante expérimentale des sciences des données. C'est d'ailleurs grâce à des approches empiriques, grâce à des intuitions remarquables d'ingénieurs et de chercheurs en informatique qu'ont récemment vu le jour des algorithmes aux capacités spectaculaires pour les reconnaissances visuelle et vocale, la traduction automatique ou pour jouer au go. La mise au point d'applications et la recherche expérimentale permettent de faire émerger de nouveaux problèmes et sont une source considérable d'idées nouvelles pour les mathématiques. Cette correspondance entre mathématiques et applications sera la colonne vertébrale de mon cours au Collège de France, en espérant effacer progressivement les frontières entre expérimentation et théorie, qui se nourrissent mutuellement. Pourquoi cette chaire naît-elle maintenant ? Le domaine des sciences des données est tout juste en train de se cristalliser. C'est un phénomène récent, y compris l'expression « sciences des données ». La discipline existe depuis longtemps, mais sous la férule des statistiques. Avec l'explosion du nombre de données numériques (big data) produites chaque jour et l'accélération des capacités de calcul des ordinateurs, la statistique et l'informatique se sont rencontrées. Cela a permis l'émergence de l'apprentissage automatique (machine learning), dont l'objectif est d'élaborer des algorithmes permettant d'analyser, de classifier, autrement dit de prédire les réponses à des questions posées sur des données de grande taille. Après, pourquoi une discipline prend-elle tout à coup une forme d'indépendance ? Je ne pense pas que ce soit lié au fait qu'elle acquière une autonomie scientifique complète par rapport à ses disciplines mères, ici la statistique et l'informatique. C'est davantage un phénomène social et universitaire : il y a un moment où une demande forte de la part des étudiants, de l'industrie et de la société nécessite de créer une structure académique spécifique. Il y a cinquante ans, on a déjà assisté au même phénomène avec l'émergence des départements d'informatique, qui sont issus des départements de mathématiques ou de génie électrique. C'est la raison pour laquelle on voit apparaître un peu partout dans le monde des centres de sciences des données. À l'École normale supérieure, nous allons d'ailleurs établir un centre pluridisciplinaire en sciences des données, que je coordonnerai, à l'interface entre informatique, mathématiques, physique, biologie, mais aussi sciences cognitives et sociales. La création d'une chaire au Collège de France s'inscrit dans cette dynamique. À quels problèmes s'intéressent les sciences des données ? Il faut distinguer deux familles : la modélisation et la prédiction. Dans le premier cas, l'objectif est de construire un modèle représentatif des données pour générer des données nouvelles, les comprimer, ou encore améliorer leur reconstruction à partir d'une information partielle ou dégradée. En imagerie médicale, on cherche par exemple à restituer des images de haute résolution avec le moins de mesures possible, afin de limiter l'exposition des patients aux radiations. Dans le cas de la prédiction, le but est de poser des questions sur des ensembles de données et de prédire une réponse à partir de la structure de ces données. Par exemple, on peut reconnaître un objet ou un animal dans une image à partir de la valeur des pixels qui la composent, prédire l'énergie d'une molécule à partir de sa conformation, ou encore prédire un diagnostic de cancer en utilisant des résultats d'examens médicaux et des données génomiques. Les applications sont déjà très nombreuses. Ces problèmes ne sont-ils donc pas résolus ? Pas du tout. Nous n'en sommes qu'au début. Les résultats des algorithmes d'apprentissage - en particulier ceux des réseaux de neurones profonds (*) - sont certes spectaculaires, mais on comprend mal, mathématiquement, les raisons de ce succès. Progresser dans ce domaine permettrait de les améliorer et de les rendre plus fiables, notamment pour des applications critiques comme la médecine ou la conduite de voitures autonomes. Que ne comprend-on pas ? Pour répondre, je vais commencer par expliquer le principe général des algorithmes d'apprentissage. Imaginons un algorithme dont le but est de prédire l'énergie quantique (notée $y$) d'une molécule en fonction de sa conformation, autrement dit de sa géométrie (notée $x$). Cela veut dire trouver un lien entre la conformation $x$ et l'énergie $y$. Un tel algorithme inclut des paramètres internes qui sont calculés lors d'un apprentissage. On va entraîner cet algorithme sur une base de données comprenant des dizaines de milliers d'exemples de conformations $x$ pour lesquelles on connaît l'énergie $y$ de la molécule. Cet apprentissage « optimise » les paramètres internes de l'algorithme afin qu'il fasse le moins d'erreurs possible sur les exemples qu'on lui a donnés. Au terme de cet apprentissage dit « supervisé », l'algorithme est capable de prédire l'énergie $y$ d'une molécule de conformation $x$ inconnue. Le calcul des paramètres internes lui a donc permis de généraliser le lien entre la conformation et l'énergie. Mathématiquement, cela revient à approximer la fonction (notée $f$) qui relie n'importe quelle donnée $x$ et la réponse $y = f(x)$. Cette fonction approximée (notée $\widetilde{f}$) doit être telle que les réponses $\widetilde{y} = \widetilde{f}(x)$) soient proches des réponses exactes y. Si l'erreur moyenne entre ces résultats est faible, cela signifie que l'apprentissage s'est bien généralisé. La capacité de généralisation des algorithmes peut paraître magique, mais elle repose simplement sur une forme de régularité de la fonction $f$, qui relie les données $x$ et la réponse $y$. C'est précisément la nature de cette régularité que l'on ne comprend pas bien lorsque les données $x$ sont de grande dimension. Or c'est le cas dans la plupart des problèmes qui nous intéressent, comme la classification d'images, le diagnostic médical... Qu'est-ce qu'une donnée de grande dimension ? Prenez une image en noir et blanc, un carré de 1000 pixels de côté, soit 1 million de pixels au total. La valeur d'un pixel est comprise entre 0 (pour un point noir) et 1 (pour un point blanc). Une image est donc composée de 1 million de variables, correspondant aux valeurs de chacun des pixels. Mais la même image peut également être vue comme un point dans un espace de 1 million de dimensions. Cet espace est gigantesque ! C'est comme si vous aviez un repère avec 1 million d'axes, dans lequel chaque image correspondait à un point dont la position est définie par 1 million de coordonnées. En quoi est-il difficile de définir la régularité des données en grande dimension ? Commençons par un cas facile, rencontré dès le collège : on vous demande de mesurer la température d'un mélange en fonction du temps. Vous tracez donc deux axes représentant le temps en abscisse ($x$) et la température en ordonnée ($y$), puis vous placez les points correspondant à chaque mesure. Chaque mesure est ici un exemple d'entraînement dont on connaît $x$ et $y$. Comment tracer la courbe de la température en fonction du temps, autrement dit la fonction $y = f(x)$ pour tout $x$ ? À main levée, vous allez naturellement dessiner une courbe régulière qui passe par tous les points correspondant à vos mesures. Vous auriez pu lui donner une allure irrégulière, mais votre connaissance a priori de la physique vous a poussé à tracer une courbe régulière. Maintenant, si l'on vous demande de prédire la température pour un temps donné, la courbe que vous avez dessinée vous permettra de le faire. Autrement dit, vous êtes parvenu à généraliser les valeurs des exemples grâce à la régularité de la fonction $f$. C'est ce que fait un algorithme d'apprentissage ? Exactement ! Un algorithme d'apprentissage calcule une approximation régulière, qui passe par presque tous les exemples connus, en ajustant ses paramètres internes. Cette prédiction s'appelle une régression. Sa marge d'erreur dépend de deux choses : la régularité locale de la courbe $y = f(x)$ et la distance entre les points de l'expérience, qui sont les exemples d'entraînement. Ainsi, on calcule une bonne prédiction pour une nouvelle donnée $x$ si ce $x$ est proche d'un exemple connu. Plus cette distance est petite, plus l'erreur de prédiction est faible. Il faut donc avoir des exemples suffisamment proches les uns des autres pour réaliser une bonne prédiction pour tout $x$. Cela vaut-il aussi pour les problèmes de classification de données ? Oui. Dans ce cas, il faut définir des frontières de décision (*), qui permettent de classer des données dans une classe ou dans une autre. Par exemple, classer des images de chats ou de chiens. Pour que l'erreur de classification soit faible, les frontières doivent être régulières et la distance entre chaque exemple suffisamment petite pour tracer précisément ces frontières. En grande dimension, le problème est que les données possèdent beaucoup trop de variables, si bien que lorsque vous prenez une donnée $x$ au hasard, il est rare de trouver un exemple d'entraînement qui lui soit proche. En d'autres termes, il est très peu probable que les variables de cet exemple soient quasiment identiques à celles de la donnée $x$. Cela n'est possible que si le nombre d'exemples d'apprentissage augmente exponentiellement avec le nombre de variables. Or, très vite, on arrive à un nombre d'exemples nécessaires supérieur au nombre d'atomes dans l'Univers. Cela n'est pas réaliste en pratique. En sciences des données, nous appelons cela la « malédiction de la grande dimension ». Comment parvenir à déjouer cette malédiction ? Pour s'en sortir, il faut que la régularité de la fonction $f$ que l'on souhaite approximer soit beaucoup plus forte que la régularité locale utilisée en basse dimension. Cette régularité repose sur le principe de parcimonie, selon lequel les données possèdent une certaine structure qui permet d'éliminer des composantes de la donnée $x$ sans que cela n'ait d'influence sur le résultat $y$. Cela revient à changer les variables de la donnée $x$ et à les remplacer par de nouvelles variables, moins nombreuses, appelées « attributs » de $x$. On peut voir la parcimonie comme la traduction mathématique du principe du rasoir d'Ockham [du nom d'un philosophe du XIVe siècle, ndlr], où l'on cherche à expliquer un phénomène à partir d'un nombre minimum d'hypothèses. Deux propriétés des données rendent possibles ces changements de variables parcimonieux : l'organisation hiérarchique multi-échelle et les symétries. Elles jouent toutes deux un rôle fondamental en mathématiques et dans la plupart des problèmes complexes d'apprentissage. En quoi consiste la propriété hiérarchique ? Dans l'article « L'architecture de la complexité », publié en 1962, l'économiste américain Herbert Simon observe que les systèmes biologiques, physiques et sociaux possèdent tous une structure hiérarchique et multi-échelle. En physique, la matière peut être étudiée selon plusieurs niveaux d'organisation, en partant des particules élémentaires, aux petites échelles, jusqu'aux galaxies, aux très grandes échelles, en passant par les atomes et les molécules. On retrouve cette organisation dans de très nombreux systèmes, y compris en biologie, dans les langues ou dans les sociétés humaines. En sciences des données, cette organisation hiérarchique est exploitée par de nombreux algorithmes d'apprentissage. Un premier pas pour comprendre la régularité de cette organisation hiérarchique a été fait entre 1980 et 1990 grâce à la théorie des ondelettes. Cette dernière a donné lieu à une opération de « transformée en ondelettes », permettant de représenter une donnée, par exemple une image, avec des coefficients d'ondelette qui sont des attributs correspondant aux variations des pixels à différentes échelles. Concrètement, dans une zone où l'intensité lumineuse est constante, la variation est nulle, et donc le coefficient d'ondelette est nul. En revanche, au niveau des contours d'un objet, où les variations lumineuses sont importantes, ces coefficients sont grands. On obtient ainsi un changement de variables parcimonieux, au sens où la plupart des coefficients d'ondelette sont nuls. Cela suffit-il pour éviter la malédiction des grandes dimensions ? Non. Même si les ondelettes peuvent permettre de réduire le nombre de variables d'un facteur 50, il en reste encore beaucoup trop ! Si l'on part d'un million de variables - un ordre de grandeur typique pour les images -, il en reste plusieurs dizaines de milliers. Nous sommes donc encore en grande dimension. Or, en 2008, j'ai réalisé que les réseaux de neurones convolutionnels, une classe d'algorithmes imaginée par le chercheur français Yann LeCun [actuel directeur du laboratoire d'intelligence artificielle de Facebook, ndlr], permettaient de débloquer la situation grâce à la seconde propriété, celle de symétrie. Comment ces algorithmes agissent-ils ? Comme leur nom l'indique, ils sont constitués d'entités informatiques de calcul, baptisées « neurones artificiels », connectées entre elles de manière à former de nombreuses couches plus ou moins profondes. Dans les premières couches, cette architecture permet un traitement hiérarchique multi-échelle des données, similaire à celui des algorithmes de transformée en ondelettes. Comme nous l'avons vu, cela est une première source de parcimonie. Or plus on va dans les couches profondes, plus les réponses du réseau sont invariantes. En effet, dans les couches les plus profondes, le réseau élimine les variations des données $x$ qui n'influencent pas le résultat $y = f(x)$. Ces variations de $x$ sans effet sur $y$ sont les symétries de la fonction $f$. Or l'élimination de ces symétries est source de parcimonie. Les réseaux de neurones tirent donc parti de ces symétries en calculant des invariants, qui réduisent efficacement la dimensionnalité de $x$ sans perdre d'information sur la réponse $y$. Peut-on préciser ce que sont ces symétries ? On en connaît certaines. Par exemple, on sait que la classification d'images est invariante par translation : la nature d'un objet représenté sur une image ne change pas lorsqu'on la déplace verticalement ou horizontalement. Cette symétrie se retrouve dans l'architecture des réseaux de neurones convolutionnels dans lesquels les « poids » des neurones sont eux aussi invariants par translation. De même, si une image $x$ est légèrement déformée, le plus souvent cela ne change pas la catégorie $y$ à laquelle elle appartient. L'ensemble de ces déformations définit d'autres symétries. Cependant, les réseaux de neurones semblent aussi capables d'apprendre à calculer des invariants relatifs à des transformations beaucoup plus complexes et que l'on comprend encore très mal. C'est en partie ces groupes de symétries complexes qui leur permettent de s'affranchir de la malédiction de la grande dimension. Que sait-on de ces groupes de symétries ? En mathématiques, les groupes de symétries jouent un rôle central pour décrire la structure d'un problème concernant la géométrie, les équations différentielles partielles, l'algèbre ou la théorie des nombres. Ils sont aussi au coeur de la physique, pour caractériser la nature des interactions entre particules. Ils contiennent donc une grande richesse. Lorsque l'on réalise que des réseaux de neurones profonds ne sont pas simplement capables de reconnaître des chiens ou des chats, mais aussi de calculer l'énergie quantique de molécules, de traduire des textes, de reconnaître de la musique ou de prédire des comportements humains, on voit que la compréhension de ces groupes de symétries est un enjeu qui va bien au-delà des applications de l'apprentissage. Si l'on parvient un jour à les spécifier, on comprendra mieux la géométrie des données en grande dimension. Or cette géométrie est sous-jacente à de très nombreux problèmes scientifiques. La comprendre est, à mon sens, le graal des sciences des données. Propos recueillis par Gautier Cariou   Photo : © Frédérique Plas / CNRS Images   (*) Un réseau de neurones profond est un type d'algorithme dont la structure est inspirée de l'organisation des neurones du cortex cérébral. Il se révèle très performant pour certaines tâches, comme la classification d'images, la reconnaissance de la parole et la traduction de textes. (*) Une frontière de décision est, pour des données disséminées dans un espace de dimension 3, un plan qui sépare les données en deux catégories. Dans un espace de dimension d, cette frontière est un hyperplan de dimension d-1.     vglavieux jeu 11/09/2025 - 14:42 Le chercheur en mathématiques appliquées est récompensé pour ses travaux dans les domaines du traitement du signal et des algorithmes d'apprentissage profond, dont il est un spécialiste mondialement reconnu. Mathématiques Jeudi 11 septembre 2025 - 15:04 informatique C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche
Le double visage du noyau atomique

Le double visage du noyau atomique etreyz mar 16/09/2025 - 00:00 Philippe Pajot RÉDACTEUR EN CHEF (1) Les Progrès de la physique moléculaire, conférences faites en 1913-1914, Gauthier-Villars, 1914. 3 Payant 445 1 Ajouter au flux RSS 1 En 1913, Marie Curie constate que « l'importance profonde et fondamentale des phénomènes radioactifs (...) n'a pas encore été reconnue avec l'ampleur qu'elle comporte » (1). Le radium - élément radioactif qu'elle a découvert en 1898 - inquiète et fascine, mais ses applications médicales suscitent déjà l'intérêt des hôpitaux, au point de provoquer une « crise » d'approvisionnement. Aujourd'hui, ce paradoxe demeure : le nucléaire reste perçu d'abord comme une menace, rarement comme un outil. Les bombardements de Hiroshima et de Nagasaki sont passés par là, tout comme la catastrophe de Tchernobyl. Malgré les risques réels, nous ne pouvons ignorer la place de la médecine nucléaire, qui s'est imposée comme un pilier de la cancérologie. Radiothérapie externe, curiethérapie, imagerie par PET-scan, scintigraphie et désormais radiothérapie interne vectorisée, capable de s'attaquer à des cancers résistants : autant de techniques qui sont les héritières directes des travaux fondateurs de ces scientifiques pionniers, au premier rang duquel figurent Marie et Pierre Curie. Chaque année, des millions de patients bénéficient de soins atomiques ! Les applications positives de la radioactivité ne se cantonnent pas à la médecine. L'irradiation par rayonnements ionisants permet, par exemple, de conserver plus longtemps les aliments et les semences ou d'inspecter les matériaux industriels. La désintégration radioactive sert à dater les vestiges archéologiques ou à alimenter des sondes spatiales. Le noyau est aussi au coeur de la production d'électricité nucléaire, l'une des principales sources d'énergie décarbonée. Autant d'usages qui font du nucléaire un allié scientifique et technologique précieux - à condition qu'il soit utilisé avec la rigueur et la prudence que son potentiel exige. Si la radioactivité est un phénomène si répandu, c'est parce que, dans le monde nucléaire, l'instabilité est la règle et la stabilité l'exception : sur près de 4 000 noyaux connus, 250 seulement sont stables - ceux-là mêmes qui composent notre corps et notre environnement. Et c'est là toute la magie de ces noyaux : ajoutez trois petits protons et l'élément change d'identité, passant de l'or au plomb (une transformation « anti-alchimique ») ; retirez deux neutrons et le carbone 14 radioactif devient du carbone 12, qui constitue la quasi-totalité du carbone terrestre. Les physiciens et les physiciennes qui étudient ces noyaux et les réactions entre eux, que cela soit lors de leur création dans l'histoire cosmique ou en les synthétisant dans les grands instruments sur Terre, cherchent à comprendre les arcanes de la matière, ouvrant la voie à d'autres applications potentielles. De nos jours, la radioactivité reste un objet de fascination et de crainte. Elle demeure surtout un formidable outil de connaissance et de soin, à condition d'être mise au service de l'humanité avec discernement. Dans le coeur du noyau, il y a autant de risques que d'espérances : à nous de choisir lesquels nourrir. Parution product Au cœur des atomes

Source LogoLa Recherche
News Image
"SANS INTÉGRITÉ, PAS DE SCIENCE"

"SANS INTÉGRITÉ, PAS DE SCIENCE" Entretien avec Stéphanie Ruphy PHILOSOPHE DES SCIENCES, DIRECTRICE DE L'OFFICE FRANÇAIS DE L'INTÉGRITÉ SCIENTIFIQUE etreyz mar 16/09/2025 - 00:00 Propos recueillis par Alice Carliez Fraudes, plagiats, conflits d'autorat, mais aussi nouveaux défis posés par l'intelligence artificielle : l'intégrité scientifique est devenue un enjeu majeur, en France comme sur le plan international. Pour la première fois, l'Office français de l'intégrité scientifique publie un état des lieux national sur les manquements constatés dans la recherche. Stéphanie Ruphy, qui termine son mandat à la tête de cette institution, revient sur les principales avancées et appelle à renforcer la prévention, la transparence et la capacité des établissements à traiter les cas qui surviennent. (1) tinyurl.com/Ofis-synthese-2022-23 (2) tinyurl.com/Ofis-recommandations-2025 (3) coara.fr (4) tinyurl.com/inrae-expression-publique ; tinyurl.com/inserm-charte-parole-publique ; tinyurl.com/cnrs-guide-expression-publique (5) R. A. K. Richardson et al., PNAS, 122, e2420092122, 2025. (*) L'Ofis est l'Office français de l'intégrité scientifique. Il a été créé en 2017 comme département du Hcéres, le Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur. ofis-france.fr 7 Payant 2794 1 Ajouter au flux RSS 1 La Recherche • Dans un contexte international où l'intégrité scientifique est bien souvent mise à mal – augmentation d'articles frauduleux, ingérence politique, plagiats, etc. –, que sait-on des fraudes scientifiques en France ? Stéphanie Ruphy • Jusqu'alors, nous ne disposions pas de données à l'échelle nationale, ni sur le nombre, ni sur le type de manquements à l'intégrité scientifique. La synthèse publiée en mai 2025 par l'Ofis (*) présente le premier état des lieux en la matière, à partir de données transmises par les établissements (universités, organismes de recherche, etc.) pour la période 2022-2023 (1). Sur cette période de deux ans, le nombre de manquements avérés est estimé à environ 130. Il s'agit d'une estimation basse à double titre : tous les établissements n'ont pas répondu (les réponses reçues couvrent environ deux tiers de la recherche publique en France) et, surtout, un manquement ne peut être recensé que s'il a fait l'objet d'un signalement. De quels types de manquements s'agit-il ? Celui qui est rapporté le plus fréquemment concerne l'autorat : le désaccord, voire le conflit, sur les noms qui apparaissent, dans un certain ordre, comme auteurs d'une publication scientifique. Viennent ensuite le plagiat et la falsification, cette dernière pouvant prendre de multiples formes : duplication de données, arrangement d'images, etc. La fabrication de données, soit l'invention pure et simple de données ou de résultats, souvent considérée comme l'un des manquements les plus graves, n'a été rapportée qu'une seule fois. En termes de discipline scientifique, on compte le plus de cas dans deux domaines : d'un côté, la biologie et la médecine, de l'autre, les sciences humaines et sociales. Sans surprise dans une certaine mesure, car ce sont ceux qui rassemblent le plus de chercheuses et chercheurs en France. Mais la culture disciplinaire peut aussi jouer un rôle : il faut rappeler que le domaine biomédical a été l'un des premiers confrontés à des scandales d'intégrité scientifique et donc à développer une sensibilité forte à ce sujet. Ce premier état des lieux va-t-il être répété ? Oui. C'est une demande directe du législateur : la loi de programmation de la recherche (LPR) du 24 décembre 2020 a en effet instauré une obligation pour les établissements de transmettre ce type de données à l'Ofis tous les deux ans. Nous serons ainsi en mesure de suivre l'évolution du nombre et de la nature des manquements, et d'en tirer des enseignements sur l'efficacité des dispositifs de prévention, et de signalement et traitement des manquements potentiels. Cet intérêt des politiques pour les questions d'intégrité scientifique est-il nouveau ? Non, et on peut même dire que ce sont des politiques qui ont parfois donné une impulsion déterminante à la mise en place de dispositifs de prise en charge des problèmes d'intégrité scientifique. Aux États-Unis, par exemple, c'est Al Gore, alors jeune sénateur, qui contribue au début des années 1980 à faire de l'intégrité scientifique l'objet d'un débat public, à la suite de plusieurs affaires de fraudes ayant secoué de prestigieuses institutions de recherche, comme les NIH (les instituts nationaux de la santé des États-Unis). Et le Congrès américain joua un rôle prépondérant dans la création de ce qui deviendra dans les années 1990 The Office of Research Integrity, pièce maîtresse du dispositif américain. A-t-on observé ce même type d'impulsion politique en France ? La France a connu des initiatives notables venant des communautés scientifiques elles-mêmes, notamment à l'Institut national de la santé et de la recherche médicale (Inserm). L'adoption par de nombreux établissements et instituts, à partir de 2015, de la Charte française de déontologie des métiers de la recherche a ensuite marqué une étape importante. Mais le politique a également joué un rôle déterminant. Le rapport Corvol, qui fait encore référence aujourd'hui, commandité en 2016 par Thierry Mandon, alors secrétaire d'État chargé de l'Enseignement supérieur et de la Recherche, a conduit à des avancées institutionnelles concrètes, comme l'obligation pour tous les établissements de nommer un référent à l'intégrité scientifique ou encore la création de l'Ofis en 2017. Un pas de plus, majeur, a été franchi par le législateur en 2020 avec la LPR : l'intégrité scientifique est désormais inscrite dans la loi (lire l'encadré), tout comme une série d'obligations en la matière fixées aux établissements. Par exemple, l'obligation pour les docteurs de prêter serment juste après leur soutenance – ce qui est une exception française – ou encore l'obligation de transmettre des données dont on a parlé plus haut. On est donc passé en France de dispositifs relevant du «droit souple», comme le choix de signer une charte, à un cadre légal valant pour tous. Comment expliquez-vous cette implication du législateur, qui touche les pratiques scientifiques elles-mêmes ? À mon sens, la raison en est simple : sans intégrité, pas de science. Une recherche scientifique frauduleuse cesse d'être une recherche scientifique. Ce qui veut dire de l'argent public gaspillé. Ce qui signifie aussi le risque de prendre une décision politique fondée sur des résultats non fiables, voire faux. Un cas d'école en la matière est l'article frauduleux du chercheur britannique Andrew Wakefield publié en 1998 dans la revue médicale The Lancet, qui prétendait établir un lien entre l'autisme et les vaccinations contre la rougeole, les oreillons et la rubéole. S'il a fini par être rétracté douze ans plus tard, il est toujours invoqué par des personnes réticentes aux politiques publiques de vaccination. Enfin, certains politiques ont le souci de la crédibilité du discours scientifique dans la sphère publique et de la confiance accordée à la science par les autres composantes de la société. En témoigne, par exemple, cette obligation par la loi pour tout docteur de prêter un serment qui l'engage à continuer de respecter les principes de l'intégrité scientifique quel que soit son domaine d'activité professionnel. Une motivation du législateur était de valoriser la démarche scientifique au-delà du monde académique. N'êtes-vous pas trop optimiste sur l'attachement des politiques à l'intégrité scientifique, quand on songe à la situation actuelle aux États-Unis ? Le combat pour une science intègre, qui vient nourrir des décisions politiques éclairées, n'est jamais gagné. C'est pourquoi il ne faut rien lâcher sur le principe de l'autorégulation des communautés scientifiques et de leur indépendance au regard des pouvoirs, qu'ils soient politiques, économiques ou religieux. En quoi ce principe d'autorégulation est-il important pour l'intégrité scientifique ? Il est nécessaire de rappeler une particularité des normes en matière d'intégrité scientifique, à savoir leur caractère largement endogène. Il revient avant tout aux communautés scientifiques de définir ce qui est acceptable ou non comme pratiques pour produire un résultat et le diffuser. Ce caractère endogène plaide pour une prise en charge des problèmes en interne, par les pairs. En France, ce pari de l'autorégulation s'est traduit d'au moins deux façons. D'abord, les référents à l'intégrité scientifique, qui recueillent au sein de leurs établissements les signalements et qui conduisent des instructions pour déterminer s'il y a eu – ou pas – un manquement, sont presque toujours eux-mêmes des chercheuses ou chercheurs. Et surtout, les établissements ont été placés par le législateur au centre du jeu : c'est à eux qu'incombe par la loi l'ensemble du processus de traitement d'un problème d'intégrité. Des choix différents ont pu être faits dans d'autres pays où existe une instance nationale ayant des prérogatives d'instruction. Que se passe-t-il concrètement quand quelqu'un soupçonne l'existence d'un problème d'intégrité scientifique au sein d'un établissement ? Je souhaiterais tout d'abord insister sur l'importance des actions de sensibilisation et de formation à l'intégrité scientifique menées par les référents au sein de leurs établissements. Ces actions jouent un rôle crucial en matière de prévention et permettent d'informer l'ensemble des personnels de recherche sur ce qu'ils peuvent faire s'ils sont confrontés à une situation problématique. La première étape est de contacter le référent de son établissement pour faire un signalement. Ce signalement peut alors déboucher sur une instruction menée par le référent, qui ensuite fait part de ses conclusions à la direction de l'établissement. La direction est alors seule responsable des suites à donner, qui peuvent être de natures très diverses, selon les conclusions de l'instruction. Ainsi, si le manquement est avéré, la direction peut saisir l'instance disciplinaire de l'établissement. Si au contraire le manquement potentiel n'est pas confirmé, alors des mesures de réhabilitation des personnes mises en cause peuvent être prises. Tout se passe donc à l'échelle locale d'un établissement. Quel est alors le rôle de l'Ofis ? Il a avant tout une mission d'observatoire à l'échelle nationale. La production de la synthèse bisannuelle évoquée précédemment, ou encore le recensement de tous les référents à l'intégrité scientifique, relèvent de cette mission. Si l'Ofis n'a pas vocation à traiter les cas individuels de manquement – on vient de voir que c'est la seule responsabilité de l'établissement concerné –, il veille à harmoniser les pratiques en la matière. Il n'y a en effet pas de raison qu'un même type de problème soit traité de façon différente d'un établissement à l'autre ou d'un laboratoire à l'autre. Pour cela, nous proposons par exemple des formations aux référents, une « boîte à outils » pour les directeurs de laboratoire, et nous produisons des notes de cadrage pour les établissements. L'Ofis peut aussi s'adresser directement aux chercheuses et chercheurs grâce à des fiches pratiques sur divers sujets, par exemple sur «Comment éviter de citer des articles rétractés». Enfin, une mission à mes yeux tout à fait essentielle est de nature prospective. Il s'agit d'identifier et de donner davantage de visibilité à des problématiques émergentes – ainsi, notre dernier colloque en avril portait sur les nouveaux enjeux d'intégrité scientifique soulevés par l'utilisation d'outils d'intelligence artificielle générative en recherche. Il s'agit aussi, sur un plan plus institutionnel et politique, d'identifier les angles morts, les pièces manquantes dans le dispositif français actuel et de faire évoluer l'existant. Que manque-t-il au dispositif actuel pour améliorer la situation ? Prenons le cas où le traitement d'un signalement par un établissement est perçu, à tort ou à raison, comme insatisfaisant par les personnes impliquées. À ce jour, il n'existe pas en France, contrairement à beaucoup d'autres pays, d'instance nationale vers laquelle ces personnes pourraient se retourner pour demander un avis. Pour pallier cet angle mort, l'Ofis a oeuvré, avec l'Académie des sciences, à la création de l'Instance nationale d'analyse des dossiers d'intégrité scientifique (Inadis). Celle-ci sera installée à l'automne 2025 sous l'égide de l'Académie des sciences, selon une lettre de mission du 17 juillet dernier du ministre chargé de l'Enseignement supérieur et de la Recherche, Philippe Baptiste. Il s'agit d'une étape importante pour renforcer la crédibilité du dispositif français. Une telle instance sera non seulement garante d'une plus grande équité, mais agira aussi au bénéfice des établissements et de leurs référents à l'intégrité scientifique en permettant de sortir de situations d'impasse à l'échelle locale. D'autres évolutions sont-elles souhaitables ? Dans les recommandations aux directions d'établissements émises par l'Ofis en juillet dernier, nous préconisons que ces dernières respectent des délais assez courts pour prendre leurs décisions et les communiquer aux protagonistes une fois l'instruction close (2). C'est parfois déjà le cas, mais pas toujours. Or, cette attente peut être extrêmement difficile à vivre pour les personnes qui sont sur la sellette, et encore plus si l'affaire est médiatisée. Nous recommandons également que l'établissement communique, sous un format approprié, sur les mesures qu'il a prises à l'issue d'une instruction. Là aussi, rester dans les non-dits, parfois les rumeurs, faute d'une communication opportune, peut-être délétère à la fois pour les personnes impliquées et pour l'institution. Vous recommandez aussi la protection des auteurs de signalement d'une fraude. Est-elle insuffisante aujourd'hui ? Elle reste à renforcer et nous demandons ainsi aux établissements de tout mettre en oeuvre pour garantir la protection des auteurs de signalement contre toute mesure de représailles, directe ou indirecte. Il est en effet crucial qu'aucune personne, en particulier qui serait en situation précaire ou de dépendance hiérarchique, n'hésite à faire un signalement par peur de l'impact que cela pourrait avoir sur sa carrière ou son intégration dans un collectif de recherche. Dans le même registre, ne craignez-vous pas que certains manquements ne soient pas correctement pris en charge par les établissements par crainte de nuire à leur réputation ? Le réflexe premier peut être effectivement de ne pas faire de vagues afin de ne pas décrédibiliser l'institution. Nous aurons fait un grand pas quand tous les établissements de France seront persuadés que, lorsqu'un problème survient, ils ont au contraire tout intérêt à bien le prendre en charge plutôt qu'à le mettre sous le tapis. Beaucoup l'ont déjà compris me semble-t-il - c'est mon côté optimiste -, et les perceptions sont en train de changer. Cette évolution du risque réputationnel me semble en tout cas être un enjeu majeur dans les années à venir. Revenons aux environnements de recherche et aux conditions qui conduisent à s'écarter des bonnes pratiques - on cite souvent à ce propos la pression à la publication. Quels sont les leviers d'action pour y remédier ? Comme pour tout comportement frauduleux, identifier les raisons pour lesquelles un individu ou un collectif d'individus s'engagent dans une action répréhensible n'est pas une tâche aisée. Il est cependant effectivement très plausible que l'environnement de recherche, en particulier la pression à publier, joue un rôle notable. À mes yeux, un enjeu majeur est la mise en cohérence des attentes à l'égard des chercheuses et chercheurs. On ne peut pas d'un côté leur demander d'être vertueux en matière de publication – publier moins pour publier mieux – et de l'autre les évaluer selon des critères qui tirent du côté du bien connu publish or perish. Il faut cependant rappeler que la plupart des institutions scientifiques se sont engagées en faveur d'une évaluation plus qualitative et multidimensionnelle, en signant notamment des déclarations proposées par des coalitions internationales telles que Dora et Coara (3). Mais cela n'est pas suffisant. Il faut aussi qu'évoluent les cultures professionnelles des communautés scientifiques elles-mêmes, qui parfois continuent de trop valoriser les volumes de publication. Autrement dit, c'est à nous aussi, chercheuses et chercheurs, de prendre nos responsabilités en privilégiant la qualité à la quantité dans les évaluations que nous menons. En dehors de la sphère académique, les chercheurs et chercheuses qui prennent publiquement la parole peuvent-ils être sanctionnés pour des propos qui nuisent à la recherche scientifique, comme ceux propageant des fake news ? La propagation de fake news par des chercheuses ou chercheurs encore en activité dans leur communauté professionnelle reste heureusement très rare, mais cela pose plus généralement la question de la régulation de la prise de parole scientifique dans l'espace public. Une telle régulation n'est pas souhaitable. Qui s'en chargerait, au nom de quelles normes, quelles valeurs ? Pour autant, l'intégrité scientifique ne s'arrête pas à la porte du laboratoire. Les interventions dans l'espace public doivent être considérées comme une forme de diffusion de résultats, tout comme les publications scientifiques. À ce titre, elles doivent aussi respecter certains standards. Certaines institutions ont par exemple mis en place des chartes d'expression publique (4). Il en va là aussi de la crédibilité de la science. Et il faut rappeler que la liberté académique est une liberté professionnelle que l'on ne peut invoquer que si l'on respecte les exigences méthodologiques de sa discipline. À mon sens, il faut en revenir aux principes de l'autonomie et de l'autorégulation des communautés scientifiques. La qualité des publications d'une chercheuse ou d'un chercheur est évaluée par ses pairs. Si besoin, la qualité de ses prises de parole publiques pourrait également être prise en compte par ses pairs. Et si les propos tenus publiquement sont peu fondés scientifiquement, alors cela pourrait avoir, par exemple, des conséquences pénalisantes pour sa carrière. Vous arrivez à la fin de votre mandat à la tête de l'Ofis. Quels autres nouveaux enjeux vous semblent essentiels pour l'intégrité scientifique ? Le système de publication scientifique est de plus en plus sous pression. Des travaux récents montrent en effet un changement d'échelle et de nature de la fraude scientifique, désormais organisée et systémique, appuyée par un écosystème structuré (paper mills, brokers, revues prédatrices). Ces pratiques contournent les mesures existantes et croissent plus vite que la science légitime, ce qui constitue une menace majeure pour l'intégrité et la confiance dans la recherche (5). S'y ajoute le développement d'utilisations répréhensibles d'outils d'intelligence artificielle, par exemple pour biaiser délibérément les processus d'évaluation par les pairs, comme l'a montré l'informaticien Guillaume Cabanac (lire La Recherche n°579, oct.-déc. 2024, pp. 74-81). Mettre en place les moyens de contrer efficacement ces dérives afin de maintenir la confiance dans les publications scientifiques me semble être un enjeu majeur pour tous les acteurs de la recherche. Sur un plan général, il me semble également essentiel d'éviter au maximum tout décalage entre les attributs culturels de la science - honnêteté, fiabilité -, qui fondent à juste titre sa légitimité, et la réalité des coulisses du monde de la recherche. Il ne serait guère réaliste d'attendre de ce milieu professionnel que tous ses membres se comportent toujours de façon parfaitement intègre. Ce que l'on peut en revanche attendre, c'est la capacité des institutions scientifiques à prendre en charge de façon juste, transparente et adéquate un problème d'intégrité scientifique lorsqu'il survient Parution product Au cœur des atomes BIO 1968 Naît à Monaco. 1992 Diplôme d'ingénieure aéronautique de l'Ensica, à Toulouse. 1996 Doctorat d'astrophysique à l'observatoire de Paris - Sorbonne Université. 2004 PhD de philosophie à l'université Columbia, New York. 2004 Maître de conférences, Aix-Marseille Université. 2012 Professeure de philosophie des sciences à l'université Grenoble Alpes. 2018 Élue à l'Academia Europaea. 2020 Professeure de philosophie et sciences contemporaines à l'École normale supérieure - PSL. 2021 Directrice de l'Office français de l'intégrité scientifique. Qu'est-ce qu'un manquement à l'intégrité scientifique ? Indispensable au fonctionnement des communautés de recherche, l'intégrité scientifique établit aussi une confiance entre ces dernières et d'autres composantes de la société. Elle renvoie à l'ensemble des règles et valeurs qui garantissent des recherches honnêtes et rigoureuses. Mentionnée dans le Code de la recherche (1), elle « contribue à garantir l'impartialité des recherches et l'objectivité de leurs résultats ». À l'échelle européenne, le Code de conduite pour l'intégrité en recherche (2) rappelle les principes fondamentaux : fiabilité, respect, honnêteté et responsabilité. Toute pratique qui nuit à la fiabilité des résultats ou au bon fonctionnement des communautés peut constituer un manquement. Celui-ci est caractérisé à l'issue d'une instruction menée par le référent à l'intégrité scientifique, avec l'aide éventuelle d'experts, en tenant compte de l'intention, de la gravité et de la récurrence des faits. Un manquement peut survenir à toutes les étapes du travail scientifique - planification, collecte et traitement des données, publication et communication, interactions entre pairs. Dans leurs formes les plus graves, ils sont passibles de sanctions disciplinaires, voire pénales. Tout doit donc être mis en oeuvre pour les prévenir : sensibilisation, formation, encadrement, mentorat et environnement favorable aux bonnes pratiques. S. R. (1) tinyurl.com/code-recherche (2) tinyurl.com/code-euro-integrite

Source LogoLa Recherche
News Image
Radionucléides: quand les physiciens créent les traitements de demain

Radionucléides: quand les physiciens créent les traitements de demain etreyz mar 16/09/2025 - 00:00 Mathias Germain Mais d'où viennent ces atomes instables qui nourrissent la médecine nucléaire? La plupart d'entre eux ne se trouvent pas dans la nature: ils sont fabriqués dans des réacteurs, des cyclotrons hospitaliers ou de grands accélérateurs de recherche. Leur production, aujourd'hui au centre de programmes européens comme Cern-Medicis ou Prismap, est devenue un enjeu stratégique, au carrefour de la physique nucléaire, de la médecine et de la lutte contre le cancer. (1) C. Van Laere et al., Theranostics, 14, 1720, 2024. (2) K. Vermeulen et al., Pharmaceutics, 14, 2566, 2022. 61 Médecine Mercredi 17 septembre 2025 - 19:21 Gratuit 1234 2 Ajouter au flux RSS 1 Fluor 18, iode 131, technétium 99: ces noms, familiers des radio-pharmaciens mais mystérieux pour le grand public, sont au coeur de millions d'examens médicaux chaque année. Invisibles mais indispensables, ces radionucléides permettent de voir et parfois même de traiter à l'échelle cellulaire. Leur fabrication mobilise des installations de pointe où la physique nucléaire se met directement au service de la médecine, en rendant possible la mise au point de nouveaux isotopes adaptés aux besoins de la cancérologie. La médecine nucléaire connaît actuellement un fort développement en thérapie et en diagnostic, souvent réunis dans une approche combinée appelée théranostique (lire : La médecine nucléaire entre dans l'ère théranostique). Cette stratégie repose sur l'association de radionucléides avec des molécules vectrices capables de conduire la radioactivité précisément jusqu'aux cellules malades. D'où proviennent ces radionucléides? Certains d'entre eux existent dans la nature, comme le plomb 212, issu de la chaîne de désintégration du thorium 232, dont la demi-vie se compte en milliards d'années. Mais la grande majorité est fabriquée artificiellement, grâce à des réactions nucléaires où un noyau est bombardé par des nucléons (neutrons ou protons) pour donner naissance à un nouvel isotope radioactif. Ces particules sont obtenues soit dans des réacteurs nucléaires (pour les neutrons), soit dans des accélérateurs comme les cyclotrons ou les synchrotrons (pour les autres projectiles). Les réacteurs nucléaires produisent la plupart des radionucléides employés à des fins thérapeutiques et une grande partie de ceux pour l'imagerie médicale. Ils fournissent notamment l'iode 131, utilisé pour l'exploration et le traitement de la thyroïde, et le molybdène 99, précurseur du technétium 99, principal radio-isotope pour les radiodiagnostics. Aujourd'hui, près de 75 % des examens de scintigraphie ont recours au technétium 99 (qui a une demi-vie de six heures). Ce molybdène 99 est issu de la fission en réacteur de l'uranium 235 : environ 6 % des fissions de ce noyau créent du molybdène, qui a une demi-vie de soixante-six heures. Les cibles sont de petites plaques d'aluminium contenant de l'uranium. Autrefois fabriqué à partir d'uranium hautement enrichi, proche de la qualité militaire (95 % d'enrichissement), il est désormais produit avec de l'uranium enrichi à 20 % seulement, conformément à une réglementation récente de l'Agence internationale de l'énergie atomique. LE «LABORATOIRE CHAUD», UNE PIÈCE SPÉCIALE DE RADIO-PHARMACIE «Le molybdène 99 est livré dans de petits conteneurs de la taille d'une batterie de voiture, une ou deux fois par semaine, dans les centres français de médecine nucléaire, décrit Chloé Lamesa, radio-pharmacienne au CHU de Toulouse et présidente de la société française de radio-pharmacie. Le technétium est ensuite obtenu en dissolvant l'alumine, un minéral sur lequel le molybdène est fixé.» Cette opération délicate est réalisée dans une pièce spéciale du service de radio-pharmacie, le «laboratoire chaud», soumise à la stricte réglementation en matière de radioprotection et de préparation de produits pharmaceutiques. «Les doses de traceurs injectées au patient sont mesurées à l'aide d'une chambre d'ionisation étalonnée (activimètre) et sont confinées dans des seringues munies de caches plombés, afin de limiter au maximum l'irradiation du personnel», précise la spécialiste. Les réacteurs nucléaires ne sont pas les seuls à produire des atomes radioactifs d'intérêt médical: les accélérateurs comme les cyclotrons ou les synchrotrons jouent aussi un rôle important. Certains hôpitaux disposent même de leur propre cyclotron, permettant d'employer immédiatement les radionucléides fabriqués. Ainsi, au CHU de Toulouse, le fluor 18, utilisé comme traceur par la tomographie à émission de positons (TEP) pour le dépistage, est obtenu en bombardant de protons issus d'un cyclotron des molécules d'eau enrichies en oxygène 18. «L'oxygène est un élément voisin du fluor dans la classification périodique, précise Chloé Lamesa. Une réaction nucléaire le transforme en fluor 18. Après deux ou trois heures d'irradiation, le fluor 18 radioactif est isolé puis fixé sur une molécule de glucose donnant naissance au fluorodésoxyglucose.» Après contrôle, cette solution injectable est administrée au patient. Dans l'organisme, le fluor 18 se transforme en oxygène 18 avec une demi-vie de cent dix minutes, en émettant des positons détectés par les caméras TEP. Fluor 18, technétium 99 et iode 131 figurent parmi les radionucléides les plus courants. Mais dans un contexte où les besoins de la cancérologie se font croissants, leurs propriétés physiques et chimiques ne sont pas toujours idéales. Les chercheurs explorent donc des isotopes moins classiques en vue de concevoir de nouvelles thérapies. «Plus de 4 000 radionucléides ont déjà été créés dans le monde, mais seulement 200 environ présentent des caractéristiques intéressantes pour la médecine», explique le physicien Thierry Stora, coordinateur du programme Medicis au Cern, à Genève (Suisse). Parmi eux, le lutétium 177, étudié depuis les années 1990, s'est révélé particulièrement prometteur: il émet un rayonnement bêta d'intensité modérée, qui limite les dommages aux tissus sains, ainsi qu'une faible émission gamma, utile pour le suivi par imagerie. Après des années de mise au point et d'essais cliniques, ce radionucléide est devenu en 2017 un traitement reconnu contre certaines tumeurs neuro-endocrines et le cancer de la prostate métastatique. UN USAGE DES ISOTOPES PLUS CIBLÉ ET PLUS PUISSANT Outre les réacteurs, des accélérateurs de recherche comme celui du Cern ou celui d'Arronax à Saint-Herblain, près de Nantes, fournissent également des radionucléides innovants. C'est pour cela qu'a été lancé en 2013 le programme Cern-Medicis, qui tire parti du faisceau de protons de l'installation Isolde, en vue de mettre au point des isotopes novateurs destinés à la recherche médicale. Le premier lot, en 2017, était constitué de terbium 155 (demi-vie de cinq jours). «Ce radio-isotope est considéré comme prometteur pour le diagnostic du cancer de la prostate, comme l'ont montré de premiers résultats, indique Thierry Stora. Aujourd'hui, nous synthétisons aussi du terbium 161 (demi-vie de sept jours), qui émet à la fois des électrons de basse énergie adaptés à la radiothérapie et des rayons gamma adaptés à l'imagerie. Les propriétés chimiques du terbium 161 s'apparentent à celles du lutétium 177, mais le terbium 161 devrait être plus performant, puisqu'il émet environ deux fois plus d'électrons de courte portée utilisables à des fins thérapeutiques» (1). Le programme Medicis a également permis de produire du samarium 153 purifié. Cet isotope est déjà employé en soins palliatifs pour soulager les douleurs liées aux métastases osseuses, notamment dans les cancers de la prostate, du sein ou du poumon. Jusqu'ici, il était toujours mélangé à du samarium 152, stable et non radioactif, qui limitait son efficacité thérapeutique en freinant son absorption par les cellules. «Grâce à nos installations de spectrométrie de masse, nous sommes parvenus à isoler et collecter le samarium 153, ouvrant la voie à un usage plus ciblé et plus puissant», relate Thierry Stora (2). Depuis 2020, le programme Prismap coordonne la mise à disposition de nouveaux radionucléides pour la recherche biomédicale au niveau européen. Ce consortium rassemble 26 instituts de treize pays, fédérant réacteurs, accélérateurs, installations de séparation de masse et centres de recherche biomédicale. «Notre but est de créer un point d'entrée unique pour une communauté scientifique et médicale encore dispersée, à l'image du National Isotope Development Center américain, lancé dans les années 2010. Initialement prévu jusqu'en 2025, Prismap devrait être prolongé jusqu'en 2030, afin d'accompagner la demande croissante en médicaments radio-pharmaceutiques», explique encore Thierry Stora, également coordinateur de ce programme. De Cern-Medicis à Prismap, l'Europe s'organise donc pour fournir aux hôpitaux et aux laboratoires une nouvelle génération de radionucléides, mieux adaptés et plus sûrs. Une dynamique qui illustre un même fil conducteur: celui d'atomes instables qui, paradoxalement, contribuent à stabiliser des vies. Parution product Au cœur des atomes POUR EN SAVOIR PLUS Le site web du projet Prismap : prismap.eu

Source LogoLa Recherche
Binaire, le blog scientifique de référence sur l’informatique et le monde numérique, s’installe chez La Recherche

Binaire, le blog scientifique de référence sur l’informatique et le monde numérique, s’installe chez La Recherche Quand il est lancé en janvier 2014, Binaire répond à un besoin: faire entendre la voix des informaticiens et informaticiennes sur leur propre discipline, dans un paysage médiatique largement dominé par l’actualité des objets connectés, des géants du numérique ou des tendances de l’industrie high-tech. L’ambition est claire: expliquer ce qu’est l’informatique en tant que science et en tant qu’enjeu de société. Thierry Viéville, chercheur à Inria, qui était dans l’équipe fondatrice, décrit ce blog comme "une petite démocratie entre amis", où chacun peut proposer des textes et où le collectif éditorial fonctionne sur un mode horizontal. Les contributeurs viennent principalement du monde académique – Inria, CNRS, universités – mais le blog accueille aussi ponctuellement des contributions issues du monde industriel, renforçant ainsi la diversité de ses points de vue. "L’informatique ne se réduit pas aux gadgets technologiques ou aux succès économiques de la Silicon Valley, rappelle l’équipe fondatrice. C’est une discipline académique, qui interroge les fondements du calcul, les limites de l’automatisation, les architectures logicielles, la sécurité, la pédagogie… autant de sujets qui concernent directement les citoyens." Un changement d’hébergement, mais pas de cap éditorial Le passage de Binaire de la plateforme du Monde au site de La Recherche marque le début d’un nouveau cycle. Celui-ci s’accompagne d’une visibilité accrue dans un écosystème résolument scientifique. "Le magazine scientifique de référence", qui se consacre depuis plus de 50 ans à la vulgarisation des sciences, offre à Binaire un écrin naturel. Le mariage est logique: d’un côté une discipline scientifique en pleine expansion, de l’autre un média reconnu pour la rigueur de son traitement éditorial. Ce changement d’hébergement, en revanche, ne modifie pas la vocation de Binaire. "L’objectif reste de parler d’informatique dans toutes ses dimensions – définitions, progrès, dangers, questionnements, succès et impacts, enjeux, métiers, enseignement", explique Serge Abiteboul, chercheur à l’ENS et instigateur originel du blog (et ancien chroniqueur de La Recherche entre 2017 et 2020). Une parole collective et engagée L’une des forces de Binaire réside dans son caractère collectif. Le blog est tenu par un réseau d’informaticiens et d’informaticiennes qui écrivent, à tour de rôle ou en collaboration. Cette diversité d’auteurs garantit une pluralité de points de vue et de styles, tout en maintenant un socle commun: la compétence scientifique. "Nous voulons parler de la science et de la technique informatique au sens le plus large, avec dans notre ADN des valeurs fortes : parité hommes-femmes, protection de l’environnement, inclusion numérique, et un engagement fort dans la médiation scientifique", souligne Serge Abiteboul. De l’algorithmique à l’éthique: un éventail thématique large Cette diversité d’auteurs et d’autrices assure aussi un éventail large de sujets et de modes de traitement. Le blog fonctionne un peu comme une revue à entrées multiples, où chacun peut picorer selon ses intérêts. Les lecteurs peuvent y trouver aussi bien des explications accessibles sur les notions fondamentales de l’informatique (algorithmes, complexité, modèles de calcul) que des analyses les enjeux sociétaux liés au numérique, qu’il s’agisse de l’intelligence artificielle, de la surveillance ou du logiciel libre. Les entrées consacrent par ailleurs une large place à la pédagogie et à l’enseignement, de l’école à l’université, tout en proposant des portraits de chercheurs et des formats plus originaux – billets courts, récits historiques ou incursions philosophiques qui élargissent la réflexion. Pourquoi suivre Binaire aujourd’hui ? Le moment choisi pour la migration vers La Recherche est loin d’être anodin. Nous vivons une période où l’informatique – et plus particulièrement l’intelligence artificielle – occupe une place croissante dans les débats publics. Les questions de régulation, d’éthique, de souveraineté numérique ou encore de transition écologique ne peuvent plus être traitées sans une compréhension minimale des réalités informatiques. Dans ce contexte, un espace comme Binaire offre des clés de compréhension accessibles, sans céder à la simplification outrancière. Les articles ne prétendent pas donner des réponses toutes faites, mais invitent à penser : quelles sont les limites du calcul? Quels sont les modèles économiques qui façonnent nos infrastructures numériques ? Quels choix pédagogiques prépareront-ils la société de demain? C’est aussi un antidote précieux face à deux travers médiatiques récurrents: la fascination technologique sans recul critique, et à l’inverse le catastrophisme sans nuance. Binaire s’efforce de tenir une ligne d’équilibre, en combinant enthousiasme scientifique et vigilance citoyenne. Un héritage et un avenir En plus de dix ans d’existence, Binaire a accumulé une archive de près de 1000 articles. Ces textes, toujours accessibles sur le nouveau site, constituent une ressource documentaire unique en français. Pour qui veut se former, enseigner ou nourrir un débat, c’est une bibliothèque à portée de clic. L’avenir du blog dépendra de la vitalité de sa communauté de contributeurs et de son audience. Mais ses fondations sont solides : un réseau académique actif, un ancrage institutionnel via la Société d’informatique de France, dont il est proche, et désormais une plateforme de diffusion robuste grâce à La Recherche. Comment suivre et participer ? Le blog est librement accessible en ligne à la nouvelle adresse : blogbinaire.larecherche.fr et se trouve également sur la page d’accueil du site La Recherche (larecherche.fr). On peut s’y abonner via RSS, partager les articles sur les réseaux sociaux, ou même proposer des contributions si l’on est chercheur ou enseignant en informatique. Tous les contacts et les commentaires sur le blog sont à faire directement sur la page du blog consacrée (https://blogbinaire.larecherche.fr/a-propos-de-binaire/nous-contacter/). Avec son installation chez La Recherche, Binaire consolide une aventure éditoriale unique qui se donne pour mission d’expliquer, questionner et mettre en débat l’informatique sous toutes ses formes. Un outil précieux pour qui veut comprendre le monde numérique, au-delà des buzzwords et des annonces spectaculaires. Philippe Pajot ppajot@sophiap… ven 03/10/2025 - 17:33 Depuis plus de dix ans, le blog collectif "Binaire" éclaire les multiples facettes de l’informatique: science, technologie, pédagogie et enjeux sociétaux. Né sur la plateforme du Monde en 2014, il prend aujourd’hui un nouveau départ en rejoignant le site de La Recherche. L’occasion de redécouvrir une ressource précieuse pour comprendre une discipline au cœur du XXIᵉ siècle. vie scientifique Vendredi 3 octobre 2025 - 17:34 C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche
News Image
Le prix Nobel 2025 de médecine consacre des découvertes sur une composante subtile du système immunitaire

Le prix Nobel 2025 de médecine consacre des découvertes sur une composante subtile du système immunitaire La Recherche • L’immunologie est à nouveau récompensée cette année par le prix Nobel. Cela montre la richesse de ce champ de la biologie ? Alain Fischer • En effet, il y a une longue tradition de récompenses en immunologie. Elle reste un champ très fertile et certaines découvertes ont un impact considérable. L’immunothérapie fondée sur les anticorps monoclonaux découverts par Georges Köhler et César Milstein, prix Nobel 1984, en est l’exemple emblématique: il existe aujourd’hui plus de 200 médicaments enregistrés et des marchés colossaux. James Allison et Tasuku Honjo, prix Nobel en 2018, ont montré le rôle de molécules freins des réponses immunes contre lesquels des anticorps monoclonaux sont utilisés avec succès dans le traitement de cancer. Cela montre aussi que le système immunitaire est une machinerie complexe car, à mesure que l’on examine les choses plus en détail, on fait constamment de nouvelles découvertes. Qu’entend-on par contrôle ou tolérance du système immunitaire, découverte récompensée cette année ? Le système immunitaire s’est construit comme élément de défense contre les pathogènes et l’environnement microbien. En particulier, le système immunitaire adaptatif est une innovation qui est apparue chez les vertébrés à mâchoires il y a environ 500 millions d’années. Il est fondé sur la reconnaissance spécifique d’antigènes et sur la mémoire immunitaire. C’est comme un système de «Lego» générant aléatoirement des récepteurs d’une grande diversité: des lymphocytes B reconnaissant les anticorps, des lymphocytes T reconnaissant les peptides présentés, etc. Le problème est que cette génération aléatoire produit inévitablement des récepteurs pouvant reconnaître une substance qui nous est propre (auto-antigènes). C’est gênant, car si le lymphocyte contenant ces récepteurs est actif, il peut provoquer une maladie auto-immune (cinq à dix pour cent de la population active est atteinte de maladies auto-immunes). C’est une des très grandes causes de maladie chronique – le plus souvent chez l’adulte, beaucoup plus rarement chez l’enfant. D’où le besoin de tolérance pour que le système immunitaire n’attaque par son hôte ? Exactement. En parallèle de ces systèmes effecteurs, la machinerie immunitaire a mis en place des systèmes régulateurs afin d’éviter que ces attaques surviennent. Il y a plusieurs types de régulation. Longtemps, on a pensé qu’elle se faisait essentiellement lors du développement des cellules immunitaires (lymphocytes T dans le thymus et lymphocytes B dans le moelle osseuse). De telle manière que les cellules auto-réactives – dirigées contre nous-même – disparaissaient. C’est un processus qui existe (le processus moléculaire a été identifié), mais qui est insuffisant. Cela ne rend pas compte de l’essentiel des réactions auto-immunes. Il y a toute une série d’autres mécanismes, mais il y en a un très important, qui a été identifié par le japonais Shimon Sakaguchi en particulier. C’est ce qu’on appelle la tolérance immunitaire périphérique – par périphérique, on entend tout ce qui ne se passe pas dans le thymus. C’est là qu’entre en jeu cette nouvelle classe de lymphocytes régulateurs ? Cette régulation périphérique résulte en effet, de façon majeure, d’une sous-population de lymphocytes T CD4 régulateurs (Treg) qui, par des médiateurs de surface et solubles, limitent et contrôlent les réponses immunes. Quand ces cellules manquent, ce qui a été vu d’abord chez une souris mutante naturelle qui a subi la mutation d’un gène appelle FOXP3, on observe des maladies auto-immunes sévères et précoces, y compris des diabètes destructeurs. Un point important, étrangement peu mis en avant par le comité Nobel, est que l’absence de Treg déclenche aussi une inflammation intestinale majeure – une réponse immune exacerbée contre le microbiote. Normalement, notre immunité reconnaît les microbiotes cutané et intestinal sans déclencher d’inflammation : une "tolérance" active, assurée par des sous-groupes de cellules Treg intestinaux et cutanés. Sans cellules Treg, cet équilibre s’effondre. Autrement dit, ces lymphocytes T sont des régulateurs à la fois des réponses adaptatives mais aussi des réponses innées. Les personnes qui ont ces pathologies et qui survivent ont aussi des allergies alimentaires extrêmement sévères. Comment se sont déroulées ces découvertes ? C’est Shimon Sakaguchi qui a véritablement mis en évidence ces lymphocytes T régulateurs. Dès 1995, il montre, chez la souris, qu’une petite population de lymphocytes T (nom technique CD4⁺ CD25⁺) est capable de freiner les réponses immunitaires excessives, constituant la première démonstration solide d’un mécanisme actif de tolérance périphérique. D’autres avaient entrevu l’idée avant lui – dans les années 1970 avec les "lymphocytes suppresseurs", puis au début des années 1990 avec la britannique Fiona Powrie, qui observait chez le rat des cellules limitant l’inflammation intestinale – mais sans preuve moléculaire. Shimon Sakaguchi en a donné la base expérimentale rigoureuse. Quelques années plus tard, Mary E. Brunkow et Fred Ramsdell identifient le gène FOXP3, un facteur de transcription indispensable à la différenciation et à la fonction de ces cellules (article princeps de Mary Brunkow ; article de Fred Ramsdell). Ces découvertes relient la génétique à la régulation immunitaire et fondent la biologie moderne des Treg. Pour être complet, je citerai également le rôle majeur d’Alexander Rudensky, qui dirige le programme d’immunothérapie au Mémorial Sloan-Kettering Cancer Center, à New York. C’est lui qui précise la programmation moléculaire de ces cellules: en 2003, il montre que FOXP3 agit comme un chef d’orchestre transcriptionnel, définissant l’identité et la stabilité fonctionnelle des Treg. Depuis, son équipe a mis en évidence que ces cellules forment un ensemble dynamique, modulant l’immunité aussi bien dans l’auto-immunité que dans le cancer ou les infections chroniques. Maintenant que ce mécanisme de tolérance est élucidé, comment ces découvertes se traduisent-elles en applications médicales concrètes ? Potentiellement, les implications médicales de ces travaux sont considérables mais pas évidentes à mettre en œuvre. On explore aujourd’hui deux directions presque opposées. D’un côté, amplifier l’action des lymphocytes T régulateurs dans les maladies auto-immunes et inflammatoires, où le système immunitaire s’emballe contre le soi. L’objectif est de renforcer ces cellules pour calmer les réponses pathologiques, soit en stimulant leur expansion naturelle – par exemple via l’interleukine 2 (IL-2) –, soit en les produisant artificiellement par ingénierie cellulaire, en introduisant le gène FOXP3 dans d’autres lymphocytes afin de leur conférer une fonction régulatrice. De l’autre côté, dans le cancer, il s’agit au contraire de freiner ou de neutraliser ces Treg, car les tumeurs les recrutent pour se protéger du système immunitaire. Toute la difficulté est de trouver le bon équilibre: stimuler la régulation sans immunosuppression globale, ou l’inhiber sans déclencher d’auto-immunité. Une troisième voie de recherche vise les greffes d’organes – et même la xénogreffe – où des Treg spécifiques des allo-antigènes du greffon pourraient prévenir le rejet sans altérer la défense contre les infections. Des essais précliniques, notamment chez la souris et dans certains protocoles de xénogreffe, montrent des signaux encourageants, mais la stabilité et la spécificité de ces cellules restent des défis majeurs avant toute application thérapeutique large. Au fond, que nous enseignent ces travaux sur notre conception du système immunitaire ? Pendant longtemps, on a décrit le système immunitaire comme une armée prête à attaquer tout ce qui est étranger. Ces découvertes nous obligent à changer de regard : l’immunité n’est pas qu’une machine de guerre, c’est aussi un système d’équilibre et de retenue. La santé ne dépend pas uniquement de notre capacité à éliminer ce qui nous menace, mais aussi de celle à préserver ce qui nous constitue. Les lymphocytes T régulateurs incarnent cette sagesse biologique : ils rappellent que la force du vivant ne réside pas dans la violence de la réponse, mais dans la finesse du contrôle. Autrement dit, ce Nobel récompense une idée simple et puissante : la retenue est une forme de défense. Propos recueillis par Philippe Pajot Alain Fischer est professeur émérite au Collège de France, chercheur en médecine et thérapie génique. Il est par ailleurs membre de l’Académie des sciences et membre fondateur de l’Institut des maladies génétiques Imagine. ppajot@sophiap… mar 07/10/2025 - 12:08 En récompensant le Japonais Shimon Sakaguchi ainsi que les Américains Mary E. Brunkow et Fred Ramsdell, l’Académie Nobel célèbre une avancée majeure: la découverte du rôle central des lymphocytes T régulateurs et du gène FOXP3 dans le contrôle du système immunitaire. Pour Alain Fischer, pionnier de l’immunologie en France, cette régulation est au cœur du bon fonctionnement du système immunitaire, garantissant qu’il nous défende sans nous détruire. Décryptage. Prix Nobel 2025 Biologie Mardi 7 octobre 2025 - 12:09 Prix Nobel C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche
News Image
Le Nobel de physique 2025 célèbre l’effet tunnel macroscopique

Le Nobel de physique 2025 célèbre l’effet tunnel macroscopique Si le monde quantique est celui des particules, ses effets peuvent se manifester à une échelle macroscopique. C’est la première mise en évidence de cet effet tunnel macroscopique qui est à l’honneur du Prix Nobel de physique cette année ; elle a été réalisée par les trois lauréats en 1984 et 1985 à l’université de Californie, à Berkeley. "Le principe des bits quantiques – ou qubits – supraconducteurs est issu de leurs travaux", raconte Benjamin Huard, professeur à l’École normale supérieure de Lyon, qui y dirige un laboratoire consacré aux technologies quantiques. Les qubits sont la pièce technologique maîtresse de l’ordinateur quantique, dont on prédit que les prouesses devraient dépasser celles des ordinateurs classiques que nous connaissons. Aux origines du qubit supraconducteur : le pari du macroscopique "La question de la taille maximale d’un système capable de manifester des effets quantiques demeure un problème ouvert", explique Alain Aspect, prix Nobel de physique 2022 pour ses travaux sur l’intrication des systèmes quantiques. Le premier qui propose d’explorer cette question reliée à ce que les spécialistes appellent le problème de la mesure est le physicien britannique Anthony Leggett. Ce théoricien – récipiendaire du prix Nobel en 2003 pour la compréhension de la superfluidité dans les fluides comme l’hélium 3 – se doutait qu’en refroidissant des matériaux supraconducteurs à très basse température, on pourrait être en mesure de mettre en évidence des effets quantiques subtils. Il formule ses intuitions en 1978 lors d’un colloque qui se déroule à Grenoble.  Le trio de Berkeley Ingénieur et physicien ayant tout juste soutenu une thèse en physique de la matière condensée en 1982, au CEA, Michel Devoret s’intéresse à la question de la mesure en mécanique quantique. Pour son post-doctorat, il s’envole pour Berkeley afin de rejoindre le groupe de John Clarke, au sein duquel on trouve aussi John Martinis, étudiant en thèse. Les trois hommes forment bientôt un trio très complémentaire. "John Clarke, physicien complet et d’une immense culture, est avant tout un artisan de la mesure : il a porté à un niveau inégalé la sensibilité des dispositifs de détection magnétique. Michel Devoret, lui, allie une compréhension théorique très fine des phénomènes quantiques à un sens aigu de l’expérimentation ; son intuition et sa capacité à cerner l’essence des phénomènes lui permettent de révéler expérimentalement ce que personne n’avait pu identifier. Enfin, John Martinis apporte une maîtrise d’ingénieur hors pair : expert en instrumentation, en fabrication et en programmation, il sait concrétiser les idées dans des dispositifs fonctionnels", détaille Benjamin Huard. Cette association rassemblant rigueur du théoricien, créativité de l’expérimentateur et précision de l’ingénieur était idéale pour faire progresser la physique quantique expérimentale. Leur terrain de jeu est la jonction Josephson, autrement dit deux matériaux supraconducteurs séparés par un isolant. Le physicien britannique Brian Josephson avait reçu le Prix Nobel en 1973 pour avoir décrit comment un courant électrique pouvait passer au travers de l’isolant sans tension électrique à ses bornes. Si l’on dépasse un certain courant critique, une tension apparaît. En 1985, les trois récipiendaires du Prix Nobel 2025 mesurent ce courant à différentes températures, et mettent en évidence, après des mois de travail, que, sous une certaine température, ce courant limite sature : un signe clair que le système franchit alors une barrière de potentiel énergétique par effet tunnel (quantique) et non par excitation thermique classique. "Ils ont ainsi montré qu’un système macroscopique – ici une jonction Josephson – possédait un degré de liberté [la différence de phase du supraconducteur] qui passe à travers une barrière tunnel, un peu comme une particule quantique traverse une barrière de potentiel par effet tunnel", décrit Benjamin Huard. Un point déterminant résidait dans la réduction du bruit électronique, car la moindre perturbation pouvait masquer ou détruire les signaux quantiques. Spécialiste déjà reconnu de la détection ultra-sensible, John Clarke, de par son expertise, a joué un rôle clé en permettant de réduire les niveaux de bruit nécessaires pour observer et manipuler ces effets quantiques. Des expériences d’une finesse technique extrême De telles expériences nécessitaient en outre une maîtrise expérimentale exceptionnelle : cryogénie poussée pour atteindre des températures de quelques dizaines de millikelvins, nanofabrication précise des circuits par lithographie. "Ce n’était pas seulement une affaire de technique, mais aussi de compréhension profonde de la physique. L’expérience est remarquable, mais Michel Devoret est avant tout un chercheur qui pense la mécanique quantique. Travailler sur de tels systèmes demande un vrai recul conceptuel : savoir ce qu’ils révèlent du monde quantique. Leur travail ne se résume pas à des prouesses de laboratoire, mais à la création d’outils expérimentaux raffinés conçus pour explorer les questions les plus fondamentales", renchérit Alain Aspect. En outre, les trois physiciens montrent que la jonction Josephson, au cœur de ce système, possède des niveaux d’énergie discrets, une signature fondamentale du comportement quantique à l’échelle macroscopique. Plus remarquable encore, en envoyant des micro-ondes sur le circuit, ils ont pu induire des transitions entre deux états d’énergie, exactement comme on le ferait avec un atome soumis à un faisceau lumineux. C’est pourquoi on a rapidement parlé, à l’époque, d’"atomes artificiels", ouvrant la voie à l’ingénierie des qubits supraconducteurs. Le français Michel Devoret, pionnier de la quantronique Par la suite, Michel Devoret a eu une riche carrière, toujours au service des technologies quantiques. Dans les années 1980, il crée au CEA de Saclay un groupe de quantronique, où il explore, notamment avec Daniel Estève et Christian Urbina, les circuits supraconducteurs et les transistors à un électron. Recruté à l’université Yale au début des années 2000, il y met au point des amplificateurs quantiques à bruit minimal, ce qui permettra ensuite l’observation directe des états quantiques. "À l’École normale supérieure, à Paris, il fonde également un groupe consacré à l’optique micro-onde que j’ai rejoint, raconte Benjamin Huard. Nous avons aussi travaillé ensemble sur l’action retour de la mesure : le fait de regarder comment un système quantique change lorsqu’on le mesure." Ses compères de l’époque ont également poursuivi de brillantes carrières dans le domaine des technologies quantiques. Sur les qubits eux-mêmes, Michel Devoret a également joué un rôle déterminant. À la fin des années 1990, deux laboratoires s’engagent dans cette course. À Saclay, son groupe de quantronique met au point la boîte à paires de Cooper, un dispositif supraconducteur constitué d’un îlot métallique relié à un réservoir supraconducteur de charges par une jonction Josephson. C’est le premier dispositif quantique macroscopique à deux niveaux bien définis. Quelques mois plus tard, au Japon, l’équipe de Yasunobu Nakamura observe les premières oscillations de Rabi dans un circuit inspiré de ces travaux, un phénomène caractéristique d’un système quantique à deux niveaux soumis à un champ électromagnétique oscillant. Cette prouesse est publiée en 1999 dans la revue Nature. Saclay réplique bientôt en démontrant le contrôle quantique complet du qubit, avec les expériences de Rabi, de Ramsey [qui mesurent le temps de cohérence d’un qubit] et la mesure du temps de relaxation, la durée moyenne au bout de laquelle le qubit retombe spontanément de l’état excité à l’état fondamental (aussi baptisé temps de décohérence). De cette émulation naît le qubit supraconducteur, pierre fondatrice du calcul quantique moderne. Des qubits multiples et des technologies concurrentes Depuis, la famille de qubits a explosé. Outre les qubits supraconducteurs sur des supports physiques, eux-mêmes regroupés en plusieurs types, bien d’autres manière de superposer des états quantiques ont été inventés : qubits fondés sur des atomes froids, sur des ions piégés, utilisant des spins, ou plus exotiques encore. Chaque variété a ses avantages et ses limites. Michel Devoret est également à l’origine d’un type de qubits supraconducteur dits de "chat de Schrödinger", où les deux états de qubits correspondent à des configurations macroscopiquement différentes, comme un chat mort ou vivant. "Ces qubits de chat sont ceux utilisés par exemple par la start-up française Alice & Bob, au conseil scientifique de laquelle je siège, tout comme d’ailleurs John Martinis ou Yasunobu Nakamura", s’amuse Benjamin Huard. Si l’on sait aujourd’hui fabriquer des qubits variés, la difficulté reste encore de les faire travailler ensemble pour fabriquer un ordinateur quantique vraiment utile. Beaucoup d’équipes à travers le monde y travaillent. "Ces études permettent d’explorer un phénomène fascinant : la décohérence quantique, autrement dit la façon dont un système cesse d’obéir aux lois du monde quantique pour adopter un comportement classique. C’est l’une des grandes questions de la physique : jusqu’où un système peut-il rester quantique ? Lorsqu’on assemble plusieurs qubits, à partir de quel moment les effets quantiques disparaissent-ils spontanément ? Cette transition du quantique au classique, qui a aussi à voir avec le problème de la mesure que je mentionnais, reste l’un des mystères les plus profonds de la science actuelle. C’est elle qui détermine, en grande partie, la stabilité future des ordinateurs quantiques", raconte Benjamin Huard. Bien qu’ayant atteint l’âge de la retraite, les trois lauréats restent pleinement actifs. John Clarke, 83 ans, est professeur émérite à l’université de Californie à Berkeley, où il poursuit ses travaux et publie encore dans le domaine de l’électronique et de la détection quantique. Michel Devoret, 72 ans, partage aujourd’hui son temps entre la recherche académique à l’Université de Californie à Santa Barbara et des activités de conseil scientifique auprès de Google Quantum AI, la division du groupe consacrée à l’ordinateur quantique. Quant au benjamin, John Martinis, 67 ans, professeur émérite à l’Université de Californie à Santa Barbara, il continue à travailler sur les circuits supraconducteurs ; il est également co-fondateur de Qolab, start-up née en 2022 consacrée à la conception de processeurs quantiques à base de qubits supraconducteurs. Un héritage durable Alors que, pour l’instant, personne ne peut dire quel type de qubits permettront l’avènement d’un ordinateur quantique censé dépasser les capacités de nos ordinateurs classiques, il n’en reste pas moins que le travail pionnier de ces trois physiciens a marqué leur époque. "Ils ont montré que l’on pouvait faire de la physique quantique avec des circuits fabriqués par l’humain, et non plus seulement avec les atomes de la nature. C’est extraordinaire de penser que l’on peut structurer l’architecture quantique, en construisant de toute pièce des systèmes où se manifestent les lois les plus subtiles de la physique", conclut Alain Aspect. Philippe Pajot Pour en savoir plus L'article de notre confrère Sciences et Avenir sur l'annonce de ce Nobel (lien). Un petit entretien de 2025 avec le physicien Seth LLoyd sur l'avénement de l'ordinateur quantique (lien). Un article sur la notion de décohérence quantique, essentielle pour comprendre les difficultés du calcul quantique. L'article date de 2004, mais les notions physique sont toujours à jour (lien). Article de Benjamin Huard sur les microprocesseurs du futur (lien).   Image d'ouverture : John Clarke, Michel Devoret et John Martinis (crédit Niklas Elmehed/Nobel Prize Outreach). ppajot@sophiap… mer 08/10/2025 - 13:08 Le Prix Nobel de physique 2025 consacre le britannique John Clarke, l’étasunien John Martinis ainsi que le français Michel Devoret, pour leurs "expériences ayant révélé des effets quantiques macroscopiques dans des circuits électriques supraconducteurs". Ils ont brillamment montré que la mécanique quantique ne se limite pas aux atomes de la nature. Leur découverte a ouvert la voie aux qubits supraconducteurs et à une nouvelle ère où la physique quantique devient un domaine que l’humain peut façonner Prix Nobel 2025 Physique Mercredi 8 octobre 2025 - 13:08 C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche
News Image
Messagers de l'inconnu : à la poursuite des objets interstellaires

Messagers de l'inconnu : à la poursuite des objets interstellaires etreyz mar 16/09/2025 - 00:00 Franck Selsis ASTROPHYSICIEN, BORDEAUX Depuis la découverte de 'Oumuamua en 2017, suivie par celle de la comète Borisov en 2019, puis d'une autre en 2025, notre regard sur le Système solaire s'est élargi : il n'est plus un monde clos, mais un carrefour traversé par des fragments venus d'ailleurs. Expulsés d'autres systèmes planétaires, ces objets interstellaires passent furtivement à notre portée, porteurs d'une chimie étrangère et d'une histoire stellaire différente. (*) Les deux télescopes automatisés Pan-Starrs dont les miroirs mesurent 1,8 m de diamètre, situés à Hawaï et en service depuis 2010, sont conçus pour surveiller en continu le ciel et détecter des objets en mouvement comme les astéroïdes, les comètes ou les visiteurs interstellaires. (*) La vitesse de libération est la vitesse minimale qu'un objet doit atteindre pour échapper à l'attraction gravitationnelle d'un astre sans propulsion supplémentaire. Elle est de 42 km/s au niveau de l'orbite terrestre. (*) L'unité astronomique (UA) est la distance moyenne entre la Terre et le Soleil, soit environ 150 millions de kilomètres. Jupiter est à 5,2 UA du Soleil, tandis que Neptune est à 30 UA. 100 Planétologie Payant 4149 3 Ajouter au flux RSS 1 Des images prises les 18 et 19 octobre 2017 par les deux petits télescopes Pan-Starrs (*), à Hawaï, qui traquent les astéroïdes, révèlent un objet très rapide, qui se déplace de 6° par jour par rapport aux étoiles. Sa trajectoire ne correspondant pas à un morceau d'orbite elliptique, il est tout d'abord rejeté par les algorithmes qui traitent automatiquement les images. Par chance, il est repéré par un scientifique curieux de comprendre cet artefact et qui le remet dans la base de données, assorti d'une alerte pour un suivi par les télescopes capables de l'observer. Dès le 22 octobre, l'ajout d'observations faites avec le Télescope Canada-France-Hawaï de 3,6 m permet de déterminer que l'objet est plus rapide que la vitesse de libération (*) du Soleil, sur une trajectoire hyperbolique. Dit autrement, il n'appartient pas au Système solaire : il s'agit d'un visiteur venu de l'espace interstellaire. Durant les semaines qui suivent, les astronomes qui le traquent le surnomment Rama, en référence au cylindre extraterrestre géant décrit en 1973 dans le roman de science-fiction d'Arthur C. Clarke, Rendez-vous avec Rama. Mais contrairement au cylindre de Clarke qui s'approchait de la Terre quand il est découvert, ce nouveau venu est un très petit corps, à la limite d'être détectable, repéré alors qu'il s'éloigne du Soleil à la vitesse de 50 km/s. En une semaine, sa luminosité apparente décroît d'un facteur 10. Les plus grands observatoires dont la position géographique permet l'observation de l'intrus en fuite sont alors mis à contribution, en urgence : à Hawaï, le télescope anglais Ukirt de 3,8 m, le Gemini de 8,1 m et le Keck de 10 m ; au Chili, un des quatre télescopes de 8,2 m de l'observatoire européen austral, le VLT, et un des deux télescopes de 6,5 m de l'observatoire américain Magellan, ainsi que les télescopes spatiaux Spitzer et Hubble - celui-ci fera la dernière observation de l'objet le 2 janvier 2018. Rares sont les événements astronomiques qui mobilisent tant de moyens d'observation en si peu de temps, nécessitant de court-circuiter tous les comités qui gèrent habituellement l'attribution du temps de télescope. Le 14 novembre 2017, l'Union astronomique internationale (IAU) baptise officiellement ce visiteur 1I/'Oumuamua. 1I indique qu'il est le premier objet interstellaire découvert et 'Oumuamua signifie, en hawaïen, « messager venu de loin et arrivé le premier ». Ses caractéristiques ont été déduites d'observations réparties sur seulement deux mois après sa découverte, tant qu'il était à portée de nos instruments. Dans les images obtenues, 'Oumuamua reste un objet ponctuel mais dont on peut connaître la taille grâce à la quantité de lumière solaire qu'il réfléchit et par sa non-détection dans le domaine infrarouge par le télescope Spitzer. C'est un objet de 50 à 100 m, presque mille fois plus petit que le fictionnel Rama. Contrairement à ce dernier, que sa taille colossale et les moyens futuristes du roman rendent détectable au niveau de l'orbite de Jupiter alors qu'il s'approche du Soleil, 'Oumuamua n'a été repéré qu'un mois et demi après son passage au plus proche de notre étoile, à 0,25 unité astronomique (UA) (*), et trois jours après son passage au plus près de la Terre, à 0,16 UA (environ 70 fois la distance Terre-Lune). Ses caractéristiques les plus notables sont sa trajectoire, qui ne suit pas le plan des planètes, ce qui est le cas pour les comètes lointaines, et surtout sa rapidité, puisqu'il excède de 26 km/s la vitesse de libération solaire. En retraçant sa trajectoire, on constate qu'il n'a croisé aucune planète géante qui aurait pu l'accélérer. Il vient clairement d'un autre système stellaire - ici, il ne fait que passer. UNE ACCÉLÉRATION NON GRAVITATIONNELLE Même sans image résolue, les variations de brillance révèlent la forme, la rotation et les hétérogénéités de surface d'un objet. Dans le roman, Rama ne présente aucune variation : c'est un cylindre parfait, à la surface régulière, tournant sur son axe. La brillance de 'Oumuamua, au contraire, varie périodiquement d'un facteur 10 - une amplitude exceptionnelle, signe d'une forme inhabituelle pour un petit corps du Système solaire. Une forme allongée en rotation, alternant entre sa section la plus longue et la plus étroite, pourrait l'expliquer. Un cylindre ? Rama par la forme, mais anti-Rama par la dynamique ! C'est ainsi que les premières illustrations le représenteront, bien que le modèle le plus fidèle aux observations soit celui d'un galet de 120 mètres de large pour 20 d'épaisseur, tournant en huit heures. Mais 'Oumuamua semble aussi osciller lentement selon un second axe, un phénomène de tangage (tumbling) typique d'objets récemment perturbés. Ce type de rotation s'amortit en quelques centaines de millions d'années - largement assez pour voyager entre deux étoiles. Par sa forme comme par ses mouvements, 'Oumuamua est hors norme dans la population connue des astéroïdes. Mais la plupart des objets étudiés sont bien plus gros que lui ; ceux aussi petits que 'Oumuamua restent généralement invisibles. Il est donc impossible d'affirmer avec certitude qu'il ne ressemble à aucun corps du Système solaire. Outre les variations de brillance, la principale façon d'obtenir des informations sur la nature d'un objet astronomique ponctuel est la spectroscopie : on disperse la lumière qui en provient pour obtenir ses propriétés physico-chimiques. La spectroscopie nécessite cependant de recueillir beaucoup de lumière et 'Oumuamua est un objet petit et sombre. Les spectres obtenus par les télescopes ne nous donnent que sa couleur, plutôt rouge, similaire à celle de diverses surfaces d'astéroïdes (matière organique, minéraux riches en fer, surfaces rocheuses érodées par le rayonnement). Rien de très concluant ici. Les positions de l'objet interstellaire, relevées durant deux mois avant qu'il ne soit trop lointain, ne peuvent pas s'expliquer par la seule influence de la gravité du Soleil et de ses planètes. Pour modéliser la trajectoire de 'Oumuamua, il est nécessaire d'ajouter une accélération supplémentaire à celle de la gravité, une autre force contribuant à son mouvement : 'Oumuamua posséderait donc un système de propulsion ! À ce stade, on peut choisir la célébrité en invoquant, statut d'astrophysicien à l'appui - et dans un best-seller traduit en une trentaine de langues - que le premier objet interstellaire jamais détecté serait, comme Rama, une construction artificielle d'origine extraterrestre. C'est le choix qu'a fait Avi Loeb, de l'université Harvard. Mais on peut aussi adopter une approche scientifique, en cherchant une explication naturelle. Une démarche anticipée par Arthur C. Clarke dans Le Marteau de Dieu (1993). Dans ce roman, une comète nommée Kali, venue des confins du Système solaire, menace la Terre. Le vaisseau Goliath, commandé par Robert Singh, s'y accroche pour tenter d'en dévier la trajectoire à l'aide de moteurs à fusion. À un moment, Kali « se réveille » : elle devient active, comme toute comète s'approchant du Soleil. Les zones éclairées chauffent, la glace se sublime, et l'objet éjecte de la matière, créant une poussée dans la direction opposée, selon le principe d'un réacteur. Clarke imagine alors une scène poétique où les cristaux de glace éjectés diffusent la lumière solaire en un arc-en-ciel. Cette poussée modifie la trajectoire de Kali : elle la freine à l'approche du Soleil, ou l'accélère quand elle s'en éloigne, selon une dynamique bien connue des comètes. Ce phénomène dit d'accélération non gravitationnelle était déjà documenté avant la publication du roman de Clarke. Dans le cas de 'Oumuamua, l'accélération observée diminuait bien avec l'éloignement du Soleil, comme attendu pour un objet en sublimation, avec des valeurs compatibles avec celles des comètes. Il manquait toutefois « l'arc-en-ciel » : aucun panache de gaz ou de poussières. Or, une comète active forme un nuage (la coma) prolongé par une queue, visible parfois à l'oeil nu. 'Oumuamua, malgré sa poussée non gravitationnelle, n'a montré aucun de ces signes. Le télescope Spitzer n'a détecté ni vapeur d'eau, ni monoxyde ou dioxyde de carbone, ni cyanure - des composés typiques des comètes. Ces absences d'observation permettent de fixer des limites très basses sur la quantité de gaz et de poussières, contrastant fortement avec le taux de dégazage requis pour expliquer l'accélération. UNE ABSENCE SURPRENANTEDE POUSSIÈRES FINES Pour résoudre ce paradoxe, on a proposé des glaces plus volatiles, dont la sublimation serait efficace mais difficile à détecter : dihydrogène (H), produit par irradiation cosmique de glace d'eau, ou diazote (N), abondant sur Pluton et sans doute ailleurs dans la ceinture de Kuiper ou d'autres systèmes. Un fragment riche en N pourrait avoir été libéré par collision. Plus surprenante encore est l'absence de poussières fines, seules détectables par la lumière qu'elles diffusent. De plus gros grains, millimétriques, auraient pu passer inaperçus. En parallèle, des chercheurs ont identifié six petits corps du Système solaire, jusqu'alors classés comme astéroïdes, présentant eux aussi une accélération non gravitationnelle : ils sont « propulsés » sans qu'une queue de poussière n'ait été observée. Au moment où cet article paraît, le 18 septembre 2025, 'Oumuamua est déjà à plus de 48 UA de la Terre, il n'aura passé que dix ans à l'intérieur de l'orbite de Neptune. Pour comparaison, la sonde Voyager 2 a mis douze ans pour franchir la distance qui nous sépare de Neptune. Venu de la direction de la constellation de la Lyre, il se dirige désormais vers Pégase. Pour décrypter les mystères de cet étrange visiteur, il faudrait le rattraper avec une sonde ou, et c'est sans doute plus raisonnable, se préparer pour le futur passage d'un objet similaire. Un an et demi après le passage de 'Oumuamua, un second visiteur interstellaire est identifié. Il est repéré par Gennady Borisov, ingénieur russe et astronome amateur, qui conçoit des télescopes expérimentaux pour l'observatoire astrophysique de Crimée. C'est sur son temps libre, avec un instrument de sa fabrication, qu'il réalise cette découverte. Passionné par la traque d'astéroïdes géocroiseurs et de comètes - il en a découvert une douzaine - Borisov est face à la domination des grands programmes automatisés. Il décide alors de cibler une région du ciel peu explorée : près du Soleil, juste avant l'aube, très bas sur l'horizon. Un secteur difficile, où l'atmosphère déforme l'image, où les objets proches de la Terre nous présentent leur face sombre, et où seuls les plus rapides sont détectables dans le court créneau d'observation disponible. Ajoutons que, traiter des observations aussi spécifiques est difficile à automatiser. Mais notre ingénieur est tenace et considère que c'est désormais sa seule chance de découvrir de nouveaux corps du Système solaire. Il conçoit un télescope optimisé pour cette tâche, ainsi que les logiciels nécessaires. UN NUAGE DE GAZ QUATORZE FOIS PLUS GRAND QUE LA TERRE Et voilà que le 30 août 2019, Gennady Borisov repère un objet diffus - donc une comète, et non un astéroïde - qui n'est répertorié nulle part. Une alerte mondiale est lancée : les premiers calculs, fondés sur un arc d'observation très court, suggèrent une trajectoire à risque de collision avec la Terre. En réalité, la comète passera bien plus loin, au-delà de l'orbite de Mars. L'erreur venait de l'hypothèse initiale : sa trajectoire n'est pas elliptique. Comme 'Oumuamua, elle ne suit pas une orbite fermée autour du Soleil mais traverse le Système solaire à grande vitesse. Elle file à 36 km/s au-delà de la vitesse de libération du Soleil, et passe loin de celui-ci, à 2 UA au plus proche. Sa trajectoire est à peine courbée par la gravité solaire : c'est un nouveau visiteur interstellaire. La découverte de cette comète interstellaire rappelle étonnamment celle de la comète fictive, Kali, dans le roman de Clarke. Elle y occupe un chapitre intitulé « L'amateur », qui raconte comment un médecin du nom de Millar, vivant sur Mars, se prend de passion pour l'observation du ciel. En exploitant les carences des programmes d'observation des astronomes professionnels, il parvient à découvrir de nouveaux astéroïdes et comètes, dont Kali, comète de taille kilométrique qui se dirige vers la Terre. Inactive au moment de sa découverte, car loin du Soleil, elle apparaît ponctuelle, tel un astéroïde. Revenons à la réalité. Plus grande que 'Oumuamua, 2I/Borisov - c'est son nom officiel - a les dimensions de Kali, mais serait passée inaperçue si elle n'était enveloppée dans une vaste coma de gaz et de poussière quatorze fois plus grande que la Terre ! Elle a ainsi pu être découverte trois mois avant son passage au plus près du Soleil, puis scrutée et étudiée pendant un an. La composition de sa coma est similaire à celle de comètes du Système solaire, dont elle ne se distingue que par sa trajectoire. Comme 'Oumuamua, elle a subi une accélération non gravitationnelle mais, cette fois, elle est clairement associée à l'éjection de dizaines de kilogrammes de gaz et de poussières chaque seconde. Son dégazage est si intense qu'une des observations la montre perdant un gros fragment, un phénomène de disruption couramment observé pour des comètes du Système solaire. La comète Borisov est aujourd'hui à plus de 41 UA de la Terre et file en direction de la constellation du Télescope, dans l'hémisphère sud. L'observation de petits corps éjectés d'autres systèmes stellaires n'est pas une surprise. La structure du Système solaire et les modèles de sa formation impliquent en effet l'expulsion de nombreux astéroïdes et, surtout, de comètes. La distinction entre ces deux types d'objets, bien que classique, reste floue. Elle repose avant tout sur leur apparence dans un télescope : une comète est diffuse (entourée d'une coma et d'une queue), un astéroïde est ponctuel. Cette différence visuelle renvoie à la présence ou non de glaces volatiles : les comètes en contiennent (en plus de roches et de matière organique), tandis que les astéroïdes, en principe, n'en ont pas. Mais cette classification est incertaine. Certaines comètes inactives, trop éloignées du Soleil ou épuisées par des passages répétés, ressemblent à s'y méprendre à des astéroïdes. Et inversement, certains objets classés comme astéroïdes pourraient en réalité contenir de la glace. Il existe donc un continuum entre ces deux catégories. On appellera comètes les objets formés loin du Soleil, dans des zones riches en glace du disque protoplanétaire. Tant qu'aucune planète géante ne s'est formée, ces petits corps restent prisonniers de leur étoile, évoluant sur des orbites stables. Mais dès lors que des planètes massives apparaissent, en particulier des géantes comme Jupiter ou Neptune, elles bouleversent profondément le système. On sait aujourd'hui que les planètes migrent au cours de leur formation : elles changent d'orbite, parfois brutalement. Ces déplacements provoquent d'intenses perturbations gravitationnelles parmi les petits corps. Un simple passage rapproché peut étirer leur orbite, les envoyant à la fois très près et très loin du Soleil. Ces trajectoires allongées multiplient les rencontres planétaires, et peuvent se solder par une chute vers l'étoile ou une expulsion dans l'espace interstellaire. À DES DIZAINES DE MILLIERS D'UNITÉS ASTRONOMIQUES Certains de ces objets perturbés restent liés au Soleil sur des orbites extrêmement étendues, à des dizaines de milliers d'unités astronomiques. À ces distances, ils deviennent sensibles aux forces galactiques ou au passage d'étoiles voisines. Ces interactions externes peuvent stabiliser leur orbite dans une zone éloignée - le nuage de Oort - ou, au contraire, les précipiter vers le Système solaire interne sous forme de comètes à longue période. Elles peuvent aussi les éjecter définitivement. Dans quelle proportion ? À partir de la fréquence d'apparition des comètes à longue période, on peut estimer la population du nuage de Oort à quelques centaines de milliards d'objets - et déduire que le nombre de corps déjà expulsés est au moins dix fois supérieur. Mais ce taux d'expulsion était bien plus élevé dans les premiers temps du Système solaire, quand les planètes géantes migraient dans un disque riche en petits corps. D'autres systèmes planétaires, eux, ont des architectures variées, des masses stellaires différentes, avec ou sans géantes gazeuses. La production d'objets interstellaires à l'échelle galactique ne peut donc pas être simplement extrapolée à partir de notre propre système. Une autre approche consiste à estimer la population d'objets interstellaires compatibles, statistiquement, avec la détection de ceux connus à ce jour. Pour cela, on suppose que leur distribution en taille est similaire à celle des petits corps du Système solaire, et l'on prend en compte les caractéristiques précises des programmes d'observation qui les ont repérés : couverture temporelle, champ surveillé, sensibilité des instruments, etc. Ce calcul est trop incertain pour 2I/Borisov, faute de données détaillées sur les conditions exactes de sa découverte, mais il est réalisable pour 1I/'Oumuamua. Le résultat est surprenant : une densité estimée à 0,1 objet par unité astronomique cube. Ce qui peut sembler modeste. Reformulons : dans une sphère centrée sur le Soleil, de rayon équivalent à celui de l'orbite de Neptune, cela représenterait environ 10 000 objets interstellaires présents à un instant donné. Chacun reste dans le Système solaire environ dix ans, ce qui implique que, en moyenne, trois nouveaux entrants y pénètrent chaque jour. Extrapolé à l'échelle galactique, cela suggère l'existence d'environ 10² objets de ce type dans la Voie lactée - soit une masse équivalente à celle de la Terre pour chaque étoile. Ce type d'estimation repose sur une seule détection et reste sujette à de grandes incertitudes. Elle peut toutefois être testée. Si elle est correcte, le télescope Vera-C.-Rubin, récemment entré en service et bien plus performant que Pan-Starrs, pourrait repérer un à deux objets interstellaires chaque année. SERA-T-ON ÉRADIQUÉ PAR UN INTRUS VENU D'UNE AUTRE ÉTOILE ? Sur la base de cette estimation, peut-on évaluer combien d'objets interstellaires ont percuté la Terre depuis sa formation et le risque qu'ils représentent ? Si l'humanité devait disparaître, autant que ce soit dans une collision venue d'un autre système stellaire... Parmi les nombreuses collisions survenues entre la Terre et les petits corps issus de notre propre Système solaire, on estime qu'un impact de type « fin des dinosaures » survient environ tous les 100 millions d'années. Sur cette même durée, un seul impacteur comparable à 'Oumuamua frapperait la Terre, en moyenne. Mais surtout, ces objets interstellaires, bien que rapides, sont généralement bien plus petits que les gros astéroïdes locaux. À fréquence d'impact égale, leur énergie est environ un million de fois inférieure que celle dégagée par les impacteurs géocroiseurs classiques. En d'autres termes, si nous devons un jour être éradiqués par une collision, ce ne sera sans doute pas par un intrus venu d'une autre étoile. L'étude de ces visiteurs venus d'ailleurs est passionnante : elle nous offre une occasion unique de comparer les solides formés autour d'autres étoiles à ceux issus du Système solaire - ces briques à l'origine des planètes, de leurs atmosphères, de leurs océans et de leur matière organique. Mais cette science naissante est aussi frustrante. Comme dans le cas de 'Oumuamua, nous n'avons pu en déduire que des contraintes approximatives sur sa forme, et des hypothèses sur sa composition fondées sur une accélération non gravitationnelle suggérant un dégazage. Dès sa découverte, la possibilité d'un survol a été envisagée. Des études ont montré qu'une sonde lancée dès 2021 aurait pu rattraper 'Oumuamua en 2029 à 70 UA du Soleil, à condition d'exploiter au maximum les capacités des lanceurs actuels, avec une assistance gravitationnelle de Jupiter, puis un passage très proche du Soleil - une manoeuvre nécessitant une sonde thermiquement blindée. Un scénario plus réaliste envisage un lancement en 2030, laissant le temps de concevoir la mission : dans ce cas, la sonde atteindrait 'Oumuamua dans les années 2050, à plus de 190 UA. Mais d'ici-là, si les estimations actuelles sont correctes, bien d'autres objets interstellaires auront été détectés - certains avec des trajectoires plus accessibles. Il semble donc plus pertinent de concevoir dès maintenant une mission capable d'intercepter l'un de ces objets : une sonde prête à être lancée, avec une instrumentation spécifiquement adaptée à un survol rapproché. Reste une difficulté majeure : la réactivité. Pour être efficace, il faudrait détecter un objet interstellaire suffisamment tôt et pouvoir lancer la sonde dans un délai très court. Peut-on imaginer une fusée en attente, prête à décoller à la première alerte ? Là encore, Arthur C. Clarke avait anticipé cette idée. Dans Le Marteau de Dieu, il propose de stationner, parmi les astéroïdes troyens de Jupiter, aux points de Lagrange L4 et L5 (à 60° de part et d'autre de Jupiter, sur la même orbite), des vaisseaux intercepteurs capables de réagir rapidement à l'approche d'une comète ou d'un astéroïde menaçant la Terre. Une vision de science-fiction qui pourrait devenir une solution technologique concrète. COMET INTERCEPTOR : LANCEMENT PRÉVU EN 2029 L'idée retenue pour une future mission d'interception d'un objet interstellaire est étonnamment proche du concept imaginé par Arthur C. Clarke - et elle a été officiellement adoptée par l'ESA en 2022. Il s'agit de la mission Comet Interceptor. Ce sera la première fois qu'une sonde spatiale sera lancée sans connaître à l'avance sa cible. Le lancement est prévu pour 2029. Contrairement à la suggestion de Clarke - stationner un vaisseau près des points de Lagrange L4 et L5 de Jupiter -, Comet Interceptor prendra position près du point de Lagrange L2 du système Terre-Soleil, situé à environ 1 % plus loin du Soleil que la Terre. Ce point n'est pas stable, mais une orbite dite de Lissajous permet d'y rester avec de modestes corrections de trajectoire et donc peu d'énergie. C'est d'ailleurs là que se trouvent déjà les télescopes James-Webb, Gaia et Euclid, et qu'ira aussi le futur télescope spatial européen Ariel, consacré aux atmosphères d'exoplanètes. Comet Interceptor partagera d'ailleurs la coiffe d'une Ariane 6 avec Ariel. Dans l'espace, le point de Lagrange L2 présente plusieurs avantages. Contrairement aux points L4 et L5, où des astéroïdes et des poussières se sont accumulés (ce qui est potentiellement dangereux pour une sonde), L2 est dégagé. Il est aussi beaucoup plus proche de la Terre - douze fois plus que L4 ou L5 -, ce qui facilite les communications. Et surtout, il est énergétiquement plus facile d'en partir. Une petite impulsion de correction toutes les quatre semaines suffit à y rester stationné. La mission consistera à attendre, jusqu'à quatre ans, qu'un objet interstellaire en approche soit détecté - idéalement bien avant son passage au périhélie, contrairement à 'Oumuamua, découvert trop tard. Il faudra que cet objet coupe le plan des planètes dans une région atteignable par la sonde, située entre 0,9 et 1,2 UA du Soleil, et à environ 90° de la Terre vue depuis le Soleil. Une assistance gravitationnelle de la Lune pourrait être utilisée pour ajuster la trajectoire. Ce pari est audacieux compte tenu de nos estimations approximatives concernant la population de vagabonds interstellaires, et suppose que le télescope Vera-C.-Rubin permettra d'identifier un à deux objets interstellaires par an. Si les estimations ont été surestimées, la cible tant attendue ne se présentera pas à temps. Mais si elles sont justes, Comet Interceptor pourrait devenir la première mission à survoler de près un messager venu d'un autre système stellaire. Le maître-mot sera l'adaptabilité. Afin de limiter les risques liés à l'attente d'un objet interstellaire, l'ESA a prévu une option alternative pour Comet Interceptor : aller à la rencontre d'une comète « nouvelle », en provenance du nuage de Oort. Jusqu'à présent, toutes les comètes survolées par des sondes étaient des objets bien connus, aux orbites périodiques de courte durée (moins de six ans), à l'exception de Halley (soixante-quinze ans). Aucune comète effectuant son tout premier passage dans le Système solaire interne n'a encore été explorée de près. Un tel survol serait d'un intérêt scientifique majeur. Chaque année, 20 à 30 de ces comètes sont découvertes, souvent bien en amont de leur passage près du Soleil - parfois dès qu'elles franchissent l'orbite de Jupiter ou même celle de Saturne. Avec la mise en service du télescope Vera C.-Rubin, ce nombre devrait fortement augmenter. Il est donc quasiment certain qu'une de ces comètes, conservée dans les confins glacés du Système solaire depuis 4,5 milliards d'années, croisera la route de Comet Interceptor durant sa phase d'attente à L2. Le choix de la cible pourrait alors devenir cornélien. Une fois la cible identifiée et la sonde lancée à sa rencontre, Comet Interceptor se scindera, quelques jours avant le survol, en trois modules : un vaisseau principal et deux sondes auxiliaires, dont l'une développée par l'agence spatiale japonaise Jaxa. Cette configuration permettra d'observer la comète sous plusieurs angles - une nécessité, car il sera impossible de se placer en orbite autour de l'objet, comme l'avait fait la mission Rosetta autour de 67P/Tchourioumov-Guérassimenko en 2014. Comme les vitesses relatives seront trop élevées, il faudra tirer le meilleur parti d'un survol unique, rapide, mais potentiellement spectaculaire. ATTRAPER, À LA VOLÉE, LES FRAGMENTS VENUS D'AILLEURS Dans un contexte où les moyens alloués à l'exploration spatiale sont comptés et les priorités sans cesse renégociées, parier sur un rendez-vous avec un objet encore inconnu peut sembler risqué, voire déraisonnable. Pourquoi mobiliser une mission, des années d'ingénierie, des millions d'euros pour peut-être ne rien intercepter du tout ? Mais c'est justement cette incertitude qui rend Comet Interceptor si singulière. Elle acte un changement d'échelle dans notre rapport à l'espace : nous ne nous contentons plus d'explorer les corps familiers du Système solaire. Nous tentons désormais d'attraper, à la volée, les fragments venus d'ailleurs. Ces objets interstellaires sont les seuls émissaires physiques d'autres systèmes planétaires - les seuls échantillons naturels que nous puissions, à court terme, espérer approcher. À défaut de pouvoir envoyer des sondes vers d'autres étoiles, c'est à nous de tendre la main quand l'une d'elles, fugacement, nous envoie un éclat de matière. Miser sur leur venue, ce n'est pas céder à la spéculation, c'est reconnaître que dans la science comme dans l'exploration, une part essentielle repose sur l'inattendu. Et que parfois, ce sont les visiteurs les plus furtifs qui ont le plus à nous dire.   Crédit : ESO/M. Kornmesser Parution product Au cœur des atomes Franck Selsis ASTROPHYSICIEN, BORDEAUX Il est directeur de recherche CNRS, où il travaille sur les exoplanètes au Laboratoire d'astrophysique de Bordeaux (CNRS - université de Bordeaux). DES OBJETS DE PASSAGE Illustration schématique des trajectoires dans le Système solaire interne des trois visiteurs interstellaires connus (les flèches donnent le sens de déplacement). Pour chaque objet, on a noté sa date de découverte et celle de son passage au périhélie, le point le plus proche du Soleil de la trajectoire. On remarque que 'Oumuamua a été repéré seulement après son passage au périhélie, alors qu'il était déjà en train de s'éloigner. Les trajectoires sont essentiellement hyperboliques, avec parfois des composantes non gravitationnelles. L'apparition d'un troisième visiteur Le 1er juillet 2025, un télescope du réseau Atlas, installé au Chili dans le cadre d'un programme de défense planétaire de la Nasa, repère un objet inhabituel dans l'ombre de Jupiter. Rapidement, les astronomes constatent que l'objet ne suit pas une orbite fermée autour du Soleil : sa vitesse très élevée (58 km/s) et sa trajectoire indiquent une origine clairement interstellaire. C'est ainsi le troisième objet confirmé à provenir d'un autre système planétaire, après 'Oumuamua (2017) et 2I/Borisov (2019). Baptisé 3I/Atlas, cet objet représente une opportunité rare : à la différence de 'Oumuamua, détecté trop tard pour une étude détaillée, il a été repéré alors qu'il pénètre encore dans le Système solaire. Si une mission d'interception paraît difficile, les observatoires terrestres et spatiaux auront plusieurs mois pour en observer les caractéristiques. Les premières analyses montrent que 3I/Atlas se comporte comme une comète active, libérant gaz et poussière à mesure qu'il approche du Soleil. La comète présente une chevelure (coma) caractéristique et pourrait atteindre une taille comprise entre 10 et 25 km, ce qui en ferait le plus grand objet interstellaire détecté. Il serait composé de matériaux anciens, datant possiblement de 7 à 8 milliards d'années, bien avant la formation de notre propre Système solaire. 3I/Atlas pourrait provenir d'un amas stellaire ancien, ce qui en ferait une capsule temporelle géologique, témoin des premiers instants d'un autre système planétaire. Au début du mois d'octobre 2025, la comète passera à environ 28 millions de km de Mars. Les sondes en orbite autour de la planète rouge devraient alors en profiter pour analyser sa composition chimique. En s'approchant du Soleil, les astronomes s'attendent à une forte activité cométaire, avec dégazage de molécules volatiles comme l'eau et le monoxyde de carbone. Ph. P. LES ORBITES DU SOLEIL ET DE 3I/ATLAS Vue de dessus de la Voie lactée qui montre les orbites estimées de notre Soleil et de la comète 3I/Atlas. Celle-ci est représentée par des lignes rouges en pointillés, et celle du Soleil par des lignes jaunes en pointillés. L'étendue importante de l'orbite de 3I/Atlas dans le disque épais externe est clairement visible, tandis que le Soleil reste plus proche du centre de la galaxie. L'inspiration multiple d'Arthur C. Clarke Dans son roman Rendez-vous avec Rama (1973), Arthur C. Clarke imagine la création d'un projet international baptisé Spaceguard, chargé de surveiller les astéroïdes menaçants, à la suite d'un impact dévastateur sur Terre. Par ce dispositif, il anticipe non seulement la reconnaissance du danger posé par les objets géocroiseurs, mais aussi les moyens techniques de leur détection. Vingt ans plus tard, la réalité s'inspire directement de cette fiction : en 1992, un atelier d'experts recommande aux agences spatiales un recensement systématique des objets de plus d'un kilomètre. Leur proposition : un réseau mondial de télescopes, nommé... Spaceguard, en hommage explicite à Clarke. C'est un télescope du réseau Spaceguard fictif qui découvre l'objet interstellaire Rama dans le roman de Clarke, et c'est l'observatoire Pan-Starrs du réseau Spaceguard réel qui a découvert 1I/'Oumuamua. Cela illustre le pouvoir prophétique de la science-fiction lorsqu'elle s'appuie sur des bases scientifiques solides. Clarke a non seulement inventé une histoire crédible, mais il a orienté, de manière tangible, la prise de conscience du risque d'impact cosmique. L'observatoire Vera-C.-Rubin, télescope géant qui vient d'être mis en service au Chili, deviendra une vigie d'exception : il photographie l'intégralité du ciel austral toutes les trois nuits, promettant d'alerter sur tout ce qui bouge ! F. S.

Source LogoLa Recherche
News Image
Les pionniers des réseaux métallo-organiques reçoivent le prix Nobel de chimie 2025 (enfin !)

Les pionniers des réseaux métallo-organiques reçoivent le prix Nobel de chimie 2025 (enfin !) Le prix Nobel de chimie 2025, annoncé ce mercredi 8 octobre, a été décerné à Susumu Kitagawa, Richard Robson et Omar Yaghi pour leurs travaux pionniers sur les réseaux métallo-organiques, plus connus sous leur acronyme anglais MOF. Une récompense en forme d’évidence pour nombre d’initiés, au vu du formidable succès de cette classe de matériaux nanoporeux hybrides. Imaginez : une trentaine d’années après sa découverte, elle compte près de 100 000 déclinaisons, et son utilisation est envisagée dans une multitude d’applications, qui vont de la capture et du stockage du méthane pour l’alimentation des automobiles à la récupération d’eau de l’air du désert. Construire de manière contrôlée des structures stables, flexibles, utiles L’histoire des MOF débute avec Richard Robson. En 1974, alors qu’il enseigne à l’université de Melbourne, en Australie, il se met à réfléchir à la manière de construire des structures avec des topologies prévisibles à partir de "blocs de construction" – des atomes métalliques et des molécules organiques – sélectionnés et bien conçus. Les travaux qui lui valent le prix Nobel sont publiés en 1989 dans la prestigieuse revue de la société américaine de chimie, JACS. Le problème de ces premières structures, qui ressemblaient à des cristaux très bien ordonnés et remplis de cavités, était double : d’un côté, il y avait leur grande fragilité – elles s’effondraient au moindre changement de conditions ; de l’autre, se posait la question de leur utilité – à quoi pourraient-elles bien servir ? C’est sur ces aspects que les contributions de Susumu Kitagawa et Omar Yaghi se sont révélées décisives. Kitagawa, en imaginant des structures capables d’absorber et de libérer des gaz tels que l'oxygène, l'azote et le méthane (voir cet article scientifique de 1997 dans Angewandte Chemie International Edition), et se distinguant par leur flexibilité (lire cette étude elle aussi parue dans Angewandte Chemie International Edition, en 2002). Yaghi, en mettant au point des matériaux aux liaisons à la fois très longues et très stables, dont la surface interne (les pores) était immense (parmi les principales publications, ces travaux publiés dans Nature en 1995 et 1999).   Mettre l’accent sur la meilleure compréhension des MOF En novembre 2024, nous avons rencontré un de ces trois pionniers, Omar Yaghi, à Rome, à l’occasion de la cérémonie de remise du prix qui lui avait été décerné par la fondation Balzan. Il nous avait raconté la genèse étonnante de cette classe de matériaux, détaillé les propriétés exceptionnelles dont sont dotés les MOF, et expliqué les développements aussi bien scientifiques qu’industriels auxquels son équipe et lui ont amplement contribué depuis trois décennies. Il nous avait également livré ses réflexions sur l’évolution de son domaine de recherche au cours de cette période : "C’est un domaine jeune, dynamique, où il y a beaucoup à faire pour tout le monde (…). C'est aussi un domaine en évolution rapide, avec tous les défis qui l'accompagnent", confiait-il par exemple, insistant sur le fait de ne pas se laisser aveugler par les propriétés exceptionnelles des MOF et sur le besoin de mettre, collectivement, l’accent sur une meilleure compréhension de leur fonctionnement. Le rêve d’offrir l’accès à l’eau potable à tous les individus de la planète Au cours de cet échange, il s’était également ouvert sur son parcours personnel : sa naissance en Jordanie de parents réfugiés palestiniens, son départ pour les États-Unis à 15 ans, seul, sur les conseils de son père, etc. Et sur son grand projet actuel : faire en sorte que, grâce aux MOF, tous les individus de la planète, y compris dans les zones les plus arides de la planète, puissent bénéficier un jour de l’accès à l’eau potable. L’entretien complet est à (re)découvrir en cliquant sur le lien suivant : "Une fantastique aventure scientifique"   Vincent Glavieux   Crédit : JONATHAN NACKSTRAND / AFP vglavieux jeu 09/10/2025 - 10:34 À force de faire partie des favoris des pronostiqueurs, il fallait bien que leur tour vienne ! Annoncés comme lauréats potentiels depuis plusieurs années, Susumu Kitagawa, Richard Robson et Omar Yaghi, pionniers des réseaux métallo-organiques, plus connus sous leur acronyme anglais MOF, se voient décerner le prix Nobel de chimie 2025. À cette occasion, nous mettons en accès libre le grand entretien qu’Omar Yaghi nous avait accordé l’année dernière à Rome, à l’occasion de la remise des prix Balzan. Prix Nobel 2025 Jeudi 9 octobre 2025 - 11:00 chimie C'est payant? Gratuit Ajouter au flux RSS 1

Source LogoLa Recherche