Non, une étude rédigée par Grok, l’IA d’Elon Musk, ne prouve pas que le réchauffement climatique est naturel
Auteur : Nicolas Kirilowits, journaliste
Relectrice et relecteur : Clara Robert-Motta, journaliste
Nicolas Turcev, journaliste
Liens d’intérêts ou fonctions politiques déclarés des intervenants à l’article : aucun
Secrétariat de rédaction : Léocadie Petillot, juriste et étudiante en journalisme au CFJ
Source : Compte Facebook, le 29 mars 2025
L’étude en question ne répond pas aux critères scientifiques et éthiques attendus, d’après les spécialistes interrogés par Les Surligneurs.
Le développement de l’intelligence artificielle (IA) fascine autant qu’il inquiète. Rares sont les domaines qui échappent encore au phénomène. La recherche scientifique, avec les masses de données qu’elle agrège, est évidemment influencée par l’usage de ces systèmes intelligents.
La preuve avec cette étude parue dans la revue Science of Climate Change, menée par Grok, l’intelligence artificielle de X, sous la supervision de coauteurs humains, et qui suggère que « les forces naturelles, comme l’activité solaire et les cycles de température, sont les véritables responsables » du réchauffement climatique. Et non l’émission massive de gaz à effet de serre, causée par les activités humaines, comme l’affirme notamment dans son dernier rapport le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), cité et visé ostensiblement par l’étude.
Pour certains utilisateurs de Facebook, la « logique » et les « capacités d’analyse » de l’IA « vont contredire de plus en plus la propagande diffusée par l’empire du mensonge ».
Mais alors peut-on vraiment se fier à cette étude « écrite entièrement » par une intelligence artificielle ? Il y a de quoi en douter.
Des profils controversés
Premièrement, les profils des chercheurs qui ont aidé l’IA à réaliser l’étude, pour certains d’entre eux, interrogent quant à l’objectivité du travail présenté comme « une étape historique ». Parmi ceux-ci, on compte notamment Jonathan Cohler qui se présente sur son propre site Internet comme clarinettiste et chef d’orchestre.
Willie Soon et David Legates sont, selon l’AFP et le site spécialisé dans le fact-checking scientifique Science Feedback, des habitués de la désinformation. David Legates, explique le média Vert, est un proche du centre de réflexion américain Heartland Institute, « un institut de désinformation sur le réchauffement climatique », précise aux Surligneurs, Gaël Varoquaux, directeur de recherche à l’Institut national de recherche en sciences et technologies du numérique (Inria).
Quant à Franklin Soon, un autre auteur du rapport, nous n’avons trouvé nulle trace concrète de lui sur Internet. Il serait enseignant dans un lycée états-unien, si l’on en croit le peu d’informations fournies par l’étude à son sujet.
La revue Science of Climate Change, qui a publié l’étude, ne paraît pas non plus dotée d’une très grande notoriété. L’ensemble des experts interrogés par Les Surligneurs indiquent ne pas la connaître. « Ça ne semble pas être une revue sérieuse. Tous les articles sont des articles climato-sceptiques », affirme Erwan Gloaguen, professeur en géophysique à l’Institut national de la recherche du Québec.
Aucune mention de cette revue n’apparait sur les sites de référencement comme SCimago, The Web of Science et Index Copernicus, explique Science Feedback. Ces plateformes recensent les travaux scientifiques jugés crédibles après avoir fait l’objet d’un processus d’évaluation par la communauté savante pertinente pour chaque article.
« L’objectif de cette revue est de publier – contrairement à de nombreuses autres revues – des contributions scientifiques évaluées par des pairs, qui contredisent les hypothèses climatiques souvent très unilatérales du GIEC et ainsi, d’ouvrir la voie à des interprétations alternatives du changement climatique », est-il écrit sur la page d’accueil de Science of Climate Change. Ce qui laisse douter de l’impartialité des écrits qu’elle publie.
L’IA sous influence
Au-delà de l’origine controversée de l’étude, que dire de sa valeur intrinsèque ? Peut-on faire confiance à une IA, qui plus est proposée par un réseau social détenu par un homme d’affaires, Elon Musk, engagé aux côtés de l’administration de Donald Trump, hostile aux sciences du climat ?
Non, répondent unanimement les spécialistes sollicités par Les Surligneurs. Ceux-ci soulèvent plusieurs biais. « Une IA n’est pas capable de faire preuve de critique vis-à-vis d’éléments d’information. Elle agrège les informations en fonction de leur prévalence dans les documents sur lesquelles elle est entraînée, avec un poids qui est d’ailleurs choisi par les concepteurs de l’IA. », affirme Gaël Varoquaux.
Pour Maël Pégny, auteur de l’ouvrage Éthique des algorithmes et de l’Intelligence Artificielle (Vrin, 2024), « l‘affirmation que l’IA est un auteur, une grossière stratégie promotionnelle sensationnaliste déjà utilisée à de multiples reprises pour créer le buzz, n’a aucun sens sans l’examen du guidage humain indiqué et d’une discussion sur ce que constitue conduire la recherche ».
Le rôle joué par les « chercheurs » qui ont aidé l’IA dans sa rédaction interroge Erwan Gloaguen : « La façon dont les IA génératives fonctionnent est basée sur la question de départ. La première chose que je demanderais est donc quelle est la question posée à Grok ? »
Or, ces précisions ne figurent pas dans l’étude, ni les cheminements opérés par les êtres humains pour guider la machine. « Finalement, une IA reflète les biais de ses constructeurs, qui lui sont communiqués de plein de manières différentes, que cela soit par le choix du corpus d’entraînement, ou par des choix techniques », assure Gaël Varoquaux.
Dans une note consacrée aux IA, l’Office français de l’intégrité scientifique (Ofis) soulevait, en février 2024, des « points de vigilance » quant à l’utilisation des IA. « Les systèmes d’IA génératives font parfois des erreurs, et présentent de manière très vraisemblable des informations erronées, voire complètement inventées […] Cela expose les chercheuses et chercheurs à un risque de diffuser de fausses informations, voire à de la fabrication et de la falsification », indique l’Ofis.
Une alerte avérée par un récent rapport, publié le 8 avril par NewsGuard, un site spécialisé dans l’analyse des fausses informations. On y apprend que les 11 principaux chatbots – dont fait partie Grok – répondent en moyenne par une fausse information dans 30% des cas.
Enfin, aussi sérieuse soit une étude, peut-elle, à elle toute seule, remettre en cause le consensus scientifique (1,2) sur les causes du réchauffement climatique ? À titre de comparaison, le dernier rapport du GIEC a été rédigé par 49 scientifiques et a impliqué 47 gouvernements.