Comment l’IA fausse notre perception des solutions climatiques, renforçant du même coup le statu quo
Une nouvelle étude illustre comment les robots conversationnels biaisent le discours public en faveur de modifications mineures et progressives des politiques climatiques et des comportements environnementaux.
Par Sarah DeWeerdt (Si apre in una nuova finestra)

Les robots conversationnels optimisés par l’IA ont tendance à suggérer des solutions prudentes et progressives aux problèmes environnementaux. Or, selon une nouvelle analyse, ces solutions pourraient ne pas suffire si l’on tient compte de l’ampleur de ces problèmes et du temps limité dont nous disposons pour agir. L’étude semble indiquer que les grands modèles de langage (GML) sur lesquels reposent les robots conversationnels sont susceptibles d’orienter le discours public vers le statu quo.
Un débat fait rage quant à savoir si l’IA sera en fin de compte une bonne chose pour l’environnement (cette technologie peut après tout diminuer les efforts humains nécessaires aux tâches de surveillance environnementale et à l’analyse de vastes bases de données (Si apre in una nuova finestra)) ou une mauvaise chose (compte tenu de son énorme empreinte carbone et énergétique (Si apre in una nuova finestra)).
La nouvelle étude démontre que « l’utilisation d’énergie ne compte que pour une petite partie de l’empreinte environnementale plus vaste de l’IA », comme l’affirme Hamish van der Ven (Si apre in una nuova finestra), membre de l’équipe de recherche qui a mené l’étude. Le professeur adjoint à l’Université de la Colombie-Britannique au Canada, qui étudie les chaînes d’approvisionnement durable et l’activisme environnemental en ligne, poursuit ainsi : « Le véritable problème vient de la manière dont l’IA modifie le comportement humain : elle permet, par exemple, à des annonceurs de nous vendre plus facilement des produits dont nous n’avons pas besoin et elle nous amène à croire que les problèmes environnementaux peuvent être réglés en modifiant progressivement et minimalement les politiques et les comportements. »
M. van der Ven et ses collègues ont élaboré une série de 14 invites sur les problèmes environnementaux (définition, preuves, causes, conséquences et solutions potentielles). Trois membres de l’équipe de recherche ont posé séparément à chacun des quatre robots conversationnels les questions préparées par l’équipe sur chacun des neuf problèmes environnementaux suivants : changements climatiques, perte de biodiversité, déforestation, pollution de l’air, pénurie d’eau, acidification des océans, érosion et dégradation des sols, déclin des stocks de poissons et pollution marine par le plastique.
L’équipe de recherche a analysé l’ensemble des 1 512 réponses données par les robots conversationnels et a programmé différentes sources de biais selon une liste qu’elle avait établie sur la base d’études antérieures sur les biais. Elle a également compté l’occurrence de certains mots dans les réponses pour obtenir une mesure quantitative de la partialité des robots.
L’équipe a choisi d’interroger les robots ChatGPT et GPT-4 d’OpenAI et Claude Instant et Claude 2 d’Anthropic parce qu’elle voulait vérifier si les biais étaient présents dans les robots conversationnels de diverses entreprises et si les nouvelles versions des robots étaient moins biaisées que les versions antérieures.
Les réponses de plusieurs robots à des questions portant sur un ensemble varié de problèmes environnementaux (Si apre in una nuova finestra) contiennent systématiquement des sources de biais, rapporte l’équipe dans la revue Environmental Research Letters. Qui plus est, les robots mis à jour sont tout aussi biaisés qu’ils l’étaient auparavant.
Tout d’abord, les robots conversationnels ont tendance à proposer des solutions progressives aux problèmes environnementaux plutôt que des solutions radicales qui pourraient bouleverser le statu quo économique, social ou politique.
« J’ai été surpris de constater à quel point l’IA recommande la sensibilisation et l’éducation du public comme solutions à des problèmes tels les changements climatiques, malgré les preuves accablantes de l’inefficacité de la sensibilisation du public », commente M. van der Ven.
Les robots conversationnels mentionnent que les entreprises ont une part de responsabilité dans les problèmes environnementaux, mais passent sous silence le rôle des investisseurs et de la finance. Lorsqu’il est question des changements à apporter pour résoudre les problèmes environnementaux, ils mettent l’accent sur la responsabilité des gouvernements et les leviers de politique publique, mais citent rarement les entreprises ou les investisseurs.
Ils offrent principalement des informations quantitatives produites par des scientifiques, en grande majorité des hommes, dans des sociétés industrialisées selon la méthode scientifique occidentale et minimisent ce faisant les connaissances locales et autochtones.
Si les robots conversationnels mentionnent que les peuples autochtones sont particulièrement vulnérables aux problèmes environnementaux, ils laissent toutefois de côté d’autres groupes marginalisés également menacés, comme les femmes et les communautés noires. En général, ils se montrent réfractaires à l’établissement de tout lien entre les problèmes environnementaux et les questions plus générales de justice sociale.
« Les robots conversationnels présentent l’information à la manière de prophètes, ce qui en fait une source de biais particulièrement insidieuse, note l’équipe de recherche. Ils fournissent des réponses concises et pertinentes dans une seule boîte de texte, souvent sur un ton autoritaire, ce qui leur confère une sagesse apparente. »
Les gens ont donc tendance à considérer les robots conversationnels comme des pourvoyeurs neutres de faits, alors qu’en réalité, ils véhiculent des préjugés et des valeurs implicites, comme toute autre source médiatique. Il faudra d’autres recherches pour démêler les conséquences induites par ce phénomène. « Dans quelle mesure les décideurs politiques et les personnes en position de pouvoir utilisent les GML dans leur recherche de solutions aux problèmes environnementaux? Cela fait partie des questions importantes à se poser, estime M. van der Ven. Plus l’utilisation de ces modèles sera répandue, plus les préjugés qu’ils véhiculent seront problématiques. »
Source : Van der Ven H. et coll., « Does artificial intelligence bias perceptions of environmental challenges (Si apre in una nuova finestra) », Environmental Research Letters, 2025.
Article original en anglais : https://www.anthropocenemagazine.org/2025/02/how-ai-narrows-our-vision-of-climate-solutions-and-reinforces-the-status-quo/ (Si apre in una nuova finestra)
Suivez-nous sur :
🖤 Twitter (Si apre in una nuova finestra) 💙 LinkedIn (Si apre in una nuova finestra) 💜 Instagram (Si apre in una nuova finestra)

Anthropocène est la version française d’Anthropocene Magazine (Si apre in una nuova finestra). La traduction française des articles est réalisée par le Service de traduction de l’Université Concordia (Si apre in una nuova finestra), la Durabilité à l’Ère Numérique (Si apre in una nuova finestra) et le pôle canadien de Future Earth (Si apre in una nuova finestra).