5. Les limites et risques de l'IA




IA et désinformation




📢 Avec l’IA, les fausses informations sont moins coûteuses à produire et plus réalistes, brouillant les frontières entre contenu authentique et contenu manipulé :

·         Deepfakes : fausses images ou fausses vidéos, fausses conversations

·         Génération d’articles faux ou inexacts

·         Génération de commentaires faux ou inexacts sur les réseaux sociaux




👉Pour mieux se prémunir, vous pouvez consulter :

Une IA n’est pas comparable à l’usage d’une calculatrice ou de lunettes.

L’IA n’est ni neutre ni objective. Toutes les IA possèdent des biais, puisque leurs algorithmes sont entraînés avec de larges quantités de données possédant elles-mêmes des biais humains. Cela peut avoir des conséquences non négligeables selon les types d’IA. À titre d'exemple, jetez un œil sur l’article "USA - Des alglorithmes creusent des inégalités face aux soins". L'article date de 2019, et l’on peut supposer que les développeurs travaillent à corriger ces biais pour améliorer les IA, mais la problématique reste d’actualité.  Les biais peuvent être de nature : géographique, linguistique, de genre, idéologique… Ils sont tributaires des données d’entraînement, du choix de filtrage et de traitement.

À l’avenir, ces biais pourraient être renforcés :

« La multiplication des contenus générés en ligne sont susceptibles de polluer les données d’entraînement qui sont récupérées via de larges opérations de collecte du web. Selon certains chercheurs, la prolifération de ces contenus pourrait provoquer une forte dégradation de la performance des modèles d’IA, en étant intégrés de façon croissante à leurs données d’entraînement. » (In : Rapport VIGINUM, février 2025)

Les IA généralistes collectent majoritairement des données grand public. Les IA académiques se focalisent sur des corpus scientifiques. Cependant, même si le corpus est plus qualitatif, ces mêmes IA produisent des synthèses qui ne permettent pas de démontrer en quoi elles sont représentatives de la recherche sur un sujet donné. Elles extraient des données issues d'une quantité très partielle d'abstracts et très peu du texte intégral. Par ailleurs, les abstracts sont-ils significatifs du contenu des articles ?

Les hallucinations

"Toute information donnée par un tchatbot ne peut être vraie que par accident" Alexei Grinbaum

👉Le saviez-vous ? Les IA n’ont pas pour fonction de donner une réponse vraie. Elles sont dites probabilistes, c’est-à-dire qu’elles élaborent des réponses en prédisant le mot suivant le plus probable en fonction de la distribution statistique des données d'entraînement.

🎲Faites le test : Les IA, qu’on pense souvent plus efficaces pour les sciences dures que pour les sciences humaines, peuvent faire des erreurs sur des problèmes mathématiques extrêmement simples. Interrogez-la, par exemple sur la question suivante : « Alice a [X] frères et aussi [Y] sœurs. Combien de sœurs le frère d'Alice possède-t-il ? ». L’IA affirme souvent avec aplomb une réponse fausse.

La série des Décodeurs du quotidien Le Monde a recensé nombre d'hallucinations générées par l'IA. (Accès intégral via le portail de la BU).

Opacité des sources et modèles économiques instables


Un certain nombre d'IA ne sont pas transparentes sur les corpus de données qui alimentent les modèles, probablement car elles sont peu regardantes sur les droits de propriété intellectuelle des contenus qui ont servi à générer les réponses. En outre, elles ne citent pas systématiquement les sources qui ont permis de répondre au prompt. C'est le contraire d'un moteur de recherche qui est bien un index de sources, disposant d'une URL, que l'on peut classer par date, par type de publication, par nombre de citations... Les moteurs de recherche ont des algorithmes opaques, les IAG viennent ajouter une nouvelle couche d'opacité en faisant l'impasse sur la transparence des sources.

Par ailleurs, le but de certaines plateformes est d'abord de générer des revenus et non de poursuivre une visée scientifique : des IA initialement à but non lucratif sont devenues des sociétés cotées.

👉Pour aller plus loin : "#WorkInProgress : IA génératives et outils de recherche de littérature académique", 2025 [Consulté le 24 mars 2025].


L'impact environnemental et social de l'IA

A-t-on besoin d’une tronçonneuse pour couper une brindille ? 


L’IA a un impact environnemental très élevé qui justifie une utilisation proportionnée et à bon escient. De fait, l’utilisation d’IA gratuite et accessible présente - comme beaucoup de technologies - des « coûts cachés », humains et environnementaux.

👉Le saviez-vous ? Une requête ChatGPT consomme 10 fois plus d’électricité qu’une requête produite avec Google. 

En effet, comme le rappelle le Ministère de la transition Ecologique, « l’IA générative est particulièrement énergivore. Les modèles les moins vertueux consomment jusqu’à 11 Wh pour produire une image de bonne qualité, soit une moitié de charge de téléphone. En moyenne, la génération d’une image consomme 2.9Wh. L’Agence internationale de l’Énergie (AIE) anticipe une multiplication par 10 de la consommation d’électricité du secteur de l’IA entre 2023 et 2026. Cette augmentation contribuerait à une multiplication par deux de la consommation totale des data centers, déjà responsables de 4% de la consommation globale d’énergie. » [consulté le 6mars 2025].

Les IA sont également très gourmandes en eau douce, utilisée pour refroidir les data centers qui chauffent durant leur utilisation. Selon Shaolei Ren, « si 10% des travailleurs américains l’utilisaient une fois par semaine pendant un an pour rédiger un courriel, cela entraînerait une consommation de 435 millions de litres d’eau et 121.517 mégawattheures d’électricité. Cette quantité d’énergie serait suffisante pour alimenter tous les foyers de Washington DC pendant 20 jours. [...] ». Toujours selon Shaolei Ren, en 2023, l’entraînement de GPT-3 dans les centres de données de Microsoft aux États-Unis a pu consommer jusqu’à 700 000 litres d’eau douce, un chiffre qui a été peu divulgué. La demande mondiale pour l’IA pourrait entraîner un prélèvement de 4,2 à 6,6 milliards de mètres cubes d’eau d’ici à 2027, soit l’équivalent de la consommation annuelle de 4 à 6 fois celle du Danemark ou de la moitié du Royaume-Uni [consulté le 6 mars 2025].

Au niveau social, le développement des IA ne peut se passer du travail humain, souvent délocalisé et sous-payé. Voir à ce sujet, l'article "Les forçats de l'IA", publié dans la Presse canadienne en mars 2025 [Consulté le 14/03/2025].


👉Pour aller plus loin : 



Page 5/5

Table des matières du module