Démarrer le module sur l'IA : 20'

Site: Plateforme de formations ouvertes de l'université Claude Bernard Lyon1
Cours: Le Tuto des BU
Livre: Démarrer le module sur l'IA : 20'
Imprimé par: Visiteur anonyme
Date: jeudi 3 avril 2025, 07:43

1. Les différentes IA

Il existe différentes familles d'IA. Avant de découvrir précisément les caractéristiques des différentes IA, faites un petit test !











Page 1/5

Table des matières du module


2. L'art du prompt

Un prompt, appelé aussi requête ou invite, est une suite d’instructions formulées en langage naturel.

Le prompt vaut surtout pour les IA généralistes. Pour le moment, certaines IA académiques s’interrogent avec des mots-clés (Semantic Scholar), d'autres s'interrogent en langage naturel.



Le megaprompt

Un prompt efficace doit être précis et spécifique pour guider de manière exhaustive le modèle. Il doit, notamment, contenir les éléments suivants :

·         Un rôle (« tu es… », « agis comme… ») et/ou un contexte

·         Un destinataire et/ou un objectif

·         Un format

·         Des contraintes

·         Un style

Exemple de megaprompt :

Tu es chercheur en Pharmacie. Tu travailles dans un laboratoire de recherche pharmaceutique spécialisé dans le développement de nouveaux médicaments pour le traitement des maladies neurodégénératives. Tu dois rédiger un rapport de recherche sur les résultats préliminaires d'une nouvelle molécule prometteuse. Ce rapport est à destination du comité scientifique de l’entreprise. L’objectif est d’obtenir l'approbation pour la poursuite des essais cliniques. Construis un rapport structuré avec une introduction, une méthodologie, des résultats, une discussion et une conclusion.

Contraintes :

  • Utiliser un langage scientifique précis et rigoureux.
  • Respecter une longueur maximale de 10 pages.
  • Inclure des graphiques et des tableaux pour illustrer les données.
  • Citer toutes les sources bibliographiques selon le format APA.

Présente les résultats préliminaires de manière claire et concise.

Une fois une première réponse obtenue, on peut affiner ce que propose l’IA en la reprenant sur certains points. On peut, ainsi, lui demander d’approfondir tel ou tel aspect grâce à un nouveau prompt : « développe ce point de ton rapport », « donne un exemple sur ce point », « utilise un vocabulaire plus scientifique/un ton plus pédagogue/… », « reprends le rapport en intégrant telles données », etc.

💼Pour se perfectionner en prompt engineering : participez au MOOC gratuit "Chat GPT "rédiger le prompt parfait"

Le multi-prompt

Il s’agit de demander à l’IA de préciser la réponse en l’interrogeant à plusieurs reprises.

Requête 1 : "Quels sont les mécanismes biologiques impliqués dans la maladie de Parkinson ? »

Requête 2 : "Quelles sont les molécules actuellement en développement pour le traitement de la maladie de Parkinson ?"

Requête 3 : "Quels sont les défis et les opportunités dans le développement de nouveaux médicaments pour la maladie de Parkinson ?"

Requête 4 : "Quels sont les résultats des essais cliniques récents sur les nouveaux traitements de la maladie de Parkinson ?


Reverse prompting

Il s’agit de demander à l’IA des conseils sur la rédaction du prompt :

« Tu es spécialiste du prompt engineering. Donne-moi un regard critique sur mon prompt. Comment rédigerais-tu un prompt efficace ?/Qu’améliorerais-tu dans ce prompt ? Voici mon exemple : … »



📢 Envie de nous partager vos astuces de prompting (écueils et bonnes trouvailles) ? : Participez au forum collaboratif !


Page 2/5


Table des matières du module


3. L’IA et la recherche documentaire








👉Pour aller plus loin : 



Page 3/5


Table des matières du module

4. IA et intégrité scientifique





Comment citer une IA ?



L’IA ne peut pas être reconnue comme co-autrice d’un article scientifique. 


À titre d’exemple voici ce qu’en dit la revue Nature :

« Large Language Models (LLMs), such as ChatGPT, do not currently satisfy our authorship criteria. Notably an attribution of authorship carries with it accountability for the work, which cannot be effectively applied to LLMs.  Use of an LLM should be properly documented in the Methods section (and if a Methods section is not available, in a suitable alternative part) of the manuscript. The use of an LLM (or other AI-tool) for “AI assisted copy editing” purposes does not need to be declared. In this context, we define the term "AI assisted copy editing" as AI-assisted improvements to human-generated texts for readability and style, and to ensure that the texts are free of errors in grammar, spelling, punctuation and tone. These AI-assisted improvements may include wording and formatting changes to the texts, but do not include generative editorial work and autonomous content creation. In all cases, there must be human accountability for the final version of the text and agreement from the authors that the edits reflect their original work. »

Artificial Intelligence (AI) | Nature Portfolio. [consulté le 6 mars 2025].

 

👉Renseignez-vous auprès de vos enseignants pour savoir si vous êtes autorisés à utiliser l’IA. Afin de faire preuve de transparence, il peut être judicieux de citer son usage, en suivant le même style de norme que celui utilisé pour la bibliographie, soit dans :

·         La partie méthodologie

·         Le corps de texte

·         En note de bas de page

·         La bibliographie

Vous pouvez, par exemple, référencer dans un tableau annexé toutes les fois où vous avez eu recours à l’IA, en reprenant la liste de l’ensemble des prompts et en reprécisant les parties du document qui sont concernées. Les IAG ne proposant pas de lien pérenne, vous ferez preuve de davantage de transparence en copiant les résultats des conversations. Par ailleurs, si vous avez utilisé un prompt et que quelqu’un interroge à nouveau une IA avec un prompt identique au vôtre, il trouvera une réponse qui ne sera pas strictement identique à la vôtre. En résumé, les résultats d’un prompt ne sont pas reproductibles.


👉Voici une liste de recommandations pour citer l’usage d’une IA :

  • Université de Lorraine, Université de Strasbourg, Université de Haute Alsace, Bibliothèque nationale et universitaire de Strasbourg, & GTFU Alsace. (2024). L'intelligence artificielle et le bibliothécaire. Zenodo. [consulté 19 févr 2025].

IA et plagiat

Si une IA produit du contenu original, elle peut construire sa réponse en reprenant du contenu produit par un tiers. Vous n'êtes donc pas à l'abri du plagiat en utilisant ces outils. La meilleure manière de s'en prémunir, c’est de citer ses sources.

L’Université Lyon 1 s’est dotée de Compilatio Magister +, logiciel capable de détecter du contenu similaire à d'autres sources mais aussi du contenu généré par l’IA. Voici ce qu'en dit la société qui le développe :

-Le détecteur d'IA Compilatio s'adapte-t-il aux avancées des IA ? Oui, le détecteur est régulièrement mis à jour.

-Compilatio Magister+ prouve-t-il l’usage d’une IA générative ? Le détecteur met en lumière des passages « suspects », potentiellement écrit à l’intelligence artificielle.

-Le détecteur d'IA Compilatio est-il fiable ?

  • La précision (=la capacité du détecteur à se tromper) est estimée à 98,5% : sur 100 passages identifiés comme rédigés par une IA, entre 98 et 99 le sont bien, et les restants ont été écrits par des humains.
  • Le rappel du détecteur (=sa capacité à n'oublier aucun passage rédigé par IA) est de 99% : sur 100 passages rédigés par IA, seul 1 n'a pas été trouvé).
  • Son exactitude (=sa capacité à identifier correctement des passages écrits par des humains ou par IA) est de 99% : sur 100 passages, 99 ont été justement identifiés.

 

💡 Le saviez-vous ? En l’absence de prise de position unanime des instances nationales, certaines universités françaises ou étrangères ont pris position sur l’usage des IA génératives. C'est le cas de l'université d'Orléans, de Genève ou encore de Sherbrooke.


IA et données personnelles

Au risque perdre la main sur sa propriété intellectuelle, il est recommandé de ne pas fournir de données personnelles à l’IA qui va ensuite s’en servir pour s’entraîner. Il est préférable de ne transmettre à l’IA que des données qui relèvent du domaine public. C’est ce que recommande l’Université d’Orléans dans sa charte.

💡 Le saviez-vous ?  L’Europe a adopté un texte réglementant l’usage et la circulation des IA. Son nom : l'EU AI Act. Il a commencé à entrer en vigueur en août 2024. Son but est d’« encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé la sécurité ou les droits fondamentaux », dixit la CNIL. [consulté le 11 mars 2025]. 

L'AI Act s’applique aux entreprises ayant leur siège social dans l’UE, mais aussi  à toute entreprise commercialisant son système dans l’UE. 

🏆Participez au jeu AI Act Game, mis en place par Thomas le Goff (maître de conférences en droit et régulation du numérique) et familiarisez-vous avec.



Page 4/5

Table des matières du module

5. Les limites et risques de l'IA




IA et désinformation




📢 Avec l’IA, les fausses informations sont moins coûteuses à produire et plus réalistes, brouillant les frontières entre contenu authentique et contenu manipulé :

·         Deepfakes : fausses images ou fausses vidéos, fausses conversations

·         Génération d’articles faux ou inexacts

·         Génération de commentaires faux ou inexacts sur les réseaux sociaux




👉Pour mieux se prémunir, vous pouvez consulter :

Une IA n’est pas comparable à l’usage d’une calculatrice ou de lunettes.

L’IA n’est ni neutre ni objective. Toutes les IA possèdent des biais, puisque leurs algorithmes sont entraînés avec de larges quantités de données possédant elles-mêmes des biais humains. Cela peut avoir des conséquences non négligeables selon les types d’IA. À titre d'exemple, jetez un œil sur l’article "USA - Des alglorithmes creusent des inégalités face aux soins". L'article date de 2019, et l’on peut supposer que les développeurs travaillent à corriger ces biais pour améliorer les IA, mais la problématique reste d’actualité.  Les biais peuvent être de nature : géographique, linguistique, de genre, idéologique… Ils sont tributaires des données d’entraînement, du choix de filtrage et de traitement.

À l’avenir, ces biais pourraient être renforcés :

« La multiplication des contenus générés en ligne sont susceptibles de polluer les données d’entraînement qui sont récupérées via de larges opérations de collecte du web. Selon certains chercheurs, la prolifération de ces contenus pourrait provoquer une forte dégradation de la performance des modèles d’IA, en étant intégrés de façon croissante à leurs données d’entraînement. » (In : Rapport VIGINUM, février 2025)

Les IA généralistes collectent majoritairement des données grand public. Les IA académiques se focalisent sur des corpus scientifiques. Cependant, même si le corpus est plus qualitatif, ces mêmes IA produisent des synthèses qui ne permettent pas de démontrer en quoi elles sont représentatives de la recherche sur un sujet donné. Elles extraient des données issues d'une quantité très partielle d'abstracts et très peu du texte intégral. Par ailleurs, les abstracts sont-ils significatifs du contenu des articles ?

Les hallucinations

"Toute information donnée par un tchatbot ne peut être vraie que par accident" Alexei Grinbaum

👉Le saviez-vous ? Les IA n’ont pas pour fonction de donner une réponse vraie. Elles sont dites probabilistes, c’est-à-dire qu’elles élaborent des réponses en prédisant le mot suivant le plus probable en fonction de la distribution statistique des données d'entraînement.

🎲Faites le test : Les IA, qu’on pense souvent plus efficaces pour les sciences dures que pour les sciences humaines, peuvent faire des erreurs sur des problèmes mathématiques extrêmement simples. Interrogez-la, par exemple sur la question suivante : « Alice a [X] frères et aussi [Y] sœurs. Combien de sœurs le frère d'Alice possède-t-il ? ». L’IA affirme souvent avec aplomb une réponse fausse.

La série des Décodeurs du quotidien Le Monde a recensé nombre d'hallucinations générées par l'IA. (Accès intégral via le portail de la BU).

Opacité des sources et modèles économiques instables


Un certain nombre d'IA ne sont pas transparentes sur les corpus de données qui alimentent les modèles, probablement car elles sont peu regardantes sur les droits de propriété intellectuelle des contenus qui ont servi à générer les réponses. En outre, elles ne citent pas systématiquement les sources qui ont permis de répondre au prompt. C'est le contraire d'un moteur de recherche qui est bien un index de sources, disposant d'une URL, que l'on peut classer par date, par type de publication, par nombre de citations... Les moteurs de recherche ont des algorithmes opaques, les IAG viennent ajouter une nouvelle couche d'opacité en faisant l'impasse sur la transparence des sources.

Par ailleurs, le but de certaines plateformes est d'abord de générer des revenus et non de poursuivre une visée scientifique : des IA initialement à but non lucratif sont devenues des sociétés cotées.

👉Pour aller plus loin : "#WorkInProgress : IA génératives et outils de recherche de littérature académique", 2025 [Consulté le 24 mars 2025].


L'impact environnemental et social de l'IA

A-t-on besoin d’une tronçonneuse pour couper une brindille ? 


L’IA a un impact environnemental très élevé qui justifie une utilisation proportionnée et à bon escient. De fait, l’utilisation d’IA gratuite et accessible présente - comme beaucoup de technologies - des « coûts cachés », humains et environnementaux.

👉Le saviez-vous ? Une requête ChatGPT consomme 10 fois plus d’électricité qu’une requête produite avec Google. 

En effet, comme le rappelle le Ministère de la transition Ecologique, « l’IA générative est particulièrement énergivore. Les modèles les moins vertueux consomment jusqu’à 11 Wh pour produire une image de bonne qualité, soit une moitié de charge de téléphone. En moyenne, la génération d’une image consomme 2.9Wh. L’Agence internationale de l’Énergie (AIE) anticipe une multiplication par 10 de la consommation d’électricité du secteur de l’IA entre 2023 et 2026. Cette augmentation contribuerait à une multiplication par deux de la consommation totale des data centers, déjà responsables de 4% de la consommation globale d’énergie. » [consulté le 6mars 2025].

Les IA sont également très gourmandes en eau douce, utilisée pour refroidir les data centers qui chauffent durant leur utilisation. Selon Shaolei Ren, « si 10% des travailleurs américains l’utilisaient une fois par semaine pendant un an pour rédiger un courriel, cela entraînerait une consommation de 435 millions de litres d’eau et 121.517 mégawattheures d’électricité. Cette quantité d’énergie serait suffisante pour alimenter tous les foyers de Washington DC pendant 20 jours. [...] ». Toujours selon Shaolei Ren, en 2023, l’entraînement de GPT-3 dans les centres de données de Microsoft aux États-Unis a pu consommer jusqu’à 700 000 litres d’eau douce, un chiffre qui a été peu divulgué. La demande mondiale pour l’IA pourrait entraîner un prélèvement de 4,2 à 6,6 milliards de mètres cubes d’eau d’ici à 2027, soit l’équivalent de la consommation annuelle de 4 à 6 fois celle du Danemark ou de la moitié du Royaume-Uni [consulté le 6 mars 2025].

Au niveau social, le développement des IA ne peut se passer du travail humain, souvent délocalisé et sous-payé. Voir à ce sujet, l'article "Les forçats de l'IA", publié dans la Presse canadienne en mars 2025 [Consulté le 14/03/2025].


👉Pour aller plus loin : 



Page 5/5

Table des matières du module



6. Pour terminer faites le test du module : Tout sur l'IA !