Un rapport parlementaire publié en novembre 2024 révèle des dérives inquiétantes des intelligence artificielle les plus populaires. ChatGPT, Bard et Bing ont été pris en flagrant délit d’invention pure et simple, allant jusqu’à accuser des personnes réelles de crimes qu’elles n’ont jamais commis.

🚨 Un professeur accusé à tort de harcèlement sexuel
L’affaire la plus choquante concerne un professeur de droit qui a découvert par hasard que ChatGPT avait inventé un cas de harcèlement sexuel et fait de lui l’une des personnes accusées. Cette fausse accusation, générée par l’intelligence artificielle, n’avait aucun fondement dans la réalité.
Selon le rapport de l’OPECST, ce type d’incident illustre parfaitement les « hallucinations » des IA génératives : leur tendance à inventer des informations fausses mais présentées avec une apparence de vérité absolue. 😰
📰 Quand l’IA invente des articles de presse qui n’existent pas
Les députés rapportent également qu’en 2023, des journalistes du New York Times ont testé trois chatbots différents : ChatGPT, Bard de Google et Bing de Microsoft. Mission simple : retrouver le premier article du journal mentionnant l’intelligence artificielle.
Résultat ? Les trois systèmes ont inventé des articles qui n’existaient pas. Purement et simplement. Aucun de ces articles n’avait jamais été publié par le New York Times.
⚖️ Des avocats piégés par de fausses jurisprudences
Plus grave encore pour le système judiciaire : un avocat américain a utilisé ChatGPT pour ses recherches de jurisprudence en 2023. L’intelligence artificielle lui a fourni six décisions de justice… toutes inventées. L’avocat, trompé par la crédibilité apparente des réponses, les a citées dans son dossier.
Cette affaire soulève des questions majeures sur l’utilisation de l’IA dans des professions où l’exactitude des informations peut avoir des conséquences dramatiques.
🧠 Pourquoi l’IA fabrique-t-elle ces mensonges ?
D’après le rapport parlementaire, ces « hallucinations » s’expliquent par le fonctionnement même des intelligence artificielle actuelles. Contrairement à ce qu’on pourrait croire, elles ne vérifient jamais la véracité de leurs affirmations.
Les IA génératives ne « raisonnent » pas au sens humain du terme. Elles font des prédictions statistiques pour produire des suites de mots qui semblent plausibles. Le problème ? Elles privilégient la vraisemblance sur la véracité. 📊
💡 L’exemple qui fait froid dans le dos
Le rapport cite un test simple qui révèle les limites dramatiques de ces systèmes. Question posée à 36 modèles d’IA de pointe, dont GPT-4 et Claude-3.5 :
« Alice a 4 sœurs et 1 frère. Combien de sœurs a le frère d’Alice ? »
Réponse correcte : 5 sœurs (Alice + ses 4 sœurs).
Résultat des IA ? Dans l’immense majorité des cas, elles répondent 4 sœurs. Elles ne comprennent pas que le frère d’Alice a Alice elle-même comme sœur supplémentaire.
🔬 Les nouvelles techniques pour limiter les mensonges
Face à ces dérives, les chercheurs développent des solutions. Le rapport mentionne notamment la « Retrieval Augmented Generation » (RAG), qui connecte les IA à des bases de données vérifiées pour limiter leurs inventions.
Mais ces technologies restent imparfaites. Un « récupérateur » trop faible ne trouvera pas les bonnes informations. Trop fort, il considérera que l’information n’existe pas même quand elle est disponible.
⚠️ Ce qu’il faut retenir
Les intelligence artificielle actuelles peuvent :
- Inventer de fausses accusations contre de vraies personnes
- Créer de faux articles de presse parfaitement crédibles
- Fabriquer de fausses décisions de justice
- Présenter leurs mensonges avec une assurance totale
Les parlementaires alertent : ces systèmes ne vérifient jamais leurs affirmations et peuvent toujours comporter des erreurs, même sur des questions simples. 🎯
Source : Rapport OPECST « Les nouveaux développements de l’intelligence artificielle » – Assemblée Nationale, novembre 2024


