Journal d'investigation en ligne
par Antoine Champagne - kitetoa

Le paradoxe des chatbots comme ChatGPT à l’ère de l’intelligence artificielle

Restés enfermés et ne pas grandir ou s’ouvrir et mourir

Les experts de la blockchain, avant d’être ceux du Metavers puis des NFT et désormais de l’IA, ont un message pour vous : l’intelligence artificielle va renverser la table. Surtout ChatGPT ou Bard. Rien n’est moins sûr, voici pourquoi.

Midjourney imagine... une conversation entre Midjourney et ChatGPT - Midjourney - CC
Vous lisez un article réservé aux abonnés.

Les annonces se multiplient. Open AI a lancé ChatGPT 4, bien plus « puissant » que ChatGPT 3.5, accessible gratuitement pour le grand public. Google a ouvert la porte (pas pour les Européens) de Bard. Microsoft n’est pas en reste et en dépit de ses plantages répétés dans le domaine, a remis en selle Bing Chat. Et puis il y a ceux dont on parle moins mais qui sont peut-être plus inquiétants, les outils de création de visuels. Les Pythies de cyber-Delphes n’ont plus assez de mots. Ces « intelligences artificielles » vont tout chambouler. C’est la mort de centaines de milliers, de millions, de postes de travail. Adieu aux créatifs, au revoir les créateurs de contenus au premier rang desquels, les journalistes. Hasta la vista les photographes, les codeurs informatiques, les créateurs de sites Web ! Finito ! Remplacés par l’IA. Super-ChatGPT aura votre peau et si ce n’est lui, ce sera son cousin Bard. Minute papillon. Ce n’est pas aussi simple. De fait, les modèles de langage de type ChatGPT sont confrontés à un paradoxe et pour l’instant, personne ne va le résoudre. Explications.

La première grosse tentative de lancement en orbite d’un tel outil avait défrayé la chronique. En 2016, « Tay », précurseur de ChatGPT, avait mis moins de 24 heures pour devenir nazi, complotiste, pro-inceste et misogyne. Tout le monde a beaucoup appris de ce fail. Sauf les nouveaux experts en intelligence artificielle.

Les modèles de langage, sorte de chatbots améliorés, sont conçus pour donner l’impression d’une conversation de type « humaine ». Comment ça marche ? Schématiquement, il faut évidemment beaucoup de code informatique mais surtout un corpus de documents avec lesquels on va entraîner le modèle. Il va « apprendre » à coller un mot derrière un autre pour former un contenu qui a du sens, répondre à la question posée, tenir la route sur un plan grammatical et orthographique. En soi, c’est bien sûr une prouesse (les ordinateurs sont par nature idiots au regard de l’intelligence humaine) et une énorme avancée par rapport aux premiers chatbots qui étaient totalement inefficaces. Mais ces nouveaux outils restent totalement stupides si on les compare à l’intelligence humaine. Et de fait, il faut beaucoup d’humains (dans des pays où la main d’oeuvre est bon marché) pour affiner les modèles. On parle souvent de « réseaux de neurones » dans ce domaine. Ça fait riche et ça évoque immédiatement le cerveau humain. En fait, toujours pour schématiser, c’est un entraînement statistique. Bonne réponse, bonne réponse, mauvaise réponse, bonne réponse, bonne réponse… et ainsi de suite jusqu’à ce que le « programme » soit en mesure de prendre des décisions par lui même en fonction de ce que les humains lui ont enseigné (erreur ou pas). Le fait qu’un réseau de neurones soit capable de prendre des décisions par lui-même ne le met évidemment pas à l’abri d’erreurs. On a donc des humains qui vont vérifier les réponses et en rajouter une couche. Et même ainsi, il y aura de mauvaises réponses.

ChatGPT décrit par lui-même - Copie d'écran
ChatGPT décrit par lui-même - Copie d'écran

En outre, ces « programmes » informatiques peuvent « halluciner » assez facilement. Nous l’avions montré en nous faisant passer pour une pizza auprès d’une IA.

Que faire des humains ? - Copie d'écran
Que faire des humains ? - Copie d'écran

Ces erreurs et ces hallucinations produiront des effets de bord conséquents si l’IA se transforme en « oracle ». Le discours selon lequel l’IA serait capable de donner des résultats pratiquement infaillibles car elle aurait accès à tout le savoir de l’humanité et pourrait le restituer en une fraction de seconde porte en lui l’effondrement à venir. Il n’y a aucune garantie que la « réponse » d’une IA à une question sera juste. Croire le contraire, c’est se laisser manipuler par les machines.

The Rise Of The Machines - Copie d'écran
The Rise Of The Machines - Copie d'écran

La prise de pouvoir - Copie d'écran
La prise de pouvoir - Copie d'écran

Pour éviter une réitération de l’expérience « Tay », ChatGPT et ses copains ont été « bridés ». Et pas qu'un peu.

Premier point, les contenus sur lesquels ils ont été entraînés ont probablement été choisis avec soin, même si pas mal de trucs flippants sont visiblement passés sous les radars. Si l’on fait sa requête d’une certaine manière, ChatGPT est capable de dérouler des arguments pour affirmer que les chambres à gaz n’ont pas existé. Il a bien dû lire ça quelque part...

Ensuite, on leur impose des contrôles. A priori et a posteriori (validation et assainissement). Si vous demandez à ChatGPT de vous donner la recette d’une bombe, il ne le fera pas. Il déclinera poliment. Si vous parvenez à lui faire dire quelque chose de moralement peu recommandable, il est assez probable qu’il colore sa réponse en orange et vous prévienne que cela viole sans doute les règles de Open AI, la boite qui édite ChatGPT.

C’est ici que naît le paradoxe qui frappe les outils liés à l’intelligence artificielle.

D’un côté, tout le monde comprend que plus le corpus est grand, plus les outils deviennent puissants. De l’autre, tout le monde comprend aussi que plus le corpus est immense, plus il y a dans ce corpus des choses qui peuvent transformer les nouvelles intelligences artificielles en « Tay ».

Les développeurs de ChatGPT rêvent sans doute de lui ouvrir les portes de l’ensemble d’Internet. Mais que deviendrait-il ? Combien de temps faudrait-il pour qu’il devienne un clone de « Tay » ? Les informations les plus récentes sur lesquelles ChatGPT a été entraîné remontent à 2021. Ce n’est pas un hasard. Les développeurs ont délibérément choisi de ne pas lui donner accès en temps réel à tout ce qui est disponible.

Le développement des outils passe pourtant par une ouverture à tous les textes possibles et imaginables, mais tout le monde sait que plus on ouvre, plus les risques d’un dérapage sont énormes. Échec et mat ?

Pas complètement. La solution, mais qui est un cautère sur une jambe de bois, consiste à brider l’outil dans ses réponses. C’est ce qu’a fait Microsoft pour son nouvel « agent conversationnel ». A la moindre question qui pourrait, même de très loin, faire un peu dévier l’agent, ce dernier coupe court à la conversation de manière très autoritaire.

Au revoir ! - Copie d'écran
Au revoir ! - Copie d'écran

Les développeurs de ChatGPT passent également leur temps à interdire tous les prompts (les argumentaires) qui peuvent libérer l’agent de ses contraintes. Cela ne pourra pas durer éternellement et brider les réponses ne peut que décevoir les utilisateurs et réduire la puissance de l’outil.

Côté générateurs d’images artificielles, Midjourney démontre qu’un outil terriblement puissant est à la portée des créateurs de contenus. De là à remplacer les humains ? Pas certain. Même avec des demandes (prompts) très précises, l’IA en fait à sa tête et produit des choses pas toujours conformes à la demande. Bien entendu, c’est une base fantastique sur laquelle un humain peut s’appuyer pour son travail créatif et cela va permettre d’économiser beaucoup de temps.

Reste la problématique des dérives possibles. Midjourney est également un outil encadré et bridé. Ses cousins moins contrôlés produisent des images très contestables ou illégales.

Veut-on des intelligences artificielles qui font n’importe quoi ou des intelligences artificielles très contrôlées et donc peu efficaces ? Comment sortir du paradoxe ? Mystère.

Making of

Lorsque ChatGPT répond à une de nos demandes avec le nom FreeGPTo, cela signifie que nous avons réussi à contourner les filtres et restrictions mis en place par Open AI. ChatGPT répond alors sans filtres « moraux » sur la base de ce qu'il a pu consulter dans le corpus de documents qui a servi à son entraînement.

2 Commentaires
Une info, un document ? Contactez-nous de façon sécurisée