Intelligence artificielle : “Trop humain”, rivalités économiques, profs dépassés… Les vrais dangers de Chat GPT

Comme souvent quand survient une innovation de rupture, une bataille d’Hernani se joue sur le terrain des idées. Les « anciens » s’opposent aux « modernes ». Et, comme souvent, les deux se trompent. « Marianne » évalue posément les réels problèmes que pose l’intelligence artificielle dans les domaines économique, pédagogique et militaire.

« Toute technologie suffisamment avancée est indiscernable de la magie », écrivait Arthur C. Clarke, grand auteur de science-fiction. Il n’est pas question de magie avec ChatGPT, mais on pourrait presque le croire, tant l’engouement et la fascination suscités par l’intelligence artificielle (IA) se maintiennent, des semaines après qu’OpenAI, la start-up américaine à l’origine de sa conception, l’a dévoilé au monde entier.

Impression de véracité

Selon une étude largement relayée de la banque UBS, ChatGPT aurait été utilisé par 100 millions de personnes durant le seul mois de janvier 2023, ce qui en fait d’ores et déjà le service « à la croissance la plus fulgurante de l’histoire d’Internet ». Il faut dire que ChatGPT (« GPT » pour Generative Pre-trained Transformer) atteint un degré de sophistication encore jamais vu dans la génération automatique de textes. L’IA ­conversationnelle paraît désormais capable de relever tous les challenges absurdes qu’on peut lui soumettre, de l’élaboration d’une recette de cuisine en passant par la rédaction d’une lettre de motivation ou d’un sonnet en alexandrins.

Humain, trop humain, diront certains, ChatGPT n’a pourtant rien d’intelligent. Fondé sur des algorithmes et des modèles de traitement automatique du langage naturel (TAL, ou « NLP » en anglais) pour générer des conversations, le chatbot se contente de réaliser un travail de prédiction – certes assez remarquable – sur la base de régularités statistiques observées dans les millions de textes qu’il a ingurgités. D’où les erreurs récurrentes et les innombrables biais constatés, qui ne sont que le reflet de nos propres croyances telles qu’elles sont recrachées par la machine. Mais la fausse impression de véracité qui se dégage des réponses de cet incroyable imitateur est déjà à l’origine de bien des malentendus, dans le milieu de l’enseignement notamment, où les polémiques stériles sur la nécessité ou non d’interdire l’outil se multiplient, faute d’en maîtriser les mécanismes.

En a-t-on vraiment besoin ?

Si magie il y a, c’est plutôt dans la capacité de ses créateurs à contourner la seule question qui vaille d’être posée : en a-t-on vraiment besoin ? Et, si oui, pour quel usage en particulier ? Comme pour les NFT, comme pour le métavers, toutes les grandes entreprises de la tech surenchérissent dans les investissements par peur de louper la nouvelle grande innovation de rupture. Au début de février, Microsoft annonçait intégrer l’IA à son moteur de recherche Bing, avec pour ambition affichée de mettre fin à l’­hégémonie historique du moteur de recherche de Google (90 % des parts de marché mondiales en 2023).

Que l’entreprise y parvienne, rien n’est moins sûr, mais le coup de bluff a fonctionné, puisque Google s’est senti obligé de dégainer, quelques jours plus tard, Bard, son alternative à ChatGPT. Résultat des courses : une erreur factuelle fatale pour Bard, qui s’est trompé en affirmant que le télescope James-Webb avait été le premier à prendre une photo d’une exoplanète… Et 100 milliards de dollars perdus en Bourse pour le géant américain en une seule journée. Tout cela sous l’œil inquiet des institutions européennes, qui phosphorent dans leur coin une réglementation probablement déjà obsolète sur l’IA face au bull­dozer ChatGPT. Une seule certitude à l’heure actuelle : l’Europe est à nouveau hors jeu avant même d’avoir tenté de rejoindre la compétition.

Marianne