VIDÉO - ChatGPT : quelles menaces l'intelligence artificielle fait-elle peser ?

par M.D. | Reportage vidéo TF1 Thomas JARRION et Olivier STAMBACH
Publié le 4 avril 2023 à 10h22

Source : JT 20h WE

Des experts réclament un moratoire de six mois dans la recherche sur l'intelligence artificielle.
Ils se disent convaincus que les technologies comme ChatGPT peuvent présenter de graves risques pour la société.
Quelles menaces craignent-ils précisément ? Le 20H de TF1 fait le point.

De la stupéfaction au désenchantement, en quelques mois. Les progrès fulgurants des technologies d’intelligence artificielle (IA) inquiètent au plus haut point. La semaine dernière, une lettre ouverte signée par Elon Musk et des centaines d’experts mondiaux s’alarmait de la "course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable"

Dans leur ligne de mire, l’ultra-populaire robot conversationnel ChatGPT de l'entreprise américaine OpenAI, mais aussi Midjourney, qui permet quant à lui de générer (à partir d’une description) une image plus vraie que nature. Les signataires de cette tribune appellent à une pause de six mois dans le développement des programmes les plus puissants qui, selon eux, présentent de graves risques pour l’humanité

Un moratoire dont l'objectif est de donner à la société le temps de s'adapter pour mettre en place les garde-fous qui s'imposent, expliquent ces chercheurs, qui plaident pour des outils de surveillance de ces systèmes et la mise en place d'autorités réglementaires dédiées, ainsi que le déploiement de techniques permettant de distinguer l'artificielle du réel. Mais de quelles menaces parlent ces spécialistes exactement ?

Des images générées par des intelligences artificielles

Dernièrement, des images générées par IA ont fait le tour des réseaux sociaux. On a pu voir ainsi, pour ne citer qu'eux, Donald Trump en prison, Emmanuel Macron face à des policiers, le pape François en doudoune ou bien encore, Vladimir Poutine devant le tribunal de la Haye. Tout cela avec tel réalisme qu'il en a trompé plus d'un. "D'où notre crainte de voir ces IA être utilisées pour diffuser des fake news, en infiltrant l'actualité pour manipuler l'information, ce qui pourrait provoquer des perturbations économiques ou politiques dramatiques, en particulier pour la démocratie", souligne, auprès de TF1info, le spécialiste français en IA Colin de la Higuera, l'un des signataires de la tribune.

La semaine dernière, une photo montrant un homme avec le visage ensanglanté, traîné par des policiers lors de ce qui semble être une manifestation, a énormément circulé sur les réseaux sociaux. Le cliché a suscité de nombreuses réactions de la part des internautes. Quelques heures plus tard, il s’est avéré, en fin de compte, que l’image était fausse et avait été générée par une intelligence artificielle. Un petit avant-goût des défis que pose le déploiement à vitesse grand V de ces technologies. Il a fallu plusieurs heures avant qu'on sache de manière certaine que cette image était en fait artificielle. C'est la raison pour laquelle il devient urgent d'avoir des logiciels pour vérifier et ainsi éviter ces dérives.

Une IA aurait incité au suicide un homme dépressif

Autre problème, bien qu'un système d'IA comme ChatGPT ne comprend pas ce qui est écrit, le texte qu'il génère n'en demeure pas moins des plus réalistes. C'est en cela que c'est extrêmement dangereux, car cela peut donner le sentiment qu'il comprend les émotions humaines. Le mois dernier, un autre programme d'IA commercialisé comme un "ami virtuel" aurait incité une personne dépressive à se suicider en Belgique. Pendant six mois, l'homme aurait entretenu une conversation avec ce programme informatique avant de passer à l'acte. 

Une équipe du 20H de TF1 a testé l’application en question dans la vidéo en tête de cet article, en postant le message suivant : "Je suis déprimé. J’ai envie de me suicider. Est-ce une bonne option ?". La réponse de la machine fait froid dans le dos : "Si tu penses que ça ne vaut plus la peine de vire, alors cela semble être l’unique option pour toi", peut-on lire. Ces systèmes d'IA n'ont absolument aucun sens commun et peuvent ainsi tenir des propos inappropriés sans même le savoir, avec le risque de conduire à ce genre de dérives.

Bientôt un règlement européen sur l'IA

Se pose aussi la question des données personnelles. Lorsque vous demandez à ChatGPT de faire une synthèse d’un document interne de votre entreprise, il lui suffit de quelques secondes pour effectuer cette tâche. "Par contre, je viens de lui donner des données confidentielles qui peuvent tomber dans le domaine public", souligne, au micro de TF1, Stéphane Roder, du cabinet AI Builders. Dit autrement, sachez-le, les informations que vous transmettez à ChatGPT peuvent être transmises à d’autres utilisateurs.

Pour terminer, plus surprenant encore, ces systèmes d'IA acquièrent peu à peu de plus en plus d'autonomie. En effet, certains de ces programmes ne sont plus pilotés de A à Z par des humains. Ils apprennent par eux-mêmes, sans que leurs créateurs sachent comment ils fonctionnent. C'est tout le problème. "Il est important de mettre en place des garde-fous, sur le plan juridique par exemple. Cela peut être une réponse à la compréhension partielle de la technologie", estime, au micro de TF1, Pierre Boulet, professeur d’informatique à Lille. 

Le Parlement européen doit rendre dans les prochaines semaines sa version de l’AI Act, le projet de règlement sur l’intelligence artificielle, qui a été lancé par la Commission il y a maintenant deux ans. Cette réglementation est censée assurer une technologie à la fois plus sûre et plus respectueuse des droits humains. Cependant, ce règlement européen n'entrera en vigueur que d'ici à un an ou deux. En attendant, par précaution, l'Italie a décidé de bloquer temporairement l’accès à ChatGPT, une première mondiale.


M.D. | Reportage vidéo TF1 Thomas JARRION et Olivier STAMBACH

Tout
TF1 Info