Plus d'un millier d'experts signent une tribune pour demander un moratoire sur la recherche en intelligence artificielle.Ils se disent convaincus que les technologies comme ChatGPT peuvent présenter de graves risques pour la société.Pour en savoir plus, TF1info a contacté le chercheur Raja Chatila, qui milite pour une approche plus éthique de l'IA.
Avant de devenir incontournables, toutes les grandes inventions ont suscité la peur. Le robot conversationnel ChatGPT et ses répliques n’échappent pas à la règle. Les plus éminents spécialistes en recherche en intelligence artificielle (IA) s’alarment ainsi, dans une tribune, de la "course incontrôlée pour développer et déployer des systèmes d’IA toujours plus puissants, que personne, pas même leurs créateurs, ne peut comprendre, prédire ou contrôler de manière fiable". Les signataires de la pétition réclament la mise en place d’un moratoire sans attendre.
"Nous appelons tous les laboratoires d’IA à suspendre immédiatement, pendant au moins six mois, la formation des systèmes d’IA plus puissants que GPT-4", la dernière version du robot conversationnel de l’entreprise californienne OpenAI, qui a été dévoilée le 14 mars dernier. "Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ?", s'alarment les scientifiques, dans cette lettre ouverte qui vise davantage à inciter à la prudence qu’à freiner l’innovation.
Directeur de recherche au CNRS, Raja Chatila préside depuis 2016 une initiative internationale pour l’éthique dans l'intelligence artificielle, au sein de l'Institut des ingénieurs en électricité et électronique (IEEE). Ce spécialiste des systèmes intelligents et de robotique est l'un des signataires de cette lettre ouverte, publiée ce mercredi 29 mars sur le site de l'Institut américain Future of Life. TF1info l'a contacté pour vous éclairer sur les enjeux et les menaces que font peser le développement de ces technologies, si elles ne sont pas mieux encadrées à l'avenir.
Dans cette tribune, vous demandez, avec d'autres scientifiques, à l'entreprise OpenAI de mettre en pause ses recherches pour une durée de six mois. Pourquoi est-il si urgent d'agir ?
Raja Chatila : C’est un carton rouge, en quelque sorte, qui est levé. L’idée de cette lettre ouverte est d'alerter sur la course effrénée visant à développer des systèmes toujours plus performants, sachant que ces technologies peuvent représenter de graves risques pour la société. On peut aussi y réfléchir auparavant et prendre les mesures nécessaires pour limiter les conséquences négatives. Je ne suis pas certain que cela aura un impact, mais il faut le faire. Finalement, tout ce qu’on demande, c’est que l’entreprise qui est responsable de cette diffusion face une pause.
Ils peuvent, évidemment, refuser. Avec cette tribune, on a simplement pointé les responsabilités. Parfois, le simple fait de dénoncer suffit pour faire bouger les choses, même si ce n’est pas toujours le cas. Ce n’est pas dans un intervalle de six mois qu’on va trouver une solution miracle. D’autant que cela concerne les futurs systèmes et non ceux qui sont déjà déployés. Cependant, on parle depuis longtemps du fait qu’il faut éveiller les consciences. L'objectif, c'est que les gens prennent conscience des conséquences négatives que peut avoir cette technologie si elle n'est pas mieux encadré, notamment d'un point de vue éthique. Maintenant, tout le monde en parle, et c’est déjà une avancée.
Vous risquez de vous enfermer dans une conversation, un peu comme dans le film "Her"
Raja Chatila
ChatGPT est une intelligence artificielle qui produit des textes qui semblent avoir été écrit d'une main humaine. En quoi cela représente-t-il un danger ?
Raja Chatila : C'est ce qu'on appelle des intelligences artificielles génératives, c'est-à-dire qu'elles sont capables de produire des textes, pour ChatGPT - ou des images, pour d'autres - à partir d’un ensemble d'informations phénoménal qui se trouve sur Internet, qui a été la base d’apprentissage de ces systèmes. ChatGPT peut vous dire n’importe quoi, sans sourciller... entre guillemets. Il ne comprend pas ce qui est écrit. Mais le texte généré par la machine n'en demeure pas moins plus vrai que nature, et c'est en cela que c'est extrêmement dangereux. Le problème, c'est qu'il sera très difficile, voire impossible, de distinguer si ce qui est écrit est exact ou pas. Cela pose des questions évidentes en termes de droit d'auteur et aussi de désinformation.
Par ailleurs, le processus se fait dans le contexte d’une conversation. Vous posez une question à ChatGPT, il vous répond et génère un texte sur la base des éléments que vous lui fournissez. De ce fait, vous risquez de vous enfermer dans une conversation, un peu comme dans le film Her, qui peut amener le système à vous dire des choses qui sont totalement inappropriés. Le 28 mars, une personne, en Belgique, s’est suicidée après avoir discuté pendant six mois avec une IA (l'information a été reportée mercredi 29 mars par nos confrères du journal Le Figaro, ndlr) Elle n’utilisait pas le système qui a été mis au point par l'entreprise OpenAI, il faut le préciser, mais cela met en lumière une des dérives possibles.
Doit-on considérer ces technologies comme un progrès, en dépit des dangers qu'elles représentent pour la société ?
Raja Chatila : ChatGPT est une avancée technologique. Mais la question qu'on doit se poser, c'est : est-ce pour autant un progrès pour chaque être humain et pour l’humanité dans son ensemble ? On a considéré et on continue de considérer que la voiture est un progrès, parce que nous permet de nous déplacer, d’aller plus loin, d’ouvrir nos horizons et aussi d’échanger des marchandises. Et puis, on s’est aperçus que ce progrès posait quand même quelques problèmes, qui sont liés en particulier au climat. On s’est dit 'il faut peut-être faire attention'. Est-ce qu’on abandonne les voitures pour autant ? Non, pas vraiment, mais on cherche à la rendre plus vertueuse.
Lorsqu'on y réfléchit, tout progrès n’est pas forcément un véritable progrès, acceptable pour toute l’humanité. Et parfois, c’est très difficile de revenir en arrière pour corriger ses effets néfastes. Si dès le départ, on avait pensé que le moteur thermique émet du gaz carbonique et qu'il s’accumule dans l’atmosphère - et on sait depuis très longtemps ce qu’est l’effet de serre - on n’en serait pas là aujourd’hui. Le problème aujourd’hui, c’est qu’on doit inventer la voiture qui est compatible avec la vie humaine. On en est là... Et, c’est pour ça qu’il est essentiel de lever le carton rouge concernant ChatGPT, quand il est encore temps. Et d’orienter ce progrès dans la direction qui soit la plus bénéfique pour l’humanité.
On peut voir les emplois qui vont être détruits (...) mais on ne sait pas très bien ceux qui vont être créés à l'avenir
Raja Chatila
Cette semaine, la banque américaine Goldman Sachs a chiffré à 300 millions le nombre d'emplois qui pourraient disparaître avec le développement des IA génératives. Est-ce un risque à craindre véritablement ?
Raja Chatila : Sur la question de la destruction d’emploi, on peut voir ceux qui vont être détruits - plus ou moins - mais on ne sait pas très bien ceux qui vont être créés. Il faut donc être un peu prudent avec ces chiffres. L’analyse de texte, la rédaction de rapport, autrement dit des synthèses, ce travail peut être fait par ces intelligences artificielles. Mais la difficulté, ce sera d’évaluer dans quelle mesure ces rapports sont de qualité. Il faudra vérifier. Or, pour cela, il faut être en mesure de comprendre ce qu'on a écrit. Or ces systèmes en sont tout simplement incapables.
Qui plus est, pour savoir si ce qui est écrit est partiel ou faux, il faut être expert plus ou moins dans le domaine. D’ailleurs, les entreprises qui développent ces technologies disent qu’il ne faut pas prendre de décisions sur la base de ce que raconte l'IA et qu’il faut toujours procéder à une vérification avec un humain. Elles prennent, évidemment, des précautions. Le risque, c’est si on commence à utiliser ces systèmes de manière automatisée, dans le but de réduire les dépenses de l'entreprise. Mais, rapidement, les entreprises se rendraient comptes qu’il y a non seulement une disparition d’emplois, mais aussi de compétences, ce qui est plus problématique.
Lorsqu’on développe une technologie, le plus souvent, c’est pour nous aider et rendre des tâches moins pénibles.
Raja Chatila
Avec le développement de ces technologies, ne risque-t-on pas de devenir de plus en plus fainéants ?
Raja Chatila : De manière générale, lorsqu’on développe une technologie, le plus souvent, c’est pour nous aider et rendre des tâches moins pénibles. On a inventé la voiture pour se déplacer, plutôt que de marcher ou d’utiliser l’énergie animale. Donc, on marche moins et forcément, de ce fait, on fait moins d’exercice. Résultat, on va dans des salles de sport pour les faire fonctionner. Cela a permis, d'ailleurs, de créer un nouveau métier, entre parenthèses, même si on a perdu une compétence. Est-ce que vous êtes aussi fort en calcul mental que l’était votre père ou grand-mère ? Je ne crois pas, car ils apprenaient à l’époque à faire du calcul mental beaucoup plus que vous.
Certes, on a perdu cette capacité, mais ce n'est pas pour autant qu'on a le sentiment d'être moins intelligent qu'eux. Lorsque ça touche des choses importantes, ce que nous sommes en tant qu’être humain, c’est-à-dire notre capacité de réflexion cognitive et de raisonnement, il y a une menace. En revanche, pour ce qui est de ChatGPT, ce n'est pas là que le danger est le plus important. On ne peut pas empêcher une personne de penser ou de réfléchir. Le risque, c’est de raisonner à partir d’éléments qui sont erronés ou partiels.
Quelles sont les gardes-fous pour garantir, aujourd'hui, que ces technologies ne deviennent un danger pour la société ?
Raja Chatila : La technologie avance à son rythme, tandis que la réflexion éthique a besoin de plus de temps, pour bien comprendre les différents points de vue et les conséquences. Et la législation est encore plus lente. C’est pour ça qu’on parle d’une règlementation au niveau européen depuis seulement avril 2021, et qui ne sera complétée qu’à la fin de cette année au plus tôt, puis mis en œuvre uniquement deux ans plus tard. Il y a des principes qu’il faut appliquer, qui sont déjà dans la loi et qui imposent qu’on ne peut pas déployer un produit avant de fournir la preuve qu’il n’est pas dangereux. Ce n’est pas parce que c’est de l’IA que cela change quelque chose.
Sur le
même thème
Tout
TF1 Info
- Vos vidéos à la Une
- Police, justice et faits diversColère et émoi après le suicide de Lindsay, harcelée à l'école
- InternationalGuerre en Ukraine : les attaques en Russie se multiplient
- Police, justice et faits diversMeurtre d'Iris dans le Morbihan
- SportsMohamed Haouas, international français de rugby, dans la tourmente judiciaire