Jusqu'où ira l'intelligence artificielle ?

Effrayé par les progrès de l'intelligence artificielle, l'un de ses pionniers quitte Google et sonne l'alerte

Publié le 2 mai 2023 à 15h01, mis à jour le 2 mai 2023 à 16h06
JT Perso

Source : JT 20h WE

Libéré des contraintes liées à sa fonction chez Google, le chercheur Geoffrey Hinton, l'un des pères de l'IA, fait part de ses craintes.
À entendre cet éminent spécialiste, il sera difficile d'empêcher que des acteurs utilisent cette technologie à des fins malveillantes.

De la sidération… au désenchantement. Les progrès fulgurants des technologies d’intelligence artificielle (IA) inquiètent au plus haut point, poussant de plus en plus de spécialistes du domaine à enfiler leur cape de lanceurs d’alerte. Dernier en date, le chercheur canadien Geoffrey Hinton. Cet éminent scientifique, colauréat en 2018 du prix Turing (avec deux autres experts, dont le Français Yann Le Cun), a quitté le mois dernier son poste chez le géant américain Google afin de pouvoir s’exprimer librement sur les risques que va engendrer le déploiement de cette technologie.

L'idée que cette machine puisse devenir plus intelligente que des humains, je pensais que ce serait dans 30 à 50 ans, voire plus. Aujourd'hui, je ne le pense plus

Geoffrey Hinton

Considéré comme l'un des pères de l'IA, Geoffrey Hinton connaît bien son sujet. Il est le créateur des algorithmes dits de rétropropagation, outils avec lesquels il a réussi à concevoir, en 2012, un réseau de neurones artificiels, appelé AlexNet, capable de reconnaître des objets et des animaux avec seulement 26% d'erreurs. C’est notamment grâce à ses travaux que des robots conversationnels, tels que ChatGPT d’OpenAI ou Bard de Google, ont récemment pu voir le jour. Dans une interview accordée au New York Times, le chercheur canadien, aujourd’hui âgé de 75 ans, fait son mea culpa

"Il est difficile de voir comment on peut empêcher les mauvais acteurs de l'utiliser à des fins malveillantes", s’alarme le chercheur, évoquant la course mondiale à ces outils depuis l’irruption fracassante de ChatGPT, qui a conduit Google à déclencher un "code rouge", après que son grand rival Microsoft a intégré l’outil d’OpenAI à son moteur de recherche. "Je me console avec l'excuse habituelle : si je ne l'avais pas fait, quelqu'un d'autre l'aurait fait", se justifie celui qui a travaillé chez le géant américain pendant plus de dix ans pour développer cette technologie. 

Lire aussi

À l'entendre, la bataille féroce que se livrent actuellement les géants de la Tech pour dominer ce marché risque d’aboutir à un monde où plus personne ne sera en mesure de démêler le vrai du faux. À plus long terme, il craint que l'IA n'élimine les emplois routiniers, voire l'humanité elle-même lorsqu'elle commencera à écrire et à exécuter son propre code. "L'idée que cette machine puisse devenir plus intelligente que des humains, je pensais que ce serait dans 30 à 50 ans, voire plus. Aujourd'hui, je ne le pense plus", souligne-t-il.

Le directeur scientifique de Google, Jeff Dean, a tenu à rassurer. "Nous restons attachés à une approche responsable de l'IA. Nous apprenons continuellement à mesurer les risques émergents tout en innovant avec audace", assure-t-il, cité par le site américain The Verge. Dans la foulée, Geoffrey Hinton a tenu à clarifier sa position. "Dans le NYT d'aujourd'hui, Cade Metz [le journaliste qui l'a interviewé] laisse entendre que j'ai quitté Google pour pouvoir les critiquer. En fait, je suis parti pour pouvoir parler des dangers de l'IA sans tenir compte de l'impact de mes propos sur Google. Google a agi de manière très responsable", écrit-il sur son compte Twitter.


Matthieu DELACHARLERY

Tout
TF1 Info