Lorsqu’on lui demandait comment il pouvait travailler sur une technologie potentiellement dangereuse, il avait l’habitude de paraphraser Robert Oppenheimer, qui dirigea les efforts des États-Unis pour construire la bombe atomique: «Lorsque vous voyez quelque chose de techniquement intéressant, vous allez de l’avant et vous le faites». Aujourd’hui, il ne le dit plus.
Sa préoccupation immédiate est que l’internet soit envahi de fausses photos, vidéos et textes, rendant difficile pour le citoyen moyen de discerner ce qui est vrai.
Il craint aussi que les technologies d’IA bouleversent le marché du travail à long terme. Des IA comme ChatGPT complètent actuellement les travailleurs humains, mais pourraient remplacer les assistants juridiques, les assistants personnels, les traducteurs et d’autres professions impliquant des tâches routinières.
«Il y a concordance dans tous leurs avertissements. Nous ne pourrons pas dire que nous n’avons pas été prévenus.»
À plus long terme, Hinton redoute que les futures versions de la technologie ne menacent l’humanité, car elles apprennent souvent des comportements inattendus en analysant de vastes quantités de données. Ce problème s’accentue lorsque les individus et les entreprises permettent aux systèmes d’IA de générer et d’exécuter leur propre code informatique. Il craint l’avènement d’armes véritablement autonomes - des robots tueurs.
Hinton pense que la rivalité entre Google, Microsoft et d’autres entreprises pourrait se transformer en une course mondiale incontrôlable sans réglementation internationale.
L’espoir réside dans la collaboration entre les plus grands scientifiques du monde pour trouver des moyens de contrôler l’IA. Hinton estime qu’il ne faut pas développer davantage cette technologie avant de comprendre comment la contrôler.
Fin mars, plus de 1 000 leaders technologiques, chercheurs et autres experts travaillant dans le domaine de l’intelligence artificielle ont signé une lettre ouverte avertissant que les technologies d’intelligence artificielle présentent «des risques profonds pour la société et l’humanité», exhortant les laboratoires à interrompre le développement de leurs systèmes les plus puissants pendant six mois afin de mieux comprendre les dangers qui se cachent derrière la technologie.
Les cofondateurs du Center for Humane Technology, Tristan Harris et Aza Raskin, sont partis en campagne avec une vidéo intitulée «The IA Dilemma», pour mettre en garde contre le danger de l’intelligence artificielle, «aussi redoutable que celui des armes nucléaires».
Et il y a un mois, dans le New York Times, le philosophe et historien Yuval Harari a cosigné un éditorial sur l’urgence de maîtriser l’IA, abordant les enjeux et les risques pour l’avenir de l’humanité.
Il y a concordance dans tous leurs avertissements. Nous ne pourrons pas dire que nous n’avons pas été prévenus.
Vous avez trouvé une erreur?Merci de nous la signaler.
Innovation – Le «pionnier de l’IA» quitte Google et évoque ses dangers
Durant cinquante ans, Geoffrey Hinton, le nom le plus vénéré de l’intelligence artificielle, surnommé le parrain de l’IA, a travaillé sur le développement de la technologie au cœur des robots conversationnels tels que ChatGPT. Désormais, il partage dans le New York Times ses inquiétudes sur les conséquences néfastes qu’elle pourrait engendrer.