Bilan

L’intelligence artificielle, du fantasme à la réalité

Prise de pouvoir des machines, disparition du travail humain: une majorité de scientifiques rejettent aujourd’hui ces hypothèses. La manipulation des algorithmes est toutefois déjà à l’œuvre.

  • Les algorithmes de reconnaissance faciale deviennent ultraperformants. Inquiétant?

    Crédits: Colin Anderson/Getty Images
  • Yann LeCun, chargé de l’intelligence artificielle chez Facebook.

    Crédits: Valdemar Verissimo
  • Le 3 octobre, l’Empowerment Summit à Lausanne a réuni de grands experts mondiaux de l’IA.

    Crédits: Verissimo
  • Laura Tocmacov, de la fondation genevoise impactIA.

    Crédits: ImpactIA

Malgré ses déboires récents, sa voix reste entendue dans la Silicon Valley et continue à résonner dans le reste du monde. Elon Musk, leader charismatique entre autres de Tesla et de Space X, s’est fait le porte-voix d’un doute grandissant sur l’intelligence artificielle (IA), qui dépeint en la technologie et sa progression exponentielle un danger potentiel pour la survie de l’humanité. L’entrepreneur estimait, fin 2017, que «les efforts pour faire en sorte que l’IA soit sûre avaient 5 à 10% de chances de réussir», réaffirmant par là même sa prédiction antérieure sur l’existence d’«un risque que quelque chose de très dangereux se produise dans les cinq ans à venir. Dix ans tout au plus.» 

Au cœur des préoccupations, la singularité, concept prévoyant un emballement du progrès technologique et pouvant conduire à l’avènement d’une intelligence suprahumaine, qui disposerait de capacités autonomes pour s’améliorer. La fameuse loi de Moore – constat empirique d’un doublement des capacités des superordinateurs tous les dix mois – est au cœur de l’argumentaire des tenants de l’hypothèse, qui s’expriment lors de conférences ou encore de l’Université de la singularité, think tank californien à vocation semi-académique. 

«Promesses gonflées par des opportunistes»

Yann LeCun, chargé de l’intelligence artificielle chez Facebook, était présent le 3 octobre à Lausanne à l’Empowerment Summit, qui réunissait certains des plus grands spécialistes mondiaux de la question. Son jugement est sans appel: «La singularité n’arrivera probablement jamais, car rien n’est exponentiel à l’infini, pas même l’augmentation de la capacité de traitement des machines. Rien qu’atteindre l’intelligence du rat est une question de décennies, peut-être de siècles.» Une analyse appuyée par d’autres chercheurs comme Zachary Lipton, professeur assistant à la Carnegie Mellon University, encore plus critique sur la question: «Le problème est que les promesses de l’intelligence artificielle sont aujourd’hui gonflées par des opportunistes.» 

Il concède qu’il y a «des avancées importantes, mais elles sont survendues et déclenchent maintenant une ruée vers l’or. Que ce soit pour des intérêts commerciaux, financiers ou simplement pour se mettre en avant, une armée d’influenceurs qui n’ont bien souvent jamais produit une ligne de code eux-mêmes dissertent sur l’intelligence artificielle.»

Derrière les effets de communication, l’intelligence artificielle a connu des progrès sensibles, avec notamment le passage du machine learning au deep learning. Pour comprendre, prenons 300 photos de visages et demandons à la machine de reconnaître les 130 qui ont les yeux bleus. 100 sont reconnus. On prend les 30 cas d’erreurs, on essaie de comprendre ce qui n’a pas fonctionné et on modifie manuellement les paramètres. On refait la même expérience, puis on remodifie, ainsi de suite jusqu’à obtenir un taux de succès satisfaisant. C’est le machine learning.  

Avec le deep learning, on effectue la même itération, à la différence près que c’est la machine qui se reparamètre seule, en fonction des retours des humains (ici, 30 erreurs au premier jet). 

L’avantage est double: d’une part, la machine retravaille après chaque série une quantité de paramètres bien supérieure à ce que le programmeur pourrait envisager, d’autre part, elle s’améliore sans cesse, même en situation d’utilisation concrète, par exemple en entreprise ou en hôpital, sans l’intervention d’un informaticien.

Encore loin du sens commun humain

Parmi les applications à l’efficacité déjà avérée, le conseil sur les marchés financiers ou encore le médical. La société informatique ELCA travaille notamment avec l’intelligence artificielle sur des chatbots ainsi que sur de la compliance bancaire. Son COO Ferruccio Lagutaine relève la supériorité du deep learning dans l’imagerie: «Un test a été réalisé avec une machine entraînée à détecter des grains de beauté susceptibles de devenir des tumeurs. Après plusieurs milliers de cas, la machine obtenait 89% de bonnes réponses, quand les meilleurs spécialistes n’en identifiaient que 79%. L’IA peut donc faire mieux que l’être humain sur des tâches précises.»

Si le deep learning démontre son efficacité et pourrait rapidement remplacer l’homme sur un certain nombre de tâches (voir encadré), il inquiète certains spécialistes comme Zachary Lipton: «Nous ne comprenons pas encore entièrement la manière dont les programmes de type deep learning reconnaissent des caractéristiques. Or, en même temps, la capacité à développer des logiciels s’est largement répandue. Vous avez des millions d’ingénieurs en logiciels qui deviennent capables d’appliquer ces outils de l’intelligence artificielle sans avoir besoin de comprendre comment ils fonctionnent. A mon avis, c’est prendre un risque énorme, particulièrement avec des applications comme les voitures autonomes. Parce que si l’on ne comprend pas comment ces programmes fonctionnent, le risque est qu’ils prennent de mauvaises décisions.»

Ces craintes de perte de contrôle pourraient encore grandir, sachant que les chercheurs essaient aujourd’hui de dépasser le deep learning pour créer des machines qui progresseraient d’elles-mêmes, sans avoir besoin du feed-back humain. Ce «self supervised learning» travaille sur l’écart entre la réalisation d’un événement et la prédiction de celui-ci, c’est-à-dire à imiter le processus d’apprentissage autonome de l’être humain. Un enfant qui fait tomber pour la première fois une balle par terre est surpris par le rebond, parce qu’il a intégré au préalable qu’un objet qui chute s’arrête au contact du sol. Il modifie seul son référentiel, à partir de cette prédiction non réalisée, sans que l’on ait besoin de lui expliquer quoi que ce soit. 

Arriver à ce niveau d’intelligence, qui demande une compréhension fine de l’environnement, requiert pour la machine l’assimilation d’une quantité largement supérieure de données, et une capacité de traitement plus avancée. Pour Yann LeCun, impliqué dans ce type de projets, «nous avançons sur cette piste, mais la machine est encore très loin de reproduire ce bon sens commun». 

Manipulation des algorithmes

En l’état actuel des choses, la machine doit donc encore être «formée» sur la base de données fournies par l’homme. Avec une difficulté à fournir une base de données non biaisée, que relève Ferruccio Lagutaine, d’ELCA: «Il y a une vingtaine d’années, les Etats-Unis ont mitraillé de photos le sol russe pour identifier les sites de missiles balistiques. Il y avait trop de photos, on a entraîné une intelligence artificielle à détecter la présence de missiles en lui montrant des séries de clichés. Tous ces clichés ayant été pris en février, l’intelligence artificielle ne reconnaissait que le mauvais temps, nuages ou neige… et pas les missiles.» La quantité de données numérisées disponibles est aussi un frein pour l’apprentissage de la machine, comme le relève Yann LeCun, de Facebook: «Le fait que la base de données comprend 85% de morphotypes blancs, 10% de Noirs et 5% d’Asiatiques fait que la reconnaissance faciale de Facebook est sensiblement plus efficace pour les Blancs.» 

Au-delà des limites techniques, les données sont également la porte d’entrée à la manipulation d’algorithmes à des fins lucratives ou politiques. En septembre, Amazon a ouvert une enquête interne contre certains de ses employés suspectés d’avoir rentré des données afin que l’algorithme recommande davantage certains produits auprès des usagers du site. Un procédé supposément utilisé également par les Russes pour peser sur les résultats de l’élection présidentielle américaine via Twitter et Facebook. Yann LeCun admet que «la manipulation d’algorithmes via les données est déjà une réalité». Une réalité qui s’ajoute aux doutes sur la capacité des grands collecteurs de données à sécuriser celles exploitées par les programmes, comme l’a illustré le hacking de 50 millions de comptes Facebook début octobre.

Si la prise de pouvoir par la machine n’est pas à l’ordre du jour, c’est donc bien l’utilisation de l’intelligence artificielle par l’homme lui-même qui suscite le plus de craintes, comme l’a rappelé lors de l’Empowerment Summit à Lausanne, Olivier Bousquet, chef de la recherche en machine learning de Google Europe: «Le fait que le deep learning est une technologie plus adaptable en fait aussi une technologie plus manipulable. Chez Google, nous condamnons l’utilisation militaire de l’intelligence artificielle, mais on ne peut pas empêcher les gens de faire un usage négatif de la technologie. On peut en revanche tenter de le prévenir, en posant un cadre régulatoire, et par le biais d’accords.» 

Joan Plancade
Joan Plancade

JOURNALISTE

Lui écrire

Diplômé du master en management de l’Ecole supérieure de Commerce de Nantes, Joan a exercé pendant sept ans dans le domaine du recrutement, auprès de plusieurs agences de placement en France et en Suisse romande. Collaborateur externe pour Bilan, Il travaille en particulier sur des sujets liés à l’entreprise, l’innovation et l’actualité économique.

Du même auteur:

Les sociétés de conseil rivalisent avec l’IMD
Comment la sécurité se déploie aux frontières entre la France et la Suisse

Les newsletters de Bilan

Le cercle des lecteurs

Le Cercle des Lecteurs est une plate-forme d'échanger sur tout ce qui touche votre magazine. C'est le reflet de vos opinions, et votre porte-parole le plus fidèle. Plus d'info


Image Footer

"Tout ce qui compte.
Pour vous."