Bilan

«Le machine learning devient le moteur de Google en Suisse»

Comprendre les enjeux autour de l’intelligence artificielle au travers de ceux qui la font. C’est le thème de cette nouvelle série qui démarre par un entretien avec Emmanuel Mogenet, directeur de la recherche de Google Research Europe à Zurich.
  • Directeur de Google Recherche à Zürich, Emmanuel Mogenet a recruté plus 100 collaborateurs en six mois pour constituer un centre d'excellence en machine learning.

    Crédits: DR
  • Occupant deux immeubles et employant 2000 personnes à Zurich, Google prévoit de s'étendre sur sept immeubles supplémentaires et de recuter de l'ordre de 5000 personnes dont beaucoup dans le domaine de ll'apprentissage automatique. 

    Crédits: DR

Dans le domaine du numérique, l’intelligence artificielle vient de connaître une accélération avec les technologies dites de machine et de deep learning. Potentiellement, ces technologies de l’information pourraient avoir un impact comparable à celui du web il y 20 ans.

Lire aussi: Pourquoi le "Deep Learning" révolutionne l'intelligence artificielle

Pour décrypter ces enjeux, les lecteurs de Bilan pourront retrouver une série sur les principales applications pratiques de l’intelligence artificielle dans nos numéros en kiosque (premier épisode cette semaine sur le tourisme et les voyages). En parallèle, Bilan inaugure une série d’interviews des principaux experts mondiaux de cette technologie sur le web, en commençant par le patron de la recherche de Google à Zurich.

Formé à l’Ecole des Mines, en France, Emmanuel Mogenet, 49 ans, a fait sa carrière principalement dans le domaine des images de synthèse et du computer graphics. Après l’Asie pour des groupes telles que Thomson CSF, Nihon-I-Tec puis Sony. Avec deux ammis, il créé à Los Angeles, en 1996, une start-up : Nothing Real. Elle va devenir centrale dans le monde des effets spéciaux, de Johnny Mnemonic au Seigneur des Anneaux.

Après le rachat en 2002 par Apple de Nothing Real, Emmanuel Mogenet passe quatre ans au sein de la firme de Cupertino à développer des outils de gestion d’images. En 2006, il est recruté par Google à qui il exprime son envie de rentrer en Europe. C’est ce qui le conduit à Zurich où il va d’abord monter un groupe de 300 personnes pour déployer les data centers de l’entreprise. Une gageure selon lui, puisque que «Google vise les moins de 0,25 seconde d’attente pour la réponse à une requête alors que la moitié de l’humanité qui utilise interne se connecte au moteur de recherche 3 à 5 fois par jour en moyenne».

A partir de 2009, il prend la tête de l’équipe qui développe le moteur de recherche avant de prendre celle de la nouvelle entité Google Research Europe basée à Zurich. Entretien.

En juin dernier, Google a annoncé la création à Zurich de son premier laboratoire de recherche en apprentissage automatique. Pourquoi cette initiative ?

Jusqu’à présent, nous avions ici 2000 ingénieurs en R&D, mais ils faisaient principalement du «D», du développement et de l’ingénierie. Nous n’avions pas vraiment de «R» de recherche en Suisse, et d’ailleurs en Europe de manière générale. Or, tant du point de vue tactique que stratégique, il est essentiel que nous développions cette ressource ici.

Commençons par le point de vue tactique.

Et bien dans la recherche des meilleurs talents, en particulier dans le domaine de l’apprentissage automatique, vous avez une dimension diaspora. D’un côté, vous avez des Européens installés dans la Silicon Valley qui, comme moi, souhaitent revenir pour des raisons familiales ou autres. C’est très important de pouvoir les accueillir dans une structure au niveau et culturellement proche de la Silicon Valley. De l’autre, vous avez tous ceux qui ne peuvent pas aller aux Etats-Unis et que nous pouvons attirer ici. C’est ce que nous avons fait ces derniers mois avec un groupe de recherche en intelligence artificielle qui connaissait une forte croissance pendant ces dernières six mois, avec déjà plus de cent collaborateurs en ce moment ici à Zurich.

Développer la recherche signifie-t-il aussi plus de collaborations avec les universités ?

Effectivement. L’intelligence artificielle dans sa version machine et désormais deep learning est un domaine assez neuf qui a émergé en 2005-2006, avec d’une part l’augmentation de la puissance de calculs des puces graphiques, mais aussi la disponibilité de grandes quantités de données. Cette jeunesse du domaine signifie que les gens les plus pointus sur le sujet sont en doctorat et qui plus est dans un petit nombre d’universités :l’EPFZ et l’EPFL, l’INRIA en France, le DFKI et le Max Planck Institute en Allemagne, l’Université d’Aachen ainsi qu’Oxford et Cambridge. Ce sont ces centres qui produisent les talents qui rendent possibles les collaborations de recherche.

Sur quel sujet par exemple ?

L'apprentissage automatique actuel requiert d’énormes quantités de données et donc des infrastructures massives. Peu surpassent celles de Google. Mais en même temps, le machine learning consomme déjà 15% de la puissance de calcul de Google. D’où la nécessité d’améliorer les centres de données, d’autant que l’on va vers des services cloud en machine learning. De l’intelligence artificielle à la demande si vous voulez.

Quid de la motivation stratégique ?

Le nombre d’articles de recherche sur le machine learning est déjà plus important en Chine qu’aux Etats-Unis, et l’Europe est encore plus en retard. Alors que ces technologies sont transformatrices pour la société et le substrat économique. Comme internet il y a 20 ans, le machine learning change complètement les règles du jeu. Il y a par exemple l’idée d’industrie 4.0 dans le manufacturing avec la disparition progressive du «manu»… L’idée est donc d’amener l’expertise en machine learning ici. 

Et bien sûr de mettre Google au centre de cette transformation…

Les gens nous voient comme une entreprise très secrète. A l’interne, c’est l’opposé. Nous partageons beaucoup ce que nous faisons. Via des plateformes en open source comme GitHub, nos nouvelles technologies sont rendues publiques six mois après leur mise au point. Dans le cas de TensorFlow (un logiciel d’apprentissage automatique, ndlr.), notre groupe de recherche a même publié immédiatement ses résultats. Notre philosophie est que, dès que nous avons intégré une innovation, nous la partageons.

Google a racheté la start-up britannique Deepmind, connue pour avoir battu les grands maîtres du go avec une intelligence artificielle. Comment allez-vous collaborer avec elle ?

Deepmind a fait le pari de résoudre la question de l’intelligence. Il ne s’agit pas tant de passer le test de Turing (au cours duquel une intelligence artificielle doit prouver à un humanin qu'elle n'est pas qu'une machine, ndlr.) que de construire des outils pour décupler la capacité du cerveau humain. Des exosquelettes du cerveau si vous voulez.

Du coup, eux placent le curseur beaucoup plus loin que nous. À dix ans au moins, et aussi avec beaucoup plus de risques. Nous nous situons entre eux et les ingénieurs dont l’horizon est souvent le trimestre. En tant que laboratoire de recherche appliquée, un peu sur le modèle des Bell Labs, nous visons des résultats à un ou deux ans avec un impact sur les produits.

Concrètement sur quoi vont travailler les chercheurs de Zurich?

Trois choses. La première tourne autour de la compréhension du langage naturel en collaborant avec l’équipe qui construit le moteur de recherche afin de le faire évoluer. A bien des égards, la compréhension du langage naturel c’est notre «core business». Et si vous résolvez la question du langage, vous résolvez le problème de l’intelligence artificielle. Mais on n'en est pas encore là.

Aujourd’hui, si vous demandez à votre smartphone quelque chose comme : "OK Google, est-ce qu’il fera nuit quand j’arriverais chez moi ?", nous comprenons à peine la question. Et, la réponse n’est pas dans des liens internet. Pourtant, on a toutes les informations pour répondre. Par la situation GPS, on sait où la personne habite, l’heure qu’il est, son itinéraire, le trafic, la météo… Pour répondre, nous devons donc aller d’abord vers la compréhension sémantique de la question. Le but ultime, c’est de permettre une conversation en langage naturel avec une intelligence artificielle. C’est le futur du moteur de recherche Google.

Quel chemin allez-vous emprunter?

Cela passe par ce qui constitue notre deuxième pôle de recherche : une base de données du sens commun qui est au cœur de notre compréhension mutuelle entre humains. Cela impose de créer un modèle similaire au monde dans lequel nous vivons. Pour que les ordinateurs comprennent, le langage naturel, il faut créer cette base de données du sens commun que les humains acquièrent par observations et interactions avec le monde réel.

Le machine learning met l’ordinateur face à des quantités phénoménales d’images, si vous songez par exemple aux vidéos de YouTube. A partir de là, on peut comprendre sémantiquement ces images pour construire cette base de données qui deviendra le support du langage naturel. C’est le fait que ce qui est identifié comme voiture sera souvent associé à une route, une vache à une prairie, etc. Il est probable que d’ici 4 à 5 ans, l’apprentissage de cette perception du monde par les ordinateurs va déboucher sur la compréhension sémantique du monde.

Vous avez évoqué un troisième pôle, de quoi s’agit-il ?

Purement de machine learning. Jusqu’à récemment, la programmation consistait en une description trés détaillée des possibilités. Le machine learning évite cette description. On montre un million d’images de maison à un ordinateur et il sait reconnaître ensuite une maison dans n’importe quelle nouvelle image. Ça marche, mais on ne sait pas vraiment comment ça marche.  En particulier, la question de savoir quel système prend la décision pour déterminer si ce qu’il voit est un chat, mais pas un tigre ou un lion, reste une boîte noire.

Si ça marche, est-ce si important de comprendre pourquoi ?

Le machine learning est une science très empirique. Aujourd’hui, elle encore est au niveau de l’alchimie. Nous  voulons le faire passer à celui de la chimie. Pour cela, nous avons besoin d’une théorie qui explique pourquoi cela marche. C’est important pour progresser, mais aussi pour offrir un certain nombre de garanties, par exemple dans le domaine de la fiabilité du diagnostic médical ou de la reconnaissance vocale.

Fabrice Delaye
Fabrice Delaye

JOURNALISTE

Lui écrire

Fabrice Delaye a découvert Internet le 18 juillet 1994 sur les écrans des inventeurs du Web au CERN. La NASA diffusait ce jour-là les images prises quasi en direct par Hubble de la collision de la comète Shoemaker-Levy sur la planète Jupiter…Fasciné, il suit depuis ses intuitions sur les autoroutes de l’information, les sentiers de traverse de la biologie et étend ses explorations de la microélectronique aux infrastructures géantes de l’énergie.

L’idée ? Montrer aux lecteurs de Bilan les labos qui fabriquent notre futur immédiat; éclairer les bases créatives de notre économie. Responsable de la rubrique techno de Bilan depuis 2006 après avoir été correspondant de L’Agefi aux Etats-Unis en association avec la Technology Review du MIT, Fabrice Delaye est diplômé de l’Institut d’Etudes Politiques de Paris et de l’EPFL.

Membre du jury des SwissICT Awards, du comité éditorial de la conférence Lift et expert auprès de TA-Swiss à l’Académie Suisse des Arts et des Sciences, Fabrice Delaye est l’auteur de la première biographie du président de l’EPFL, Patrick Aebischer.

Du même auteur:

«Le prochain président relèvera les impôts»
Dubaï défie la crise financière. Jusqu'à quand'

Les newsletters de Bilan

Le cercle des lecteurs

Le Cercle des Lecteurs est une plate-forme d'échanger sur tout ce qui touche votre magazine. C'est le reflet de vos opinions, et votre porte-parole le plus fidèle. Plus d'info


Image Footer

"Tout ce qui compte.
Pour vous."