Toni Conde

CEO DE PERSONALCARE SYSTEMS

Passionné depuis son plus jeune âge par les nouvelles technologies, Toni Conde est docteur ès sc. de l’EPFL et EMBA en Innovation et Entrepreneuriat. Toni est l’inventeur d’une nouvelle architecture cognitive. Cette dernière a été développée au cours de ses recherches à l’EPFL, il a été récompensé par le prestigieux Prix de la Ville de Lausanne.

Après avoir fondé deux start-up dont une spin-off de l’EPFL et les avoir vendues à un grand groupe européen d’ingénierie, Toni en est à sa 3ème expérience de création d’entreprise et dirige en tant qu’entrepreneur social : PersonalCare Systems, dont la mission et de compenser la perte d'autonomie des personnes âgées et d'offrir un maintien à domicile en toute sécurité. Il est lauréat des concours et prix d'entrepreneuriat : Graines de Boss, Nomads Foundation et HPE Start-up program.

Pour Toni, les technologies ne sont pas une fin en soi et n’ont de sens que pour l'amélioration du quotidien des gens. Enthousiasmé par les possibilités des nouvelles technologies et leur impact sur la société, et comme expert en réalité virtuelle, intelligence artificielle et science des données, principaux sujets qu'il aborde sur Bilan.ch en essayant de les vulgariser. Il est aussi l’auteur du livre « Humains Virtuels » paru en 2015.

L’interprétation de l’intelligence artificielle

Souvent il m’est demandé de réagir à froid mais de manière réfléchie sur la thématique particulièrement sensible qu’est l’interprétation (ou l’explicabilité) de l’intelligence artificielle. Cependant, malgré leur précision, ces outils ou algorithmes d’apprentissage restent souvent des « boîtes noires » dont les décisions sont difficiles à interpréter et à évaluer sur le plan de la performance et de l’éthique.

L’intelligence artificielle (IA) tend effectivement à s’imposer dans des processus de décision qui sont loin d’être anodins et qui reposaient hier principalement sur le savoir-faire humain: piloter, conduire, recruter, obtenir un crédit, etc. En même temps que notre société s’habitue à être constamment tributaire de l’IA (GPS, moteur de recherche, réseaux sociaux, etc.), l’incompréhension et la crainte grandissent face à des technologies dont on ne comprend pas le fonctionnement. Dans ma dernière chronique – « L’intelligence artificielle apprend, crée et prédit dans le domaine médical », nous aurions pu très bien avoir le scénario d’un modèle de diagnostic médical qui prédit le cancer chez un patient précédemment diagnostiqué comme étant en bonne santé par des experts médicaux. Dans tous ces cas, il est impératif de savoir pourquoi le système d’IA s’est comporté comme il l’a fait et comment il a pris ses décisions.

Quels sont les enjeux ?

Tout d’abord, on peut espérer que les avancées faites sur les questions de l’interprétation (ou de l’explicabilité) iront nourrir le débat de la responsabilité juridique des acteurs qui conçoivent, fabriquent et maintiennent un système basé sur l’IA. Par ailleurs, c’est la question de l’acceptation sociale de telles technologies qui se pose. Car, si l’humain accepte d’un autre humain des approximations cognitives et morales, il refuse à la machine d’appliquer rigoureusement des règles froides incompréhensibles. Peu importe qu’une voiture connectée soit fiable à 99.99 %, c’est le 0,01% restant qui concentrera l’attention et pour lequel des explications seront exigées. J’accepte éventuellement d’être sacrifié par un chauffeur pour sauver un enfant, mais sûrement pas sans savoir pourquoi !

Pour autant, l’enjeu de l’interprétation (ou l’explicabilité) ne se joue pas exclusivement sur le terrain de la confiance et de l’éthique. Comme tout produit ou service, l’IA est le produit d’une chaîne de production qui implique, bien entendu, le consommateur final (cybercitoyen, client, etc.) mais également de multiples acteurs et intervenants : recherche et développement, modélisation, intégration dans les processus techniques et humains.

Dans les secteurs de la banque et de la santé par exemple, cette tendance est même régie par des normes réglementaires particulièrement strictes pour des processus clés comme l’attribution de crédit ou le diagnostic médical. En effet, dans le nouveau règlement général sur la protection des données par l’Union européenne - RGPD/GDPR et, conformément à son article 22 – « La personne concernée a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l’affectant de manière significative de façon similaire. »

Cette nouvelle réglementation européenne impose donc :

  • La définition de l’utilité et de la finalité d’un traitement de la donnée. Ainsi, tous les traitements intermédiaires doivent pouvoir être justifiés ou du moins vérifiés. Or ceci est beaucoup plus complexe pour une IA de type « boîte noire ».
  • L’anonymisation des données dans un certain nombre de cas. Cependant, cela peut s’avérer insuffisant pour assurer la confidentialité des données. Par exemple, il est possible d’identifier un patient à partir de données de suivi médical anonymisées. De manière générale, une IA de type « boîte noire » peut reconstituer une partie des données anonymisées à partir d’autres données grâce au brassage présenté précédemment.

En outre, la récente adoption de ce règlement général sur la protection des données par l’Union européenne a créé une discussion autour du droit à l’explication pour la prise de décision par l’IA ayant une incidence sur les cybercitoyens européens. Pour être conformes à ces exigences réglementaires, les modèles d’IA doivent comprendre une certaine notion d’explication dans leur processus de création.

De plus, sans un souci accru d’interprétation (ou de l’explicabilité), les modèles continueront à converger vers des résultats statistiquement précis mais manquant de robustesse. C’est cette faiblesse qui est souvent exploitée dans le cadre de cyberattaques pour tromper une IA. Par exemple, il est possible de faire des modifications imperceptibles pour l’Homme sur une image qui, en revanche, duperont une machine …

De plus en plus, nous sommes tous tributaires de l’IA (GPS, moteur de recherche, réseaux sociaux, etc.). Crédits : Shutterstock.

L’interprétation (ou l’explicabilité)

L'IA explicable ou XAI (eXplainable Artificial Intelligence) est une forme d'IA prévue pour décrire son objet, sa logique et sa prise de décision de manière intelligible à une personne lambda. Elle est souvent évoquée de pair avec l'apprentissage profond ou « deep learning » décrit dans ma première chronique. La XAI renseigne globalement sur la prise de décision d'un programme d'IA en dévoilant :

  • Les points forts et les faiblesses
  • Les critères précis retenus pour arriver à une décision
  • Les motifs qui l'ont conduit à telle décision plutôt qu'à d’autres
  • Le niveau de confiance approprié selon les différents types de décision
  • Les types d'erreur qu'elle est susceptible de commettre
  • La façon de corriger les erreurs

Un des grands objectifs de la XAI est la redevabilité/responsabilité algorithmique. Jusqu'à maintenant, les systèmes d'IA ont été par essence des « boîtes noires ». Si on en connaît les données en entrée et en sortie, les algorithmes qui mènent à une décision sont généralement propriétaires ou peu intelligibles, même quand les mécanismes de logique internes sont accessibles gratuitement en open source.

Étant donné que l'IA est de plus en plus répandue, il est plus que jamais important de savoir comment traiter les distorsions et la question de la confiance.

Maintenir son contrôle sur les prédictions et assurer un traitement éthique

Accorder le contrôle de la prédiction et de la décision à une « boîte noire » comporte des risques de sécurité car il devient complexe de détecter les écarts de performance du modèle après sa mise en production. L’interfaçage du modèle devient alors nécessaire pour contrôler le modèle ainsi que pour assurer un niveau de sécurité plus élevé pour éviter les piratages ou cyberattaques.

Ce travail de sécurisation permet également d’assurer un suivi pour s’assurer que les traitements effectués par la machine demeurent éthiques et conformes avec la règlementation RGPD/GDPR. Cette stabilité et confiance dans les résultats sont des facteurs cruciaux pour une bonne adoption d’un outil d’IA et une responsabilisation des acteurs sur l’ensemble du cycle de vie de l’application.

En répondant à ce défi de performance par la transparence, l’IA pourrait devenir un outil fiable pouvant objectiver des décisions et pallier certains biais humains. Car, s’il devient de plus en plus difficile de penser innovation de rupture sans implication de l’IA, son acception au sein de la société et des entreprises ne pourra se faire que par une plus grande transparence.

Du même auteur

Les newsletters de Bilan

Le cercle des lecteurs

Le Cercle des Lecteurs est une plate-forme d'échanger sur tout ce qui touche votre magazine. C'est le reflet de vos opinions, et votre porte-parole le plus fidèle. Plus d'info


Image Footer

"Tout ce qui compte.
Pour vous."