L’IA au service de la bêtise humaine
L’intelligence artificielle – et singulièrement l’une de ses techniques, le deep learning – a incontestablement fait des progrès. Mais le sujet est aussi devenu la machine à sensations d’une armée de pseudo-experts dont l’influence virale est inversement proportionnelle à la compétence. Du coup, les scientifiques du domaine donnent de la voix (lire page 12) afin d’éviter que cette comm basée sur la sidération ne débouche sur des idioties.
D’abord, ils expliquent qu’on ne comprend pas entièrement ce qui se passe dans la boîte noire du deep learning. Ils ont par exemple découvert que la distinction d’un de ces programmes entre des images de loups et de chiens reposait en fait sur la présence ou non de neige en arrière-fond. Est-on certain de vouloir laisser le diagnostic de patients ou la conduite d’une voiture à des programmes dont on ignore comment ils prennent une décision? Ou si le big data qu’ils traitent est biaisé?
Le second dommage collatéral de cette IA spectacle est qu’elle empêche les décideurs d’effectuer des choix éclairés. Eux aussi sont victimes de ces pièges à clics qui ont transformé un article scientifique qui décrivait un bug en une rumeur d’invention de leur propre langage par des IA de Facebook. A quoi s’ajoutent des fraudes. L’IA est si attractive que certaines startups n’hésitent pas à faire passer pour des chatbots des conversations en réalité menées par des humains.
Certes, l’IA va augmenter les capacités humaines (et vice versa). Mais en gonflant son potentiel d’automatisation, ses zélateurs nous prennent pour des imbéciles qui ne voient pas que ces technologies servent aussi (surtout?) à nous cerner comme consommateurs.