Pourquoi l’IA est-elle si stupide ? (Why is AI so dumb?)

Il y a quelques semaines, le magazine IEEE Spectrum publiait un dossier spécial au titre très évocateur : « Why is AI so Dumb? ». La question n’est pas nouvelle, dans ma carrière j’ai eu l’occasion de recevoir des questions similaires de plus d’un client et je n’ai probablement pas donné une réponse aussi bonne que celle de l’article, donc je pense qu’il est intéressant de partager certains points à partir de cela.

En premier lieu, nous pouvons souligner que, comme dans tant d’autres secteurs, l’histoire se répète. Depuis que John McCarthy a inventé le terme intelligence artificielle en 1956, il y a eu des printemps et des hivers dans l’IA. Les années 1970 et 1980 ont eu leurs périodes d’enthousiasme suivies de déceptions, soit parce que les algorithmes n’étaient pas assez «intelligents», parce qu’il était difficile de créer des systèmes vraiment «experts», soit parce que le coût du matériel rendait les projets irréalisables.

Dans mon parcours professionnel, j’ai eu l’occasion de vivre l’ère de la TVA (Intelligent Video Analytics), qui finalement n’était pas aussi intelligente que son nom semble l’indiquer. Cette promotion technologique était soutenue par un type particulier de matériel, le DSP, par exemple le Davinci de Texas Instrument. Je me souviens bien des attentes générées par les grandes marques internationales, et de la déception qui s’en est suivie, avec les conséquences qu’elle a eues sur l’ensemble du marché du traitement vidéo. Dans une large mesure, tout cela a été oublié, tout comme la stigmatisation que l’acronyme AI a porté pendant des décennies. Aujourd’hui, il semble qu’ils brillent à nouveau et qu’ils puissent s’exhiber sans crainte, du moins pour l’instant.

Pour avoir une meilleure idée de la façon dont les systèmes d’IA actuels sont « intelligents », le rapport commente 7 échecs révélateurs. Le premier est appelé « fragilité » qui se traduit par fragilité et peut être expliqué avec un exemple graphique. Les meilleurs réseaux de « Deep Learning » n’hésiteraient pas à affirmer que la première image est un guépard et la seconde un tatou. Quand je vois des présentations qui prétendent que les caméras « intelligentes » fonctionnent comme le cerveau humain, cela me rappelle ces images, tout de même.

Le deuxième élément sur lequel les chercheurs soulignent est le biais intégré aux systèmes d’IA. En l’occurrence, ils commentent les découvertes sur les préjugés raciaux dans certains algorithmes du système de santé américain.

Le troisième bogue signalé est l’oubli catastrophique, la facilité surprenante avec laquelle les systèmes d’IA oublient les choses. C’est souvent une conséquence de la capacité d’apprentissage. Apprendre quelque chose à un système est vraiment délicat, uniquement comparable à ce qu’on appelle l’auto-apprentissage, deux armes de destruction massive dans le secteur de la sécurité. Un exemple que nous avons vu dans la myriade de « produits d’apprentissage en profondeur » est qu’ils sont tout simplement devenus incapables de détecter un intrus camouflé. Un drap, une boîte ou un parapluie suffisent aux amis des autres pour travailler tranquillement pendant des heures alors que les systèmes supposés « intelligents » considèrent qu’il ne se passe rien. Les systèmes d’il y a 20 ans étaient considérablement plus sûrs que la plupart des caméras « intelligentes » actuellement sur le marché.

Le quatrième échec est l’explicabilité. Encore une fois, ce sujet nous impacte pleinement. Si avec la technologie de génération précédente on avait parfois du mal à expliquer « pourquoi » un système l’avait détecté ou non, avec la nouvelle génération c’est parfois totalement impossible. En utilisant les images ci-dessus du guépard et du tatou, qui peut dire ce que les réseaux de neurones ont vu dans ces images pour déterminer avec une grande confiance la présence de ces animaux ? D’un point de vue appliqué au secteur de la sécurité, quelles recommandations peut-on donner aux installateurs pour qu’un système de Deep Learning fonctionne mieux ? En règle générale, plus la résolution de travail est élevée, plus le réseau de neurones aura d’informations pour pouvoir fonctionner, et donc on peut s’attendre à de meilleurs résultats. Mais bien sûr, plus de données signifie plus de calculs et généralement du matériel plus cher c’est un aspect qui rend notre solution DeepWall unique, la capacité d’analyser en HD sur du matériel rentable.

Le cinquième échec signalé par les chercheurs est la « quantification de l’incertitude ». Les systèmes d’IA peuvent montrer une certitude absolue sur certaines affirmations, même lorsqu’elles sont fausses. Toujours en prenant l’exemple du guépard, la certitude sur la présence de l’animal est dans de nombreux cas supérieure à 99 %. Le problème est que la certitude d’un système d’IA à de nombreuses reprises ne peut pas être prise en compte comme un élément de précision fiable. Ce type de panne a eu des conséquences tragiques dans les systèmes de conduite autonome, par exemple lorsqu’une Tesla est entrée en collision avec un camion.

Le sixième échec constaté est le manque de bon sens. L’application de systèmes d’intelligence artificielle pour la prévention des discours de haine a entraîné la censure d’articles ou de blogs portant précisément sur les segments de la population qu’elle est censée protéger. N’est-il pas normal que dans un salon de discussion pour noirs ou homosexuels ces mots soient utilisés à haute fréquence, sans impliquer aucune haine ?

Enfin, ils indiquent la faiblesse surprenante des systèmes d’IA pour résoudre des problèmes mathématiques supposés simples. Une expérience sur 12 500 problèmes de mathématiques au lycée a montré que les systèmes d’IA ne pouvaient résoudre correctement que 5% des problèmes.

L’un des plus grands experts mondiaux en intelligence artificielle, le professeur Yoshua Bengio, a affirmé que même avec toutes les améliorations des deux dernières décennies, nous ne sommes même pas proches de l’intelligence d’un enfant de deux ans. Vous avez probablement raison, mais cela ne doit pas être une raison de découragement. Si l’on considère que l’industrie a besoin d’outils capables d’automatiser les processus, l’opportunité est énorme. Rivaliser en intelligence avec les êtres humains n’est pas une exigence pour pouvoir automatiser des dizaines de tâches. Ce que nous avons compris jusqu’à présent comme le progrès, l’augmentation de la productivité dérivée de l’automatisation, a sans aucun doute un énorme allié dans les outils que nous avons appelés « Smart ». L’histoire nous apprend que l’adoption de ces innovations est un facteur critique pour l’avenir des entreprises et, dans certains cas, des nations.

Dr Eduardo Cermeno

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *