Tribune

Intelligence artificielle : Entre confiance et défiance, réalité et illusions… /Par : Younès Bennani

L’intelligence artificielle (IA) est le nouveau buzzword depuis 2017. Un générique marié à toutes les sauces. Par manque de connaissance du sujet de la part de certaines personnalités médiatiques, on lui fait dire tout et n’importe quoi. Ceci provoque une défiance au sein du grand public, et rend difficile un jugement lucide et serein.
En marge des discours technophiles, promettant bien des fictions, et des annonces technophobes, prédisant l’apocalypse, il existe une réalité bien éloignée de nombre de prophéties, complètement déconnectées des conclusions des scientifiques. Cette forte médiatisation surprend certains experts du domaine. Il est vrai que nous avons assisté à des résultats spectaculaires, en particulier avec les techniques à base du Deep Learning.
Mais au niveau scientifique, nous n’avons pas constaté une grande révolution. Ce sont les mêmes techniques et les mêmes algorithmes utilisés depuis les années 90. Ce retour en force est juste dû aux avancées algorithmiques, aux progrès technologiques et à la massification des données.
Le secret de ces résultats spectaculaires du Deep Learning se trouve particulièrement au niveau du codage et d’une expertise fine dans les architectures de ces systèmes. La façon de connecter les unités de ces réseaux, le nombre et la nature de couches, les fonctions de transition…
Contrairement à l’humain, ces systèmes nécessitent des zettaoctets de données pour apprendre une tâche précise et bien cadrée. Si l’on souhaite imiter vraiment l’apprentissage humain, je pense qu’il faut plutôt développer des systèmes d’apprentissage autonomes nécessitant très peu de données.
Pour reconnaître un chat, il faut présenter au système artificiel des milliers de photos de chats dans différents contextes. Et si l’image du chat est perturbée au niveau de certains pixels, l’IA risque de se tromper. A l’opposé, l’humain, même avec une petite partie de l’image du chat, est capable de le reconnaître.
Aujourd’hui, les résultats de l’IA sont impressionnants: mettre un nom en temps réel sur des visages capturés par une vidéosurveillance, des véhicules autonomes, une capacité d’analyse d’images médicales dépassant les performances des meilleurs experts du domaine, l’AlphaGo qui a supplanté tous les champions du jeu de Go ! La fameuse défaite du champion du monde d’échecs, Garry Kasparov, contre Deep Blue, Watson qui bat les humains au jeu télévisé Jeopardy!…
Tout cela est basé sur une IA dite «faible». Cette IA faible est puissante au niveau de la mémorisation, calcul, recherche et choix de décision. Elle n’est, cependant, pas consciente et n’a aucun sentiment, ni sens commun. AlphaGo a gagné contre les champions du monde, mais il n’en a pas conscience, il ne sait pas qu’il joue au Go, et il ne sait même pas qu’il existe!
Pour sa part, l’IA forte ressemble à celle de l’humain. Elle est dotée de conscience, et est capable d’émotions. Elle suscite la peur d’une supériorité sur l’Homme. Or, l’IA faible n’enfantera pas l’IA forte. La première est une réalité des scientifiques, tandis que la deuxième est une fiction et un fantasme des futuristes. Jusqu’à présent, on ne sait pas comment modéliser mathématiquement pour qu’une machine développe le sens commun propre à l’humain.
Evidemment, comme pour n’importe quelle technologie, il ne faut pas éclipser les vrais risques. Par exemple, l’impact économique d’une automatisation croissante et rapide d’un grand nombre d’emplois, à l’ère de la 4e révolution industrielle.
Des métiers comme conducteur routier ou de bus se transformeront ou disparaîtront, le métier de radiologue ou pilote d’avion ne sera pas épargné non plus, de même que celui d’enseignant, déjà en cours de transformation… Il existe aussi des risques liés aux biais inintentionnels au sein de systèmes automatisés à base d’IA. Prenons l’exemple de l’affaire de présélection automatique des CV chez un géant du numérique.
L’IA écartait systématiquement les CV féminins à cause d’un apprentissage à partir de données déséquilibrées entre hommes et femmes. Autre exemple, le risque de manipulation automatique de grandes quantités de données pour influencer l’opinion publique.
Enfin, le plus dangereux risque, à mon sens, est le développement d’armes autonomes. Une interdiction internationale des armes autonomes devrait être décrétée. Un appel international signé par un très grand nombre de chercheurs a été lancé dans ce sens.
Heureusement, à côté de ces risques, il y a des espoirs pour notre société. L’automatisation et la robotique n’auront pas que des effets négatifs. Elles permettront aussi une réduction significative des coûts de production, et doperont la croissance économique. La compréhension du langage permettra de concevoir des assistants personnels performants, des interfaces plus sophistiquées et une recherche d’information plus intelligente et plus pertinente, des traductions automatiques de meilleure qualité et en temps réel…
Au niveau de l’éducation, des outils IA proposeront des formations personnalisées, adaptatives, collaboratives et augmentées pour les apprenants.
Enfin, je pense que les résultats les plus importants seront dans le domaine médical, où nous assisterons à des applications spectaculaires, surtout en imagerie médicale, qui aura un impact énorme sur le diagnostic et le traitement de certaines maladies, comme le cancer.
De nombreuses possibilités de soins personnalisés seront offertes. Il sera également possible d’utiliser des techniques de réalité augmentée et de réalité mixte. Cela offrira des outils d’aide et de précision pour les praticiens, et des possibilités de perfectionnement pour les apprenants.
Sur ce point, à l’Université Paris 13, nous finalisons, avec la coordination du Dr Thomas Grégory de notre faculté de médecine (UFR SMBH), un centre de simulation, d’innovation et de modélisation augmentée en santé. Il travaillera sur le développement d’outils à base de réalité mixte et d’IA, au service de l’apprentissage et de la pratique de la chirurgie.
C’est vrai, l’IA est puissante et nous dépassera en performance pour certaines tâches. Néanmoins, même avec une puissance dopée par des calculateurs quantiques, la logique électronique restera fondamentalement opposée à la logique humaine. L’IA est plus artificielle qu’intelligente, comme un jeu d’illusion…

L’Economiste | Edition N° 5505
du 29/04/2019


Entre business et éthique, faudra-t-il choisir?

L’économie de l’IA engendre des business qui pourraient poser des questions éthiques. Peut-on alors combiner entre business et éthique, ou bien est-ce un pari utopique? Sur ce point, il ne faut pas que l’on devienne les champions de l’éthique quand d’autres pays avancent à grands pas dans le domaine. Les données représentent la matière première de l’IA. Elle naît et se nourrit de données. Certes, il y a là des risques. Mais l’on peut se démarquer par le développement d’une IA responsable respectant notre vie privée et nos valeurs morales. Avec le Règlement général sur la protection des données (RGPD), la France et l’Europe sont les premiers à réguler l’utilisation des données personnelles. Cela protégera nos libertés individuelles et notre souveraineté numérique. J’espère que le RGPD deviendra, un jour, la norme internationale.

Commentaires

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Bouton retour en haut de la page