ActusSST Mag disponible

Entretien : Raja Chatila, professeur émérite d’intelligence artificielle, de robotique et d’éthique

“L’interaction avec le monde physique est la source de l’intelligence”

La robotique et l’intelligence artificielle s’invitent dans le monde du travail. Un cheminement semé d’embuches. Analyse avec Raja Chatila, professeur émérite à Sorbonne Université-CNRS et expert de la robotique cognitive et interactive.

Propos recueillis par Jean-Philippe Arouet

Raja Chatila est professeur émérite à Sorbonne Université. Il a dirigé l’Institut des Systèmes Intelligents et de Robotique (ISIR, 2014-2019) et le laboratoire d’excellence SMART sur les interactions humain-machine (2012-2020). Auteur de plus de 170 publications, il est président de l’Initiative mondiale IEEE sur l’éthique des systèmes autonomes et intelligents depuis 2016, co-président du groupe “IA responsable” du Partenariat Mondial sur l’IA (2020-2023) et membre du Comité national pilote d’éthique du numérique en France depuis 2019.

Vous avez beaucoup travaillé sur les interactions entre les robots et les humains. Quelles questions soulèvent- elles ?
C’est d’abord une question de sécurité et de sûreté de fonctionnement. Lorsqu’un robot interagit avec un être humain, il faut que ses mouvements ne le mettent pas en danger. C’est un enjeu lors de la conception de la commande des systèmes pour qu’elle ne soit pas trop rigide car les forces d’accélération peuvent se révéler dangereuses pour l’humain. Il faut, au contraire, que le contact soit souple.

Au-delà d’un robot qui ne maîtriserait pas sa force, quels sont les autres défis ?
Ces interactions sont également cognitives puisque le robot et l’humain exécutent une tâche ensemble. Le robot doit être capable de comprendre ce que l’humain exprime. Par exemple, que je lui tends un objet. Et s’il m’en tend un, il doit le faire ni trop brusquement pour ne pas me faire peur, ni au mauvais endroit, comme derrière ma tête où je ne pourrai pas l’attraper. Par conséquent, il faut que le robot ait un modèle de l’être humain pour que ses interactions soient à la fois sûres et adaptées.

Comment la robotique progresse-t-elle ?
Il y a un enjeu autour de ce qu’on appelle la « théorie de l’esprit » en psychologie : la capacité à se mettre à la place de l’autre, à voir le monde à sa place. La question est d’autant plus complexe pour un robot, car il interagit avec plusieurs personnes. Par ailleurs, il y a une différence entre un robot qui travaille avec un humain dans un entrepôt ou qui aide une personne âgée à domicile. Il subsiste pour le robot un problème de perception et d’interprétation de l’environnement.

Est-ce à dire que les robots aptes aux interactions avec des objets ne le sont pas encore avec des humains ?
Si on prend l’exemple d’un robot qui aide une personne âgée à se relever ou à se déplacer, il faut qu’il soit à la fois rigide pour qu’il puisse manipuler des objets quelconques, stable et léger pour que l’interaction soit agréable, ce qui n’est pas si simple. Aujourd’hui, soit un robot accomplit une tâche seul, soit ceux qui interagissent vraiment de près avec les humains sont des petits robots qui ne font pas grand-chose.

Hormis les aspects cognitifs, s’agit-il d’une limitation physique ?
Comme les robots sont faits de métal et de plastique, ils sont lourds. D’autant plus qu’ils ont des batteries dont l’énergie est nécessaire à leur capacité de déplacement et de prise des objets. Pour toutes ces raisons, les robots sont surtout adaptés à des environnements simplifiés, par exemple pour faire de l’accueil ou pour porter un plateau dans un restaurant sur un trajet identifié.

Pourraient-ils s’adapter à des situations dangereuses pour l’homme, par exemple extraire de manière autonome une victime inanimée lors d’un incendie ?
Ces situations de secours sont elles aussi trop complexes car, en tirant la victime à l’écart du feu, le robot risque d’avoir une prise inappropriée ou de heurter la victime contre des obstacles, ce qui serait dangereux voire mortel.

Un robot est-il capable d’analyser la complexité de son environnement et de prendre des décisions de manière autonome ?
Ce que nous appelons aujourd’hui l’intelligence artificielle a été développée pour des fonctions abstraites comme parler ou apprendre, par exemple. En revanche, on a complètement sous-estimé l’intelligence artificielle dans les interactions avec le monde réel. C’est le travail des roboticiens d’étudier des machines qui soient physiquement intelligentes par rapport à leur environnement. Or, il est très complexe d’apprendre à un robot ce qu’est une chaise, par exemple, avec toutes les variétés d’objets pouvant avoir cette fonction, et comment la manipuler.

Ce que nous appelons l’intelligence artificielle a été développée pour des fonctions abstraites comme pour parler ou apprendre par exemple. On a complètement sous-estimé l’intelligence artificielle dans les interactions avec le monde réel.

Il existe donc deux champs distincts pour l’IA ?
La définition actuelle de l’intelligence artificielle est fausse. L’interaction avec le monde physique est la source de l’intelligence. Il faut pouvoir comprendre le sens de la réalité pour pouvoir anticiper, réagir en temps réel à une évolution ou interpréter une situation. Or, l’IA a été bâtie sur un modèle statistique. Si on veut concevoir un robot qui fasse vraiment quelque chose d’utile en interaction avec les humains, il n’y a pas de modèle statistique.

Dans un scénario du pire, l’IA pourrait-elle trancher un dilemme moral aussi complexe que d’écraser une personne âgée pour épargner un enfant par exemple ?
Ce n’est pas un problème de choix moral pour un robot. C’est la société qui va fixer des règles. On peut aussi bien programmer un robot pour qu’il fasse ce choix, un autre, ou même le laisser décider au hasard. Mais, paradoxalement, la société n’est pas prête à accepter le moindre décès imputable à une voiture autonome par exemple alors qu’elle a intériorisé le sacrifice de près de 3 000 personnes par an sur les routes dans un pays comme la France.


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

X