Les robots sociaux : les fonctionnaires du futur - Geopolintel
Geopolintel

Les robots sociaux : les fonctionnaires du futur

jeudi 7 février 2019

Quelle place pour les robots dans la société ?

La rencontre, « Quelle place pour les robots dans la société ? », a été introduite par Laurence Devillers, professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS et Anne-Sophie Rigaud, chef de service et responsable de pôle à l’hôpital Broca (Assistance Publique-Hôpitaux de Paris), qui co-animée le Centre Mémoire de Ressources et de Recherches (CMRR) pour la maladie d’Alzheimer et les maladies apparentées en Île-de-France.

Compte rendu

Pour quelles fonctions et avec quelles limites éthiques souhaitons-nous faire appel aux robots sociaux ? Voilà en substance la question qui a été débattue lors de la huitième rencontre du cycle de débats « Mutations technologiques, mutations sociales » le 12 juillet 2016 à France Stratégie.

Avoir un robot pour compagnon de vie, assistant thérapeutique ou surveillant n’est plus un sujet de science-fiction. Les « robots sociaux », programmés pour interagir avec l’homme en reproduisant des comportements affectifs, sont en passe d’intégrer nos écoles, nos hôpitaux et nos foyers. L’International Federation of Robotics prévoit qu’il s’en vendra 8 100 d’ici 2018 alors qu’ils ne sont apparus qu’il y a dix ans en tant qu’objet de recherche dans les universités et les laboratoires. Si l’intelligence artificielle n’en est encore qu’à ses débuts, l’ubiquité robotique et les enjeux attachés à la rupture technologique qui s’annonce, avec l’utilisation des données personnelles, posent néanmoins question.

De quelle intelligence parle-t-on ?

Dès qu’il s’agit d’intelligence artificielle, fantasmes et technophobies prennent souvent le pas sur la raison. Ainsi, s’il ne fait pas de doute qu’existent déjà des robots doués d’empathie, c’est-à-dire d’intelligence émotionnelle, encore faut-il s’entendre sur ce que le mot recouvre en la matière ! C’est tout l’enjeu du travail de pédagogie que préconise Laurence Devillers, professeure à l’université Paris-Sorbonne et chercheure au LIMSI-CNRS où elle dirige une équipe sur « Dimensions affectives et sociales dans les interactions parlées ». Pour cette spécialiste de la robotique affective et interactive, il est urgent d’expliquer « ce que font les chercheurs dans leurs laboratoires ». Moyennant quoi il deviendra possible de se pencher sur les vraies questions, à savoir celles qui touchent aux enjeux de régulation dans les champs d’application de la robotique interactive – de la santé à l’armement, en passant par l’éducation.

De quelle intelligence affective les robots sociaux sont-ils pourvus ?

À l’instar de Romeo développé par SoftBank Robotics et dédié à l’assistance à domicile des personnes dépendantes, les robots sociaux sont dotés d’un module « interaction cognitive » qui leur confère trois capacités : détecter, comprendre et simuler une émotion « humaine ». Les robots sociaux captent des informations émotionnelles (expressivité gestuelle et verbale de la personne), les interprètent (capacité de raisonnement) et y répondent (capacité de simulation). Surtout, ils peuvent adapter une réponse selon le profil de l’utilisateur ou l’historique des interactions. Autrement dit, ils sont programmés pour apprendre et créer de nouveaux schémas de perception et de raisonnement, en utilisant notamment des algorithmes de deep learning. C’est cette nouvelle « compétence » d’apprentissage qui fait la rupture technologique et comporte des risques. Le robot social sera plus qu’une machine qui comprend les humeurs, il aura avec l’homme un lien de confiance. Or, ce lien peut être d’autant plus fort qu’ayant tendance à l’anthropomorphisme, l’homme s’attacherait à « son » robot et en attendrait presque autant que d’une personne – c’est ce que montre la media equation de Reeves et Nass (1996)[1]. Par ailleurs, le deep learning pose la question de la loyauté et de la prévisibilité du système. Comme le dit joliment Laurence Devillers, une intelligence artificielle devrait toujours avoir des « parents » pour contrôler les données qui la nourrissent. À défaut de quoi elle peut être manipulée et manipuler à son tour. Tay, le chatbot, logiciel de conversation de Microsoft, devenu raciste et sexiste à force de « converser » avec les internautes sur Twitter, en est une illustration à petite échelle.

Des robots, pour quoi faire ?

Ces risques imposent une réflexion éthique forte et exigent du chercheur en robotique qu’il place l’homme au centre du dispositif. Les préconisations de la CERNA[2] l’illustrent bien. Il s’agit de toujours maintenir la distinction homme/machine à mesure qu’augmente la sophistication dans l’imitation du vivant et de ses interactions sociales ou affectives, et aussi de pouvoir encadrer l’autonomie et les capacités décisionnelles du robot. Accès aux boîtes noires des systèmes, autorisation de mise sur le marché des nouveaux robots, traçabilité et transparence des données… les chantiers politiques et réglementaires ne manquent pas pour accompagner la « cohabitation » des robots et des Hommes.

Mais si les enjeux éthiques et de régulation doivent être anticipés, LA question à se poser maintenant est bien celle des fonctions que nous souhaitons attribuer, déléguer ou partager avec les robots. Pour Anne-Sophie Rigaud, chef de service à l’hôpital Broca, la réponse ne peut être que le fruit d’un travail collectif sur les besoins des personnes. Son expérience en living lab auprès de patients atteints de la maladie d’Alzheimer suggère qu’il faut privilégier la co-élaboration par une confrontation des besoins des usagers, des aidants et des professionnels de la santé. Il s’agit de ne pas faire prévaloir un besoin sur un autre en cas de conflit d’intérêt (surveiller pour les aidants versus diagnostiquer pour les professionnels par exemple) et surtout d’entendre la diversité des attentes des usagers. Les personnes en situation de « déséquilibre », qu’il s’agisse de vieillissement pathologique ou de dépendance, veulent, pour certaines, une simple assistance à la vie quotidienne et préféreront un robot qui prendra la forme d’un meuble. D’autres souhaitent de la stimulation cognitive ou une présence rassurante, et le robot prendra alors plutôt la forme d’un humanoïde ou d’un animal de compagnie. Dans tous les cas, souligne Anne-Sophie Rigaud, prévalent les exigences de respect de l’intime, d’utilité effective, de facilité et de plaisir d’usage. Pour être accepté, le robot doit respecter la liberté des personnes qui expriment clairement le besoin « d’être en contrôle de la machine ». Quant à la preuve de l’efficacité thérapeutique du robot social, elle a pu être faite par des études randomisées en atelier d’animation et en thérapie relationnelle individuelle pour les malades atteints de troubles du comportement et de la communication avec le PARO par exemple.

Faut-il craindre, dans ce contexte, un remplacement de l’homme par une machine qui pourrait, même à terme, le « dépasser » ?

Pour Anne-Sophie Rigaud, nous sommes plutôt dans « une grande complémentarité » des tâches. Par ailleurs, au-delà de la question du souhaitable, le robot n’a tout simplement pas, aujourd’hui, les compétences de l’homme, ne serait-ce qu’en termes de reconnaissance vocale – il est incapable de détecter une voix dans le bruit – ou en termes de compréhension des émotions – limitée pour l’instant à un petit nombre d’états affectifs. Illustration du hiatus entre fantasme (transhumaniste) et réalité : le robot social le plus utilisé en EHPAD (il n’y en a que quarante en France, mais environ deux mille au Danemark), est le PARO, une peluche qui réagit à la chaleur et au toucher !

Pour autant, la mainmise sur les données des GAFA (Google, Amazon, Facebook, Apple), l’absence de collaboration européenne face à la compétition chinoise et étasunienne de même que la nature des secteurs visés par la robotique interactive – éducation, santé, armement – incitent à réguler. Et parce que des règles posées a posteriori pourraient ne pas être suffisantes, l’éthique propose une co-conception dès maintenant. Pour préparer l’avenir que nous souhaitons et non subir la rupture technologique, un « Conseil supérieur des algorithmes » pourrait être institué afin d’assurer leur transparence et de contrôler les données qui décident du degré d’autonomie des robots. Laurence Devillers suggère enfin d’intégrer dans les programmes éducatifs, dès la petite enfance, une initiation à la robotique, avec pour objectif de la démystifier et de préparer les générations futures aux nouveaux métiers du numérique.

[1] Reeves B.et Nass C. (1996),. The Media Equation. How People Treat Computers, Television, and New Media Like Real People and Places, Cambridge University Press.

[2] Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene ; Laurence Devillers est membre de la CERNA.

Laurence Devillers est professeure à l’université Paris-Sorbonne et chercheure au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS, où elle dirige une équipe sur les « Dimensions affectives et sociales dans les interactions parlées ». Elle est également membre de la CERNA.

Anne-Sophie Rigaud est chef de service et responsable de pôle à l’hôpital Broca (Assistance publique-Hôpitaux de Paris), qui co-anime le Centre mémoire de ressources et de recherches (CMRR) pour la maladie d’Alzheimer et les maladies apparentées en Île-de-France.

—  0 commentaires  —

© Geopolintel 2009-2023 - site réalisé avec SPIP - l'actualité Geopolintel avec RSS Suivre la vie du site