Accueil » Revue de presse » *** Le futur de l’intelligence artificielle sera-t-il empreint d’émotion ?

*** Le futur de l’intelligence artificielle sera-t-il empreint d’émotion ?

“Empathique”, “émotionnelle”, “affective”… Autant de termes qui sont utilisés dans les médias pour désigner les directions prises par les scientifiques en matière de robotique. Le bureau de tendances et prospective, Vitamin, présente et décrypte 4 signaux faibles qui dessinent l’avenir de l’intelligence artificielle.

L’intelligence artificielle a fait couler beaucoup d’encre ces dernières années. Pourtant, les progrès continuent d’être aussi spéctaculaires, jour après jour, avec le même objectif en ligne de mire : la ressemblance toujours plus fine des robots avec les humains. Les évolutions récentes montrent que les systèmes de neurones sont désormais capables de capter et traiter les émotions des humains, tout en étant dotés eux-mêmes d’une certaine sensibilité. Un phénomène que décrit bien le psychiatre et psychanalyste français, Serge Tisseron, dans son livre « Le jour où mon robot m’aimera » (Albin Michel, 2015), sous-titré très justement «Vers l’empathie artificielle ».

Pour cela, les scientifiques mènent un travail approfondi sur le langage naturel pour produire des intelligences émotionnelles qui pourraient améliorer significativement les interactions entre humains et robots. Certains programmes savent déjà imiter reconnaître, exprimer, synthétiser et modéliser les émotions. Deux avantages se dessinent alors : d’une part, la compréhension des émotions et du contexte des utilisateurs permet aux machines d’adapter leur réponse en fonction; d’autre part, la relation homme-machine devient potentiellement plus intime. Cette empathie artificielle n’est pas sans risques. Comme l’explique Laurence Devillers, chercheuse au CNRS : le fait de prêter des caractéristiques humaines aux machines peut amener certains humains à développer une empathie trop grande à l’égard de ces robots « sensibles », et ainsi se mettre en danger pour les protéger ou bien se laisser manipuler par ces dernières.

Suivre une thérapie virtuelle

Des développeurs de l’University of Southern California Institute for Creative Technologies (ICT) travaillent actuellement sur le projet SimSensei financé par la Defense Advanced Research Projects Agency (DARPA ou Agence pour les projets de recherche avancée de défense), visant à mettre au point une thérapeute virtuelle, dénommée Ellie. A l’origine, c’est l’armée qui souhaitait utiliser des humains virtuels dans le cadre de l’entraînement des troupes. Par la suite, l’équipe a décidé d’investir le contexte clinique civil. Selon plusieurs études, Ellie est dans certains cas plus douée qu’un psychologue humain pour solliciter l’engagement du patient dans un cadre clinique.

Se voir présenter des excuses

Le géant américain, Amazon, a travaillé sur son intelligence artificielle Alexa, l’assistante virtuelle qui vit à l’intérieur de l’appareil domestique à commande vocale, appelé “Amazon Echo”. Depuis juin 2016, celle-ci est en mesure de reconnaître l’irritation ou l’agacement dans la voix de ses utilisateurs et comprendre d’elle-même qu’elle les énerve, avant de leur présenter elle-même ses excuses.

Communiquer avec de la sympathie et de l’humour

De nombreuses intelligences artificielles apparaissent comme de froids devices. C’est la raison pour laquelle industriels et scientifiques travaillent à rendre les technologies de plus en plus conviviales. Les équipes de Pixar et de The Onion ont collaboré avec celles de Google pour rendre son intelligence artificielle “Assistant” plus sympathique, et même dotée d’un sens de l’humour. L’objectif ? Aider les utilisateurs à nouer plus facilement des relations avec leur assistant personnel virtuel via un ton de voix plus humain.

Passer de l’émotion à la créativité

Chez Google, l’équipe Magenta est, depuis mai 2016, dédiée au développement d’intelligences artificielles créatives. Elle a conçu des algorithmes capables de réaliser des œuvres d’art qui plaisent et captent les émotions des humains. Le programme de recherche vise à élaborer des modèles d’apprentissage profond (“deep learning”) qui permettent, dans un premier temps, de composer des partitions de musique puis, dans un second temps, des vidéos et d’autres arts visuels incluant le texte et l’image.

Auteure ; ROXANE BACHÉ pour INFluencia

Pertinence et intérêt de l’article selon designer.s !

***** Exceptionnel, pépite
**** Très intéressant et/ou focus
*** Intéressant
** Faible, approximatif
* Mauvais, très critiquable