Logo Little Wing

LITTLE BLOG

Agents conversationnels : la revanche des communicants

Auteur : Marine Bryszkowski | | Blog

« Alexa, tu connais quoi comme musique ? » « Je connais plus de 50 millions de chansons de différents genres. » Une dispute entre une mère et son fils, une crise d’ado comme les autres résolue par le dernier assistant personnel d’Amazon sur fond de Julien Clerc… Si vous ne l’avez pas encore vue, la dernière publicité d’Amazon vaut le coup d’œil ! Ne serait-ce que parce qu’elle questionne la place supposée de l’intelligence artificielle dans nos vies.

Pas si nouveaux que ça – le premier agent conversationnel, ELIZA, date de 1966 – les chatbots et autres assistants numériques envahissent notre quotidien et alimentent les réflexions autour d’un sujet qui n’a pas fini d’animer les universitaires comme les réalisateurs de film : la relation homme-machine.

Quand Siri vous répond que sa couleur préférée est le gris-siri, qu’elle vous « trouve cool » ou qu’elle se vante de ses propres jeux de mots, vous êtes-vous déjà demandé d’où elle tirait son inspiration et son sens humain de la conversation ? Je ne parle pas ici d’algorithmes mais plutôt de plumes, d’écrivains pour robots, de communicants, de linguistes d’un nouveau genre, de ces professionnels du langage qui mettent leurs mots au service des géants de la tech. Ils sont 22 chez Microsoft mais on les trouve aussi chez Google, Apple ou encore Amazon. Travailleurs méconnus, ils greffent leurs lettres à un arbre technique. « Il y a derrière chaque assistant, une armée de littéraire », rappelait Clotilde Chevet, chercheuse au GRIPIC, lors d’un petit déjeuner organisé par le JFD Club en novembre dernier. Spécialiste des écritures, elle a fait de ces intelligences conversationnelles son sujet de thèse. Elle est aussi l’inspiration de cet article.

Commençons par rappeler que l’IA, n’est pas là où on croit qu’elle est. Sa capacité à détecter les émotions existe bel et bien mais elle n’est pas à l’œuvre dans les chatbots car elle repose sur des capteurs biométriques. Dans le cas des assistants conversationnels, on devrait plutôt parler d’ « émotion artificielle » en ce sens que leurs réponses sont vouées à mimer l’émotion et même l’intelligence, à les feindre sans jamais les atteindre et non à les reconnaître. La réalité de leur maturité reste à un stade encore très peu avancé. Vous avez aimé fantasmer sur la voix de Scarlett Johansson dans HER ? On est encore très loin de vivre ce type d’expérience ! Pour l’heure, l’architecture technique consiste à modéliser la relation, à la faire rentrer dans des cases. Clotilde Chevet évoque une forme d’industrialisation.

Pour éviter de décevoir l’utilisateur en révélant la « bêtise » un peu inavouable de ces prénommées « intelligences », les rédacteurs de contenus s’emploient à les rendre attachantes et à restreindre le périmètre de leur pertinence. La tâche est ardue car il faut créer un cadre propice à l’attachement et le design d’une enceinte ou d’un iPhone sont clairement moins sujets à l’empathie qu’un petit robot Pepper souriant ! Le meilleur recours ? La voix, un média vieux comme le monde à la fois source de lien et vecteur de culture.

Le choix d’une voix n’est pas anodin – on en revient à HER sur ce sujet – et ses préceptes varient en fonction des pays. En Asie par exemple, une voix aiguë va sembler plus séduisante. C’est plutôt l’inverse en France. Se pose ensuite la question du « genre » de l’assistant.

Historiquement, comme ne manque pas de le souligner Clotilde Chevet, ce rôle serviciel était plutôt tenu par des femmes. Elles occupaient la plupart des postes de télécommunication durant la guerre et étaient souvent responsables de guider les pilotes par avion. Aujourd’hui, toute création d’assistant numérique pose la question de la reproduction ou non, d’un certain nombre de stéréotypes ; c’est pourquoi il est essentiel pour les marques de communiquer sur leur positionnement.

Le langage faussement « naturel » des assistants conversationnels multiplie quant à lui les parades pour gagner en crédibilité. On pourrait ici parler de leurres linguistiques. Certains chatbots vont glisser des fautes d’orthographe dans leur récit, d’autres, comme JAM, jouer sur les « blagues » et les imprécisions. Tous ces « ratés contrôlés » ne sont pas sans visée. Ils humanisent l’intelligence artificielle et encouragent le développement du fameux syndrome IKEA à leur égard. Encouragé à « éduquer » son robot, l’utilisateur va créer un lien affectif avec lui. L’erreur est importante, elle est constitutive de la relation

Avec le même objectif, les spécialistes de la conversation vont s’employer à « incarner » leurs IA. Toutes les recherches en psychologie le montrent : l’affection répond au charnel. Désincarnés, les assistants conversationnels s’accrochent ainsi comme ils peuvent au lexique du corps. Siri aime dire que « c’est son petit doigt qui lui a dit » ou se trouve touchée « au plus profond de son code binaire », forme de cœur numérique.

Pour maintenir l’illusion du lien, l’échange de l’agent conversationnel s’appuie généralement sur la base d’un échange précédent.  Il peut ainsi demander des nouvelles de son utilisateur.

Bien sûr, cette stratégie affective répond à une dimension économique. Quand on fidélise un utilisateur à une IA, on le fidélise à tout un écosystème (moteur de recherche, logiciel de streaming etc.) mais l’enjeu n’est pas si simple.

En effet, il peut s’avérer risqué, voire contre-productif de créer un horizon d’attente trop étendu – donc condamné à être déceptif – à l’égard des assistants numériques. L’utilisateur ayant dé-réifié son IA risque de lui adresser les mêmes attentes qu’à un humain. Or la technique, très immature rappelons-le, sera absolument incapable d’y répondre. Il est donc essentiel de trouver un juste équilibre et pour cela, il est primordial de clarifier la nature de la relation sous peine de subir un fort agacement de la part du client. Qui n’a pas déjà eu envie de pester face à un chabot SAV ne comprenant rien à la demande en croyant s’adresser à un être humain ?

Certains acteurs l’ont compris et c’est ainsi que l’on voit d’anciennes lois regagner le terrain de la tech à l’image du drapeau rouge de Türing : « tout système autonome doit être conçu de façon à qu’il soit improbable qu’il puisse être confondu avec autre chose qu’un système autonome, et doit s’identifier en tant que tel au début de toute interaction avec un autre agent. » On en revient à Siri qui parle subtilement de « code binaire » et non de cœur.

L’identification de la technologie, sa reconnaissance comme « artefact » conversationnel répond évidemment à un grand nombre d’enjeux, notamment auprès des jeunes générations. Aux Etats-Unis, on s’alarme ainsi du manque de politesse des tout-petits à l’égard de l’enceinte Alexa et l’on évoque de plus en plus la nécessité de « former » les utilisateurs aux interfaces. Éminemment intéressant, ce sujet demanderait un article à lui seul, ou même une thèse !

Pour dépasser ces quelques pistes de réflexion, je vous invite à vous plonger plus en détail dans les analyses de Clotilde Chevet, parmi lesquelles Siri, le robot qui m’aimait ? Etude des ressorts linguistiques d’une “ingénierie de l’enchantement ou encore L’application Siri, un « être de langage » ?

Bonne conversation !

 

Marine Bryszkowski