Comment développer l'empathie en Intelligence Artificielle ? - Julie Desk
Intelligence Artificielle

Comment développer l’empathie en Intelligence Artificielle ?

Le 6 janvier dernier , j’ai eu l’occasion d’assister et de faire une présentation à AI Europe à Londres.

Nombreux étaient les débats intéressants et passionnés sur l’évolution de l’IA. Je voudrais revenir sur une question qui m’a été posée et à laquelle j’ai essayé de répondre lors de ma présentation : Quel impact auront les assistants virtuels sur Internet et, à plus grande échelle, sur la société dans son ensemble ?

Intelligence Artificielle Empathie

Tout d’abord, il est important de définir ce que nous entendons par assistant virtuel basé sur l’Intelligence Artificielle (IA). Nous sommes principalement influencés par les films de science-fiction, nous avons tous nos propres fantasmes en imaginant ce que serait notre vie avec une assistante comme « HER » , capable d’accomplir toutes les tâches que nous lui demandons et de faire partie de notre quotidien au point même de devenir une amie.

Déléguer ou diriger

Parler d’assistants virtuels est souvent synonyme de Siri ou Cortana, mais si on devait comparer à une Google Car, Siri est loin d’être un véritable assistant ! La Google Car conduit réellement ; en théorie, on pourrait même ne pas prêter attention à la route. La voiture accomplit la tâche pour vous. Siri, par contre, “se contente” d’interagir avec votre téléphone sur commande vocale et d’accomplir des tâches que vous lui avez demandées.

  • Un système qui vous permet de conduire une voiture par commande vocale est une nouvelle méthode d’interaction
  • La Google Car est un assistant virtuel.

« Un assistant virtuel est un système auquel vous pouvez déléguer l’accomplissement d’une tâche de A à Z » @julienhobeikaTweet: “A Virtual Assistant is a system to which you can delegate the completion of a task from A to Z” @julienhobeika http://bit.ly/2hp1Clk

Un autre exemple – un que je connais très bien – c’est Julie Desk. Pour ceux d’entre vous qui ne connaissent pas encore Julie ( vous ratez quelque chose ! 🙂 ), voici une vidéo d’introduction pour comprendre ses fonctionnalités.

[youtube https://www.youtube.com/watch?v=9DOx967ZLDY]

Le but de Julie n’est pas d’envoyer un lien automatique à vos contacts pour qu’ils choisissent la plage horaire qui leur convient le mieux. En réalité, Julie est là pour gérer la prise de RDV à votre place.
Sa responsabilité est de réserver des plages horaires dans votre agenda, sans vérifier avec vous pour chaque action effectuée. Vous pourriez même être en vacances, Julie remplira toujours sa tâche. Avec ce système, nous avons actuellement plus de 250 clients et nous avons déjà organisé plus de 300 000 RDV.

Le fait de déléguer constitue un engagement bien plus fort que celui de diriger en donnant des instructions; déléguer est synonyme de donner véritablement à quelqu’un ou quelque chose le pouvoir de remplir une tâche en votre nom. La proposition de valeur des assistants virtuels comme Julie Desk, est de libérer les utilisateurs des tâches chronophages et sans valeur ajoutée, afin d’optimiser leur temps pour qu’ils puissent se concentrer sur des choses plus importantes. Pour atteindre cet objectif, la clé est de convaincre les gens de laisser Julie remplir ces responsabilités.

Les grandes responsabilités ne viennent qu’avec la confiance …

Pourriez-vous mettre votre vie entre les mains d’un conducteur virtuel à qui vous ne faites pas confiance ? Je ne pense pas…

En effet, nous ne donnons pas de responsabilité à une personne à qui nous ne faisons pas  confiance. Alors pourquoi devrions-nous faire confiance à Julie pour organiser nos RDV ? Et de façon générale, pourquoi devrions-nous faire confiance à l’IA et aux assistants virtuels pour accomplir des tâches complexes et importantes en notre nom ?

Notre inquiétude perdure lorsque nous pensons à Siri et Alexa en terme d’assistants virtuels et d’IA : ne vous méprenez pas, ce sont d’excellents gadgets, mais on ne les voit que comme tel. Si, par exemple, on demande à Siri d’appeler Zoé et au lieu de cela, Siri appelle Chloé, on peut se permettre d’en rire et de tout simplement annuler l’appel. Mais lorsque Julie fait une erreur dans l’organisation d’un RDV, c’est plus grave parce qu’elle est responsable de cette tâche et si celle-ci est remplie incorrectement, une réunion importante est potentiellement en danger. L’erreur est déjà faite et ne peut pas être annulée aussi facilement.

« Avant de déléguer des tâches à un assistant virtuel, vous devez d’abord lui faire confiance » @julienhobeikaTweet:

…Je fais confiance à ce que je comprends !

La plupart d’entre nous, au quotidien, utilisent l’IA sous forme de gadgets, et nous sommes totalement conscients qu’elle peut faire des erreurs ; d’où notre méfiance envers les assistants virtuels et l’IA.

Au départ, nous pensions que si l’IA faisait moins d’erreurs que l’humain dans la prise de RDV, alors cela voudrait dire que nous pouvions lui faire plus confiance qu’à l’humain. Mon exemple sur la Google Car suit la même logique : s’il y a moins d’accidents avec la Google Car qu’avec des conducteurs humains, alors il va de soi qu’on peut faire plus confiance à la Google Car, n’est-ce pas?

Lorsque nous avons commencé l’aventure de Julie Desk, nous avons nous-même joué le rôle d’assistants pendant 8 mois. Nous avons manuellement répondu à toutes les requêtes que nous avons reçues ! Cet exercice nous a permis d’identifier et de comprendre les tendances récurrentes dans l’organisation des RDV et de les coder, avec l’aide de Data Scientists, pour donner naissance à Julie. Nous avons surtout réalisé qu’il y avait une partie importante du processus qui n’était jamais la même et était imprévisible : c’était l’humain.

Tout personne travaillant dans le domaine de l’Intelligence Artificielle est bien conscient qu’elle s’appuie sur des statistiques. Donc, un taux d’erreur de 0% est un mythe. Il y aura toujours un risque d’erreur.

 « l’IA est construite sur des statistiques: un taux d’erreur de 0% est un mythe » @julienhobeikaTweet: “A Virtual Assistant is a system to which you can delegate the completion of a task from A to Z” @julienhobeika http://bit.ly/2hp1Clk

Les questions qu’on devrait plutôt se poser sont : Comment gérer les erreurs faites par l’IA ? Sommes-nous prêts à les accepter ? Pouvons-nous les comprendre ?

Une règle basée sur un système probabiliste

Une fois, à Julie Desk, nous avons dû faire face à une erreur de Julie pour un de nos utilisateurs qui nous a aimablement demandé de réparer le bug. La même chose s’est produite avec la Google Car lorsqu’elle s’est à nouveau crashée en août dernier. Lorsqu’un “problème” survient, on demande souvent la raison derrière celui-ci mais ce qu’on veut par dessus tout, c’est qu’il soit réparé le plus tôt possible.
Ce raisonnement est bien logique : c’est exactement ce que nous faisons avec tous les logiciels et les applications que nous utilisons au quotidien. Si quelque chose ne fonctionne pas de la manière voulue, alors ça veut dire qu’il y a un bug.

Cependant, nous ne pouvons pas penser de la même façon avec l’IA. Si nous devions faire une comparaison, je préférerais la comparer à un enfant : si votre enfant a du mal à correctement prononcer un mot, vous ne demanderiez pas à votre mari, votre femme, Dieu, la Science ou à qui que ce soit que vous tenez responsable de sa création : “Pouvez-vous le réparer s’il vous plaît « ? Vous penserez, « c’est pas grave, il apprendra”. Eh bien, c’est exactement la même chose avec Julie et l’IA. Dites-vous plutôt : “Ah, Julie est une IA, elle a peut-être mal organisé mon RDV cette fois-ci mais elle apprendra pour la prochaine fois. »

« Les bugs n’existent pas dans l’IA. C’est un processus d’apprentissage constant » @julienhobeikaTweet: “A Virtual Assistant is a system to which you can delegate the completion of a task from A to Z” @julienhobeika http://bit.ly/2hp1Clk

Un élément essentiel chez les humains qui utilisent la technologie, c’est leur capacité à fixer des limites au système pour identifier les cas dans lesquels il fonctionnerait ou ne fonctionnerait pas.

Nous faisons la même chose avec Julie : Elle peut planifier ou reprogrammer vos RDV mais elle ne peut pas commander des fleurs pour vous. Nous définissons les limites. Mais, parmi ces scénarios, nous jouons quand même le jeu des probabilités ; et cela défie la logique de la majorité des gens.

L’objectif premier de l’IA est de faire apprendre l’ordinateur; si on se met à réparer chaque erreur avec une “règle”, alors ce n’est plus une IA. Du point de vue de l’utilisateur, l’incapacité à prédire le comportement de l’IA créé une inquiétude.

Mais et si la situation qui a conduit à une erreur de l’IA était tellement complexe et spécifique que ça aurait donné le même résultat avec un humain ? Serions-nous alors capable de l’accepter ?

Le problème de l’Empathie

Grâce à toutes nos évolutions, nous avons désormais une proportion de travail de 80% IA et 20% humain pour notre système : 80% du travail est fait par la machine et 20% est corrigé par l’humain. En effet, toutes les requêtes d’organisation de RDV reçues par Julie sont envoyées à nos opérateurs pour une validation humaine finale avant que Julie puisse répondre à nos clients. L’AI pré-traite la requête et les opérateurs humains donnent le “feu vert” pour une réponse. Ainsi, non seulement nos opérateurs garantissent la qualité du service en gérant le côté imprévisible du processus mais ils rendent aussi Julie plus compréhensible pour nos clients.

Lorsque nous avons répondu à notre client qui avait demandé de réparer le bug, nous lui avons expliqué que “c’est la faute de notre opérateur. Ce détail lui a échappé et nous en sommes désolés !” après avoir demandé des explications à notre opérateur et expliqué au client ce qu’il s’était passé, il nous a dit qu’il comprenait et c’était tout.

C’est une question d’empathie. Les humains éprouvent de l’empathie envers leurs semblables, parce qu’ils peuvent facilement s’imaginer à leur place.

« Les humains peuvent être empathiques envers les autres humains, pas envers les machines » @julienhobeikaTweet: “A Virtual Assistant is a system to which you can delegate the completion of a task from A to Z” @julienhobeika http://bit.ly/2hp1Clk

Voilà pourquoi la question principale à se poser lorsqu’on développe une Intelligence Artificielle devrait être : Comment peut-on développer de l’empathie pour une machine ?

D’après nos discussions précédents, la solution pourrait être de rendre l’IA plus compréhensible et prévisible. Ce qui reste difficile pour une IA parce qu’elle est basée sur des modèles statistiques, et donc réussir à expliquer pourquoi elle a fait une erreur reste une tâche complexe. Lorsqu’un humain fait une erreur, on peut lui demander les raisons de celle-ci et, s’il y a une bonne explication, on peut pardonner parce qu’on comprend et qu’on serait capable de faire la même erreur. Ça peut aussi être une erreur aléatoire et on se dit que l’erreur est humaine et on peut comprendre. Mais peut-on réellement développer une machine qui pourrait s’expliquer lorsqu’elle fait une erreur ? Une machine que l’humain pourrait comprendre et envers laquelle il pourrait ressentir de l’empathie ?

Tant que nous ne sommes pas capables de développer une telle machine, nous sommes obligés de garder des humains dans la boucle.
Dans une certaine mesure, c’est un aspect positif pour l’avenir, car cela créera de nouveaux emplois comme par exemple “les formateurs d’IA” et “les superviseurs d’IA”, exactement comme nos opérateurs à Julie Desk ! Ils sont essentiels pour rendre Julie plus compréhensible et pour conduire les utilisateurs à donner leur confiance totale à Julie. Facebook M le fait très bien. Ils prévoient d’avoir des superviseurs dans leur siège pour faire fonctionner Facebook M pendant très longtemps.

« Les humains sont la clé pour rendre l’IA plus compréhensible et plus fiable » @julienhobeika Tweet: “A Virtual Assistant is a system to which you can delegate the completion of a task from A to Z” @julienhobeika http://bit.ly/2hp1Clk

Si nous réussissons à ressentir de l’empathie envers l’IA et si nous arrivons à un temps où les machines peuvent accepter la responsabilité de leurs actions et ressentir des émotions, alors la questions sera plutôt :  « Avons-nous créé une nouvelle race ? » Il est peut-être temps de regarder Ex-Machina à nouveau, non ?

Des commentaires ? Heureux d’en discuter si vous voulez partager vos avis !