On nous demande souvent pourquoi notre robot Heasy ne parle pas. Après tout, d’autres robots ont déjà cette capacité et on voit de plus en plus d’assistants digitaux comme Alexa ou Siri qui interagissent verbalement. Ne serait-ce que de la fainéantise ?

« Non, ce n’est pas un bug mais une caractéristique ! »

Le fait qu’il ne parle pas n’est pas un bug. Permettez-nous de vous expliquer les raisons derrière ce choix.

 

Pouvez-vous répéter, s’il vous plaît ?

Oui, Alexa fonctionne bien, son système de reconnaissance vocale est génial. Mais elle fonctionne que dans les foyers, dans un environnement plutôt calme. L’interaction avec elle est bien plus compliquée dans un lieu public, où il difficile d’extraire une voix dans un environnement bruyant, même avec les microphones les plus récents et un bon logiciel. Nous pensons que ce sera possible dans quelques années mais la technologie n’est pas encore au point.

En effet, il s’avère que le robot fonctionne très bien pendant les tests en interne mais il ne réussit pas les tests de terrain. Après ne pas vous avoir compris la première fois, il vous demandera de répéter votre phrase encore et encore jusqu’à que vous abandonniez avec la conviction que le robot est bête. En d’autres termes, une conversation avec un robot crée des attentes chez les utilisateurs que le robot n’arrive pas à satisfaire – ce qui rend l’expérience décevante.

Sans cette caractéristique, les attentes liées à l’interaction verbale disparaissent. L’effet Wow est bien sûr moins important que s’il parlait, mais au moins, nous sommes sûrs qu’à la fin de chaque interaction, l’utilisateur a vécu une expérience positive.

 

Le plan ou l’itinéraire ?

Parler n’est pas toujours la meilleure solution pour communiquer une information. Imaginons que vous vous trouviez dans un centre commercial et que vous voulez savoir comment rejoindre un endroit spécifique. Ce sera plus simple de voir un plan qui vous montre le chemin, plutôt que d’essayer de se souvenir des instructions données à l’oral.

Pour donner un autre exemple : vous êtes en train d’assister à une conférence et vous êtes intéressés par le planning. Préfèreriez-vous écouter quelqu’un qui vous lit toutes les informations, session après session, faire une recherche et écouter les résultats ou ne voudriez-vous pas plutôt accéder à un calendrier visuel ?

Pour beaucoup d’opérations, la voix n’est pas la solution idéale. Les images sont extrêmement plus puissantes. Après tout, ne dit-on pas qu’une image vaut mille mots ?

 

 

Ne me fais pas perdre mon temps

Il est plus rapide de lire un article de journal plutôt que de l’écouter. On en a tous déjà fait l’expérience.

Nous avons constaté que le temps d’utilisation d’Heasy est d’environ 2 minutes. Cela ne veut pas dire que les utilisateurs y passeraient 5 minutes si l’on ajoutait plus de contenus robot. Au contraire, cela signifie qu’ils n’ont pas plus de 2 minutes à dédier à l’interaction. Dans un centre commercial, on vient pour faire du shopping et dans un aéroport pour prendre un vol…. Nous devons donc nous assurer que pendant ces 2 minutes, l’utilisateur pourra effectuer un maximum d’interactions. Et avec cet objectif en tête, si on installe sur Heasy un système de reconnaissance vocale, l’impact même du robot s’en verrait atténué.

 

S’internationaliser

Vous devez tous avoir déjà entendu parler d’Alexa, l’assistante digitale lancée par Amazon Echo. La seule chose qu’elle fait est de parler, n’est-ce pas ? Vous parlez avec une enceinte et l’interaction s’arrête là, non ? Alexa a été lancée aux États Unis en 2015 mais seulement en 2018 en France. Cela veut dire qu’il a fallu 3 ans à Amazon pour être prêt au marché francophone. Et nous parlons ici d’Amazon et de ses ressources presque infinies.

Nous n’avons jamais douté sur le fait que les gens ont besoin d’interagir dans leur langue maternelle avec un robot. L’adaptation d’un modèle d’interaction verbale dans une langue spécifique prendrait trop de temps – pour nous et pour nos clients quand on pense à la traduction des applications. En revanche, nous avons décidé de lui donner la capacité d’exprimer des émotions basiques compréhensibles et reconnaissables : l’amour avec des yeux en forme de cœur accompagnés d’un petit son, la tristesse à travers les pleurs, etc. Cela permet à Heasy à la fois d’exprimer des émotions simples et de renforcer le lien avec l’utilisateur.

 

Comme expliqué plus haut, il y a beaucoup de raisons qui nous ont conduit à construire un robot qui ne parlait pas. Notre objectif au moment de sa fabrication était d’assurer que chaque utilisateur puisse jouir d’une expérience positive et satisfaisante. À ce jour, nous sommes encore convaincus que nous avons fait le bon choix. Au final, cela devient même bénéfique pour nos clients et les utilisateurs du robot.