Design émotionnel : les clés pour concevoir des IA en cohésion avec les besoins humains
A l’occasion de sa conférence pour le Web2day, Noémie Lecorps nous délivre quelques conseils pour faire du design émotionnel un atout central dans le développement des intelligences artificielles.
Pour Noémie Lecorps, l’objectif du design est avant tout de faciliter la prise de décision des utilisateurs. Nous entrons dans une ère de l’épanouissement personnel où chacun est en quête de son bien-être et d’une meilleure connaissance de soi. La consommation des produits et des services par les utilisateurs devient de plus en plus responsable et dessert une volonté, une quête de sens et fait fi de l’inutile ou du superficiel.
Noémie Lecorps fait ainsi régulièrement la liste des objets qu’elle utilise chaque jour et ceux qu’elle n’utilise pas. Elle suit également ce procédé sur les applications sur téléphone. La question centrale pour faire le ménage parmi ses services : est-ce que cela lui fait gagner du temps ? Cette obsession pour l’optimisation de son temps, nous la retrouvons également dans la raison d’être des assistants aujourd’hui : libérer le temps des utilisateurs tout en leur étant utile.
Des IA encore trop inhumaines
Mais avec l’arrivée d’Alexa, Siri, etc., assiste-t-on réellement à une expérience optimale de l’intelligence artificielle au service des utilisateurs ? Noémie Lecorps pointe les failles encore bien visibles de ces IA aujourd’hui : une Apple Watch qui vous invite à vous lever et faire du sport alors que vous êtes en réunion (et qu’elle le sait, puisqu’elle a accès à votre agenda) ; ou encore Google Home qui vous demande quelle lumière il doit allumer à 90%. « Personne ne demande ça », souligne la designer, et c’est bien ce genre de détails qui coupe la relation entre l’homme et la machine. Si l’information aujourd’hui est certes personnalisée, elle n’est pas adaptée à la vie réelle. Pour cela, il faut plus d’intelligence émotionnelle dans les produits et les services.
Comment améliorer l’efficacité de ces intelligences ? Noémie Lecorps met l’accent sur l’intelligence interpersonnelle et intrapersonnelle, qui forment l’intelligence émotionnelle. D’un point de vue du design, il est important de définir en quoi cela consiste : c’est la capacité à analyser, reconnaître et comprendre ses propres émotions et celles des autres. Dans le design émotionnel, nous parlons beaucoup d’empathie. L’expérience utilisateur tourne autour de cette idée et dans le design, nous avons besoin de concevoir de l’interaction à la fois fonctionnelle et émotionnelle. Noémie Lecorps délivre donc certaines bonnes pratiques pour comprendre l’impact émotionnel de ce que le designer va concevoir pour les humains.
Conception de base et personnalisation de l’expérience
En pratique, il s’agit de commencer à réfléchir et tester des choses au fur et à mesure que la technologie de l’intelligence artificielle évolue. Noémie Lecorps prend l’exemple de Vince Speelman et des 9 états du design. Quand on conçoit un produit ou une expérience, il faut savoir designer 9 cas de base :
- Nothing : quand c’est la première fois que l’utilisateur se sert de votre service, quelle information donner pour qu’il commence à interagir avec ?
- Loading : faire en sorte que le chargement du service soit subtil et discret. Facebook utilise par exemple le squelette d’un post vide.
- None : quand le contenu est chargé mais qu’il est vide, c’est l’occasion d’amener l’utilisateur à agir (« Faites ça ») ou le récompenser (« Bon travail, tout est réglé »)
- One : sur une entrée, cela peut être une interaction après la première frappe. Dans une liste, cela peut être quand vous avez un élément.
- Some : vos données sont chargées, vous avez des entrées et l’utilisateur les connaît bien.
- Too many : trop de résultats, trop de caractères, trop de requêtes… Pensez à ce cas pour alléger le contenu
- Incorrect : comment informer positivement l’utilisateur d’une erreur
- Correct : comment informer positivement la réussite d’une tâche
- Done : notifier l’utilisateur quand la tâche est terminée et surtout quand elle est validée.
Crédits : GettyImages / IkonStudio
Mais cela ne suffit pas. En faisant interagir votre utilisateur avec une IA il faut également respecter les principes de confiance, de contrôle sur l’interaction, du feedback sur les actions, donner de la visibilité sur ce que vous faites avec ses données, ainsi que la possibilité de se tromper et de revenir en arrière.Il faut donc savoir partir d’un cas utilisateur simple, et personnaliser l’expérience.
Viennent ensuite les gestions des cas d’erreur et la frustration ou la déception. « Quand on discute avec quelqu’un, il est rare d’être déçu de ce que la personne nous répond. Une question est toujours suivie d’une réponse pertinente par rapport au sujet. Or, nous expérimentons souvent ces cas de déception lorsque l’on interagit avec un robot. L’intelligence émotionnelle permet de travailler le design d’une IA pour que l’on ne ressente plus cette frustration« , indique Noémie Lecorps.
Définir un modèle relationnel ou un contrat d’interaction
Il faut donc parvenir à détecter les émotions, les interpréter, puis agir en fonction des émotions de vos utilisateurs. Il est également important de définir la personnalité de votre IA : quel caractère vous attendez, le tempérament (ce qui est inné, comment un humain réagit à une émotion), le comportement (ce que vous faites, comment vous interagissez avec les autres) et l’attitude (attitude psychologique). Il est possible de mener des tests de personnalité pour définir les attentes face à une IA afin qu’elle suscite de la confiance et que l’on ait envie d’interagir avec.
Vient ensuite la définition d’un modèle émotionnel de l’IA : quel caractère vous lui donnez, le ton de la voix (dynamique, compatissant, accompagnant etc.), le vocabulaire, le degré de proximité avec l’utilisateur.
Il faut aussi garder à l’esprit que le fonctionnement de mémoire d’un être humain n’est pas celle d’une IA. Une IA va tout retenir, là où ce n’est pas le cas de l’humain, qui a parfois besoin d’oublier pour avancer dans sa vie. « Si une IA remémore chaque échec, chaque action négative, ce ne sera pas motivant pour avancer, précise Noémie Lecorps. C’est typiquement l’exemple de Facebook qui remonte des images d’il y a 8 ans, sans se soucier de l’impact émotionnel qu’elles vont avoir sur l’utilisateur, si ce sont des souvenirs positifs ou négatifs etc. ». Il faut donc prendre en compte l’impact des circonstances particulières, il existe très peu de situation générale. L’idée est de concevoir ainsi une expérience accompagnatrice de l’utilisateur, dont la volonté est d’aider les autres tout en ayant conscience de leurs émotions.
SOURCE: www.blogdumoderateur.com