Site icon Stylistme

Comment concevoir le design d’une application vocale

Comment concevoir le design d'une application vocale

Comment concevoir le design d’une application vocale UX design vocal par Rodolphe Degandt

 

Comment concevoir le design d’une application vocale

Les applications vocales se développent avec l’intégration de la reconnaissance de la voix dans les smartphones, mais aussi avec l’arrivée massive des assistants vocaux (Google Home, Amazon Echo et Apple HomePod). Le nombre d’utilisateur de l’interaction home machine par la voix est tout simplement en train d’exploser.  Depuis plusieurs années nous parlions du mobile first, je prédis l’avènement de la voice first ! Non seulement pour les recherches sur internet, mais aussi pour piloter les appareils domotiques, acheter en ligne, se former. Bref suivez la voix.

Je vais dans ce mini guide présenter comment concevoir le design d’une application vocale (skill Alexa, Google Home ou HomePod). Nous ne parlerons pas (ou très peu) de code de programmation. Pour l’exemple, je me base surune application vocale pour Amazon Echo que l’on appel une skill Alexa. Le sujet traite d’une app fonctionnelle, ce qui exclue la conception d’un jeu à la voix par exemple. Après l’UX design, voici l’UX voice design ou le design de l’expérience vocale client.

 

Pourquoi le design d’une application vocale est essentiel

La conception du design doit être réalisée avant de coder, cela fera gagner beaucoup de temps et surtout vous permettra de :

L’objectif est de faire une application que les gens vont aimer, adopter et partager.

 

Les principales étapes du design d’une skill ou d’une application vocale

  1. Créer un cas d’usage type.
  2. Réaliser plusieurs dialogues réels entre l’assistant vocal et un utilisateur
  3. Définir l’arbre de décision le plus complet avec tous les parcours possibles
  4. Tester le flux complet
  5. Coder puis retester et corriger.

Le cas d’usage (use case)

Vous pourrez avoir une application très bien faite mais qui ne répond à aucun besoin. Le cas d’usage doit donc répondre à des fonctions utiles pour l’utilisateur.

Commencez par ce que les gens veulent faire et déterminez les besoins de votre skill et les avantages de l’utiliser. Ensuite, identifiez des histoires qui décrivent ce dont les gens ont besoin et ce qu’ils peuvent faire.

Bref, quelle est la valeur ajoutée de votre solution utilisant un dialogue.

En fonction de l’objectif et des fonctionnalités, identifier les étapes et les actions individuelles :

Trois critères à respecter dans les fonctionnalités proposées :

Par exemple, EDF propose une skill Amazon pour consulter votre facture d’énergie (si vous êtes client). Encore plus pertinent la skill de Marmiton qui propose de vous guider pour trouver et réaliser une recette. Une autre skill de Marmiton à utiliser tous les jours est “l’idée gourmande du jour”.

Enfin de cette étape, valider éventuellement avec l’équipe de développeurs les éventuelles limitations technique du projet. Rappelez-vous qu’il est possible d’ajouter des images, des sons ou des musiques (mp3), mais que cela n’est pas très naturel dans un processus conversationnel.


Écrire les dialogues types (sample dialogue)

En anglais et donc dans le langage du design d’application vocale deux termes sont couramment utilisés

Le dialogue sera donc une suite logique d’inputs et de prompts.

Les dialogues types ou échantillon sont là pour définir l’expérience idéale de l’utilisateur et l’assistant vocal. Elle permet de déterminer les interactions nécessaires. Il va servir à :

Prévoir des dialogues en fonction des 2 parcours possibles

Exemple de dialogue en mode découverte :

Conseils pour écrire votre dialogue type

Commencez par une phase de jeu de rôle ou 2 personnes vont réellement se parler. L’un sera l’assistant vocal, l’autre l’utilisateur. Le mieux est d’enregistrer le dialogue en vous basant ou non sur un script. Si vous communiquez de manière naturelle, vous aurez une bonne expérience à proposer. Avec la méthode de l’enregistrement sonore vous pourrez identifier les intonations et donc les reproduire dans le code.

Exemple d’un dialogue choix du siège dans un avion :

A la fin, votre livrable sera similaire à un script de cinéma composé d’une dizaine de dialogue.


L’arbre de décision de l’app vocale (flowcharts)

L’arbre de décision ou squelette ou organigramme va reprendre les étapes de votre dialogue que vous allez synthétiser sous votre d’un schéma complet de toutes les situations.

Imaginez les différents énoncés possibles (utterance)

Les énoncés des utilisateurs comprennent des mots cles, des expressions ou des phrases plus longues. Dans votre flux, vous devrez donc rédiger l’ensemble des variantes possibles. Avec la phase de test, vous viendrez enrichir vos premières idées.

Par exemple, pour une skill qui propose la réservation de voyage pourra avoir un énoncé large et ces variations :

Mais nous pourrions aussi avoir une demande plus précise :

Pour chaque utterance, 3 réponses minimum possibles

Il faut aussi prendre en compte que chaque question va générer au moins 3 réponses possibles :

Dans les 2 situations de notre app de voyage, pour une réponse de qualité il faudra également obtenir des informations complémentaires de l’utilisateur lui pour donner une réponse satisfaisante : Quand, où, combien de personnes, budget, activité…

Il faut également intégrer les possibilités disponibles en permanence  :

Pour réaliser votre arbre de décision, vous pouvez utiliser l’outil gratuit deaw.io disponible en ligne (outil Google Drive qui offre la possibilité d’un travail collaboratif). Powerpoint est aussi possible pour commencer.

A la fin de cette étape vous aurez votre arbre de décision qui ressemblera à ceci :


Réaliser des tests

Maintenant vous aller pouvoir tester avec des utilisateurs qui ne connaissent pas votre application vocale. Avec 5 tests utilisateurs vous devriez couvrir 80 % des cas.

Vous pourrez au final ajouter des éléments pour moduler la voix de vos prompts, on parle de la prosodie de la voix. Vous serez limité à des intonation obtenue avec l’emphase, ralentir, accélérer, faire une pause ou chuchoter gérable avec des tags SSML (équivalent de balises HTML mais pour l’audio. Il est aussi possible de changer la prononciation d’un mot ou des mots spécifiques avec une intensité particulière pour rythmer le dialogue (ne pas en abuser). Enfin vous devrez jouer avec la ponctuation ou ajouter des effets sonores.

Voici mon petit code de test ou je vous ai mis un peu de tout en utilisant Actions on Google simulator :

<speak>
 Bonjour Stylistme
 <audio src="https://actions.google.com/sounds/v1/cartoon/cartoon_boing.ogg"/>
 Avec le SSML,
 <prosody rate="fast">vous pouvez parler rapidement.</prosody>
 <prosody rate="slow">Ou bien, prendre votre temps.</prosody>
 <prosody pitch="high">Vous pouvez prende une voix plus aigu et plus ridicule !</prosody>
 <prosody pitch="low">Ou pour les vrais hommes, prendre la voix grave d'un robot rugbyman.</prosody>
 <prosody volume="loud">Vous pouvez augmenter le son.</prosody>
 <prosody volume="soft">Ou encore diminuer le volume comme pour chuchoter, Milady je t'aime.</prosody>
 <prosody rate="fast" pitch="low" volume="x-loud">Amusez-vous en les mélengant tous ensemble !</prosody>
 <break/>
 Alors à vous de jouer avec l'UX Design vocale!
</speak>

Écoutez le résultat ;):
https://stylistme.com/wp-content/uploads/2018/07/ux-design-ssml-stylisme.mp3?_=1

 


Vous avez testé, et bien codé maintenant

Vous possédez tout ce dont vous avez besoin, vous pouvez transmettre votre cahier des charges aux développeurs.

Coder en Alexa pour Amazon Echo

Alexa Skills Kit (ASK) comprend des API, des outils, une documentation et des  codes en libre-service destiné à vous faciliter la création de Skills Alexa.

Coder en Google Assistant pour Google Home ou appareils Android et iOS

Chez le géant américain, les skills sont nommées des actions. Le programme pour les développeurs pour Google Assistant et bientôt Goosle Sear Android est Actions on Google.

Coder en Siri pour iPhone, iPad, Macbook et HomePod

Original, le nom des services mis à disposition des développeurs d’app vovale basé sur Siri est SiriKit. SiriKit permet à vos applications iOS et watchOS de fonctionner avec Siri, de sorte que les utilisateurs peuvent faire des choses en utilisant seulement leur voix. Votre contenu et vos services peuvent être utilisés dans de nouveaux scénarios, y compris l’accès à partir de l’écran de verrouillage et l’utilisation mains libres.


Ressources pour la création d’application vocale

 

Maintenant c’est à vous de jouer, n’hésitez pas à me faire part dans les commentaires de vos avis sur ce guide et de partager votre expérience dans l’UX voice design.

 

Quitter la version mobile