Dans un récent article, Katie Sherwin met en lumière les problèmes liés à l’utilisation d’appareils tactiles par les personnes atteintes de déficiences visuelles. Les aveugles et les personnes ayant une mauvaise vue sont contraints à une lecture logicielle des pages à voix haute. La difficulté de réaliser des interfaces utilisables pour ces mêmes personnes est telle que, à première vue, on pourrait se dire que c’est inutile de se lancer dans ce travail. Pourtant, bien que cela soit compliqué, la tâche demeure possible. Et comme le souligne Katie Sherwin, le moyen d’interaction commun à tous les utilisateurs d’appareils tactiles reste identique : le toucher.
Les personnes souffrant de handicap ont besoin d’un casque pour entendre la synthèse vocale qui les guidera tout au long de leur consultation de leur tablette ou téléphone. L’utilisateur est obligé d’attendre la lecture de différents éléments de la page et il doit deviner le placement des objets de l’interface. Pour ce faire, il peut parcourir celle-ci du doigt et attendre les énoncés. La capacité mémorielle est donc mise à rude épreuve ; particulièrement, la mémoire à court terme.
Katie Sherwin mentionne ainsi le fait que le rappel mémoriel des objets est pénible et que l’absence de feedback haptique (sensation de toucher) lié à un clavier virtuel rend la tâche particulièrement compliquée. Je signalerais que la disposition du clavier (paramètres régionaux et locaux) rajoute une complexité supplémentaire, ainsi que la variabilité de la taille des touches, selon le dispositif et le logiciel employé. Le vibreur peut être activé comme mécanisme de retour d’information mais il reste un dispositif rudimentaire. Ces entraves poussent donc à l’utilisation d’un logiciel vocal pour l’édiction de phrases, le lancement de recherches ou d’actions, …
Les personnes souffrant de handicap utilisent leur appareil mobile de la même façon que les personnes 100% valides. Elles bénéficient parfois de logiciels dédiés pour contrecarrer leur handicap et les aider dans leurs tâches.
Les appareils mobiles Android ou iOS disposent d’un logiciel de lecture intégré activable dans les paramètres. Par exemple, sur Android, vous pouvez activer Google Talkback dans les paramètres d’accessibilité de votre appareil tactile. Afin de réaliser les actions, ces programmes font appel à une batterie de gestes qu’il est indispensable de mémoriser. Ce « vocabulaire », s’il n’est pas enseigné, a peu de chance d’être appris et découvert. Il s’impose donc comme une difficulté supplémentaire.
NNG insiste sur l’accroissement de la charge cognitive liée aux activités de lecture, de découverte des éléments de la page de façon séquentielle. La définition du contexte et du ton de voix d’un article est aussi difficile à deviner car les images et le style ne peuvent être perçus par les personnes. La personne doit deviner ou inférer en fonction des informations qui lui sont transmises via le logiciel de lecture.
Le designer doit donc, dans la mesure du possible, tenter de réaliser des « designs inclusifs » qui puissent résoudre les problèmes pour tout type de déficience.
Il en découle trois principes-clés à prendre en charge :
- Se souvenir qu’un problème pour un voyant sera amplifié pour une personne non-voyante :
On tendra donc à simplifier les articles (copie courte et précise) et on limitera les coûts de l’interaction (efforts mentaux et physiques à déployer pour atteindre un but). - Investir dans un code plus propre et plus accessible :
Utiliser une navigation alternative par clavier, insérer des attributs « ALT », respecter la hiérarchie des titres … - Eviter la création de gestes complexes pour le plaisir d’être unique :
Pourquoi réinventer la roue quand tant de gestes existent déjà?
Enfin, Katie Sherwin rappelle à juste titre que le but du travail n’est pas d’intégrer des principes d’accessibilité mais bien de fournir une solution utilisable par toute personne.
Source : Katie Sherwin, Screen Readers on Touchscreen Devices, Nielsen Norman Group, 30 août 2015