L’accessibilité concentre de nombreux efforts de la part des acteurs de la tech, et il faut s’en réjouir. Rares sont les occasions pour les grands groupes de s’illustrer en œuvrant à changer, vraiment, la vie des gens. Et c’est précisément ce que souhaite faire Apple avec la prochaine mise à jour d’iOS.
À l’occasion de la journée mondiale pour la sensibilisation à l’accessibilité numérique, Apple a détaillé les nouvelles fonctionnalités destinées à accompagner les personnes en situation de handicap.
Une fonctionnalité pour aider à identifier les portes
Prochainement, les utilisateurs et utilisatrices d’un iPhone 12 Pro, iPhone 13 Pro ou iPad Pro récents pourront utiliser la fonctionnalité de Détection de porte. Utilisant la caméra LiDAR de ces appareils, elle est de fait limitée à ces quelques mobiles.
Son fonctionnement est très simple. Par le biais de l’application Loupe, Détection de porte lit l’environnement présent face à l’appareil photo de l’iPhone pour repérer tout ce qui peut ressembler à une porte. L’application avertit ensuite l’utilisateur ou l’utilisatrice de la distance qui les sépare.
En bonus, cette nouvelle feature peut également lire et interpréter les différents écrits qui peuvent être présents sur les portes. À l’entrée des commerces, notamment, pour en connaître les horaires d’ouverture.
Apple indique par ailleurs que Détection de porte pourra être utilisée conjointement avec les fonctionnalités Détection des personnes et Description des images dans l’application Loupe. Cette dernière offrant donc une boîte à outils assez conséquente pour toutes les personnes malvoyantes ou aveugles.
Les sous-titres en direct arrivent sur les iDevices
Déjà intégrés depuis plus d’un an sur Android 12, les sous-titres en direct arrivent enfin sur iOS. Destinés en priorité aux personnes sourdes et malentendantes, ils peuvent toutefois revêtir un intérêt pour toutes et tous. Par exemple en retranscrivant le son d’une vidéo tout en gardant le volume au minimum.
Les sous-titres s’afficheront en haut de l’écran de l’utilisateur, et pourront évidemment être agrandis ou rétrécis à l’envi. Si la fonctionnalité est utilisée sur FaceTime, les sous-titres seront attribués à l’avatar de la personne en train de s’exprimer afin d’améliorer la compréhension des échanges en groupe.
Enfin, les personnes utilisant les sous-titres en direct depuis un Mac pourront même taper des phrases au clavier pour qu’elles soient énoncées en direct aux participants de la conversation.
Dans le même ordre d’idées, Apple annonce que VoiceOver, le lecteur d’écrans de l’écosystème iOS, prend désormais en charge une vingtaine de langues supplémentaires, dont le bengali, le bulgare, le catalan, l’ukrainien et le vietnamien.
Les sous-titres en direct seront disponibles en bêta publique sur les iPhone 11 et ultérieurs, les iPad équipés au moins d’un chipset A12 Bionic et les Mac équipés d’une puce Apple Silicon plus tard cette année.
Source : Apple