Apple a annoncé de nouvelles fonctions d'accessibilité basées sur l'IA, telles que le suivi oculaire, l'haptique musicale et les raccourcis vocaux, qui offrent des expériences utilisateur transparentes.
Le 15 mai 2024, Apple a annoncé une prochaine gamme de mises à jour pour iOS 18, en mettant l'accent sur l'accessibilité. Prévues pour la fin de l'année, les nouvelles mises à jour d'Apple comprennent des fonctionnalités innovantes telles que le suivi des yeux, la musique haptique et les raccourcis vocaux.
Ces fonctions d'accessibilité d'Apple facilitent l'utilisation des appareils Apple par les personnes ayant des problèmes de mobilité, celles qui sont sourdes ou malvoyantes, et celles qui ont des difficultés d'élocution. Le silicium d'Apple, l'intelligence artificielle (IA) et l'apprentissage automatique sont les avancées technologiques à l'origine de ces capacités. Explorons les nouvelles fonctionnalités d'Apple et l'impact qu'elles auront sur la vie quotidienne.
En tant que société, nous devons nous assurer que nos avancées technologiques sont accessibles à tous. Rendre la technologie accessible peut changer la vie de nombreuses personnes. Par exemple, la technologie est une énorme partie de tout emploi de nos jours, mais les interfaces inaccessibles peuvent créer des barrages de carrière pour les personnes handicapées. Des études montrent que le taux de chômage des personnes handicapées est presque le double de celui des personnes non handicapées en 2018.
Les systèmes juridiques se penchent également sur la question de l'accessibilité des technologies. De nombreux pays ont ajouté des lois rendant obligatoires les normes d'accessibilité pour les sites Web et les produits numériques. Aux États-Unis, les poursuites judiciaires liées à l'accessibilité des sites Web sont en constante augmentation, avec environ 14 000 poursuites judiciaires liées à l'accessibilité du Web déposées de 2017 à 2022, dont plus de 3 000 pour la seule année 2022 . Indépendamment des exigences légales, l'accessibilité est essentielle pour une société inclusive où chacun peut participer pleinement. C'est là que les fonctionnalités d'accessibilité d'Apple suivantes interviennent.
Apple s'efforce de rendre la technologie accessible à tous depuis 2009. Cette année-là, la société a introduit VoiceOver, une fonction qui permet aux utilisateurs aveugles et malvoyants de naviguer sur leurs iPhones à l'aide de gestes et d'un retour sonore. En lisant ce qui est à l'écran, il est plus facile pour les utilisateurs d'interagir avec leurs appareils.
Depuis, Apple n'a cessé d'améliorer et d'étendre ses fonctions d'accessibilité. Ils ont introduit le Zoom pour l'agrandissement de l'écran, l'Inversion des couleurs pour un meilleur contraste visuel, et le Mono Audio pour les personnes souffrant de déficiences auditives. Ces fonctions ont considérablement amélioré la façon dont les utilisateurs souffrant de divers handicaps interagissent avec leurs appareils.
Voici un examen plus approfondi de certaines des principales fonctions d'accessibilité d'Apple que nous avons vues par le passé :
Une personne dont la mobilité des mains est limitée peut désormais facilement naviguer sur Internet, envoyer des messages ou même contrôler des appareils domestiques intelligents en regardant simplement son écran. Ces progrès rendent leur vie quotidienne plus gérable, leur permettant d'accomplir de manière autonome des tâches qu'elles trouvaient auparavant difficiles.
Le suivi des yeux est une autre fonctionnalité d'accessibilité d'Apple très intéressante à venir, qui fait de cette idée une réalité. Conçu pour les utilisateurs souffrant d'un handicap physique, Eye Tracking offre une option de navigation mains libres sur les iPads et les iPhones. En utilisant l'IA et la caméra frontale pour voir où tu regardes, il te permet d'activer des boutons, des swipes et d'autres gestes sans effort.
La caméra frontale configure et calibre l'Eye Tracking en quelques secondes. Tu peux utiliser Dwell Control pour interagir avec les éléments de l'appli, en accédant à des fonctions comme les boutons et les swipes avec tes seuls yeux. Les utilisateurs peuvent être sûrs que leur vie privée est protégée car l'appareil traite toutes les données de manière sécurisée en utilisant l'apprentissage automatique sur l'appareil. L'Eye Tracking fonctionne de manière transparente dans les applications iPadOS et iOS , sans nécessiter de matériel ou d'accessoires supplémentaires. Le système VisionOS d'Apple Vision Pro comprend également une fonction de suivi des yeux pour faciliter la navigation.
Music Haptics est une autre des fonctions d'accessibilité d'Apple qui sera bientôt disponible. Elle a été conçue pour permettre aux utilisateurs sourds ou malentendants de profiter de la musique sur leurs iPhones. Lorsqu'il est utilisé, le Taptic Engine génère des tapotements, des textures et des vibrations raffinées qui se synchronisent avec l'audio. Tu peux ressentir le rythme et les nuances de la musique. C'est assez approfondi, grâce à la capacité du Taptic Engine à produire différentes intensités, modèles et durées de vibrations pour capturer la sensation de la musique.
L'haptique musicale peut connecter une personne malentendante à la musique d'une manière qui n'était pas possible auparavant. Cela ouvre un monde d'expériences dans leur vie quotidienne. Partir courir en écoutant de la musique ou apprécier une chanson avec un ami devient une expérience partagée et immersive. Les vibrations peuvent correspondre à l'énergie d'une playlist d'entraînement, rendant l'exercice plus motivant, ou aider à calmer les nerfs avec un air de méditation préféré. Music Haptics prend en charge des millions de chansons du catalogue Apple Music et sera disponible sous forme d'API pour les développeurs, ce qui leur permettra de créer des apps plus accessibles.
Apple a conçu Vocal Shortcuts pour améliorer les systèmes vocaux à l'aide de l'IA dans la liste des nouvelles fonctionnalités d'accessibilité.... Elle permet aux utilisateurs d'iPhone et d'iPad de créer des "énoncés personnalisés" pour que Siri puisse lancer des raccourcis et gérer des tâches complexes. Cela est particulièrement utile pour les personnes atteintes de pathologies telles que la paralysie cérébrale, la SLA ou les accidents vasculaires cérébraux.
La fonction "Écouter la parole atypique" utilise l'apprentissage automatique sur l'appareil pour reconnaître et s'adapter aux différents modèles de parole, ce qui facilite les tâches telles que l'envoi de messages ou la définition de rappels. En prenant en charge les vocabulaires personnalisés et les mots complexes, les raccourcis vocaux offrent une expérience utilisateur personnalisée et efficace.
Il y a également quelques nouvelles fonctions d'accessibilité d'Apple pour aider les passagers à utiliser leurs appareils plus confortablement pendant les voyages. Par exemple, Vehicle Motion Cues est une nouvelle fonctionnalité pour l'iPhone et l'iPad qui aide à réduire le mal des transports pour les passagers des véhicules en mouvement. Le mal des transports est souvent dû à un décalage sensoriel entre ce qu'une personne voit et ce qu'elle ressent, ce qui rend l'utilisation des appareils inconfortable lorsqu'ils sont en mouvement. Vehicle Motion Cues résout ce problème en affichant des points animés sur les bords de l'écran pour représenter les changements dans le mouvement du véhicule. Cela réduit les conflits sensoriels sans perturber le contenu principal. Cette fonction utilise les capteurs intégrés aux iPhones et iPads pour détecter si un utilisateur se trouve dans un véhicule en mouvement et s'ajuster en conséquence.
CarPlay a également reçu des mises à jour pour améliorer l'accessibilité. La commande vocale permet aux utilisateurs de faire fonctionner CarPlay et ses applis à l'aide de commandes vocales, tandis que la reconnaissance sonore alerte les personnes sourdes ou malentendantes des klaxons et sirènes de voiture. Pour les daltoniens, les filtres de couleur améliorent la convivialité visuelle de l'interface CarPlay. Ces améliorations contribuent à rendre tous les passagers plus à l'aise pendant un trajet en voiture.
Apple Vision Pro offre déjà des fonctions d'accessibilité Apple comme les sous-titres, les sous-titres codés et les transcriptions pour aider les utilisateurs à suivre l'audio et la vidéo. Aujourd'hui, Apple élargit encore ces fonctionnalités. La nouvelle fonction Live Captions pilotée par l'IA permet à tout le monde de suivre les dialogues parlés dans les conversations en direct et l'audio des applis en affichant le texte à l'écran en temps réel. Cette fonction est particulièrement bénéfique pour les personnes sourdes ou malentendantes. Par exemple, lors d'un appel FaceTime dans VisionOS, les utilisateurs peuvent voir le dialogue parlé transcrit à l'écran, ce qui facilite la connexion et la collaboration à l'aide de leur Persona (un avatar virtuel généré par ordinateur).
À l'instar des initiatives d'Apple en faveur de l'accessibilité, de nombreuses autres entreprises recherchent activement et innovent en utilisant l'IA pour créer des solutions accessibles. Par exemple, les véhicules autonomes dotés d'IA peuvent donner de l'indépendance aux personnes ayant des problèmes de mobilité en leur permettant de conduire plus facilement elles-mêmes. Jusqu'à présent, les personnes handicapées pouvaient conduire en utilisant des véhicules spécialement modifiés avec des adaptations telles que des commandes manuelles, des aides à la direction et des fonctionnalités accessibles aux fauteuils roulants. Grâce à l'intégration de technologies d'IA telles que la vision par ordinateur, ces véhicules peuvent désormais apporter une aide encore plus importante.
L'Autopilot de Tesla est un bon exemple d'aide à la conduite améliorée par l'IA. Il utilise des capteurs et des caméras avancés pour détecter les obstacles, interpréter les feux de circulation et fournir une aide à la navigation en temps réel. Grâce à ces apports de l'IA, le véhicule peut gérer diverses tâches de conduite, comme rester dans les voies et ajuster la vitesse en fonction des conditions de circulation. Les connaissances en matière de vision par ordinateur rendent l'expérience de la conduite plus sûre et plus accessible à tous.
Avec ces nouvelles mises à jour d'Apple, nous entrons dans une nouvelle ère d'inclusion basée sur l'IA. En intégrant l'IA à ses fonctions d'accessibilité, Apple facilite les tâches quotidiennes des personnes handicapées et encourage l'inclusivité et l'innovation dans le domaine de la technologie. Ces avancées auront un impact sur divers marchés : les entreprises technologiques établiront de nouvelles références en matière d'inclusion, les soins de santé bénéficieront d'une plus grande autonomie des personnes handicapées et l'électronique grand public connaîtra une demande plus importante d'appareils accessibles. Il est probable que l'avenir de la technologie passe par la création d'une expérience utilisateur transparente pour tous.
Consulte notre dépôt GitHub et fais partie de notre communauté pour rester au courant des développements de pointe en matière d'IA. Découvre comment l'IA remodèle la technologie de conduite autonome, la fabrication, les soins de santé et bien plus encore.
Commence ton voyage avec le futur de l'apprentissage automatique.