Apple hat neue KI-gestützte Barrierefreiheitsfunktionen wie Eye Tracking, Music Haptics und Vocal Shortcuts angekündigt, die ein nahtloses Nutzererlebnis ermöglichen.
Am 15. Mai 2024 kündigte Apple eine Reihe von Updates für iOS 18 an, die sich vor allem auf Barrierefreiheit konzentrieren. Die neuen Apple-Updates, die noch in diesem Jahr veröffentlicht werden sollen, beinhalten innovative Funktionen wie Eye Tracking, haptische Musik und Vocal Shortcuts.
Diese barrierefreien Funktionen von Apple erleichtern Menschen mit Mobilitätsproblemen, Gehörlosen, Sehbehinderten und Menschen mit Sprachproblemen die Nutzung von Apple Geräten. Apple Silizium, künstliche Intelligenz (KI) und maschinelles Lernen sind die technologischen Fortschritte, die hinter diesen Funktionen stehen. Sehen wir uns die neuen Funktionen von Apple an und welche Auswirkungen sie auf den Alltag haben werden.
Als Gesellschaft müssen wir dafür sorgen, dass unsere technologischen Fortschritte für alle zugänglich sind. Technologie zugänglich zu machen, kann das Leben vieler Menschen verändern. Zum Beispiel ist die Technik heutzutage ein wichtiger Bestandteil eines jeden Jobs, aber unzugängliche Schnittstellen können Menschen mit Behinderungen die Karriere versperren. Studien zeigen, dass die Arbeitslosenquote von Menschen mit Behinderungen im Jahr 2018 fast doppelt so hoch ist wie die von Menschen ohne Behinderungen.
Auch die Rechtssysteme befassen sich mit der Zugänglichkeit von Technologien. Viele Länder haben Gesetze erlassen, die Zugänglichkeitsstandards für Websites und digitale Produkte vorschreiben. In den USA nehmen die Klagen im Zusammenhang mit der Barrierefreiheit von Websites stetig zu: Von 2017 bis 2022 werden etwa 14.000 Klagen zur Barrierefreiheit eingereicht, davon über 3.000 allein im Jahr 2022 . Unabhängig von den rechtlichen Anforderungen ist Barrierefreiheit eine wesentliche Voraussetzung für eine inklusive Gesellschaft, in der alle Menschen uneingeschränkt teilhaben können. Hier kommen die folgenden Apple Funktionen für Barrierefreiheit ins Spiel.
Seit 2009 arbeitet Apple daran, Technologie für alle zugänglich zu machen. In diesem Jahr wurde VoiceOver eingeführt, eine Funktion, die es blinden und sehbehinderten Nutzerinnen und Nutzern ermöglicht, ihre iPhones mit Gesten und akustischem Feedback zu bedienen. Das Vorlesen des Bildschirms macht es den Nutzern leichter, mit ihren Geräten zu interagieren.
Seitdem hat Apple seine Funktionen für Barrierefreiheit kontinuierlich verbessert und erweitert. Sie haben Zoom für die Bildschirmvergrößerung, Invert Colors für einen besseren visuellen Kontrast und Mono Audio für Menschen mit Hörbehinderungen eingeführt. Diese Funktionen haben die Interaktion von Nutzern mit verschiedenen Behinderungen mit ihren Geräten erheblich verbessert.
Hier ist ein genauerer Blick auf einige der wichtigsten Apple Funktionen für Barrierefreiheit, die wir in der Vergangenheit gesehen haben:
Eine Person mit eingeschränkter Handbeweglichkeit kann jetzt ganz einfach im Internet surfen, Nachrichten verschicken oder sogar Smart-Home-Geräte steuern, indem sie einfach auf ihren Bildschirm schaut. Diese Fortschritte machen ihren Alltag leichter und ermöglichen es ihnen, Aufgaben selbstständig zu erledigen, die ihnen früher schwerfielen.
Eine weitere aufregende neue Funktion von Apple für Barrierefreiheit ist Eye Tracking, die dies Wirklichkeit werden lässt. Eye Tracking wurde für Nutzer/innen mit körperlichen Behinderungen entwickelt und bietet eine freihändige Navigationsmöglichkeit auf iPads und iPhones. Mithilfe von KI und der Frontkamera erkennt es, wohin du schaust, und ermöglicht es dir, Tasten, Wischbewegungen und andere Gesten mühelos zu aktivieren.
Die nach vorne gerichtete Kamera richtet das Eye Tracking in Sekundenschnelle ein und kalibriert es. Du kannst Dwell Control verwenden, um mit App-Elementen zu interagieren und Funktionen wie Buttons und Swipes nur mit deinen Augen zu bedienen. Die Nutzer können sich darauf verlassen, dass ihre Privatsphäre geschützt ist, denn das Gerät verarbeitet alle Daten sicher mit geräteeigenem maschinellem Lernen. Eye Tracking funktioniert nahtlos in iPadOS und iOS Apps, ohne dass zusätzliche Hardware oder Zubehör benötigt wird. Das VisionOS von Apple Vision Pro enthält ebenfalls eine Eye-Tracking-Funktion für eine einfache Navigation.
Music Haptics ist eine weitere Funktion, die Apple demnächst für die Barrierefreiheit einführen wird. Sie wurde entwickelt, damit gehörlose oder schwerhörige Nutzer/innen Musik auf ihren iPhones erleben können. Bei der Nutzung erzeugt die Taptic Engine Klopfgeräusche, Texturen und feine Vibrationen, die mit dem Ton synchronisiert werden. Du kannst den Rhythmus und die Nuancen der Musik spüren. Dank der Fähigkeit der Taptic Engine, verschiedene Intensitäten, Muster und Dauern von Vibrationen zu erzeugen, um das Gefühl der Musik einzufangen, ist das ziemlich tiefgründig.
Musik-Haptik kann Menschen mit Hörbehinderung auf eine Weise mit Musik verbinden, die bisher nicht möglich war. Das eröffnet ihnen eine Welt voller Erlebnisse in ihrem täglichen Leben. Beim Joggen Musik zu hören oder einen Song mit einem Freund oder einer Freundin zu genießen, wird zu einem gemeinsamen und eindringlichen Erlebnis. Die Schwingungen können mit der Energie einer Workout-Playlist übereinstimmen, was das Training motivierender macht, oder sie können die Nerven mit einer Lieblingsmeditationsmusik beruhigen. Music Haptics unterstützt Millionen von Songs im Apple Music Katalog und wird als API für Entwickler/innen zur Verfügung stehen, damit diese leichter zugängliche Apps entwickeln können.
Apple hat Vocal Shortcuts entwickelt, um Sprachsysteme mithilfe von KI in der Liste der neuen Zugänglichkeitsfunktionen zu verbessern. Damit können iPhone- und iPad-Nutzer "benutzerdefinierte Äußerungen" erstellen, damit Siri Verknüpfungen starten und komplexe Aufgaben bewältigen kann. Dies ist besonders hilfreich für Menschen mit Erkrankungen wie zerebraler Lähmung, ALS oder Schlaganfall.
Die Funktion "Listen for Atypical Speech" nutzt das maschinelle Lernen auf dem Gerät, um verschiedene Sprachmuster zu erkennen und sich darauf einzustellen, sodass Aufgaben wie das Versenden von Nachrichten oder das Setzen von Erinnerungen einfacher werden. Durch die Unterstützung von benutzerdefinierten Vokabularen und komplexen Wörtern bieten die Vocal Shortcuts ein personalisiertes und effizientes Nutzererlebnis.
Außerdem gibt es eine Reihe neuer Apple-Funktionen, die den Fahrgästen helfen, ihre Geräte während der Fahrt bequemer zu nutzen. Zum Beispiel ist Vehicle Motion Cues eine neue Funktion für iPhone und iPad, die die Reisekrankheit bei Fahrgästen in fahrenden Fahrzeugen reduziert. Reisekrankheit entsteht oft durch ein Missverhältnis zwischen dem, was eine Person sieht, und dem, was sie fühlt, so dass es unangenehm ist, Geräte während der Fahrt zu benutzen. Vehicle Motion Cues löst dieses Problem, indem animierte Punkte an den Rändern des Bildschirms angezeigt werden, die Veränderungen in der Fahrzeugbewegung darstellen. So werden Sinneskonflikte reduziert, ohne den Hauptinhalt zu unterbrechen. Diese Funktion nutzt die in iPhones und iPads eingebauten Sensoren, um zu erkennen, wenn sich ein Nutzer in einem fahrenden Fahrzeug befindet und passt sich entsprechend an.
CarPlay hat auch Updates erhalten, um die Barrierefreiheit zu verbessern. Die Sprachsteuerung ermöglicht es Nutzern, CarPlay und seine Apps per Sprachbefehl zu bedienen, während die Tonerkennung Gehörlose und Schwerhörige auf Autohupen und Sirenen aufmerksam macht. Für farbenblinde Nutzer/innen verbessern Farbfilter die visuelle Benutzerfreundlichkeit der CarPlay-Oberfläche. Diese Verbesserungen tragen dazu bei, dass sich alle Fahrgäste während einer Autofahrt wohler fühlen.
Apple Vision Pro bietet bereits Barrierefreiheitsfunktionen wie Untertitel, geschlossene Untertitel und Transkriptionen, die es Nutzern ermöglichen, Audio und Video zu folgen. Jetzt baut Apple diese Funktionen weiter aus. Die neue KI-gesteuerte Funktion "Live Captions" ermöglicht es jedem, gesprochenen Dialogen in Live-Gesprächen und Audio aus Apps zu folgen, indem der Text in Echtzeit auf dem Bildschirm angezeigt wird. Das ist besonders für gehörlose oder schwerhörige Menschen von Vorteil. Während eines FaceTime-Anrufs in VisionOS können die Nutzer/innen zum Beispiel den gesprochenen Dialog auf dem Bildschirm transkribiert sehen, was es einfacher macht, sich mit ihrer Persona (einem computergenerierten virtuellen Avatar) zu verbinden und zusammenzuarbeiten.
Ähnlich wie Apple arbeiten auch viele andere Unternehmen aktiv an der Erforschung und Innovation von KI, um barrierefreie Lösungen zu schaffen. KI-gestützte autonome Fahrzeuge können zum Beispiel Menschen mit Mobilitätsproblemen Unabhängigkeit geben, indem sie es ihnen erleichtern, selbst zu fahren. Bislang konnten Menschen mit Behinderungen nur mit speziell umgebauten Fahrzeugen fahren, die mit Handbedienungen, Lenkhilfen und rollstuhlgerechten Funktionen ausgestattet waren. Durch die Integration von KI-Technologien wie Computer Vision können diese Fahrzeuge jetzt noch mehr Unterstützung bieten.
Der Autopilot von Tesla ist ein gutes Beispiel für eine KI-gestützte Fahrhilfe. Er nutzt fortschrittliche Sensoren und Kameras, um Hindernisse zu erkennen, Verkehrssignale zu interpretieren und Navigationshilfe in Echtzeit zu leisten. Mit diesen KI-Eingaben kann das Fahrzeug verschiedene Fahraufgaben bewältigen, wie z. B. das Einhalten der Fahrspur und die Anpassung der Geschwindigkeit an die Verkehrsbedingungen. Die Erkenntnisse der Computer Vision machen das Fahren sicherer und zugänglicher für alle.
Mit diesen neuen Apple Updates läuten wir eine neue Ära der KI-gesteuerten Inklusion ein. Durch die Integration von KI in seine Zugänglichkeitsfunktionen erleichtert Apple Menschen mit Behinderungen ihre täglichen Aufgaben und fördert die Inklusion und Innovation in der Technologie. Diese Fortschritte werden sich auf verschiedene Märkte auswirken: Technologieunternehmen werden neue Maßstäbe für die Inklusion setzen, das Gesundheitswesen wird von der größeren Unabhängigkeit von Menschen mit Behinderungen profitieren und in der Unterhaltungselektronik wird die Nachfrage nach barrierefreien Geräten steigen. Es ist wahrscheinlich, dass die Zukunft der Technologie darin besteht, ein nahtloses Benutzererlebnis für alle zu schaffen.
Schau dir unser GitHub-Repository an und werde Teil unserer Community, um über die neuesten KI-Entwicklungen auf dem Laufenden zu bleiben. Entdecke, wie KI die selbstfahrende Technologie, die Produktion, das Gesundheitswesen und vieles mehr verändert.
Beginne deine Reise in die Zukunft des maschinellen Lernens