X
Ultralytics YOLOv8.2 リリースUltralytics YOLOv8.2 リリースUltralytics YOLOv8.2 リリース・アロー
グリーンチェック
クリップボードにコピーされたリンク

iOS 18の内部:アップルのアクセシビリティ機能を見る

アップルは、シームレスなユーザー体験を提供するアイトラッキング、ミュージックハプティクス、ボーカルショートカットなど、AIを活用した新しいアクセシビリティ機能を発表した。

2024年5月15日、アップルはアクセシビリティに強く焦点を当てたiOS 18の次期アップデートを発表した。今年後半にリリースが予定されているアップルの新アップデートには、アイトラッキング、Haptic Music、Vocal Shortcutsなどの革新的な機能が含まれている。 

このようなアップルのアクセシビリティ機能は、移動に問題がある人、聴覚障害者、視覚障害者、言語障害者がアップルのデバイスを使いやすくする。アップルシリコン、人工知能(AI)、機械学習が、このような機能を支える技術的進歩である。アップルの新機能と、それらが日常生活に与える影響について探ってみよう。

インクルージョンの重要性

社会として、私たちは技術の進歩が誰にとっても包括的なものであることを確認する必要がある。テクノロジーをアクセシブルにすることで、多くの人々の生活を変えることができる。例えば、技術は今やどのような仕事においても大きな部分を占めているが、アクセシブルでないインターフェイスは、障害を持つ人々にとってキャリアの障害となる可能性がある。調査によると、2018年の障害者の失業率は、障害のない人の約2倍である。

法制度もまた、テクノロジーをアクセシブルにするという話題に取り組んでいる。多くの国で、ウェブサイトやデジタル製品のアクセシビリティ基準を義務付ける法律が追加されている。米国では、ウェブサイトのアクセシビリティに関連する訴訟は着実に増加しており、2017年から2022年までにおよそ14,000件のウェブアクセシビリティ訴訟が提起され、そのうち2022年だけで3,000 件以上が提起されています。法的要件にかかわらず、アクセシビリティは、誰もが完全に参加できるインクルーシブな社会にとって不可欠です。そこで、以下のAppleのアクセシビリティ機能の出番です。

過去のアップルのアクセシビリティ機能

アップルは2009年以来、誰もが利用しやすいテクノロジーの実現に取り組んできた。その年、目の不自由なユーザーがジェスチャーと音声フィードバックを使ってiPhoneを操作できるようにする機能、VoiceOverを発表した。スクリーンに表示されているものを読み上げることで、ユーザーはより簡単にデバイスを操作することができる。

図1.AppleのVoiceOver機能は、必要に応じてカスタマイズすることができます。

それ以来、アップルはアクセシビリティ機能を継続的に改善し、拡張してきた。画面拡大のためのZoom、視覚的なコントラストを向上させるInvert Colors、聴覚障害者のためのMono Audioなどを導入した。これらの機能により、様々な障害を持つユーザーのデバイスとの接し方が大幅に改善されました。

ここでは、これまで見てきたアップルのアクセシビリティに関する主な機能について詳しく見ていこう:

  • 色の反転:色を反転させることで視覚的なコントラストを改善し、特定の視覚障害を持つユーザーにとってテキストや画像が見やすくなります。
  • モノラル音声:ステレオサウンドを1つのチャンネルに統合し、片耳難聴のユーザーが音声をよりクリアに聞き取れるようにします。 
  • アシスト・タッチ:カスタマイズ可能なオンスクリーンメニューを使用して、身体に障害のあるユーザーが複雑なタッチジェスチャーを行うのを支援します。 
  • スイッチコントロール:運動障害のある利用者が、ヘッドマウントスイッチやシップアンドパフスイッチなどの外部スイッチを使って機器を操作できるようにする。

アップルの視線追跡技術がユーザビリティを向上させる理由

手が不自由な人でも、画面を見るだけで、インターネットを見たり、メッセージを送ったり、スマートホームデバイスを操作したりすることが簡単にできるようになった。このような進歩により、日常生活がより管理しやすくなり、以前は困難だと感じていた作業を独立してこなせるようになる。

アップルのもうひとつのエキサイティングなアクセシビリティ機能は、Eye Trackingである。身体の不自由なユーザーのために設計されたEye Trackingは、iPadやiPhoneでハンズフリーのナビゲーションオプションを提供します。AIと前面カメラを使ってあなたが見ている場所を確認することで、ボタンやスワイプなどのジェスチャーを簡単に操作できるようになります。

図2.アイトラッキングを使って、iPadを物理的に触れることなく使用する。

前面カメラは数秒でアイトラッキングを設定し、キャリブレーションします。Dwell Controlを使ってアプリの要素と対話し、目だけでボタンやスワイプなどの機能にアクセスすることができます。このデバイスは、デバイス上の機械学習を使用してすべてのデータを安全に処理するため、ユーザーはプライバシーが保護されていることを信頼できます。アイトラッキングは、追加のハードウェアやアクセサリーを必要とせず、iPadOSとiOSアプリケーションでシームレスに動作します。Apple Vision ProのVisionOSにも、簡単なナビゲーションのための視線追跡機能が搭載されています。

Apple Music Hapticsでビートを感じよう

ミュージック・ハプティクスは、まもなくリリースされるアップルのアクセシビリティ機能のひとつだ。耳の不自由なユーザーがiPhoneで音楽を体験できるように設計されている。使用時には、Taptic Engineがオーディオと同期したタップ、テクスチャー、洗練された振動を生成する。音楽のリズムやニュアンスを感じることができる。タプティック・エンジンが様々な強さ、パターン、持続時間の振動を発生させ、音楽のフィーリングを捉えることができるため、かなり奥深いものとなっている。

図3.ミュージック・ハプティクスは音楽をより身近なものにする。

ミュージック・ハプティクスは、これまで不可能だった方法で、耳の不自由な人と音楽を結びつけることができる。これにより、彼らの日常生活に体験の世界が広がる。音楽を聴きながらランニングをしたり、友人と一緒に曲を楽しんだりすることが、共有された没入感のある体験になる。振動はワークアウトのプレイリストのエネルギーにマッチし、運動をよりやる気にさせたり、お気に入りの瞑想曲で神経を落ち着かせたりすることができる。Music Hapticsは、Apple Musicのカタログにある数百万曲をサポートし、開発者向けのAPIとして提供される予定である。

アップル・ボーカル・ショートカットで楽々コントロール

アップルは、新しいアクセシビリティ機能のリストの中で、AIを使用して音声システムを改善するためにボーカルショートカットを設計した。これにより、iPhoneやiPadユーザーは「カスタム発話」を作成し、Siriがショートカットを起動したり、複雑なタスクを管理できるようになる。これは、脳性麻痺、ALS、脳卒中などの症状を持つ人に特に役立ちます。

図4.ボーカル・ショートカットは高度な認識にAIを使用。

非定型的な発話を聞き取る」機能は、デバイス上の機械学習を使用して、さまざまな発話パターンを認識し、それに適応させることで、メッセージの送信やリマインダーの設定などのタスクを容易にします。カスタムボキャブラリーや複雑な単語をサポートすることで、ボーカルショートカットはパーソナライズされた効率的なユーザーエクスペリエンスを提供します。

アップルでクルマでの移動をもっと身近に

また、移動中により快適にデバイスを使用できるよう、アップルの新しいアクセシビリティ機能もいくつか用意されている。例えば、Vehicle Motion CuesはiPhoneとiPad向けの新機能で、移動中の乗り物に乗っている乗客の乗り物酔いを軽減してくれる。乗り物酔いは、人が見ているものと感じているものとの感覚の不一致によって起こることが多く、移動中にデバイスを使うことを不快にさせる。Vehicle Motion Cuesは、画面の端に車両の動きの変化を表すドットのアニメーションを表示することで、この問題に対処する。メインのコンテンツを邪魔することなく、感覚の衝突を軽減します。この機能は、iPhoneやiPadに内蔵されたセンサーを利用して、ユーザーが移動中の乗り物に乗っていることを検知し、それに応じて調整します。

図5.車両モーションキューは、デバイスを使用するすべての人にとって、長時間の車での移動を容易にする。

CarPlayもアクセシビリティを強化するアップデートを受けた。音声コントロールでは、音声コマンドを使ってCarPlayとそのアプリを操作でき、サウンド認識では、耳の不自由な方に車のクラクションやサイレンを知らせます。色覚異常のユーザーには、カラーフィルターがCarPlayインターフェースの視覚的な使いやすさを向上させます。これらの機能強化により、すべての乗員が車での移動中により快適に過ごせるようになります。

VisionOS用リアルタイム・キャプション

Apple Vision Proはすでに、字幕、クローズドキャプション、トランスクリプションといったAppleのアクセシビリティ機能を提供し、ユーザーが音声やビデオを追うのを助けている。そして今回、アップルはこれらの機能をさらに拡張する。AIを活用した新しいLive Captions機能は、リアルタイムで画面にテキストを表示することで、誰もがライブの会話やアプリからの音声を追うことができます。これは、耳の不自由な方にとって特に有益です。例えば、VisionOSでのFaceTime通話中、ユーザーは画面上に書き起こされた話し言葉を見ることができ、ペルソナ(コンピューターで生成された仮想アバター)を使った接続や共同作業がより簡単になります。

AIが世界をよりアクセスしやすくする 

アップルのアクセシビリティへの取り組みと同様に、他の多くの企業も、アクセシブルなソリューションを生み出すためにAIを積極的に研究し、イノベーションを起こしている。例えば、AIを活用した自律走行車は、自分で運転することを容易にすることで、移動に問題を抱える人々に自立をもたらすことができる。これまで障害者は、ハンド・コントロール、ステアリング補助装置、車椅子対応機能などの適応機能を備えた特別に改造された自動車を使って運転することができた。コンピュータ・ビジョンのようなAI技術を統合することで、これらの車両はさらに多くのサポートを提供できるようになる。

図6.コンピュータ・ビジョンは自動運転車の重要な要素である。

テスラのオートパイロットは、AIによる運転支援の好例だ。高度なセンサーとカメラを使って障害物を検知し、交通信号を解釈し、リアルタイムのナビゲーションアシストを提供する。こうしたAIの入力により、車両は車線内にとどまったり、交通状況に応じて速度を調整したりするなど、さまざまな運転タスクをこなすことができる。コンピューター・ビジョンによる洞察は、誰にとってもより安全で利用しやすい運転体験を提供する。

AIによるインクルージョンの新時代

これらの新しいアップルのアップデートにより、私たちはAI主導のインクルージョンの新時代を迎えようとしています。AIをアクセシビリティ機能に統合することで、アップルは障がい者の日常業務を容易にし、テクノロジーにおけるインクルーシビティとイノベーションを促進します。テクノロジー企業は新たなインクルーシビティ・ベンチマークを設定し、ヘルスケアは障がい者の自立度向上から恩恵を受け、家電はアクセシブルデバイスの需要が高まるだろう。テクノロジーの未来は、すべての人にシームレスなユーザー体験を提供することにあるのだろう。

私たちのGitHubリポジトリをチェックし、最先端のAI開発の最新情報を得るために私たちのコミュニティの一員になりましょう。AIが自動運転技術、製造業ヘルスケアなどをどのように再構築しているかをご覧ください。

Facebookのロゴツイッターのロゴリンクトインのロゴコピー・リンク・シンボル

このカテゴリの続きを読む

AIの未来
を一緒に作りましょう!

機械学習の未来への旅を始めよう