木曜日のSight Tech Globalカンファレンスで講演したアップル幹部のクリス・フライザック氏とサラ・ヘリンガー氏は、障害を持つユーザーが自社製品を利用できるようにするための同社の取り組みについて詳しく語った。
TechCrunchのMatthew Panzarino氏が行ったバーチャルインタビューで、Fleizach氏とHerrlinger氏は、Appleにおけるアクセシビリティの起源、現在の状況、そしてユーザーが将来何を期待するかについて詳しく説明しました。
AppleのiOSアクセシビリティエンジニアリング責任者を務めるフライザック氏は、アクセシビリティオプションが同社のモバイルプラットフォームに導入された経緯について説明しました。ユーザーが頼りにするアクセシビリティ機能の多くが欠けていた初代iPhoneの時代を振り返り、MacのVoiceOverチームが製品へのアクセスを許可されたのは、iPhoneが出荷された後だったと述べています。
「デバイスが発表されたのを見て、もしかしたらこれを誰でも使えるようにできるかもしれないと考え始めました」とフライザック氏は語った。「私たちは非常に早い段階で参加できた幸運に恵まれました。つまり、このプロジェクトは出荷されるまで極秘だったのですが、出荷直後から参加して試作を始めることができました。」
2009 年に iOS 3 を iPhone に導入するまでには約 3 年かかりました。
フライザック氏はまた、iPhone版VoiceOverプロジェクトが勢いを増したのは、故スティーブ・ジョブズ氏との偶然の出会いがきっかけだったと述べている。フライザック氏の話によると、ジョブズ氏が(おそらくAppleのキャンパスで)Mac版VoiceOverを使う友人と昼食をとっていた時のことだった。ジョブズ氏は近くに座っていた。ジョブズ氏が技術について話し合うために近づき、その友人がiPhoneでも使えるようにできるかどうか尋ねた。フライザック氏によると、ジョブズ氏は「もしかしたらできるかもしれない」と答えたという。
iOSのアクセシビリティ機能は、その地味な始まりから、Assistive Touch、聴覚調整、オーディオ選択、音声入力、音声認識といったテクノロジーを包含する、柱となる機能へと進化を遂げました。最新のiPhone 12 Proでは、人検知機能にLiDARが追加されました。
Appleのグローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクターのヘリンガー氏は、アクセシビリティチームが現在、さまざまなプロジェクトの早い段階から参加していると述べています。
「実は、私たちはこういったプロジェクトのかなり早い段階から関わってくるんです」と彼女は言った。「他のチームが、例えばより広いユーザー層に向けたユースケースについて考えているときに、彼らがどんなことをしているのかを私たちに話してくれるんです。そうすることで、アクセシビリティの観点から、彼らと一緒に何ができるのかを想像し始めることができるんです。」
VoiceOver認識や画面認識といった最新機能は、機械学習関連の最先端のイノベーションを活用しています。最新のiOSデバイスには、機械学習計算専用に設計されたニューラルネットワークモジュールであるAppleのNeural Engineを搭載したAシリーズチップが搭載されています。
VoiceOver認識は、機械学習(ML)ベースの新機能の一例です。このツールにより、iOSは画面に表示されているコンテンツを説明するだけでなく、文脈も考慮して説明できるようになります。例えば、「犬、プール、ボール」というシーンを説明する代わりに、VoiceOver認識はこれらの主題を「犬がプールを飛び越えてボールを取ってくる」とインテリジェントに解釈できます。
Appleは機械学習の取り組みをまだ表面的な部分しか見ていない。パンザリーノ氏が指摘したように、最近公開された動画では、VoiceOverの認識機能をiPhoneのカメラに適用し、周囲の状況をほぼリアルタイムで読み上げるソフトウェアが紹介されている。この実験は、今後数年でiOSユーザーが利用できる可能性がある技術を示唆していると言えるだろう。
「私たちは今後もさらに多くの機能を開発し、それらの機能を連携させていきたいと考えています」とヘリンガー氏は述べた。「デバイスをより効果的に活用するために必要な組み合わせが何であれ、それが私たちの目標です。」
インタビュー全編はYouTubeにアップロードされており、以下から視聴できます。