Appleは吃音検出などのSiriの音声アクセシビリティ機能を研究している

Appleは吃音検出などのSiriの音声アクセシビリティ機能を研究している

マイク・ピーターソンのプロフィール写真マイク・ピーターソン

· 1分で読めます

クレジット: Apple

Appleは、Siriやその他の音声認識技術を、非定型的な発話パターンを持つユーザーがより利用しやすくすることに取り組んでいる。

例えば、ウォール・ストリート・ジャーナルの報道によると、同社は吃音のある話し方をしているかどうかを自動で検知する方法を研究している。

そのために、同社はポッドキャストから吃音のある人の音声クリップを約2万8000本収集した。ウォール・ストリート・ジャーナルによると、このデータは今週発表されたアップルの研究論文(PDFリンク)に掲載されたという。

Appleの広報担当者は、データから得られた知見をどのように活用するかについてはコメントを控えたが、同社はその少なくとも一部を音声認識システムの改善に活用する計画だ。

一方、Appleは2015年に導入した「Hold to Talk」機能により、Siriの音声認識時間をユーザーが制御できるようになったと付け加えた。この機能は、Siriがユーザーの操作を中断したり、コマンドを完全に話す前にタイムアウトしたりするのを防ぐのに役立つ。

記事には記載されていませんが、macOS および iOS の Type to Siri 機能を使用して Siri を起動および制御することもできます。

非定型的な発話パターンへのトレーニングは、Siriの改良に向けた研究分野の一つに過ぎません。Appleは、ユーザー固有の音声パターンにデバイスをロックすることで、デバイスのセキュリティを強化するシステムも開発しています。

ウォール・ストリート・ジャーナルはまた、AmazonやGoogleなどの他のテクノロジー企業が、音声コマンドに問題を抱えている可能性のあるより多くのユーザーを理解できるようにデジタルアシスタントをトレーニングしている方法についても報じている。

アマゾンは12月に、非定型的な発話パターンを持つユーザーが、その独特の声を認識するアルゴリズムを訓練するための新たな基金を設立しました。グーグルも、Googleアシスタントで使用するために非定型的な発話データを収集しています。