Apple によるマルチタッチ インターフェースの特許取得の試みに関する決定的な概要とみられる、新たに公開された大量の申請書類から、Apple が iPhone や Mac ではまだ使用されていない技術を検討していることが判明した。その技術には、体の部位の違いを感知したり、動作を通じたジェスチャーの説明、さらには爪からの入力に対する異なる反応などが含まれている。
多くの人は、これらの発明をジョン・エリアス氏とウェイン・ウェスターマン氏のどちらかに帰しています。彼らはFingerWorks社を創業した人物です。同社はマルチタッチ入力のパイオニアの一つであり、2005年初頭にエリアス氏とウェスターマン氏と共にApple社に吸収合併されました。
これらの特許の一部は、ユーザーがすでに知っている Apple のマルチタッチ デバイスの基本的な操作に関連するが、他の特許は、カリフォルニア州クパチーノに本社を置く Apple が現在のタッチ ハードウェアで採用したことのない方向性を明らかにしている。
場合によっては、タッチパネル自体が認識できるような進歩も含まれます。入力識別に関するある出願では、タッチスクリーンで撮影した画像のピクセル値を比較し、体のさまざまな部位をインテリジェントに認識するといったことが考えられます。デバイスは、ユーザーの顔への近さ(耳を視覚化することで)だけでなく、ほぼあらゆるイベントに応じて動作を変えることができます。例えば、iPhoneはポケットからデバイスを取り出す際に指を挟むだけで自動的に起動したり、所有者が誤って手のひらを押しても無視したりといったことが考えられます。
マルチイベントシステムと呼ばれる追加のアプローチにより、Appleは入力が皮膚からか無生物からかを検出することで、状況に応じたメニューやガイドなどの情報を追加できるようになります。Appleによると、ユーザーは通常の入力では指の皮膚で項目をタップし、指の爪で押し込むことで別のメニューを表示できるとのことです。
爪を使ってメニューを開きます。
同社は、マルチタッチジェスチャーが複雑になりすぎて直感的に操作できなくなる可能性にも備えています。一部のMacBookに搭載されているマルチタッチトラックパッドのように、単にビデオデモを提供するだけでなく、ジェスチャー学習システムを導入することで、ピンチ、回転、スワイプなどの操作を実際に試してもらい、その仕組みを理解できるようにすることも可能です。指の動きを追う色の軌跡や、正しいジェスチャーを同時に行う手の輪郭など、様々な情報も提示されます。
テストと同様に、ユーザーがアクションを正しく実行するまで、システムはオーディオビジュアルまたはテキストによるフィードバックを積極的に提供できます。
Apple が提案するジェスチャー学習方法の例。
特許出願は、Apple製品におけるマルチタッチの構想が当初考えられていたよりも複雑であることを明らかにし、iPhone開発の最終段階でも、最終製品には採用されなかった発明がいくつか生まれていたことを示しています。しかし、これが昨年1月のAppleの発見プロセスの単なるスナップショットなのか、それとも、記載されている技術の一部、あるいは全てが、将来のコンピュータ、メディアプレーヤー、あるいはスマートフォンのロードマップの一部となるのかは不明です。
本日公開された Apple の直接タッチ関連の特許出願はすべて以下からご覧いただけます。
ジェスチャー学習
マルチタッチ自動スキャン
投影スキャンマルチタッチセンサーアレイ
マルチタッチ入力識別
マルチタッチ面のエラー補正
シールドとドライブを組み合わせた両面タッチパネル
定期的なセンサーパネルのベースライン調整
両面タッチパネルとフレックス回路の接合
スキャンシーケンスジェネレータ
高度な周波数キャリブレーション
フロントエンド信号補償
センサー処理装置のマスター/スレーブモード
マルチタッチ面のフルスケールキャリブレーション測定
補償時のミスマッチを最小限に抑える
マルチタッチサーフェスのスタックアップ配置
近接およびマルチタッチセンサーの検出と復調
マルチイベント入力システム
マルチタッチセンサーにおけるノイズ検出
遠距離入力識別
同時センシング配置
周辺ピクセルノイズ低減
不規則な入力の識別
自動周波数変調を用いた電子機器内のノイズ低減
自動周波数キャリブレーション
浮遊容量に基づくアナログ境界スキャン