iPhone雑感 -- 視覚障害者にiPhoneは使えるのか --

投稿: 2009年12月16日

Twitter上では比較的よく書いていることなのでご存じの方も少なくないと思うが、7月の中頃にiPhoneを購入した。ある程度の期間使い続けて感じたことなど、とりとめもなく書いておくことにする。

そもそもなぜ買ったのか

iPhoneは、そのほとんどの操作をタッチスクリーンで行うようになっているのが大きな特徴の一つだ。しかし、タッチスクリーンとかタッチパネルとか呼ばれる入力方式は、これまで視覚障害者と最も相性が悪いインターフェースだと考えられてきたし、僕自身、自力で使える可能性を感じたことはほとんどない。ところが、今年の6月に発売された、現時点でのiPhoneの最新モデルに当たるiPhone 3GSには、VoiceOverという視覚障害者向けの音声化機能が搭載されている。果たしてこのVoiceOverを使うことで、これまで使うことが不可能に近いと感じられたタッチスクリーンのインターフェースがどこまで使えるものになるのか、そんなことを考えつつ情報収集をしていたのだが、気づいたらついうっかりオンラインで購入手続きを済ませてしまっていたというわけだ。

使い始めるまで

まず、SIMカードを適切な場所に入れてやる必要がある。この作業は電源を切った状態でやらなければならないのだが、僕はここでまずミスをした。iPhoneのパッケージを開封後、まず電源を入れてしまったのだった。「別にもう一度電源を切ればいいじゃん」と言われそうだが、VoiceOverが有効になっていない状態では、画面を見ずに電源を切ることはほぼ不可能である。そのことに気づいていなかった僕は、電源が切れているものだと信じてSIMを入れる作業をしてしまったのだが、どう考えても電源を入れた状態でこの作業をしたと思われる。幸いにも特にその後そのことが原因と思われるような問題は起きていないが、注意が必要な点だ。

SIMの挿入が済んだら、次にアクティベーションが必要で、店頭でこの作業を済ませていない場合は自分で行う必要がある。僕の場合はオンラインで新規契約をして端末も宅配便で送られてきたので、当然この作業をする必要があった。この作業は、iTunesを用いて行うのだが、スクリーン・リーダーを使ってiTunesを使うのはあまり快適な作業でない上に、Apple IDの登録などはiTunesから行うのは至難の業だというのは以前にも書いた通りである。幸い僕はApple IDの取得は完了していたので、この点について困ることはなかった。

アクティベーションの作業そのものの中でだったか、その後のiTunesへのディバイス登録作業でだったかは覚えていないが、自分のiPhoneに割り当てられた電話番号を入力しなければならない場面があって、これには少々困ってしまった。普通ならば、端末と一緒に送られてきた書類を見ればすぐに分かることだと思うが、僕の場合はそうもいかない。かといって、まだiPhoneは使える状態になっていないので、どこかに発信して発信者番号を見る、という手も使えない。しばらく考え込んだり検索したりして、結局詳細はどうだったのかは覚えていないのだけれど、一連のプロセスの中でiTunesの画面上にiPhoneに割り当てられている電話番号が表示される場面があることが分かって、その表示をメモしておくことでこの部分を切り抜けることができた。

普通ならばここまでやればiPhoneを使い始めることができるのだが、僕の場合はVoiceOverを有効にしないとどうにもならない。この作業はさほど難しいものではない。具体的な手順は省略するが、iPhoneを接続した状態で、iTunesの当該ディバイスの設定の中にVoiceOverを有効にするためのチェックボックスがあるので、これにチェックを入れてやればよい。この作業はJAWS (スクリーン・リーダー) を用いればさほど苦労せずにできる。ちなみに、もちろんiPhoneの本体で設定を変えてVoiceOverを有効にすることもできるが、これは言うまでもなく誰かに画面を見てもらわなければできない。

VoiceOverは使い物になるか?

ということで初期設定も終わったので、iPhoneで遊び始めてみた。果たしてタッチスクリーンのディバイスが本当に使えるのか、という僕の疑問だが、結論を言えば思った以上に使える、というのが率直な感想だった。操作方法の詳細についてここには書かないが、初めて使う場合でも少なくとも画面上で目的のものを探して選択して実行する、という操作は比較的簡単にできた。文字入力は簡単ではなかったが、これも慣れてくるとそこそこできるようになってきた。

ではVoiceOverを有効にしたiPhoneが、視覚障害者の間で広く使われているらくらくホン (DoCoMo) の代わりになるか、というと残念ながら現時点ではそのレベルに達していないと言わざるを得ない。もっとも大きな問題点は、日本語入力の音声化が不完全であるということだ。変換候補を識別する上で不可欠な漢字の詳細読みがないこと、おそらくより高速な日本語入力を可能にしてくれると思われるフリック入力が音声では利用できないことなど、日本語入力については大いに改善の余地があるのが現状だ。 (ただし、推測変換が比較的優秀なようで、適当に変換しても読める文章にはなるようだ。) 逆に言うと、英語しか使わないのであれば十分に実用に耐えると考えることもできる。

アプリケーションは使えるのか?

標準搭載のアプリケーションは、基本的に問題なく利用できる。気になるのはiTunes Storeから入手できるサードパーティ製のアプリケーションだが、これはものによっては全く問題なく使え、ものによっては全く使えず、ものによっては多少問題はあるが使える、といった感じだ。僕はこれまでに無料のものを中心にそれなりの数のアプリケーションを試してきたが、それなりに使えるものは少なくない。問題は、有料のものについては購入して試してみないと使えるかどうか分からないという点だ。

この問題を解決するためには、いろいろなアプリケーションのVoiceOverでの動作実績に関する情報を蓄積して共有するしかないだろう。そこで、そういったことを目的にしたWikiを作ってみた。ここにVoiceOverが有効な際の操作方法などの情報も掲載してあるので、興味がある方はぜひご覧いただきたい。また、iPhone 3GSユーザの方は、ぜひお使いのアプリケーションに関する情報を寄せていただきたい。

感想

最後に、iPhoneのVoiceOverについて考えたことを二つばかり書いておくことにする。

VoiceOverが標準搭載されていることの意味

VoiceOverがiPhoneに標準搭載されているということには、いくつかの意味がある。詳しくは記事を改めて書きたいと考えているが (書かないかもしれないけど) 、重要な点の一つは、普段VoiceOverを必要としない晴眼者も簡単にこの機能を有効にして試してみることができるという点だ。これは多くの人には関係のないことかもしれないが、たとえばWebサイトの開発を行っているような人の場合、Windows環境と違って追加でスクリーン・リーダーを購入することなく視覚障害があるiPhoneユーザの環境を再現し、テストすることができる。また、上述のアプリケーションの動作実績を蓄積していく上でも、普段VoiceOverを使っている視覚障害者以外の人も情報提供者になることができる。

タッチスクリーンが使えるということ

冒頭で述べた通り、僕はタッチスクリーンは視覚障害者にとって利用できないディバイスだと考えて疑わなかった。しかし、上述の通り、VoiceOverを有効にすることでタッチスクリーンをそれなり以上に使うことができる。確かにタッチスクリーン単体では視覚障害者が利用することはほぼ不可能だが、適切な音声フィードバックを提供することで利用できるようになるということが実証されたわけだ。まず僕は、自分の思い込み恥じ、その思い込みの結果新たな可能性に目を向けようともしなかった自分の姿勢を反省した。

同時に、ハードウェアというのはソフトウェア次第で、極端な言い方をすれば「どうにでもできる」ものだという点を再認識させられた。すなわち、どのようなハードウェアも、一緒に用いられるソフトウェア次第で使いやすくも使いにくくもなるものであるということだ。したがって、ユーザ・インタフェースを考える時は、ハードウェアのことだけを考えるのではなく、ソフトウェアも含めて考えて評価しなければ、決して適切な評価にならないということだ。「このディバイスはタッチスクリーンだから視覚障害者には利用できないUIだ」というのはハードウェアのみに注目した物言いであって、実際にはそのディバイスで動作するソフトウェアがどのような機能を持つかも含めて考えなければいけないのだ。さらに言えば、ハードウェアとそれを動作させるソフトウェアに加えて、そのディバイスが利用される環境も含めて考えなければ正しい評価はできないだろう。例えば、いくら適切な音声フィードバックがあるタッチスクリーン・ディバイスであっても、騒音が多い所で利用されるものであれば、やはりそれは視覚障害者には利用が難しいものになってしまう。どうやら僕はこれまで、ユーザ・インタフェースというのがいくつものコンポーネントの組み合わせで成り立っているということを忘れて、特定のコンポーネントだけに着目した評価をしてきたのではないかと反省させられたわけだ。これまで使えるわけがないと思って見向きもしなかったものの中には、再評価する必要があるものもあるのかもしれない。

そして、タッチスクリーンの利用に関してもう1点触れておきたいのは、実はタッチスクリーン (+適切な音声フィードバック) の方が、キーボード+音声よりも、視覚障害者にとって便利な場合というのもありそうだ、ということだ。具体的には、たとえば初めてアクセスしたWebページにおいて、ページ全体のレイアウトを知りたい場合などだ。視覚障害がある場合、画面の鳥瞰図を得ることが不可能、または困難で、そのことをいかに補うことができるかというのは、アクセシビリティを向上させる上ではぜひ考えなければならない点だと思う。iPhoneのVoiceOverを使ってみて、タッチスクリーンと適切な音声フィードバックを組み合わせれば、この点を大いに補える場合が少なからずあるのではないかと感じた。ただ、おそらくこれはタッチスクリーンのサイズも影響していて、iPhoneのこのサイズだからうまくいっている、という側面もありそうだ。今後、タッチスクリーンと音声の組み合わせをより有効に用いていくための方法などについて、さらに検討していく必要はありそうだ。

最後にお願い

繰り返しになりますが、Wikiへの情報提供をお願いします。特にアプリケーションの動作実績情報を提供していただけると大変助かります。