本稿では音声ウェブブラウザの 設計方針について検討し、 音声の利点がどの程度もたらされる かを検証するために模擬対話実験を行った。 その結果、 先読みしたページに含まれる語彙をユーザが連想して発話すること が容易とは限らないこと、 ユーザの発話は表示されている画面が選択画面であるか 情報提示画面であるかに依存し、操作発話だけでなく 多くの印象発話を含むこと、 HTMLタグ情報によって画面タイプの分類が可能である ことが明らかになった。
今後の課題としては、 ネットサーフィンに不慣れな 被験者に関しても同様の実験を行うこと、 オペレータとユーザを非対面にしたり オペレータの役割を限定するなど 実システムに近い実験を行うこと、 などが挙げられる。 また、 自発的な対話の行える 音声ウェブブラウザを実現する ためには、 より詳細なユーザ発話と画面内容との対応づけを行うとともに、 各語彙に対するシステムの応答も検討する必要がある。