<ヘッダー>
<日付/時刻>
マスタ テキストの書式設定
2 レベル
3 レベル
4 レベル
5 レベル
<フッター>
<#>
それでは説明を始めさせていただきます。
まず本プロジェクトの背景と概要をお話した後、
プロジェクトで開発するシステムの機能について、イメージとシナリオで説明します。
その後、本研究の展望として、現在考えているものをご紹介いたします。
最後に、今回製作したプロトタイプの説明とデモンストレーションを行ないます。
我々は以前より、自動翻訳、音声認識、感情情報処理といった要素技術を幅広く取り組んでおりますが、
人間とコンピュータとのコミュニケーションを実現するためには、個々の技術だけでは不十分で、
これら要素技術の有機的な研究の取り組みが必要であると考えます。
本研究では、この取り組みの土台作りとして、
大学内の案内・受付システムとして、これらの技術を併せて組み込んだパイロットシステムを製作します。
このシステムに研究成果を逐次反映していきながら、実環境で運用していくことで、
円滑なマンマシンコミュニケーションの実現の為の研究開発を行っていきます。
製作するシステムは、
エージェントとの音声、画像、テキスト、タッチパネルを用いた対話により、
研究・教育情報の案内と、学内スタッフへの取次ぎをユーザに行います。
また多か国語の対話に対応するため、学内情報の各言語での対話知識データベースを構築します。
また、システムのレスポンスと、今後の機能追加を考慮し、
各機能の分散化とクライアントの軽量化を実現します。
システムのイメージはこのようになっています。
ユーザは、モニタにいるキャラクタに、マイクを通じて話しかけることで、
スタッフや、スタッフのスケジュール、Web上のコンテンツにアクセスすることができます。
またカメラによって、ユーザの検知や、顔表情の取得を行います。
次に具体的な利用例を、順を追って説明いたします。
まずユーザがシステムの前に立つと、カメラがユーザを検知して、エージェントが挨拶をします。
(クリックしてユーザと、「こんにちは。???です。」表示)
ユーザが学内のスタッフについて問い合わせると、エージェントは該当するスタッフに連絡をとりにいきます。
(クリックして「任先生は。。。」表示)
(クリックして「かしこまりました。。。」表示)
(クリックして電話呼び出しアニメーション表示)
スタッフが不在の場合、スケジュール情報に問い合わせて、ユーザに伝えます。
(クリックして「申し訳。。。」表示)
ユーザが学内の場所に関する質問をすると、
エージェントは学内位置と、関連する地図を表示してユーザに案内します。
(クリックして「任先生の。。。」表示)
(クリックしてスケジュールのページと「任教授の。。。」表示)
また、学内の研究・教育に関する質問をすると、
エージェントはWeb上のコンテンツを表示して説明します。
(クリックして「ふーん。ところで。。。」表示)
(クリックして「任研究室では。。。」表示)
加えて、エージェントがユーザの今の興味を判断して、
自発的に興味に関連するコンテンツを、ユーザに提示します。
(クリックして「はい」表示)
(クリックして、矢印を表示)
(クリックして、ムービーを表示)
これまでのユーザとの対話履歴から、ユーザがスタッフに問い合わせて不在だったこと、
現在スタッフが在室であることを判断し、再度ユーザに取次ぎを提案します。
(クリックして「ええ、お願いします。」表示)
(クリックして「かしこまりました。。。」表示)
(クリックして、矢印とスタッフ表示)
以上の機能を、実現しようと考えております。
システムの機器構成はこのようになっております。
負荷を分散するため、対話クライアントは各インタフェースを制御するだけで、
対話処理、音声認識、合成、顔表情認識等の処理は、他のマシンで行います。
各機能の負荷に応じて、構成は柔軟に変えられるように設計します。
対話のコンテンツである対話知識はデータベース内に独立して格納し、
関連するウェブコンテンツは各々のウェブサーバから利用します。
以上で製作するシステムの説明を一旦終わり、本研究の展望についてお話しします。
ここに挙げるように、
学術的な展開として、大規模な人間−コンピュータ対話コーパスの構築、
教育的な展開として、EDBとの連携による学内教育・研究情報の提供、
医療・福祉への展開として、対話エージェントによる医療・介護支援システムの実現、
既存産業への貢献として、コミュニケーションロボットの為の対話・推論機能
を現在考えております。
大規模な人間−コンピュータ対話コーパスは、
自動対話技術・感性情報処理の研究・開発に際して、とても重要となります。
このためには、単なる対話のテキストログではなく、各対話状態に付随する、
人間の発話音声、表情、動作といったデータが必要です。
また、年齢や性別等の異なる、多様な被験者でのデータ収集が重要です。
本研究で開発する対話エージェントを利用して、このようなコーパスを収集することを考えております。
医療・介護には多くの課題があり、
そのうちに、介護者の大きな負担や、患者の孤独といった問題がありますが。
音声対話による対話インタフェースにより、
患者と介護者や家族との、遠隔コミュニケーションの支援や、
介護中の医療情報システムの操作の支援に、利用できると考えております。
また、感性情報処理、発話内容の推論機能により、患者や介護者の感情等の検知、
円滑なコミュニケーション能力による、患者の孤独解消に利用できると考えております。
現在、コミュニケーションロボットの期待は高まっており、
既に、ロボットに高度なコミュニケーション能力を備えさせるための研究は盛んに行われておりますが、
多くの課題が残っており、実用的なコミュニケーションロボットは実現できておりません。
我々は、人と如何に円滑なコミュニケーションを成立させるか、という観点より、
これらの課題の解決と、コミュニケーションロボットの実現に、貢献できると考えております。
最後に、本研究で製作したプロトタイプシステムの概要と、デモンストレーションを行います。
このデモンストレーションでは、先ほど説明した、
学内情報の発話音声、テキストによる応答
教職員への電話による取次ぎを行います。
概要の説明とデモンストレーションは、今回プロトタイプの製作を行った住友が行います。