1
|
|
2
|
- 背景と概要
- 機能要件
- 本研究の展望
- 学術的・教育的な展開
- 医療・福祉への貢献
- 既存産業への貢献
- プロトタイプによるデモンストレーション
|
3
|
- 我々は現在、人間とコンピュータとのコミュニケーションを実現する為の要素技術に意欲的に取り組んでいる。
自動翻訳、ロバスト音声認識、感情情報処理etc.
- 実環境で利用するシステムとして、これらの技術を組み込んだ、大学内の案内・受付を行うシステムを製作する。
- 研究成果を逐次システムに反映し、運用していくことで、
- 実環境での検証・評価実験等に活かせる
- 他技術との関連に拠る課題を、新しく発見する機会を得る。
|
4
|
- 実環境で使える自動対話システム
- 学内案内システムとして
- 研究・教育情報の知識DB化と、それに基づく推論を用いた対話機能
- 多言語対応(日本語、英語、中国語)
- 受付システムとして
- 構内のナビゲーション
- 各教職員へのスケジュール検索を含めた内線転送機能
- マルチモーダルインタフェース
- 音声、画像、テキスト、タッチパネルによる入力機能
- 対話エージェント、各種メディアコンテンツと連携した応答機能
- 各種要素技術を適宜組み込めるアーキテクチャ
- 各機能の分散化
- クライアントの軽量化(実行時負荷、要求メモリ等)
|
5
|
|
6
|
|
7
|
|
8
|
|
9
|
|
10
|
|
11
|
|
12
|
|
13
|
- 学術的・教育的な展開
- 大規模な人間-コンピュータ対話コーパスの構築
- EDBとの連携による学内教育・研究情報の提供
- 医療・福祉への貢献
- 対話エージェントによる医療・介護支援システムの実現
- 既存産業への貢献
|
14
|
- 自動対話技術のさらなる展開の為に、大規模な人間−エージェント間の対話コーパスが必要である。
- 対話データとして、人間−エージェントの対話履歴はもちろん、エージェントの行動や音声応答に対する、人間の発話、表情、行動といったデータが重要。
- 多数の被験者によるデータが必要。
|
15
|
- 音声、エージェントの表情・ジェスチャーの利用
- 介護者・看護師や家族との遠隔コミュニケーション支援
- 介護作業中の医療情報システムとのユーザインタフェース
- 感性情報処理・推論機能の利用
- 患者・介護者の感情を含めた状態の、自動的な異常検出・遠隔監視
- 患者の孤独解消の為の対話による癒しの提供
|
16
|
- 既に、ロボットにコミュニケーション能力を備えさせる為の研究は盛んに行われている。
- 発話音声・顔表情の認識や視線の検出
- 発話音声・顔表情・ジェスチャーの生成
- 人と如何に円滑なコミュニケーションを成立させるか?⇒今後さらなる研究開発が必要
|
17
|
- 学内情報の発話音声、テキストによる応答
- 教職員への電話による取次ぎ
- プロトタイプ概要
- Windowsで動作するスタンドアロンアプリ(.NET2.0 C#)
- 形態素解析はmecab(http://mecab.sourceforge.jp/)
- 音声合成はL&HのフリーバージョンTTS3000(http://www.microsoft.com/msagent/downloads/user.asp#tts)
- 音声認識はJulius for SAPI & 標準6万語彙言語モデル (http://julius.sourceforge.jp/sapi/)
- キャラクタはMicrosoft Agent
- 電話転送はSkype(通常電話への転送にSkypeOutを利用)
|