AIの擬人化効果をもつ対話エージェントを通じて、人とAIのコミュニケーションを円滑にし、快適で豊かな社会の実現をめざす
2018年11月6日
株式会社日立製作所
日立は、大学共同利用機関法人自然科学研究機構生理学研究所および学校法人芝浦工業大学とともに、人に寄り添うAI*3の実現に向けて、人の感情表現を模倣する技術を開発しました。本技術では、人が喜びや悲しみの表情を浮かべると、それを読み取った対話エージェントのCGキャラクタが同様の感情を表現します。この対話エージェントの応答に対して、利用者はAIが人と同様に感情を表現したと思えること(AIの擬人化効果)を脳科学を用いて実証しました。日立は、人とAIとのコミュニケーションを円滑にすることで、AIを活用した快適で豊かな社会の実現に貢献していきます。
AIは、新しいサービスや機能を実現して人々の暮らしをより豊かに便利にするものとして注目されています。その適用範囲は、営業・販売、医療、福祉、教育など幅広い分野に及んでいます。デジタル化の発展の鍵は、人に寄り添うことができる技術の開発にあります。AIも、社会に幅広く浸透するためには人とのインタフェースが重要であり、対話エージェントによるコミュニケーションでは、人と同様に感情を持っており、共感してくれていると思えること(AIを擬人化できること)が大切です。例えば超高齢社会における単身高齢者ケアで活用するには、対話エージェントが愛情をもって接してくれていると利用者が思える必要があります。
人同士のコミュニケーションでは、自分の表情から相手が感情を読み取り、相手から同じ感情表現が返されることで、自分は相手に共感されていると感じています。一方、従来の対話エージェントでは、同じ動作が返されても、「人が操作している」と伝えた場合と「AIが操作している」と伝えた場合では、脳活動が異なることが知られていました。つまり、従来の対話エージェントでは、人同士のような良好なコミュニケーションをすることが難しいという課題がありました。今回の研究では、対話エージェントが感情表現を模倣することで人と同様に感情を持っているように感じられる、と仮説を立て研究を進めました。
今回開発したインタラクション技術は、人の表情からの感情の読み取る技術と、読み取った感情を表現する技術を組み合わせたもので、対話エージェントが人の感情表現を模倣(図1)することに成功しました。具体的には人が笑顔を浮かべると、それを読み取った対話エージェントのCGキャラクタ"ピヨタ"*4が喜びの感情を示して、これを見た人は、AIが操作していると分かっていても、対話エージェントが感情を持って接してきたと感じ、人と対話エージェントの間に良好なコミュニケーションが生じます。
本技術がもたらすAIの擬人化の効果を客観的に検証するために、被験者の笑顔に対してピヨタが喜びの感情表現を返したときの脳活動をfMRIを用いて計測しました(図2)。その結果、ピヨタのポジティブな感情表現の模倣に対して、AIがピヨタを操作していると認識している場合と、人が操作していると認識している場合で脳活動に違いがないことを確認できました。さらに、計測中に被験者に実施したアンケートでは、AIが操作していると認識していても、対話エージェントの感情表現の模倣により「心地よいと感じる」という回答が得られ、主観的にも効果が評価できました。
今後、日立は、人とAIの架け橋となる対話エージェントの開発を進め、AIが人に寄り添い、人が快適で豊かに暮らせる社会の実現をめざしていきます。
本成果は、2018年11月4日にアメリカ合衆国のサンディエゴで開催されたNeuroscience 2018*5で発表しました。
今回の研究のスタートは、「ポジティブな感情表現を模倣することで共感を得るのでは」という点でした。ここから人の豊かな表情をリアルタイムに読み取る技術と、読み取った感情をCGキャラクタ(ピヨタ、図3)が全身で表現する技術を組み合わせることで、従来にない人の表情に合わせて豊かな感情表現を出力するインタラクション技術を実現しました。従来の研究では、人型のCGキャラクタが使用されていましたが、今回、ダイナミックな感情表現をしても受け入れやすいキャラクタ(ヒヨコ型)を開発し、自然で豊かな感情表現を実現しました。
対話エージェントが人(利用者)の表情の種類と程度を読み取り、その表情に合わせた感情をCGキャラクタ(ピヨタ)が表現します。このように人の笑顔にあわせて対話エージェントが喜びの感情を表現し、このインタラクションを認識することでAIが操作していると分かっていても人は対話エージェントが感情をもって接していると感じます。
図3 豊かな感情表現を行うCGキャラクタ(ピヨタ)アニメーション
fMRIを用いた脳活動による科学的かつ客観的な評価手法で効果を検証しました。対話エージェントを人が操作しているのかAIが操作しているのか被験者には判別できない環境を用意して、「対話エージェントは人が操作している」と伝えた条件(人条件)と「対話エージェントはAIが操作している」と伝えた条件(AI条件)において、対話エージェントが感情表現を模倣した際の脳活動を比較しました。実際には常に対話エージェントをAIが操作し、対話エージェントは同じ挙動を示すようにすることで、「AIが操作している」という認識の影響を検証できます。
本対話エージェントの効果を、fMRIを用いた脳活動計測と、同時に被験者(39名)に実施したアンケートで検証しました。脳活動計測では、脳内で前帯状皮質や楔前部が活性化すること(図2)を確認し、人条件とAI条件における脳活動に有意な差が見られないことを確認しました(図4左)。アンケートでは、人の笑顔に対して対話エージェントが喜びの感情表現を模倣すると、ポジティブな気分を示し、その気分のスコアは人条件とAI条件で有意な差が見られないこと(図4右)が分かりました。これらの結果から、ポジティブな感情表現の模倣により、AIが操作していると分かっていても、人と同様に対話エージェントが接していると感じたことを確認し、AIの擬人化に成功したことを実証しました。
図4 人条件とAI条件における感情表現の模倣時の脳活動(左)・主観的気分(右)の比較結果
このトピックスは、以下の新聞に掲載されました。