AIと感情
2022/06/15
AIと感情
AIは今、どこまで人間の感情をわかりはじめている?
科学の目でみる、
社会が注目する本当の理由
AIと感情
人間の表情などの情報から感情を認識、分析するAIの研究開発が進んでおり、「感情分析AI」とも呼ばれています。人間の感情を高い精度でAIがくみ取ることができるようになれば、ヘルスケアやマーケティング分野で個々人の気持ちに沿った情報提供ができ、望ましい行動を促せるようになったり、自動車などの機器が人間のコンディションに合わせたりするなど、ストレスの少ない快適な暮らしの実現につながると期待されています。
ここ10年で心理学の研究にもかなり入ってきているAI。アフェクティブ・コンピューティングというアプローチで、私たちの顔の画像や話している声から、その人がどんな感情かを分類する研究が世界で進んでいます。AIは人間の感情をどこまで理解できているのか、産総研ではどのような研究が進み、どのような活用が始まっているのか、どのような課題や未来像があるのか。人間情報インタラクション研究部門心身機能・モデル化研究グループ木村健太研究グループ長に聞きました。
AIにとって「感情」を認識する意義とは
使われ始めている顔、声からの感情分析
顔や声など、人が外部に表出させている情報を分類して感情を分析する方法はすでにかなり発達し、定着しつつあります。産総研でも、自動車ドライバーの顔の情報を使って事故防止につなげたり、お客さんの表情を分析して接客力の向上につなげたりする研究が行われてきました。感情分析のアルゴリズムは、顧客満足度の向上やクレームを可視化する目的でコールセンターに導入されるなど、多くの企業で使われています。
研究開発段階では自動車に表情分析AIを搭載することが試みられています。テレワーク時のカメラ画像から、家で仕事をする社員の健康状態が確認できないかという企業からの相談もコロナが始まって以降に増えました。介護現場から、介護に従事する人へのケアに活かしたいという相談も増えています。
一つの潮流として、声や表情だけでなくSNSでの発言や「いいね」などのリアクションのパターンも、感情的な反応として捉えて分析することも多く行われています。また、最近では単一のデータではなく、いろいろなデータを結びつけることで分析の精度を上げていく試みがされています。「マルチモーダル」と呼びますが、顔の画像と声の情報、発話の内容のテキスト情報などを組み合わせて、より高度な判断のできるAIの開発を目指すものです。
AIを使用するにあたって重要なポイントは、やはりデータセットです。欧米人と日本人では表情表出に違いがあると言われています。そうなると、AIに学習させる顔表情のデータセットを欧米のものに頼っている現状では日本人の感じ方とAIによる判断に乖離があるので、日本人の感情を推定するために適したデータの補完により乖離を埋めていく必要があります。
感情には、内臓の変化も影響している
最近は、脳波も感情を分類する手段として用いられています。気持ち良いときとそうでないときで脳波がどう違うか、それを機械学習にかけるという試みもかなり多くされているのです。人は表情や声質はある程度、社会的文脈に合わせてコントロールできますが、脳波は自分でコントロールすることが難しいので、そういう意味では、一段、その人の素の感情状態に近づいているとも言えるかもしれません。
さらに、感情は脳だけでつくられるものではなく、心臓や胃などの内臓の変化も影響しているという考え方が100年前くらいからあります。産総研でも、内臓感覚や内受容感覚と呼ばれるものを研究しています。心臓の鼓動や胃腸の動きは脳に多くの情報を伝えていて、それによって人の行動が変わるというデータが産総研からも報告されています。また、産総研ではありませんがロボットに感情を実装することに取り組んでいる研究者は、感情を理解するために、ロボットに内臓の働きをもつようにする試みも行っています。
「心の座は脳だ」と長らく言われてきましたが、感情に関しては、脳と身体の関係性が大事だと考えられ始めています。顔や声といった表出する情報、脳波のデータだけでなく、心拍や胃、血中のホルモンといった、生物的、身体的な状態を継続的に見ていくことで、わからなかったことがわかるようになるのではないかと期待されています。内臓感覚はセンシングが難しく、どう測るかという面で課題がたくさんありますが、今後、センサを発達させてデータを蓄積していくことによって、画像と音声が主要な今よりもっと多様なマルチモーダルデータで感情を推定していくことはあり得ます。
AIに感情認識を実装するための課題と意味ある活用のかたち
社会に実装するためにクリアすべき課題
感情を認識するAIを社会に実装していくには、課題もあります。1つ目は、感情の研究、理論がまだ成熟期に達していないという課題です。米国の心理学者ポール・エクマンによって提唱された「怒り」「嫌悪」「恐怖」「喜び」「悲しみ」「驚き」という6つの基本感情説が、これまでの研究やAI開発のベースになってきました。しかし、2010年代の後半から「人間の感情はそんなに単純ではない」という議論が立ち上がって、今、感情の研究自体が転換期を迎えています。ベースにする理論の確立が一つ目の課題です。
2つ目は個人情報の観点です。感情というのは、ある種、最大の個人情報であり、個人にとっては知られたくない情報という面もあります。表情などのデータを日常的に取られて、データとして蓄積されて使われていくという社会になったとき、私たちがどこまで受容していけるのか。データを提供することが良いことにつながっていくという理解を広げて、社会的な受容性をもっと上げていかないと、誰もデータを提供したいとは思わないでしょう。
データ取得にあたりどのような形で同意を取っていくかという法的な整備もこれからです。サービスに入る前に、あなたの表情などのデータから感情を分析しますという項目を設けるだけで済むのか、個別の同意書面の取り交わしを求めるのか、検討すべき事項はたくさんあります。セキュリティが担保されたデータやサーバー、匿名化などの技術も必要になります。感情分析AIがようやく社会に実装されようとしている今、制度の不備で事業化の遅れが生じるのはデータ蓄積の面でも機会損失です。速やかな事業化を支える整備が求められています。
VR、メタバースでも注目される、感情の活用
課題はあるものの、今後、VRやメタバースといった分野も広がっていくときに、感情をどのように使うかは、とてもおもしろいところです。VRであっても他人とのインタラクションは生じ、そこで感情が生じます。人間には相手につられて笑う「表情の伝播」という現象があって、共感性と関連すると言われています。それを活用して、アバターの顔にできるだけ同期して感情を伝えるとか、あるいはアバターに全く違う表情をさせることもできます。さまざまな活用の仕方が考えられますが、そのひとつとして人と人がどのくらい信頼関係を築けているかを測る、といった使われ方をしていくかもしれません。
マーケティングやヘルスケアの領域での活用も広がっていきそうです。産総研では、「行動変容」を一つの大きなテーマとして、どのような気分、感情の状態のときに、どのような意思決定をしやすいかという研究をしています。たとえば、実験室で複数の映像を見せて、実験的に感情を操作した後に意思決定をさせると、楽しいときと悲しいときで意思決定の仕方が全く違うということがデータとして出てきています。
つまり、人の感情がある程度わかるようになってくれば、リコメンドや行動変容を促すシステムの中に感情の予測、分類を入れて、「この人はこういう気分だから、こう言うと逆効果だな」といった判断もでき、リコメンドがより的確になる可能性があります。ヘルスケアの領域でも、忙しくてヘトヘトの状況の人に対して健康のために運動をしましょうとリコメンドをするのではなく、気分が乗ってくれそうなときをシステム側が感知して背中を押してくれて、ダイエットを確実に成功させてくれるシステムができるかもしれません。
年齢、性別、住んでいる場所などの属性に加えて、個人のパーソナリティや感情の状態にも合わせたリコメンドができれば、人の行動を良い方に導いて、一人ひとりが楽しく、ウェルビーイング(well-being)な状態で過ごせる環境ができるかもしれません。悲しいことは最小限にできて、楽しいことが最大限にできるようになれば、感情として介入する意味があるのではないかと考えています。