表情&音声から人間の感情を分析するAIの実用化が始まる

人間の表情から感情を分析するAffectivaのAI技術

人工知能で人間の感情を正確に分析し、その結果をビジネス成果や社会的課題の解決へと繋げる――現在、そんな試みが着々と進もうとしている。

AIを使って感情を分析するアプローチにはいくつかのパターンがある。まずポピュラーになりつつあるのが、「機械の目」とAIを併用して人間の感情を読み解こうというものだ。

MIT(マサチューセッツ工科大学)のMedia Labから生まれたAIスタートアップ・Affectivaは、2016年5月に1400万ドル(約15億5820万円)のシリーズD投資を受けた。同社はコンピュータービジョンとディープラーニングを活用し、デジタル映像に映った人物の表情から感情を読み取る技術を開発している。

同社が開発するテクノロジーの肝は、「言語コミュニケーション」ではなく、「非言語コミュニケーション」を解析するという点だ。もう少し詳細に説明するならば、機械が映像の中の会話や言葉を認識するわけではなく、ビデオ通話、リアルタイム放送、録画ビデオ、デジタル画像など映像素材を集めてカテゴリ別に分類し、前もって登録された「喜び」「悲しみ」「心配」「愉快」「驚き」など表情データとマッチングさせる。そして、「言葉で表現された以外の感情」を読み取るという仕組みになっている。

Affectivaが感情分析技術は、学習を重ね時間が経過するにつれ、より複雑な感情を区別できるようになると期待されている。「希望」「インスピレーション」「不満」など、より多様な感情を分析することが同社の今後の目標だそうだが、そのためすでに全世界75カ国の人々から425万個の映像を収集、その映像の中から500億個の感情と関連するデータを抽出しているという。

彼らの研究成果として興味深いのは、人間が普段認識している相手の表情が必ずしも特定の感情を表していないということを発見したことだ。例えば、東南アジアの人々が見せる「微笑み」は、「喜び」や「にやけた笑い」とはまったく異なるものだという。これらの研究結果は、ある意味、感情を読み取るというシーンで、機械が人間の洞察力を超えはじめている兆候とも思えなくもない。

企業が活用をはじめるAI感情分析ツール

なおAffectivaの感情分析技術は、すでに世界75カ国で約100企業が導入しているという。主なクライアントは、ビデオゲーム開発会社、大企業内のブランドディングおよび広告チームなどとなる。

ゲームメーカーのFlying Mollusk Studioは、Affectivaの感性解析ソフトウェア開発キット(SDK)を活用し、心理分析を採用したホラーゲーム「ネバーマインド(Nevermind)」を開発した。同ゲームには、ユーザーがプレイ中に恐れや不安な表情すると、難易度が高くなる仕掛けがあるのだが、感情と連動したゲーム開発にAffectivaのAI分析技術が一役買っているというわけだ。ゲームと関連した人間の表情で言えば「ポーカーフェイス」という言葉もあるが、今後、AIがどこまで人間の感情読み切るってくるのか気になるところだ。

一方、企業の広告およびマーケティング担当者たちは、Affectivaのサービス型ソフトウェア(SaaS)を活用し、コンテンツに対する顧客の反応を確認しているという。これまでは、顧客からアンケートなどテキスト情報=言語情報を集めて反応を分析していたが、それが表情を読み取ってより直接的に反応を分析するという形に変化しつつあるというわけだ。なかでも映画、TV番組、広告などのコンテンツでは、多数のユーザーが興味を失うシーンを把握し、修正を行うための判断材料にもなっているという。

AIを使って感情を分析するアプローチには、声を判断材料とするというパターンもある。こちらは実用化された例は見当たらないが、気になる動きとしては米大手自動車メーカー・フォードの例がある。

2017年3月、フォードは「人間の感情に寄り添う音声認識機能」を実現する取り組みについて声明を発表した。声明の中で、フォードに音声認識技術を提供する企業・Nuance Communicationsの関係者は次のように話している。「フォーブス」の記事(日本語電子版2017年3月2日付)に言及があったので引用したい。

<当社はドライバーに共感し、親身になってくれる車の開発に向かっている。ドライバーを元気づけるために冗談を言ったり、必要な時にアドバイスをしたり、誰かの誕生日を思い出させたり、長距離ドライブの際には注意力が途切れないようにしてくれる車だ>

これは、ドライバーの感情を分析するAIアシスタントを、自動車に搭載していく方針を表明したものと察することができるが、フォードの声明はさらに次のように続く。

<未来の車の次なるステップとして、私たちの表情の小さな変化や話す声のトーンや抑揚を認識できるようにすることが考えられる>

コンピュータービジョンなど「機械の目」、そして音声認識センサーなど「機械の耳」がAIとともに発展していけば、人間の感情を機械が正確に分析しビジネスに活かされる日はそう遠くないのかもしれない。

うつ病の発見に活用される音声認識技術

ちなみに日本では、東京大学の光吉俊二教授らの研究グループらが人間の音声から心理状態を計測し、それを色など人間が捉えやすいように可視化する技術「センシビリティー・テクノロジー」を研究している。

同技術は、すでに日本の防衛省に正式に採用されている技術。防衛省・防衛医科大学校との共同研究では、自衛隊の被験者群の音声データを収集し、任務をこなす過程でどれほどのストレス状態におかれているか、またうつ病なのか、健康なのかを明らかにするプロジェクトも並行して進められているという。感性を理解すると公言されているソフトバンクのAIロボット「ペッパー」も、光吉教授らの協力のもと開発が進められている。

ビジネスだけではなく、人間の心理を読み取って社会的課題を解決しようというAI感情分析の開発動向にも注目したい。