対談 CONVERSATION

行動から人の内面状態を読み取るAI!?岡田将吾の気になる研究 前編

長谷川茂雄

人と人とのコミュニケーションに必要なものは、言語だけにあらず。視線やジェスチャー、表情といった非言語情報も不可欠であることはいうまでもない。岡田将吾氏は、それを社会的信号処理という新しい領域に基づいた研究を通して読み取ることを実践する先駆者のひとり。同氏の試みは、人間の内面の状態を理解するためのAIの新分野として世界から注目を浴びる。これらの研究は認知症の初期症状などを読み取る手がかりにもなるという。編集長・杉原が、最先端の研究の現状とその先に広がる未来について伺った。

人の行動から内面状態を理解するという試み

杉原:もともと岡田さんは、大学でいわゆるAIに関する研究をされていたんですか?

岡田:そうですね。人工知能を基本に、修士、学士と約5年間研究をしまして、少しずつ人の行動を予測するとか、人の行動からコンテキストを推定するということにフォーカスするようになりました。 例えば、この人のしゃべり方や使う言葉の特徴がこうなら、この人はロボットとのおしゃべりを楽しんでいるとか、いくつかの行動から、人の内面を予測するというような研究です。

杉原:今日は、話していて僕の思惑がバレるかもしれないから、サングラスか何か掛けたい気分です(笑)。

岡田:いや、僕自身は(内面を予測することは)できないですよ(笑)。システムにはできてしまうことがありますけどね。

人の行動から内面を読み取るという研究を続ける岡田氏。「最近は、手の動きと感情の関係性が気になる」という。

杉原:ならよかったです(笑)。岡田さんのそういった研究は、AIなどを通じて出口がたくさん出てきたという段階ですか?

岡田:そうですね。最近は動作を測るセンサーが安くなったりもして、状況が変わってきましたし、企業でも自分たちのような研究をしているところが出てきました。そういうプロジェクトに自分が加わることも増えてきて、出口は広がったと感じています。

杉原:もともと岡田さんがAIに興味を持ったのは、どういった経緯でしょうか?

岡田:最初は大学で物理をやっていたのですが、物理の世界っていろいろと難しくて挫折してしまいました。それで物理の先生にはちょっと失礼なんですが(笑)、もう少し目に見えてわかりやすいことがやりたいと思って、ロボットに顔の認識や画像の認識をさせて動かすという研究をやっている研究室に入ったんです。AIを研究し始めたのは、そこからですね。

杉原:岡田さんのような分野の研究者は、日本にどのくらいいらっしゃるんですか?

岡田:もちろん産官学で人工知能の研究をされているグループは山ほどありますけど、ピンポイントで、人の行動から内面状態を理解するみたいなことに焦点を当てているのは、僕たちと数えるくらいしかないです。

こちらは、2018年にジョージ・アンド・ショーン合同会社(現株式会社)と岡田研究室が共同で開設したG&S Labのイメージビジュアル。IoTデバイスであるbiblle(ビブル)を活用して、行動学習に特化した機械学習プログラムの開発を行っている。

もう多くの企業ではAIが採用面接をしている!?

杉原:表情から何かを読み取るということは、なんとなく僕もイメージできるんですが、そこから購買意欲だったり、そこに出口を見つけていくというのは、なんだか大学でやる研究っぽくないなと思いますね(笑)。

岡田:そう言われれば、そうかもしれないですね。

杉原:僕自身のイメージでは、大学の先生は研究を突き詰めて、あとはアウトプットを第三者に見つけてもらう、そんなスタイルが多いなと常々感じているんですよ。それが出口までしっかりとしていて、岡田さんの研究は面白いなと思います。

岡田:そう言っていただけるとありがたいです(笑)。確かにそれは狙っていて、研究室でコンピューターの前に座って突き詰めるのではなく、実際のインパクトのあるデータに対して、なんらかの回答を出していくほうが、世の中的にも出口がわかりやすいですし、そういうことは意識していますね。

岡田氏の研究に興味津々の杉原。感情という抽象的なものを数値化するという試みには、シンパシーを感じているようだ。

杉原:世界的にはどうなんですか?

岡田:コンピューティング分野の国際会議のような場には、アメリカ、ヨーロッパの有名大学の研究者が集まってきますが、そこでは感情を理解するという研究が一番多いように感じます。コンピューターにいろいろな感情を理解させるということが基本ですけど、話している声や内容、表情からコミュニケーションのスキルを推定するということも盛んになってきてはいます。AIによる企業の採用面接みたいなものもそうですね。

杉原:確かにそういう面接は、実際にあるようですね。

岡田:面接で一言、二言答えたことから推測して、その人(のスキル)を判定するということですよね。あらゆる企業は、もうAIを様々活用しているのですが、採用には特定の人しか受からないとか、雇用差別・公平性の問題が出てきたりもしています。自分も就職面接のように実際に多くの人を呼んで、はじめて会った学生同士でディスカッションをしてもらい、そのビデオを人材派遣の会社に送って、人事の採用担当者に点数をつけてもらうという試みをしたことがあります。同じようにAIにも判断してもらったら、熟練の採用担当者と同じように人を選ぶのかどうかを検証しました。その実験は、学会でも良い評価をもらいましたが、アプリケーションとして見た場合、考慮すべき課題が多いと感じます。ですので、そういうスキル判定の技術を使って、スキルを上達させるための訓練に活かすことを、これからはやっていきたいですね。困っている人が喜ぶようなアプリとして機能できればと思っています。

感情を数値化するには、大きな課題がいくつもある

杉原:なるほど、それは興味深いですね。もうひとつお聞きしたいのが、“感情”っていうのは数値化も可視化もしにくいのではないか、ということです。実際に研究は進んでいるんでしょうか?

岡田:そうですね、難しいところも確かにあります。いま主にやっていることは、心理学者たちがこれまでに作った評価指標に則って、実験後に、いまあなたの感情はいくつでしたか? というように被験者に問いかけたり、第三者に被験者の映像を見せて、被験者の感情状態はどうなっていると考えられますか? というようにアンケートを書いてもったりする手法なんです。それをもとに人工知能が答えを導き出すわけですから、そもそものアンケートの答えが間違っていると、人工知能的にはもう破綻してしまう。そこが弱点でもありますね。

杉原:まず、ちゃんとしたデータを取ることが難しいんですね。

岡田:正解のデータがしっかりと作れなければ、人工知能は動けませんから。正直、感情って自分で数値をつけるのは難しいですよね。

杉原:自分でも自分の感情が一番わからないこともありますよね(笑)。

岡田:そういうものなんですよ(笑)。

杉原:以前の心理学者の研究だったり、研究論文なんかを追っかけながら、感情を紐解く要素を分析していくという手法はもちろんわかりますが、IoTを使ったデータ集めというのは、どうなんでしょう。世界的にはビッグデータは集まってきているんですか?

岡田:それも難しいところではあるんです。GAFAは、画像・音声を含めWeb上でたくさんの情報を集めていますが、普段の人同士の会話や、自然に対面コミュニケーションしているときのデータを膨大に集めるのは、まだまだ実際には難しいですよね。例えば感情データを集めるために、誰かが怒っているところをずっとビデオで撮るわけにもいかないですし、これからデータを取るので怒ってください、っていうのもおかしいですしね(笑)。多くの人が、AI speakerと友達のように頻繁に話す未来が来たら変わるかもしれませんが、AIの対話機能レベルから言って、それはもう少し先になりそうです。

杉原:確かにそうですね。

岡田:だから、自然にそういうデータをどうやったら取れるのか? っていうのは自分たちの研究の大きな課題ですね。

杉原:ライフログ的なところですね。とはいえ、無理やりIoT的な要素をくっつけたものを開発して使ってもらっても、結局使わなくなりますしね。

岡田:そうですよね、スマートウォッチとかもその一例だと思います。

杉原: スマートウォッチが出た当初はすぐに買いましたけど、3日後にはこれまで使っていた普通の時計が恋しくなってしまいました(笑)。でもいまは、Apple Watchなどがセンシングに使われていますよね。睡眠だったり、バイタルだったり。そういう使われ方をしているのは有意義だと思います。

岡田:そうですね、そのような使い方は興味深いです。最近私たちもスマートウォッチのようなセンサを使った研究を始めています。とはいえ自分たちの研究は、いまはデータを採取するのにビデオの前に人を座らせなきゃならないので、常に記録するのが難しい状況です。なので、毎日何かを記録すれば、健康がチェックできるとか、そういう多くの人に受け入れやすいアプリなどを通して、効率よくデータを取る方法を模索して行こうと思っています。

後編へつづく

岡田将吾(おかだ・しょうご)
国立大学法人北陸先端科学技術大学院大学(JAIST)准教授。2008年東京工業大学大学院知能システム科学専攻博士課程修了。京都大学特定助教、東京工業大学大学院助教、IDIAP research institute 滞在研究員等を経て、2017年より現職。「社会的信号処理に基づく人間の行動やコミュニケーションの理解」を主要テーマに、AIの新たな領域の研究に取り組む。専門は、マルチモーダルインタラクション、データマイニング、機械学習、パターン認識ほか。

(text: 長谷川茂雄)

(photo: 増元幸司)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

対談 CONVERSATION

2022年ロボットが社会に浸透する条件

HERO X 編集部

日本人にもっとも馴染みぶかいロボットといえば、人のような動きをするPepperではないだろうか。回転寿司チェーンでは受付を任されている。身近になりつつあるロボットだが、いうまでもなく、一つのロボットができるまでには多くの人が関わっているが、ロボット開発に欠かせない存在となりつつあるのが、パルスボッツ株式会社代表の美馬直輝氏だ。美馬氏は同社の他、アパレルブランドや大物アーティストのファンクラブアプリ開発などを手掛けるハイジ・インターフェイス株式会社を創業、現在は取締役CXOとして活躍している。そんな美馬氏が作り話題となったのが睡眠サポートロボット「ネモフ」。クラウドファンディングで限定100台を販売したところ、なんと14時間で完売した。今年はそんな「ネモフ」の新型の発売が予定されている。ロボットは今後、どのように進化していくのだろうか。HERO X編集長・杉原行里が話を聞く。

必要なのは社会性
ロボットが世の中に浸透するために必要なこと

杉原:今日はどうぞよろしくお願いします。美馬さんはいろいろな会社を経営されていると思うのですが、今回はパルスボッツについてお伺いしたいと思います。
こちらの会社ではどのようなことをされているのでしょうか?

美馬:はい、今開発、販売しているのは主に二つで、チャットボットを気軽に作れる「IFRO」というサービスと、睡眠サポートロボット「ネモフ」です。

杉原:僕がすごく面白いなと思ったのはこのロボットに社会性を持たせるというところで、すごく面白い着眼点だなと思うのと同時に、非常に大事な部分だなと感じたんです。ロボットに社会性というのは、具体的にどういうことをイメージしたらいいのでしょうか? 2022年に発売の新型からそうなるのですかね?

美馬:僕がロボットにはじめて出会った時に、どうやったらこのロボットと仲良くなれるかな?と考えたんです。その時に、ロボット自身が社会性を持っていないと、仲良くなれないというところに行きついたんです。

人同士も誰かを信頼して、仲良くなろうと思ったときに、その人が自分との関係しか持っていなかったら、信頼のしようがないですよね。そもそも信頼っていうものは社会性があって初めて成立するのかなと。だから、ロボットが社会の一員になっていることが必要だというふうに思って、それを実現したいと思ってやっています。

杉原:なるほど。僕もロボット関係はいろいろやっているのですが、ロボットという言葉、定義ってものすごく難しくないですか? ロボットという言葉に対しての印象というのは人それぞれ全く違う。社会実装がいろいろなところで始まっていますが、やはり今が過渡期だと思うんです。

ロボットがこれからどんどんよりコンシューマーに近づいた状態、もっと言うと、漫画の世界で僕らが見ていたドラえもんのような世界観に近づいていくと僕は思っています。

先ほど美馬さんは「社会性が必要だ」と言われましたが、例えば、コミュニケーションを密にとることによって、そのロボットとの信頼度を高めていくというのが、一つのアプローチなのでしょうか?

美馬:そうですね、一番最初に弊社で作ったパルスボッツという社名そのもののサービスがあるんですけど、ロボット同士を繋げて、社会性を半ば擬似的に持たせるロボットSNSみたいなものを作ったんです。

それはオーナーとロボットの対話の中で、ロボットとオーナーが何か親密になっていく流れがあってその親密度が増すと、オーナーが別のオーナーのロボットを友達にしてあげることができるというものでした。


パルスボッツ株式会社がYouTubeで公開しているコンセプトムービーには、まるでネモフとその仲間たちが井戸端会議をしているような場面が登場する。

美馬:インターネット上にSNSのような疑似的な場所を作って、そこで友達になったロボット同士が会話をしはじめるんです。

杉原:どんな会話をするんですか?

美馬:ロボットがオーナーとしゃべったことを疑似的なSNS上でつぶやくんです。例えば、「この前うちのオーナーがこんなこと言ってさ」みたいにつぶやくと、それに対して友達のロボットが「面白いね」ってつぶやき、友達のロボットが、自分のオーナーに「誰々くんとこんな会話があったらしいよ、どう思う?」というように、人からロボットに伝わった話がロボットの間で伝播して伝わって、それを向こうのロボットと人の間でも伝播される、こういう構造のSNSサービスというものを最初にやっていました。

体験としてはめちゃくちゃ面白くて、ロボットが社会に実装されていく中で、このロボット同士のコミュニケーションというのは必ず必要だし、この実験をやって、ロボットが自分のことを分かってくれているとか、そういう感覚が人の側にも生まれるのだなということを思いましたね。

杉原:その後、そのまま事業としてはじめられたのですか?

美馬:それがですね、そうはいかなかったんです。コンセプトとしても体験としても何一つ間違いはなかったと思っているのですが、いかんせん、ロボットの普及がそこまで進まなかった。コンセプトを作った当時は、もう、この勢いで一家に1台、さらには一人一台コミュニケーションロボットを持つ時代にそのまま行くのかなと思っていたのですが、そうはならずに行き詰まってしまったんです。最終的にここにたどり着きたいとは思っていますが、今はまず、もう少しロボットを広げるところにコミットしていこうと思っています。

ゆる可愛いでロボットとしての
ハードルをあえて下げる


眠りを誘うオリジナルのお話は16話を収録。子どもへのプレゼントにも喜ばれそうだ。

杉原:そんな中、開発されたのがネモフ。見た目がすごく可愛いですね。

美馬:はい。パルスボッツでいろいろとやっているうちに、自分でも何かロボットを作ってみたいなと思って作ったのがネモフです。人型のロボットを作っていた時にお客様の反応としてあったのが、あんまり会話として成立しないなというところでした。一方で、ネモフの場合はこの見た目で目しかない。そもそも口もどこなのか分からない。賢そうにもみえないから、本当にこれがしゃべるのかな?くらいな感じで期待値が自然と下がる。

杉原:なるほど。

美馬:枕元に置いて使ってもらうことを想定して作ったロボットで、機能としては、触ると5分刻みのだいたいの時間を教えてくれるということと、アラーム機能、オルゴールの音楽を流してくれること、物語を語ってくれるというくらいです。

杉原:昔、アラームの音が嫌で投げてたこととかありますけど、ネモフだとなんかかわいそうだから投げないかもしれませんね(笑)。

美馬:コミュニケーションロボットがいくつか出てきた中で、課題だなと思ったところがあって、“コミュニケーションロボットです”として打ち出すと、人と同じようなコミュニケーションができないと、利用者の満足度は高くはなりにくくて、結局、多くはコミュニケーションをしなくなっちゃう、要するに、違和感が残るんです。

杉原:ネモフはもともと人型でもないから、人間並みのコミュニケーションができなくても違和感が少ないということですね。

美馬:はい。それから、そのロボットの居場所が作れるかというのも結構重要だと思っています。ネモフの場合は枕元という居場所が設定できたので、役割をしっかりと打ち出せた。

特性を磨き社会に貢献するロボットへ

杉原:美馬さんのお話を伺っていて思い出した映画があるんですが、1999年に公開された「アンドリューNDR114」という映画、ご存じですか?

美馬:知らないですね。

杉原:ロボットがディープラーニングで右脳的思考ができるようになって、対話をしていくことによって僕の勝手な想像ですけども、そのロボット自体のキャラクターとか、発する言葉とか、そういうものも学ばせていく。すると、そのオーナーとの関係性だったり、どういうコミュニケーション言語で表現をしていくのかなども変わっていく。その先に、ロボットが本当に人間のようになっていき、ロボットの人権について話し合われる時代がきたりとか、いろいろなことが起こるのですが、ロボット同士のコミュニケーションがはじまると、「アンドリューNDR114」のような世界が現実味を帯びてくるなと。

美馬:そこに到達するまでにはまだまだ課題は残っていると思います。世界中でまだそういった形のものを体験として実現してきているものというのはなかなかないので。

杉原:となると、コミュニケーションロボットというのは次にどのようなステップがくると思われていますか?

美馬:コミュニケーションロボットとしては実はGoogleアシスタントのようなものがすでにめちゃくちゃ世の中にあるんですよね。ただ、あれは実体がないので、あまり人々がロボットとして認識しておらず、それはそれで成立していますけれど、今お話ししているような実体を持ったロボットというのは、生物の進化と似ているのではないかと思っています。世界で一番普及している実体を持ったロボットというとお掃除ロボのルンバになるんですけど、あれってちょっと虫っぽいじゃないですか。

杉原:ルンバがもし人の形をしていたら、みんな買わないかもしれないですよね。

美馬:そうですね(笑)。今はそれぞれの役割に特化した進化をしている段階かなと思います。工場などで使われているアームロボットは一本腕で、腕や手の機能に特化しているし、スマートスピーカーは耳に特化している。特化した部分が成熟して、いずれ統合されていく。その後でコミュニケーションロボットというものが世の中で当たり前になっていくのかなと思います。

杉原:今後、例えば生体反応とかも取れるようになって、健康状態を把握したり、心の状態を測ってくれるというようなデータを使ってのコミュニケーションということも出てくるのでしょうか?

美馬:そうですね。間違いなくくると思います。

美馬直輝(みま・なおき)
2015年にロボット専門企業のパルスボッツ株式会社を創業し、大手メーカーロボットのコミュニケーション開発や、おやすみロボット「ネモフ」、コミュニケーションAI作成サービス「IFRO」などの開発を手がける。ASTRSK UXデザイナー・プロデューサー。ハイジ・インターフェイス株式会社 創業社長・現取締役CXO。タイムリープ株式会社 CXOなども兼任している。

関連記事を読む

(text: HERO X 編集部)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー