対談 CONVERSATION

脳をヒントにしたAI開発が次のアーキテクチャを作る 自律型AIはどこまでいけるのか

吉田直子

脳科学とAIの融合分野において世界をリードする金井良太氏。金井氏が代表を務める株式会社アラヤでは、人間の脳の仕組みをAI技術に応用し、製造業を中心とした企業に最先端のAIソリューションを提供している。同社が得意とするエッジAIとは何か。そして、金井氏がプロジェクトマネージャーとして参加する内閣府のムーンショット事業の狙いとは。次世代AIの可能性について、HERO X 編集長・杉原行里が聞く!

クラウド不要のエッジAIとは

杉原:御社の強みであるエッジAIとは、なんでしょうか?

金井:エッジというのは、スマホやカメラのような端末のことです。一般的なAIは映像をクラウドにあげて、クラウド上で計算して答えを返しますが、エッジAIはスマホなどのデバイス上で計算するというものです。全部クラウド上で自動にすると、遅延も生じてしまうし、計算が重たいですよね。それを、ディープラーニングまで含めてデバイス上で実行するのがエッジAIという技術です。

杉原:クラウドにいったん上げなくていいということですね。

金井:まさにそうです。そのほうが安価だったりします。

杉原:なぜほかのシステムはクラウドに1回上げるということになっているのでしょうか? アイデアがないのか、気づいていないのか。

金井:みんなエッジでやりたいはずですが、なぜできないかというと計算が多いからです。そこで、計算を少なくするとか、計算をしやすいようにするとかの手法が、我々の技術ドメインになると思います。

杉原:変数が少なくなるという感じでしょうか?

金井:そうですね。入力のビット数を減らしたり、あとは枝刈りといって、計算する時にニューラルネット(人間の脳の働きを模倣する数理モデル)のつながりを減らしても同じような計算結果が出るようにするなどです。

杉原:そう伺うと単純な疑問が出てくるのですが、クラウドに上げて計算したものと、御社のエッジAIで計算したものとでは、この言葉が正しいかどうかわからないのですが、整合性は保てるのでしょうか?

金井:いえ、計算を簡単にしてしまうので、性能は落ちます。ただ性能を落とさずに計算を減らすというようなことを研究開発しています。自動運転などではかなり高い精度が求められますので、実際に我々が手掛けているものは工業製品の検査とかが多いですね。

今のAI開発は野球でいうと
ピッチャー量産型!?

杉原:御社のサイトに掲載されている「お掃除ロボットの例」(https://www.araya.org/about/feature/)ですが、要は機械による自動化は地図に沿って走行計画を作っていくけれど、自律AIなら「部屋をきれいにする」という目的を人間と共有する、という。この言い方が僕はすごくわかりやすかったです。

金井:今のAIの使われ方は、物事を自動化するところがメインで、その先に自律というアイデアがあります。自動というのは人がやり方を教えてその一部をAIに置き換える手法ですが、自律の場合は、目的を与えたらやり方を見つけ出すところまで、AIがやる。さっきのお掃除ロボットだったら部屋をきれいにするためには途中の問題も自分で解く必要がありますが、現状のディープラーニングは自動レベルのものが多いです。我々はそこに強化学習や深層強化学習と呼ばれる手法を取り入れていて、それを使うと自律への道が開けるのではないかと考えています。

杉原:面白いですね。御社はAIに意識を実装する研究もしているとお聞きしましたが、すごくシンプルな質問をしていいでしょうか? 意識ってなんですか?

金井:意識は感覚だと思いますね。ものを見た時は「見た」という感覚が生じるし、痛みを感じたときは「痛い」という感覚が生じる。そういう主観的な感覚のことを意識と言っています。

杉原:五感で感じられることが意識ということでしょうか?

金井:そう、感じる能力ですね。それをAIにもたせようと思ったら、結構具体的なことを考えなきゃいけない。自発性とか、想像力とか、AIが考えるというのはどういうことか、みたいなことを突き詰める必要があります。でも、そういうことを考えていくと、普通のAIとは違う作り方を思いつける。だから、新しいAIのアーキテクチャを考える時のヒントとして、意識をもたせるには?ということを研究したりはしますね。

杉原:この意識をもったAIが、どのような分野に入ってくるんでしょう?

金井:今、仮説としているのは、いわゆる汎用人工知能みたいなものが作られるということです。脳の中にはたくさんのAIが一緒にいる状態で、その合体方法を意識というプラットフォームが示している。今のAIは機能特化型といって、姿勢の推定や、表情の読み取りなど、1つのことに特化しています。だけど人間はそれをうまく組み合わせて考えることができる。だから、今いろいろな人が作っているAIを統合して、ひとつの強力なAIを作る方向になるのではないかと思います。

杉原:野球でいうと、今のAIはピッチャーばかり作っているみたいな感じですよね。でも、金井さんは「野球やろうぜ」と言っている。

金井:そんな感じですね。チームをちゃんと作ろう、という意味です。

ムーンショットで
BMIの技術開発

杉原:御社を知るきっかけになったのが、内閣府が進めているムーンショット型研究開発制度です。目標1のブロックで民間企業として参加しているのは御社だけですが、参加のきっかけはなんでしょうか?

金井:ムーンショットの目標は、「時間と空間と脳と身体の制約から解放される」という突拍子もないものです。これは自分に向いていそうだなと思って、普通に応募しました。

杉原:今回ムーンショット1で、2050年までに御社が達成したい目標はありますか?

金井:まず2030年までにBMI(ブレインマシーンインターフェース)を実用化できるレベルをめざしています。BMIには侵襲・非侵襲といろいろあります。最初、イーロン・マスクがやっているみたいに侵襲で脳に電極を埋め込むことを考えていたのですが、それ以外にも非侵襲で普通に脳波をとったり、あとは意外と外から画像だけ解析すればいけるんじゃないかと思って。脳を見なくても何をやろうとしているかが予測できればよいので、AIのノウハウを最大限応用すれば、侵襲性が低くても人が何か考えただけでモノを動かすくらいのことができるのではないかと思っています。

杉原:PoC(プルーフオブコンセプト)としてどのあたりに入りそうですか? エンタメでしょうか? それとも老人や言語が伝えにくくなった方たちに、最初に実証していくのか。

金井:侵襲と非侵襲で使える場所が違うと思います。侵襲のほうは完全に四肢麻痺やALSのかたの身体の補完という医療用の目的。非侵襲のほうは意外に自分自身のモニタリングみたいなものに使われるんじゃないでしょうか。まず自分の疲れを知るとか、鬱や過労を防止するみたいに使って、そのあとにインターフェースとして検討されていくと思います。たぶん、声を出さないでしゃべるくらいにはなると思います。

杉原:すごいですね。例えば触覚センサーみたいなものをつけて、より重さや触覚が伝わっていくと、自宅でロボットを遠隔操作することもできますよね。

金井:そうですね。入力のところを簡単にすればいいのかなと思っています。BMIですごくいいものを作ろうとすると、精密なデータが脳からとれて、ロボットのほうも自由度が高いイメージになりますが、そこまでいかなくても「前に進みたい」と思ったら、歩くところはもう全部半自動でロボティクスでやってしまえばいいのかなと。

事業者のほうが脳の研究は進んでいる

杉原:HERO Xはスタートアップのかたも読んでいるので、起業の時に大事にしていたことをお聞きしたいと思います。

金井:起業をする時は、少しでも前に進みたいと思っていましたね。進まないのが一番つまらないので。あとから考えるといろいろ失敗もありましたが。

杉原:研究領域だけではなく、実装領域も兼ね備えるための起業だったのでしょうか?

金井:そうですね。研究でできることは限られているんです。特に脳の画像を見て、個人の特徴、例えば知性とか性格とかを読み取ることはかなりできていたので、そういうことを役立てたいと思っていました。脳の研究も、Googleのような企業が圧倒的になってしまって、アカデミックな研究よりも自分が事業を作ったほうが研究が進むのではないかと思ったんです。起業したい人からよく相談を受けるのですが、実際にはなかなか起業しないですね。やってみればいいんじゃないかと思うのですが。

杉原:僕もよくそういう相談を受けますが、悩んでいる方が心に悪いですよね。

金井:やったほうがいろいろ得られるとは思いますよね。

杉原:最後に、今後AIはどんな風に生活に入り込んでいくと思いますか?

金井:着実に様々なところに使われ始めるとは思います。ただスマホやネットレベルの、誰も気づかないけれど、実は広範囲に使われていたみたいな存在になっていくのではないかと。

杉原:人々がそれを実感して気づくタイミングって15年、20年くらい先ですか? それとも、何気なく生活がアップデートされていって、そもそも気づかない?

金井:後者だと思いますね。パソコンが速くなっても気づかないみたいなことだと思います。

杉原:気づいたら20年前よりかなりよくなっているよね、みたいな感じですね。金井さんのAIに対するアプローチってすごく新鮮というか、ほかのかたからあまり聞いたことないなと思います。会社の事業としてはBtoBが多いのでしょうか?

金井:ほぼBtoBのAI開発と、R&Dのお手伝いですね。自動車の会社が多いです。

杉原:ぜひレース業界もよろしくお願いします。マシンも、いまや走るセンサーといわれていますから。今日はどうもありがとうございました。

金井良太(かない・りょうた)
株式会社アラヤ創業者。2000年京都大学理学部卒業後、2005年 オランダ・ユトレヒト大学で人間の視覚情報処理メカニズムの研究でPhD取得(Cum Laude)。米国カルフォルニア工科大学、英国ユニバーシティ・カレッジ・ロンドンにて研究員。JSTさきがけ研究員、英国サセックス大学准教授(認知神経科学)を経て、2013年に株式会社アラヤを創業。神経科学と情報理論の融合により、脳に意識が生まれる原理やAIに意識を実装する研究に従事すると同時に、産業界におけるAIと脳科学の実用化に取り組む。文部科学大臣表彰若手科学者賞、株式会社アラヤとしてJEITA ベンチャー賞(2020)、ET/IoT Technology Award(2019)など多数受賞。2020年より、内閣府ムーンショット事業プロジェクトマネージャーとしてブレイン・マシン・インターフェースの実用化に取り組む。

関連記事を読む

(text: 吉田直子)

(photo: 増元幸司)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

対談 CONVERSATION

人の走りを可視化したスマートシューズがアスリートを変える!?「ORPHE TRACK」開発者・菊川裕也が見る夢 前編

吉田直子

センシング技術を組み込んだスニーカーを履くことで、自分の歩行や走りをスマートフォンやタブレット上で簡単に計測・分析できるスマートシューズ「ORPHE TRACK 」。企画・開発したのは株式会社no new folk studioの菊川裕也氏だ。「楽器のような靴を作りたい」という発想から生まれたスマートシューズが、いかにプロダクトとして成熟していったのか。アメリカのクラウドファンディングサイトで$110,000以上の資金を調達し、2016年に一般販売されるまでの経緯と、「ORPHE」シリーズに込められた菊川氏の哲学を、編集長・杉原が伺った。

楽器づくりから始まった
「ORPHE」シリーズ

杉原:実は僕、菊川さんの講演会には何度も行っています。「ORPHE」もかなり早い段階で注目していました。まずは、開発のきっかけからお伺いしたのですが。

菊川:そもそも大学は文系で、どちらかというと商学部よりも軽音楽部に通っていたような大学生活でした。音楽が好きだったのですが、普通の音楽がやりたいわけではなく、楽器から作りたかったんですね。それで、首都大学東京の大学院で芸術工学を専攻して、単位取得をした頃にはこの会社を立ち上げていました。大学院の時に一番時間をかけて作ったのが、目の見えないユーザーが使える電子楽器。ユニットを押したり、つかんだりすることで音が鳴る楽器です。直感的なインターフェースというと電子楽器やDJが思い浮かびますが、DJといっても、音とジェスチャーが本当に1対1で対応しているかわからないじゃないですか?

杉原:確かにそうですね。DJは直感的なインタラクションというけれど、レコードを回すマネだけをしているかもしれない。

菊川:テクノロジーの進化によってインターフェースのデザインの幅が広がって、時代的にも音とジェスチャーの分離が激しくなってきていたので、逆にそれがつながる意味を考えていました。その後、サントリーさんの「響」というウイスキーのプロモーションで、楽器になるコップを作りました。金細工の部分が静電容量センサーになっていて、グラスを持ったらそれがわかる、加速度センサーでグラスの傾きがわかる、唇に触れたらわかる。飲んでいる行為が合奏になるのです。要はもともと知っているものが楽器になると、「これ、飲むものですよ」と言わなくても、人は勝手に飲むんです。

杉原:飲む時にコップを持つというのは当たり前の行為だから、使い方を教えるコミュニケーションやらなくて済んだ、ということですね。

菊川:まさにそうです。どれだけ直感的に作ったとしても、新しいものだったら、説明しなきゃいけない。そこで、真新しい楽器を作るよりは、すでにあるものが楽器になっていくことをやったほうが、あらゆる人を演奏者に変えられると思いました。靴は本当に誰でも履くので、靴自体が楽器になれば、普段みんなが意識していない、「歩く」「走る」が演奏行為になると思ったんです。

杉原:その発想は面白い!

菊川:最初はシンプルにタップダンスのシューズを電子化することを考えていました。靴は買ってきて、そこにセンサーを付けて、みたいなことを1人で夜な夜なやっていたら、じょじょに「面白い」「製品化したら?」と言ってくれる人が出てきて、一部を出資してもらってクラウドファンディングまで持っていくことになった。それが会社設立の経緯です。

スマートシューズ市場が
思ったよりなかった

杉原:これ、出た時は覚えていますよ。すごく欲しいと思いました。

菊川:ありがとうございます。この時点ではあまりモノ作りの制約を抱えていなかったので、こういうものがあったら楽しいよねという素直な気持ちに基づいて作られています。

杉原:濁りがないですよね。僕も車いすが最初に出来た時の喜びはいまだに色あせないのですが、今モビリティを作るときには、「これ量産は無理だな」とか、「ここをちょっと変えなきゃダメだな」とか、少しずつ加点より減点になっていく。そこを、いかに食い止めるかが課題ですよね。

菊川:本当にそうですね。とはいえ、ちゃんと量産して販売するところまで、それほどお金をかけずに達成できたことは、今でもノウハウとして引き継がれています。スマートシューズ系で大風呂敷を広げたところは、わりと出す前に破綻したりしていますから。

杉原:最初のスマートシューズの時代を振り返った時に、今も残っている考え方やテクノロジーというのは、何かありますか。量産のノウハウと、あとは?

菊川:いや、全部残ってはいます。プロダクトとして成立しやすい部分を抽出して、製品になっているのですが、成立しにくい部分も別に捨てたつもりはなくて、多分戻ってくると思います。ただ、思ったよりもモノ作りの世界の発展がスローでしたね。スマートシューズに関しては2014年くらいから考えているから、クラウドファンディングが終わる頃には、ランニング系のスマートシューズなんて世の中で当たり前になっているはずだと思っていました。だから、もっとニッチな、ダンスに特化したものでないと売れないと思っていたんです。でも、2020年でも、全然当たり前になっていなかった。

杉原:わかりますね。オリパラが決まった時に、大企業もスタートアップもみんな色々な風呂敷を広げたじゃないですか? でも、2020年になった今、予想よりはプロダクトが出てこないですもんね。想像以上にあまり変わっていないというのが自分の中の認識です。

菊川:打ち出すことはできても、実際に新規性が高いことをやる場合って、当然障害があるわけじゃないですか? それをちゃんとやりきる人は、実はかなり少ないですよね。

ランナーのためのシューズを
新しく開発

杉原:2015年に発表して「Indiegogo」(サンフランシスコを拠点にするクラウドファンディングサイト)で資金調達したんですよね?

菊川:そうです。それをもとに製品を開発することができました。その先の話をすると、僕らの場合、一般のコンシューマにどんどん市場が広がっていったというよりも、むしろ様々な場でコンテンツとして使ってもらえたことが大きかったですね。例えばAKB48さんや乃木坂46さんのライブに使ってもらったり、21世紀美術館での展示や、TVCMにも使ってもらったり。ちょっと目新しいものとして話題になったことで、ほかの仕事にもつながっていきました。

杉原:2015、2016年からプロモーションをやってきて、今の活動は、会社としてはどういう主軸になっていますか?

菊川:主軸はスマートランニングシューズの開発ですね。アプリをオープンにするというのは最初から思想的にはあったので、3年間くらい、SDKを無償配布して、大学とかに使ってもらったりしていました。そういう中で、為末大さんとも出会って、「ORPHE」を最初に見せた瞬間に、「子どものランニングの教育に使いたい」と言ってもらえたんです。パンと踏んだ瞬間に音と光が出るので、しかも、もともとタップダンスの動きを模していたこともあって、かかとから着地するのと爪先で着地するのでは音色が変わるようになっていた。IoTというとデータだけ貯まっていけばあとはなんとかなる、みたいなところに行きがちですが、僕たちの場合はデータを録るというのと、即自的なフィードバックの両方をやっています。フォームを変えるみたいな、その人にとって直接ベネフィットがあるようなタイプのことが得意だなと思っていたのと、為末さんというのもあったので、そこでランニングフォームを見えるようにして、「ORPHE TRACK」にたどりついたという形ですね。

ランニングフォームを分析できるスマートフットウェア「ORPHE TRACK」。スマホアプリと連動し、今まで大がかりな設備でしか計測できなかった「着地」「プロネーション」「左右バランス」も解析できる。2019年発売。

引用元 https://nonewfolk.shop/

杉原:やっぱりコミュニケーションというか、伝え方にすごくこだわっていますね。

菊川:そうでしょうね。もともと会社自体は表現行為だと思ってやっているので。

杉原:うん、うん。

菊川:とはいえ、2016年に発売した「ORPHE ONE」はわりと漠然とやりたいことをやっているのに対して、「ORPHE TRACK」という世代では、きちんとこの技術が欲しい人たちに伝えることを意識しています。いろいろ調査したのですが、特にランナーの中でも、着地は、なかなか変えられないんです。勉強するけれど、そもそも自分がどうなっているかよくわからないというのがあって。

杉原:それを音で知らせてくれたり、光で知らせてくれたりしたら、フォームの直し方がわかりやすいですよね。

菊川:はい、全然違いますね。あとはセンサーと靴を切り離したというのは大きいです。前のモデルは全部スマートシューズだったので、一部が壊れたら全部替えないといけなかったのですが、ORPHE TRACKではセンサーと靴を分離しました。また、センサーとしては同じような仕組みですが、中のアルゴリズムはめちゃくちゃ進化させていて、履いているだけで歩幅や速度や角度など、ひとつひとつのデータを切り出せるようなアルゴリズムを社内で開発しています。

杉原:すごいな、このアルゴリズムは。結構変数が多いですよね?

「ORPHE」のアプリUIを見て、驚く杉原編集長。データを見ながら練習することでランナーの着地改善なども容易になる

菊川:センシング自体はシンプルで、アウトソールの真ん中に3軸加速度センサとジャイロセンサを置くというだけです。でも、そのほうがスケールしやすい。で、それを料理するアルゴリズムの部分をがんばって開発しているという感じです。

<後編へ続く>

菊川裕也(きくかわ・ゆうや)
1985年、鳥取県出身。一橋大学 商学部 経営学科を卒業後、首都大学東京大学院芸術工学研究科に進学。音楽演奏用のインターフェース研究・開発を行う。視覚的インターフェース「PocoPoco」が、アジアデジタルアート大賞優秀賞を受賞。その後、スマートシューズ「ORPHE ONE」を開発し、2014年10月にno new folk studioを設立。クラウドファンディングでの資金調達に成功し、「ORPHE ONE」を量産化する。2019年7月よりランナー向けシューズ「ORPHE TRACK」を発売。

(text: 吉田直子)

(photo: 壬生マリコ)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー