対談 CONVERSATION

【HERO X × JETRO】車の「目」はこう変わる!自動運転技術加速を支える新技術

HERO X 編集部

JETROが出展支援する、世界最大のテクノロジー見本市「CES」に参加した注目企業に本誌編集長・杉原行里が訪問。独自のスキャナーとFMCW測定系を組み合わせることで、従来の LiDAR(ライダー)を超える次世代型のLiDARシステム開発に成功した株式会社SteraVision(ステラビジョン)。完全自動運転を実現可能にする独自技術について同社CEOの上塚尚登氏に話しを聞いた。

独自技術で新しい市場価値を創ることをめざす
産総研発のベンチャー企業

杉原:産総研発のベンチャー企業ということですが、具体的にどのようなことをしている会社なのでしょうか。

上塚:産総研(国立研究開発法人産業技術総合研究所)というのは、日本に3組織しかない特定国立研究開発法人の一つで、茨城県つくば市にあるつくば本部エリアにあるのですが私たちはその一部にある4部屋を借りて、研究・開発に取り組んでいます。本社は産総研の隣にあって、つくば市が運営するインキュベーション施設(株式会社つくば研究支援センター内つくば創業プラザ)のシェアオフィスを借りているんです。

左「HERO X」編集長・杉原と右SteraVision CEO・上塚氏

杉原:設立は最近ですか?

上塚:2016年12月です。産総研で培われた光通信技術を応用して、独自方式の光ビームステアリングデバイスと、FMCW方式の測定システムを組み合わせた次世代型LiDAR(Light Detection and Ranging:光による検知と測距)の開発と製造販売をやっています。製品としては、“Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”があります。

車の中でお酒も飲めるし仕事もできる、
完全運転をめざす

上塚:Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”は、独自に開発した、これまでにない新しい形のスキャナーです。これによって我々がめざすのは完全自動運転の実現です。

杉原:一般の車でも、最近はアクセルを離しても設定した速度のまま走り続けるクルージング機能や、車間距離を保ってくれる機能など、自動運転にかなり近づいていますが、ステラビジョンではそれをさらに進化したものにする技術を開発中だと伺いました。実際のところ、今、一般的な車両についているものは、まだ自動運転と言えるものではないですよね。

上塚:そうですね。ご指摘の通り、ドライブアシストと完全自動運転はかなり異なります。自動運転のレベルには0から5までがあり、レベル2まではドライブアシストです。ここでは事故が起きたときはドライバーが責任を持ちます。それに対して完全自動運転では、人が運転することはなく、車の中でお酒も飲めるし仕事もできるといった、新たな価値も生まれます。その一方で、事故が起ればシステムが全ての責任をもたなければなりません。

杉原:レベル4くらいを開発目標にしている、というのが世の中の潮流でしょうか。

上塚:そうですね。我々が目指すのは「完全」自動運転、つまりレベル5ということになります。実は自家用車の完全自動運転は伸び悩んでいて、どこが伸びているかというとトラックの完全自動運転です。コロナ禍で買い物へ行かなくなった代わりに、在宅で注文する機会が増え、輸送用トラックの出荷台数が凄い勢いで伸びている。そんな中で、トラックの完全自動運転、特に高速道路の完全自動運転のニーズが増加しています。ドライバーの身体的負担を減らすだけではなく、燃費も良くなります。ガソリンが高騰していることもあり、アメリカでは本当によく伸びているんですよ。

杉原:なるほど。そして、ズバリ、御社の製品の強みはどのあたりになるのでしょうか?

上塚:我々のLiDARは、大きくふたつの技術を持っておりまして、ひとつがスキャナーです。LiDARというのは、光の方向を見ながら戻ってきた光で、距離と速度も求めることができるというシステムです。その距離と速度を求めるために、我々は光の波の性質を利用する『FMCW(Frequency Modulated Continuous Wave radar:周波数変調連続波レーダー』という方式を採用しています。これを利用して「完全自動運転」に必要な“目”を作ろうというのが我々の目標です 。

距離を測るLiDARの方式としてはToF(Time Of Flight:光の飛行時間)というのが主流なので、LiDARのスタートアップは、アメリカを中心に世界で百数十社がある中で、ほとんどがToFを採用しています。これは光の粒の性質を利用して光を外に出して、戻ってきた光の粒をカウントするという方式で、光が戻る時間から距離や速度を求めるやり方です。光は1秒間に地球を7周半するのですが、実は我々から見ると光の速度は非常に遅い。というのも、戻ってくるのにだいたい1マイクロ秒かかるからです。つまり、300メートルくらい先へ行くのに1マイクロ秒も必要ということです。往復で2マイクロ秒かかる。エレクトロニクスで言うと2マイクロ秒は遅いんです。ですから、我々は別の方法を考えたのです。

また、ToFは太陽や対向車からの光の影響を非常に受けやすいという問題もあります。そのため、ToFは「ドライブアシスト」のために用いることはできるのですが、我々が目指す更に高いレベルの「完全自動運転」には向かない。

杉原:それで、新技術を開発しているということですね。

上塚:はい。産総研で培われた光通信技術を応用して、光ビームによる FMCW方式の測定系を開発しました。これにより、見たいところ(必要なところ)を好きなだけ詳しく“見る”(ワープスキャン)ができるようになりました。

ワープスキャンを使うと運転に必要な情報だけを見られるようになる。

杉原:2016年に上塚さんとCTOの所武彦さんで創業されたということですが、2人は元々ライダーやセンサーに関する研究をされていたんですか?

上塚:我々のヒストリーは、実は光通信部隊なんです。私は光通信のデバイスなどの分野をやっていて、2019年に入社した所は光トランシーバー関係の開発をしていました。実はFMCWというのは光通信のデジタルコヒーレント通信とほとんど同じなんです。だからそのまま進んでいたら、非常にうまくいったんです。

杉原:なるほど。そこから、ToFのほうが世界的な潮流として使われていたけどもFMCW が来るだろうと踏んだということですよね。重複するかもしれませんが、従来のLiDARとの大きな違いはどのあたりになるのでしょうか。

上塚:我々はLiDAR単独ではなく、カメラと組み合わせることで、たとえば運転中の、物体が右から左へ、前から後ろにくるという動きに合わせて、必要なところを詳しくスキャンできます。ここが我々の優位性です。

カメラは全体を見るのは優れていますが、無駄な情報を省き、いかに効率化するか、つまり「見たいところだけ見る」というのが我々の会社のスローガンです。運転中に必要なのは、運転に必要な情報だけです。空とか地面とか見ても仕方がない。無駄な情報もすべて処理すると、コンピュータパワーも使いますし、エネルギー的にも無駄が多いんです。

杉原:車にスーパーコンピュータを積むわけにいきませんからね。これはすごいですね、面白いですね。

上塚:対象が人なのか猫なのか、ボールなのかは、ディープラーニングで物体認識もできます。たとえば人とか車とか、衝突の危険性があるものはまずカメラで認識します。そうすると、その右側にあるステラビジョンのLiDARで実際の距離を測り、情報を色で表します。距離により色分けをして、赤だと遠い、青だと近い、緑が中間ぐらい。そして、それが「車」か「人」だとなったら、そこまでの距離により衝突する可能性があるかどうかを判断、危ない場合はブレーキをかける。運転に必要最低限の情報さえ取り込めれば、これだけのことができます。データ処理を極限まで減らし、重要な物は見落とさない独自の技術があるため、車だけでなく、健康医療分野への応用にも期待がかかっているところです。

杉原:僭越ながら、僕がとても刺さったのは、データの重さが全く変わるところです。軽くなるから情報を処理するスピードも上がるわけですよね。

上塚:それです! まさにその通りです! 要は自動運転といっても、ある程度車のスピードを上げられなければ意味がない。車が速く動けば、それだけ早く情報が上がってこないと、事故につながりかねない。そうなるとやはり情報は高速でほしいわけです。ただし、それを全画面の全距離を無限で測るとしたら、それはスーパーコンピュータの処理が必要です。このようにデータ処理を極限まで減らし、ただし重要な物は見落とさないというのが重要なのです。

杉原:素晴らしいです。僕らの目にも欲しいですね。

上塚:人間の目はそもそもそういうことをやっているんです。景色を見ているけど見てるのは自分の関心があるところだけだし、目に入った情報のすべてを脳は処理していませんよね。

杉原:そのとおりですね。

上塚:それを、実際のコンピュータやLiDAR、光学センサーを使って実現しましょうというのが我々のコンセプトである「見たいところを見る」ということです。

杉原:今回はCESにも出展されていますが、反響はありましたか?

上塚:はい。今引き合いがいっぱいあって、独自性を非常に高く評価してくださる方が多いですね。アメリカから来た方や、駐在の方も来られましたので話をして、海外の方からも是非取り入れたいと言っていただきました。

杉原:自動運転のレベル4レベル5の話もそうですし、健康データだったり、様々なものも含めて世の中を大きく変えていける可能性を感じます。

上塚:そうですね。実際に、健康関係のところからも引き合いはあります。

杉原:個人的にも大変興味深いお話でした。ぜひ御社へ足を運んで、実際に技術を拝見させてください! 今日はありがとうございました。

上塚尚登 (うえつか・ひさと)
1981年東京工業大学を卒業。 専門領域は光デバイス技術。 日立電線(現 日立金属)に入社し,光通信デバイスビジネスを立上げた。 社内ベンチャーのヘッドとして約100億までの部門に成長させた経験を持つ。

関連記事を読む

(text: HERO X 編集部)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

対談 CONVERSATION

脳をヒントにしたAI開発が次のアーキテクチャを作る 自律型AIはどこまでいけるのか

吉田直子

脳科学とAIの融合分野において世界をリードする金井良太氏。金井氏が代表を務める株式会社アラヤでは、人間の脳の仕組みをAI技術に応用し、製造業を中心とした企業に最先端のAIソリューションを提供している。同社が得意とするエッジAIとは何か。そして、金井氏がプロジェクトマネージャーとして参加する内閣府のムーンショット事業の狙いとは。次世代AIの可能性について、HERO X 編集長・杉原行里が聞く!

クラウド不要のエッジAIとは

杉原:御社の強みであるエッジAIとは、なんでしょうか?

金井:エッジというのは、スマホやカメラのような端末のことです。一般的なAIは映像をクラウドにあげて、クラウド上で計算して答えを返しますが、エッジAIはスマホなどのデバイス上で計算するというものです。全部クラウド上で自動にすると、遅延も生じてしまうし、計算が重たいですよね。それを、ディープラーニングまで含めてデバイス上で実行するのがエッジAIという技術です。

杉原:クラウドにいったん上げなくていいということですね。

金井:まさにそうです。そのほうが安価だったりします。

杉原:なぜほかのシステムはクラウドに1回上げるということになっているのでしょうか? アイデアがないのか、気づいていないのか。

金井:みんなエッジでやりたいはずですが、なぜできないかというと計算が多いからです。そこで、計算を少なくするとか、計算をしやすいようにするとかの手法が、我々の技術ドメインになると思います。

杉原:変数が少なくなるという感じでしょうか?

金井:そうですね。入力のビット数を減らしたり、あとは枝刈りといって、計算する時にニューラルネット(人間の脳の働きを模倣する数理モデル)のつながりを減らしても同じような計算結果が出るようにするなどです。

杉原:そう伺うと単純な疑問が出てくるのですが、クラウドに上げて計算したものと、御社のエッジAIで計算したものとでは、この言葉が正しいかどうかわからないのですが、整合性は保てるのでしょうか?

金井:いえ、計算を簡単にしてしまうので、性能は落ちます。ただ性能を落とさずに計算を減らすというようなことを研究開発しています。自動運転などではかなり高い精度が求められますので、実際に我々が手掛けているものは工業製品の検査とかが多いですね。

今のAI開発は野球でいうと
ピッチャー量産型!?

杉原:御社のサイトに掲載されている「お掃除ロボットの例」(https://www.araya.org/about/feature/)ですが、要は機械による自動化は地図に沿って走行計画を作っていくけれど、自律AIなら「部屋をきれいにする」という目的を人間と共有する、という。この言い方が僕はすごくわかりやすかったです。

金井:今のAIの使われ方は、物事を自動化するところがメインで、その先に自律というアイデアがあります。自動というのは人がやり方を教えてその一部をAIに置き換える手法ですが、自律の場合は、目的を与えたらやり方を見つけ出すところまで、AIがやる。さっきのお掃除ロボットだったら部屋をきれいにするためには途中の問題も自分で解く必要がありますが、現状のディープラーニングは自動レベルのものが多いです。我々はそこに強化学習や深層強化学習と呼ばれる手法を取り入れていて、それを使うと自律への道が開けるのではないかと考えています。

杉原:面白いですね。御社はAIに意識を実装する研究もしているとお聞きしましたが、すごくシンプルな質問をしていいでしょうか? 意識ってなんですか?

金井:意識は感覚だと思いますね。ものを見た時は「見た」という感覚が生じるし、痛みを感じたときは「痛い」という感覚が生じる。そういう主観的な感覚のことを意識と言っています。

杉原:五感で感じられることが意識ということでしょうか?

金井:そう、感じる能力ですね。それをAIにもたせようと思ったら、結構具体的なことを考えなきゃいけない。自発性とか、想像力とか、AIが考えるというのはどういうことか、みたいなことを突き詰める必要があります。でも、そういうことを考えていくと、普通のAIとは違う作り方を思いつける。だから、新しいAIのアーキテクチャを考える時のヒントとして、意識をもたせるには?ということを研究したりはしますね。

杉原:この意識をもったAIが、どのような分野に入ってくるんでしょう?

金井:今、仮説としているのは、いわゆる汎用人工知能みたいなものが作られるということです。脳の中にはたくさんのAIが一緒にいる状態で、その合体方法を意識というプラットフォームが示している。今のAIは機能特化型といって、姿勢の推定や、表情の読み取りなど、1つのことに特化しています。だけど人間はそれをうまく組み合わせて考えることができる。だから、今いろいろな人が作っているAIを統合して、ひとつの強力なAIを作る方向になるのではないかと思います。

杉原:野球でいうと、今のAIはピッチャーばかり作っているみたいな感じですよね。でも、金井さんは「野球やろうぜ」と言っている。

金井:そんな感じですね。チームをちゃんと作ろう、という意味です。

ムーンショットで
BMIの技術開発

杉原:御社を知るきっかけになったのが、内閣府が進めているムーンショット型研究開発制度です。目標1のブロックで民間企業として参加しているのは御社だけですが、参加のきっかけはなんでしょうか?

金井:ムーンショットの目標は、「時間と空間と脳と身体の制約から解放される」という突拍子もないものです。これは自分に向いていそうだなと思って、普通に応募しました。

杉原:今回ムーンショット1で、2050年までに御社が達成したい目標はありますか?

金井:まず2030年までにBMI(ブレインマシーンインターフェース)を実用化できるレベルをめざしています。BMIには侵襲・非侵襲といろいろあります。最初、イーロン・マスクがやっているみたいに侵襲で脳に電極を埋め込むことを考えていたのですが、それ以外にも非侵襲で普通に脳波をとったり、あとは意外と外から画像だけ解析すればいけるんじゃないかと思って。脳を見なくても何をやろうとしているかが予測できればよいので、AIのノウハウを最大限応用すれば、侵襲性が低くても人が何か考えただけでモノを動かすくらいのことができるのではないかと思っています。

杉原:PoC(プルーフオブコンセプト)としてどのあたりに入りそうですか? エンタメでしょうか? それとも老人や言語が伝えにくくなった方たちに、最初に実証していくのか。

金井:侵襲と非侵襲で使える場所が違うと思います。侵襲のほうは完全に四肢麻痺やALSのかたの身体の補完という医療用の目的。非侵襲のほうは意外に自分自身のモニタリングみたいなものに使われるんじゃないでしょうか。まず自分の疲れを知るとか、鬱や過労を防止するみたいに使って、そのあとにインターフェースとして検討されていくと思います。たぶん、声を出さないでしゃべるくらいにはなると思います。

杉原:すごいですね。例えば触覚センサーみたいなものをつけて、より重さや触覚が伝わっていくと、自宅でロボットを遠隔操作することもできますよね。

金井:そうですね。入力のところを簡単にすればいいのかなと思っています。BMIですごくいいものを作ろうとすると、精密なデータが脳からとれて、ロボットのほうも自由度が高いイメージになりますが、そこまでいかなくても「前に進みたい」と思ったら、歩くところはもう全部半自動でロボティクスでやってしまえばいいのかなと。

事業者のほうが脳の研究は進んでいる

杉原:HERO Xはスタートアップのかたも読んでいるので、起業の時に大事にしていたことをお聞きしたいと思います。

金井:起業をする時は、少しでも前に進みたいと思っていましたね。進まないのが一番つまらないので。あとから考えるといろいろ失敗もありましたが。

杉原:研究領域だけではなく、実装領域も兼ね備えるための起業だったのでしょうか?

金井:そうですね。研究でできることは限られているんです。特に脳の画像を見て、個人の特徴、例えば知性とか性格とかを読み取ることはかなりできていたので、そういうことを役立てたいと思っていました。脳の研究も、Googleのような企業が圧倒的になってしまって、アカデミックな研究よりも自分が事業を作ったほうが研究が進むのではないかと思ったんです。起業したい人からよく相談を受けるのですが、実際にはなかなか起業しないですね。やってみればいいんじゃないかと思うのですが。

杉原:僕もよくそういう相談を受けますが、悩んでいる方が心に悪いですよね。

金井:やったほうがいろいろ得られるとは思いますよね。

杉原:最後に、今後AIはどんな風に生活に入り込んでいくと思いますか?

金井:着実に様々なところに使われ始めるとは思います。ただスマホやネットレベルの、誰も気づかないけれど、実は広範囲に使われていたみたいな存在になっていくのではないかと。

杉原:人々がそれを実感して気づくタイミングって15年、20年くらい先ですか? それとも、何気なく生活がアップデートされていって、そもそも気づかない?

金井:後者だと思いますね。パソコンが速くなっても気づかないみたいなことだと思います。

杉原:気づいたら20年前よりかなりよくなっているよね、みたいな感じですね。金井さんのAIに対するアプローチってすごく新鮮というか、ほかのかたからあまり聞いたことないなと思います。会社の事業としてはBtoBが多いのでしょうか?

金井:ほぼBtoBのAI開発と、R&Dのお手伝いですね。自動車の会社が多いです。

杉原:ぜひレース業界もよろしくお願いします。マシンも、いまや走るセンサーといわれていますから。今日はどうもありがとうございました。

金井良太(かない・りょうた)
株式会社アラヤ創業者。2000年京都大学理学部卒業後、2005年 オランダ・ユトレヒト大学で人間の視覚情報処理メカニズムの研究でPhD取得(Cum Laude)。米国カルフォルニア工科大学、英国ユニバーシティ・カレッジ・ロンドンにて研究員。JSTさきがけ研究員、英国サセックス大学准教授(認知神経科学)を経て、2013年に株式会社アラヤを創業。神経科学と情報理論の融合により、脳に意識が生まれる原理やAIに意識を実装する研究に従事すると同時に、産業界におけるAIと脳科学の実用化に取り組む。文部科学大臣表彰若手科学者賞、株式会社アラヤとしてJEITA ベンチャー賞(2020)、ET/IoT Technology Award(2019)など多数受賞。2020年より、内閣府ムーンショット事業プロジェクトマネージャーとしてブレイン・マシン・インターフェースの実用化に取り組む。

関連記事を読む

(text: 吉田直子)

(photo: 増元幸司)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー