対談 CONVERSATION

【HERO X × JETRO】車の「目」はこう変わる!自動運転技術加速を支える新技術

HERO X 編集部

JETROが出展支援する、世界最大のテクノロジー見本市「CES」に参加した注目企業に本誌編集長・杉原行里が訪問。独自のスキャナーとFMCW測定系を組み合わせることで、従来の LiDAR(ライダー)を超える次世代型のLiDARシステム開発に成功した株式会社SteraVision(ステラビジョン)。完全自動運転を実現可能にする独自技術について同社CEOの上塚尚登氏に話しを聞いた。

独自技術で新しい市場価値を創ることをめざす
産総研発のベンチャー企業

杉原:産総研発のベンチャー企業ということですが、具体的にどのようなことをしている会社なのでしょうか。

上塚:産総研(国立研究開発法人産業技術総合研究所)というのは、日本に3組織しかない特定国立研究開発法人の一つで、茨城県つくば市にあるつくば本部エリアにあるのですが私たちはその一部にある4部屋を借りて、研究・開発に取り組んでいます。本社は産総研の隣にあって、つくば市が運営するインキュベーション施設(株式会社つくば研究支援センター内つくば創業プラザ)のシェアオフィスを借りているんです。

左「HERO X」編集長・杉原と右SteraVision CEO・上塚氏

杉原:設立は最近ですか?

上塚:2016年12月です。産総研で培われた光通信技術を応用して、独自方式の光ビームステアリングデバイスと、FMCW方式の測定システムを組み合わせた次世代型LiDAR(Light Detection and Ranging:光による検知と測距)の開発と製造販売をやっています。製品としては、“Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”があります。

車の中でお酒も飲めるし仕事もできる、
完全運転をめざす

上塚:Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”は、独自に開発した、これまでにない新しい形のスキャナーです。これによって我々がめざすのは完全自動運転の実現です。

杉原:一般の車でも、最近はアクセルを離しても設定した速度のまま走り続けるクルージング機能や、車間距離を保ってくれる機能など、自動運転にかなり近づいていますが、ステラビジョンではそれをさらに進化したものにする技術を開発中だと伺いました。実際のところ、今、一般的な車両についているものは、まだ自動運転と言えるものではないですよね。

上塚:そうですね。ご指摘の通り、ドライブアシストと完全自動運転はかなり異なります。自動運転のレベルには0から5までがあり、レベル2まではドライブアシストです。ここでは事故が起きたときはドライバーが責任を持ちます。それに対して完全自動運転では、人が運転することはなく、車の中でお酒も飲めるし仕事もできるといった、新たな価値も生まれます。その一方で、事故が起ればシステムが全ての責任をもたなければなりません。

杉原:レベル4くらいを開発目標にしている、というのが世の中の潮流でしょうか。

上塚:そうですね。我々が目指すのは「完全」自動運転、つまりレベル5ということになります。実は自家用車の完全自動運転は伸び悩んでいて、どこが伸びているかというとトラックの完全自動運転です。コロナ禍で買い物へ行かなくなった代わりに、在宅で注文する機会が増え、輸送用トラックの出荷台数が凄い勢いで伸びている。そんな中で、トラックの完全自動運転、特に高速道路の完全自動運転のニーズが増加しています。ドライバーの身体的負担を減らすだけではなく、燃費も良くなります。ガソリンが高騰していることもあり、アメリカでは本当によく伸びているんですよ。

杉原:なるほど。そして、ズバリ、御社の製品の強みはどのあたりになるのでしょうか?

上塚:我々のLiDARは、大きくふたつの技術を持っておりまして、ひとつがスキャナーです。LiDARというのは、光の方向を見ながら戻ってきた光で、距離と速度も求めることができるというシステムです。その距離と速度を求めるために、我々は光の波の性質を利用する『FMCW(Frequency Modulated Continuous Wave radar:周波数変調連続波レーダー』という方式を採用しています。これを利用して「完全自動運転」に必要な“目”を作ろうというのが我々の目標です 。

距離を測るLiDARの方式としてはToF(Time Of Flight:光の飛行時間)というのが主流なので、LiDARのスタートアップは、アメリカを中心に世界で百数十社がある中で、ほとんどがToFを採用しています。これは光の粒の性質を利用して光を外に出して、戻ってきた光の粒をカウントするという方式で、光が戻る時間から距離や速度を求めるやり方です。光は1秒間に地球を7周半するのですが、実は我々から見ると光の速度は非常に遅い。というのも、戻ってくるのにだいたい1マイクロ秒かかるからです。つまり、300メートルくらい先へ行くのに1マイクロ秒も必要ということです。往復で2マイクロ秒かかる。エレクトロニクスで言うと2マイクロ秒は遅いんです。ですから、我々は別の方法を考えたのです。

また、ToFは太陽や対向車からの光の影響を非常に受けやすいという問題もあります。そのため、ToFは「ドライブアシスト」のために用いることはできるのですが、我々が目指す更に高いレベルの「完全自動運転」には向かない。

杉原:それで、新技術を開発しているということですね。

上塚:はい。産総研で培われた光通信技術を応用して、光ビームによる FMCW方式の測定系を開発しました。これにより、見たいところ(必要なところ)を好きなだけ詳しく“見る”(ワープスキャン)ができるようになりました。

ワープスキャンを使うと運転に必要な情報だけを見られるようになる。

杉原:2016年に上塚さんとCTOの所武彦さんで創業されたということですが、2人は元々ライダーやセンサーに関する研究をされていたんですか?

上塚:我々のヒストリーは、実は光通信部隊なんです。私は光通信のデバイスなどの分野をやっていて、2019年に入社した所は光トランシーバー関係の開発をしていました。実はFMCWというのは光通信のデジタルコヒーレント通信とほとんど同じなんです。だからそのまま進んでいたら、非常にうまくいったんです。

杉原:なるほど。そこから、ToFのほうが世界的な潮流として使われていたけどもFMCW が来るだろうと踏んだということですよね。重複するかもしれませんが、従来のLiDARとの大きな違いはどのあたりになるのでしょうか。

上塚:我々はLiDAR単独ではなく、カメラと組み合わせることで、たとえば運転中の、物体が右から左へ、前から後ろにくるという動きに合わせて、必要なところを詳しくスキャンできます。ここが我々の優位性です。

カメラは全体を見るのは優れていますが、無駄な情報を省き、いかに効率化するか、つまり「見たいところだけ見る」というのが我々の会社のスローガンです。運転中に必要なのは、運転に必要な情報だけです。空とか地面とか見ても仕方がない。無駄な情報もすべて処理すると、コンピュータパワーも使いますし、エネルギー的にも無駄が多いんです。

杉原:車にスーパーコンピュータを積むわけにいきませんからね。これはすごいですね、面白いですね。

上塚:対象が人なのか猫なのか、ボールなのかは、ディープラーニングで物体認識もできます。たとえば人とか車とか、衝突の危険性があるものはまずカメラで認識します。そうすると、その右側にあるステラビジョンのLiDARで実際の距離を測り、情報を色で表します。距離により色分けをして、赤だと遠い、青だと近い、緑が中間ぐらい。そして、それが「車」か「人」だとなったら、そこまでの距離により衝突する可能性があるかどうかを判断、危ない場合はブレーキをかける。運転に必要最低限の情報さえ取り込めれば、これだけのことができます。データ処理を極限まで減らし、重要な物は見落とさない独自の技術があるため、車だけでなく、健康医療分野への応用にも期待がかかっているところです。

杉原:僭越ながら、僕がとても刺さったのは、データの重さが全く変わるところです。軽くなるから情報を処理するスピードも上がるわけですよね。

上塚:それです! まさにその通りです! 要は自動運転といっても、ある程度車のスピードを上げられなければ意味がない。車が速く動けば、それだけ早く情報が上がってこないと、事故につながりかねない。そうなるとやはり情報は高速でほしいわけです。ただし、それを全画面の全距離を無限で測るとしたら、それはスーパーコンピュータの処理が必要です。このようにデータ処理を極限まで減らし、ただし重要な物は見落とさないというのが重要なのです。

杉原:素晴らしいです。僕らの目にも欲しいですね。

上塚:人間の目はそもそもそういうことをやっているんです。景色を見ているけど見てるのは自分の関心があるところだけだし、目に入った情報のすべてを脳は処理していませんよね。

杉原:そのとおりですね。

上塚:それを、実際のコンピュータやLiDAR、光学センサーを使って実現しましょうというのが我々のコンセプトである「見たいところを見る」ということです。

杉原:今回はCESにも出展されていますが、反響はありましたか?

上塚:はい。今引き合いがいっぱいあって、独自性を非常に高く評価してくださる方が多いですね。アメリカから来た方や、駐在の方も来られましたので話をして、海外の方からも是非取り入れたいと言っていただきました。

杉原:自動運転のレベル4レベル5の話もそうですし、健康データだったり、様々なものも含めて世の中を大きく変えていける可能性を感じます。

上塚:そうですね。実際に、健康関係のところからも引き合いはあります。

杉原:個人的にも大変興味深いお話でした。ぜひ御社へ足を運んで、実際に技術を拝見させてください! 今日はありがとうございました。

上塚尚登 (うえつか・ひさと)
1981年東京工業大学を卒業。 専門領域は光デバイス技術。 日立電線(現 日立金属)に入社し,光通信デバイスビジネスを立上げた。 社内ベンチャーのヘッドとして約100億までの部門に成長させた経験を持つ。

関連記事を読む

(text: HERO X 編集部)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

対談 CONVERSATION

変革期を迎えたデジタルアートの最前線

あらゆる情報がデータ化され、これまで見えづらかった事象が可視化されるようになった現在。エンタテイメントやスポーツ分野におけるデジタルテクノロジーの可能性について語り合った前編に続き、後編ではさらに突っ込んだデジタルアート、さらには金融や医療分野についても話が及んだ。まだ混沌としているブロックチェーン技術や、倫理の問題が立ちはだかる身体データの活用など、今を生きる我々が避けては通れないトピックスについてのヒントがここにある。いずれにせよ、しばらく真鍋氏の動向から目が離せないことだけは確実だ。

東京現代美術館にて展示された
《Rhizomatiks × ELEVENPLAY “multiplex”》2021

《Rhizomatiks × ELEVENPLAY “multiplex”》2021 「ライゾマティクス_マルティプレックス」展示風景(東京都現代美術館、2021年) photo by Muryo Homma(Rhizomatiks)

杉原:さて、今東京都現代美術館で開催している「rhizomatiks_multiplex」についてお伺いしたいです。僕はまだ動画でしか拝見していないのですが、実際に見た人の感想を訊くと、みんな口を揃えてすごい!って絶賛していますよ。

真鍋:お客さんにわざわざ足を運んでいただくだけの価値がある体験にしようというコンセプトがありました。生で、肉眼で見てもらって、リアルなオブジェクトを動かすことや空間を上手く使うことなどを感じてもらいたかったんです。

杉原:白いオブジェクトが動くのは、ルンバとかで使われているSLAM(自己位置推定と環境地図作成の同時実行)ですか?

真鍋:《Rhizomatiks × ELEVENPLAY “multiplex”》では、外からセンサーカメラを使ってオブジェクトについているマーカーを認識して位置と角度をトラッキングしています。外で動いているロボットはGPS、RTK-GNSSですね。映像だけでなくかなりたくさんのアナログ装置を用いています。残念ながら4月は丸々緊急事態宣言でクローズしていました。

杉原:もったいない! せっかくの機会だからもっと延期してくれればいいのに。コロナで気分が落ち込んでしまいがちですが、こういう時期こそアートやスポーツの力で、個々の価値観を再定義できたらいいと思っているのです。

NFTの抱える問題と可能性について

杉原:そうした中で、NFT(ブロックチェーン技術を使って固有の価値を持たせる)が昨年から急激に注目されるようになりましたね。知人が「真鍋さんの作品を買ったぞー」という話をしていて、びっくりしていたんですよ。

真鍋:今はほとんどのクリエーターが既存のマーケットプレイス、OpenSea、Rarible、Foundationなどで作品をミントしていると思うのですが、ライゾマは独自のマーケットを作りました。実践を通じて現状分析、未来予測を行うという意味合いが大きいですね。

杉原:ライゾマのNFTを使ったマーケット知らなかったです! とはいえ、この種のマーケットはまだきちんとしたプラットフォームになってないですよね。どちらかと言えばアイデア先行で始まって、まだアーリーアダプター向けなんですよね。

真鍋:6年前にドイツのカールスルーエ・アート・アンド・メディア・センターではビットコインのトランザクションのビジュアリゼーションや自動取引をテーマにした作品を展示したこともあり、ブロックチェーン関連は興味がある分野だったのでNFTも早くから注目していました。

杉原:この間、レブロン・ジェームズのダンクシュートの動画が2000万円で売られたことも話題になりましたね。

真鍋:NBAトップショットですね。いやぁ、海外の動きは早いですね。まだ黎明期で何が本命かは判断が難しいところもあるのですが、そこを含めて面白いと思っています。

杉原:ちょうどiTunesで楽曲を購入できるようになった頃、WinnyとかNapsterとか(ファイル共有サービス)が出てきて、問題になった時と似ていますよね。ある程度の不正には目を瞑りながらもサービス自体を普及させていくという。結局大事なことは、アーティストの権利をどう守るのかということですよね。

真鍋:NFTには可能性があることは揺るぎない事実かと思います。特に永続性の部分は大きいのではないでしょうか。例えば、YouTubeの画像はYouTubeのサービスが終わってしまったら無くなってしまいますよね。しかしNFTアートでよく使われているIPFSというハイパーメディア分散プロトコルを使えば、対改ざん性、耐障害性、対検閲性など作品が存在する上でのメリットがあります。もちろん、画像や動画、3DデータなどだけではなくDNAデータをアップロードするなど、貴重なデータを保存することにも使えますし、ゲームから始まってアートに移行して、これからはさらに広い分野でこの技術が使われるだろうなと思います。

杉原:遊休資産が一気に値上がりするパターンがありますよね。例えば、昔作ったプロモーションビデオの一部の切り取りを買える訳じゃないですか?

真鍋:眠っていたコンテンツがNFTをきっかけに蘇って価値が出てくるということもあるでしょうね。よく言われていることではありますが、音楽の流通やミュージックビデオも形態が変わっていくんじゃないかなと思います。日本ではまだまだ事例が少ないですよね。海外だとWarp Recordsの代表的なアーティストであるAphex Twinがオーディオビジュアル作品を出していたり、有名どころでも面白い事例もたくさんあります。
杉原:たしかBLURもやっていますよね。僕個人としては、今後さらにNFTを利用したサービスが支持されると思うし、自分自身でもライゾマの作品を購入したいと思っています。ただ気がかりなのがめちゃめちゃ薄型でかっこいいスクリーンというか、デジタルアート作品にぴったり合うモニターがあればいいなと。やっぱり自分が惚れ込んだ絵画作品には、それ相応の額装が必要になるじゃないですか? ライゾマの作品はライゾマのディスプレイとセットにして鑑賞したいですものね。

真鍋:まさにおっしゃる通り! 先読みされた感じがしました。作品を買った人がどうやって鑑賞するのかというと、結局ディスプレイが必要になります。ですから、僕らはウォレット搭載のNFTディスプレイの開発も検討しています。

先端医療におけるデータ活用とこれから

杉原:今回お話をして、ライゾマとRDSに親和性があるなと思ったことが、身体の可視化についてです。単純にデータを医療につなげようとしているのではなく、新しい項目を見つけて、今僕らが生活している中での当たり前をもう少し面白くできないだろうかと考えているのです。歩くという単純な行動が、ドラゴンクエストウォークとかポケモンGOとか、コンテンツが付与されるだけでエンタテイメントになる。そうした背景とかコンテキストみたいなのをぶち込んでいきたいなと考えているのです。そこで大事なことは、コミュニケーションでありUXなんですよね。僕らはあくまでもテクノロジーの基礎とツールを提供しているだけで、出口をどうするかが課題なんです。例えば、医療データを解析して「あなたの身体はこんな状態です」とぶっきらぼうに言われるような、しょっぱいUXだったら「そんなの要らない!」ってなっちゃうと思うから。

真鍋:たしかに、いきなりエクセルのグラフを見せつけられても興醒めしてしまいますよね。そもそもセンシティブな情報ですし、そんなこと知りたくないという人も多いですから。

杉原:真鍋さんの作品を見ていると、奥深いところにあるメッセージのように見えて、実はすでに身近にあったことを可視化してくれているのではと思ったのです。健康状態をダイレクトに伝えるだけではなく、どういう風に生活を改善した方がいいとか、コーチングから始めたらいいのかなと。だから、真鍋さんが取り組んでいるテクノロジーとアートを掛け合わせる手法を使って、1つのアライアンスになればいいなと。点と点が面になっていくように医療データを掛け合わせて、人々のQOL(クオリティ・オブ・ライフ)につなげていきたいのです。

真鍋:人の脳に埋め込んだ方がQOLが上がるというレベルまで行けるかどうか、いう話ですよね。個人的には早くやってみたいんです。この間も京都大学に行ってMRIのデータを取らせてもらって作品を制作したり、特任教授をやっているSFCでは藤井先生の協力を得てTMSと呼ばれる電気刺激を用いた作品制作を行っています。普段は主に医療に使われるものですね。

杉原:わっ! 痛そうですね。頭蓋骨も通り抜けて、脳に通電させているのですね。

真鍋:モーキャプのシステムとMRIのデータをTMSのシステムと組み合わせています。ちょっと痛いです(笑)。視覚野を刺激してどのような映像体験が出来るかを調べました。その時は思うような結果は得られなかったのですが、今後は作品の体験や制作に繋がればと思っています。

杉原:先ほども話しましたが、イーロン・マスクがやっていることにも通じますよね。デバイスを装着して脳に電流を流すことで、手を動かすことなくテレビゲームのキャラクターを動かすことができるという。

真鍋:それから最近面白かったのが、ドルビーの人たちと一緒にスタンフォード大学の研究所に1週間滞在して行った実験です。最近のテレビゲームはHDRが進化して、眩しいくらいに高解像度かつ高階調度になっています。それを利用してゲーム中の爆発シーンを見ると、本当に火災が起きたと思って顔の表面温度が上がる。脳波のデータはノイズが多くて使いづらいのですが、サーモのデータは使いやすいんです。

杉原:高所の映像を見ただけで手に汗をかく現象と同じですね。脳に刺激を与えることで、実際に火を使わずに火傷をさせることもできると聞きました。僕のプロジェクトでもサーモを利用した歩行実験で、その人の身体状態が大体わかるんですよね。

真鍋:僕は昔骨折したところがあって、ちゃんと治療せずにいたので歩き方がおかしくなっていると思うので、是非杉原さんのところで実験してもらいです。

今後のデジタルアートはさらなる変革期に突入

杉原:それでは最後に、コロナ以降のデジタルアートの展望について、どんな風に予想しているのかを教えてください。

真鍋:コロナの反動でリアルスペースに対する欲求が高まっている。それは来年の秋ぐらいまでには必ず戻ってくるでしょうね。

杉原:たしかにそうでしょうね。僕はデジタルに対してそれほど好意的ではなかった人たちが、コロナを通じて一気にデジタルにシフトしてきたと実感しています。

真鍋:本当にものすごく変わりましたし、実際アート界も変わってきています。現代アートの人たちはVRとかに懐疑的でしたが、そういう人たちですらオンラインギャラリーやバーチャルギャラリー、NFTを普通に使うようになってきた。もはやデジタル、リモート、オンラインは現代の必需品ですね。あっという間に人々が合意して価値観が変わった。

杉原:多くの人たちにとっては大変な時期だけれども、既にその前から取り組んでいた人たちからしたら、半歩先かなと思っていた未来が、もうここまで来たという感じですよね。

真鍋:もうここまで来て、あっという間にその先に行こうとしているというか(笑)。例えばミュージシャンがグリーンバックでオンライン配信ライブをやったり、少し前ならすごく特殊なことが今や普通のことになっていますよね。だから僕たちは、その更に先を行かないと。

真鍋大度(まなべだいと)
1976年、東京都生まれ。大学卒業後、大手電気メーカーに就職するが1年で退社。2002年 IAMAS(岐阜県立国際情報科学芸術アカデミー)に進学しプログラミングを学び、2006年Rhizomatiksを設立。以後、さまざまなアーティストのMVやライブ演出、スポーツイベントやファッションショーの演出を手がける。現在も東京を拠点に、アーティスト、インタラクションデザイナー、プログラマ、DJとして活動。

関連記事を読む

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー