対談 CONVERSATION

遠隔操作ロボットを使った、労働の革新

富山英三郎

VRゴーグルや触覚センサー付きグローブを装着し、ロボットを自分の身体のように遠隔操作する。そんな未来がすでに現実のものとなっている。今回は、そんなロボティクスの世界をリードする、テレイグジスタンス社の共同創設者でありCEOの富岡 仁さんと、弊誌編集長・杉原行里の対談。同社は2020年9月14日から小売店舗の運営をスタートさせたというが、その真意とは?

テレイグジスタンスとは?

対談の前に、「テレイグジスタンス」について簡単に解説しておこう。「遠隔存在」「遠隔臨場」とも訳される「テレイグジスタンス」は、東京大学 名誉教授であり工学博士の舘 暲氏が1980年に提唱した概念。簡潔に言えば、人間がロボットの身体を操作し、自分の身体と同一のものとして行動できるようにする試みだ。館教授が考える最終ゴールはまだ先だが、約40年の研究成果により、かなりの進化と実現性を帯びてきている。そんななか、2017年に同研究の社会実装(商業化)を目的としたテレイグジスタンス社が設立された。富岡 仁さんは、その会社の共同創設者でありCEOである。

商社を辞め、
テレイグジスタンス社を
設立した理由

杉原 まずは、もともと三菱商事に勤めていた富岡さんが、一般的にはアバターと言われる、館先生の「テレイグジスタンス」の領域に興味を持った理由を教えてください。マーケティング的な側面なのか、何か思うところがあったのか。

富岡 それはよく聞かれるんですよ。でも、商社を辞めた時点では「テレイグジスタンス」をまったく知らなかった。商社は扱う金額が大きくて面白いんですけど、やっぱり線形でしか伸びないようなビジネスしか手掛けられない。大きなプロジェクトを2~3回やると、展開が読めてしまうというか。

杉原 パラダイムシフトが起きにくいということですね。

富岡 そうです。そこで、スタンフォード(大学経営大学院)を卒業し、ファンド組成と投資を経験した後、次に何をやろうかというときに、とりあえず複雑なことをしようと。技術的に複雑で難しいだけでなく、事業の仮説が4乗、5乗にも重なっていて、それを(事業としての)実態に変換する際には、複雑に利害が絡まった人たちを巻き込みながら、その煩雑さに糸を通していくような力量が要求されること。事業の経済計算も緻密さが要求され、モデル化が必要なこと。とにかく複雑系なことをやりたかったのです。

杉原 難攻不落かつ、ゼロイチ(世の中にないモノやサービス、価値を生み出すこと)のチャレンジングな仕事がしたかったんですね。

富岡 そうです。そして、いくつかの選択肢のなかで一番革新的で複雑そうなのが、館先生のロボティクスだった。難易度は異常に高いけれど、彼の技術をリサーチからエンジニアリングに引き上げ、ユニットエコノミクス(*1)を証明できれば、その後は事業が非線形で伸びるイメージが生まれました。

*1:SaaSやサブスクリプションサービスで扱われることの多い、ビジネスの最小単位1個あたりの収益性のこと

杉原 設立は2017年1月ですけど、当時はまだ遠隔操作はブルーオーシャンだったのでしょうか?

富岡 研究のひとつとしてはありましたけど、「ヒューマノイドロボット」を操作して云々というのはNASAの世界くらいでした。ですが、ロボットを遠隔操作する「マスター・スレイブ型」はごく一部の専門領域として昔からありました。

杉原 でも、「マスター・スレイブ(主人と奴隷)」ってすごい言葉ですよね。

富岡 あははは。ロボットの専門用語ですね。

2020年9月、遠隔操作ロボットが
コンビニの陳列を開始する

Model T

杉原 2018年に、テレイグジスタンスの技術、VR、通信、クラウド、触覚技術を盛り込んだ、プロトタイプの『Model H』という遠隔操作ロボットを開発されました。そしてついに、商業化に向けたサービスをローンチされるようですね。

富岡 そうなんです。まずは小売りの分野から始めていきます。今度、竹芝にソフトバンクの新本社ビルができるんですよ。AIやIoTを活用したスマートビルになっていて、その1Fに約50坪の、ロボットが導入されたローソンができる予定です。(*2)

*2 9月14日〜現在「ローソン Model T 東京ポートシティ竹芝店」にて導入

杉原 えっ! それはどういうことですか?

富岡 弊社が運営する店舗では、遠隔操作ロボットが多様な商品の陳列業務をするんです。

杉原 その遠隔操作ロボットは、どういうことができるのでしょうか?

富岡 『Model T』という遠隔操作ロボットで、移動しながらいろいろな商品を陳列していきます。従来の産業用ロボットアームは、工場内の極めて静的な環境下で、形状パターンが限定された物体をピック&ドロップすることがメインです。一方、工場の外で使おうとすると役に立たない。なぜなら、工場の外の世界は従来の産業用ロボットにとって環境設定がファジー過ぎるからです。小売りを例にすると、実店舗内でのライティング(照明)のパターンは無数にありますし、把持する商品が、食品と飲料だけでも約3500〜10,000種類以上あります。

杉原 それは画像認識がすごく大変になりますね。

富岡 まさに、すさまじいことになります。これを全て自律的におこなうには、まず画像認識で問題にぶつかります。商品の形状を認識し、さらに商品の傾きなどの姿勢推定、そして「ここを掴む」という把持点も認識しないといけない。現在のマシーンビジョン(*3)の技術レベルでは、実用レベルで解くにはかなり難しい問題設定になります。いわゆるフレーム問題というやつです。そんなとき、「テレイグジスタンス(遠隔存在)」が有効なアプローチになると思います。

*3:画像の取り込みと処理に基づいて機器を動作させるシステムのこと

杉原 インプットが膨大になりすぎて、時間もお金もかかりすぎることは人間がおこなうということですか?

富岡 人間ならば、あるモノを見たときにどう掴むべきかは5歳児でもわかる。それならば、人の目で掴むべき「把持点」を抽出したあとに、それを取ってA地点からB地点に持っていくのは従来のロボット工学の軌道計画でできる。そういう意味で人間が遠隔操作したほうが簡単だし安い。

杉原 遠隔操作する際、その『Model T』自体の距離感をディープラーニングしていくことも必要なのでしょうか?

富岡 現時点では、VRを使って人の目で合わせていきます。

個人がロボットを
所有して働かせる未来

杉原 こんなことを聞いていいのかわからないですが、『Model T』の時給はいくらになるのでしょうか?

富岡 そこがまさにビジネスモデルに関係していて、僕らは『Model T』を売らず、ロボットがおこなう役務提供(サービス提供)への対価を、雇い主からいただこうと考えています。わかりやすくいえば、人間が小売店舗で勤務するのと同等の価値と考えて、例えば陳列した分だけ対価を頂くという感じです。流行りの言葉で言えば「RaaS(robotics as a service)」ですね。 金額的には低賃金の小売業界でも、十分費用対効果が出るレベルにまで価格は抑えて導入可能です。

杉原 その計算でいけるとは、びっくりするくらい安いですね。これが5年前なら、ロボットの価格だけで3~4倍の値段になっていたはず。すごいイノベーションです。

富岡 TXはロボットのハードウェアを9割以上内製化して開発しています。また、ハードのみならず、ロボットの軌道計画、ロボット制御、遠隔制御、クラウド・通信、操作コクピットのUIなどもすべて内製化していて、高い柔軟性で製造コストをコントロールしています。ビジネスモデルの話に戻すと、東京の時給が約1200円。同じ仕事でも、賃金の低い県だと24時間365日勤務と考えた場合、年間200万円くらいの差がでるわけです。

杉原 そうですよね、遠隔操作であれば住んでいる場所は関係ない。しかも、いま話題の在宅勤務ができる。1時間だけスポットで入るとか、これまで通勤することができない事情を抱えた人でも働けるようになる。

富岡 まずは、小売り店舗の食べ物と飲料の陳列からスタートします。実は、それだけでも2200種類程度あるんですよ(笑)

杉原 そういう未来が来るとは思っていましたが、意外に早かったと感じます。ここから新しい職業が生まれ、さらにはこれまで仕事に就けなかった人たちの「選択肢」や「機会」が提示されることにもなる。ロボットが職場に進出することに関する、世間の誤解も解けそうな気がします。

富岡 そう思います。ロボットは今後、最も富を生み出す「資産」のひとつになりえる。でも、これまでのやり方のまま、『Model T』を大企業に売って彼らが使ってしまうと、ロボットから生み出される「富」が個人に「還元」されにくい。その意味でも、我々はロボットを「個人所有」させたい。個人が所有しているロボットが企業に役務提供することで、対価を得られる仕組みを構築したいんです。

杉原 企業からすると「投資」をする必要がない。また、労働者からすると自分がそこにいなくてもいい。さらには、ロボットをひとりで所有しなくてもいいわけですよね。

富岡 もちろん、何人かで所有していただいてもいいですし、それを使って誰が働くのかも問わない。

杉原 すごいビジネスが生まれそうですね。

富岡 5Gなどでインターネットのスピードが上がれば、日本で操作する必要すらないですよ。そうなると、時給差はもっと生まれると思います。逆に、海外の時給のいい仕事を日本でやることもできます。

富岡 仁
テレイグジスタンス株式会社 代表取締役CEO、CFO兼共同出資者。
スタンフォード大学経営大学院修士。2004年に三菱商事入社し、海外電力資産の買収などに従事した。2016年にジョン・ルース元駐日大使らとシリコンバレーのグロースキャピタルファンド「Geodesic Capital」を組成し、SnapchatやUberなどへの投資を実行。東京大学の舘名誉教授のテレイグジスタンス技術に魅了され、2017年1月にテレイグジスタンス株式会社を起業。

(text: 富山英三郎)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

対談 CONVERSATION

【HERO X × JETRO】車の「目」はこう変わる!自動運転技術加速を支える新技術

HERO X 編集部

JETROが出展支援する、世界最大のテクノロジー見本市「CES」に参加した注目企業に本誌編集長・杉原行里が訪問。独自のスキャナーとFMCW測定系を組み合わせることで、従来の LiDAR(ライダー)を超える次世代型のLiDARシステム開発に成功した株式会社SteraVision(ステラビジョン)。完全自動運転を実現可能にする独自技術について同社CEOの上塚尚登氏に話しを聞いた。

独自技術で新しい市場価値を創ることをめざす
産総研発のベンチャー企業

杉原:産総研発のベンチャー企業ということですが、具体的にどのようなことをしている会社なのでしょうか。

上塚:産総研(国立研究開発法人産業技術総合研究所)というのは、日本に3組織しかない特定国立研究開発法人の一つで、茨城県つくば市にあるつくば本部エリアにあるのですが私たちはその一部にある4部屋を借りて、研究・開発に取り組んでいます。本社は産総研の隣にあって、つくば市が運営するインキュベーション施設(株式会社つくば研究支援センター内つくば創業プラザ)のシェアオフィスを借りているんです。

左「HERO X」編集長・杉原と右SteraVision CEO・上塚氏

杉原:設立は最近ですか?

上塚:2016年12月です。産総研で培われた光通信技術を応用して、独自方式の光ビームステアリングデバイスと、FMCW方式の測定システムを組み合わせた次世代型LiDAR(Light Detection and Ranging:光による検知と測距)の開発と製造販売をやっています。製品としては、“Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”があります。

車の中でお酒も飲めるし仕事もできる、
完全運転をめざす

上塚:Digital FMCW LiDAR”&光ビームステアリングデバイス “MultiPol™”は、独自に開発した、これまでにない新しい形のスキャナーです。これによって我々がめざすのは完全自動運転の実現です。

杉原:一般の車でも、最近はアクセルを離しても設定した速度のまま走り続けるクルージング機能や、車間距離を保ってくれる機能など、自動運転にかなり近づいていますが、ステラビジョンではそれをさらに進化したものにする技術を開発中だと伺いました。実際のところ、今、一般的な車両についているものは、まだ自動運転と言えるものではないですよね。

上塚:そうですね。ご指摘の通り、ドライブアシストと完全自動運転はかなり異なります。自動運転のレベルには0から5までがあり、レベル2まではドライブアシストです。ここでは事故が起きたときはドライバーが責任を持ちます。それに対して完全自動運転では、人が運転することはなく、車の中でお酒も飲めるし仕事もできるといった、新たな価値も生まれます。その一方で、事故が起ればシステムが全ての責任をもたなければなりません。

杉原:レベル4くらいを開発目標にしている、というのが世の中の潮流でしょうか。

上塚:そうですね。我々が目指すのは「完全」自動運転、つまりレベル5ということになります。実は自家用車の完全自動運転は伸び悩んでいて、どこが伸びているかというとトラックの完全自動運転です。コロナ禍で買い物へ行かなくなった代わりに、在宅で注文する機会が増え、輸送用トラックの出荷台数が凄い勢いで伸びている。そんな中で、トラックの完全自動運転、特に高速道路の完全自動運転のニーズが増加しています。ドライバーの身体的負担を減らすだけではなく、燃費も良くなります。ガソリンが高騰していることもあり、アメリカでは本当によく伸びているんですよ。

杉原:なるほど。そして、ズバリ、御社の製品の強みはどのあたりになるのでしょうか?

上塚:我々のLiDARは、大きくふたつの技術を持っておりまして、ひとつがスキャナーです。LiDARというのは、光の方向を見ながら戻ってきた光で、距離と速度も求めることができるというシステムです。その距離と速度を求めるために、我々は光の波の性質を利用する『FMCW(Frequency Modulated Continuous Wave radar:周波数変調連続波レーダー』という方式を採用しています。これを利用して「完全自動運転」に必要な“目”を作ろうというのが我々の目標です 。

距離を測るLiDARの方式としてはToF(Time Of Flight:光の飛行時間)というのが主流なので、LiDARのスタートアップは、アメリカを中心に世界で百数十社がある中で、ほとんどがToFを採用しています。これは光の粒の性質を利用して光を外に出して、戻ってきた光の粒をカウントするという方式で、光が戻る時間から距離や速度を求めるやり方です。光は1秒間に地球を7周半するのですが、実は我々から見ると光の速度は非常に遅い。というのも、戻ってくるのにだいたい1マイクロ秒かかるからです。つまり、300メートルくらい先へ行くのに1マイクロ秒も必要ということです。往復で2マイクロ秒かかる。エレクトロニクスで言うと2マイクロ秒は遅いんです。ですから、我々は別の方法を考えたのです。

また、ToFは太陽や対向車からの光の影響を非常に受けやすいという問題もあります。そのため、ToFは「ドライブアシスト」のために用いることはできるのですが、我々が目指す更に高いレベルの「完全自動運転」には向かない。

杉原:それで、新技術を開発しているということですね。

上塚:はい。産総研で培われた光通信技術を応用して、光ビームによる FMCW方式の測定系を開発しました。これにより、見たいところ(必要なところ)を好きなだけ詳しく“見る”(ワープスキャン)ができるようになりました。

ワープスキャンを使うと運転に必要な情報だけを見られるようになる。

杉原:2016年に上塚さんとCTOの所武彦さんで創業されたということですが、2人は元々ライダーやセンサーに関する研究をされていたんですか?

上塚:我々のヒストリーは、実は光通信部隊なんです。私は光通信のデバイスなどの分野をやっていて、2019年に入社した所は光トランシーバー関係の開発をしていました。実はFMCWというのは光通信のデジタルコヒーレント通信とほとんど同じなんです。だからそのまま進んでいたら、非常にうまくいったんです。

杉原:なるほど。そこから、ToFのほうが世界的な潮流として使われていたけどもFMCW が来るだろうと踏んだということですよね。重複するかもしれませんが、従来のLiDARとの大きな違いはどのあたりになるのでしょうか。

上塚:我々はLiDAR単独ではなく、カメラと組み合わせることで、たとえば運転中の、物体が右から左へ、前から後ろにくるという動きに合わせて、必要なところを詳しくスキャンできます。ここが我々の優位性です。

カメラは全体を見るのは優れていますが、無駄な情報を省き、いかに効率化するか、つまり「見たいところだけ見る」というのが我々の会社のスローガンです。運転中に必要なのは、運転に必要な情報だけです。空とか地面とか見ても仕方がない。無駄な情報もすべて処理すると、コンピュータパワーも使いますし、エネルギー的にも無駄が多いんです。

杉原:車にスーパーコンピュータを積むわけにいきませんからね。これはすごいですね、面白いですね。

上塚:対象が人なのか猫なのか、ボールなのかは、ディープラーニングで物体認識もできます。たとえば人とか車とか、衝突の危険性があるものはまずカメラで認識します。そうすると、その右側にあるステラビジョンのLiDARで実際の距離を測り、情報を色で表します。距離により色分けをして、赤だと遠い、青だと近い、緑が中間ぐらい。そして、それが「車」か「人」だとなったら、そこまでの距離により衝突する可能性があるかどうかを判断、危ない場合はブレーキをかける。運転に必要最低限の情報さえ取り込めれば、これだけのことができます。データ処理を極限まで減らし、重要な物は見落とさない独自の技術があるため、車だけでなく、健康医療分野への応用にも期待がかかっているところです。

杉原:僭越ながら、僕がとても刺さったのは、データの重さが全く変わるところです。軽くなるから情報を処理するスピードも上がるわけですよね。

上塚:それです! まさにその通りです! 要は自動運転といっても、ある程度車のスピードを上げられなければ意味がない。車が速く動けば、それだけ早く情報が上がってこないと、事故につながりかねない。そうなるとやはり情報は高速でほしいわけです。ただし、それを全画面の全距離を無限で測るとしたら、それはスーパーコンピュータの処理が必要です。このようにデータ処理を極限まで減らし、ただし重要な物は見落とさないというのが重要なのです。

杉原:素晴らしいです。僕らの目にも欲しいですね。

上塚:人間の目はそもそもそういうことをやっているんです。景色を見ているけど見てるのは自分の関心があるところだけだし、目に入った情報のすべてを脳は処理していませんよね。

杉原:そのとおりですね。

上塚:それを、実際のコンピュータやLiDAR、光学センサーを使って実現しましょうというのが我々のコンセプトである「見たいところを見る」ということです。

杉原:今回はCESにも出展されていますが、反響はありましたか?

上塚:はい。今引き合いがいっぱいあって、独自性を非常に高く評価してくださる方が多いですね。アメリカから来た方や、駐在の方も来られましたので話をして、海外の方からも是非取り入れたいと言っていただきました。

杉原:自動運転のレベル4レベル5の話もそうですし、健康データだったり、様々なものも含めて世の中を大きく変えていける可能性を感じます。

上塚:そうですね。実際に、健康関係のところからも引き合いはあります。

杉原:個人的にも大変興味深いお話でした。ぜひ御社へ足を運んで、実際に技術を拝見させてください! 今日はありがとうございました。

上塚尚登 (うえつか・ひさと)
1981年東京工業大学を卒業。 専門領域は光デバイス技術。 日立電線(現 日立金属)に入社し,光通信デバイスビジネスを立上げた。 社内ベンチャーのヘッドとして約100億までの部門に成長させた経験を持つ。

関連記事を読む

(text: HERO X 編集部)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー