テクノロジー TECHNOLOGY

究極の二脚ロボットを研究する「Amber lab」が、ロボット義足を開発中!

長谷川茂雄

“実世界で生活できるロボット”を目指し、二脚ロボットの研究を続けるカリフォルニア工科大学の研究所「Amber lab」。彼らは、ロボットを転ばせようとするなどして負荷をかけることで、ロボットの性能を高め進化させてきた。何度も繰り返すそんな実験は、ロボットの歩行に関する新しいアルゴリズムを最適化し、“どんな環境でも二足歩行できるロボット”を具現化しようとしている。さらにそこで得た知見は、ロボット義足の開発にも適用されているという。ロボットの歩き方の進化は、同時に義足ユーザーのあらゆる可能性も高めているのだ。

ロボットの可能性は、義足の可能性でもある

カリフォルニア工科大学にあるAmber(Advanced Mechanical Bipedal Experimental Robotics)Labが目指しているのは、人間が取り組めることであれば、なんでもできるというロボットの開発だ。

同ラボのロボット研究家、アーロン・エイムズ氏は、自分たちが作るロボットは、「芝生も砂利道も、雪や氷の上も歩けるものにしなければならない」と明言する。そのために歩行を数学的に理解し、常に改良を加えることで「ロボットを人間のように、効率的かつダイナミックに、そしてスムーズに歩けるようする」という。

それを実現させるために同氏が率いるチームは、トレッドミル(ウォーキングマシーン)の動きに合わせて歩くロボットを何度も転ばせようとしたりして、常にアルゴリズムを最適化している。ちなみに、歩行するロボットを転ばせようとすることは、「かく乱試験」と呼ばれる。

そうやって得られた数値をもとに、例えばミシガン大学では、ロボットに火の中を歩かせたり、セグウェイに乗せたりと、さらに多様な実験も行われているという。

ロボットにあらゆる負荷を与え、構造化されていない未知の環境でいかに機能させるかを模索する。そうやって人間のような歩行に近づけていくのだ。

さらにAmber Labでは、ジャンプする動作も追求するために、ピストンのように上下に跳ねるロボットの実験も盛んに行われている。それらの試みは、まず単純なロボットで行われ、得られた知見をもとに、より複雑なロボットへと応用されていく。そういった作業を繰り返すことで、ロボットの性能に何が足りないのかが明確化される。

さて、これらのロボットで獲得した成果は、電池式のロボット義足“Ampro”の開発にもすべて適用されているという。

アーロン氏は、「ロボットで目指していることは、すべて義足でも実現したいと思っている」と語る。“Ampro”は膝と足首にモーターが入っていて、バネが組み合わされた画期的なプロダクト。ユーザーの歩いている場所の状況をセンサーで検知して、必要な場合はモーターを作動させる。そしてユーザーと同期させることで動かすという仕組みだ。

「義足を装着した人が走ったり、サッカーをしたり、ジャンプをしたりできるようにする」。Amber Labの開発実験から、ロボットだけでなく、義足の新しい未来も見えてきた。

(text: 長谷川茂雄)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

テクノロジー TECHNOLOGY

世界初、AIが可能にした「メガネをかけたまま、メガネをバーチャル試着できる」JINSの新サービス

富山英三郎

メガネの販売本数日本一を誇るJINSが、世界初となる「メガネをかけたままバーチャルにメガネを試着できる」サービスを、JINS 渋谷パルコ店でスタートさせた。メガネ着用者にとって長年の悩みだった、「メガネ試着時に(視力矯正されていないため)自分の姿が見えない」という問題を解決するサービスは、どのように生まれたのだろうか。

AIが高速でレタッチして
メガネを顔から消す技術

店頭に陳列されているメガネの中から気になるメガネを選んだら、フレームに付けられたQRコードを機械に読み取らせる。その後、ディスプレイに表示される枠に顔をおさめると、元々着用していたメガネが消え、試着したいメガネが自分の顔に装着されて映し出される。それと同時に、AIがメガネの似合い度を100点満点で採点してくれるというサービスが登場。『MEGANE on MEGANE(メガネ オン メガネ)』と名付けられたこのマシーンは、2019年11月にオープンした次世代型店舗「JINS 渋谷パルコ店」の目玉となっている。

「『MEGANE on MEGANE』の開発に向けて動き出したのは2018年で、約1年かけて完成しました。ポイントは、かけているメガネを消すという技術。これは、AIに同人物のメガネをかけている画像とかけていない画像を1セットとして大量に覚えさせ、メガネをかけている画像からかけていない画像を推察させてレタッチしています。つまり、ディープラーニングさせたAIが、高速でレタッチをおこなっているんです」

そう語るのは、ジンズのCX戦略本部 本部長である向殿文雄氏。CXとはカスタマーエクスペリエンスを略したもので、付加価値のある新しい顧客体験の設計を主な業務としている。

瞳孔間距離を計測し、
そこにフレームを合わせることでフィット感をアップ

メガネを消したあとにメガネをバーチャルでかけさせる技術に関しては、スナップチャットなどの着せ替えアプリと同じようなAR技術を使っているとか。しかし、さまざまな顔にしっかりフィットさせるのは難しいことでもあったようだ。

「バーチャル試着への挑戦というのは、実は10年ほど前からいろいろやってきているんです。そこで問題になったのがメガネのサイズが顔にうまくフィットしないこと。今回は、瞳孔の位置を認識させることでその点を改善させました」

メガネのフレーム設計は、「このエリアに瞳孔がくる」と想定して作られる。もちろん、瞳孔間距離(PDと言われる黒目と黒目の間の距離)は人によって違うので、その距離を『MEGANE on MEGANE』で計測しつつ、平均値と組み合わせながらフレームを顔の最適な場所にフィットさせているのだ。また、このサービスでは顔を左右に動かしても追従してくれるので試着時の横顔も確認できるというのも嬉しい。

「もうひとつの機能として、似合っているかどうかを判定するAIを搭載しています。これは2016年に『JINS BRAIN(ジンズ・ブレイン)』という名でローンチしたAIを入れています。これもまた画像認識によるディープラーニングが軸となっています。仕組みとしては、JINSのスタッフ3000人に約30万枚のメガネ着用カットをチェックしてもらい、似合う似合わないを判定。それをAIにディープラーニングさせ、JINSスタッフによる平均評価値を点数表示しています」

説明なしにお客さんが
自然と使ってくれている

『MEGANE on MEGANE』は渋谷パルコの新装開業の話題性とプラスされ、当初はテレビ取材なども入り大きな賑わいを見せたとか。それから約3ヶ月が経ち、目新しさが消えた現在は、自然に定着してお客さんがフツーに使っているという点で大きな成功だったといえる。

「こういうサービスは企業の独りよがりになりがちなんです。しかし、『MEGANE on MEGANE』はスタッフがとくに説明しなくとも、お客さまが無意識に使ってくださっている。そういうソリューションを常に目指しているので、手応えを感じています」

視力がいい人にはわからない、メガネ常用者でないとわからない悩みの解決。それはお客さんのみならず、眼鏡屋さんの課題でもあったとか。ゆえに、前述のとおりJINSでも以前から試行錯誤をおこなってきていた。

「2009年、まだガラケーの時代には、お客さまにご自分の顔写真を送ってもらい、メガネをかけた正面画像を送り返すというサービスをECでしたこともありました。その後、webブラウザー上で試着できるというサービスも。さらにはアプリを使えば特定の商品が試着できるということもやりました。今回、ここまでのクオリティのものができたのは、日進月歩で進化している技術のおかげともいえます。また、これが成功した一因として、お客さまがバーチャルなものに抵抗がなくなっているという側面もあると思います」

アイウエア界のイノベーターであるJINS

バーチャル試着のみならず、JINSではブルーライトを軽減させる『JINS PC(現JINS SCREEN)』(2011年)、瞳とフレームの隙間最小化を図り花粉を現在では98パーセントカットする『JINS 花粉CUT』(2012年)、アプリでオリジナルデザインのメガネを注文できるサービス『JINS PAINT』(2015年)、世界で初めて三点式眼電位センサーをアイウエアに搭載したセンシング・アイウエア『JINS MEME』(2015年)など、技術革新に積極的な企業として知られている。

「アイウエア業界において、真っ先に新しいことにチャレンジしていくという使命感はあります。『MEGANE on MEGANE』に関しても、現在はJINS 渋谷パルコ店だけのサービスですし、同店舗で扱っているフレームのみが試着可能と限定的です。まだまだ、今後も技術革新を続けていきたいと考えています」

(text: 富山英三郎)

(photo: 壬生マリコ)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー