テクノロジー TECHNOLOGY

痛みをリアルに感知できるエレクトロニックスキン「e-dermis」とは?

岸 由利子 | Yuriko Kishi

「長年の末、私の義手は、空っぽの貝殻に再び生命が吹き込まれたかのように感じます」――こう語るのは、2018年6月20日、米サイエンス・ロボティクス誌で発表されたエレクトロニックスキン「e-dermis」の試験者として、米メリーランド州Johns Hopkins University生体医工学科の開発チームに貢献したひとり。e-dermisは、義手の指先に取り付ければ、痛みや触覚などのリアルな感覚を再現できるという画期的な発明。だが、あえてなぜ“痛み”を感じる必要があるのか?

エレクトロニックスキン「e-dermis」は、人間の神経システムのレセプターを真似たセンサーを埋め込んだ布地とラバーの2層で形成されている。このセンサーが刺激を感知し、義手を取り付けた腕の切断端を通じて、末梢神経に伝達することによって、触感や痛みまでも再現できる。例えば、触れたものが丸ければ掴み、尖っていれば、反射的に手放す。

従来、義手を含む義肢単体では、触覚はもちろん、痛みの感覚を伝達することはできない。ゆえに、知らず知らずのうちに、義手にダメージを受ける可能性もあるが、e-dermisを付けた義手なら、ダメージを受ける前に、痛みのサインによって、怪我などからも自分を守ることができる。つまり、ここでいう痛みは、これまでの義肢に欠けていた保護のための触感だ。

「心地良い触感から不快な感触まで、より人間の手に近いさまざまな知覚を義肢によって感じられるのは、初めてのことです」と話すのは、Johns Hopkins University生体医工学科教授であり、米サイエンス・ロボティクス誌で発表したe-dermisの論文のメイン著者Nitish Thakor氏。

ただし、今回の研究は、触感と形、痛みの知覚や鋭さの検出に集中したものであり、e-dermisは、温度に敏感ではないと報告されている。開発チームは、今後この技術をさらに進化させ、より多くの人に普及するためのシステム構築を検討している。宇宙飛行士の手袋や宇宙服への適用やロボット分野での採用など、大いに可能性を秘めたエレクトロニックスキン。今後の動向に注目したい。

[TOP動画引用元:https://www.youtube.com/watch?v=AJe3wC6tiJM

(text: 岸 由利子 | Yuriko Kishi)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

テクノロジー TECHNOLOGY

世界初、AIが可能にした「メガネをかけたまま、メガネをバーチャル試着できる」JINSの新サービス

富山英三郎

メガネの販売本数日本一を誇るJINSが、世界初となる「メガネをかけたままバーチャルにメガネを試着できる」サービスを、JINS 渋谷パルコ店でスタートさせた。メガネ着用者にとって長年の悩みだった、「メガネ試着時に(視力矯正されていないため)自分の姿が見えない」という問題を解決するサービスは、どのように生まれたのだろうか。

AIが高速でレタッチして
メガネを顔から消す技術

店頭に陳列されているメガネの中から気になるメガネを選んだら、フレームに付けられたQRコードを機械に読み取らせる。その後、ディスプレイに表示される枠に顔をおさめると、元々着用していたメガネが消え、試着したいメガネが自分の顔に装着されて映し出される。それと同時に、AIがメガネの似合い度を100点満点で採点してくれるというサービスが登場。『MEGANE on MEGANE(メガネ オン メガネ)』と名付けられたこのマシーンは、2019年11月にオープンした次世代型店舗「JINS 渋谷パルコ店」の目玉となっている。

「『MEGANE on MEGANE』の開発に向けて動き出したのは2018年で、約1年かけて完成しました。ポイントは、かけているメガネを消すという技術。これは、AIに同人物のメガネをかけている画像とかけていない画像を1セットとして大量に覚えさせ、メガネをかけている画像からかけていない画像を推察させてレタッチしています。つまり、ディープラーニングさせたAIが、高速でレタッチをおこなっているんです」

そう語るのは、ジンズのCX戦略本部 本部長である向殿文雄氏。CXとはカスタマーエクスペリエンスを略したもので、付加価値のある新しい顧客体験の設計を主な業務としている。

瞳孔間距離を計測し、
そこにフレームを合わせることでフィット感をアップ

メガネを消したあとにメガネをバーチャルでかけさせる技術に関しては、スナップチャットなどの着せ替えアプリと同じようなAR技術を使っているとか。しかし、さまざまな顔にしっかりフィットさせるのは難しいことでもあったようだ。

「バーチャル試着への挑戦というのは、実は10年ほど前からいろいろやってきているんです。そこで問題になったのがメガネのサイズが顔にうまくフィットしないこと。今回は、瞳孔の位置を認識させることでその点を改善させました」

メガネのフレーム設計は、「このエリアに瞳孔がくる」と想定して作られる。もちろん、瞳孔間距離(PDと言われる黒目と黒目の間の距離)は人によって違うので、その距離を『MEGANE on MEGANE』で計測しつつ、平均値と組み合わせながらフレームを顔の最適な場所にフィットさせているのだ。また、このサービスでは顔を左右に動かしても追従してくれるので試着時の横顔も確認できるというのも嬉しい。

「もうひとつの機能として、似合っているかどうかを判定するAIを搭載しています。これは2016年に『JINS BRAIN(ジンズ・ブレイン)』という名でローンチしたAIを入れています。これもまた画像認識によるディープラーニングが軸となっています。仕組みとしては、JINSのスタッフ3000人に約30万枚のメガネ着用カットをチェックしてもらい、似合う似合わないを判定。それをAIにディープラーニングさせ、JINSスタッフによる平均評価値を点数表示しています」

説明なしにお客さんが
自然と使ってくれている

『MEGANE on MEGANE』は渋谷パルコの新装開業の話題性とプラスされ、当初はテレビ取材なども入り大きな賑わいを見せたとか。それから約3ヶ月が経ち、目新しさが消えた現在は、自然に定着してお客さんがフツーに使っているという点で大きな成功だったといえる。

「こういうサービスは企業の独りよがりになりがちなんです。しかし、『MEGANE on MEGANE』はスタッフがとくに説明しなくとも、お客さまが無意識に使ってくださっている。そういうソリューションを常に目指しているので、手応えを感じています」

視力がいい人にはわからない、メガネ常用者でないとわからない悩みの解決。それはお客さんのみならず、眼鏡屋さんの課題でもあったとか。ゆえに、前述のとおりJINSでも以前から試行錯誤をおこなってきていた。

「2009年、まだガラケーの時代には、お客さまにご自分の顔写真を送ってもらい、メガネをかけた正面画像を送り返すというサービスをECでしたこともありました。その後、webブラウザー上で試着できるというサービスも。さらにはアプリを使えば特定の商品が試着できるということもやりました。今回、ここまでのクオリティのものができたのは、日進月歩で進化している技術のおかげともいえます。また、これが成功した一因として、お客さまがバーチャルなものに抵抗がなくなっているという側面もあると思います」

アイウエア界のイノベーターであるJINS

バーチャル試着のみならず、JINSではブルーライトを軽減させる『JINS PC(現JINS SCREEN)』(2011年)、瞳とフレームの隙間最小化を図り花粉を現在では98パーセントカットする『JINS 花粉CUT』(2012年)、アプリでオリジナルデザインのメガネを注文できるサービス『JINS PAINT』(2015年)、世界で初めて三点式眼電位センサーをアイウエアに搭載したセンシング・アイウエア『JINS MEME』(2015年)など、技術革新に積極的な企業として知られている。

「アイウエア業界において、真っ先に新しいことにチャレンジしていくという使命感はあります。『MEGANE on MEGANE』に関しても、現在はJINS 渋谷パルコ店だけのサービスですし、同店舗で扱っているフレームのみが試着可能と限定的です。まだまだ、今後も技術革新を続けていきたいと考えています」

(text: 富山英三郎)

(photo: 壬生マリコ)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー