テクノロジー TECHNOLOGY

アート×テクノロジーで可視化する未来【対談: 真鍋大度(ライゾマティクス)】

川瀬拓郎

パフューム、サカナクションといった日本の人気アーティストや、ビョーク、OK Go、ノサッジ・シングといった世界的に有名なアーティストとのコラボレーションや、リオ2016大会閉会式、東京2020のフラッグハンドオーバーセレモニーでのAR映像演出などを手がけたライゾマティクスの真鍋大度氏。ライゾマティクス創業から15周年となる今春は、東京都現代美術館で大回顧展を開催したばかり。エンタテイメントからアート、スポーツ、医療と幅広いフィールドを横断しながら積極的に活動する真鍋氏を迎えた対談を前後編にてお届けする。

ライゾマティクスの飛躍は
ソフトとハードの両面にあり

杉原:僕が最初に真鍋さんを知るきっかけとなったのが、顔がピクピクする動画(electric stimulus to face /2008)だったのです。その時「ヒューマノイドの世界がついに来たんだ」と思いました。顔面の動きをトレースしていけば、今後は相当リアルなヒューマノイドが出来上がるんじゃないかと。

真鍋:今でこそSNSは当たり前ですが、当時はまだSNSもそこまで影響力がなかったですよね。やはりあの動画は海外で活動する大きなきっかけになりました。以前から同じようなことをやっていたのですが、なぜかあの動画だけかなりバズったんです。海外の人が見つけて面白がってくれたことが話題になった要因になっていたと思います。

杉原:それから、プリンターを使ったOK Goのミュージックビデオも印象的で、何度も繰り返して再生しました。あの動画は編集なしの一発勝負ということを聞いて、さらに驚いたんです。

真鍋:他にも似たようなことをやっている会社はあるのですが、ライゾマを評価していただいていることの1つの要因として、ハードウェアのエンジニアが多いことが挙げられると思います。なので、OK GoのMVのように大量のプリンターをハッキングして操作することができました。ソフトとハードの両方から難易度の高いことにアプローチできるので、「どうにもならなくなったらあいつらを呼ぼう」という感じで海外からオファーを受けることが多いんです。例えば広告の現場でドローンを上手く制御できなくて、どうにもならなくなって僕らが呼ばれるという。

杉原:はじめからライゾマにオファーするのは、ハードルが高いということでしょうか?

真鍋:というより、やはり最初はどの会社やチームも自分たちでやってみたいものなんですよね。難易度の高い仕事のひとつとしては、フェンシングの太田(雄貴)選手の剣先をマーキング無しで視覚化することがありました。

フェンシング・ヴィジュアライズド・プロジェクトついて

杉原:太田さんは前衛的な考え方で様々なテクノロジーやアイデアを柔軟に取り入れている印象ですよね。だから太田さんの一挙手一投足が注目されていたと思うし、ライゾマが剣先の動きを視覚化したことで、フェンシング競技の面白さが一気に高まりましたよね。本当に素晴らしいプロジェクトでした。

真鍋:ありがとうございます。2013年に、太田選手と電通からこれからのスポーツ観戦をテクノロジーの力でフェンシングをよりわかりやすく、魅力的に見せることが出来ないかというお題をいただき、ライゾマティクスが剣先を可視化するアイディアを提案、そしてプロトタイプの実装を担いプロジェクトがスタートしました。

杉原:剣道もそうだと思うんですが、フェンシングの勝負はあまりに一瞬すぎて、どう勝負が決まったのかが分かりにくいですからね。あれってカメラで剣先をトラッキングしたのですか? それとも加速度センサーを使ったのでしょうか?

真鍋:最初は剣先に再帰性反射材を付けてマーキングして、赤外線カメラを64台設置し剣先をトラッキングしました。モーションキャプチャの技術を使えば、トラッキングは可能でした。デモンストレーションとしてはそれで充分でしたが、本番の試合ではマーキングはできません。国際試合でもこの技術を使えるようにするためには機械学習技術を用いる必要があり、2013年時点では長い道のりになることは明確でした。ただ、東京オリンピックまでにはできるはずだと話をしました。

エイブル presents 第73回全日本フェンシング選手権大会

杉原:本当にゼロからのスタートな訳ですよね。剣先の動きをありとあらゆる変数でアルゴリズム作ってディープラーニングさせていくということですよね。ちょっと吐き気がするほどの作業量ですね(笑)。

真鍋:システム開発もそうですが学習データを作る作業が大変でしたね。僕は途中からディレクションに回り、開発はライゾマの花井というシニアエンジニア主導で進めたのですが、まずは練習試合の動画データを取得し、そこからアルバイトの手によって20万枚の画像に手動で人の骨格と剣先をラベリングしました。最終的なハードウェア構成もソフトウェアの処理も本当に複雑で、かつ映像的にもきちんと見栄えが良いものを作らねばならず「良くぞこれを実装しきったな……」とエンジニアたちが開発したのを横目で見て感動していました。

杉原:技術を実用化するためには、システムのスリム化が必要ですよね。でも、ゼロから始めるときは、どうしてもマッチョなシステムから始めるしかない訳ですね。我々のプロジェクトにも同じことが言えるので非常に共感します。ふと思ったんですが、イーロン・マスクが開発しているニューラリンク(脳とコンピュータをつなぐ技術)が進み、集積したデータを自分の脳に移植すれば、ものすごいフェンシングが上達するわけですよね。

真鍋:まだまだ先の話になるでしょうが、そうした未来もあるでしょうね。僕個人としては、その技術ができたら真っ先に埋め込んでみたい(笑)。

杉原:30年後の未来を考えていくと、拡張型の技術はもはや避けては通れないですからね。だから僕は“アート×テクノロジー”というところで、真鍋さんの作品から1歩先の提案書をもらっている感じなんです。

真鍋:そう言っていただけるのは本当にありがたいです。医療の分野は倫理の問題などがあり、出来ないことも多々あるので難しいですけれど。おっしゃる通り、アートはちょっと先の未来を実験するにはちょうどいい分野でもありますね。

2015年の取り組みをアップデートさせた
ELEVENPLAY × Rhizomatiks “border 2021”

杉原:リオ2016大会閉会式、東京2020のフラッグハンドオーバーセレモニーのAR演出なども本当に素晴らしかったですね。さて、僕は結局観に行けず非常に悔しんですが、今年2月に行われた“border 2021”のコンセプトやバックグラウンドを改めて教えてください。

真鍋:ステージ上でパフォーマンスを体験しているお客さんもいるし、その様子を観客席の外から見ているお客さんもいる。そんな風にお客さんとパフォーマー、ステージと観客席、そういう境界線がない空間や入れ子構造になっている状態を作りたかったんですね。さらにリアルな現実とVRの世界をシームレスに行ったり来たりできるボーダレスな状態を作り出してみたいと思い、そこから“border”というプロジェクトが始まりました。たまたまパーソナルモビリティ・WHILL(ウィル:次世代型電動車椅子の名称であり、その開発会社)の人たちと仲良くなった時期ということもあり協力していただきました。最終的にはお客さんにMRゴーグルを装着してWHILLに乗ってもらった状態で、生のダンサーとVRのダンサーを体験する作品になりました。実際に開発して痛感したことなのですが、身体が車椅子で動かされることでさらに没入感が増すんです。

杉原:リアルと仮想のフュージョンみたいなところですね。没入感を高めるために身体の動きが重要だったというのは面白い発見ですね。

ELEVENPLAY x Rhizomatiks “border 2021” (2021) Photo by hiroko hirota(同、トップ画像)

真鍋:そのとき改めて分かったことは、大脳ではなく中脳に作用するということです。中脳は平衡感覚神経を司っている部位なで、普段やっているVRではそれほど意識しないのですが、WHILLによって身体を動かされることで、よりリアリティを感じやすくなるということが分かったのです。

杉原:僕もVRを利用した車いすレーサーCYBER WHEEL Xを作りました。自分の腕で漕いで、VR上で2100年の東京を走るという新感覚のゲームです。その時に仕掛けた技術は、加速度をきちんと理解してもらうためにトルクを入れたのです。それで一気に没入度が上がったんですよね。上り坂になると急に重くなる、下り坂やジャンプもリアルに感じる。ジェットコースターのようにお腹が浮く感じが苦手な人はちょっと酔ってしまう…(笑)。

真鍋:車酔いと一緒ですよね。これは当時FacebookにいたGoromanさんにアドバイスをいただいたのですが、自分の体は動いていないのに、例えばジェットコースターのようにVRの世界では視点がゴリゴリ動いているようなものは確実に酔ってしまうんですね。
実際に車椅子に乗って体験すること、身体を映像と合わせてきちんと動かすこと、それによって大脳だけでなく中脳がリアルと錯覚する。そこが没入感のポイントだったんです。脳科学者の方たちにも“border 2021”を体験していただきましたが、「本当にこれは初めての体験だ!」と感動してもらえたのが嬉しかったですね。

杉原:中脳が刺激されるとは驚きました。脳科学者の方々も非常に興味深いデータが取れたのでしょうね。アートを通じて、いろんな人たちとのネットワークに繋がったのですね。

真鍋大度(まなべ・だいと)
1976年、東京都生まれ。大学卒業後、大手電気メーカーに就職するが1年で退社。2002年 IAMAS(岐阜県立国際情報科学芸術アカデミー)に進学しプログラミングを学び、2006年Rhizomatiksを設立。以後、さまざまなアーティストのMVやライブ演出、スポーツイベントやファッションショーの演出を手がける。現在も東京を拠点に、アーティスト、インタラクションデザイナー、プログラマ、DJとして活動。

関連記事を読む

(text: 川瀬拓郎)

(photo: 増元幸司)

  • Facebookでシェアする
  • LINEで送る

RECOMMEND あなたへのおすすめ

テクノロジー TECHNOLOGY

世界の食料問題を畜産スマートカメラが変える! AIと歩むコーンテック社の先進的な取り組み

富山英三郎

コーンテック社はこれまで、「自家配合プラントの構築」と「飼料マネジメント」を併せて提案することで畜産農家へのコンサルティングをおこない、「手間」と「コスト」を削減する試みをおこなってきた。その一方、深度カメラを用いながらAI技術を駆使し「畜産の見える化」に関する実証実験をおこなっている。彼らが目指す「スマート畜産」の現在について、CEOの吉角裕一朗氏に話を訊いた。

飼料を自家配合すれば
20~30%以上のコストダウン

コーンテックの主な事業は、「自家配合プラントの構築」と「飼料マネジメント」にある。そもそもなぜ自家配合プラントを勧めるかといえば、家畜の餌にかかる割合いが経営コストの60%以上を占めるほど大きい点だ。畜産が儲からない体質の要因であり、ゆえに後継者不足がおこりやすいという悪循環に陥っている。

一方、餌を自家配合にすると、地域の食品残さを利用して製造される「エコフィード」なども活用でき、輸入飼料だけに頼らない畜産リサイクルを構築することができる。事実、同社のシステムを導入した100カ所以上ある畜産事業者は、20~30%以上のコストダウンを実現させている。

「自家配合プラントは大きさもいろいろあり、飼育数100頭規模の業者から、1万頭規模の大企業まで導入できます」

AIを使い餌の最適な
配合バランスを導き出す

コーンテック社が面白いのは、そこにIoT技術を組み込もうとしている点にある。そこから得られるビッグデータをもとに、餌の最適な配合バランスをAI分析することで、これまで職人の勘に頼ってきた家畜の生育を「見える化」させようとしている。現在、実証実験をしているのは養豚だ。

「飼料の自家配合自体は難しいことではないんです。しかし、餌の栄養バランスの計算はとても複雑です。豚という生体が食べているものはデータも不規則で、これまではある程度の平均値でしかやれていませんでした」

家畜の生育には「気温」や「湿度」の影響が大きいことはこれまでも知られていた。家畜のエネルギー消費の半分は放熱によるもので、気温が暑ければ放熱しにくく、寒ければ放熱しやすい。夏と冬では食べる量が2倍程度違う。ゆえに、夏場はたんぱく質を濃くし、冬場は薄くするなどの経験値はあった。

「それもざっくりとした経験値であって、本当に機能していたかはあやしいんです。一般的に豚が出荷されるまでに160~180日かかります。最終的に110kgになりましたと言っても、体重が増えた要因を追うことができない。結果論でしかないわけです。
そこを追うためには、時間や日にちごとのデータを積み上げてグラフ化していくしかない。ある一週間の体重の伸びが悪い場合、それは台風がきて気圧が下がっていたからだと分析できたとします。すると、次に台風がきたときに対処ができるようになるわけです」

畜産スマートカメラ導入で
わかったこと

現在コーンテック社では、豚の高さや幅などを計測できる深度カメラを使用し、24時間体制の実証実験をおこなっている。肩幅や頭の大きさ、脛の長さなどの比率がわかれば体重を割り出すことも可能だ。

「体重以外にも、生死の判断、妊娠の判断、活動量の測定、何かしらの異変で豚舎の隅に豚が集まっているなどもわかります。今後はそういった挙動を観察することで、豚コレラなどの疫病を察知できるかもしれません。カメラを使えば、たとえ3万頭いてもすべてをロックオンできますから、人間が見たこともない数値が出てくることもありえます。今後新しいジャンルになり、ゲームチェンジが起きることが予想されます」

畜産スマートカメラを導入することで、上記のような「異常検知」や「人件費の削減」という点も重視しているが、コーンテック社の考えるミッションはもっと大きい。

「貿易の問題も含め、食料問題は世界的におこっています。そんな時代に効率よく食料を生産することは喫緊の問題であり、それこそが弊社のミッションです。畜産スマートカメラを導入することで、家畜は放牧したほうが良いという結果が生まれるかもしれない。そうなれば、近年欧米を中心に起きているアニマルウェルフェア(家畜の生活の質を高める飼育)の動きともリンクできます」

コーンテックのAI技術は
車の自動運転と近い

一般的に、畜産業は農業以上に技術の進化が遅れていると言われている。そんな業界にAIを持ち込むという発想の源は、吉角社長がかつてECサイトで車のバッテリーを販売していたなどIT畑出身という側面が大きい。

「車の燃費も、50年前ならリッター4~5kmが当たり前でしたが今や常識外れ。それはコンピューターのシミュレーション技術とデジタル制御によるものです。その裏側にはCPUの進化がある。コンピューターの精度が高まるほどに処理量の桁が変わり、試行回数が多くなって効率がアップする。畜産においても、生体をデジタル化しようとしてもこれまでは技術自体がなかったんです。でも、近年は高性能カメラも安くなり、いろいろと安価にできるようになった。弊社が取り組んでいるAIの領域も、車の自動運転に近くなっています。難易度は高いですが、そのぶん独自性が出るので面白い状況になってきています」

世界的に見ても、AIエンジンそのものを作ろうとし、サービスをクラウド化させようとする試みはほぼない。

「カメラや数値、データ、豚の飼育などは地域性もなく非言語の領域なので海外との垣根はないと思います。いまは豚が多いですが、今後は牛、鶏、馬、羊、山羊などに広げていければと考えています」

畜産業界を変える試みに
多くの個人投資家が賛同

この先見性と確固たるヴィジョンこそが、畜産業界に留まらず広く一般から注目されている理由でもある。その証拠に、ベンチャー企業への投資を通じて(未公開)株主として応援ができる日本初のマッチングサービス「FUNDINNO(ファンディーノ)」にて、2回の募集に対し500人、総額約5000万円の資金を調達している。

「農業や畜産業は業界が古いこともあって、マネーとの相性が悪いんです。そんな状況下で、VC(ベンチャーキャピタル)の都合で価格を決められるよりは、FUNDINNOのようなオープンな場所で、一般の方に買ってほしかった。市場が決めた価格のほうが正しいと思っていますから。ですので、自分たちの力を試す意味でも、よりパブリックになる意味でも、半IPOのようなかたちでスタートラインを切らせてもらいました」

結果を見れば、アグリテックの世界に関心を持っている人たちは想像以上に多いことがわかった。

「畜産スマートカメラの有料版は11月にリリースをする予定です。今回わかってきたのは、餌の領域だけではなく、これまで人間の目でおこなってきた観察や飼育の多くをカメラで置き換えられるということ。そうなると、必ずしも自家配合プラントとセットで販売しなくてもいい。また、実証実験を重ねることで、自分たちでは考えつかなかった発想が生まれてきています。これからどんなことが起きるか、私たちも楽しみです」

(text: 富山英三郎)

  • Facebookでシェアする
  • LINEで送る

PICK UP 注目記事

CATEGORY カテゴリー