WEBVTT 00:00:01.140 --> 00:00:03.810 私の研究室では ご覧のような 00:00:03.810 --> 00:00:06.840 自律飛行ロボットを作っています 00:00:08.720 --> 00:00:12.440 今時 お店で売っているような ドローンとは違って 00:00:12.440 --> 00:00:15.080 GPSは搭載していません 00:00:16.160 --> 00:00:17.400 GPSなしでは 00:00:17.400 --> 00:00:20.750 このようなロボットが 自分の位置を特定するのは困難です 00:00:22.240 --> 00:00:27.000 このロボットの場合 搭載したセンサー、 カメラ、レーザースキャナーで 00:00:27.000 --> 00:00:28.720 周囲を走査していて 00:00:28.720 --> 00:00:31.800 周りにあるものを検知し 00:00:31.800 --> 00:00:34.560 三角測量によって それらに対する 00:00:34.560 --> 00:00:36.720 相対的な位置を把握しています 00:00:36.720 --> 00:00:40.010 それらのデータをまとめて 後ろに出ているような 00:00:40.010 --> 00:00:42.170 マップを構築することが出来ます 00:00:42.170 --> 00:00:45.920 こうやってマップができると どこに障害物があるか分かり 00:00:45.920 --> 00:00:48.640 ロボットは衝突することなく 飛行することが出来ます 00:00:49.160 --> 00:00:51.280 次にお見せしたいのは 00:00:51.280 --> 00:00:54.520 このロボットに もっと長い距離を飛行させてみた 00:00:54.520 --> 00:00:58.400 私たちの研究所で行った 一連の実験です 00:00:58.400 --> 00:01:03.440 右上にあるのは ロボットのカメラが撮った映像です 00:01:03.440 --> 00:01:04.680 メインスクリーンでは 00:01:04.680 --> 00:01:07.160 ―4倍速でお見せしていますが― 00:01:07.160 --> 00:01:09.851 マップ構築の様子をご覧になれます 00:01:09.851 --> 00:01:14.160 これは研究室周辺の廊下を 高解像度でマップ化したもので 00:01:14.160 --> 00:01:16.520 まもなく研究室へと入ってきます 00:01:16.520 --> 00:01:19.400 散らかっている様子で それと分かるかと思いますが— 00:01:19.400 --> 00:01:20.440 (笑) 00:01:20.440 --> 00:01:22.472 ここで最も強調したいのは 00:01:22.472 --> 00:01:26.080 これらのロボットは 5センチという高い解像度で 00:01:26.080 --> 00:01:28.600 マップを作成することが 出来るということで 00:01:28.600 --> 00:01:32.800 研究室や建物の外部にいる人でも 00:01:32.800 --> 00:01:35.860 このロボットを放つことで 実際に中に入ることなく 00:01:35.860 --> 00:01:39.930 中で何が起こっているか 推察することができます 00:01:40.400 --> 00:01:42.640 このようなロボットには 問題点があります 00:01:43.600 --> 00:01:46.120 1つ目の問題は 大きいということです 00:01:46.120 --> 00:01:48.010 大きいので重量もあります 00:01:48.640 --> 00:01:52.010 1キログラムにつき約200ワットの 電力を消費します 00:01:52.360 --> 00:01:54.640 ですからあまり長くは作業できません 00:01:56.000 --> 00:01:57.480 2つ目の問題は 00:01:57.480 --> 00:02:01.400 ロボットに搭載されている レーザースキャナーやカメラや 00:02:01.400 --> 00:02:04.840 CPUがとても高価だということです 00:02:05.280 --> 00:02:08.320 そのためロボットのコストが 跳ね上がります 00:02:09.440 --> 00:02:12.120 そこで私達は自問しました 00:02:12.120 --> 00:02:15.490 消費者が電気屋で買えるような 00:02:15.490 --> 00:02:22.200 センサーやCPUを搭載した 高価でない軽量な商品はないだろうか? 00:02:24.080 --> 00:02:26.760 そうやって空飛ぶ携帯電話が 生まれました 00:02:26.760 --> 00:02:28.720 (笑) 00:02:28.720 --> 00:02:34.560 このロボットは お店ですぐに買える サムスンのギャラクシー携帯を利用し 00:02:34.560 --> 00:02:38.960 アプリはAppストアから ダウンロードできます 00:02:38.960 --> 00:02:43.200 このロボットは 今 「TED」の文字を読み取っているところです 00:02:43.200 --> 00:02:46.160 「T」と「E」の角を探し出し 00:02:46.160 --> 00:02:49.640 三角測量しつつ自律飛行しています 00:02:50.720 --> 00:02:53.760 ジョイスティックは ロボットが暴走した時のためで 00:02:53.760 --> 00:02:55.710 その時にはジュゼッペ君が 止めてくれます 00:02:55.710 --> 00:02:57.080 (笑) 00:02:58.920 --> 00:03:02.760 単に小さなロボットを 作るというだけでなく 00:03:02.760 --> 00:03:07.920 このような激しい動きをさせる 実験もしています 00:03:07.920 --> 00:03:12.850 このロボットは秒速2-3メートルで動き 00:03:12.850 --> 00:03:16.760 方向転換をするときには 上下運動や回転運動を素早く行います 00:03:16.760 --> 00:03:21.040 重要な点は 小さなロボットは 素早く動け 00:03:21.040 --> 00:03:24.250 障害の多い環境中を うまく移動できることです 00:03:25.120 --> 00:03:27.200 次のビデオでお見せするのは 00:03:27.200 --> 00:03:32.940 鷲のような鳥が 羽と目と足を優雅に連携させて 00:03:32.940 --> 00:03:36.550 水中の獲物を捉まえるように 00:03:36.550 --> 00:03:39.560 私たちのロボットにも 魚採りができることです 00:03:39.560 --> 00:03:40.880 (笑) 00:03:40.880 --> 00:03:44.690 どこからともなくやって来て チーズ & ステーキのロールパンサンドを 00:03:44.690 --> 00:03:47.680 かっさらっています (笑) 00:03:47.680 --> 00:03:52.730 このロボットは人の歩く速さよりも速い 秒速約3メートルで動き 00:03:52.730 --> 00:03:57.010 腕と爪と飛行を 絶妙なタイミングで連携させ 00:03:57.010 --> 00:04:00.280 このような動作を達成しています 00:04:02.120 --> 00:04:04.080 別の実験でお見せするのは 00:04:04.080 --> 00:04:06.460 枠の幅よりも長い紐で 00:04:06.460 --> 00:04:09.300 重りを吊したロボットが 00:04:09.300 --> 00:04:13.680 その枠の中を 上手くくぐり抜ける様子です 00:04:13.680 --> 00:04:15.400 これを成し遂げるには 00:04:15.400 --> 00:04:19.120 上下に動いて 高度を調整することで 00:04:19.120 --> 00:04:21.860 重りをスイングさせる 必要があります 00:04:26.750 --> 00:04:29.740 しかし もっと小さいものが 作れたらと思っています 00:04:29.740 --> 00:04:32.280 特にミツバチにヒントを得ました 00:04:32.280 --> 00:04:35.560 これはスローモーションで 再生したビデオですが 00:04:35.560 --> 00:04:39.280 ミツバチはとても小さく その慣性力は僅かです 00:04:39.960 --> 00:04:41.160 (笑) 00:04:41.160 --> 00:04:44.720 例えば 私の手にぶつかっても ほとんど気にかけません 00:04:44.720 --> 00:04:47.880 これはミツバチの動きをまねた 小型ロボットです 00:04:48.600 --> 00:04:49.840 小さいほど 00:04:49.840 --> 00:04:53.400 慣性力が小さくなるので 都合がいいのです 00:04:53.400 --> 00:04:54.960 慣性力が小さいと— 00:04:54.960 --> 00:04:57.840 (周りをブンブン飛び回るロボット) (笑) 00:04:57.840 --> 00:05:00.680 慣性力が小さいと 衝突に対し強くなります 00:05:00.680 --> 00:05:02.680 より丈夫になるということです 00:05:03.800 --> 00:05:06.480 そういうわけでミツバチのように 小さなロボットを作ります 00:05:06.480 --> 00:05:09.880 これは僅か25グラムしかありません 00:05:09.880 --> 00:05:12.440 消費電力はほんの6ワットです 00:05:12.440 --> 00:05:15.000 秒速6メートルまで出せます 00:05:15.000 --> 00:05:17.360 ボーイング787の大きさだったら 00:05:17.360 --> 00:05:21.000 音速の10倍に相当する速さです 00:05:24.000 --> 00:05:26.120 (笑) 00:05:26.120 --> 00:05:28.040 実例をお見せしましょう 00:05:28.840 --> 00:05:34.120 これはたぶん初めての空中衝突実験で 20分の1のスピードでお見せしています 00:05:34.120 --> 00:05:37.002 (ロボット同士の) 相対速度は 毎秒2メートルで 00:05:37.002 --> 00:05:39.762 お話しした基本原理を例示しています 00:05:40.200 --> 00:05:45.200 機体を保護する2グラムの炭素繊維のカゴは プロペラ同士が絡まるのを防いでいます 00:05:45.200 --> 00:05:50.520 衝撃は吸収され ロボットは衝突に対応しています 00:05:50.520 --> 00:05:53.400 小さいということは安全も意味します 00:05:53.400 --> 00:05:55.440 研究室ではこんなロボットを作ってきました 00:05:55.440 --> 00:05:57.084 大型のロボットから始め 00:05:57.084 --> 00:05:59.920 小型のものへと移っていきました 00:05:59.920 --> 00:06:03.400 これまで研究室で発注した絆創膏の数を ヒストグラムにしたら 00:06:03.400 --> 00:06:06.000 どんどん小さくなっていることが 分るでしょう 00:06:06.000 --> 00:06:08.200 ロボットが安全になってきたからです 00:06:08.760 --> 00:06:11.240 小さいと不利な点もあります 00:06:11.240 --> 00:06:15.320 自然はこの不利な点を補う方法を 進化させてきました 00:06:15.960 --> 00:06:20.320 基本的には集団や群れを作る ということです 00:06:20.320 --> 00:06:24.320 我々の研究室でも 同様に 人工的なロボットの集団を試してみました 00:06:24.320 --> 00:06:25.725 これはかなり難しい技術です 00:06:25.725 --> 00:06:29.360 ロボット間のネットワークを 考慮しなければならないからです 00:06:29.360 --> 00:06:30.680 各ロボットの 00:06:30.680 --> 00:06:36.320 センサー、通信、計算の 連携を考えなければなりません 00:06:36.320 --> 00:06:41.280 このネットワークの制御、管理が 実にやっかいなのです 00:06:42.160 --> 00:06:45.480 自然から3つの(自己)組織化の原理を 見習うことによって 00:06:45.480 --> 00:06:48.640 制御のアルゴリズムを 開発することができます 00:06:49.640 --> 00:06:54.200 1つ目のアイデアは ロボットが近くの個体を認識することです 00:06:54.200 --> 00:06:58.040 近隣の個体を認識して 互いに通信できなければなりません 00:06:58.040 --> 00:07:00.720 このビデオはその基本原理を示しています 00:07:00.720 --> 00:07:02.040 4機のロボットがいます 00:07:02.040 --> 00:07:06.280 その内1機が 文字通り 人間のオペレータによってハイジャックされています 00:07:07.217 --> 00:07:09.480 ロボットは互いに相互作用し 00:07:09.480 --> 00:07:11.160 近くの個体を認識しているので 00:07:11.160 --> 00:07:12.480 動きに追従します 00:07:12.480 --> 00:07:17.840 この例では1人の人間が 追従するロボットを先導しています 00:07:20.000 --> 00:07:25.080 どのロボットもどこへ行くべきか 分っているわけではなく 00:07:25.080 --> 00:07:29.400 ただ近くのロボットの位置に対し 反応しているだけです 00:07:31.720 --> 00:07:35.840 (笑) 00:07:36.280 --> 00:07:41.520 次の実験は 組織化の2つ目の原理を示すものです 00:07:42.920 --> 00:07:46.720 この原理は匿名性の原理と関連しています 00:07:47.400 --> 00:07:50.750 ここで基本となる考えは 00:07:50.780 --> 00:07:56.070 ロボットは近隣の個体を 識別していないということです 00:07:56.440 --> 00:07:59.080 円陣を組めという指令を受けると 00:07:59.080 --> 00:08:02.400 編隊を組むロボットの数を いかに増やそうと 00:08:02.400 --> 00:08:05.000 あるいは 何体か取り除こうと 00:08:05.000 --> 00:08:08.290 各ロボットは単に 隣にいるロボットに反応するだけなのです 00:08:08.290 --> 00:08:12.800 円陣を組むという 指示を受けるものの 00:08:12.800 --> 00:08:14.960 隣のロボットと協調するだけで 00:08:14.960 --> 00:08:19.030 中央制御によって 編隊を形成しているわけではありません 00:08:19.520 --> 00:08:21.960 これらのアイデアを一緒にすると 00:08:21.960 --> 00:08:25.880 3つ目のアイデアが得られます 00:08:25.880 --> 00:08:30.200 ロボットに編隊の形の 数学的記述を与えるということです 00:08:30.200 --> 00:08:33.720 形は時間と共に変わっていきます 00:08:33.720 --> 00:08:38.240 ご覧の様に 円形から始まり 00:08:38.240 --> 00:08:41.520 長方形を形作った後 直線状に広がり 00:08:41.520 --> 00:08:42.919 また楕円に戻ります 00:08:42.919 --> 00:08:46.560 自然界における生物の群れと同様に 00:08:46.560 --> 00:08:49.840 瞬間瞬間の協調によって こういったことを成し遂げています 00:08:51.080 --> 00:08:53.240 なぜ群れについて研究しているのか? 00:08:53.240 --> 00:08:57.360 我々がとても興味を抱いている 2つの応用があります 00:08:58.160 --> 00:09:00.560 1つ目は農業に関するものです 00:09:00.560 --> 00:09:04.180 我々が世界で直面している 最大の問題と言って良いでしょう 00:09:04.760 --> 00:09:06.040 ご存知の通り 00:09:06.040 --> 00:09:09.920 世界では 7人に1人が栄養失調です 00:09:09.920 --> 00:09:13.400 耕作可能な土地は 既に殆ど開拓されています 00:09:13.960 --> 00:09:17.200 こんにちの世界では 多くのシステムの効率が向上していますが 00:09:17.200 --> 00:09:21.080 農業の生産効率は低下しています 00:09:21.080 --> 00:09:25.320 原因はおそらく 水不足、穀物の病気 気候変動や 00:09:25.320 --> 00:09:27.000 その他の理由にあります 00:09:27.230 --> 00:09:29.500 ロボットに何が出来るでしょう? 00:09:29.500 --> 00:09:33.840 この分野で精密農業(プレシジョンファーミング) と呼ばれる手法を取り入れてみました 00:09:33.840 --> 00:09:38.060 基本的な考えはこうです 果樹園にロボットを飛ばし 00:09:38.060 --> 00:09:42.360 個々の木の精密なモデルを作成します 00:09:42.829 --> 00:09:46.080 個々の患者の 遺伝体質に合わせた 00:09:46.080 --> 00:09:49.360 オーダーメード医療のように 00:09:49.360 --> 00:09:53.080 個々の木のモデルを製作することによって 00:09:53.080 --> 00:09:57.240 農家はそれぞれの木が必要とするもの― 00:09:57.240 --> 00:10:02.040 この場合 水、肥料や殺虫剤といったものですが それを知ることができます 00:10:02.640 --> 00:10:06.280 ロボットがリンゴ園を飛び交っています 00:10:06.280 --> 00:10:08.620 仲間の2機が同じようなことを しているのが 00:10:08.620 --> 00:10:10.480 すぐに 左手に見えてきます 00:10:10.800 --> 00:10:14.260 果樹園のマップを作成しているところで 00:10:14.260 --> 00:10:17.500 果樹園にある1本1本の木を マッピングしています 00:10:17.500 --> 00:10:19.000 (ブンブン) 00:10:19.000 --> 00:10:20.920 ではそのマップを見てみましょう 00:10:20.920 --> 00:10:25.240 次のビデオではロボットに搭載された カメラの映像をご覧になれます 00:10:25.240 --> 00:10:28.480 左上は通常のカラー映像です 00:10:29.640 --> 00:10:32.960 左中央は赤外線映像で 00:10:32.960 --> 00:10:36.760 左下はサーマルカメラのものです 00:10:36.760 --> 00:10:40.120 中央のパネルでは 各センサーが木々を通過するのに合わせ 00:10:40.120 --> 00:10:46.240 果樹園の木の状態が 3次元的に再構成されていく様子が見られます 00:10:47.640 --> 00:10:51.680 こういった情報を用いて 多くのことが出来ます 00:10:52.200 --> 00:10:56.480 1つ目はおそらく最も重要なことですが とても単純なこと 00:10:56.480 --> 00:10:59.310 木になっている果実の数を 数えるということです 00:10:59.520 --> 00:11:04.080 これによって農家は 個々の木になる果実の数を知り 00:11:04.080 --> 00:11:08.360 果樹園全体の収穫量を見積もり 00:11:08.360 --> 00:11:11.420 生産販売経路を 最適化することができます 00:11:11.640 --> 00:11:13.280 2つ目に可能なことは 00:11:13.280 --> 00:11:17.800 木のモデルに基づき 3次元形状を再構成し 00:11:17.800 --> 00:11:20.360 そこから樹冠の面積を 推定することで 00:11:20.360 --> 00:11:24.160 土地単位面積あたりの 葉面積を求めるということです 00:11:24.160 --> 00:11:26.360 これは葉面積指数と呼ばれます 00:11:26.360 --> 00:11:28.320 葉面積指数は 00:11:28.320 --> 00:11:33.800 それぞれの木がどれだけの光合成を 行っているかの指標となり 00:11:33.800 --> 00:11:36.680 個々の木の健康度を示します 00:11:37.520 --> 00:11:41.760 可視光と赤外線データを組み合わせると 00:11:41.760 --> 00:11:45.080 正規化植生指標といった指標を 計算することができます 00:11:45.080 --> 00:11:47.720 ご覧の例では 00:11:47.720 --> 00:11:51.140 ある作物が他の作物に比べて 状態が悪いことが見て取れます 00:11:51.140 --> 00:11:53.760 これは通常の可視光だけでなく 00:11:53.760 --> 00:11:57.280 可視光と赤外線イメージを 組み合わせることで 00:11:57.280 --> 00:12:00.080 容易に識別できるようになります 00:12:00.080 --> 00:12:01.440 最後に 00:12:01.440 --> 00:12:05.480 我々が関心を持っているのは 植物の黄白化の早期発見です 00:12:05.480 --> 00:12:07.000 これはオレンジの木です 00:12:07.000 --> 00:12:09.880 葉が黄色くなっています 00:12:09.880 --> 00:12:13.800 上空にロボットを飛ばすことで これは自動で容易に発見できます 00:12:13.800 --> 00:12:16.760 そして果樹園のこの区域に 異常があることを 00:12:16.760 --> 00:12:18.280 農家に知らせます 00:12:18.800 --> 00:12:21.520 このようなシステムはとても有効で 00:12:21.520 --> 00:12:27.360 10%の収穫量増加が期待できますが 00:12:27.360 --> 00:12:30.600 さらに重要なのは 飛行ロボットを使うことで 00:12:30.600 --> 00:12:34.190 水の25%削減など 投入資源を減らせることです 00:12:35.200 --> 00:12:40.960 最後になりますが 未来を創造する この人達に拍手をお願いしたいと思います 00:12:40.960 --> 00:12:45.920 ヤッシュ・ムルガンカー、シカン・リウ ジュゼッペ・ロイアーノ 00:12:45.920 --> 00:12:49.440 彼らがご覧になった3つのデモを 作成してくれました 00:12:49.440 --> 00:12:50.640 有難うございました 00:12:50.640 --> 00:12:56.560 (拍手)