0:00:06.999,0:00:09.034 意識とは何でしょうか? 0:00:09.034,0:00:11.828 人工知能は本当に考えているのでしょうか? 0:00:11.828,0:00:15.114 心というものは 脳にあるニューロンの[br]集合体にに過ぎないのか 0:00:15.114,0:00:18.757 それとも その核には形無き[br]知性というものが あるのでしょうか? 0:00:18.757,0:00:21.325 人工知能の将来を考える[br]多くの人にとって 0:00:21.325,0:00:24.352 これはとても重要なポイントです 0:00:24.352,0:00:29.539 しかし 英国のコンピューター科学者の[br]アラン・チューリングは 0:00:29.539,0:00:31.850 このような質問の仕方を改め[br]より単純化したのです 0:00:31.850,0:00:35.269 「コンピューターは人間のように[br]会話できるのでしょうか?」 0:00:35.269,0:00:39.265 この問いかけが人工知能を測定する[br]アイデアとなり 0:00:39.265,0:00:43.316 有名なチューリングテストとして[br]知られるようになったのです 0:00:43.316,0:00:47.341 1950年の論文「計算する機械と知性」で 0:00:47.341,0:00:49.814 チューリングは こんなゲームを提案しました 0:00:49.814,0:00:53.906 人間の審査員が姿の見えない[br]プレイヤー達とテキストで会話を行い 0:00:53.906,0:00:56.382 彼らの応答を評価するのです 0:00:56.382,0:01:00.409 コンピューターが誰か1人と入れ替わっても[br]結果がほとんど変わらなければ 0:01:00.409,0:01:03.857 テストに合格したことになります 0:01:03.857,0:01:06.816 つまり コンピューターの会話が 0:01:06.816,0:01:12.513 人間の会話と簡単に区別できなければ[br]知的だとみなされます 0:01:12.513,0:01:14.667 チューリングは2000年までに 0:01:14.667,0:01:20.622 100メガバイトのメモリーの機械なら[br]試験に簡単に受かるだろうと予想しました 0:01:20.622,0:01:22.786 しかし これは早とちりだったようです 0:01:22.786,0:01:25.840 それより遥かに大容量のメモリーがある[br]今日のコンピューターですら 0:01:25.840,0:01:27.643 成功するのはかなり難しいのです 0:01:27.643,0:01:29.438 合格した機械は 0:01:29.438,0:01:33.208 圧倒的なコンピュータの計算力を[br]行使するよりも 0:01:33.208,0:01:36.174 審査員をいかにうまく騙すかに[br]力を入れていました 0:01:36.174,0:01:39.096 実際の試験の対象と[br]なったわけではありませんが 0:01:39.096,0:01:43.865 最初に成功したプログラムは[br]ELIZA だと言われています 0:01:43.865,0:01:46.412 比較的短く シンプルな記述を行い 0:01:46.412,0:01:50.434 心理学者を装うことで[br]もっと話すように仕向けて 0:01:50.434,0:01:52.395 質問を彼ら自身に返すことで 0:01:52.395,0:01:55.905 多くの人を勘違いさせたのです 0:01:55.905,0:01:59.412 別の初期のプログラム[br]PARRYは反対の取り組みを行いました 0:01:59.412,0:02:02.213 事前にプログラムされた妄想的なことに[br]話を振向け 0:02:02.213,0:02:07.939 妄想分裂病を演じたのです 0:02:07.939,0:02:12.803 プログラムが人を巧みに欺いたことで[br]試験の弱点が浮かび上がりました 0:02:12.803,0:02:17.433 人間は 実際には知的ではない事柄に至るまで 0:02:17.433,0:02:21.076 常に知性によるものだとしていたわけです 0:02:21.076,0:02:24.289 それにも関わらず ローブナー賞のような[br]毎年行われるコンテストでは 0:02:24.289,0:02:26.009 試験の形式がより整えられました 0:02:26.009,0:02:28.155 そこでは 審査員は事前に 0:02:28.155,0:02:32.019 対話の相手の中には[br]機械もいることが知らされています 0:02:32.019,0:02:33.920 質は向上していますが 0:02:33.920,0:02:39.096 会話ロボットのプログラマーの多くは[br]ElIZAやPARRYと同様の戦略をとっています 0:02:39.096,0:02:41.132 1997年の優勝者 Catherineは 0:02:41.132,0:02:45.213 話のピントを見事に合わせて[br]知的な会話を続けられましたが 0:02:45.213,0:02:49.175 その多くは審査員がビル・クリントンに関する[br]意見を求めた場合でした 0:02:49.175,0:02:51.813 さらに直近の勝者[br]Eugene Goostmanは 0:02:51.813,0:02:55.549 ウクライナ人の13歳の少年として[br]設定されていたため 0:02:55.549,0:02:59.570 審査員は脈絡のなさや[br]文法が不自然なのは 0:02:59.570,0:03:02.916 言語や文化の壁によるものだと判断しました 0:03:02.916,0:03:07.135 一方 Cleverbotのようなプログラムは[br]実際の会話の膨大なデータベースを 0:03:07.135,0:03:11.740 統計的に分析するという[br]別のアプローチを取ることで 0:03:11.740,0:03:14.281 最良の応答を決定したのです 0:03:14.281,0:03:17.530 直前の会話を記憶させ 0:03:17.530,0:03:20.915 徐々に磨いていくものもあります 0:03:20.915,0:03:25.066 Cleverbotの個々の応答は[br]見事なまでに人間的に聞こえますが 0:03:25.066,0:03:27.092 統一のとれた個性というものを欠き 0:03:27.092,0:03:30.245 まったく新しい話題には[br]対応できないので 0:03:30.245,0:03:32.858 それが機械である[br]動かぬ証拠になります 0:03:32.858,0:03:36.112 チューリングの時代には[br]現在のコンピューターが 0:03:36.112,0:03:38.201 宇宙船を操縦したり 0:03:38.201,0:03:40.518 繊細な手術を行ったり 0:03:40.518,0:03:42.807 難しい方程式すら解けるのに 0:03:42.807,0:03:46.310 ちょっとした会話に苦労するなんて[br]想像できなかったでしょう 0:03:46.310,0:03:49.819 人間が用いる言語は[br]非常に複雑な現象であり 0:03:49.819,0:03:53.524 最大の辞書ですら[br]捉えきれてはいないのです 0:03:53.524,0:03:57.993 会話ロボットは 「えっと」といった[br]単純な言葉のはさみや 0:03:57.993,0:04:00.415 正解のない質問にも混乱してしまいます 0:04:00.415,0:04:02.315 そして簡単な会話文 例えば― 0:04:02.315,0:04:05.595 「冷蔵庫のジュースを彼に渡したけど 0:04:05.595,0:04:07.406 賞味期限を確認し忘れていた」 0:04:07.406,0:04:12.872 こんなことにも豊かな知識の蓄積や[br]文法的な直感が要求されるのです 0:04:12.872,0:04:15.503 人間の会話を模倣するためには 0:04:15.503,0:04:19.112 単にメモリーを増やし[br]処理能力を向上するだけでは不十分でした 0:04:19.112,0:04:21.623 チューリングのゴールに近づくほど 0:04:21.623,0:04:26.483 最後には意識という大きな問いを[br]考えることが必要になるのでしょう