Return to Video

رایانه‌ها چطور خلاقیت را یاد می‌گیرند

  • 0:01 - 0:04
    من مدیر گروهی در گوگل هستم
    که در مورد هوش مصنوعی کار میکند؛
  • 0:04 - 0:09
    به عبارت دیگر، راهکارهای مهندسی
    برای اینکه رایانهها و دستگاه ها
  • 0:09 - 0:11
    بتوانند بعضی از کارهای مغز رو انجام بدهند.
  • 0:11 - 0:15
    و این ما رو به مغز و همچنین
  • 0:15 - 0:16
    علوم اعصاب علاقهمند میکند،
  • 0:16 - 0:20
    و خصوصا به کارهایی که مغزمان انجام میدهد
  • 0:20 - 0:24
    که همچنان بسیار فراتر
    از کارایی رایانههاست.
  • 0:25 - 0:29
    از دیدگاه تاریخی، یکی از این حوزهها
    ادراک بوده است،
  • 0:29 - 0:32
    فرایندی که درآن چیزهای دنیای بیرون --
  • 0:32 - 0:33
    اصوات و تصاویر --
  • 0:34 - 0:36
    میتوانند به موضوعاتی ذهنی تبدیل شوند.
  • 0:36 - 0:39
    این برای مغز ما اساسی است،
  • 0:39 - 0:41
    و همچنین بسیار مفید در یک رایانه.
  • 0:42 - 0:45
    برای مثال، آلگوریتمهای ادراک ماشینی،
    که گروه ما تولید میکنند،
  • 0:45 - 0:49
    چیزی است که تصاویر شما
    در گوگل فوتو را قابل جستجو میکنند،
  • 0:49 - 0:50
    با توجه به چیزهایی که در آنهاست.
  • 0:52 - 0:55
    روی دیگر ادراک خلاقیت است:
  • 0:55 - 0:58
    تبدیل موضوع به چیزی آنجا در جهان.
  • 0:58 - 1:02
    در سال گذشته،
    کار ما در ادراک ماشین
  • 1:02 - 1:07
    به شکلی غیر منتظره با
    دنیای خلاقیت ماشینی مرتبط شد
  • 1:07 - 1:08
    و هنر ماشینی.
  • 1:09 - 1:12
    به نظر من میکلآنژ دیدگاه عمیقی
  • 1:12 - 1:16
    در ارتباط دوگانه میان
    ادراک و خلاقیت داشت.
  • 1:16 - 1:18
    این گفته مشهوری از اوست:
  • 1:18 - 1:21
    «هر قطعه سنگی شرایط خاص خود را دارد،
  • 1:22 - 1:25
    و وظیفه مجسمهساز کشف آن است.»
  • 1:26 - 1:29
    به نظر من آنچه میکلآنژعنوان میکند
  • 1:29 - 1:32
    این است که خلاقیت ما از راه ادراک است،
  • 1:32 - 1:35
    و اینکه خود ادراک، ناشی از تصور است
  • 1:36 - 1:38
    که ماده اولیه خلاقیت است.
  • 1:39 - 1:43
    عضوی که تمامی تفکر و ادراک و تصور را
    بر عهده دارد،
  • 1:43 - 1:44
    مسلما، مغز است.
  • 1:45 - 1:48
    و میخواهم تا تاریخچه مختصری
  • 1:48 - 1:50
    از آنچه در باره مغز میدانیم بگویم.
  • 1:50 - 1:53
    چون برخلاف، مثلا،
    قلب یا رودهها،
  • 1:53 - 1:56
    خیلی از اعمال مغزرا با تنها نگاه کردن
    به آن نمیفهمی،
  • 1:56 - 1:58
    حداقل با چشم معمولی.
  • 1:58 - 2:00
    اولین کالبد شناسانی
    که به مغز توجه کردند
  • 2:00 - 2:04
    انواع اسمهای عجیب و غریب را
    به ساختارهای سطحی آن دادند،
  • 2:04 - 2:07
    مثل هیپوکمپوس، یعنی «میگوی کوچک».
  • 2:07 - 2:09
    ولی البته این چیزها توضیح زیادی
  • 2:09 - 2:12
    از آنچه واقعا در درون آن
    اتفاق میافتد نمی دهد.
  • 2:13 - 2:16
    اولین کسی که، به نظرم، واقعا
    یک بررسی از آنچه
  • 2:16 - 2:18
    واقعا در مغز اتفاق میافتد انجام داد
  • 2:18 - 2:22
    عصب شناس بزرگ اسپانیایی،
    سانتیاگو رامون ای کاخال بود،
  • 2:22 - 2:24
    در قرن ۱۹،
  • 2:24 - 2:28
    که از میکروسکوپ و رنگ آمیزی
    خاصی استفاده کرد
  • 2:28 - 2:32
    که به انتخاب میتوانست با تضاد رنگ خوبی
  • 2:32 - 2:34
    هر سلول مغز را پر یا روکش کند،
  • 2:34 - 2:37
    تا بتواند شروع به درک کارایی ظاهری آن کند.
  • 2:38 - 2:41
    و اینها طراحیهایی است
    که او از نورونها ساخته
  • 2:41 - 2:42
    در قرن ۱۹ میلادی.
  • 2:42 - 2:44
    این از مغز یک پرنده است.
  • 2:44 - 2:47
    و اینجا انواع بسیار مختلفی از سلولها
    را میبینید،
  • 2:47 - 2:51
    حتی خود نظریه سلولی
    در این زمان بسیار جدید بود.
  • 2:51 - 2:52
    و این ساختارها،
  • 2:52 - 2:54
    این سلولها که دارای ارایش درختی هستند،
  • 2:54 - 2:57
    این شاخهها که میتوانند
    تا فاصلههای بسیار زیاد بروند --
  • 2:57 - 2:58
    در آن زمان بسیار جدید بودند.
  • 2:59 - 3:02
    درست مثل سیم کشی میمانند.
  • 3:02 - 3:05
    و برای بعضی ها در قرن ۱۹ خیلی بدیهی بود؛
  • 3:05 - 3:10
    انقلاب الکتریسیته
    و سیم کشی تازه شروع شده بود.
  • 3:10 - 3:11
    اما از خیلی جنبهها،
  • 3:11 - 3:14
    این ریز طراحیهای تشریحی
    توسط رامون ای کاخال، مثل این،
  • 3:15 - 3:17
    همچنان در نوع خود بینظیرند.
  • 3:17 - 3:19
    هنوز بعد از یک قرن،
  • 3:19 - 3:22
    میخواهیم کاری که رامون ای کاخال
    شروع کرده را تمام کنیم.
  • 3:22 - 3:25
    این ها اطلاعات خامی هستند
    که همکارانمان
  • 3:25 - 3:28
    در انستیتو عصب شناسی ماکس پلانک
    تهیه کرده اند.
  • 3:28 - 3:29
    و کاری که همکارانمان انجام دادهاند
  • 3:29 - 3:34
    تصویربرداری از بافت کوچکی از مغز است.
  • 3:34 - 3:38
    کل نمونه در اندازه یک میلیمتر مکعب است.
  • 3:38 - 3:40
    و من بخش خیلی خیلی کوچکی
    از آن را به شما نشان میدهم.
  • 3:40 - 3:43
    آن میله در چپ اندازه یک میکرون است.
  • 3:43 - 3:45
    ساختاری که میبینید یک میتوکندری است
  • 3:45 - 3:47
    که به اندازه یک باکتری آست.
  • 3:47 - 3:49
    و اینها برشهای پشت هم هستند
  • 3:49 - 3:52
    در این بخش بسیار بسیار کوچک بافت.
  • 3:52 - 3:55
    تنها برای مقایسه،
  • 3:55 - 3:58
    قطر یک تار مو حدود ۱۰۰ میکرون است.
  • 3:58 - 4:01
    پس ما به چیزهایی خیلی، خیلی کوچکتر
  • 4:01 - 4:02
    از یک تار مو نگاه میکنیم.
  • 4:02 - 4:06
    و با استفاده از این نوع
    برشهای میکروسکوپ الکترونی،
  • 4:06 - 4:11
    میتوان نورونهای
    سه بعدی مثل این را بازسازی کرد.
  • 4:11 - 4:14
    پس اینها به شکلی مشابه
    کارهای رامون ای کاخال است.
  • 4:14 - 4:16
    فقط چند نورون مشخص شدهاند،
  • 4:16 - 4:19
    چون در غیر این صورت نمیتوانستیم
    چیزی را ببینیم.
  • 4:19 - 4:20
    چون آنقدر شلوغ،
  • 4:20 - 4:21
    و پر از ساختارهای،
  • 4:21 - 4:24
    ارتباطی از یک نورون به دیگری بود.
  • 4:25 - 4:28
    پس رامون ای کاخال
    از زمانهاش کمی جلوتر بود،
  • 4:28 - 4:31
    و پیشرفت در فهمیدن مغز
  • 4:31 - 4:33
    در چند دهه بعد به کندی پیش میرفت.
  • 4:33 - 4:36
    ما میدانستیم که نورونها
    از الکتریسیته استفاده میکنند،
  • 4:36 - 4:39
    تا زمان جنگ جهانی دوم،
    فناوری ما به اندازهای پیشرفت کرد
  • 4:39 - 4:42
    تا شروع به آزمایش های الکتریکی
    روی نورونهای زنده کنیم
  • 4:42 - 4:44
    تا درک بهتری از کارکردشان داشته باشیم.
  • 4:45 - 4:49
    و این همان وقتی بود
    که رایانهها اختراع شدند،
  • 4:49 - 4:52
    کاملا بر مبنای ایده و الگو سازی از مغز --
  • 4:52 - 4:55
    «ماشینهای هوشمندی»
    که آلن تورینگ نام گذاری کرده بود،
  • 4:55 - 4:57
    یکی از پدران علوم رایانه.
  • 4:58 - 5:03
    وارن مک کلوچ و والتر پیتس
    به طرح های رامون ای کاخال
  • 5:03 - 5:04
    از قشر بینایی نگاه کردند،
  • 5:04 - 5:05
    که اینجا نشان میدهم.
  • 5:06 - 5:10
    این قشری است که تصاویری که
    از چشم میآید را پردازش میکند.
  • 5:10 - 5:14
    و از نظر آنها، مثل مدارات الکتریکی بود.
  • 5:14 - 5:18
    در نتیجه جزئیات زیادی
    در مدارات مک کلوچ و پیتس وجود دارند
  • 5:18 - 5:20
    که کاملا درست نیستند.
  • 5:20 - 5:21
    اما این ایده اولیه
  • 5:21 - 5:25
    که قشر بینایی مانند تعدادی
    مدارات رایانهای عمل میکند
  • 5:25 - 5:28
    که بصورت سری اطلاعات را
    از یکی به دیگری انتقال میدهد،
  • 5:28 - 5:29
    در پایه صحیح بود.
  • 5:29 - 5:32
    بگذارید لحظهای در مورد
  • 5:32 - 5:36
    روشی که برای پردازش اطلاعات تصویری
    نیاز داریم صحبت کنیم.
  • 5:36 - 5:39
    وظیفه اصلی ادراک
  • 5:39 - 5:43
    دریافت تصویری مثل این و بیان،
  • 5:43 - 5:44
    « این پرنده است،»
  • 5:44 - 5:47
    که واقعا موضوع سادهای برای مغز ماست.
  • 5:47 - 5:51
    اما باید بدانید که برای یک رایانه،
  • 5:51 - 5:54
    تا چند سال پیش تقریبا غیر ممکن بود.
  • 5:54 - 5:56
    برای روش های سنتی رایانه
  • 5:56 - 5:58
    انجام این کار ساده نیست.
  • 5:59 - 6:02
    اتفاقی که بین پیکسلهای تصویر،
  • 6:02 - 6:06
    بین تصویر پرنده
    و کلمه «پرنده» اتفاق میافتد،
  • 6:06 - 6:09
    اساسا دستهای از نورونهای متصل به هم است
  • 6:09 - 6:10
    در یک شبکه عصبی،
  • 6:10 - 6:11
    که اینجا درنمودار است.
  • 6:11 - 6:15
    این شبکه عصبی میتواند از نوع زیستی
    و درون قشر بینایی ما باشد،
  • 6:15 - 6:17
    یا، این روزها، ما شروع کردهایم تا
  • 6:17 - 6:19
    این شبکه های عصبی را در رایانه مدل کنیم.
  • 6:20 - 6:22
    و به شما نشان میدهم که واقعا شبیه چه است.
  • 6:22 - 6:26
    پس پیکسل ها که میتوانند ازدید شما
    اولین لایه عصبی باشند،
  • 6:26 - 6:28
    و این در واقع،
    همانطوری است که چشم کار میکند --
  • 6:28 - 6:30
    که عصبهای شبکیه هستند.
  • 6:30 - 6:31
    و آنهایی که مستقیما
  • 6:31 - 6:35
    از یک لایه به لایه دیگرعصبی
    متصل میشوند،
  • 6:35 - 6:38
    همگی از طریق سیناپسهایی
    با وزنهای مختلف متصل میشوند.
  • 6:38 - 6:39
    رفتار این شبکه
  • 6:39 - 6:42
    از طریق قدرت همه این سیناپسها
    مشخص میگردد.
  • 6:42 - 6:46
    اینها رفتار محاسباتی شبکه را معین میکنند.
  • 6:46 - 6:47
    و در پایان،
  • 6:47 - 6:50
    عصب، یا گروه کوچکی از اعصاب را داری
  • 6:50 - 6:51
    که مثلا، کلمه «پرنده» را روشن میکند.
  • 6:52 - 6:55
    حالا این سه موضوع را مدل میکنم --
  • 6:55 - 7:00
    پیکسلهای ورودی سیناپسهای شبکه عصبی،
  • 7:00 - 7:01
    و خروجی پرنده --
  • 7:01 - 7:04
    با سه متغیر: X، W و Y.
  • 7:05 - 7:07
    حدود یک میلیون X داریم --
  • 7:07 - 7:09
    یک میلیون پیکسل در تصویر.
  • 7:09 - 7:11
    میلیاردها یا تریلیاردها W داریم،
  • 7:11 - 7:15
    که نشان دهنده وزن این سیناپسها
    در شبکه عصبیاند.
  • 7:15 - 7:16
    و تعداد بسیار کمی Y وجود دارد،
  • 7:16 - 7:18
    که خروجیهای آن شبکهاند.
  • 7:18 - 7:20
    کلمه «پرنده» چهار حرف دارد، درسته؟
  • 7:21 - 7:25
    حالا بگذارید فرض کنیم این
    فقط یک معادله ساده است،
  • 7:25 - 7:27
    X ضربدر W میشود Y.
  • 7:27 - 7:29
    من ضربدر را در گیومه گذاشتهام
  • 7:29 - 7:31
    چون اتفاقی که واقعا میافته،
  • 7:31 - 7:34
    مجموعه واقعا پیچیدهای از عملیات ریاضیه.
  • 7:35 - 7:36
    این یک معادله است،
  • 7:36 - 7:38
    که سه متغیر داره.
  • 7:38 - 7:41
    و همه ما میدانیم که
    اگه یک معادله داشته باشیم،
  • 7:41 - 7:45
    میتوانیم یک متغیر را با دانستن
    دو متغیر دیگه بدست آوریم.
  • 7:45 - 7:49
    پس در نتیجه،
  • 7:49 - 7:51
    به این شکل، مشخص میشود که
    تصویر یک پرنده، پرنده است،
  • 7:51 - 7:53
    این یکی:
  • 7:53 - 7:56
    اینجاست که Y مجهوله
    و X و W معلوم.
  • 7:56 - 7:59
    شبکه عصبی معلومه،
    پیکسلها معلومند.
  • 7:59 - 8:02
    همونطور که میبینید، نسبتا یک
    مسئله سر راسته.
  • 8:02 - 8:04
    دو رو ضربدر سه میکنی و تمومه.
  • 8:05 - 8:07
    من یک شبکه عصبی مصنوعی رو نشونتون میدهم
  • 8:07 - 8:09
    که اخیرا ساختیم
    که دقیقا همین کار رو میکنه.
  • 8:10 - 8:12
    این بصورت زنده کار میکنه
    روی یک گوشی موبایل،
  • 8:13 - 8:16
    و البته این،
    خودش واقعا عالیه،
  • 8:16 - 8:19
    اون تلفن همراه میتونه میلیونها و
    میلیاردها عملیات رو
  • 8:19 - 8:21
    در ثانیه انجام بده.
  • 8:21 - 8:22
    چیزی که میبینید تلفن هست
  • 8:22 - 8:26
    به عکسهای پرندههای مختلف نگاه میکنه،
  • 8:26 - 8:29
    و نه تنها میگه که
    « آره، این یک پرنده است»،
  • 8:29 - 8:32
    بلکه نوع پرنده رو هم
    با شبکهای از این نوع تعیین میکنه.
  • 8:33 - 8:35
    پس در این تصویر،
  • 8:35 - 8:39
    X و W معلومند،
    و Y مجهول.
  • 8:39 - 8:41
    معلومه که، من قسمت خیلی سخت رو مخفی کردم،
  • 8:41 - 8:45
    که ما چطور W رو پیدا میکنیم،
  • 8:45 - 8:47
    مغزی که این کارها رو میکنه؟
  • 8:47 - 8:49
    ما واقعا چطور این مدل رو پیدا میکنیم؟
  • 8:49 - 8:53
    پس این مدل یادگیری برای W حل شده،
  • 8:53 - 8:55
    اگه به شکل یک معادله ساده نگاهش کنیم
  • 8:55 - 8:57
    که به اونها به شکل عدد نگاه میکنیم،
  • 8:57 - 9:00
    معلومه که چکار میکنیم: ۶=۲xW ،
  • 9:00 - 9:03
    خوب، به دو تقسیمش میکنیم و تمومه.
  • 9:04 - 9:06
    مشکل این ضریبه،
  • 9:07 - 9:08
    خوب، تقسیم --
  • 9:08 - 9:11
    ما از تقسیم استفاده میکنیم چون
    معکوس ضربه،
  • 9:11 - 9:13
    اما همونطور که گفتم،
  • 9:13 - 9:15
    ضرب واقعا حرف درستی نیست.
  • 9:15 - 9:18
    این یک عملیات خیلی، خیلی پیچیده غیر خطیه؛
  • 9:18 - 9:20
    که معکوس نداره.
  • 9:20 - 9:23
    پس باید راهی پیدا کنیم تا
    معادله رو حل کنیم
  • 9:23 - 9:25
    بدون استفاده از تقسیم.
  • 9:25 - 9:28
    و راه اون نسبتا سادهاست.
  • 9:28 - 9:30
    کافیه فقط، از یک کلک جبر استفاده کنیم،
  • 9:30 - 9:33
    و شش رو به سمت راست معادله ببریم.
  • 9:33 - 9:35
    حالا، هنوز از ضرب استفاده میکنیم.
  • 9:36 - 9:39
    و اون صفر --رو بگذارید
    به عنوان خطا در نظر بگیریم.
  • 9:39 - 9:42
    به عبارت دیگر، اگر معادله
    را برای W به شکل صحیح حل کنیم،
  • 9:42 - 9:43
    مقدار خطا صفر میشود.
  • 9:43 - 9:45
    و اگر درست عمل نکنیم،
  • 9:45 - 9:47
    مقدار خطا صفر نمیشود.
  • 9:47 - 9:51
    پس میتونیم حدس بزنیم
    تا مقدار خطا رو حداقل کنیم،
  • 9:51 - 9:53
    و اینها کارهایی است که رایانهها
    در اون استادند.
  • 9:53 - 9:55
    پس یه فرض اولیه میکنی:
  • 9:55 - 9:56
    فرض کنیم W=0 ؟
  • 9:56 - 9:57
    پس خطا معادل ۶ است.
  • 9:57 - 9:59
    پس اگه W=۱ بود چی؟ خطا ۴ میشود.
  • 9:59 - 10:01
    و رایانه به شکلی مارکوپولو بازی میکنه،
  • 10:01 - 10:04
    و مقدار خطا رو نزدیک به صفر کاهش میده.
  • 10:04 - 10:07
    و به این شکل مقدار تقریبی W بدست میآید
  • 10:07 - 10:11
    معمولا، هیچوقت دقیقا به آن نمی رسد،
    ولی بعد از نزدیک ده مرحله،
  • 10:11 - 10:15
    ما به W=۲.۹۹ میرسیم،
    که به اندازه کافی مناسبه،
  • 10:16 - 10:18
    و این مرحله یادگیریه.
  • 10:18 - 10:21
    خوب حالا اتفاقی که اینجا میافته
  • 10:21 - 10:25
    اینه که تعداد زیادی X های معلوم
    و Yهای معلوم رو استفاده میکنیم
  • 10:25 - 10:29
    و از روش تکرار W رو
    محاسبه میکنیم.
  • 10:29 - 10:32
    این دقیقا همون روشیه
    که ما یادگیری رو انجام میدهیم.
  • 10:32 - 10:35
    مثل نوزادان ، تعداد خیلی، خیلی زیادی
    تصویر میبینیم
  • 10:35 - 10:37
    و بهشون میگیم، « این پرنده است؛
    و این پرنده نیست.»
  • 10:38 - 10:40
    و در طول زمان، از طریق تکرار،
  • 10:40 - 10:43
    W را برای آن اتصالات عصبی بدست میاوریم.
  • 10:43 - 10:48
    پس حالا، ما برای بدست آوردن
    Y مقدارهای X و W رو ثابت نگاه داشتیم؛
  • 10:48 - 10:49
    و این ادراک سریع روزانهاست.
  • 10:49 - 10:51
    فهمیدیم، که چطور W را محاسبه کنیم،
  • 10:51 - 10:53
    این یادگیری، خیلی سخت تره،
  • 10:53 - 10:55
    چون باید خطا رو حداقل کنیم،
  • 10:55 - 10:57
    با استفاده از کلی نمونه برای یادگیری.
  • 10:57 - 11:00
    و حدود یک سال قبل،
    آلکس موردیوینسف، در تیم ما،
  • 11:00 - 11:04
    تصمیم گرفت تا بررسی کنه چه اتفاقی میافته
    اگر اون رو برای X حل کنیم،
  • 11:04 - 11:06
    اگه مقدار مشخصی برای W و Y داشته باشیم.
  • 11:06 - 11:07
    به عبارت دیگر،
  • 11:07 - 11:09
    میدونید که این یک پرنده است،
  • 11:09 - 11:12
    شبکه عصبی که
    روی پرنده آموزش دیده رو دارید،
  • 11:12 - 11:14
    چه تصویری از پرنده بدست میاد؟
  • 11:15 - 11:20
    معلوم شده که با استفاده از
    همون شیوه کمینه کردن خطا،
  • 11:20 - 11:24
    میتونه با شبکهای که
    برای تشخیص پرنده آموزش دیده،
  • 11:24 - 11:27
    و نتیجه اون معلوم شد که ...
  • 11:30 - 11:32
    تصویر پرنده است.
  • 11:33 - 11:37
    این تصویر پرندههاست که کاملا توسط
    یک شبکه عصبی ایجاد شده
  • 11:37 - 11:38
    که برای تضخیص پرنده آموزش دیده،
  • 11:38 - 11:42
    تنها با حل کردن آن برای X بجای Y،
  • 11:42 - 11:43
    و تکرار اون.
  • 11:44 - 11:46
    این یک مثال سرگرم کننده دیگه است.
  • 11:46 - 11:49
    این کاری است که توسط مایک تایکا
    در گروه ما انجام شده،
  • 11:49 - 11:51
    که «رژه حیوانات» نامیده میشود.
  • 11:51 - 11:54
    که من رو بیاد کارهای هنری
    ویلیام کنتریج میاندازه،
  • 11:54 - 11:57
    که طراحی های دستی انجام میداده،
  • 11:57 - 11:59
    طرح میکرده، و اونها رو محو میکرده،
  • 11:59 - 12:00
    و با اون فیلم میساخته.
  • 12:00 - 12:01
    در این حالت،
  • 12:01 - 12:04
    کاری که مایک انجام میده
    تغییر Y در فضای حیوانات مختلف است،
  • 12:04 - 12:07
    در شبکهای که برای تشخیص و تعیین
  • 12:07 - 12:08
    حیولنات مختلف از همدیگر طراحی شده.
  • 12:08 - 12:12
    و شما این تصاویر گرافیکی اشتر گونه که از
    حیوانی به دیگری تبدیل میشه رو میبینید.
  • 12:14 - 12:19
    اینجا او و الکس با هم سعی کردهاند
  • 12:19 - 12:22
    تا Y ها رو به فضای دو بعدی تبدیل کنند،
  • 12:22 - 12:25
    و اینطوری نقشهای از فضای
    همه چیزهایی بسازند
  • 12:25 - 12:27
    که توسط این شبکه شناخته میشود.
  • 12:27 - 12:29
    با انجام این تحلیل ها
  • 12:29 - 12:31
    یا تولید تصویر در کل سطح،
  • 12:31 - 12:34
    با تغییر Y روی سطح،
    یه نوع نقشه تولید میکنی --
  • 12:34 - 12:37
    یک نقشه تصویری از همه چیزهایی
    که شبکه میتونه تشخیص بده.
  • 12:37 - 12:40
    همه حیوانات اینجا هستند؛
    «گورکن» درست اونجاست.
  • 12:41 - 12:43
    اینکار رو میتونی
    با انواع دیگر شبکه انجام بدی.
  • 12:43 - 12:46
    این شبکهای است که برای تشخیص
    چهره طراحی شده،
  • 12:46 - 12:48
    برای تشخیص یک صورت از صورت دیگر.
  • 12:48 - 12:52
    و اینجا، در Y، ما مقداری رو میگذاریم
    که بیانگر «من» هست،
  • 12:52 - 12:53
    مقادیر صورت خودم.
  • 12:53 - 12:55
    و اگه معادله رو برای X حل کنیم،
  • 12:55 - 12:58
    این چیز عجیب،
  • 12:58 - 13:02
    تصویر روانپریشی از من،
    شبیه سبک کوبیسم، سور رئال
  • 13:02 - 13:04
    از چند زاویه دید همزمان.
  • 13:04 - 13:07
    دلیل اینکه تصویر از چند زاویه دید همزمان
    تولید شده
  • 13:07 - 13:10
    اینه که شبکه برای این طراحی شده
  • 13:10 - 13:13
    تا تغییر وضعیت صورت مبهم نباشه،
  • 13:13 - 13:16
    یا اگر به اون با نورهای مختلف نگاه بشه.
  • 13:16 - 13:18
    پس وقتی این بازسازی ها رو انجام بدهی،
  • 13:18 - 13:21
    اگر یک تصویر راهنما نداشته باشی،
  • 13:21 - 13:22
    یا اطلاعات اولیه،
  • 13:22 - 13:26
    ترکیبی از زوایای دید مختلف بدست میآوری،
  • 13:26 - 13:27
    چون مبهمه.
  • 13:28 - 13:32
    این نتیجهای است که آلکس وقتی از تصویر
    صورت خودش به عنوان راهنما
  • 13:32 - 13:35
    در فرایند بهینه سازی
    برای ایجاد صورت من استفاده کرده.
  • 13:36 - 13:39
    به نظر عالی نیست.
  • 13:39 - 13:41
    هنوز باید کارهای زیادی
  • 13:41 - 13:43
    در بهینه سازی و روشهای آن
    انجام شود.
  • 13:43 - 13:46
    اما شروع کردهایم تا چیزی
    شبیه به صورتی منسجم بدست آوریم ،
  • 13:46 - 13:48
    که از صورت من به عنوان مبنا استفاده کرده.
  • 13:49 - 13:51
    نیاز نیست تا از یک صفحه خالی شروع کنی
  • 13:51 - 13:53
    یا از نویز سفید.
  • 13:53 - 13:54
    اگر معادله را برای X حل کنی،
  • 13:54 - 13:58
    می تونی با یک X شروع کنی،
    که خودش تصویر دیگری است.
  • 13:58 - 14:00
    که همین نمونهایست که میبینید.
  • 14:00 - 14:05
    این شبکهای است که طراحی شده
  • 14:05 - 14:08
    تا تمامی انواع اشیاء را طبقه بندی کند --
    ساختههای انسان، حیوانات ...
  • 14:08 - 14:10
    اینجا با تصویری از ابر شروع میکنیم،
  • 14:10 - 14:12
    و همونطور که بهنینه سازی میکنیم.
  • 14:12 - 14:17
    اساسا، این شبکه چیزی را
    که در ابرها میبیند را پیدا میکند.
  • 14:17 - 14:19
    و هرچه بیشتر روی آن وقت بگذاری،
  • 14:19 - 14:22
    چیزهای بیشتری در آن میبینی.
  • 14:23 - 14:26
    میتوان از شبکه عصبی تشخیص صورت
    برای خبال پردازی در آن استفاده کرد،
  • 14:26 - 14:28
    و چیزهای عجیب و غریب زیادی میبینی.
  • 14:28 - 14:29
    ( خنده حضار )
  • 14:30 - 14:33
    یا، مایک آزمایشهای دیگری انجام داده
  • 14:33 - 14:37
    که در آن عکسهای ابر را گرفته،
  • 14:37 - 14:41
    خیال پردازی، بزرگ نمایی، خیال پردازی،
    بزرک نمایی.
  • 14:41 - 14:42
    و به این شکل،
  • 14:42 - 14:45
    به نظرم، به شکلی
    در یک وضعیت گیجی شبکه قرار میگیری ،
  • 14:46 - 14:49
    یا نوعی از ترکیبهای آزاد،
  • 14:49 - 14:51
    که در آن شبکه دم خودش را میخورد.
  • 14:51 - 14:55
    پس هر تصویر حالا پایهای برای،
  • 14:55 - 14:56
    « فکر میکنم بعدی چیه؟
  • 14:56 - 14:59
    فکر میکنم بعدی چیه؟
    فکر میکنم بعدی چیه؟» خواهد بود
  • 14:59 - 15:02
    اولین باری که برای عموم
  • 15:02 - 15:08
    و گروهی به نام «تحصیلات عالی»
    در سیاتل این را نشان دادم --
  • 15:08 - 15:10
    درست وقتی بود که ماریجوانا قانونی شد.
  • 15:10 - 15:13
    ( خنده حضار )
  • 15:15 - 15:17
    خوب باید زودتر جمع بندی کنم
  • 15:17 - 15:21
    با اشاره به اینکه
    این فناوری هنوز محدود نشده.
  • 15:21 - 15:25
    من تنها مثالهای کاملا تصویری
    آن را نشان دادم چون دیدنشان لذت بخش است.
  • 15:25 - 15:27
    ولی این تنها یک فناوری تصویری نیست.
  • 15:27 - 15:29
    همکار هنری ما، راس گودوین،
  • 15:29 - 15:33
    آزمایشهایی انجام داده که در آن
    دوربینی عکس می گیرد،
  • 15:33 - 15:37
    و رایانهای که در کوله پشتیاش است
    در موردش با شبکه عصبی شعری میگوید،
  • 15:37 - 15:39
    با توجه به محتویات تصویر.
  • 15:39 - 15:42
    و این شبکه عصبی شاعر روی
  • 15:42 - 15:44
    مجموعه بزرگی
    از اشعار قرن بیستم آموزش دیده.
  • 15:44 - 15:46
    و به نظر من اشعارش،
  • 15:46 - 15:48
    واقعا، خیلی هم بد نیست.
  • 15:48 - 15:49
    ( خنده حضار )
  • 15:49 - 15:50
    در خاتمه،
  • 15:50 - 15:53
    فکر کنم میکل آنژ،
  • 15:53 - 15:54
    درست میگفت که؛
  • 15:54 - 15:57
    ادراک و خلاقیت
    ذاتا بسیار به هم نزدیکند.
  • 15:58 - 16:00
    چیزهایی که دیدیم شبکه های عصبیاند
  • 16:00 - 16:03
    که تنها آموزش دیدهاند تا تشخیص دهند،
  • 16:03 - 16:05
    یا چیزهای متفاوتی را در دنیا بشناسند،
  • 16:05 - 16:08
    و میتوانند معکوس عمل کنند و تولید کنند.
  • 16:08 - 16:10
    یکی از چیزهایی که به نظرم میرسد
  • 16:10 - 16:12
    این است که تنها میکل آنژ نیست
  • 16:12 - 16:15
    که مجسمهای در قطعهای سنگ میبیند،
  • 16:15 - 16:18
    بلکه هر مخلوقی، هر موجودی،
    هر موجود فرازمینی
  • 16:18 - 16:22
    که بتواند گونه ای از
    فعالیتی ادراکی داشته باشد
  • 16:22 - 16:23
    هم میتواند خلاقیت داشته باشد
  • 16:24 - 16:27
    چون واقعا یک دستگاه
    هر دو کار را انجام میدهد.
  • 16:27 - 16:31
    همچنین، به نظر من
    ادراک و خلاقیت به هیچ وجه
  • 16:31 - 16:33
    تنها مختص انسان نیستند.
  • 16:33 - 16:36
    مدلهای رایانهای را میبینیم
    که دقیقا اینگونه کارها را انجام میدهند.
  • 16:36 - 16:40
    و نباید تعجب کرد؛
    چون مغز هم محاسباتی است.
  • 16:40 - 16:41
    و در پایان،
  • 16:41 - 16:46
    برنامه ریزی رایانه شروع به
    طراحی دستگاههای هوشمند کرده است.
  • 16:46 - 16:48
    وساخت آن قطعا پس از این نظر
  • 16:48 - 16:51
    که چطور میتوانیم
    دستگاهها را هوشمند کنیم انجام شده.
  • 16:52 - 16:54
    و نهایتا حالا شروع به انجام آن کردهایم
  • 16:54 - 16:56
    بعضی از وعدههای
    این پیشگامان،
  • 16:56 - 16:58
    تورینگ و فون نومان
  • 16:58 - 17:00
    و مک کولچ و پیت.
  • 17:00 - 17:04
    و از دید من رایانه تنها برای حسابداری
  • 17:04 - 17:06
    یا بازی کندیکراش و این چیزها نیست.
  • 17:06 - 17:09
    از آغاز آنها را
    بر مبنای ذهنمان ساخته ایم.
  • 17:09 - 17:12
    و به ما این امکان را دادند
    تا ذهنمان را بهتربشناسیم
  • 17:12 - 17:14
    و توسعه دهیم.
  • 17:15 - 17:16
    خیلی از شما متشکرم.
  • 17:16 - 17:22
    ( تشویق حضار )
Title:
رایانه‌ها چطور خلاقیت را یاد می‌گیرند
Speaker:
بلیس آگورا ای آرکاس
Description:

ما در آستانه مرز‌های جدیدی در هنر و خلاقیتیم-- که انسانی نیستند. بلیس آگورا ای آرکاس، محقق ارشد در شرکت گوگل هست که با شبکه های عصبی عمیق، برای درک ماشینی و آموزش گسترده کار می‌کند. دراین نمایش جذاب، او نشان می‌دهد که شبکه‌های عصبی آموزش دیده برای تشخیص تصویر را می‌توان معکوس کرد تا تصاویر را تولید کنند. و نتیجه‌اش: تصاویر کلاژ تماشایی، وهم انگیز ( و شاعرانه!) که قابل دسته بندی نیستند. آگورا ای آرکاس می‌گوید « ادراک و خلاقیت به شکلی نزدیک مرتبطند،» « هر موجودی که توانایی درک دارد می‌تواند خلاق هم باشد.»

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:34

Persian subtitles

Revisions