1 00:00:00,556 --> 00:00:04,573 احساسات ما روی همهی جنبههای زندگیمان تأثیر میگذارد، 2 00:00:04,573 --> 00:00:08,149 از سلامتی و چگونگی یادگیریمان گرفته، تا شیوهی کسب و کار و تصمیمگیریمان، 3 00:00:08,149 --> 00:00:09,922 از ریز تا درشت. 4 00:00:10,672 --> 00:00:14,162 احساساتمان روی برقراری ارتباطمات با دیگران نیز تأثیر میگذارد. 5 00:00:15,132 --> 00:00:19,108 ما چنان رشد کردهایم تا در جهانی اینچنین زندگی کنیم، 6 00:00:19,108 --> 00:00:23,427 ولی در مقابل، بیشتر اینگونه زندگی میکنیم -- 7 00:00:23,427 --> 00:00:26,561 این پیامک را دخترم، شب گذشته برایم فرستاده است -- 8 00:00:26,561 --> 00:00:29,301 در جهانی که خالی از احساسات است. 9 00:00:29,301 --> 00:00:31,252 من مأموریت دارم که وضعیت را تغییر دهم. 10 00:00:31,252 --> 00:00:35,343 میخواهم احساسات را به تجربهی دیجیتال بیاورم. 11 00:00:36,223 --> 00:00:39,300 این راه را ۱۵ سال پیش آغاز کردم. 12 00:00:39,300 --> 00:00:41,366 من یک دانشمند کامپیوتر در مصر بودم، 13 00:00:41,366 --> 00:00:45,871 و بهتازگی در یک برنامهی دکترا در دانشگاه کمبریج پذیرفته شده بودم. 14 00:00:45,871 --> 00:00:47,984 من کاری به نسبت غیر معمول 15 00:00:47,984 --> 00:00:52,209 برای یک زن مسلمان مصری تازه عروس انجام دادم: 16 00:00:53,599 --> 00:00:56,598 با حمایت همسرم که باید در مصر میماند 17 00:00:56,598 --> 00:00:59,616 چمدانهایم را برداشتم و به انگلیس رفتم. 18 00:00:59,616 --> 00:01:02,844 در کمبریج، هزاران مایل دور از خانه، 19 00:01:02,844 --> 00:01:06,257 فهمیدم که بیشتر ساعات را با لپتاپم سپری میکنم 20 00:01:06,257 --> 00:01:08,486 تا با دیگر انسانها. 21 00:01:08,486 --> 00:01:13,339 با وجود این صمیمیت، لپتاپ من هیچ ایدهای دربارهی آنچه من احساس میکردم نداشت. 22 00:01:13,339 --> 00:01:16,550 هیچ ایدهای دربارهی این که من خوشحالم 23 00:01:16,550 --> 00:01:19,538 روز بدی را گذراندهام، استرس داشتهام، یا گیجم، 24 00:01:19,538 --> 00:01:22,460 و خب، اینها ناامیدکننده شد. 25 00:01:23,600 --> 00:01:28,831 حتی بدتر، هنگامی که با خانوادهام، به صورت آنلاین ارتباط برقرار میکردم، 26 00:01:29,421 --> 00:01:32,703 احساس میکردم که تمام احساسات من در فضای سایبری ناپدید میشوند. 27 00:01:32,703 --> 00:01:37,858 من دلتنگ خانه بودم، تنها بودم، و بعضی روزها واقعا گریه میکردم، 28 00:01:37,858 --> 00:01:42,786 ولی تنها راه ابراز احساساتم این شکلک بود. 29 00:01:42,786 --> 00:01:44,806 (خندهی حضار) 30 00:01:44,806 --> 00:01:49,780 تکنولوژیِ امروز، بهرهی هوشی بالایی دارد ولی بهرهی احساسی ندارد؛ 31 00:01:49,780 --> 00:01:52,956 هوشِ شناختیِ فراوانی دارد، ولی هوش احساسی ندارد. 32 00:01:52,956 --> 00:01:55,153 این مرا به فکر فرو برد، 33 00:01:55,153 --> 00:01:58,777 اگر تکنولوژی میتوانست احساسات ما را بفهمد، چه میشد؟ 34 00:01:58,777 --> 00:02:02,853 چه میشد اگر وسایل ما میتوانستند احساست ما را بفهمند و با توجه به آنها واکنش نشاندهند، 35 00:02:02,853 --> 00:02:05,866 مثل هر یک از دوستان ما که هوش احساسی دارد و واکنش نشان میدهد؟ 36 00:02:06,666 --> 00:02:10,230 این سؤالات، من و تیمم را 37 00:02:10,230 --> 00:02:14,607 به ساخت تکنولوژیهایی که بتوانند احساساتِ ما را بخوانند و به آن پاسخ بدهند سوق داد، 38 00:02:14,607 --> 00:02:17,697 و نقطهی شروع ما چهرهی انسانها بود. 39 00:02:18,577 --> 00:02:21,750 چهرهی انسان، یکی از قویترین کانالهاست 40 00:02:21,750 --> 00:02:25,766 که همهی ما از آن استفاده میکنیم، تا حالتهای اجتماعی و احساسی را ابراز کنیم، 41 00:02:25,766 --> 00:02:28,776 همهچیز، شوق و شگفتیِمان، 42 00:02:28,776 --> 00:02:32,979 همدلی و کنجکاویمان. 43 00:02:32,979 --> 00:02:37,907 در دانش احساسات، ما به هر حرکت عضلات صورت یک واحد حرکت میگوییم. 44 00:02:37,907 --> 00:02:40,832 در نتیجه، برای مثال، حرکتِ واحدِ ۱۲، 45 00:02:40,832 --> 00:02:42,870 یک فیلم پرفروش هالیوودی نیست، 46 00:02:42,870 --> 00:02:46,312 بلکه در حقیقت، بالا رفتن گوشهی لب است، که یک جزٔ اصلی لبخند است. 47 00:02:46,312 --> 00:02:49,300 همه امتحانش کنید. بیایید چندین لبخند داشتهباشیم. 48 00:02:49,300 --> 00:02:51,954 مثال دیگر، حرکتِ واحدِ ۴ است، که حرکتِ چروک انداختن ابرو است. 49 00:02:51,954 --> 00:02:54,192 زمانی که شما ابروهایتان را درهم میکشید 50 00:02:54,192 --> 00:02:56,459 و همهی این الگوها و چینها را میسازید. 51 00:02:56,459 --> 00:03:00,754 ما اخم را دوست نداریم، ولی این حرکت نشانگری قوی برای احساسات منفی است. 52 00:03:00,754 --> 00:03:02,960 ما حدود ۴۵ واحد حرکتی داریم، 53 00:03:02,960 --> 00:03:06,350 و همهی آنها با هم ترکیب میشوند تا صدها احساس را ابراز و بیان کنند. 54 00:03:06,350 --> 00:03:10,251 آموزش خواندن احساسات چهره به یک کامپیوتر سخت است، 55 00:03:10,251 --> 00:03:13,223 زیرا این واحدهای حرکتی میتوانند سریع، دقیق، و ماهرانه باشند. 56 00:03:13,223 --> 00:03:15,777 و به شکلهای مختلف با هم ترکیب شوند. 57 00:03:15,777 --> 00:03:19,515 برای مثال، لبخند و پوزخند زدن را در نظر بگیرید. 58 00:03:19,515 --> 00:03:23,268 آنها از جهاتی، شبیه به هم هستند، ولی معانی کاملا متفاوتی دارند. 59 00:03:23,268 --> 00:03:24,986 (خندهی حضار) 60 00:03:24,986 --> 00:03:27,990 لبخند مثبت است، 61 00:03:27,990 --> 00:03:29,260 و پوزخند معمولاً منفی. 62 00:03:29,260 --> 00:03:33,136 بعضی اوقات، یک پوزخند میتواند شما را معروف کند. 63 00:03:33,136 --> 00:03:35,960 ولی جداً، برای یک کامپیوتر مهم است که بتواند 64 00:03:35,960 --> 00:03:38,815 دو حالت متفاوت را از هم تشخیص دهد. 65 00:03:38,815 --> 00:03:40,627 حال، ما این کار را چگونه انجام میدهیم؟ 66 00:03:40,627 --> 00:03:42,414 ما به الگوریتمهایمان 67 00:03:42,414 --> 00:03:46,524 دهها مثال از صدها مثالی که مردم در آنها میخندند را میدهیم، 68 00:03:46,524 --> 00:03:49,589 از فرهنگها، سنین، و جنسیتهای متفاوت، 69 00:03:49,589 --> 00:03:52,400 و همین کار را برای پوزخندها انجام میدهیم. 70 00:03:52,400 --> 00:03:53,954 و سپس، با کمک یادگیری عمیق، 71 00:03:53,954 --> 00:03:56,810 الگوریتمْ به همهی این الگوها و چینوچروکها 72 00:03:56,810 --> 00:03:59,390 و تغییرات قالبِ چهرهمان نگاه میکند، 73 00:03:59,390 --> 00:04:02,592 و به طور اساسی یاد میگیرد که همهی لبخندها ویژگیهای مشابهی دارند 74 00:04:02,592 --> 00:04:05,773 و همهی پوزخندها، ویژگیهای ماهرانه، اما متفاوتی دارند. 75 00:04:05,773 --> 00:04:08,141 و دفعهی بعد که یک چهرهی جدید را میبیند، 76 00:04:08,141 --> 00:04:10,440 ضرورتاً میفهمد 77 00:04:10,440 --> 00:04:13,473 که این چهره، ویژگیهای یک لبخند را دارد، 78 00:04:13,473 --> 00:04:17,751 و میگوید: «آها، من این را تشخیص میدهم. این جلوهی یک لبخند است.» 79 00:04:18,381 --> 00:04:21,181 پس بهترین راه برای نشاندادن چگونگی عملکرد این تکنولوژی 80 00:04:21,181 --> 00:04:23,317 اجرای یک نمایش زنده است، 81 00:04:23,317 --> 00:04:27,230 پس من یک داوطلب میخواهم، ترجیحاً فردی با یک صورت. 82 00:04:27,230 --> 00:04:29,564 (خندهی حضار) 83 00:04:29,564 --> 00:04:32,335 کلوی داوطلب امروز ما خواهد بود. 84 00:04:33,325 --> 00:04:37,783 در پنج سالِ گذشته، ما از یک پروژهی تحقیقاتی در MIT، 85 00:04:37,783 --> 00:04:38,939 به یک شرکت تبدیل شدیم، 86 00:04:38,939 --> 00:04:42,131 جایی که تیم من، به سختی کار کردهاست تا این تکنولوژی کار کند، 87 00:04:42,131 --> 00:04:44,540 که چیزی است که میخواهیم در واقعیت بگوییم تا در تئوری. 88 00:04:44,540 --> 00:04:47,210 همچنین ما، آن را کوچک کردهایم تا هستهی موتور احساسات 89 00:04:47,210 --> 00:04:50,530 روی هر دستگاه موبایلِ مجهز به دوربین، مانند این آیپد، کار کند. 90 00:04:50,530 --> 00:04:53,316 پس بیایید امتحانش کنیم. 91 00:04:54,756 --> 00:04:58,680 همانطور که میتوانید مشاهدهکنید، الگوریتم صورت کلوی را یافته است، 92 00:04:58,680 --> 00:05:00,372 پس این جعبهی سفید کادر صورت را نشان میدهد، 93 00:05:00,372 --> 00:05:02,943 که دارد خصوصیات اصلی صورتش را دنبال میکند؛ 94 00:05:02,943 --> 00:05:05,799 ابروهایش، چشمانش، دهانش، و دماغش. 95 00:05:05,799 --> 00:05:08,786 سؤال این است که آیا میتواند احساساتش را نیز شناسایی کند؟ 96 00:05:08,786 --> 00:05:10,457 پس ما دستگاه را تست میکنیم. 97 00:05:10,457 --> 00:05:14,643 اول از همه، صورت بدون احساست را به من نشان بده. بله، عالی است! (خندهی حضار) 98 00:05:14,643 --> 00:05:17,456 حالا او میخندد، این یک خندهی خالص است، عالی است. 99 00:05:17,456 --> 00:05:19,756 میتوانید ببینید که نوار سبز با خندیدن او بزرگ میشود. 100 00:05:19,756 --> 00:05:20,978 این یک خندهی بزرگ بود. 101 00:05:20,978 --> 00:05:24,021 میتوانی کمی ملایم بخندی تا ببینیم کامپیوتر میتواند آن را شناسایی کند؟ 102 00:05:24,021 --> 00:05:26,352 بله، میتواند خندهی ماهرانه را هم به همین ترتیب شناسایی کند. 103 00:05:26,352 --> 00:05:28,477 ما واقعا سخت کار کردهایم تا این کار را انجام دهیم. 104 00:05:28,477 --> 00:05:31,439 و بعد، بالا رفتن ابروها، که نشاندهندهی شگفتی است. 105 00:05:31,439 --> 00:05:35,688 چینخوردگی پیشانی، نشاندهندهی گیجی است. 106 00:05:35,688 --> 00:05:39,695 رو ترش کُن. بله، عالی است. 107 00:05:39,695 --> 00:05:43,188 پس اینها همهی واحدهایِ حرکتیِ متفاوت هستند. چندین حرکت دیگر نیز وجود دارد. 108 00:05:43,188 --> 00:05:45,220 این یک نمایش کوچکشده است. 109 00:05:45,220 --> 00:05:48,368 ما به هر خواندن، یک نقطهی دادهی احساسات میگوییم. 110 00:05:48,368 --> 00:05:51,337 و این نقاط میتوانند با هم ترکیب شوند تا نشاندهندهی احساسات متفاوت باشند. 111 00:05:51,337 --> 00:05:55,990 پس در سمتِ راستِ نمونهی نمایشی-- نشان بده که خوشحالی. 112 00:05:55,990 --> 00:05:57,444 این شوق است. شوق زیاد میشود. 113 00:05:57,444 --> 00:05:59,371 و حالا به من یک صورت منزجر نشان بده. 114 00:05:59,371 --> 00:06:03,643 احساست را، زمانی که زِین، گروهِ واندایرِکشن را ترک کرد، به خاطر بیاور. 115 00:06:03,643 --> 00:06:05,153 (خندهی حضار) 116 00:06:05,153 --> 00:06:09,495 بله، دماغت را چین بده. عالی است. 117 00:06:09,495 --> 00:06:13,226 و نشانگر ظرفیت تا حدودی منفی شد، پس حتما یک طرفدار واقعی هستی. 118 00:06:13,226 --> 00:06:15,926 معیارِ ظرفیت، مثبت یا منفی بودنِ تجربه را نشان میدهد، 119 00:06:15,926 --> 00:06:18,712 و معیارِ درگیری نشاندهندهی تأثیری است که حالت صورت فرد خواهد گذاشت. 120 00:06:18,712 --> 00:06:22,126 پس زمانی را تصور کنید که کلوی به این رشتهی احساسات بیدرنگ دسترسی داشت، 121 00:06:22,126 --> 00:06:24,935 و میتوانست آن را با هر کسی که میخواهد در میان بگذارد. 122 00:06:24,935 --> 00:06:27,858 متشکرم. 123 00:06:27,858 --> 00:06:32,479 (تشویق حضار) 124 00:06:33,749 --> 00:06:39,019 تابهحال، ما ۱۲ میلیارد از این نقاطِ احساسی را جمعآوری کردهایم. 125 00:06:39,019 --> 00:06:41,630 این مجموعه، بزرگترین پایگاهدادهی احساسات در دنیاست. 126 00:06:41,630 --> 00:06:44,593 آن را از ۲/۹ میلیون ویدیوی چهره جمعآوری کردهایم، 127 00:06:44,593 --> 00:06:47,193 که شرکتکنندگان با در اختیار گذاشتن احساساتشان موافقت کردهاند، 128 00:06:47,193 --> 00:06:50,398 و از ۷۵ کشور در سراسر جهان شرکت کردهاند. 129 00:06:50,398 --> 00:06:52,113 این مجموعه، هر روز رو به رشد است. 130 00:06:52,603 --> 00:06:54,670 مغزم منفجر میشود، 131 00:06:54,670 --> 00:06:57,865 زمانی که فکر میکنم که ما میتوانیم چیزی خصوصی مانند احساسات را 132 00:06:57,865 --> 00:07:00,100 تا این حد، اندازه بگیریم. 133 00:07:00,100 --> 00:07:02,277 تا به حال چه آموختهایم؟ 134 00:07:03,057 --> 00:07:05,388 جنسیت. 135 00:07:05,388 --> 00:07:09,034 دادههای ما، چیزهایی که ممکن است در آنها شک داشته باشید را، تأیید میکنند. 136 00:07:09,034 --> 00:07:10,891 خانمها از آقایان واضحتر ابراز احساسات میکنند. 137 00:07:10,891 --> 00:07:13,574 نه تنها بیشتر لبخند میزنند، بلکه لبخندهایشان با دوامتر است. 138 00:07:13,574 --> 00:07:16,478 و ما میتوانیم ارزیابی کنیم، که زنان و مردان به چه چیزهایی 139 00:07:16,478 --> 00:07:18,614 واکنشهای متفاوتی نشان میدهند. 140 00:07:18,614 --> 00:07:20,904 بیایید فرهنگ را بررسی کنیم: در ایالات متحده، 141 00:07:20,904 --> 00:07:24,108 زنان ۴۰ درصد بیشتر از مردان در بیان احساسات خود گویا هستند، 142 00:07:24,108 --> 00:07:27,753 ولی به شکل عجیبی، هیچ تفاوتی بین زنان و مردان در انگلستان، مشاهده نمیشود. 143 00:07:27,753 --> 00:07:30,259 (خندهی حضار) 144 00:07:31,296 --> 00:07:35,323 سن: کسانی که ۵۰ سال یا بیشتر سن دارند، 145 00:07:35,323 --> 00:07:38,759 ۲۵ درصد بیشتر از افراد جوانتر احساساتی هستند. 146 00:07:39,899 --> 00:07:43,751 زنان در دههی بیستسالگیشان، بسیار بیشتر از مردان با سن مشابه لبخند میزنند. 147 00:07:43,751 --> 00:07:47,590 شاید این یکی از الزامات معاشرت است. 148 00:07:47,590 --> 00:07:50,207 اما شاید آنچه از بیشتر دربارهی این دادهها شگفتزدهمان کرد 149 00:07:50,207 --> 00:07:53,410 این بود که ما در تمام مدت در حال ابرازِ احساساتیم، 150 00:07:53,410 --> 00:07:56,243 حتی زمانی که به تنهایی در مقابل دستگاهمان نشستهایم، 151 00:07:56,243 --> 00:07:59,517 و نه تنها زمانی که داریم ویدیوی یک گربه را در فیسبوک میبینیم، بلکه همیشه. 152 00:08:00,217 --> 00:08:03,227 ما هنگام ایمیل زدن،پیامک زدن، خرید آنلاین، 153 00:08:03,227 --> 00:08:05,527 یا حتی پرداخت مالیات، در حال ابراز احساساتیم. 154 00:08:05,527 --> 00:08:07,919 امروزه، این دادهها در کجا استفاده میشود؟ 155 00:08:07,919 --> 00:08:10,682 در فهم این که ما چگونه با رسانهها در ارتباطیم، 156 00:08:10,682 --> 00:08:13,166 در فهم الگوهای اشتراکگذاریِ ویدیوها و رأی دادن؛ 157 00:08:13,166 --> 00:08:15,906 و همچنین قدرت دادن یا احساسی کردن تکنولوژی، 158 00:08:15,906 --> 00:08:20,527 میخواهم چند مثال با شما در میان بگذارم که قلبم را درهم میفشارند. 159 00:08:21,197 --> 00:08:24,265 عینکهای هوشمند از نظر احساسات میتوانند به افرادی که 160 00:08:24,265 --> 00:08:27,493 از نظر بینایی مشکل دارند، در فهمِ احساساتِ دیگران، یاری برسانند، 161 00:08:27,493 --> 00:08:31,680 و به افراد مبتلا به اوتیسم نیز در قالبِ مترجم احساسات کمک کنند، 162 00:08:31,680 --> 00:08:34,458 مشکلی که واقعاً این افراد دارند با آن دست و پنجه نرم میکنند. 163 00:08:35,918 --> 00:08:38,777 در آموزش: اگر شما در حال یادگیری هستید، اپلیکیشنها 164 00:08:38,777 --> 00:08:41,587 سردرگمی شما را احساس میکنند و سرعتشان کم میشود. 165 00:08:41,587 --> 00:08:43,444 یا اگر حوصلهتان سر رفته سرعتشان بالا میرود، 166 00:08:43,444 --> 00:08:46,413 مانند یک معلم عالی در کلاس درس. 167 00:08:47,043 --> 00:08:49,644 چه میشد اگر ساعت مچی شما احساساتتان را درک میکرد، 168 00:08:49,644 --> 00:08:52,337 یا ماشینتان میفهمید که شما خسته هستید، 169 00:08:52,337 --> 00:08:54,885 یا یخچالتان میفهمید که شما مضطرب هستید، 170 00:08:54,885 --> 00:09:00,951 و بهطور خودکار بسته میشد تا از پرخوری شما جلوگیری کند. (خندهی حضار) 171 00:09:00,951 --> 00:09:03,668 من این را دوست دارم، بله. 172 00:09:03,668 --> 00:09:05,595 چه میشد اگر زمانی که من در کمبریج بودم، 173 00:09:05,595 --> 00:09:07,908 به رشتهی احساسات بیدرنگم دسترسی داشتم، 174 00:09:07,908 --> 00:09:11,437 و میتوانستم آن را با خانوادهام در خانه به صورت طبیعی در میان بگذارم، 175 00:09:11,437 --> 00:09:15,408 همانطور که انگار با آنها در یک اتاق هستم؟ 176 00:09:15,408 --> 00:09:18,550 فکر میکنم که ۵ سال دیگر از الان، 177 00:09:18,550 --> 00:09:20,887 همهی وسایل ما یک تراشهی احساسات خواهند داشت، 178 00:09:20,887 --> 00:09:24,951 و ما دیگر زمانی را بهیاد نمیآوریم که نمیتوانستیم به وسیلهمان اخم کنیم، 179 00:09:24,951 --> 00:09:29,200 و وسیلهمان به ما میگوید: «هممم، این را دوست نداشتی، نه؟» 180 00:09:29,200 --> 00:09:32,961 بزرگترین چالش ما کاربردهای زیاد این تکنولوژی است. 181 00:09:32,961 --> 00:09:35,864 من و تیمم به این نتیجه رسیدیم که نمیتوانیم همهی اپلیکیشنها را خودمان بسازیم، 182 00:09:35,864 --> 00:09:39,360 پس این تکنولوژی را در دسترس قرار دادیم تا سایر توسعهدهندگان 183 00:09:39,360 --> 00:09:41,474 بتوانند این برنامهها را بسازند و خلاق باشند. 184 00:09:41,474 --> 00:09:45,560 ما متوجه شدیم که امکان خطر 185 00:09:45,560 --> 00:09:47,627 و همچنین سؤاستفاده وجود دارد، 186 00:09:47,627 --> 00:09:50,576 ولی بهشخصه، بعد از چندین سال انجام این کار، 187 00:09:50,576 --> 00:09:53,548 باور دارم که این تکنولوژی مزایایی برای انسانیت دارد 188 00:09:53,548 --> 00:09:55,823 و داشتن تکنولوژی هوشمند احساسی 189 00:09:55,823 --> 00:09:59,399 ارزشمندتر امکان سؤاستفاده است. 190 00:09:59,399 --> 00:10:01,930 من شما را دعوت میکنم که بخشی از این گفتوگو شوید. 191 00:10:01,930 --> 00:10:04,484 این که افراد بیشتری دربارهی این تکنولوژی بدانند، 192 00:10:04,484 --> 00:10:07,661 کمک میکند تا بیشتر بتوانیم بگوییم که چگونه از آن استفاده میشود. 193 00:10:09,081 --> 00:10:13,655 همانطور که زندگیمان بیشتر و بیشتر دیجیتالی میشود، 194 00:10:13,655 --> 00:10:17,153 در یک جنگ شکست خورده مبارزه میکنیم تا از استفاده از وسایل در زندگیمان کم کنیم 195 00:10:17,153 --> 00:10:19,382 به این منظور که احساساتمان را بازگردانیم. 196 00:10:20,622 --> 00:10:24,536 چیزی که من در عوض برایش تلاش میکنم این است که احساسات را به درون تکنولوژی بیاورم 197 00:10:24,536 --> 00:10:26,765 و کاری کنم که تکنولوژیهایمان پاسخگوتر باشد. 198 00:10:26,765 --> 00:10:29,435 پس میخواهم وسایلی که ما را از هم جدا کردهاند، 199 00:10:29,435 --> 00:10:31,897 دوباره ما را به هم بازگردانند. 200 00:10:31,897 --> 00:10:36,485 با انسانی کردن تکنولوژی، این فرصت طلایی را داریم 201 00:10:36,485 --> 00:10:39,782 که دوباره دربارهی ارتباطمان با ماشینها فکر کنیم، 202 00:10:39,782 --> 00:10:44,263 و در نهایت، این که چگونه ما، به عنوان انسانها، 203 00:10:44,263 --> 00:10:46,167 با یکدیگر ارتباط برقرار میکنیم. 204 00:10:46,167 --> 00:10:48,327 متشکرم. 205 00:10:48,327 --> 00:10:51,640 (تشویق حضار)