Return to Video

این اپلیکیشن می‎داند شما چطور احساس می‎کنید-- با نگاه کردن به چهره‎تان

  • 0:01 - 0:05
    احساسات ما روی همهی جنبههای زندگیمان
    تأثیر میگذارد،
  • 0:05 - 0:08
    از سلامتی و چگونگی یادگیریمان گرفته،
    تا شیوهی کسب و کار و تصمیمگیریمان،
  • 0:08 - 0:10
    از ریز تا درشت.
  • 0:11 - 0:14
    احساساتمان روی برقراری ارتباطمات
    با دیگران نیز تأثیر میگذارد.
  • 0:15 - 0:19
    ما چنان رشد کردهایم
    تا در جهانی اینچنین زندگی کنیم،
  • 0:19 - 0:23
    ولی در مقابل، بیشتر اینگونه
    زندگی میکنیم --
  • 0:23 - 0:27
    این پیامک را دخترم،
    شب گذشته برایم فرستاده است --
  • 0:27 - 0:29
    در جهانی که خالی از احساسات است.
  • 0:29 - 0:31
    من مأموریت دارم که وضعیت را
    تغییر دهم.
  • 0:31 - 0:35
    میخواهم احساسات را
    به تجربهی دیجیتال بیاورم.
  • 0:36 - 0:39
    این راه را ۱۵ سال پیش آغاز کردم.
  • 0:39 - 0:41
    من یک دانشمند کامپیوتر در مصر بودم،
  • 0:41 - 0:46
    و بهتازگی در یک برنامهی دکترا
    در دانشگاه کمبریج پذیرفته شده بودم.
  • 0:46 - 0:48
    من کاری به نسبت غیر معمول
  • 0:48 - 0:52
    برای یک زن مسلمان مصری تازه عروس
    انجام دادم:
  • 0:54 - 0:57
    با حمایت همسرم که
    باید در مصر میماند
  • 0:57 - 1:00
    چمدانهایم را برداشتم و به انگلیس رفتم.
  • 1:00 - 1:03
    در کمبریج، هزاران مایل
    دور از خانه،
  • 1:03 - 1:06
    فهمیدم که بیشتر ساعات را
    با لپتاپم سپری میکنم
  • 1:06 - 1:08
    تا با دیگر انسانها.
  • 1:08 - 1:13
    با وجود این صمیمیت، لپتاپ من هیچ ایدهای
    دربارهی آنچه من احساس میکردم نداشت.
  • 1:13 - 1:17
    هیچ ایدهای دربارهی این که من خوشحالم
  • 1:17 - 1:20
    روز بدی را گذراندهام، استرس داشتهام،
    یا گیجم،
  • 1:20 - 1:22
    و خب، اینها ناامیدکننده شد.
  • 1:24 - 1:29
    حتی بدتر، هنگامی که با خانوادهام،
    به صورت آنلاین ارتباط برقرار میکردم،
  • 1:29 - 1:33
    احساس میکردم که تمام احساسات من
    در فضای سایبری ناپدید میشوند.
  • 1:33 - 1:38
    من دلتنگ خانه بودم، تنها بودم،
    و بعضی روزها واقعا گریه میکردم،
  • 1:38 - 1:43
    ولی تنها راه ابراز احساساتم
    این شکلک بود.
  • 1:43 - 1:45
    (خندهی حضار)
  • 1:45 - 1:50
    تکنولوژیِ امروز، بهرهی هوشی بالایی دارد
    ولی بهرهی احساسی ندارد؛
  • 1:50 - 1:53
    هوشِ شناختیِ فراوانی دارد،
    ولی هوش احساسی ندارد.
  • 1:53 - 1:55
    این مرا به فکر فرو برد،
  • 1:55 - 1:59
    اگر تکنولوژی میتوانست
    احساسات ما را بفهمد، چه میشد؟
  • 1:59 - 2:03
    چه میشد اگر وسایل ما میتوانستند
    احساست ما را بفهمند و با توجه به آنها واکنش نشاندهند،
  • 2:03 - 2:06
    مثل هر یک از دوستان ما که هوش احساسی دارد
    و واکنش نشان میدهد؟
  • 2:07 - 2:10
    این سؤالات، من و تیمم را
  • 2:10 - 2:15
    به ساخت تکنولوژیهایی که بتوانند احساساتِ
    ما را بخوانند و به آن پاسخ بدهند سوق داد،
  • 2:15 - 2:18
    و نقطهی شروع ما چهرهی انسانها بود.
  • 2:19 - 2:22
    چهرهی انسان، یکی از قویترین کانالهاست
  • 2:22 - 2:26
    که همهی ما از آن استفاده میکنیم، تا
    حالتهای اجتماعی و احساسی را ابراز کنیم،
  • 2:26 - 2:29
    همهچیز، شوق و شگفتیِمان،
  • 2:29 - 2:33
    همدلی و کنجکاویمان.
  • 2:33 - 2:38
    در دانش احساسات، ما به هر حرکت عضلات صورت
    یک واحد حرکت میگوییم.
  • 2:38 - 2:41
    در نتیجه، برای مثال، حرکتِ واحدِ ۱۲،
  • 2:41 - 2:43
    یک فیلم پرفروش هالیوودی نیست،
  • 2:43 - 2:46
    بلکه در حقیقت، بالا رفتن گوشهی لب است،
    که یک جزٔ اصلی لبخند است.
  • 2:46 - 2:49
    همه امتحانش کنید. بیایید
    چندین لبخند داشتهباشیم.
  • 2:49 - 2:52
    مثال دیگر، حرکتِ واحدِ ۴ است،
    که حرکتِ چروک انداختن ابرو است.
  • 2:52 - 2:54
    زمانی که شما ابروهایتان را درهم میکشید
  • 2:54 - 2:56
    و همهی این الگوها و چینها را میسازید.
  • 2:56 - 3:01
    ما اخم را دوست نداریم، ولی این حرکت
    نشانگری قوی برای احساسات منفی است.
  • 3:01 - 3:03
    ما حدود ۴۵ واحد حرکتی داریم،
  • 3:03 - 3:06
    و همهی آنها با هم ترکیب میشوند
    تا صدها احساس را ابراز و بیان کنند.
  • 3:06 - 3:10
    آموزش خواندن احساسات چهره
    به یک کامپیوتر سخت است،
  • 3:10 - 3:13
    زیرا این واحدهای حرکتی میتوانند
    سریع، دقیق، و ماهرانه باشند.
  • 3:13 - 3:16
    و به شکلهای مختلف با هم ترکیب شوند.
  • 3:16 - 3:20
    برای مثال، لبخند و پوزخند زدن را
    در نظر بگیرید.
  • 3:20 - 3:23
    آنها از جهاتی، شبیه به هم هستند،
    ولی معانی کاملا متفاوتی دارند.
  • 3:23 - 3:25
    (خندهی حضار)
  • 3:25 - 3:28
    لبخند مثبت است،
  • 3:28 - 3:29
    و پوزخند معمولاً منفی.
  • 3:29 - 3:33
    بعضی اوقات، یک پوزخند
    میتواند شما را معروف کند.
  • 3:33 - 3:36
    ولی جداً، برای یک کامپیوتر
    مهم است که بتواند
  • 3:36 - 3:39
    دو حالت متفاوت را
    از هم تشخیص دهد.
  • 3:39 - 3:41
    حال، ما این کار را چگونه
    انجام میدهیم؟
  • 3:41 - 3:42
    ما به الگوریتمهایمان
  • 3:42 - 3:47
    دهها مثال از صدها مثالی که
    مردم در آنها میخندند را میدهیم،
  • 3:47 - 3:50
    از فرهنگها، سنین، و جنسیتهای متفاوت،
  • 3:50 - 3:52
    و همین کار را برای پوزخندها
    انجام میدهیم.
  • 3:52 - 3:54
    و سپس، با کمک یادگیری عمیق،
  • 3:54 - 3:57
    الگوریتمْ به همهی این الگوها
    و چینوچروکها
  • 3:57 - 3:59
    و تغییرات قالبِ چهرهمان نگاه میکند،
  • 3:59 - 4:03
    و به طور اساسی یاد میگیرد که
    همهی لبخندها ویژگیهای مشابهی دارند
  • 4:03 - 4:06
    و همهی پوزخندها، ویژگیهای ماهرانه،
    اما متفاوتی دارند.
  • 4:06 - 4:08
    و دفعهی بعد که
    یک چهرهی جدید را میبیند،
  • 4:08 - 4:10
    ضرورتاً میفهمد
  • 4:10 - 4:13
    که این چهره، ویژگیهای یک لبخند را دارد،
  • 4:13 - 4:18
    و میگوید: «آها، من این را تشخیص میدهم.
    این جلوهی یک لبخند است.»
  • 4:18 - 4:21
    پس بهترین راه برای نشاندادن
    چگونگی عملکرد این تکنولوژی
  • 4:21 - 4:23
    اجرای یک نمایش زنده است،
  • 4:23 - 4:27
    پس من یک داوطلب میخواهم،
    ترجیحاً فردی با یک صورت.
  • 4:27 - 4:30
    (خندهی حضار)
  • 4:30 - 4:32
    کلوی داوطلب امروز ما خواهد بود.
  • 4:33 - 4:38
    در پنج سالِ گذشته، ما از یک
    پروژهی تحقیقاتی در MIT،
  • 4:38 - 4:39
    به یک شرکت تبدیل شدیم،
  • 4:39 - 4:42
    جایی که تیم من، به سختی کار کردهاست
    تا این تکنولوژی کار کند،
  • 4:42 - 4:45
    که چیزی است که میخواهیم
    در واقعیت بگوییم تا در تئوری.
  • 4:45 - 4:47
    همچنین ما، آن را کوچک کردهایم
    تا هستهی موتور احساسات
  • 4:47 - 4:51
    روی هر دستگاه موبایلِ مجهز به دوربین،
    مانند این آیپد، کار کند.
  • 4:51 - 4:53
    پس بیایید امتحانش کنیم.
  • 4:55 - 4:59
    همانطور که میتوانید مشاهدهکنید،
    الگوریتم صورت کلوی را یافته است،
  • 4:59 - 5:00
    پس این جعبهی سفید
    کادر صورت را نشان میدهد،
  • 5:00 - 5:03
    که دارد خصوصیات اصلی صورتش را
    دنبال میکند؛
  • 5:03 - 5:06
    ابروهایش، چشمانش، دهانش، و دماغش.
  • 5:06 - 5:09
    سؤال این است که
    آیا میتواند احساساتش را نیز شناسایی کند؟
  • 5:09 - 5:10
    پس ما دستگاه را تست میکنیم.
  • 5:10 - 5:15
    اول از همه، صورت بدون احساست را
    به من نشان بده. بله، عالی است! (خندهی حضار)
  • 5:15 - 5:17
    حالا او میخندد،
    این یک خندهی خالص است، عالی است.
  • 5:17 - 5:20
    میتوانید ببینید که نوار سبز
    با خندیدن او بزرگ میشود.
  • 5:20 - 5:21
    این یک خندهی بزرگ بود.
  • 5:21 - 5:24
    میتوانی کمی ملایم بخندی تا ببینیم
    کامپیوتر میتواند آن را شناسایی کند؟
  • 5:24 - 5:26
    بله، میتواند خندهی ماهرانه را هم
    به همین ترتیب شناسایی کند.
  • 5:26 - 5:28
    ما واقعا سخت کار کردهایم
    تا این کار را انجام دهیم.
  • 5:28 - 5:31
    و بعد، بالا رفتن ابروها،
    که نشاندهندهی شگفتی است.
  • 5:31 - 5:36
    چینخوردگی پیشانی،
    نشاندهندهی گیجی است.
  • 5:36 - 5:40
    رو ترش کُن. بله، عالی است.
  • 5:40 - 5:43
    پس اینها همهی واحدهایِ حرکتیِ متفاوت
    هستند. چندین حرکت دیگر نیز وجود دارد.
  • 5:43 - 5:45
    این یک نمایش کوچکشده است.
  • 5:45 - 5:48
    ما به هر خواندن، یک
    نقطهی دادهی احساسات میگوییم.
  • 5:48 - 5:51
    و این نقاط میتوانند با هم ترکیب شوند
    تا نشاندهندهی احساسات متفاوت باشند.
  • 5:51 - 5:56
    پس در سمتِ راستِ نمونهی نمایشی--
    نشان بده که خوشحالی.
  • 5:56 - 5:57
    این شوق است.
    شوق زیاد میشود.
  • 5:57 - 5:59
    و حالا به من یک صورت منزجر نشان بده.
  • 5:59 - 6:04
    احساست را، زمانی که زِین، گروهِ
    واندایرِکشن را ترک کرد، به خاطر بیاور.
  • 6:04 - 6:05
    (خندهی حضار)
  • 6:05 - 6:09
    بله، دماغت را چین بده. عالی است.
  • 6:09 - 6:13
    و نشانگر ظرفیت تا حدودی منفی شد،
    پس حتما یک طرفدار واقعی هستی.
  • 6:13 - 6:16
    معیارِ ظرفیت، مثبت یا منفی بودنِ تجربه را
    نشان میدهد،
  • 6:16 - 6:19
    و معیارِ درگیری نشاندهندهی تأثیری است
    که حالت صورت فرد خواهد گذاشت.
  • 6:19 - 6:22
    پس زمانی را تصور کنید که کلوی
    به این رشتهی احساسات بیدرنگ دسترسی داشت،
  • 6:22 - 6:25
    و میتوانست آن را با هر کسی که میخواهد
    در میان بگذارد.
  • 6:25 - 6:28
    متشکرم.
  • 6:28 - 6:32
    (تشویق حضار)
  • 6:34 - 6:39
    تابهحال، ما ۱۲ میلیارد از این نقاطِ
    احساسی را جمعآوری کردهایم.
  • 6:39 - 6:42
    این مجموعه، بزرگترین پایگاهدادهی
    احساسات در دنیاست.
  • 6:42 - 6:45
    آن را از ۲/۹ میلیون ویدیوی چهره
    جمعآوری کردهایم،
  • 6:45 - 6:47
    که شرکتکنندگان با در اختیار گذاشتن
    احساساتشان موافقت کردهاند،
  • 6:47 - 6:50
    و از ۷۵ کشور در سراسر جهان
    شرکت کردهاند.
  • 6:50 - 6:52
    این مجموعه،
    هر روز رو به رشد است.
  • 6:53 - 6:55
    مغزم منفجر میشود،
  • 6:55 - 6:58
    زمانی که فکر میکنم که ما میتوانیم
    چیزی خصوصی مانند احساسات را
  • 6:58 - 7:00
    تا این حد، اندازه بگیریم.
  • 7:00 - 7:02
    تا به حال چه آموختهایم؟
  • 7:03 - 7:05
    جنسیت.
  • 7:05 - 7:09
    دادههای ما، چیزهایی که ممکن است
    در آنها شک داشته باشید را، تأیید میکنند.
  • 7:09 - 7:11
    خانمها از آقایان واضحتر
    ابراز احساسات میکنند.
  • 7:11 - 7:14
    نه تنها بیشتر لبخند میزنند،
    بلکه لبخندهایشان با دوامتر است.
  • 7:14 - 7:16
    و ما میتوانیم ارزیابی کنیم،
    که زنان و مردان به چه چیزهایی
  • 7:16 - 7:19
    واکنشهای متفاوتی نشان میدهند.
  • 7:19 - 7:21
    بیایید فرهنگ را بررسی کنیم:
    در ایالات متحده،
  • 7:21 - 7:24
    زنان ۴۰ درصد بیشتر از مردان
    در بیان احساسات خود گویا هستند،
  • 7:24 - 7:28
    ولی به شکل عجیبی، هیچ تفاوتی بین زنان و
    مردان در انگلستان، مشاهده نمیشود.
  • 7:28 - 7:30
    (خندهی حضار)
  • 7:31 - 7:35
    سن: کسانی که ۵۰ سال یا بیشتر
    سن دارند،
  • 7:35 - 7:39
    ۲۵ درصد بیشتر از افراد جوانتر
    احساساتی هستند.
  • 7:40 - 7:44
    زنان در دههی بیستسالگیشان، بسیار بیشتر
    از مردان با سن مشابه لبخند میزنند.
  • 7:44 - 7:48
    شاید این یکی از الزامات معاشرت است.
  • 7:48 - 7:50
    اما شاید آنچه از بیشتر دربارهی این
    دادهها شگفتزدهمان کرد
  • 7:50 - 7:53
    این بود که ما در تمام مدت در حال
    ابرازِ احساساتیم،
  • 7:53 - 7:56
    حتی زمانی که به تنهایی در مقابل دستگاهمان
    نشستهایم،
  • 7:56 - 8:00
    و نه تنها زمانی که داریم ویدیوی یک گربه
    را در فیسبوک میبینیم، بلکه همیشه.
  • 8:00 - 8:03
    ما هنگام ایمیل زدن،پیامک زدن،
    خرید آنلاین،
  • 8:03 - 8:06
    یا حتی پرداخت مالیات،
    در حال ابراز احساساتیم.
  • 8:06 - 8:08
    امروزه، این دادهها
    در کجا استفاده میشود؟
  • 8:08 - 8:11
    در فهم این که ما چگونه با رسانهها
    در ارتباطیم،
  • 8:11 - 8:13
    در فهم الگوهای اشتراکگذاریِ ویدیوها
    و رأی دادن؛
  • 8:13 - 8:16
    و همچنین قدرت دادن یا
    احساسی کردن تکنولوژی،
  • 8:16 - 8:21
    میخواهم چند مثال با شما در میان بگذارم
    که قلبم را درهم میفشارند.
  • 8:21 - 8:24
    عینکهای هوشمند از نظر احساسات
    میتوانند به افرادی که
  • 8:24 - 8:27
    از نظر بینایی مشکل دارند، در فهمِ احساساتِ
    دیگران، یاری برسانند،
  • 8:27 - 8:32
    و به افراد مبتلا به اوتیسم نیز در قالبِ
    مترجم احساسات کمک کنند،
  • 8:32 - 8:34
    مشکلی که واقعاً این افراد دارند با آن
    دست و پنجه نرم میکنند.
  • 8:36 - 8:39
    در آموزش: اگر شما در حال یادگیری هستید،
    اپلیکیشنها
  • 8:39 - 8:42
    سردرگمی شما را احساس میکنند
    و سرعتشان کم میشود.
  • 8:42 - 8:43
    یا اگر حوصلهتان سر رفته
    سرعتشان بالا میرود،
  • 8:43 - 8:46
    مانند یک معلم عالی در کلاس درس.
  • 8:47 - 8:50
    چه میشد اگر ساعت مچی شما
    احساساتتان را درک میکرد،
  • 8:50 - 8:52
    یا ماشینتان میفهمید که شما خسته هستید،
  • 8:52 - 8:55
    یا یخچالتان میفهمید که شما مضطرب هستید،
  • 8:55 - 9:01
    و بهطور خودکار بسته میشد تا
    از پرخوری شما جلوگیری کند. (خندهی حضار)
  • 9:01 - 9:04
    من این را دوست دارم، بله.
  • 9:04 - 9:06
    چه میشد اگر زمانی که من در کمبریج بودم،
  • 9:06 - 9:08
    به رشتهی احساسات بیدرنگم دسترسی داشتم،
  • 9:08 - 9:11
    و میتوانستم آن را با خانوادهام در خانه
    به صورت طبیعی در میان بگذارم،
  • 9:11 - 9:15
    همانطور که انگار
    با آنها در یک اتاق هستم؟
  • 9:15 - 9:19
    فکر میکنم که ۵ سال دیگر از الان،
  • 9:19 - 9:21
    همهی وسایل ما یک تراشهی احساسات
    خواهند داشت،
  • 9:21 - 9:25
    و ما دیگر زمانی را بهیاد نمیآوریم
    که نمیتوانستیم به وسیلهمان اخم کنیم،
  • 9:25 - 9:29
    و وسیلهمان به ما میگوید: «هممم،
    این را دوست نداشتی، نه؟»
  • 9:29 - 9:33
    بزرگترین چالش ما
    کاربردهای زیاد این تکنولوژی است.
  • 9:33 - 9:36
    من و تیمم به این نتیجه رسیدیم که نمیتوانیم
    همهی اپلیکیشنها را خودمان بسازیم،
  • 9:36 - 9:39
    پس این تکنولوژی را در دسترس قرار دادیم
    تا سایر توسعهدهندگان
  • 9:39 - 9:41
    بتوانند این برنامهها را بسازند
    و خلاق باشند.
  • 9:41 - 9:46
    ما متوجه شدیم
    که امکان خطر
  • 9:46 - 9:48
    و همچنین سؤاستفاده وجود دارد،
  • 9:48 - 9:51
    ولی بهشخصه، بعد از
    چندین سال انجام این کار،
  • 9:51 - 9:54
    باور دارم که این تکنولوژی مزایایی برای
    انسانیت دارد
  • 9:54 - 9:56
    و داشتن تکنولوژی هوشمند احساسی
  • 9:56 - 9:59
    ارزشمندتر امکان سؤاستفاده است.
  • 9:59 - 10:02
    من شما را دعوت میکنم
    که بخشی از این گفتوگو شوید.
  • 10:02 - 10:04
    این که افراد بیشتری دربارهی
    این تکنولوژی بدانند،
  • 10:04 - 10:08
    کمک میکند تا بیشتر بتوانیم بگوییم که
    چگونه از آن استفاده میشود.
  • 10:09 - 10:14
    همانطور که زندگیمان
    بیشتر و بیشتر دیجیتالی میشود،
  • 10:14 - 10:17
    در یک جنگ شکست خورده مبارزه میکنیم
    تا از استفاده از وسایل در زندگیمان کم کنیم
  • 10:17 - 10:19
    به این منظور که احساساتمان را بازگردانیم.
  • 10:21 - 10:25
    چیزی که من در عوض برایش تلاش میکنم این
    است که احساسات را به درون تکنولوژی بیاورم
  • 10:25 - 10:27
    و کاری کنم که تکنولوژیهایمان پاسخگوتر باشد.
  • 10:27 - 10:29
    پس میخواهم وسایلی که ما را
    از هم جدا کردهاند،
  • 10:29 - 10:32
    دوباره ما را به هم بازگردانند.
  • 10:32 - 10:36
    با انسانی کردن تکنولوژی،
    این فرصت طلایی را داریم
  • 10:36 - 10:40
    که دوباره دربارهی ارتباطمان
    با ماشینها فکر کنیم،
  • 10:40 - 10:44
    و در نهایت، این که چگونه ما،
    به عنوان انسانها،
  • 10:44 - 10:46
    با یکدیگر ارتباط برقرار میکنیم.
  • 10:46 - 10:48
    متشکرم.
  • 10:48 - 10:52
    (تشویق حضار)
Title:
این اپلیکیشن می‎داند شما چطور احساس می‎کنید-- با نگاه کردن به چهره‎تان
Speaker:
رعنا الکالیوبی
Description:

احساساتمان جنبه‌های مختلف زندگی‌مان را تحت تأثیر قرار می‌دهند - چگونگی یادگیریمان، چگونگی برقراری ارتباطمان، چگونگی تصمیم‌گیریمان. اما احساساتمان در زندگی دیجیتال غایب هستند؛ وسایل و اپلیکیشن‌هایی که با آن‌ها کار می کنیم، نمی‌دانند چه احساسی داریم. دانشمند رعنا الکالیوبی، می‌خواهد این وضعیت را تغییر دهد. او یک نمونه‌ی نمایشی از یک تکنولوژی جدید را نشان می‌دهد که حالات صورت شما را می‌خواند و آن‌ها را با احساسات مربوطه تطبیق می‌دهد. او می‌گوید، این «جست‌و‌جوگر احساسات» پیچیدگی‌های بزرگی دارد، و می‌تواند نه تنها تعامل ما و ماشین‌ها را تغییر دهد، بلکه می‌تواند تعامل ما با یک‌دیگر را نیز تغییر دهد.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Persian subtitles

Revisions