Return to Video

This app knows how you feel -- from the look on your face

  • 0:01 - 0:05
    Cảm xúc của chúng ta ảnh hưởng tới
    mọi khía cạnh của cuộc sống,
  • 0:05 - 0:08
    từ sức khoẻ và học tập,
    cho đến làm thế nào để kinh doanh và ra các quyết định,
  • 0:08 - 0:10
    những điều lớn lao và nhỏ bé.
  • 0:11 - 0:14
    Cảm xúc của chúng ta cũng ảnh hưởng tới
    cách mà chúng ta giao tiếp với người khác.
  • 0:15 - 0:19
    Chúng ta đã tiến hoá để sống
    trong một thế giới như thế này,
  • 0:19 - 0:23
    nhưng thay vào đó, chúng ta đang ngày càng
    sống giống như thế này --
  • 0:23 - 0:27
    đây là tin nhắn từ con gái tôi tối qua--
  • 0:27 - 0:29
    trong một thế giới mà ở đó không có cảm xúc
  • 0:29 - 0:31
    Vì thế tôi có nhiệm vụ thay đổi điều đó.
  • 0:31 - 0:35
    Tôi muốn mang cảm xúc trở lại
    trong các trải nghiệm trên thiết bị điện tử.
  • 0:36 - 0:39
    Tôi đã bắt đầu công việc này từ 15 năm về trước.
  • 0:39 - 0:41
    Tôi mà một nhà khoa học về máy tính ở Ai Cập,
  • 0:41 - 0:46
    và tôi đã được chấp nhận vào chương trình tiến sĩ
    tại Đại học tổng hợp Cambridge.
  • 0:46 - 0:48
    Vì thế tôi đã làm một số điều không bình thường
  • 0:48 - 0:52
    đối với một người vợ trẻ mới cưới theo đạo hồi ở Ai Cập:
  • 0:54 - 0:57
    Với sự ủng hộ từ chồng tôi,
    anh đã phải ở lại Ai Cập
  • 0:57 - 1:00
    Tôi đã sắp xếp hành lý và đi tới Anh
  • 1:00 - 1:03
    tại Đại học Cambridge, cách xa nhà hàng nghìn cây số,
  • 1:03 - 1:06
    Tôi đã nhận ra rằng tôi đã dành nhiều thời gian
    cho cái máy tính xách tay của tôi
  • 1:06 - 1:08
    hơn là giao tiếp với mọi người xung quanh.
  • 1:08 - 1:13
    Cho dù gần gũi như vậy, nhưng cái máy tính của tôi
    hoàn toàn không biết cảm giác của tôi thế nào
  • 1:13 - 1:17
    Nó không hiểu là tôi hạnh phúc,
  • 1:17 - 1:20
    có một ngày tồi tệ, hoặc căng thẳng, bối rối,
  • 1:20 - 1:22
    và thật là vô dụng.
  • 1:24 - 1:29
    Thậm chí tồi tệ hơn, khi tôi nói chuyện trực tiếp
    với gia đình của tôi ở nhà,
  • 1:29 - 1:33
    Tôi cảm giác rằng toàn bộ cảm xúc của tôi
    đã tiêu biến đi trong không gian ảo.
  • 1:33 - 1:38
    Tôi dã nhớ nhà, tôi cảm thấy cô đơn,
    và vào một số ngày thực sự tôi đã khóc,
  • 1:38 - 1:43
    nhưng cái thứ mà tôi phải dùng để giao tiếp
    chỉ là những thứ như thế này.
  • 1:43 - 1:45
    (Khán giả cười)
  • 1:45 - 1:50
    Công nghệ hiện này có quá nhiều thứ về IQ,
    nhưng chưa đề cập tới EQ;
  • 1:50 - 1:53
    có rất nhiều trí tuệ nhân tạo về nhận thức,
    nhưng không có trí tuệ nhân tạo về cảm xúc.
  • 1:53 - 1:55
    Vì thế điều đó đã khiến tôi suy nghĩ,
  • 1:55 - 1:59
    Điều gì sẽ sảy ra nếu công nghệ có thể
    cảm nhận được cảm xúc của chúng ta?
  • 1:59 - 2:03
    Điều gì sẽ sảy ra nếu các thiết bị có thể cảm nhận được
    chúng ta đang cảm thấy thế nào và đáp ứng lại một cách hợp lý,
  • 2:03 - 2:06
    liệu có thể đáp lại theo cách mà một người bạn có cảm xúc?
  • 2:07 - 2:10
    Những câu hỏi này đã dẫn dắt tôi và nhóm của tôi
  • 2:10 - 2:15
    sáng tạo ra các công nghệ mà chúng có thể đọc
    và đáp ứng lại cảm xúc của chúng ta,
  • 2:15 - 2:18
    và khởi đầu của chúng tôi là từ khuôn mặt của con người.
  • 2:19 - 2:22
    Vì khuôn mặt của chúng ta là một trong những
    kênh mạnh mẽ nhất
  • 2:22 - 2:26
    để tất cả chúng ta tạo ra các trạng thái
    giao tiếp xã hội và cảm xúc,
  • 2:26 - 2:29
    tất cả mọi thứ từ hứng thú, ngạc nhiên,
  • 2:29 - 2:33
    đồng cảm và tò mò.
  • 2:33 - 2:38
    Trong khoa học về cảm xúc, chúng tôi gọi mỗi
    một chuyển động cơ mặt mà một đơn vị hành động.
  • 2:38 - 2:41
    Vì thế, ví dụ như đơn vị hành động số 12,
  • 2:41 - 2:43
    nó không phải là một bộ phim bom tất của Hollywood,
  • 2:43 - 2:46
    mà thực sự nó là một cái nhếch môi,
    đây là một thành tố chính của một nụ cười.
  • 2:46 - 2:49
    Mọi người hày làm thử xem nào. Hãy để những
    nụ cười tiếp tục.
  • 2:49 - 2:52
    Một ví dụ khác là đơn vị hành động số 4,
    nó có nghĩa là cái nhíu lông mày.
  • 2:52 - 2:54
    Đó là khi bạn kéo lông mày của bạn cùng lúc
  • 2:54 - 2:56
    và bạn đã tạo ra các kết cấu và nếp nhăn này.
  • 2:56 - 3:01
    Chúng ta không thích chúng, nhưng đây là những
    chỉ điểm mạnh mẽ cho một cảm xúc tiêu cực.
  • 3:01 - 3:03
    Như vậy chúng ta có khoảng 45 đơn vị hành động loại này,
  • 3:03 - 3:06
    và chúng kết hợp với nhau để bộc lộ
    hàng trăm cảm xúc khác nhau.
  • 3:06 - 3:10
    Dạy cho máy tinhd đọc được những cảm xúc
    của khuôn mặt này thật khó,
  • 3:10 - 3:13
    bởi vì những đơn vị hành động này,
    chúng có thể diễn ra rất nhanh, tinh tế,
  • 3:13 - 3:16
    và chúng được kết hợp bằng rất nhiều cách khác nhau,
  • 3:16 - 3:20
    Vì thế thử lấy một ví dụ về
    nụ cười thoải mái và nụ cười bực bội.
  • 3:20 - 3:23
    Trông chúng có vẻ giống nhau,
    nhưng thực tế chúng có ý nghĩa rất khác nhau.
  • 3:23 - 3:25
    (Khán giả cười)
  • 3:25 - 3:28
    Trong khi cười thoải mái có ý nghĩa tích cực,
  • 3:28 - 3:29
    thì cười bực bội thường là tiêu cực.
  • 3:29 - 3:33
    Đôi khi cười bực bội có thể khiến bạn
    trở nên nổi tiếng.
  • 3:33 - 3:36
    Nhưng, rất quan trọng đối với máy tính
    để chúng có thể
  • 3:36 - 3:39
    đưa ra sự khác biệt giữa 2 cách
    biểu lộ cảm xúc đo.
  • 3:39 - 3:41
    Vậy thì làm thế nào để chúng tôi làm được điều đó?
  • 3:41 - 3:42
    Chúng tôi đưa ra các thuật toán cảu chúng tôi
  • 3:42 - 3:47
    với hàng ngàn ví dụ mà chúng ta biết về
    nụ cười của mọi người,
  • 3:47 - 3:50
    với sự khác nhau về dân tộc, tuổi tác, giới tính,
  • 3:50 - 3:52
    và chúng tôi cũng làm giống như vậy đối với nụ cười bực bội.
  • 3:52 - 3:54
    Và sau đó, phân tích thật kỹ càng,
  • 3:54 - 3:57
    thuật toán đã tìm kiếm toàn bộ các kết cấu và nếp nhăn
  • 3:57 - 3:59
    và các hình dạng thay đổi trên khuôn mặt của chúng ta,
  • 3:59 - 4:03
    và nhận thấy về cơ bản tất cả các nụ cười đều
    có những đặc tính chung,
  • 4:03 - 4:06
    toàn bộ nhụ cười bực bội có các đặc tính khác biệt.
  • 4:06 - 4:08
    Và với lần sau khi máy tính nhìn vào một khuôn mặt mới,
  • 4:08 - 4:10
    nó có thể nhận ra thực tế là
  • 4:10 - 4:13
    khuôn mặt này có các đặc tính giống với một nụ cười,
  • 4:13 - 4:18
    và nó sẽ nói răng, "Ồ, tôi đã nhận ra điều này.
    Đây là cách biểu lộ một nụ cười."
  • 4:18 - 4:21
    Vậy thì cách tốt nhất để mô tả công nghệ này
    hoạt động như thế nào
  • 4:21 - 4:23
    là chúng ta thử nghiệm trực tiếp tại đây,
  • 4:23 - 4:27
    nào bây giờ tôi cần một tình nguyện viên,
    ưu tiên ai đó có một cái mặt.
  • 4:27 - 4:30
    (Khán giả cười)
  • 4:30 - 4:32
    Chị Cloe sẽ là tình nguyện viên của chúng ta hôm nay.
  • 4:33 - 4:38
    Vì lẽ đó mà trong vòng 5 năm qua, chúng tôi đã
    chuyển một dự án nghiên cứu tại MIT
  • 4:38 - 4:39
    thành một công ty,
  • 4:39 - 4:42
    mà ở đó nhóm của tôi đã làm việc rất vất vả
    để khiến cho công nghệ này hoạt động,
  • 4:42 - 4:45
    như là cách mà chúng tôi muốn nói, bằng một cách hoang dại.
  • 4:45 - 4:47
    Và chugns tôi cũng đã rút gọn chúng lại
    để làm sao các thành phần cảm xúc cốt lõi
  • 4:47 - 4:51
    có thể hoạt động với bất kỳ thiết bị di động nào
    có camera, giống như chiếc iPad này.
  • 4:51 - 4:53
    Giờ chúng ta cùng thử nghiệm.
  • 4:55 - 4:59
    Như các bạn thấy, thuật toán về cơ bản đã
    tìm ra khuôn mặt của chi Chloe,
  • 4:59 - 5:00
    đó là khung bao màu trắng,
  • 5:00 - 5:03
    và nó theo dõi các điểm đặc tính chính trên
    khuôn mặt của cô ấy,
  • 5:03 - 5:06
    đó là lông mày, mắt, miệng và mũi của cô ấy.
  • 5:06 - 5:09
    Câu hỏi ở đây là,
    liệu nó có thể nhận biết được các biểu lộ của cô ấy?
  • 5:09 - 5:10
    Nào giờ chúng ta cùng thử nghiệm cái máy này.
  • 5:10 - 5:15
    Trước tiên, hãy cho chúng tôi thấy một bộ mặt phớt đời.
    Vâng, tuyệt vời. (Khán giả cười)
  • 5:15 - 5:17
    Và sau đây là cô ấy cười,
    một nụ cười thực sự, thật tuyệt.
  • 5:17 - 5:20
    Như vậy các bạn đã nhìn thấy các cột màu xanh tăng lên
    khi mà cô ấy cười.
  • 5:20 - 5:21
    Nào bây giờ là một nụ cười lớn.
  • 5:21 - 5:24
    Bạn có thể thể hiện một nụ cười thật tinh tế
    để xem máy tính có nhận ra không?
  • 5:24 - 5:26
    Nó cũng đã nhận ra một nụ cười tinh tế.
  • 5:26 - 5:28
    Chúng tôi đã làm việc rất vất vả
    để tạo ra điều này.
  • 5:28 - 5:31
    Và khi lông mày nhếc lên,
    đó là chỉ điểm của sự ngạc nhiên.
  • 5:31 - 5:36
    Cái nhíu mày là chỉ điểm của sự bối rối.
  • 5:36 - 5:40
    Cái cau mày. Đúng, tuyệt vời.
  • 5:40 - 5:43
    Có thể thấy đây là toàn bộ những đơn vị hành động khác nhau.
    Thực tế chúng còn có nhiều hơn nữa.
  • 5:43 - 5:45
    Đây chỉ là một trình diễn đơn giản.
  • 5:45 - 5:48
    Nhưng chúng ta có thể coi mỗi một lần đọc cảm xúc
    là một điểm dữ liệu,
  • 5:48 - 5:51
    và sau đó chúng có thể tổng hợp lại
    và đưa ra một chân dung với các cảm xúc khác nhau.
  • 5:51 - 5:56
    Vì thế ở phía bên phải của bản trình diễn--
    giống như là bạn đang hạnh phúc.
  • 5:56 - 5:57
    Vì thế sự vui mừng đó. Vui mừng được bùng phát lên.
  • 5:57 - 5:59
    Và sau đó làm cho tôi mọt bộ mặt ghê tởm.
  • 5:59 - 6:04
    Cố gắng nhớ tới điều đó đã như thế nào
    khi Zayn rời khỏi One Direction.
  • 6:04 - 6:05
    (Khán giả cười)
  • 6:05 - 6:09
    Vâng, nào hãy nhăn mũi. Tuyệt vời.
  • 6:09 - 6:13
    Và trị số tương đối là âm tính, vì thế bạn
    chắc phải là một người hâm mộ lớn.
  • 6:13 - 6:16
    Vì thế trị số chỉ ra những trải nghiệm tích cực
    hoặc tiêu cực như thế nào,
  • 6:16 - 6:19
    và sự tham gia cũng là cách biểu lộ của cô ấy.
  • 6:19 - 6:22
    Vì thế tưởng tượng rằng chị Chloe tham gia
    vào chuỗi cảm xúc thực này,
  • 6:22 - 6:25
    và chị ấy có thể chia sẻ not với
    bất kỳ ai mà chị ấy muốn.
  • 6:25 - 6:28
    Cảm ơn.
  • 6:28 - 6:32
    (Khán giả vỗ tay)
  • 6:34 - 6:39
    Cho tới nay, chúng tôi đã tích lỹ được
    khoảng 12 tỷ dữ liệu cảm xúc như vậy.
  • 6:39 - 6:42
    Đây là một cơ sở dữ liệu cảm xúc lớn nhất thế giới.
  • 6:42 - 6:45
    Chúng tôi đã thu thập nó từ
    khoảng hơn 2,9 triệu video về khuôn mặt,
  • 6:45 - 6:47
    của những người đã đồng ý chia sẻ
    những cảm xúc của họ với chúng tôi,
  • 6:47 - 6:50
    và họ đến từ 75 quốc gia trên thế giới.
  • 6:50 - 6:52
    Nó gia tăng từng ngày.
  • 6:53 - 6:55
    Nó đã thổi bay tâm trí của tôi
  • 6:55 - 6:58
    theo đó chúng tôi giờ đây có thể lượng hoá
    một số cảm xúc cá nhân của chúng ta,
  • 6:58 - 7:00
    và chúng tôi có thể thực hiện nó ở mức độ như thế này.
  • 7:00 - 7:02
    Vậy thì chúng tôi đã học được gì cho tới nay?
  • 7:03 - 7:05
    Giới tính.
  • 7:05 - 7:09
    Dữ liệu của chúng tôi đã xác định được một số điều
    mà các bạn có thể hoài nghi.
  • 7:09 - 7:11
    Phụ nữ thường biểu cảm nhiều hơn nam giới.
  • 7:11 - 7:14
    Không chỉ là họ cười nhiều hơn,
    mà nụ cười của họ còn kéo dài hơn,
  • 7:14 - 7:16
    và chúng tôi giờ đây có thể thực sự lượng hoá được
    điều gì khiến nam giới và phụ nữ
  • 7:16 - 7:19
    đáp ứng khác nhau.
  • 7:19 - 7:21
    Nào cùng xem xét khía cạnh văn hoá: Ở Mỹ
  • 7:21 - 7:24
    phụ nữ có biểu cảm nhiều hơn nam giới tới 40%,
  • 7:24 - 7:28
    nhưng đáng ngạc nhiên, chúng tôi không thấy sự khác biệt
    giữa nam giới và phụ nữ ở Anh.
  • 7:28 - 7:30
    (Khán giả cười)
  • 7:31 - 7:35
    Độ tuổi: Người trên 50 tuổi
  • 7:35 - 7:39
    biểu lộ cảm xúc nhiều hơn người trẻ 25%.
  • 7:40 - 7:44
    Phụ nữ ở độ tuổi 20 cười nhiều hơn rất nhiều
    so với nam giới ở cùng độ tuổi,
  • 7:44 - 7:48
    có thể đó là điều cần thiết cho việc hẹn hò.
  • 7:48 - 7:50
    Nhưng có thế điều mà gây cho chúng tôi nhiều
    ngạc nhiên nhất về số liệu này
  • 7:50 - 7:53
    đó là chúng ta luôn luôn biểu lộ cảm xúc,
  • 7:53 - 7:56
    thậm chí ngay cả khi chúng ta ngồi
    một mình trước các thiết bị điện tử,
  • 7:56 - 8:00
    và không chỉ là khi chúng ta đang xem
    một video về mèo trên Facebook.
  • 8:00 - 8:03
    Chúng ta bộc lộ cảm xúc khi chúng ta gửi thư điện tử,
    chúng ta nhắn tin, chúng ta mua bán trực tuyến,
  • 8:03 - 8:06
    và thậm chí khi chúng ta khai báo thuế.
  • 8:06 - 8:08
    Vậy thì số liệu này được dùng ở đâu hiện nay?
  • 8:08 - 8:11
    để hiểu biết việc chúng ta liên hệ thế nào với truyền thông,
  • 8:11 - 8:13
    hiểu về mức độ là truyền
    và thái độ bỏ phiếu,
  • 8:13 - 8:16
    và cũng là làm mạnh mẽ và khả thi hơn công nghệ về cảm xúc,
  • 8:16 - 8:21
    và tôi muốn chia sẻ một vài ví dụ
    mà chúng đặc biệt nằm trong trái tim tôi.
  • 8:21 - 8:24
    Một chiếc kính cảm xúc có thể giúp người mù

  • 8:24 - 8:27
    đọc được cảm xúc trên mặt người khác,
  • 8:27 - 8:32
    và nó có thể giúp những người tự kỷ
    thể hiện cảm xúc của họ,
  • 8:32 - 8:34
    những điều mà họ thực sự phải đối mặt.
  • 8:36 - 8:39
    Đối với giáo dục, tưởng tượng rằng
    ứng dụng học tập của bạn
  • 8:39 - 8:42
    có thể cảm nhận được là bạn đang bối rối và đang đuối sức,
  • 8:42 - 8:43
    hoặc khi bạn cảm thấy nhàm chán,
    thì nó sẽ tăng tốc lên,
  • 8:43 - 8:46
    giống như là một giáo viên tuyệt với ở lớp vậy.
  • 8:47 - 8:50
    Đó là khi đồng hồ đeo tay của bạn
    sẽ theo dõi cảm xúc của bạn,
  • 8:50 - 8:52
    hoặc ô tô của bản cảm nhận được bạn đang mệt mỏi,
  • 8:52 - 8:55
    hoặc có thể tủ lạnh của bạn biết rằng
    bạn đang căng thẳng
  • 8:55 - 9:01
    vì thế nó sẽ tự động khoá lại
    giúp bạn tránh được ăn uống vô độ. (Khán giả cười)
  • 9:01 - 9:04
    Tất nhiên tôi thích điều đó.
  • 9:04 - 9:06
    Đó là, khi tôi ở Cambridge,
  • 9:06 - 9:08
    Tôi đã tạo ra một dòng cảm xúc theo thời gian thực,
  • 9:08 - 9:11
    và có thể chia sẻ nó với gia đình tại quê nhà
    theo một cách tự nhiên nhất,
  • 9:11 - 9:15
    nó giống như tất cả chúng tôi đang
    ở trong một căn phòng với nhau vậy phải không?
  • 9:15 - 9:19
    Tôi nghĩ rằng trong vòng 5 năm nữa,
  • 9:19 - 9:21
    toàn bộ các thiết bị điện tử
    sẽ có các con chíp cảm xúc,
  • 9:21 - 9:25
    và chúng ta không nhớ điều đó đã thế nào
    khi chúng ta không nhíu mày trước thiết bị điện tử
  • 9:25 - 9:29
    và cái thiết bị điện tử của chúng ta sẽ nói: "Hừm,
    bạn đã không thích điều đó, phải không?"
  • 9:29 - 9:33
    Trở ngại lớn nhất của chúng tôi hiện nay là
    có quá nhiều các ứng dụng của công nghệ này,
  • 9:33 - 9:36
    tôi và nhóm của tôi nhận ra rằng
    chúng tôi không thể tự phát triển toàn bộ chúng,
  • 9:36 - 9:39
    do đó chúng tôi đã làm cho công nghệ này sẵn sàng
    để các nhà phát triển khác
  • 9:39 - 9:41
    có thể tiếp tục xây dựng và sáng tạo.
  • 9:41 - 9:46
    Chúng tôi nhìn nhận rằng
    có những rủi ro tiềm ẩn
  • 9:46 - 9:48
    và những sự lạm dụng tiềm ẩn,
  • 9:48 - 9:51
    nhưng về cá nhân tôi, khi đã dành rất nhiều năm cho nó,
  • 9:51 - 9:54
    tôi tin tưởng rằng các lợi ích mang lại cho con người
  • 9:54 - 9:56
    từ công nghệ cảm xúc thông minh
  • 9:56 - 9:59
    vượt xa ngoài những rủi ro tiềm ẩn.
  • 9:59 - 10:02
    Và tôi xin mời toàn bộ các bạn tham gia vào cuộc thảo luận này.
  • 10:02 - 10:04
    Càng nhiều người biết về công nghệ này,
  • 10:04 - 10:08
    chúng ta sẽ càng có tiếng nói đối với
    việc làm sao để sử dụng đúng công nghệ này.
  • 10:09 - 10:14
    Vì thế khi mà càng ngày cuộc sống của chúng ta
    càng trở nên số hoá,
  • 10:14 - 10:17
    chúng ta đang thua cuộc trong trận chiến
    chống lại việc sử dụng các thiết bị điện tử của chúng ta
  • 10:17 - 10:19
    nhằm dành lại cảm xúc của chúng ta.
  • 10:21 - 10:25
    Vì thế thay vào đó, điều mà tôi đang cố gắng làm
    đó là đưa cảm xúc vào trong công nghệ của chúng ta
  • 10:25 - 10:27
    và làm cho công nghệ của chúng ta trở nên
    tương tác nhiều hơn.
  • 10:27 - 10:29
    Vì thế tôi muốn rằng những thiết bị điện tử
    đang làm chia rẽ chúng ta
  • 10:29 - 10:32
    sẽ mang chúng ta trở lại với nhau.
  • 10:32 - 10:36
    Và bởi những công nghệ phục vụ con người,
    chúng ta có một cơ hội vàng
  • 10:36 - 10:40
    để hình dung lại cách mà chúng ta kết nối với máy móc,
  • 10:40 - 10:44
    và do đó, là những con người, làm thế nào chúng ta
  • 10:44 - 10:46
    kết nối với những người khác.
  • 10:46 - 10:48
    Cảm ơn.
  • 10:48 - 10:52
    (Khán giả vỗ tay)
Title:
This app knows how you feel -- from the look on your face
Speaker:
Rana el Kaliouby
Description:

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Vietnamese subtitles

Revisions