Return to Video

როგორ სწავლობენ კომპიუტერები შემოქმედებას

  • 0:01 - 0:05
    მე Google-ში ვხელმძღვანელობ ჯგუფს,
    რომელიც მანქანურ ინტელექტზე მუშაობს.
  • 0:05 - 0:09
    სხვა სიტყვებით, ესაა საინჟინრო დისციპლინა,
    რომელიც კომპიუტერებს და მოწყობილობებს
  • 0:09 - 0:11
    აკეთებინებს იმას, რასაც ტვინები აკეთებენ.
  • 0:11 - 0:15
    ამიტომ, ჩვენ ნამდვილი ტვინებითაც
  • 0:15 - 0:17
    და ნეირომეცნიერებითაც ვართ დაინტერესებული.
  • 0:17 - 0:20
    განსაკუთრებით ტვინის ისეთი ფუნქციებით,
  • 0:20 - 0:24
    რომლებიც ბევრად აღემატება კომპიუტერებისას.
  • 0:25 - 0:29
    ისტორიულად, ერთ-ერთი ასეთი ფუნქცია აღქმაა.
  • 0:29 - 0:32
    პროცესი, რომლის შედეგადაც
    მსოფლიოში არსებული
  • 0:32 - 0:33
    ხმები და გამოსახულებები,
  • 0:34 - 0:36
    ტვინში წარმოდგენებად იქცევა.
  • 0:36 - 0:39
    ეს ჩვენი ტვინის აუცილებელი ფუნქციაა
  • 0:39 - 0:41
    და კომპიუტერისთვისაც საკმაოდ გამოსადეგი.
  • 0:42 - 0:45
    ჩვენი გუნდის მიერ შექმნილი
    მანქანური აღქმის ალგორითმების მაგალითია,
  • 0:45 - 0:49
    როცა Google-ის ფოტოებში სურათების მოძებნა,
  • 0:49 - 0:51
    მასზე არსებული
    გამოსახულებითაა შესაძლებელი.
  • 0:52 - 0:55
    აღქმის საპირისპირო მხარე შემოქმედებაა.
  • 0:55 - 0:58
    როცა წარმოდგენას რეალობად აქცევთ.
  • 0:58 - 1:02
    გასულ წელს, მანქანურ აღქმაზე მუშაობამ,
  • 1:02 - 1:07
    მოულოდნელად მანქანურ შემოქმედებასთან
  • 1:07 - 1:09
    და მანქანურ ხელოვნებასთან დაგვაკავშირა.
  • 1:09 - 1:12
    ვფიქრობ, მიქელანჯელოს აზრი
    ორმხრივ დამოკიდებულებაზე
  • 1:12 - 1:16
    აღქმასა და შემოქმედებას შორის,
    მართლაც შორსმჭვრეტელი იყო.
  • 1:16 - 1:18
    მისი ეს ცნობილი ციტატა შემდეგია:
  • 1:18 - 1:21
    "ქვის ყოველი ბლოკის შიგნით ქანდაკებაა
  • 1:22 - 1:25
    და მოქანდაკის ამოცანაა ის აღმოაჩინოს"
  • 1:26 - 1:29
    მგონი, მიქელანჯელო იმას გულისხმობდა,
  • 1:29 - 1:32
    რომ ჩვენ აღქმის წყალობით ვქმნით
  • 1:32 - 1:35
    და აღქმა თვითონაა წარმოსახვის აქტი
  • 1:36 - 1:38
    და მასალა შემოქმედებისთვის.
  • 1:39 - 1:43
    ორგანო, რომელიც ამას ყველაფერს
    ფიქრობს, აღიქვამს და წარმოიდგენს
  • 1:43 - 1:44
    რა თქმა უნდა ტვინია.
  • 1:45 - 1:48
    მინდა ტვინზე ჩვენი ცოდნის
  • 1:48 - 1:50
    მოკლე ისტორიული მიმოხილვით დავიწყო.
  • 1:50 - 1:53
    გულისგან და ნაწლავებისგან განსხვავებით,
  • 1:53 - 1:56
    ტვინს თუ შეხედავთ,
    მასზე ბევრს ვერაფერს იტყვით,
  • 1:56 - 1:58
    ყოველ შემთხვევაში შეუიარაღებელი თვალით.
  • 1:58 - 2:00
    ადრეული ანატომები,
    რომლებიც ტვინს აკვირდებოდნენ
  • 2:00 - 2:04
    მის გარე სტრუქტურას
    სხვადასხვა უცნაურ სახელებს არქმევდნენ,
  • 2:04 - 2:07
    მაგალითად, როგორც ჰიპოკამპი,
    რაც "პატარა კრევეტს" ნიშნავს
  • 2:07 - 2:10
    თუმცა, რა თქმა უნდა, ეს ყველაფერი,
    ბევრს არაფერს გვეუბნება იმაზე,
  • 2:10 - 2:13
    თუ რა ხდება სინამდვილეში შიგნით.
  • 2:13 - 2:16
    ვფიქრობ, პირველი, ვინც რეალურად
    შეიქმნა რაღაც წარმოდგენა მაინც,
  • 2:16 - 2:18
    თუ რა ხდებოდა ტვინში,
  • 2:18 - 2:22
    დიდი ესპანელი ნეიროანატომი
    სანტიაგო რამონ ი კახალი იყო,
  • 2:22 - 2:24
    მე-19 საუკუნეში.
  • 2:24 - 2:28
    მან მიკროსკოპი
    და სპეციალური საღებავი გამოიყენა,
  • 2:28 - 2:32
    რომლითაც ტვინის ცალკეული უჯრედები
    შერჩევითად შეავსო
  • 2:32 - 2:34
    და კონტრასტული გახადა,
  • 2:34 - 2:37
    რითიც მათი მორფოლოგია გაიგო.
  • 2:38 - 2:41
    ესაა ნეირონების ის გამოსახულებები,
  • 2:41 - 2:43
    რომლებიც მან მე-19 საუკუნეში დახატა.
  • 2:43 - 2:44
    ეს ჩიტის ტვინია.
  • 2:44 - 2:47
    აქ თქვენ უჯრედების
    არაჩვეულებრივ მრავალფეროვნებას ხედავთ,
  • 2:47 - 2:51
    ამ დროს უჯრედული თეორიაც კი,
    საკმაოდ ახალი ხილი იყო.
  • 2:51 - 2:52
    მითუმეტეს, უჯრედთა სტრუქტურები
  • 2:52 - 2:54
    უჯრედთა ეს განშტოებები
  • 2:54 - 2:57
    და მათი ეს განტოტვა,
    რომელიც ძალიან შორს მიდის,
  • 2:57 - 2:58
    ეს ძალიან ახალი იყო.
  • 2:59 - 3:02
    ისინი რა თქმა უნდა სადენებს გაგონებთ,
  • 3:02 - 3:05
    რაც შეიძლება უკვე ნაცნობი იყო
    ზოგისთვის მე-19 საუკუნეში.
  • 3:05 - 3:10
    ელექტროფიკაცია სწორედ ამ დროს იწყებოდა.
  • 3:10 - 3:11
    თუმცა, დიდი ანგარიშით,
  • 3:11 - 3:14
    რამონ ი კახალის
    ეს მიკრონატომიური გამოსახულებები
  • 3:15 - 3:17
    რაღაც მხრივ დღესაც შეუდარებელია.
  • 3:17 - 3:19
    ერთი საუკუნის შემდეგ,
    ჩვენ ჯერ კიდევ ვცდილობთ
  • 3:19 - 3:22
    რამონ ი კახალის მიერ
    დაწყებული საქმის დასრულებას.
  • 3:22 - 3:25
    ეს ჩვენი კოლეგების მიერ მოპოვებული
    დაუმუშავებელი მონაცემებია,
  • 3:25 - 3:28
    მაქს პლანკის
    ნეირომეცნიერების ინსტიტუტიდან.
  • 3:28 - 3:29
    ჩვენმა კოლეგებმა,
  • 3:29 - 3:34
    ტვინის ქსოვილის პატარა ნაჭრები გამოსახეს.
  • 3:34 - 3:38
    ეს მთელი ნიმუში
    დაახლოებით 1 კუბური მილიმეტრია
  • 3:38 - 3:40
    და მე აქ ძალიან პატარა ნაჭერს გაჩვენებთ.
  • 3:40 - 3:43
    მარცხნივ, ეს ფირფიტა
    დაახლოებით 1 მიკრონია.
  • 3:43 - 3:45
    სტრუქტურები, რომელსაც ხედავთ
  • 3:45 - 3:47
    ბაქტერიის ზომის მიტოქონდრიებია.
  • 3:47 - 3:49
    ეს ქსოვილის ძალიან მცირე ბლოკის
  • 3:49 - 3:52
    მიმდევრობითი ჩამონაჭრებია.
  • 3:52 - 3:55
    შედარებისთვის,
  • 3:55 - 3:58
    თმის ერთი ღერის
    საშუალო დიამეტრი 100 მიკრონია.
  • 3:58 - 4:01
    ანუ აქ ჩვენ ვუყურებთ
  • 4:01 - 4:02
    თმის ღერზე ბევრად პატარა რამეს.
  • 4:02 - 4:06
    ამ მიკროსკოპული ჩამონაჭრების სერიიდან
  • 4:06 - 4:11
    შეიძლება 3 განზომილებიანი
    ნეირონის მსგავსი რეკონსტრუქციების აწყობა.
  • 4:11 - 4:14
    სტილით ისინი,
    რამონ ი კახალის ნახატებს ჰგავს.
  • 4:14 - 4:16
    მხოლოდ ცალკეული ნეირონები ნათდება,
  • 4:16 - 4:19
    სხვაგვარად ვერაფერს დავინახავდით.
  • 4:19 - 4:20
    ისეთი გადაჭედილი იქნებოდა,
  • 4:20 - 4:21
    სავსე სტრუქტურებითა
  • 4:21 - 4:25
    და გაყვანილობებით,
    რომლებიც ერთ ნეირონს მეორესთან აერთებს
  • 4:25 - 4:28
    მაშ, რამონ ი კახალი დროს ცოტათი უსწრებდა
  • 4:28 - 4:31
    და ტვინის გაგება ნელა პროგრესირებდა
  • 4:31 - 4:33
    შემდეგი რამდენიმე ათწლეულის მანძილზე.
  • 4:33 - 4:36
    თუმცა, ჩვენ ვიცოდით,
    რომ ნეირონები ელექტრობას იყენებდნენ
  • 4:36 - 4:40
    და მეორე მსოფლიო ომისთვის, ტექნოლოგია
    საკმარისად განვითარებული იყო იმისთვის,
  • 4:40 - 4:44
    რომ ცოცხალ ნეირონებზე ნამდვილი
    ელექტრო ექსპერიმენტები ჩატარებულიყო
  • 4:44 - 4:46
    იმისთვის რომ უკეთ შეგვესწავლა,
    როგორ მუშაობენ ისინი.
  • 4:46 - 4:49
    ეს ზუსტად ის დროა,
    როცა კომპიუტერები გამოიგონეს,
  • 4:49 - 4:52
    სწორედ ტვინის მოდელირებაზე,
    ე.წ. "გონიერ მანქანაზე" დაფუძნებით,
  • 4:52 - 4:55
    როგორც მას კომპიუტერული მეცნიერების
    ერთ-ერთმა მამამ,
  • 4:55 - 4:57
    ალან ტიურინგმა უწოდა.
  • 4:58 - 5:03
    უორენ მაკკალოკმა და უოლტერ პიტსმა
    შეხედეს რამონ ი კახალის ნახატებს,
  • 5:03 - 5:04
    რომელზეც მხედველობის ქერქი იყო
  • 5:04 - 5:05
    ახლა სწორედ ამას ხედავთ.
  • 5:06 - 5:10
    ტვინის ეს ქერქი თვალებიდან შემოსულ
    გამოსახულებებს ამუშავებს
  • 5:10 - 5:14
    მათთვის ეს შეკრული წრედის
    დიაგრამასავით იყო.
  • 5:14 - 5:18
    მაკკალოკმა და პიტსის წრედის დიაგრამაში
  • 5:18 - 5:20
    ბევრი დეტალი მთლად ზუსტი არ არის,
  • 5:20 - 5:21
    თუმცა ძირითადი იდეა,
  • 5:21 - 5:25
    რომ მხედველობის ქერქი მუშაობს,
    როგორც გამოთვლითი ელემენტების სერია,
  • 5:25 - 5:28
    რომლებიც ერთმანეთს
    კასკადურად გადასცემენ ინფორმაციას,
  • 5:28 - 5:29
    არსებითად სწორია.
  • 5:29 - 5:32
    მოდი, ერთი წუთით ვთქვათ
  • 5:32 - 5:36
    რა უნდა გააკეთოს ვიზუალური ინფორმაციის
    დამუშავების მოდელმა
  • 5:36 - 5:39
    აღქმის ძირითადი ამოცანაა,
  • 5:39 - 5:43
    აიღოს მსგავსი გამოსახულება და თქვას
  • 5:43 - 5:44
    "ეს ჩიტია"
  • 5:44 - 5:47
    რაც ჩვენთვის ძალიან ადვილია
    ტვინის გამოყენებით.
  • 5:47 - 5:51
    თუმცა, ყველას უნდა გესმოდეთ,
    რომ კომპიუტერისთვის
  • 5:51 - 5:54
    სულ რაღაც რამდენიმე წლის წინ
    ეს პრაქტიკულად შეუძლებელი იყო.
  • 5:54 - 5:56
    კომპიუტერის კლასიკურ პარადიგმაში
  • 5:56 - 5:59
    მსგავსი რამის გაკეთება მარტივი არ არის.
  • 5:59 - 6:02
    მაშ, რაც ხდება პიქსელებს,
  • 6:02 - 6:06
    ჩიტის გამოსახულებასა
    და სიტყვა "ჩიტს" შორის,
  • 6:06 - 6:09
    არსებითად ნეირონების სიმრავლეა,
    რომლებიც ერთმანეთს
  • 6:09 - 6:10
    ნეირონულ ქსელში უკავშირდება,
  • 6:10 - 6:12
    როგორც დიაგრამაზე ხედავთ.
  • 6:12 - 6:15
    ეს ნეირონული ქსელი შეიძლება იყოს
    ბიოლოგიური, ჩვენ მხედველობის ქერქში,
  • 6:15 - 6:17
    ან დღესდღეობით, ჩვენ გვაქვს საშუალება
  • 6:17 - 6:20
    ასეთი ნეირონული ქსელების მოდელი
    კომპიუტერში შევქმნათ.
  • 6:20 - 6:22
    გაჩვენებთ სინამდვილეში
    ეს როგორ გამოიყურება.
  • 6:22 - 6:26
    პიქსელები ნეირონების პირველ შრედ
    შეიძლება წარმოვიდგინოთ
  • 6:26 - 6:28
    ფაქტიურად ასე მუშაობს თვალიც...
  • 6:28 - 6:30
    ეს არის ნეირონები რეტინაში.
  • 6:30 - 6:31
    ისინი აწვდიან ინფორმაციას
  • 6:31 - 6:35
    ნეირონების ზედა შრეს
    და შემდეგ შრეებს, ერთი მეორის მიყოლებით,
  • 6:35 - 6:38
    ისინი ყველა ერთმანეთს
    სხვადასხვა წონის სინაფსებით უკავშირდება.
  • 6:38 - 6:39
    ამ ქსელის ქცევა,
  • 6:39 - 6:42
    სინაფსების ძალებით ხასიათდება.
  • 6:42 - 6:46
    ისინი ქსელის გამოთვლით
    თვისებებს ახასიათებენ.
  • 6:46 - 6:47
    და საბოლოოდ ვიღებთ
  • 6:47 - 6:50
    ნეირონს ან ნეირონების მცირე ჯგუფს,
  • 6:50 - 6:52
    რომლებიც ნათდებიან და ამბობენ "ჩიტი"
  • 6:52 - 6:55
    ვაპრებ შემდეგი სამი რამ:
  • 6:55 - 7:00
    შემავალი პიქსელები,
    სინაფსები ნეირონული ქსელში
  • 7:00 - 7:01
    და შედეგი - ჩიტი,
  • 7:01 - 7:05
    სამ ცვლადად წარმოგიდგინოთ:
    x, w და y.
  • 7:05 - 7:07
    გვაქვს სადღაც ალბათ მილიონი x.
  • 7:07 - 7:09
    მილიონი პიქსელი ამ გამოსახულებაში.
  • 7:09 - 7:11
    არსებობს მილიარდობით, ან ტრილიონობით w,
  • 7:11 - 7:15
    რაც ნეირონულ ქსელში
    თითოეული სინაფსის წონას წარმოადგენს.
  • 7:15 - 7:16
    და y-ები ძალიან მცირე რაოდენობით.
  • 7:16 - 7:18
    რაც ქსელიდან გამომავალი შედეგებია.
  • 7:18 - 7:20
    "ჩიტი" მხოლოდ ოთხი ასოსგან შედგება.
  • 7:21 - 7:25
    წარმოვიდგინოთ შემდეგი მარტივი ფორმულა:
  • 7:25 - 7:27
    x "x" w = y.
  • 7:27 - 7:29
    გამრავლების ნიშანი ბრჭყალებში ჩავსვი,
  • 7:29 - 7:31
    რადგან, რა თქმა უნდა,
    სინამდვილეში ამ ადგილას,
  • 7:31 - 7:34
    ძალიან რთული
    მათემატიკური ოპერაციების წყებაა.
  • 7:35 - 7:36
    ეს ერთი განტოლებაა
  • 7:36 - 7:38
    და სამი ცვლადი.
  • 7:38 - 7:41
    ჩვენ ვიცით,
    რომ თუ გვაქვს ერთი განტოლება,
  • 7:41 - 7:45
    შეგვძილია ის ერთი ცვლადის მიმართ ამოვხსნათ
    თუ დანარჩენი ორი ცნობილია.
  • 7:45 - 7:49
    მაშ, ამოცნობის პრობლემა,
  • 7:49 - 7:51
    ანუ, იმის დადგენა, რომ ჩიტის სურათზე
    ჩიტია გამოსახული
  • 7:51 - 7:53
    შემდეგზე დადის:
  • 7:53 - 7:56
    y უცნობია და w და x კი - ცნობილი.
  • 7:56 - 7:59
    ვიცით ნეირონული ქსელი
    და ვიცით პიქსელები.
  • 7:59 - 8:02
    როგორც ხედავთ,
    ეს შედარებით სწორხაზოვანი ამოცანაა.
  • 8:02 - 8:04
    ორს სამზე გაამრავლებთ და მორჩა.
  • 8:05 - 8:07
    მე გაჩვენებთ ხელოვნურ ნეირონულ ქსელს,
  • 8:07 - 8:09
    რომელიც ცოტა ხნის წინ, ზუსტად ასე ავაგეთ.
  • 8:10 - 8:12
    ის მობილურ ტელეფონზე მუშა რეჟიმშია
  • 8:13 - 8:16
    და რა თქმა უნდა, თავისთავად საოცრებაა,
  • 8:16 - 8:19
    რომ მობილურ ტელეფონებს ამდენი
    მილიარდობით და ტრილიონობით ოპერაციების
  • 8:19 - 8:21
    შესრულება შეუძლიათ წამში.
  • 8:21 - 8:22
    ჩვენ ვხედავთ ტელეფონს,
  • 8:22 - 8:26
    რომელიც უყურებს ჩიტის სურათებს
    ერთი მეორის მიყოლებით
  • 8:26 - 8:29
    და არა მხოლოდ ამბობს: "დიახ, ეს ჩიტია",
  • 8:29 - 8:33
    არამედ ამგვარი ქსელის გამოყენებით,
    ადგენს მის სახეობას.
  • 8:33 - 8:35
    მაშ, ამ სურათში,
  • 8:35 - 8:39
    x და w ცნობილია, y - უცნობი.
  • 8:39 - 8:41
    მე, რა თქმა უნდა,
    ვტოვებ იმ ურთულეს ნაწილს,
  • 8:41 - 8:45
    თუ როგორ ვახერხებთ w-ს გაგებას,
  • 8:45 - 8:47
    ტვინისას, რომელსაც ამის გაკეთება შეუძლია?
  • 8:47 - 8:49
    როგორ დავადგინოთ ეს მოდელი?
  • 8:49 - 8:53
    w-ს გაგების ეს პროცესი
  • 8:53 - 8:55
    თუ ამას მარტივი განტოლებიდან ვაკეთებთ,
  • 8:55 - 8:57
    რომელშიც ცვლადებს რიცხვებად წარმოვიდგენთ,
  • 8:57 - 9:00
    ზუსტად ვიცით ეს როგორ გავაკეთოთ:
    6 = 2 x w,
  • 9:00 - 9:03
    ვყოფთ 2-ზე და დამთავრდა.
  • 9:04 - 9:06
    პრობლემა სწორედ ამ ოპერაციაშია,
  • 9:07 - 9:08
    გაყოფაში...
  • 9:08 - 9:11
    ჩვენ ვიყენებთ გაყოფას,
    რადგან ის გამრავლების საპირისპიროა,
  • 9:11 - 9:13
    მაგრამ როგორც გითხარით,
  • 9:13 - 9:15
    ეს მთლად გამრავლება არ არის.
  • 9:15 - 9:18
    ეს ურთულესი, ძალიან არაწრფივი ოპერაციაა,
  • 9:18 - 9:20
    რომელსაც საპირისპირო არ გააჩნია.
  • 9:20 - 9:23
    ამიტომ, ამ განტოლების ამოხსნა
  • 9:23 - 9:25
    გაყოფის ოპერაციის გარეშე უნდა მოვახერხოთ.
  • 9:25 - 9:28
    ამის გაკეთება კი,
    საკმაოდ მარტივად შეიძლება.
  • 9:28 - 9:30
    უბრალოდ, პატარა ალგებრული ხრიკი ვიხმაროთ
  • 9:30 - 9:33
    და 6-იანი განტოლების
    მარჯვენა მხარეს გადავიტანოთ.
  • 9:33 - 9:35
    ახლა, ისევ გამრავლება გვაქვს
  • 9:36 - 9:39
    და ეს ნული....
    მოდი ის "ცდომილებად" წარმოვიდგინოთ.
  • 9:39 - 9:42
    სხვა სიტყვებით,
    w-ის მიმართ სწორად თუ ამოვხსნით,
  • 9:42 - 9:43
    მაშინ ცდომილება 0 იქნება.
  • 9:43 - 9:45
    ხოლო, თუ შევცდებით,
  • 9:45 - 9:47
    ცდომილება 0-ზე მეტი უნდა იყოს.
  • 9:47 - 9:51
    მაშ, ახლა უკვე ვარაუდით,
    შეგვიძლია ცდომილება მინიმუმზე დავიყვანოთ.
  • 9:51 - 9:53
    სწორედ ამაში არიან კომპიუტერები
    ძალიან ძლიერები.
  • 9:53 - 9:55
    მაშ, პირველადი ვარაუდი:
  • 9:55 - 9:56
    იქნებ w = 0?
  • 9:56 - 9:57
    მაშინ ცდომილება იქნება 6.
  • 9:57 - 9:59
    ახლა ვცადოთ w = 1? ცდომილებაა 4.
  • 9:59 - 10:02
    შემდეგ კომპიუტერს შეუძლია
    "გამოცნობა" ითამაშოს
  • 10:02 - 10:04
    და ცდომილება 0-ს მიუახლოვოს.
  • 10:04 - 10:07
    ამით ის w-ს მიმდევრობით მიახლოებებს იგებს.
  • 10:07 - 10:11
    როგორც წესი, ზუსტად ვერასდროს გაიგებს,
    მაგრამ ათეული ბიჯის შემდეგ,
  • 10:11 - 10:15
    ჩვენ ვიღებთ w = 2.999,
    რაც საკმარისი მიახლოებაა.
  • 10:16 - 10:18
    ესაა შესწავლის პროცესი.
  • 10:18 - 10:21
    გაგახსენებთ რას ვაკეთებთ.
  • 10:21 - 10:25
    ვიღებთ უამრავ ცნობილ x-ს და y-ს
  • 10:25 - 10:29
    და იტერაციული პროცესის გამოყენებით
    ვიგებთ w-ს.
  • 10:29 - 10:32
    ზუსტად ასე ვსწავლობთ ჩვენც.
  • 10:32 - 10:35
    ბავშვობაში უამრავ გამოსახულებას ვხედავთ
  • 10:35 - 10:37
    და გვეუბნებიან: "ესაა ჩიტი, ეს არაა ჩიტი"
  • 10:38 - 10:40
    და დროთა განმავლობაში, იტერაციით,
  • 10:40 - 10:43
    ჩვენ ვიგებთ w-ს
    და ვაგებთ ნეიონულ კავშირებს.
  • 10:43 - 10:48
    მაშ, ახლა ვიცით x და w
    და შეგვიძლია y-სთვის ამოვხსნათ;
  • 10:48 - 10:49
    ეს ყოველდღიური სწრაფი აღქმაა.
  • 10:49 - 10:51
    ჩვენ ვარკვევთ როგორ გავიგოთ w,
  • 10:51 - 10:53
    ეს შესწავლაა, რაც ბევრად უფრო რთულია,
  • 10:53 - 10:55
    რადგან უამრავ მაგალითზე
    წვრთნის გამოყენებით,
  • 10:55 - 10:57
    ცდომილების მინიმიზაცია გვიწევს.
  • 10:57 - 11:00
    დაახლოებით 1 წლის წინ,
    ჩვენი გუნდის წევრმა, ალექს მორდვინცევმა,
  • 11:00 - 11:04
    გადაწყვიტა ჩაეტარებინა განტოლების
    x-ის მიმართ ამოხსნის ექსპერიმენტი,
  • 11:04 - 11:06
    მაშინ როცა w და y ცნობილია.
  • 11:06 - 11:07
    სხვა სიტყვებით,
  • 11:07 - 11:09
    ვიცით, რომ ეს ჩიტია
  • 11:09 - 11:12
    და გვაქვს ნეირონული ქსელი,
    რომელსაც ჩიტების ამოცნობა შეუძლია,
  • 11:12 - 11:14
    მაგრამ როგორი იქნება ჩიტის გამოსახულება?
  • 11:15 - 11:20
    აღმოჩნდა, რომ ზუსტად ისეთივე ცდომილების
    შემამცირებელი პროცედურის გამოყენებით
  • 11:20 - 11:24
    შეგვიძლია ეს ჩიტების ამოცნობაზე გაწვრთნილ
    ნეირონულ ქსელს გავუკეთოთ
  • 11:24 - 11:27
    და შედეგი...
  • 11:30 - 11:32
    ჩიტების გამოსახულებაა.
  • 11:33 - 11:37
    მაშ, ჩიტების ეს გამოსახულება, მთლიანად
    ისეთი ნეირონული ქსელის მიერაა შექმნილი,
  • 11:37 - 11:39
    რომლებიც ჩიტების ამოცნობაზეა გაწვრთნილი.
  • 11:39 - 11:42
    ეს შესაძლებელი გახდა
    მხოლოდ y-ის ნაცვლად x მიმართ
  • 11:42 - 11:43
    იტერაციული ამოხსნით.
  • 11:44 - 11:46
    აი, კიდევ ერთი სახალისო მაგალითი.
  • 11:46 - 11:49
    ეს ჩვენი ჯგუფის წევრის,
    მაიკ ტაიკას გაკეთებულია.
  • 11:49 - 11:51
    მან ამას "ცხოველების აღლუმი" დაარქვა.
  • 11:51 - 11:54
    ეს ცოტათი უილიამ კენტრიჯის
    შემოქმედებას მაგონებს,
  • 11:54 - 11:57
    სადაც ის ესკიზებს აკეთებს,
    შემდეგ შლის,
  • 11:57 - 11:59
    შემდეგ ისევ ხატავს, შემდეგ შლის
  • 11:59 - 12:00
    და ასე ქმნის ფილმს.
  • 12:00 - 12:01
    ამ შემთხვევაში
  • 12:01 - 12:04
    მაიკი ცვლის y-ს
    სხვადასხვა ცხოველების სივრცეზე
  • 12:04 - 12:07
    ქსელში, რომელიც სხვადასხვა ცხოველების
  • 12:07 - 12:08
    ამოსაცნობად და გასარჩევადაა შექმნილი.
  • 12:08 - 12:13
    შედეგად იღებთ, რაღაც ეშერის სტილში,
    მორფულ გადასვლებს ცხოველებს შორის.
  • 12:14 - 12:19
    აქ, მან და ალექსმა
    ერთად სცადეს შეემცირებინათ
  • 12:19 - 12:22
    y-ების სიმრავლე
    მხოლოდ ორგანზომილებიან სივრცეზე
  • 12:22 - 12:25
    რითიც მიიღეს, ამ ქსელის მიერ
    ყველა ამოცნობადი ობიექტისგან
  • 12:25 - 12:27
    შემდგარი სივრცის რუკა.
  • 12:27 - 12:29
    მსგავსი სინთეზის გაკეთებისას,
  • 12:29 - 12:31
    ან გამოსახულებების გენერირებით
    მთელ ზედაპირზე,
  • 12:31 - 12:34
    y-ის ცვლილებით ზედაპირზე,
    თქვენ ქმნით გარკვეულ რუკას.
  • 12:34 - 12:37
    იმ ყველაფრის ვიზუალურ რუკას,
    რისი ამოცნობაც ქსელს შეუძლია.
  • 12:37 - 12:41
    ყველა ცხოველი აქაა;
    "ჯავშნოსანი" ზუსტად ამ წერტილშია.
  • 12:41 - 12:43
    ამის გაკეთება,
    სხვა სახის ქსელებშიც შეგიძლიათ.
  • 12:43 - 12:46
    ეს სახეების ამოსაცნობად შექმნილი ქსელია,
  • 12:46 - 12:48
    რომელიც ერთ სახეს მეორისგან ასხვავებს.
  • 12:48 - 12:52
    და აქ ვამატებთ y, რომელიც არის "მე",
  • 12:52 - 12:53
    ჩემი სახის პარამეტრები.
  • 12:53 - 12:55
    როცა ამას x მიმართ ვხსნით,
  • 12:55 - 12:58
    ვიღებთ ჩემს საკმაოდ გიჟურ,
  • 12:58 - 13:02
    კუბისტურ, სურეალისტურ,
    ფსიქოდელიურ სურათს,
  • 13:02 - 13:04
    სხვადასხვა კუთხიდან ერთდროულად.
  • 13:04 - 13:07
    ის ერთდროულად სხვადასხვა კუთხიდან
    დანახულს იმიტომ ჰგავს,
  • 13:07 - 13:10
    რომ ეს ქსელი ცდილობს
    გათავისუფლდეს იმ გაურკვევლობისგან,
  • 13:10 - 13:13
    რომელიც სახის სხვადასხვა მდგომარეობაში,
  • 13:13 - 13:16
    ან სხვადასხვა განათების პირობებში
    ყოფნას ახლავს.
  • 13:16 - 13:18
    ამიტომ, როცა მსგავს
    რეკონსტრუქციას აკეთებთ,
  • 13:18 - 13:21
    თუ საფუძვლად არ გამოიყენებთ
    რაღაც ტიპის სურათს,
  • 13:21 - 13:22
    ან სტატისტიკას,
  • 13:22 - 13:26
    მიიღებთ სხვადასხვა თვალთახედვის აღრევას,
  • 13:26 - 13:28
    რადგან ადგილი აქვს გაურკვევლობას.
  • 13:28 - 13:32
    აი, რა მოხდება თუ ალექსი
    ჩემი სახის რეკონსტრუქციისთვის,
  • 13:32 - 13:35
    ოპტიმიზაციის პროცესში საფუძვლად
    საკუთარ სახეს გამოიყენებს.
  • 13:36 - 13:39
    როგორც ხედავთ იდეალური არაა.
  • 13:39 - 13:41
    კიდევ ბევრი სამუშაოა ჩასატარებელი
  • 13:41 - 13:43
    თუ როგორ მოვახდინოთ
    ოპტიმიზაციის პროცესის ოპტიმიზება.
  • 13:43 - 13:46
    თუმცა, უკვე ვიღებთ,
    რაღაც უფრო გამოკვეთილი სახის მსგავსს,
  • 13:46 - 13:48
    როცა საფუძვლად ჩემს სახეს ვიყენებთ.
  • 13:49 - 13:51
    არ არის აუცილებელი სუფთა ფურცლიდან,
  • 13:51 - 13:53
    ან თეთრი ხმაურიდან დაიწყოთ,
  • 13:53 - 13:54
    როცა x-ის მიმართ ხსნით.
  • 13:54 - 13:58
    შეგიძლიათ დაიწყოთ x-ით,
    რომელიც თავისთავად რაღაც გამოსახულებაა.
  • 13:58 - 14:00
    ეს არის ამის პატარა დემონსტრირება.
  • 14:00 - 14:05
    ეს არის ქსელი, რომელიც შექმნილია
  • 14:05 - 14:08
    სხვადასხვა ობიექტების, ხელოვნური
    სტრუქტურების, ცხოველების კატეგორიზებისთვის
  • 14:08 - 14:10
    ვიწყებთ მხოლოდ ღრუბლების გამოსახულებით
  • 14:10 - 14:12
    და ოპტიმიზაციასთან ერთად,
  • 14:12 - 14:17
    ქსელი არკვევს, თუ რას ხედავს ის ღრუბლებში.
  • 14:17 - 14:19
    რაც უფრო დიდხანს უყურებთ,
  • 14:19 - 14:22
    თქვენც მით უფრო მეტ რამეს
    დაინახავთ ღრუბლებში.
  • 14:23 - 14:26
    თქვენ ასევე შეგიძლიათ ჰალუცინაციებისთვის,
    სახის ამომცნობი ქსელი გამოიყენოთ
  • 14:26 - 14:28
    და საკმაოდ გიჟურ რამეებს მიიღებთ.
  • 14:28 - 14:29
    (სიცილი)
  • 14:30 - 14:33
    მაიკმა კიდევ სხვა ექსპერიმენტებიც ჩაატარა,
  • 14:33 - 14:37
    რომლებშიც ის იღებს
    ღრუბლების გამოსახულებას,
  • 14:37 - 14:41
    ჰალუცინირებს, აახლოვებს, ჰალუცინირებს,
    აახლოვებსს, ჰალუცინირებს, აახლოვებს.
  • 14:41 - 14:42
    და ამგვარად, შეგიძლიათ მიიღოთ
  • 14:42 - 14:45
    ქსელის დისოციაციური მდგომარეობის მაგვარი,
  • 14:46 - 14:49
    ან რაღაც თავისუფალი ასოციაციების მაგვარი,
  • 14:49 - 14:51
    რომელშიც ქსელი საკუთარ კუდს ჭამს.
  • 14:51 - 14:55
    ანუ, ყოველი გამოსახულება საფუძვლად უდევს:
  • 14:55 - 14:56
    "რას დავინახავ შემდეგ?
  • 14:56 - 14:59
    რას დავინახავ შემდეგ?
    რას დავინახავ შემდეგ?"
  • 14:59 - 15:02
    პირველად ეს საჯაროდ
  • 15:02 - 15:08
    სიეტლში ვაჩვენე, ლექციაზე სახელად
    "უმაღლესი განათლება"...
  • 15:08 - 15:10
    სწორედ მარიხუანას ლეგაიზაციის შემდეგ.
  • 15:10 - 15:13
    (სიცილი)
  • 15:15 - 15:17
    მინდა სწრაფათ დავასრულო იმით,
  • 15:17 - 15:21
    რომ ეს ტექნოლოგია შეუზღუდავია.
  • 15:21 - 15:25
    მე მხოლოდ ვიზუალური მაგალითები გაჩვენეთ,
    იმიტომ რომ ისინი სახალისო სანახავია.
  • 15:25 - 15:27
    ეს არაა მხოლოდ ვიზუალური ტექნოლოგია.
  • 15:27 - 15:30
    ჩვენმა თანამშრომელმა,
    მხატვარმა, როს გუდუინმა,
  • 15:30 - 15:33
    ექსპერიმენტები კამერის გამოყენებით ჩაატარა
  • 15:33 - 15:37
    და მის ზურჩანთაში მყოფი კომპიუტერი
    ნეირონული ქსელის გამოყენებით ლექსებს წერს,
  • 15:37 - 15:40
    მის მიერ გადაღებული სურათების
    შითავისის საფუძველზე.
  • 15:40 - 15:42
    ეს პოეტური ნეირონული ქსელი
  • 15:42 - 15:45
    მე-20 საუკუნის პოეზიის
    დიდ კრებულზეა გაწვრთნილი.
  • 15:45 - 15:46
    და ეს პოეზია, ვფიქრობ,
  • 15:46 - 15:48
    არც ისე ცუდია, პრინციპში.
  • 15:48 - 15:49
    (სიცილი)
  • 15:49 - 15:50
    და ბოლოს,
  • 15:50 - 15:53
    ვფიქრობ მიქელანჯელო
  • 15:53 - 15:54
    მართალი იყო;
  • 15:54 - 15:57
    აღქმა და შემოქმედება,
    ძალიან მჭიდროდაა დაკავშირებული.
  • 15:58 - 16:00
    ახლა ჩვენ ვნახეთ ნეირონული ქსელები,
  • 16:00 - 16:03
    რომლებიც გაწვრთნილები არიან გაარჩიონ
  • 16:03 - 16:05
    და ამოიცნონ
    სხვადასხვა ობიექტები მსოფლიოში.
  • 16:05 - 16:08
    მათ შეუძლიათ უკუღმა გაეშვან
    და შექმნან.
  • 16:08 - 16:10
    ერთ-ერთი რასაც ეს მაჩვენებს
  • 16:10 - 16:12
    არა მხოლოდ ისაა,
    რომ მიქელანჯელო მართლაც ხედავდა
  • 16:12 - 16:15
    ქანდაკებას ქვის ბლოკებში,
  • 16:15 - 16:18
    არამედ, რომ ნებისმიერი ქმნილება,
    ნებისმიერი არსება, უცხოპლანეტელი,
  • 16:18 - 16:22
    რომელსაც მსგავსი აღქმის უნარი აქვს,
  • 16:22 - 16:23
    შეუძლია შექმნას კიდეც,
  • 16:23 - 16:27
    რადგან ორივე შემთხვევაში
    ზუსტად ერთნაირი მექანიზმი გამოიყენება.
  • 16:27 - 16:31
    ასევე ვფიქრობ, რომ აღქმა და შემოქმედება
    სულაც არ არის
  • 16:31 - 16:33
    უნიკალურად ადამიანური.
  • 16:33 - 16:36
    ჩვენ უკვე გვაქვს კოპიუტერული მოდელები,
    რომლებსაც მსგავსი რამეების კეთება შეუძლიათ
  • 16:36 - 16:40
    და გასაკვირი არც უნდა იყოს;
    ტვინიც ხომ ერთგვარი კომპიუტერია
  • 16:40 - 16:41
    და ბოლოს,
  • 16:41 - 16:46
    კომპიუტერების შექმნა გონიერი მანქანების
    შექმნის მცდელობად დაიწყო.
  • 16:46 - 16:48
    მისი შემუშავება
    დიდწილად განსაზღვრა იდეამ,
  • 16:48 - 16:51
    თუ როგორ შეგვიძლია
    მანქანები გახვადოთ გონიერი.
  • 16:52 - 16:54
    და ახლა საბოლოოდ, ვიწყებთ
  • 16:54 - 16:56
    ამ საქმის პიონერების,
    ტიურინგის და ვონ ნოიმანის,
  • 16:56 - 16:58
    მაკკალოკის და პიტსის
  • 16:58 - 17:00
    ზოგიერთი დანაპირების შესრულებას.
  • 17:00 - 17:04
    ვფიქრობ კომპიუტერები
    არა მხოლოდ გამოთვლაა,
  • 17:04 - 17:06
    ან Candy Crush-ის,
    ან რამე მსგავსის თამაში.
  • 17:06 - 17:09
    ჩვენ ისინი თავიდანვე
    ჩვენი ტვინის მიხედვით დავაპროექტეთ.
  • 17:09 - 17:12
    ისინი საშუალებას გვაძლევს
    როგორც ჩვენი ტვინი გავიგოთ უკეთ,
  • 17:12 - 17:14
    ასევე გავაუმჯობესოთ ის.
  • 17:15 - 17:16
    დიდი მადლობა.
  • 17:16 - 17:22
    (აპლოდისმენტები)
Title:
როგორ სწავლობენ კომპიუტერები შემოქმედებას
Speaker:
ბლეზ აგუერა ი არკასი
Description:

ჩვენ ხელოვნებისა და შემოქმედების ახალ ეტაპზე გადავდივართ, თუმცა არა ადამიანის ხელით. Google-ის მთავარი მეცნიერ-თანამშრომელი, აგუერა ი არკასი, ნეირონულ ქსელებზე მუშაობს, რომლებიც მანქანური აღქმის და განაწილებული სწავლებისთვის გამოიყენება. ამ შთამბეჭდავი დემონსტრაციით, ის გვაჩვენებს, თუ როგორ შეუძლიათ გამოსახულებების ამოცნობაზე გაწვრთნილ ნეირონულ ქსელებს, უკუღმა გაშვების შემთხვევაში წარმოქმნან ისინი. შედეგად ვიღებთ მომაჯადოებელ, ჰალუცინაციურ კოლაჟებს (და ლექსებს!), რომლებიც ყოველგვარი კატეგორიების მიღმაა. "აღქმა და შემოქმედება ერთმანეთთან მჭიდროდაა დაკავშირებული" ამბობს აგუერა ი არკასი. "ნებისმიერ არსებას, რომელსაც აღქმის უნარი აქვს, შექმნაც შეუძლია."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:34

Georgian subtitles

Revisions