შეგვიძლია ისე შევქმნათ ხელოვნური ინტელექტი, რომ მასზე კონტროლი არ დავკარგოთ?
-
0:01 - 0:03მე ვაპირებ ვისაუბრო
ინტუიციის იმ პრობლემაზე, -
0:03 - 0:05რომელიც ბევრ ჩვენგანს ახასიათებს.
-
0:05 - 0:09ესაა უუნარობა,
ამოიცნო გარკვეული ტიპის საფრთხე. -
0:09 - 0:11ვაპირებ აღვწერო სცენარი,
-
0:11 - 0:14რომელიც ერთდროულად შემაძრწუნებელიცაა
-
0:14 - 0:16და მოსალოდნელიც.
-
0:17 - 0:18რაც, როგორც ირკვევა
-
0:19 - 0:20არაა კარგი კომბინაცია.
-
0:20 - 0:23მიუხედავად ამისა,
საშიშის ნაცვლად უმეტესობა -
0:23 - 0:25სახალისოდ აღიქვამს იმას,
რაზეც ვაპირებ ვისაუბრო. -
0:25 - 0:28ვაპირებ აღვწერო, თუ როგორ შეიძლება
-
0:28 - 0:30ხელოვნური ინტელექტის სფეროში წინსვლამ
-
0:30 - 0:32საბოლოოდ გაგვანადგუროს.
-
0:32 - 0:34პრინციპში, ვფქრობ,
ძნელი წარმოსადგენიც კია, -
0:34 - 0:38როგორ შეიძლება არ გაგვანადგუროს,
ან არ გვიბიძგოს თვითგანადგურებისკენ. -
0:38 - 0:39თუმცა, თუ თქვენც ჩემნაირი ხართ,
-
0:39 - 0:42გეგონებათ, რომ ასეთ რამეებზე
ფიქრი სახალისოა. -
0:42 - 0:45და თავად ეს რეაქცია პრობლემის ნაწილია.
-
0:45 - 0:48ამ რეაქციამ უნდა შეგაწუხოთ.
-
0:48 - 0:51ახლა, ამ საუბარში, რომ დაგაწრმუნოთ,
-
0:51 - 0:54რომ კლიმატის ცვლილებით,
ან სხვა რამე კატასტროფით გამოწვეული -
0:54 - 0:57გლობალური შიმშილობაა მოსალონდელი,
-
0:57 - 1:01და რომ თქვენმა შვილიშვილებმა,
ან მათმა შვილიშვილებმა -
1:01 - 1:03დიდი შანსია ამ პირობებში იცხოვრონ,
-
1:03 - 1:04თქვენ არ იფიქრებდით:
-
1:05 - 1:07"საინტერესოა,
-
1:07 - 1:09მომწონს ეს TED საუბარი"
-
1:09 - 1:11შიმშილობა არაა სახალისო.
-
1:12 - 1:15სამეცნიერო ფანტასტიკის ხელით სიკვდილი
კი სახალისოა. -
1:15 - 1:19ერთ-ერთი, რაც ხელოვნური ინტელექტის
შექმნასთან დაკავშირებით მაწუხებს, -
1:19 - 1:23არის რომ ჩვენ თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია -
1:23 - 1:25მოსალოდნელ საფრთხეებზე.
-
1:25 - 1:29არც მე ძალმიძს ამ რეაქიის გამომუშავება,
თუმცა ამ თემაზე გამოვდივარ. -
1:30 - 1:33თითქოს ორი კარის წინ ვდგავართ.
-
1:33 - 1:34პირველი კარის შიგნით,
-
1:34 - 1:37ხელოვნური ინტელექტის განვითარების
პროგრესი ჩერდება. -
1:37 - 1:41ჩვენი კოპიუტერების აპარატული და პროგრამული
საშუალებები რატომღაც აღარ უმჯობესდება. -
1:41 - 1:45ერთი წამით დაფიქრდით,
რატომ შეიძლება ეს მოხდეს. -
1:45 - 1:49იმის გათვალისწინებით, თუ რა ფასეულია
მანქანური ინტელექტი და ავტომატიზაცია, -
1:49 - 1:53ჩვენ აუცილებლად განვაგრძობთ
ტექნოლოგიურ წინსვლას, თუ შეგვეძლება. -
1:53 - 1:56რამ შეიძლება ეს შეაჩეროს?
-
1:56 - 1:58სრულმასშტაბიანმა ბირთვულმა ომმა?
-
1:59 - 2:01გლობალურმა პანდემიამ?
-
2:02 - 2:05ასტეროიდის დაჯახებამ?
-
2:06 - 2:08ჯასტინ ბიბერის აშშ-ს პრეზიდენტად გახდომამ?
-
2:08 - 2:11(სიცილი)
-
2:13 - 2:17მოკლედ, რაღაც ისეთი უნდა იყოს,
რაც არსებულ ცივილიზაციას დაანგრევს. -
2:17 - 2:22წარმოიდგინეთ, რა ცუდი რამ უნდა იყოს,
-
2:22 - 2:25რომ ტექნოლოგიური პროგრესი შეაჩეროს
-
2:25 - 2:26სამუდამოდ,
-
2:26 - 2:28თაობიდან თაობამდე.
-
2:28 - 2:30განმარტებით, ეს რაღაც
ყველაზე უარესი რამ იქნება, -
2:30 - 2:33რაც კი ოდესმე მომხდარა
კაცობრიობის ისტორიაში. -
2:33 - 2:34ამის ერთადერთი ალტერნატივა,
-
2:34 - 2:36რომელიც მეორე კარს მიღმაა,
არის რეალობა, -
2:36 - 2:39რომლის მიხედვით ჩვენ ვაგძელებთ
გონიერი მანქანების გაუმჯობესებას -
2:39 - 2:41წლიდან წლამდე.
-
2:42 - 2:46რაღაც მომენტში, ჩვენ შევქმნით მანქანებს,
რომლებიც ჩვენზე ჭკვიანები იქნებიან -
2:46 - 2:48და რა დროსაც ეს მოხდება,
-
2:48 - 2:51ისინი საკუთარი თავების
გაუმჯობესებას შეუდგებიან -
2:51 - 2:53და დავდგებით, როგორც ამას
ი. დ. გუდმა უწოდა, -
2:53 - 2:55"ინტელექტის აფეთქების" საფრთხის წინაშე,
-
2:55 - 2:58რითიც შეიძლება
პროცესები ხელიდან გაგვექცეს. -
2:58 - 3:01ხშირად ეს მსგავსი კარიკატურების
სახითაა გამოსახული. -
3:01 - 3:04როგორც ბოროტი რობოტების არმიები,
-
3:04 - 3:05რომლებიც თავს გვესხმიან,
-
3:05 - 3:08მაგრამ ეს არაა ყველაზე სავარაუდო სცენარი.
-
3:08 - 3:12ჩვენი მანქანები,
მყისიერად კი არ გაბოროტდებიან. -
3:12 - 3:16სინამდვილეში წუხილი იმაზეა,
რომ ჩვენ ისეთ მანქანებს შევქმნით, -
3:16 - 3:18რომლებიც ჩვენზე იმდენად უფრო
კომპეტენტურები იქნებიან, -
3:18 - 3:22რომ ჩვენსა და მათ მიზნებს შორის
მცირედმა უთანხმოებამაც კი -
3:22 - 3:24შეიძლება გაგვანადგუროს.
-
3:24 - 3:26დაფიქრდით, რა აზრის ვართ ჭიანჭველებზე.
-
3:27 - 3:28ჩვენ ისინი არ გვძულს.
-
3:28 - 3:30ჩვენ მიზანი არაა მათ ვავნოთ.
-
3:30 - 3:33პრინციპში ზოგჯერ ვცდილობთ კიდეც არ ვავნოთ.
-
3:33 - 3:35ფეხს არ ვადგამთ ტროტუარზე.
-
3:35 - 3:37მაგრამ როცა კი მათი არსებობა,
-
3:37 - 3:39ჩვენს მიზნებს სერიოზულად ეწინააღმდეგება,
-
3:39 - 3:42მაგალითად ამისნაირი შენობის აგებისას,
-
3:42 - 3:44ჩვენ ყოყმანის გარეშე ვანადგურებთ მათ.
-
3:44 - 3:47მე ის მაწუხებს,
რომ ერთ დღესაც ჩვენ შევქმნით მანქანებს, -
3:47 - 3:50რომელებიც, ცნობიერები იქნებიან თუ არა,
-
3:50 - 3:53შეიძლება მსგავსი გულგრილობით მოგვეკიდონ.
-
3:54 - 3:57ეჭვი მაქვს ბევრ თქვენგანს,
ეს ზედმეტ გაზვიადებად ეჩვენება. -
3:57 - 4:02დარმწუნებული ვარ ზოგი თქვენგანი,
ზეგონიერი ხელოვნური ინტელექტის შექმნის -
4:02 - 4:05არათუ გარდაუვალობას, არამედ
შესაძლებლობასაც კი ეჭვქვეშ აყენებს, -
4:05 - 4:09მაგრამ მაშინ თქვენ პრობლემა უნდა იპოვოთ
შემდეგი დაშვებებიდან ერთ-ერთში. -
4:09 - 4:11სულ სამია ასეთი.
-
4:12 - 4:17ინტელექტი ფიზიკურ სისტემებში
ინფორმაციის დამუშავებას წარმოადგენს. -
4:17 - 4:20პრინციპში, ეს დაშვებაზე ცოტა უფრო მეტიცაა.
-
4:20 - 4:23ჩვენ უკვე შევქმენით მანქანები
ვიწრო ინტელექტით -
4:23 - 4:25და ბევრი მათქგანი მუშაობს კიდეც
-
4:25 - 4:29ზეადამიანის შესაბამისი ინტელექტის დონეზე.
-
4:29 - 4:31ასევე ვიცით, რომ მატერიას
-
4:31 - 4:34შეუძლია წამოქმნას ე.წ. "ზოგადი ინტელექტი",
-
4:34 - 4:38სხვადასხვა სფეროებაში
მოქნილად აზროვნების უნარი, -
4:38 - 4:41რადგან ჩვენი ტვინები ახერხებენ ამას.
-
4:41 - 4:45აქ ხომ მხოლოდ ატომებია
-
4:45 - 4:49და თუ ატომებისგან შემდგარი
ისეთი სისტემების შექმნას განვაგრძობთ, -
4:49 - 4:52რომლებიც სულ უფრო მეტ
გონიერ საქციელს გამოავლენენ, -
4:52 - 4:55რაღაცამ თუ არ შეგვაჩერა,
-
4:55 - 4:58საბოლოოდ ზოგადი ინტელექტის მქონე
-
4:58 - 4:59მანქანებს შევქმნით.
-
4:59 - 5:03მნიშვნელოვანია გავიაზროთ,
რომ პროგრესის ტემპს არ აქვს მნიშვნელობა, -
5:03 - 5:06რადგან ნებისმიერი ტემპი საკმარისია,
რომ ბოლოში გავიდეთ. -
5:06 - 5:10ჩვენ არ გვჭირდება მურის კანონი ამისთვის.
არ გვჭირდება ექსპონენციალური პროგრესი. -
5:10 - 5:13ჩვენ მხოლოდ წინსვლა გვჭირდება.
-
5:13 - 5:17მეორე დაშვება ისაა,
რომ ჩვენ განვაგრძობთ პროგრესს. -
5:17 - 5:20განვაგრძობთ გონიერი მანქანების შექმნას.
-
5:21 - 5:25თუ ინტელექტის ფასს გავითვალისწინებთ...
-
5:25 - 5:28ინტელექტი, ან ყველაფერ იმის წყაროა
რასაც ვაფასებთ, -
5:28 - 5:32ან გვჭირდება იმისთვის, რომ დავიცვათ
ყველაფერი ის რასაც ვაფასებთ. -
5:32 - 5:34ის ჩვენი ყველაზე ფასეული რესურსია.
-
5:34 - 5:36ამიტომ გვინდა ამის კეთება.
-
5:36 - 5:39ჩვენ გვაქვს პრობლემები,
რომელთა გადაწყვეტა აუცილებელია. -
5:39 - 5:43ჩვენ გვინდა ალცჰაიმერის და კიბოს მაგვარი
დაავადებების განკურნება. -
5:43 - 5:47გვინდა ეკონომიკური სისტემებში გარკვევა.
გვინდა კლიმატური მეცნიერების გაუმჯობესება. -
5:47 - 5:49ამიტომ თუ შევძელით,
ამას აუცილებლად ვიზამთ. -
5:49 - 5:53მატარებელი უკვე დაიძრა
და მას მუხრუჭი არ აქვს. -
5:54 - 5:59ბოლოს, ჩვენ არ წარმოვადგენთ
ინტელექტის პიკს. -
5:59 - 6:02მასთან ახლოსაც კი არ ვართ.
-
6:02 - 6:04ეს მართლაც საკვანძო აზრია.
-
6:04 - 6:06ეს არის ის, რაც ჩვენს მდგომარეობას
ასე არასაიმედოს -
6:06 - 6:11და რისკების მიმართ
ჩვენს ინტუიციას, ასე არასანდოს ხდის. -
6:11 - 6:14განვიხილოთ ყველა დროის
უჭკვიანესი ადამიანი. -
6:15 - 6:18ერთ-ერთ ასეთად თითქმის ყველა
ჯონ ვან ნოიმანს დაასახელებს. -
6:18 - 6:21შთაბეჭდილება, რომელიც ვან ნოუმანმა
მის გარშემომყოფებზე მოახდინა, -
6:21 - 6:25მისი თანამედროვე უდედესი მათემატიკოსების
და ფიზიკოსების ჩათვლით, -
6:26 - 6:27კარგადაა დოკუმენტირებული.
-
6:27 - 6:31ამ ისტორიების მხოლოდ ნახევარიც
რომ იყოს ნახევრად მართალი, -
6:31 - 6:32ეჭვგარეშეა,
-
6:33 - 6:35რომ ის ყველა დროის ერთ-ერთი
უჭკვიანესი ადამიანი იყო. -
6:35 - 6:38განვიხილოთ ინტელექტის სპექტრი.
-
6:38 - 6:40აქ არის ჯონ ვან ნოიმანი.
-
6:42 - 6:43აქ კი, ვართ მე და თქვენ
-
6:44 - 6:45და აქ კი - ქათამია.
-
6:45 - 6:47(სიცილი)
-
6:47 - 6:49უკაცრავად, ქათამი.
-
6:49 - 6:50(სიცილი)
-
6:50 - 6:54საჭირო არაა ეს საუბარი,
კიდევ უფრო დეპრესიული გავხადოთ. -
6:54 - 6:55(სიცილი)
-
6:56 - 7:00დიდად სავარაუდოა,
რომ ინტელექტის სპექტრი, -
7:00 - 7:03ბევრად უფრო შორს მიდის,
ვიდრე ჩვენ ამჟამად წარმოგვიდგენია -
7:04 - 7:07და თუ ჩვენ შევქმნით მანქანებს,
რომლებსაც ჩვენზე დიდი ინტელექტი აქვთ, -
7:07 - 7:09დიდი ალბათობით ისინი ამ სპექტრის
-
7:09 - 7:11ჩვენთვის წარმოუდგენელ სივრცეებს აითვისებენ
-
7:11 - 7:15და ისე გვაჯობებენ,
რომ ვერც კი წარმოვიდგენთ. -
7:15 - 7:19მნიშვნელოვანია ვხვდებოდეთ, რომ ეს ასეა
მხოლოდ სისწრაფის შემთხვევაშიც კი. -
7:19 - 7:24წარმოიდგინეთ, რომ შევქმენით
ზეგონიერი ხელოვნური ინტელექტი, -
7:24 - 7:28რომელიც სტენფორდის, ან MIT-ის
-
7:28 - 7:30საშუალო დონის მკვლევართა ჯგუფზე
ჭკვიანი არაა. -
7:30 - 7:34ელექტრონული სქემები დაახლოებით
მილიონჯერ უფრო სწრაფად ფუნქციონირებენ, -
7:34 - 7:34ვიდრე ბიოქიმიური.
-
7:35 - 7:38ამიტომ ეს მანქანა იაზროვნებს
დაახლოებით მილიონჯერ სწრაფად, -
7:38 - 7:39ვიდრე ტვინები რომლებმაც ის შექმნეს.
-
7:40 - 7:41თუ მას ერთი კვირა ვამუშვებთ,
-
7:41 - 7:46ის შეასრულებს 20 000 წლის
ადამიანის დონის ინტელეტქუალურ სამუშაოს -
7:46 - 7:48კვირიდან კვირამდე.
-
7:49 - 7:53ამის შემდეგ, არათუ როგორ შევზღუდავთ,
არამედ როგორ გავუგებთ ტვინს, -
7:53 - 7:56რომელიც ასეთ პროგრესს განიცდის?
-
7:57 - 7:59კიდევ ერთი რამ, რაც გულწრფელად მაწუხებს
-
7:59 - 8:03არის, რომ საუკეთესო ვარიანტში,
-
8:03 - 8:08წარმოიდგინეთ დავაპროექტეთ ისეთი
ზეგონიერი ხელოვნური ინტელექტი, -
8:08 - 8:10რომელსაც უსაფრთხოების პრობლემა არ აქვს.
-
8:10 - 8:13ჩვენ პირველივე ჯერზე
გვაქვს იდეალური პროექტი. -
8:13 - 8:15თითქოს გვებოძა პროექტი,
-
8:15 - 8:17რომელიც ისე მუშაობს როგორც ჩაფიქრებულია.
-
8:17 - 8:21ასეთი მანქანა იდეალური იქნებოდა
შრომის შესამსუბუქებლად. -
8:21 - 8:24მან შეიძლება დააპროექტოს მანქანა,
რომელიც შექმნის მანქანას, -
8:24 - 8:25რომელსაც შეუძლია
-
8:25 - 8:28ნებისმიერი ფიზიკური სამუშაოს შესრულება
მზის ენერგიით, -
8:28 - 8:30მეტ-ნაკლებად ნედლეულის ფასად.
-
8:30 - 8:33ანუ ლაპარაკია ადამიანის დამქანცველი შრომის
დასასრულზე. -
8:33 - 8:37ლაპარაკია ასევე უმეტესი
ინტელექტულაური შრომის დასასრულზე. -
8:37 - 8:40მაშ, რას გააკეთებენ
ჩვენნაირი პრიმატები ამ სიტუაციაში? -
8:40 - 8:45თავისუფლად შევძლებთ ვითამაშოთ
ფრისბი და მასაჟი ვუკეთოთ ერთმანეთს. -
8:46 - 8:49დავამატოთ ცოტა LSD,
ცოტა უცნაური ტანსაცმელი -
8:49 - 8:52და მთელი მსოფლიო "Burning Man"-ის
ფესტივალს დაემსგავსება. -
8:52 - 8:53(სიცილი)
-
8:54 - 8:57ეს შეიძლება მშვენივრად ჟღერდეს,
-
8:57 - 9:00მაგრამ ჰკითხეთ საკუთარ თავებს,
-
9:00 - 9:02რა მოხდება არსებულ ეკონომიკურ
და პოლიტიკურ წყობაში? -
9:02 - 9:05სავარაუდოა, რომ მივიღოთ
-
9:05 - 9:09უთანასწორობის და უმუშევრობის ისეთი დონე,
-
9:09 - 9:11როგორიც არასდროს გვინახავს.
-
9:11 - 9:14ამ ახალი სიმდიდრის
მთელი კაცობირობის სასარგებლოდ -
9:14 - 9:16გაღების სურვილის არ ქონის პირობებში,
-
9:16 - 9:19მილიარდელების მცირე ჯგუფი,
დაამშვენებს ბიზნესჟურნალების გარეკანებს, -
9:19 - 9:22მაშინ როცა დანარჩენები იშიმშილებენ.
-
9:22 - 9:25რას იზამენ რუსები, ან ჩინელები,
-
9:25 - 9:27თუ გაიგებენ, რომ სილიკონის ველზე
რომელიღაც კომპანია, -
9:27 - 9:30აპირებს ზეგონიერი
ხელოვნური ინტელექტი აამუშაოს? -
9:30 - 9:33ამ მანქანას არნახული ძალით შეეძლება
-
9:33 - 9:35აწარმოოს ომი,
-
9:35 - 9:38როგორც სახმელეთო, ისე კიბერომი.
-
9:38 - 9:41ეს ის სცენარია,
რომელშიც გამარჯვებული იღებს ყველაფერს. -
9:41 - 9:44ამ შეჯიბრში 6 თვით წინ ყოფნა,
-
9:44 - 9:47მინიმუმ 500 000 წლით წინ ყოფნას ნიშნავს.
-
9:47 - 9:52ამიტომ, ასეთი გარღვევის შესახებ
ჭირებმაც კი, -
9:52 - 9:55შეიძლება გადარიოს ჩვენი სახეობა.
-
9:55 - 9:58ერთ-ერთი ყველაზე საშიში რამ,
-
9:58 - 10:00ამჟამად, ჩემი აზრით
-
10:00 - 10:05არის ის რასაც ხელოვნური ინტელექტის
მკვლევარები ამბობენ, -
10:05 - 10:07როცა უნდათ, რომ იმედი მოგვცენ.
-
10:07 - 10:10ყველაზე ხშირად ნათქვამი მიზეზი იმისა,
რომ არ ვიღელვოთ, არის დრო. -
10:10 - 10:13ხომ იცით, იქამდე ჯერ კიდევ შორია.
-
10:13 - 10:15სავარაუდოდ სადღაც 50 -100 წელია იქამდე.
-
10:16 - 10:17ერთმა მკვლევარმა თქვა:
-
10:17 - 10:19"ხელოვნურ ინტელექტზე ნერვიულობა,
-
10:19 - 10:21იგივეა რაც ინერვიულოთ
მარსის გადამეტდასახლებულობაზე" -
10:22 - 10:24ეს, "ამაზე ფიქრით ტვინს ნუ დაიღლით "-ის
-
10:24 - 10:27სილიკონის ველისეული ვერსიაა
-
10:27 - 10:27(სიცილი)
-
10:28 - 10:29თითქოს ვერავინ ამჩნევს,
-
10:29 - 10:32რომ დროითი ფაქტორის მოყვანა
-
10:32 - 10:35სრულიად უადგილოა.
-
10:35 - 10:38თუ ინტელექტი მხოლოდ
ინფორმაციის დამუშავების ამბავია -
10:38 - 10:41და ჩვენ განვაგრძობთ
მანქანების გაუმჯობესებას, -
10:41 - 10:44მაშინ მივიღებთ რაღაც ტიპის
სუპერინტელექტს -
10:44 - 10:48და ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის, -
10:48 - 10:51რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები. -
10:52 - 10:53ნება მომეცით, კიდევ გავიმეორო.
-
10:54 - 10:57ჩვენ წარმოდგენა არ გვაქვს,
რა დრო დაგვჭირდება იმისთვის, -
10:57 - 11:01რომ მივიღოთ შესაბამისი
უსაფრთხოების ზომები. -
11:01 - 11:04თუ ვერ შეამჩნიეთ, გეტყვით,
რომ ეს ის 50 წელი არ არის, რაც უწინ იყო. -
11:04 - 11:07ეს არის 50 წელი თვეებში.
-
11:07 - 11:09ამდენი ხანია რაც აიფონები გვაქვს.
-
11:09 - 11:12ამდენი ხანია რაც "სიმფსონები" გადის.
-
11:13 - 11:1550 წელი არც ისე დიდი დროა იმისთვის,
-
11:15 - 11:19რომ ჩვენი სახეობისთვის
ერთ-ერთ უდიდეს გამოწვევას შევეგებოთ. -
11:20 - 11:24კიდევ ერთხელ, თითქოს არ შეგვწევს უნარი
გვქონდეს ადექვატური ემოციური რეაქცია, -
11:24 - 11:26იმის მიმართ, რაც აშკარად მოსალოდნელია.
-
11:26 - 11:30კომპიუტერულმა მეცნიერმა სტიურატ რასელმა
კარგი ანალოგია გააკეთა. -
11:30 - 11:35მან თქვა, წარმოიდგინეთ, რომ უცხოპლანეტელი
ცივილიზაციისგან მივიღეთ გზავნილი, -
11:35 - 11:37რომელიც ამბობს:
-
11:37 - 11:39"დედამიწის მოსახლეობავ,
-
11:39 - 11:42ჩვენ გეწვევით თქვენ პლანეტაზე
50 წელიწადში. -
11:42 - 11:43მოემზადეთ"
-
11:43 - 11:48და ამის შემდეგ თვეების თვლას დავიწყებთ,
სანამ ხომალდი არ ჩამოვა? -
11:48 - 11:51ალბათ, ამაზე ცოტა უფრო მეტ
გადაუდებლობას ვიგრძნობდით. -
11:52 - 11:54კიდევ ერთი მიზეზი,
რასაც დასამშვიდებლად ამბობენ, -
11:54 - 11:58არის რომ ამ მანქანებს ჩვენი ფასეულობების
გაზიარების გარდა სხვა გზა არ ექნებათ, -
11:58 - 12:00რადგან ისინი ჩვენი გაგრძელებები იქნებიან.
-
12:00 - 12:02ისინი ჩვენს ტვინს მიუერთდებიან,
-
12:02 - 12:05ჩვენ კი მათი ლიმბური სისტემა გავხდებით.
-
12:05 - 12:07ერთი წამით დავფიქრდეთ,
-
12:07 - 12:10რომ ყველაზე უსაფრთხო
და ერთადერთი წინდახედული, -
12:10 - 12:11რეკომენდებული გზა,
-
12:11 - 12:14არის ამ ტექნოლოგიების პირდაპირ
ჩვენ ტვინში ჩანერგვა. -
12:15 - 12:18ეს შეიძლება მართლაც ყველაზე უსაფრთხო
და ერთადერთი წინდახედული გზა იყოს, -
12:18 - 12:21მაგრამ როგორც წესი,
ტექნოლოგიის უსაფრთხოებაზე ზრუნვა, -
12:21 - 12:25მანამ უნდა იყოს დამთავრებული,
სანამ მას თავში შევიტენით. -
12:25 - 12:27(სიცილი)
-
12:27 - 12:32უფრო სიღრმისეული პრობლემა ისაა,
რომ ზეგონიერი ხელოვნური ინტელექტის შექმნა, -
12:32 - 12:34თავისთავად უფრო მარტივი ჩანს,
-
12:34 - 12:35ვიდრე მისი შექმნა
-
12:35 - 12:38და შემდეგ ნეირომეცნიერების სრული შესწავლა,
-
12:38 - 12:41რაც საშუალებას მოგვცემს
მოვახდინოთ ჩვენ ტვინში მისი ინტეგრაცია. -
12:41 - 12:44იმის გათვალისწინებით,
რომ კომპანიები და მთავრობები, -
12:44 - 12:48რომლებიც ამას აკეთებენ,
თავს ყველა დანარჩენთან შეჯიბრში აღიქვამენ -
12:48 - 12:51და რომ ამ შეჯიბრის მოგება,
მსოფლიოს მოგებას ნიშნავს, -
12:51 - 12:53თუ მეორე წამს ამ მსოფლიოს
არ გაანადგურებენ, -
12:53 - 12:56მაშინ სავარაუდოა,
რომ პირველ რიგში იმას გააკეთებენ, -
12:56 - 12:58რისი გაკეთებაც ყველაზე მარტივია.
-
12:59 - 13:01სამწუხაროდ მე არ მაქვს
ამ პრობლემაზე პასუხი, -
13:01 - 13:04გარდა რჩევისა, რომ უფრო მეტმა ჩვენგანმა
იფიქროს ამაზე. -
13:04 - 13:07ვფიქრობ, რაღაც "მანჰეტენის პროექტის"
მაგვარი გვჭირდება -
13:07 - 13:08ხელოვნური ინტელექტის მიმართულებით.
-
13:08 - 13:11არა იმისთვის, რომ ის შევქმნათ,
რადგან ვფიქრობ ეს გარდაუვლად მოხდება, -
13:11 - 13:15არამედ, რომ გავარკვიოთ,
თუ როგორ ავიცილოთ თავიდან სამხედრო შეჯიბრი -
13:15 - 13:18და შევქმნათ ეს მანქანა ისე,
რომ ის თანხვედრაში იყოს, ჩვენ ინტერესთან. -
13:18 - 13:20როცა ვლაპარაკობთ ზეგონიერ
ხელოვნურ ინტელექტზე, -
13:20 - 13:23რომელსაც საკუთარი თავის შეცვლა შეუძლია,
-
13:23 - 13:27მგონია, რომ ერთი შანსი გვაქვს,
სწორ საწყის პირობებს მივაგნით -
13:27 - 13:29და ამ შემთხვევაშიც დაგვჭირდება,
-
13:29 - 13:33რომ ამის პოლიტიკური და ეკონომიკური
შედეგები გადავხარშოთ. -
13:34 - 13:36თუმცა, როგორც კი ვაღიარებთ,
-
13:36 - 13:40რომ ინტელექტის წყარო
ინფორმაციის დამუშავებაა, -
13:41 - 13:46რომ რაღაც შესაბამისი გამოთვლითი სისტემა
წარმოდაგენს ინტელექტის ბაზისს, -
13:46 - 13:51ვაღიარებთ, რომ ჩვენ უწყვეტად
გავაუმჯობესებთ ამ სისტემებს -
13:51 - 13:56და ვაღიარებთ, რომ გონებრივი შესაძლებლობის
ჰორიზონტი იმაზე ბევრად უფრო შორს მიდის, -
13:56 - 13:58ვიდრე ჩვენ დღეს წარმოგვიდგენია,
-
13:58 - 13:59მაშინ უნდა ვაღიაროთ,
-
13:59 - 14:03რომ ჩვენ ვართ რაღაც ტიპის
ღმერთის შექმნის პროცესში. -
14:03 - 14:06ახლა ის დროა, ვიზრუნოთ იმაზე,
რომ ეს ისეთი ღმერთი იყოს, -
14:06 - 14:08რომელთანაც შევძლებთ თანაცხოვრებას.
-
14:08 - 14:10დიდი მადლობა.
-
14:10 - 14:15(აპლოდისმენტები)
- Title:
- შეგვიძლია ისე შევქმნათ ხელოვნური ინტელექტი, რომ მასზე კონტროლი არ დავკარგოთ?
- Speaker:
- სემ ჰერისი
- Description:
-
გეშინიათ ზეგონიერი ხელოვნური ინტელექტის? ნეირომეცნიერი და ფილოსოფოსი სემ ჰერისი ამბობს, რომ უნდა გვეშინოდეს და არა მხოლოდ თეორიულად. ჩვენ სუპერ მანქანების აგების გზას ვადგავართ, მაგრამ ჯერ არ შევჭიდებივართ პრობლემებს, რომლებიც დაკავშირებულია ისეთი რამის შექმნასთან, რაც შეიძლება ისე მოგვეპყროს, როგორც ჩვენ ვეპყრობით ჭიანჭველებს, ამბობს ჰერტისი.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
Levan Lashauri edited Georgian subtitles for Can we build AI without losing control over it? | ||
Levan Lashauri edited Georgian subtitles for Can we build AI without losing control over it? | ||
Levan Lashauri edited Georgian subtitles for Can we build AI without losing control over it? | ||
Levan Lashauri approved Georgian subtitles for Can we build AI without losing control over it? | ||
Tamta Makharadze accepted Georgian subtitles for Can we build AI without losing control over it? | ||
Tamta Makharadze edited Georgian subtitles for Can we build AI without losing control over it? | ||
Tamta Makharadze edited Georgian subtitles for Can we build AI without losing control over it? | ||
Levan Lashauri edited Georgian subtitles for Can we build AI without losing control over it? |