ჩემი პირველი სამსახური პროგრამისტად დავიწყე. ეს იყო კოლეჯის პირველ წელს, როცა ფაქტიურად თინეიჯერი ვიყავი. მუშაობის დაწყებიდან მალევე, რაც კომპანიისთვის პროგრამების წერას გულისხმობდა, კომპანიაში მომუშავე მენეჯერი მოვიდა ჩემთან და ჩამჩურჩულა: "შეუძლია მას მიხვდეს, ვიტყუები თუ არა?" ოთახში მეტი არავინ იყო. "ვის შეუძლია მიხვდეს? და რატომ ვჩურჩულებთ?" მენეჯერმა ოთახში მდგარ კომპიუტერზე მიმანიშნა. "შეუძლია მიხვდეს, რომ ვიტყუები?" ამ მენეჯერს მდივანთან რომანი ჰქონდა. (სიცილი) მე ჯერ კიდევ თინეიჯერი ვიყავი და ჩურჩულით დავუყვირე: "დიახ, კომპიუტერს შეუძლია მიხვდეს, რომ იტყუებით" (სიცილი) მე კი ვიცინე, მაგრამ ახლა მე ვარ დასაცინი. დღესდღეობით არსებობს გამოთვლითი სისტემები, რომლებსაც შეუძლიათ ადამიანის სახის დამუშავებით, ემოციური მდგომარეობის და ტყუილის გამოცნობაც კი. სარეკლამოები და მთავრობებიც კი, ძალიან დაინტერესებულები არიან. მე პროგრამისტი იმიტომ გავხდი, რომ ერთ-ერთი იმ ბავშთაგანი ვიყავი, ვინც მათემატიკაზე და მეცნიერებაზე გიჟდება, მაგრამ რაღაც მომენტში ბირთვულ იარაღზე შევიტყვე და სერიოზულად დავფიქრდი სამეცნიერო ეთიკაზე. ამან შემაწუხა. თუმცა, ოჯახური გარემოებების გამო სამსახურის დაწყება სასწრაფოდ მჭირდებოდა. ამიტომ ტექნიკური სფეროს არჩევა გადავწყვიტე, სადაც სამსახურს უფრო ადვილად ვიშოვიდი და სადაც არ მომიწევდა პრობლემურ ეთიკურ კითხვებთან ჭიდილი. შედეგად კომპიუტერები ავარჩიე. (სიცილი) ჰა ჰა ჰა.. მე ვარ დასაცინი. დღესდღეობით, კოპიუტერული მეცნიერები ქმნიან პლატფორმებს, რომლებიც აკონტროლებენ, თუ რას ნახულობს მილიარდობით ადამიანი ყოველდღე. ისინი ქმნიან მანქანებს, რომლებიც წყვეტენ თუ ვის დაარტყან. ისინი ისეთ მანქანებს და იარაღებსაც კი ქმნიან, რომლებსაც ადამიანების მოკვლა შეუძლიათ ომში. აქ ყველგან ეთიკაა. მანქანური ინტელექტი აწმყოა. ჩვენ ამჟამად კომპიუტერებს მთელი რიგი გადაწყვეტილებების მისაღებად ვიყენებთ და ასევე ახალი გადაწყვეტებისთვისაც. ჩვენ კომპიუტერებს ისეთ კითხვებს ვუსვამთ, რომლებსაც არ აქვთ ერთი სწორი პასუხი, რომლებიც სუბიექტურია და ღიაა ინტერპრეტაციებისა და შეფასებისთვის. მაგალთად ვუსვამთ კითხვებს: "ვინ უნდა იქირაოს კომპანიამ?" "რომელი მეგობრის, რომელი სიახლე უნდა გაჩვენოთ" "რომელმა ნასამართლევმა უფრო დიდი შანსია, რომ გაიმეოროს დანაშაული" "რომელი სიახლე, ან ფილმი უნდა შევთავაზოთ ხალხს?" დიახ, ჩვენ დიდი ხანია ვიყენებთ კომპიუტერებს, მაგრამ ეს სხვა რამეა. ეს ისტორიული შემობრუნებაა, რადგან ჩვენ ვერ დავაფუძნებთ კომპიუტერებზე ასეთ სუბიექტურ გადაწყვეტილებებს, როგორც ვაკეთებდით თვითმფრინავის მართვის, ხიდების აშენების, და მთვარეზე გაფრენის შემთხვევაში. თვითმფინავები ხომ უფრო უსაფრთხოა? ხიდებიც არ ინგრევა. ამ შემთხვევებში მკაფიო წესებზე შევთანხმდით და ბუნების კანონებით ვხემძღვანელობთ. ჩვენ არ გვაქვს მსგავსი ნიშნულები და წესები ადამიანთა უწესრიგო ურთიერთობებში. ამ ყველაფერს ის უფრო ამძიმებს, რომ ჩვენი პროგრამები სულ უფრო ძლევამოსილი და ამავე დროს ნაკლებად გასაგები და უფრო კომპლექსური ხდება ცოტა ხნის წინ, გასულ ათწლეულში, კომპლექსურ ალგირითმებს დიდი მიღწევები ჰქონდათ. მათ ადამიანის სახეების ამოცნობა შეუძლიათ. ხელნაწერის გარჩევა შეუძლიათ, შეუძლიათ ყალბი საკრედიტო ბარათი ამოიცნონ და დაბლოკონ სპამი. ასევე თარგმნონ სხვადასხვა ენებზე. მათ რენტგენის სურათზე სიმსივნის აღმოჩენა შეუძლიათ. ისინი ჭადრაკში ადამიანს ამარცხებენ. ამ პროგრესის უმეტესობა ე.წ. "მანქანური სწავლებით" მიიღწევა. მანქანური სწავლება განსხვავდება ტრადიციული პროგრამირებისგან, როცა კომპიუტერს ზუსტ და დეტალურ ინსტრუქციებს აძლევთ. ამ შემთხვევაში სისტემას ბევრ მონაცემს აწვდით, მათ შორის უსტრუქტურო მონაცემს. ისეთი ტიპის მონაცემებს, რომლებსაც ჩვენ ციფრულ ცხოვრებაში ვქმნით და სისტემა ამ მონაცემების გარჩევას სწავლობს. ასევე, საკვანძოა, რომ ეს სისტემები ერთპასუხიანი ლოგიკით არ მუშაობენ. ისინი მარტივ პასუხს არ იძლევიან; პასუხი უფრო სავარაუდოა: "სავარაუდოდ ამას უფრო ეძებდით" ამის დადებითი მხარე ისაა, რომ ეს მეთოდი მართლაც ეფექტურია. გუგლის ხელოვნური ინტელექტის სისტემების ხელმძღვანელმა მათ უწოდა: "მონაცემების ირაციონალური ეფექტურობა" უარყოფითი მხარე კი, რომ ჩვენ რეალურად არ ვიცით რა ისწავლა სისტემამ. პრინციპში, სწორედ ესაა მისი ძალა. ეს კომპიუტერისთვის ინსტრუქციების მიცემას არ ჰგავს. ეს უფრო ლეკვ-მანქანის წვრთნაა. ჩვენ რეალურად არ გვესმის და ვერ ვაკონტროლებთ. ჩვენი პრობლემაც ესაა. პრობლემაა, როცა ხელოვნურ ინტელექტს რაღაც არასწორად ესმის. ასევე პრობლემაა, როცა მას რაღაც სწორად ესმის, რადგან ჩვენ არც კი ვიცით რა, რა არის, როცა პრობლემა სუბიექტურია. ჩვენ არ ვიცით ეს მოწყობილობა რას ფიქრობს. განვიხილოთ კადრების ალგორითმი. სისტემა, რომელსაც თანამშრომლები მანქანური სწავლების გამოყენებით აჰყავს. ასეთი სისტემა, არსებული თანამშეომლების მონაცემებზეა გაწვრთნილი, რომ იპოვოს და შეარჩიოს არსებული მაღალი შედეგების მქონე თანამშრომლების მსგავსი ხალხი. მშვენივრად ჟღერს. ერთხელ კონფერენციას დავესწარი, რომელსაც კადრების მენეჯერები და აღმასრულებლები ესწრებოდნენ, მაღალი თანამდებობის ხალხი, რომლებიც მსგავს სისტემებს იყენებდნენ. ისინი აღტაცებულები იყვნენ, მათ წარმოედგინათ, რომ ეს თანამშრომლების აყვანის პროცესს უფრო ობიექტურს გახდიდა და ქალებს და უმცირესობებს, ადამიანი მენეჯერების ტენდენციურობასთან შედარებით მეტ შანსს მისცემდა. და მართლაც ადამიანების მიერ შერჩევა ტენდენციურია. ეს ვიცი. ერთ-ერთ ჩემ პირველ სამსახურში სადაც პროგრამისტი ვიყავი, ჩემი უფროსი ზოგჯერ მოვიდოდა ხოლმე, ძალიან ადრე დილას, ან გვიან შუადღეს და მეტყოდა: "ზეინეპ, მოდი, ლანჩზე წავიდეთ!" მე გაკვირვებული ვიყავი ხოლმე ასეთ დროს. 4 საათია, ლანჩი? საშუალება არ მქონდა, ამიტომ ამ უფასო ლანჩზე მივდიოდი. მოგვიანებით აღმოვაჩინე რაც ხდებოდა. ჩემ უშუალო უფროსს თავისი უფროსისთვის არ უთქვამს, რომ პროგრამისტი, რომელიც სერიოზული სამუშაოსთის აიყვანა თინეიჯერი გოგო იყო, რომელიც ჯინსებით და ბოტასებით დადიოდა სამსახურში. მე კარგად ვმუშაობდი, უბრალოდ არასათანადოდ გამოვიყურებოდი და შეუსაბამო ასაკის და სქესის ვიყავი. ასე რომ, სქესის და რასის გარეშე სამსახურში აყვანა ნამდვილად კარგად ჟღერს. თუმცა, ამ სისტემებით ეს უფრო რთულია და აი რატომ: დღესდღეობით გამოთვლით სისტემებს ბევრი რამის ამოცნობა შეუძლიათ თქვენ შესახებ, თქვენი ციფრული კვალის მიხედვით მაშინაც კი, თუ ეს მონაცემები არსად განგითავსებიათ. მათ შეუძლიათ ამოიცნონ თქვენი სექსუალური ორიენტაცია, პიროვნული თვისებები, პოლიტიკური გემოვნება. მათ მაღალი სიზუსტით პროგნოზირების უნარი აქვთ. გახსოვდეთ... ისეთი რამეების, რაც თქვენ არ გაგიმხელიათ. ეს ვარაუდით ხდება. მე მყავს მეგობარი, რომელმაც ასეთი გამოთვლითი სისტემა შექმნა. ეს სისტემა სოციალური ქსელების მონაცემების მიხედვით კლინიკური, ან პოსტნატალური დეპრესიის ალბათობას პროგნოზირებს. შედეგები შთამბეჭდავია. მის სისტემას დეპრესიის პროგნოზირება ნაბისმიერი სიმპტომების გაჩენამდე, თვეებით ადრე შეუძლია... თვეებით ადრე. პროგნოზი უსიმპტომებოდ. ის იმედოვნებს, რომ ამას ადრეული ინტერვენციისთვის გამოიყენებენ. მშვენიერია! ახლა ეს სამსახურში აყვანის კონტექსტში ჩავსვათ. მაშ, ამ კადრების მენეჯერების კონფერენციაზე, მე მივედი ერთი ძალიან დიდი კომპანიის მაღალი დონის მენეჯერთან და ვუთხარი: "იქნებ თქვენ არ იცით და სისტემა ისეთ ხალხს აგირჩევთ, რომელთაც დეპრესიის დიდი ალბათობა აქვთ მომავალში. ისინი ამჟამად არ არიან დეპრესიაში, მომავალში კი ალბათობა დიდია. ან იქნებ ისეთ ქალს აარჩევს, რომელიც დიდი შანსია შემდეგი ერთი ორი წლის განმავლობაში დაფეხმძიმდეს? ან იქნებ აგრესიული ხალხი აგირჩიოთ, რადგან ასეთია თქვენი სამუშაო გარემო?" თქვენ ამას სქესების მიხედვით ჩაშლით ვერ მიხვდებით. ისინი შეიძლება დაბალანსებული იყოს. რადგან ეს მანქანური სწავლებაა და არა ტრადიციული კოდირება, არ არსებობს ცვლადი სახელად: "დეპრესიის მომატებული რისკი" ან "დაფეხმძმების მომატებული რისკი" ან "აგრესიული მამაკაცის შკალა" არა მხოლოდ ის არ იცით, როს მიხედვით არჩევს სისტემა, არამედ ისიც კი არ იცით, საიდან დაიწყოთ ამის გარკვევა. შავი ყუთია. მას პროგნოზირების უნარი აქვს, მაგრამ თქვენ ის არ გესმით. "რა უსაფრთხოების საშუალებები გაქვთ" ვკითხე მე, "იმისთვის რომ დარწმუნდეთ, რომ თქვენი შავი ყუთი რამე საეჭვოს არ აკეთებს?" მან ისე შემომხედა, თითქოს 10 ლეკვს ერთად დავაბიჯე კუდზე. (სიცილი) შემომხედა და მითხრა: "ამაზე მეტის მოსმენას აღარ ვაპირებ" გატრიალდა და წავიდა. გაითვალისწინეთ, ის არ უხეშობდა. მისი პოზიცია იყო: რაც არ ვიცი, ჩემი პრობლემა არაა, მომშორდი, ცივი მზერით. (სიცილი) ესეთი სისტემა მართლაც შეიძლება იყოს ნაკლებად ტენდენციური, ვიდრე ადამიანი მენეჯერები გარკვეულწილად. და შეიძლება ეს ფინანსურადაც აზრიანი იყოს, მაგრამ ამან ასევე შეიძლება სამუშაო ბაზრიდან დეპრესიის მომატებული რისკის მქონე ხალხის მუდმივ და ფარულ განდევნას შეუწყოს ხელი. გვინდა კი, ასეთი საზოგადოების შენება, როცა არც კი ვიცით, რომ ამას ვაკეთებთ, რადგან გადაწყვეტულების მიღება, ისეთ მანქანებს მივანდეთ, რომლებიც არც კი გვესმის. კიდევ ერთი პრობლემა ისაა, რომ ეს სისტემები ხშირად იწვრთნებიან მონაცემებზე, რომლებსაც ჩვენ ვქმნით. ადამიანის კვალზე. ისინი შეიძლება ჩვენს ტენდენციურობებს ასახავდეს და ეს სისტემებიც ჩეიძლება ჩვენს ტენდენციებს იზიარებდნენ, აძლიერებდნენ მათ და უკან გვიბრუნებდნენ. ჩვენ კი ამ დროს თავს ვიტყუებთ: "ჩვენ მხოლოდ ობიექტურ და ნეიტრალურ გამოთვლებს ვაწარმოებთ" მკვლევარებმა დაადგინეს, რომ გუგლში ქალებმა უფრო პატარა შანსია მაღალანაზღაურებადი სამუშაოს რეკლამა ნახონ, ვიდრე კაცებმა. და აფრო-ამერიკული სახელების ძიებისას, უფრო დიდი შანსია კრიმინალური ხასიათის ამბავი ამოგიხტეთ მაშინაც კი როცა ის არ არსებობს. ასეთმა ფარულმა ტენდენციურობებმა და შავი ყუთის ალგორითმებმა, რომლებსაც მკვლევარები ზოგჯერ აღმოაჩენენ, ზოგჯერ კი არც ვიცით, შეიძლება დრამატულ შედეგებამდე მიგვიყვანოს. უისკონსინში ბრალდებულს 6 წელი მიუსაჯეს პოლიციისგან გაქცევის გამო. თქვენ შეიძლება არ იცით, მაგრამ განაჩენის გამოტანისას, ალგორითმები მზარდად გამოიყენება. მას უნდოდა გაეგო: როგორ გამოითვალეს? ეს კომერციული შავი ყუთია. კომპანიამ უარი განაცადა მათი ალგორითმი ღია სასამართლოზე განეხილათ, მაგრამ არასამთავრობო "ProPublica"-მ ეს ალგორითმი შეამოწმა, იმ გასაჯაროებული მონაცემებით რაც იპოვეს და აღმჩნდა, რომ შედეგები ტენდენციური იყო და პროგნოზირების უნარი საშინელი. შემთხვევითობაზე ოდნავ უკეთესი. ის შავკანიან ბრალდებულებს, მომავალ კრიმინალებად ორჯერ უფრო ხშირად აფასებდა ვიდრე თეთრკანიანებს. განვიხილოთ ასეთი შემთხვევა: ამ ქალს ბროუარდის ოლქში, ფლორიდაში სკოლიდან საკუთარი სულიერი დის წამოსაყვანად აგვიანდებოდა, როცა ქუჩაში მირბოდა მის მეგობართან ერთად, მათ საბავშვო ველოსიპედი და სკუტერი შენიშნეს და სისულელით შეხტნენ მათზე. იმ ადგილს რომ შორდებოდნენ, ქალი გამოვიდა და თქვა: "ეი! ეს ჩემი ბავშვის ველოსიპედია!" მათ დატოვეს ველოსიპედი და სკუტერი და წავიდნენ, მაგრამ ისინი მაინც დააკავეს. ის შეცდა, სულელურად მოიქცა, მაგრამ ის მხოლოდ 18 იყო. მას რამდენიმე ახალგაზრდული წვრილმანი დანაშაული ჰქონდა. ამ დროს, ეს კაცი მაღაზია "Home Depot "-ს გაქურდვისთვის დააკავეს 85 დოლარის ღირებულების საქონელი მოიპარა. საკმაოდ მსგავსი დანაშაული, მაგრამ ის ადრე 2 შეიარაღებული ყაჩაღობისთვისაც იყო გასამართლებული. თუმცა, ალგორითმა უფრო მაღალი რისკის მქონედ ქალი შეაფასა და არა ის. 2 წლის შემდეგ "ProPublica"-მ აღმოაჩინა რომ მას განმეორებითი დანაშაული არ ჩაუდენია. სამუშაოს შოვნა კი გაუძნელდა, ასეთი წარსულის გამო. თავის მხრივ, იმ კაცმა დანაშაული გაიმეორა და ამჟამად 8 წლიან სასჯელს იხდის ბოლო დანაშაულისთვის. ცხადია, ჩვენი შავი ყუთები უნდა შევამოწმოთ და არ უნდა მივცეთ მათ, ასეთი უკონტროლო ძალაუფლება. (აპლოდისმენტები) შემოწმება და კონტროლი მნიშვნელოვანია, მაგრამ ეს ყველა პრობლემას არ აგვარებს. ავიღოთ ფეისბუკის სიახლეების მძლავრი ალგორითმი. აი ის, ყველაფერს რომ ახარისხებს და წყვეტს რა უნდა გაჩვენოთ, ყველა მეგობრიდან და გვერდიდან, რომელის გამომწერიც ხართ. უნდა გაჩვენოთ თუ არა, კიდევ ერთი ბავშვის სურათი? (სიცილი) ნაცნობის სევდიანი წერილი? მნიშვნელოვანი, მაგრამ მძიმე სიახლე? არ არსებობს სწორი პასუხი. ფეისბუკი თქვენი ქმედებების ოპტიმიზაციას აკეთებს მოწონებები, გაზიარებები, კომენტარები. 2014 წლის აგვისტოში ფერგიუსონში, მისური, თეთრკანიანი პოლიციელის მიერ ბუნდოვან ვითარებაში აფრო-ამერიკელი თინეიჯერის მკვლელობას, პროტესტის ტალღა მოჰყვა. პროტესტის ამბები ჩემ ალგორითმულად დაუფილტრავ ტვიტერზე ყველგან იყო, მაგრამ ფეისბუკზე არსად ჩანდა. შეიძლება ჩემი ფეისბუკ მეგობრების გამო იყო ასე? გავთიშე ფეისბუკის ალგორითმი, რაც რთულია, რადგან ფეისბუკი მუდმივად ცდილობს ალგორითმის კონტროლის ქვეშ მოგაქციოთ. გათიშვის შემდეგ, ვნახე რომ მეგობრები საუბრობენ ამაზე. უბრალოდ ალგორითმი არ მაჩვენებდა ამას. გამოვიკვლიე და აღმოვაჩინე, რომ ეს გავრცელებული პრობლემაა. ფერგიუსონის თემა, ალგორითმისთვის არ იყო პრიორიტეტული. არ იყო "მოწონებადი" ვინ დააჭერდა "მოწონებას"? მასზე კომენტარიც კი რთულია. მოწონებებისა და კომენტარების გარეშე, ალგორითმი უფრო ცოტა ადამიანს აჩვენებს მას, ამიტომაც ვერ ვნახულობდით მას. სამაგიეროდ, იმ კვირას, ფეისბუკის ალგორითმმა ეს გამოკვეთა: "ყინულიანი სათლის გამოწვევის" კამპანია. ღირებული რამაა; ვისხამთ ყინულიან წყალს და ვრიცხავთ შემოწირულობას. მშვენიერია. ის ალგორითმისთვის ძალიან პრიორიტეტული იყო. მანქანამ ეს გადაწყვეტილება ჩვენ მაგივრად მიიღო. რთული, მაგრამ ძალიან მნიშვნელოვანი დისკუსია, შეიძლება არ შემდგარიყო, ფეისბუკი ერთადერთი საშუალება რომ ყოფილიყო. და ბოლოს, ეს სისტემები შეიძლება ადამიანებისთვის არადამახასიათებლად ცდებოდნენ. გახსოვთ უოტსონი, IBM-ის მანქანური ინტელექტის სისტემა, რომელმაც ვიქტორინა "Jeopardy"-ში მონაწილე ადამიანი გაანადგურა? ის დიდებული მოთამაშე იყო. თუმცა, ფინალში უოტსონს ჰკითხეს: "მისი უდიდესი აეროპორტი მეორე მსოფლიო ომის გმირის სახელობისაა, მისი სიდიდით მეორე აეროპორტი მეორე მსოფლიო ომის ბრძოლის სახელობის." (Jeopardy-ს საფინალო მუსიკა) ჩიკაგო. ორმა ადამიანმა სწორად უპასუხა. უოტსონმა უპასუხა: "ტორონტო"... აშშ-ს ქალაქების კატეგორიაში. შთამბეჭდავმა სისტემამ ისეთი შეცდომა დაუშვა, რომელსაც ადამიანი არასდროს დაუშვებდა. მეორე კლასელი არ დაუშვებდა. მანქანურმა ინტელექტმა შეიძლება ისეთი შეცდომები დაუშვას, რომლებიც ადამიანური შეცდომების ხასიათში არ ჯდება. და რომლებსაც შეიძლება არ ველოდოთ და მოუმზადებლები აღმოვჩნდეთ. სამწუხაროა, როცა სამუშაოზე შესაბამისი კადრი ვერ აღმოჩნდება, მაგრამ ბევრად უარესია, თუ ეს რომელიღაც ქვეპროგრამაში, სტეკის გადავსების გამო მოხდა. (სიცილი) 2010 წლის მაისში, "უოლ სტრიტის" საფონდო ბირჟის ვარდნამ, რომელიც "უოლ სტრიტის" "გაყიდვის" ალგორითმის, უკუკავშირის ციკლით იყო გამოწევეული, ტრილიონი დოლარის ღირებულების დაკარგვა გამოიწვია 36 წუთში. წარმოსადგენადაც კი რთულია რას შეიძლება ნიშნავდეს "შეცდომა" ავტომატური ლეტალური იარაღის შემთხვევაში. ასე რომ, დიახ ადამიანები ყოველთვის ტენდენციურები არიან. გადაწყვეტილების მიმღებები და დარაჯები, სასამართლოებში, ახალ ამბებში, ომში... ისინი შეცდომებს უშვებენ, მაგრამ სწორედ ამაშია საქმე. ჩვენ გვერდს ვერ ავუვლით ამ რთულ კითხვებს. ჩვენ ვერ გადავაბარებთ ჩვენს ვალდებულებებს მანქანებს. (აპლოდისმენტები) ხელოვნური ინტელექტი ვერ მოგცვემს ეთიკური პრობლემების თავიდან აცილების საშუალებას. მონაცემების სპეციალისტი ფრედ ბენენსონი ამას მათემატიკურ-წმენდას ეძახის. ჩვენ ამის საპირისპირო გვჭირდება. ჩვენ ალგორითმის მიმართ ეჭვის, შესწავლის და კვლევის წახალისება გვჭირდება. უნდა დავრწმუნდეთ ჩვენ ალგორითმულ ანგარიშვალდებულებაში, შემოწმებასა და გამჭვირვალობაში. ჩვენ უნდა გვესმოდეს, რომ მათემატიკის და გამოთვლის შემოტანას, უწესრიგო, ღირებულებებით სავსე ადამიანურ ურთიერთობებში არ მოაქვს ობიექტურობა, არამედ ადამიანური ურთიერთობების სირთულე იჭრება ალგორითმებში. დიახ, ჩვენ შეგვიძლია და უნდა გამოვიყენოთ გამოთვლა, უკეთესი გადაწყვეტულებების მისაღებად, მაგრამ ასევე მორალური პასუხისმგებლობა უნდა ავიღოთ გადაწყვეტილებებზე და ამ სქემაში გამოვიყენოთ ალგორითმები და არა ერთმანეთზე, როგორც ადამიანიდან ადამიანზე პასუხისმგებლობების გადაბარების საშუალებად. მანქანური ინტელექტი აწმყოა. ეს ნიშნავს, რომ ჩვენ კიდევ უფრო მეტად უნდა ჩავეჭიდოთ ადამიანურ ფასეულობებსა და ადამიანურ ეთიკას მადლობა. (აპლოდისმენტები)