WEBVTT 00:00:00.760 --> 00:00:04.600 בילדותי הייתי החנון המוחלט. 00:00:05.320 --> 00:00:07.496 אני חושב שכמה מכם היו גם. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (צחוק) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 ואתה אדוני, שצחקת הכי חזק, כנראה עדיין גם היום. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (צחוק) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 גדלתי בעיר קטנה במרחבים המאובקים של צפון טקסס, 00:00:17.800 --> 00:00:21.136 בנו של השריף שהיה בן של כומר. 00:00:21.160 --> 00:00:23.080 להיקלע לצרות לא היתה אופציה. 00:00:24.040 --> 00:00:27.296 אז התחלתי לקרוא ספרי חשבון בשביל הכיף. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (צחוק) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 אתם גם. 00:00:30.600 --> 00:00:34.336 זה הוביל אותי לבניית לייזר ומחשב ומודלים של טילים, 00:00:34.360 --> 00:00:37.360 מה שהוביל אותי לייצר דלק טילים בחדר השינה שלי. 00:00:37.960 --> 00:00:41.616 ובכן, במונחים מדעיים, 00:00:41.640 --> 00:00:44.896 אנחנו קוראים לזה רעיון רע מאוד. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (צחוק) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 בערך באותו זמן, 00:00:48.360 --> 00:00:51.576 הסרט ״2001 אודיסאה בחלל״ של סטנלי קובריק הגיע למסכים, 00:00:51.600 --> 00:00:53.800 וחיי השתנו לנצח. 00:00:54.280 --> 00:00:56.336 אהבתי כל מה שהיה קשור לסרט, 00:00:56.360 --> 00:00:58.896 בייחוד את האל 9000 (HAL). 00:00:58.920 --> 00:01:00.976 ובכן, האל היה מחשב בעל מודעות 00:01:01.000 --> 00:01:03.456 שתוכנן להדריך את ספינת החלל דיסקברי 00:01:03.480 --> 00:01:06.016 בדרך מכדור הארץ לצדק. 00:01:06.040 --> 00:01:08.096 האל היה גם טיפוס פגום, 00:01:08.120 --> 00:01:12.400 כי בסופו של דבר הוא בחר להעדיף את המשימה על פני חיי אדם. 00:01:12.840 --> 00:01:14.936 למרות שהאל היה דמות בדיונית, 00:01:14.960 --> 00:01:17.616 הוא דיבר אל הפחדים שלנו, 00:01:17.640 --> 00:01:19.736 הפחדים שלנו להיות משועבדים 00:01:19.760 --> 00:01:22.776 על ידי בינה מלאכותית, ללא רגשות 00:01:22.800 --> 00:01:24.760 שאדישה לאנושיות שלנו. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 אני מאמין שפחדים כאלו הם חסרי ביסוס. 00:01:28.480 --> 00:01:31.176 אכן, אנו נמצאים בזמן יוצא דופן 00:01:31.200 --> 00:01:32.736 בהסטוריה האנושית, 00:01:32.760 --> 00:01:37.736 שבו, מונעים על ידי סרובינו לקבל את המגבלות של גופינו ומחשבותינו, 00:01:37.760 --> 00:01:39.456 אנו בונים מכונות 00:01:39.480 --> 00:01:43.096 בעלות עדינות, סיבוכיות יפיפיה וחינניות 00:01:43.120 --> 00:01:45.176 שיאריכו את טווח החוויה האנושית 00:01:45.200 --> 00:01:46.880 בדרכים מעבר לדמיונינו. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 אחרי קריירה שהובילה אותי מהאקדמיה לטיס בחיל האויר 00:01:50.320 --> 00:01:52.256 לפיקוד על משימות חלל לעכשיו, 00:01:52.280 --> 00:01:53.976 נהייתי מהנדס מערכות, 00:01:54.000 --> 00:01:56.736 ולאחרונה נשאבתי לבעייה הנדסית 00:01:56.760 --> 00:01:59.336 הקשורה למשימה של נאס״א למאדים. 00:01:59.360 --> 00:02:01.856 ובכן, במשימות חלל לירח, 00:02:01.880 --> 00:02:05.016 אנו יכולים לסמוך על פיקוד המשימה ביוסטון 00:02:05.040 --> 00:02:07.016 שיפקח על כל ההיבטים של הטיסה. 00:02:07.040 --> 00:02:10.576 אבל, מאדים רחוק פי 200 יותר, 00:02:10.600 --> 00:02:13.816 ולכן לוקח בממוצע 13 דקות 00:02:13.840 --> 00:02:16.976 לשדר לנוע מכדור הארץ למאדים. 00:02:17.000 --> 00:02:20.400 אם קורות בעיות, אין מספיק זמן. 00:02:20.840 --> 00:02:23.336 ולכן פתרון הנדסי סביר 00:02:23.360 --> 00:02:25.936 יהיה לשים את פיקוד המשימה 00:02:25.960 --> 00:02:28.976 בתוך רכב החלל אוריון. 00:02:29.000 --> 00:02:31.896 רעיון מרתק נוסף בפרופיל המשימה 00:02:31.920 --> 00:02:34.816 הוא לשים רובוטים דמויי אדם על פני מאדים 00:02:34.840 --> 00:02:36.696 לפני שבני האדם מגיעים, 00:02:36.720 --> 00:02:38.376 בתחילה לשם בניית תשתיות 00:02:38.400 --> 00:02:41.760 ולאחר מכן לשרת כחלק שיתופי מהצוות המדעי. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 כשהתבוננתי בזה מנקודת מבט הנדסית, 00:02:46.160 --> 00:02:49.336 התבהרה לי ההבנה שמה שעלי לתכנן 00:02:49.360 --> 00:02:51.536 היא בינה מלאכותית חכמה, שיתופית 00:02:51.560 --> 00:02:53.936 ובעלת בינה חברתית. 00:02:53.960 --> 00:02:58.256 במילים אחרות, הייתי צריך לבנות משהו מאוד דומה להאל 00:02:58.280 --> 00:03:00.696 אבל ללא הנטיות האובדניות. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (צחוק) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 בואו נעצור לרגע. 00:03:04.760 --> 00:03:08.656 האם זה אפשרי באמת לבנות בינה מלאכותית כזו? 00:03:08.680 --> 00:03:10.136 למעשה, כן. 00:03:10.160 --> 00:03:11.416 במובנים רבים, 00:03:11.440 --> 00:03:13.416 זו בעייה הנדסית קשה 00:03:13.440 --> 00:03:14.896 עם אלמנטים של בינה מלאכותית, 00:03:14.920 --> 00:03:19.616 ולא כדור שיער רטוב של בינה מלאכותית שצריך להיות מהונדס. 00:03:19.640 --> 00:03:22.296 בפרפרזה על דבריו של אלן טיורינג, 00:03:22.320 --> 00:03:24.696 אני לא מעוניין לבנות מכונה מודעת. 00:03:24.720 --> 00:03:26.296 אני לא בונה את האל. 00:03:26.320 --> 00:03:28.736 כל מה שאני רוצה הוא מוח פשוט, 00:03:28.760 --> 00:03:31.880 משהו שמציע את האשליה של בינה. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 המדע והאומנות של המחשוב התקדמו רבות 00:03:36.160 --> 00:03:37.656 מאז שהאל הופיע על המסך, 00:03:37.680 --> 00:03:40.896 ואני מדמיין שאם הממציא שלו ד״ר צ׳נדרה היה פה היום 00:03:40.920 --> 00:03:43.256 היו לו הרבה שאלות אלינו. 00:03:43.280 --> 00:03:45.376 האם באמת אנחנו יכולים 00:03:45.400 --> 00:03:49.416 לקחת מערכת של מליונים על מליונים של מכשירים, 00:03:49.440 --> 00:03:50.896 לקרוא את כל הנתונים מהם, 00:03:50.920 --> 00:03:53.176 לנחש את הכשלים ולהגיב מראש? 00:03:53.200 --> 00:03:54.416 כן. NOTE Paragraph 00:03:54.440 --> 00:03:57.630 האם אנו יכולים לבנות מערכות המשוחחות עם בני אדם בשפה טבעית? 00:03:57.640 --> 00:03:58.856 כן. 00:03:58.880 --> 00:04:01.856 האם אנו יכולים לבנות מערכות שיכירו אובייקטים, יזהו רגשות, 00:04:01.880 --> 00:04:05.256 שיהו רגשניות, ישחקו משחקים ואפילו יקראו שפתיים? 00:04:05.280 --> 00:04:06.496 כן. 00:04:06.520 --> 00:04:08.656 האם ביכולתינו לבנות מערכות המציבות יעדים, 00:04:08.680 --> 00:04:12.296 ומוציאות לפועל תוכניות לפי יעדים אלו ולומדות בדרך? 00:04:12.320 --> 00:04:13.536 כן. 00:04:13.560 --> 00:04:16.896 האם ביכולתינו לבנות מערכות בעלות מודעות? 00:04:16.920 --> 00:04:18.416 את זה אנו לומדים לעשות. 00:04:18.440 --> 00:04:21.920 האם ביכולתינו לבנות מערכות בעלות בסיס מורלי ואתי? 00:04:22.480 --> 00:04:24.520 את זה אנו חייבים ללמוד לעשות. 00:04:25.360 --> 00:04:26.736 אז בואו נקבל לרגע 00:04:26.760 --> 00:04:29.656 שזה אפשרי לבנות כזו בינה מלאכותית 00:04:29.680 --> 00:04:31.816 עבור משימה זו ואחרות. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 השאלה הבאה שאתם חייבים לשאול את עצמכם היא, 00:04:34.400 --> 00:04:35.856 האם עלינו לפחד ממנה? 00:04:35.880 --> 00:04:37.856 כל טכנולוגיה חדשה 00:04:37.880 --> 00:04:40.776 מביאה איתה רמה מסויימת של חשש מהלא נודע. 00:04:40.800 --> 00:04:42.496 כשראינו לראשונה מכוניות, 00:04:42.520 --> 00:04:46.536 אנשים חזו שנראה את הרס המשפחה. 00:04:46.560 --> 00:04:49.256 כשראינו לראשונה טלפונים, 00:04:49.280 --> 00:04:52.176 אנשים חששו שזה יביא לסופו של הדיון התרבותי. 00:04:52.200 --> 00:04:56.136 כשראינו בשלב מסויים את התפשטות המילה הכתובה, 00:04:56.160 --> 00:04:58.656 אנשים חשבו שנאבד את היכולת לזכור. 00:04:58.680 --> 00:05:00.736 כל אלו נכונים במידה מסויימת, 00:05:00.760 --> 00:05:03.176 אבל טכנולוגיות אלו 00:05:03.200 --> 00:05:06.576 הביאו דברים שהרחיבו את הנסיון האנושי 00:05:06.600 --> 00:05:08.480 בדרכים עמוקות. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 אז בואו ניקח את זה מעט רחוק יותר. 00:05:13.120 --> 00:05:17.856 אני לא מפחד מיצירת בינה מלאכותית כזו, 00:05:17.880 --> 00:05:21.696 כיוון שבסופו של דבר היא תכיל גם כמה מהערכים שלנו. 00:05:21.720 --> 00:05:25.216 חישבו על כך: בניית מערכת קוגניטיבית היא שונה מהותית 00:05:25.240 --> 00:05:28.536 מבניית מערכת מסורתית מרובת תוכנה של העבר. 00:05:28.560 --> 00:05:31.016 אנו לא מתכנתים אותן, אנו מלמדים אותן. 00:05:31.040 --> 00:05:33.696 כדי ללמד מערכת לזהות פרחים, 00:05:33.720 --> 00:05:36.736 אני מראה לה אלפי פרחים מהסוג שאני אוהב. 00:05:36.760 --> 00:05:39.016 כדי ללמד מערכת לשחק משחק -- 00:05:39.040 --> 00:05:41.000 ובכן, הייתי עושה את זה. אתם גם. 00:05:42.600 --> 00:05:44.640 אני אוהב פרחים. בחייכם. 00:05:45.440 --> 00:05:48.296 כדי ללמד מערכת לשחק משחק כמו גו, 00:05:48.320 --> 00:05:50.376 אגרום לה לשחק אלפי משחקי גו. 00:05:50.400 --> 00:05:52.056 אבל בתהליך אלמד אותה 00:05:52.080 --> 00:05:54.496 איך להבדיל בין משחק טוב למשחק רע. 00:05:54.520 --> 00:05:58.216 אם אני רוצה ליצור בינה מלאכותית עבור עזרה משפטית, 00:05:58.240 --> 00:06:00.016 אלמד אותה כמה ספרי משפטים 00:06:00.040 --> 00:06:02.896 אך באותו זמן אשלב זאת עם 00:06:02.920 --> 00:06:05.800 חוש הצדק והרחמים שהם חלק מאותם חוקים. 00:06:06.560 --> 00:06:09.536 במונחים מדעיים, זה מה שאנו קוראים לו אמת בסיסית, 00:06:09.560 --> 00:06:11.576 והנה הנקודה החשובה: 00:06:11.600 --> 00:06:13.056 כחלק מיצירת מכונות אלו, 00:06:13.080 --> 00:06:16.496 אנו מלמדים אותן חלק מערכינו. 00:06:16.520 --> 00:06:19.656 בהקשר זה, אני סומך על בינה מלאכותית 00:06:19.680 --> 00:06:23.320 באותה מידה, אם לא יותר, מאשר על אדם שאומן היטב. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 אבל, אתם עלולים לשאול, 00:06:25.320 --> 00:06:27.936 מה לגבי סוכנים פורעי חוק, 00:06:27.960 --> 00:06:31.296 כמו ארגון לא ממשלתי ממומן היטב? 00:06:31.320 --> 00:06:35.136 אני לא חושש מבינה מלאכותית בידיים של זאב בודד. 00:06:35.160 --> 00:06:39.696 ברור שאיננו יכולים להגן על עצמינו מכל מעשה אלימות אקראי, 00:06:39.720 --> 00:06:41.856 אבל המציאות לגבי מערכות אלו היא 00:06:41.880 --> 00:06:44.976 שהן צריכות הרבה אימון, ואימון עדין 00:06:45.000 --> 00:06:47.296 הרבה מעבר למשאבים של אדם בודד. 00:06:47.320 --> 00:06:48.536 ובנוסף, 00:06:48.560 --> 00:06:51.816 זה הרבה יותר מלהזריק וירוס אינטרנט לעולם, 00:06:51.840 --> 00:06:54.936 כשאתה לוחץ על כפתור, ופתאום זה במליון מקומות 00:06:54.960 --> 00:06:57.416 ומחשבים מתחילים להתפוצץ בכל מקום. 00:06:57.440 --> 00:07:00.256 ובכן, מדובר פה במשהו הרבה יותר גדול, 00:07:00.280 --> 00:07:01.995 ובוודאות נראה את זה מגיע. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 האם אני חושש שבינה מלאכותית כזו 00:07:05.600 --> 00:07:07.560 עלולה לאיים על האנושות כולה? 00:07:08.280 --> 00:07:12.656 אם תתבוננו בסרטים כמו ״המטריקס״, ״מטרופוליס״ , 00:07:12.680 --> 00:07:15.856 ״שליחות קטלית״, תוכניות כמו ״ווסטוורלד״, 00:07:15.880 --> 00:07:18.016 כולן מדברות על חשש שכזה. 00:07:18.040 --> 00:07:22.336 ואכן, בספר ״סופר אינטליגנציה״ של הפילוסוף ניק בוסטרום, 00:07:22.360 --> 00:07:23.896 הוא בוחן נושא זה 00:07:23.920 --> 00:07:27.936 ושם לב שסופר אינטליגנציה עלולה להיות לא רק מסוכנת, 00:07:27.960 --> 00:07:31.816 אלא גם יכולה להוות איום קיומי על האנושות כולה. 00:07:31.840 --> 00:07:34.056 הטיעון הבסיסי של דוקטור בוסטרום 00:07:34.080 --> 00:07:36.816 הוא שלמערכות כאלו יהיה בסופו של דבר 00:07:36.840 --> 00:07:40.096 צמאון בלתי ניתן לרוויה למידע 00:07:40.120 --> 00:07:43.016 עד שהן אולי ילמדו ללמוד 00:07:43.040 --> 00:07:45.656 ולבסוף יגלו שאולי יש להן יעדים 00:07:45.680 --> 00:07:47.976 מנוגדים לצרכי בני האדם. 00:07:48.000 --> 00:07:49.856 לדוקטור בוסטרום יש מספר עוקבים. 00:07:49.880 --> 00:07:54.200 הוא נתמך ע״י אנשים כמו אלון מאסק וסטפן הוקינג. 00:07:54.880 --> 00:07:57.280 עם כל הכבוד 00:07:58.160 --> 00:08:00.176 למוחות מבריקים אלו, 00:08:00.200 --> 00:08:02.456 אני מאמין שהם שוגים באופן בסיסי. 00:08:02.480 --> 00:08:05.656 ובכן, יש הרבה חלקים לפרק בטיעון של דוקטור בוסטרום, 00:08:05.680 --> 00:08:07.816 ואין לי זמן לפרק את כולם, 00:08:07.840 --> 00:08:10.536 אבל בקיצור רב, חישבו על כך: 00:08:10.560 --> 00:08:14.296 ידיעת-על היא מאוד שונה מעשיית-על. 00:08:14.320 --> 00:08:16.216 האל היה איום לצוות הדיסקברי 00:08:16.240 --> 00:08:20.656 רק כיוון שהאל פיקד על כל הצדדים של הדיסקברי. 00:08:20.680 --> 00:08:23.176 אז כך גם יצטרך להיות עם סופר אינטליגנציה. 00:08:23.200 --> 00:08:25.696 היא תצטרך להיות בשליטה על כל עולמינו. 00:08:25.720 --> 00:08:28.536 זה מזכיר את סקיינט מהסרט ״שליחות קטלנית״ 00:08:28.560 --> 00:08:30.416 שבו יש סופר אינטליגנציה 00:08:30.440 --> 00:08:31.816 ששלטה על רצון בני האדם, 00:08:31.840 --> 00:08:35.696 שכיוונה כל מכשיר בכל פינה של העולם. 00:08:35.720 --> 00:08:37.176 אם להיות מעשיים, 00:08:37.200 --> 00:08:39.296 זה לא הולך לקרות. 00:08:39.320 --> 00:08:42.376 אנחנו לא בונים בינה מלאכותית ששולטת במזג האוויר, 00:08:42.400 --> 00:08:43.736 שמכוונת את הגאות, 00:08:43.760 --> 00:08:47.136 שמפקדת עלינו, האנשים הגחמניים והכאוטים. 00:08:47.160 --> 00:08:51.056 ובנוסף, אם בינה מלאכותית כזו הייתה קיימת, 00:08:51.080 --> 00:08:54.016 היה עליה להתחרות בכלכלה האנושית, 00:08:54.040 --> 00:08:56.560 ולכן להתחרות נגדינו על משאבים. 00:08:57.200 --> 00:08:58.416 ולבסוף -- 00:08:58.440 --> 00:08:59.680 אל תגלו לסירי -- 00:09:00.440 --> 00:09:01.816 אנחנו תמיד יכולים לנתק אותם. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (צחוק) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 אנחנו נמצאים במסע מופלא 00:09:07.840 --> 00:09:10.336 של אבולוציה משותפת עם המכונות שלנו. 00:09:10.360 --> 00:09:12.856 האנשים שאנו היום 00:09:12.880 --> 00:09:15.416 הם לא אותם האנשים שנהיה אז. 00:09:15.440 --> 00:09:18.576 לדאוג היום מהעלייה של סופר אינטליגנציה 00:09:18.600 --> 00:09:21.656 זה במובנים רבים הסחת דעת מסוכנת 00:09:21.680 --> 00:09:24.016 כיוון שהעלייה במיחשוב עצמו 00:09:24.040 --> 00:09:27.056 מביא אלינו מספר בעיות אנושיות וחברתיות 00:09:27.080 --> 00:09:28.720 שאנו חייבים לטפל בהן עכשיו. 00:09:29.360 --> 00:09:32.176 איך עלי לארגן את החברה האנושית 00:09:32.200 --> 00:09:34.536 כשהביקוש לעבודה אנושית הצטמצם? 00:09:34.560 --> 00:09:38.376 כיצד אני יכול להביא הבנה וחינוך לכל האנושות 00:09:38.400 --> 00:09:40.176 ועדיין לכבד את השונה ביננו? 00:09:40.200 --> 00:09:44.456 איך אאריך ואשפר את חיינו תוך שימוש במערכת בריאות קוגניטיבית? 00:09:44.480 --> 00:09:47.336 כיצד אוכל להשתמש במחשוב 00:09:47.360 --> 00:09:49.120 כדי לעזור לקחת אותנו לכוככבים? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 וזה הדבר המרתק. 00:09:52.400 --> 00:09:54.736 ההזדמנויות להשתמש במיחשוב 00:09:54.760 --> 00:09:56.296 לקידום ההתנסות האנושית 00:09:56.320 --> 00:09:57.736 הן בטווח ההשגה שלנו, 00:09:57.760 --> 00:09:59.616 כאן ועכשיו, 00:09:59.640 --> 00:10:01.320 ואנו רק מתחילים. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 תודה רבה לכם. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (מחיאות כפיים)