A gépi intelligenciától fontosabbá válnak az emberi erkölcsök
-
0:01 - 0:05Az első munkám számítógép-programozás volt
-
0:05 - 0:07a főiskola legelső évében,
-
0:07 - 0:08amit még tizenévesként kezdtem.
-
0:09 - 0:11Kezdésem után nem sokkal
-
0:11 - 0:12szoftvereket írtam egy cégnek,
-
0:13 - 0:16amikor a cég egyik főnök odajött hozzám,
-
0:16 - 0:18és suttogva megkérdezte:
-
0:18 - 0:21"Ő tudja-e, ha hazudok?"
-
0:22 - 0:24Senki más nem volt a szobában.
-
0:25 - 0:29"Kicsoda tudja-e, ha hazudsz?
És miért suttogunk?" -
0:30 - 0:33A főnök a szobában lévő
számítógépre mutatott. -
0:33 - 0:36"Ő tudja-e, ha hazudok?"
-
0:38 - 0:42Hát, ennek a főnöknek
viszonya volt a recepcióssal. -
0:42 - 0:43(Nevetés)
-
0:43 - 0:45És én még csak tizenéves voltam.
-
0:45 - 0:47Hangosan visszasuttogtam:
-
0:47 - 0:51"Igen, a számítógép tudja, mikor hazudsz."
-
0:51 - 0:53(Nevetés)
-
0:53 - 0:56Kinevettem, de igazából
engem kellene kinevetni. -
0:56 - 0:59Manapság olyan számítógépes
rendszerek vannak, -
0:59 - 1:03amelyek kiszimatolják az érzelmi
állapotot, sőt a hazugságot is -
1:03 - 1:05az emberi arc tanulmányozásából.
-
1:05 - 1:09A reklámozók és a hatóságok is
erősen érdeklődnek irántuk. -
1:10 - 1:12Azért lettem számítógép-programozó,
-
1:12 - 1:15mert gyerekként megőrültem
a matekért és a tudományért. -
1:16 - 1:19De valamikor később tudomást
szereztem a nukleáris fegyverekről, -
1:19 - 1:22és komolyan aggódni kezdtem
a tudomány etikájáért. -
1:22 - 1:23Zavarban voltam.
-
1:23 - 1:26Ám családi körülményeim miatt
-
1:26 - 1:29minél hamarabb munkába kellett állnom.
-
1:29 - 1:33Úgyhogy azt gondoltam magamban:
választok egy műszaki területet, -
1:33 - 1:34ahol könnyen találok munkát,
-
1:34 - 1:38és ahol nem kell foglalkoznom
semmilyen zavaró etikai kérdéssel. -
1:39 - 1:41A számítógépeket választottam.
-
1:41 - 1:42(Nevetés)
-
1:42 - 1:45Hát, ha-ha-ha! Ki lehet engem nevetni.
-
1:45 - 1:48Manapság az informatikusok
olyan felületeket építenek, -
1:48 - 1:52amelyek azt irányítják,
amit egymilliárd ember naponta lát. -
1:53 - 1:57Autókat fejlesztenek,
amelyek eldönthetik, kit ütnek el. -
1:58 - 2:01Sőt, gépeket és fegyvereket gyártanak,
-
2:01 - 2:03amelyek háborúban
embereket ölhetnek meg. -
2:03 - 2:06Etika végestelen végig.
-
2:07 - 2:09A gépi intelligencia megérkezett.
-
2:10 - 2:13Ma a számítástechnikát
mindenféle döntésre használjuk, -
2:13 - 2:15újfajta döntésekre is.
-
2:15 - 2:20Olyan kérdéseket teszünk fel a gépeknek,
amelyekre nincs egyetlen helyes válasz, -
2:20 - 2:22szubjektív,
-
2:22 - 2:24nyitott és fontos kérdéseket.
-
2:24 - 2:26Ilyen kérdéseket teszünk fel:
-
2:26 - 2:27„Kit alkalmazzon a cég?”,
-
2:28 - 2:31„Melyik ismerős melyik frissítését
mutassuk meg neked?”, -
2:31 - 2:33„Melyik elítéltről valószínűbb,
hogy újból bűnözik?”, -
2:34 - 2:37„Melyik hírt vagy mozifilmet
ajánljuk az embereknek?” -
2:37 - 2:40Már használjuk egy ideje a számítógépeket,
-
2:40 - 2:42de ez most más.
-
2:42 - 2:43Ez történelmi fordulat,
-
2:44 - 2:49mert a számítástechnikát nem tudjuk
úgy kötni e szubjektív döntésekhez, -
2:49 - 2:54ahogy összekapcsoljuk a légi
közlekedéssel, a hídépítéssel, -
2:54 - 2:56a holdra szállással.
-
2:56 - 3:00Biztonságosabbak a repülőgépek?
Kilengett és összedőlt a híd? -
3:00 - 3:04Ott vannak egyeztetett,
elég világos viszonyítási alapjaink, -
3:04 - 3:06és a természet törvényei irányítanak.
-
3:07 - 3:10A zűrös emberi viszonyokra
vonatkozó döntésekhez -
3:10 - 3:14nincsenek ilyen kapcsolódási
és viszonyítási pontjaink. -
3:14 - 3:18Hogy bonyolítsa a dolgokat,
szoftverünk egyre erősebb, -
3:18 - 3:22ugyanakkor kevésbé átlátható
és egyre bonyolultabb lesz. -
3:23 - 3:25Nemrég, az elmúlt évtizedben,
-
3:25 - 3:27a komplex algoritmusok
nagyot léptek előre. -
3:27 - 3:29Emberi arcokat ismernek fel.
-
3:30 - 3:32Kézírást silabizálnak ki.
-
3:32 - 3:35Hitelkártyacsalásokat ismernek fel,
-
3:35 - 3:36spamet szűrnek ki,
-
3:36 - 3:38és egyik nyelvről a másikra fordítanak.
-
3:38 - 3:40Az orvosi képalkotásban
daganatokat ismernek fel. -
3:40 - 3:43Megverik az embert sakkban és góban.
-
3:43 - 3:48A haladás zöme az ún. „gépi tanulás”
módszerének köszönhető. -
3:48 - 3:51A gépi tanulás különbözik
a hagyományos programozástól, -
3:51 - 3:55ahol a számítógépnek részletes,
pontos, precíz utasításokat adunk. -
3:55 - 4:00Inkább olyan, hogy egy rendszerbe
beletöltünk egy csomó adatot, -
4:00 - 4:01strukturálatlan adatokat is,
-
4:01 - 4:04amilyeneket digitális életünk hoz létre.
-
4:04 - 4:06A rendszer az adatok átfésüléséből tanul.
-
4:07 - 4:08Még egy alapvető dolog:
-
4:08 - 4:13e rendszerek nem az egyetlen
válasz logikáját követik. -
4:13 - 4:16Nem egy egyszerű választ
szűrnek le, inkább valószínűséget: -
4:16 - 4:19„Ez inkább hasonlít arra, amit keresel.”
-
4:20 - 4:23A jó dolog ebben az,
hogy a módszer valóban hatásos. -
4:23 - 4:25A Google MI-rendszer vezetője így nevezte:
-
4:25 - 4:27„az adatok észszerűtlen hatékonysága”.
-
4:28 - 4:29A hátránya,
-
4:30 - 4:33hogy nemigen értjük,
mit tanult a rendszer. -
4:33 - 4:34Valójában ez az erőssége.
-
4:35 - 4:39Ez nem olyan, mint amikor utasításokat
adunk egy számítógépnek, -
4:39 - 4:43inkább olyan, mintha kiképeznénk
egy gép-kutyus-szerű lényt, -
4:43 - 4:46akit nemigen értünk,
és nem tudunk irányítani. -
4:46 - 4:48Ez a gondunk.
-
4:48 - 4:53Gond, ha ez az MI-rendszer valamit elszúr.
-
4:53 - 4:56Az is, ha nem szúrja el,
-
4:56 - 5:00mert nem is tudjuk, mi micsoda.
ha szubjektív kérdésről van szó. -
5:00 - 5:02Nem tudjuk, mit gondol ez a dolog.
-
5:03 - 5:07Vegyünk egy felvételi algoritmust,
-
5:08 - 5:12azaz felvételre való rendszert,
amely gépi tanulási rendszert használ. -
5:13 - 5:17A rendszert az eddigi alkalmazottak
adatain tanították be, -
5:17 - 5:19és arra utasították, hogy a cég jelenlegi
-
5:19 - 5:22jól teljesítő embereihez hasonlókat
találjon és alkalmazzon. -
5:23 - 5:24Jól hangzik.
-
5:24 - 5:26Részt vettem egyszer egy konferencián,
-
5:26 - 5:29ahol humánerőforrás-ügyintézők
és -vezetők gyűltek össze, -
5:29 - 5:30magas rangú emberek,
-
5:30 - 5:32ők ilyeneket használtak felvételhez.
-
5:32 - 5:34Rendkívül izgatottak voltak.
-
5:34 - 5:38Azt gondolták, hogy ez objektívabbá,
pártatlanabbá teszi a felvételt, -
5:38 - 5:41és jobb esélyt ad nőknek
és a kisebbségeknek -
5:41 - 5:44a részrehajló ügyintézőkkel szemben.
-
5:44 - 5:46De az emberek felvétele részrehajló.
-
5:47 - 5:48Én tudom.
-
5:48 - 5:51Az egyik korai munkahelyemen
programozóként dolgoztam, -
5:51 - 5:55és a kisfőnököm néha odajött hozzám
-
5:55 - 5:59nagyon korán reggel
vagy nagyon késő délután, -
5:59 - 6:02és azt mondta: „Zeynep, menjünk ebédelni!”
-
6:03 - 6:05Meglepett a fura időzítés.
-
6:05 - 6:07Délután négykor ebédeljünk?
-
6:07 - 6:10Le voltam égve, ingyenes az ebéd...
Mindig vele mentem. -
6:11 - 6:13Később rájöttem, mi történt.
-
6:13 - 6:17Kisfőnökeim nem vallották
be feletteseiknek, -
6:17 - 6:20hogy a komoly munkára
felvett programozó egy tinilány, -
6:20 - 6:24aki farmerben és surranóban jár munkába.
-
6:25 - 6:27Jól dolgoztam, de nem néztem ki elég jól,
-
6:27 - 6:29nem felelt meg a korom és a nemem.
-
6:29 - 6:32Ezért egy nemtől és rassztól
független felvétel -
6:32 - 6:34jól hangzik nekem.
-
6:35 - 6:38De elmondom, hogy e rendszerekkel
a helyzet ennél miért bonyolultabb, -
6:39 - 6:45Ma már a számítógép-rendszerek mindenfélét
ki tudnak következtetni rólunk -
6:45 - 6:47a digitális morzsáinkból,
-
6:47 - 6:49még akkor is, ha nem
hoztuk nyilvánosságra őket. -
6:50 - 6:52Ki tudják következtetni
nemi orientációnkat, -
6:53 - 6:54személyiségjegyeinket,
-
6:55 - 6:56politikai szimpátiáinkat.
-
6:57 - 7:01Előrejelző erejük nagy fokú
pontossággal párosul. -
7:01 - 7:04Figyelem: olyan dolgokról,
amelyeket nem is közöltünk. -
7:04 - 7:06Ez a kikövetkeztetés.
-
7:06 - 7:09Egyik barátnőm olyan számítógépes
rendszereket fejlesztett, -
7:09 - 7:13amelyek előrejelzik a szülés utáni
vagy a súlyos depresszió valószínűségét -
7:13 - 7:14a közösségi média adataiból.
-
7:15 - 7:16Az eredmények lenyűgözőek.
-
7:16 - 7:20Rendszere előrejelzi
a depresszió valószínűségét -
7:20 - 7:24hónapokkal a tünetek megjelenése előtt.
-
7:24 - 7:25Hónapokkal előtte!
-
7:25 - 7:27Nincs még tünet, de előrejelzés már van.
-
7:27 - 7:32Barátnőm reméli, hogy felhasználják
majd a korai beavatkozáshoz. Nagyszerű! -
7:33 - 7:35De nézzük ezt a felvételi szempontjából!
-
7:36 - 7:39Az említett humánerőforrás-konferencián
-
7:39 - 7:44odamentem az egyik óriási cég
magas rangú vezetőjéhez, -
7:44 - 7:48és megkérdeztem tőle:
„M van, ha az ön tudta nélkül -
7:48 - 7:53rendszerük kiszűri azokat,
-
7:53 - 7:59akiknél a depresszió jövőbeni
valószínűsége nagy? -
8:00 - 8:02Mi van, ha kiszűri azokat,
akik egy-két éven belül -
8:02 - 8:06valószínűleg teherbe esnek,
de most nem terhesek? -
8:07 - 8:12Mi van, ha agresszív embereket vesz fel,
mert a munkahelyi kultúrába beleillenek?" -
8:13 - 8:16Ez nem derül ki a nemek
szerinti bontásból. -
8:16 - 8:17Az lehet, hogy rendben van.
-
8:17 - 8:21Mivel ez gépi tanulás,
nem hagyományos kódolás, -
8:21 - 8:26nincs „magas depressziókockázat”,
-
8:26 - 8:28„magas terhességi kockázat”,
-
8:28 - 8:30„agresszív pasi skála” nevű változó.
-
8:30 - 8:34Nemcsak azt nem tudjuk,
mi alapján választ a rendszer, -
8:34 - 8:36hanem azt sem, hol kezd el keresni.
-
8:36 - 8:37Ez egy fekete doboz.
-
8:37 - 8:40Előrejelző ereje van, de nem értjük.
-
8:40 - 8:43„Mi a biztosíték rá – kérdeztem,
-
8:43 - 8:47hogy a fekete doboz nem
csinál valami kétes dolgot?” -
8:49 - 8:53Úgy nézett rám, mintha megöltem
volna a tanácselnököt. -
8:53 - 8:54(Nevetés)
-
8:54 - 8:56Bámult rám, majd azt mondta:
-
8:57 - 9:01„Nem akarok erről hallani
többet egy szót sem”. -
9:01 - 9:03Sarkon fordult, és elment.
-
9:04 - 9:06Megjegyezném: nem volt durva.
-
9:06 - 9:12Világos volt: amiről nem tudok, az nem
az én problémám, lelépek, bután nézek. -
9:12 - 9:13(Nevetés)
-
9:14 - 9:18Egy ilyen rendszer, lehet,
hogy kevésbé részrehajló, -
9:18 - 9:20mint bizonyos esetekben az ügyintézők.
-
9:20 - 9:22Pénzügyileg megérheti.
-
9:23 - 9:24De ahhoz vezethet,
-
9:24 - 9:29hogy folyamatosan és alattomosan
kizárja a munkaerőpiacról -
9:29 - 9:31a magas depressziókockázatúakat.
-
9:32 - 9:34Ilyenfajta társadalmat akarunk építeni,
-
9:34 - 9:37még ha tudtunkon kívül is,
-
9:37 - 9:41csak mert olyan gépeknek adtuk át
a döntéshozatalt, amelyeket nem is értünk? -
9:41 - 9:43Egy másik nehézség:
-
9:43 - 9:48a rendszerek tanítása gyakran
tetteinkből létrehozott adatokkal, -
9:48 - 9:50emberi lenyomatokkal történik.
-
9:50 - 9:54Lehet, hogy ezek
tükrözik részrehajlásunkat, -
9:54 - 9:58és a rendszerek eltanulják őket,
-
9:58 - 9:59felerősítik,
-
9:59 - 10:00és visszatükrözik nekünk,
-
10:00 - 10:02miközben azt mondjuk magunknak
-
10:02 - 10:05„Mi csak objektív, semleges
számítástechnikát gyakorlunk.” -
10:06 - 10:10Kutatók kimutatták, hogy a Google
nőknek kisebb valószínűséggel mutat -
10:10 - 10:15jól fizetett állásokról szóló
hirdetéseket, mint férfiaknak. -
10:16 - 10:19Ha afroamerikai nevekre keresünk,
-
10:19 - 10:24gyakrabban hoz fel büntetett
előéletet sejtető reklámokat, -
10:24 - 10:25akkor is, ha nincs ilyenről szó.
-
10:27 - 10:30Az ilyen rejtett részrehajlásokat
és „fekete doboz” algoritmusokat -
10:30 - 10:34olykor felfedik a kutatók,
de néha nem tudunk róluk, -
10:34 - 10:37pedig következményeik
megváltoztathatják az életet. -
10:38 - 10:42Wisconsinban egy vádlottat
hat év börtönre ítéltek, -
10:42 - 10:44mert kijátszotta a rendőröket.
-
10:45 - 10:47Tán nem tudják: szabadlábra helyezési
-
10:47 - 10:50és büntetési döntésekhez egyre
gyakrabban használnak algoritmust. -
10:50 - 10:53Ez az ember meg akarta tudni,
hogyan számítják a pontszámot. -
10:54 - 10:55Ez egy kereskedelmi fekete doboz.
-
10:55 - 11:00A cég visszautasította, hogy nyilvános
bíróság elé vigyék az algoritmusát. -
11:00 - 11:06De a ProPublica nonprofit
nyomozó szervezet auditálta az algoritmust -
11:06 - 11:08a hozzáférhető nyilvános adatokkal,
-
11:08 - 11:10és az eredményeket részrehajlónak találta,
-
11:10 - 11:14az előrejelző képességét pedig
pocséknak, alig jobbnak a véletlennél, -
11:14 - 11:18kétszer olyan gyakran jelölte hibásan
leendő bűnözőnek a fekete, -
11:18 - 11:22mint a fehér elítélteket.
-
11:24 - 11:25Vegyünk egy másik esetet:
-
11:26 - 11:30egy nőnek el kellett hoznia keresztlányát
-
11:30 - 11:32az iskolából a floridai Broward megyében.
-
11:33 - 11:35Késésben volt, rohant
az utcán a barátnőjével. -
11:35 - 11:39Egy tornácon lezáratlan
gyerekbiciklit és rollert láttak meg, -
11:39 - 11:41meggondolatlanul felugrottak rá.
-
11:41 - 11:44Ahogy elhajtottak,
kijött egy nő, s azt kiáltotta: -
11:44 - 11:46„Hé! Az a gyerek biciklije!”
-
11:46 - 11:49Eldobták, továbbmentek,
de letartóztatták őket. -
11:49 - 11:53Rosszat tett, őrültség volt,
de csak 18 éves volt. -
11:53 - 11:55Volt néhány fiatalkori kihágása.
-
11:56 - 12:01Ugyanakkor letartóztattak egy férfit
85 dollár értékű áruházi lopásért, -
12:01 - 12:04ez egy hasonló kisebb vétség.
-
12:05 - 12:09Volt viszont két korábbi
ítélete fegyveres rablásért. -
12:10 - 12:13Az algoritmus mégis a nőt értékelte
magas kockázatúnak, nem a férfit. -
12:15 - 12:19Két évvel később a ProPublica azt találta,
hogy a nő nem követett el új vétséget. -
12:19 - 12:21Csak nehéz volt munkát találnia
a priusza miatt. -
12:21 - 12:23A férfi viszont visszaeső volt,
-
12:23 - 12:27és most nyolcéves büntetését tölti
egy későbbi bűncselekmény miatt. -
12:28 - 12:31Világos, hogy auditálnunk kell
a fekete dobozainkat, -
12:31 - 12:34s nem engedhetjük, hogy ilyen
korlátlan hatalmuk legyen. -
12:34 - 12:37(Taps)
-
12:38 - 12:42Az auditok nagyszerűek és fontosak,
de nem oldják meg minden gondunkat. -
12:42 - 12:45Vegyük a Facebook hatásos
hírválogató algoritmusát, -
12:45 - 12:50azt, amelyik mindent sorba rak,
és eldönti, mit mutasson meg nekünk -
12:50 - 12:52az összes követett ismerős és oldal közül.
-
12:53 - 12:55Mutasson még egy kisbabás képet?
-
12:55 - 12:56(Nevetés)
-
12:56 - 12:59Egy ismerős morcos megjegyzését?
-
12:59 - 13:01Egy fontos, de fajsúlyos hírt?
-
13:01 - 13:03Nincs helyes válasz.
-
13:03 - 13:05A Facebook az oldalon zajló
tevékenységre optimalizál: -
13:06 - 13:07lájk, megosztás, komment.
-
13:08 - 13:112014 augusztusában
-
13:11 - 13:14tüntetések törtek ki a Missouribeli
Fergusonban, -
13:14 - 13:18miután egy fehér rendőr lelőtt
egy afroamerikai tinédzsert, -
13:18 - 13:20gyanús körülmények között.
-
13:20 - 13:22Tele volt a tüntetések híreivel
-
13:22 - 13:25az algoritmussal nem szűrt Twitter-fiókom,
-
13:25 - 13:27de a Facebookon nem volt semmi.
-
13:27 - 13:29A Facebook-ismerőseim az oka?
-
13:29 - 13:31Kikapcsoltam a Facebook algoritmusát,
-
13:31 - 13:34ami nehéz, mert a Facebook
azt akarja, -
13:34 - 13:36hogy az algoritmus irányítson minket.
-
13:36 - 13:39Láttam, hogy az ismerőseim
beszélgetnek róla. -
13:39 - 13:41Csakhogy az algoritmus azt
nem mutatta meg nekem. -
13:41 - 13:44Kutattam utána, és azt találtam,
hogy ez egy elterjedt probléma. -
13:44 - 13:48A fergusoni sztori nem volt
szimpatikus az algoritmusnak. -
13:48 - 13:49Nem lájkolható.
-
13:49 - 13:51Ki fog a lájkra kattintani?
-
13:52 - 13:54Még kommentelni sem könnyű.
-
13:54 - 13:55Lájkok és kommentek nélkül
-
13:55 - 13:59az algoritmus egyre kisebb valószínűséggel
mutatta egyre kevesebbeknek, -
13:59 - 14:00így nem láthattuk meg.
-
14:01 - 14:02Ehelyett azon a héten
-
14:02 - 14:04a Facebook algoritmusa előtérbe helyezte
-
14:05 - 14:07az ALS jeges vödör kihívást.
-
14:07 - 14:11Nemes cél: önts magadra jeges vizet,
és adakozz; rendben. -
14:11 - 14:12Ez szimpatikus volt az algoritmusnak.
-
14:13 - 14:16A gép ezt helyettünk döntötte el.
-
14:16 - 14:19Egy igen fontos, de nehéz beszélgetést
-
14:19 - 14:21fojtott volna el,
-
14:21 - 14:24ha a Facebook lett volna
az egyetlen csatorna. -
14:24 - 14:28S végül, e rendszerek úgy is hibázhatnak,
-
14:28 - 14:31ami nem hasonlít az emberi rendszerekre.
-
14:31 - 14:34Emlékeznek a Watsonra,
az IBM gépi intelligencia rendszerére, -
14:34 - 14:37amelyik felmosta a padlót a "Mindent
vagy semmit" kvíz versenyzőivel? -
14:37 - 14:39Nagyszerű játékos volt.
-
14:39 - 14:42De az utolsó fordulóban a következő
kérdést tették fel a Watsonnak: -
14:43 - 14:46„Legnagyobb repterét egy
II. világháborús hősről nevezték el, -
14:46 - 14:48a másodikat egy II.
világháborús csatáról.” -
14:48 - 14:49(Dúdolja a kvíz zenéjét)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52A két ember eltalálta.
-
14:53 - 14:57A Watson válasza viszont Toronto volt –
-
14:57 - 14:59az USA-város kategóriában!
-
15:00 - 15:02A lenyűgöző rendszer olyan hibát ejtett,
-
15:03 - 15:06amilyet ember sosem tenne,
egy másodikos gyerek sem. -
15:07 - 15:10A gépi intelligenciánk
-
15:10 - 15:13olyan módon hibázhat, ami nem
hasonlít az emberi hibamintákra, -
15:13 - 15:16olyan módon, amire nem számítunk,
nem vagyunk rá felkészülve. -
15:16 - 15:20Ronda dolog lenne lemaradni egy munkáról,
amire megvan a képesítésünk, -
15:20 - 15:22de háromszoros szívás lenne,
-
15:22 - 15:25ha ezt egy szubrutinban
túlcsordult verem okozná. -
15:25 - 15:27(Nevetés)
-
15:27 - 15:292010 májusában
-
15:29 - 15:33a Wall Street villámkrachja,
amit a tőzsdei „eladási” algoritmus -
15:33 - 15:36visszacsatolási hurka okozott,
-
15:36 - 15:41egybillió dollárnyi értéket
tett semmivé 36 perc alatt. -
15:42 - 15:44Bele sem akarok gondolni,
mit jelent a „hiba” -
15:44 - 15:48az autonóm halálos fegyverekkel
összefüggésben. -
15:50 - 15:54Igen, az emberek mindig
részrehajlók voltak. -
15:54 - 15:56Döntéshozók és kapuőrök
-
15:56 - 15:59a bíróságokon, hírekben, háborúban...
-
15:59 - 16:02hibáznak; de éppen erről beszélek.
-
16:02 - 16:06Nem szabadulhatunk meg
e fogós kérdésektől. -
16:07 - 16:10Nem szervezhetjük ki
felelősségünket gépekbe. -
16:11 - 16:15(Taps)
-
16:17 - 16:22A mesterséges intelligencia nem
ment föl az etikus gondolkodás alól. -
16:23 - 16:26Fred Benenson adatkutató
„math-washing”-nak nevezi ezt. -
16:26 - 16:28Az ellenkezője szükséges.
-
16:28 - 16:33Gyanakodnunk kell az algoritmusokra,
és vizsgálnunk kell őket. -
16:33 - 16:37Gondoskodnunk kell róla,
hogy az algoritmusok számon kérhetők, -
16:37 - 16:39auditálhatók és észszerűen
átláthatók legyenek. -
16:39 - 16:43El kell fogadnunk, hogy a matek
és az informatika bevonása -
16:43 - 16:46a zavaros, értékeket hordozó emberi
viszonyokba -
16:46 - 16:48nem eredményez objektivitást;
-
16:48 - 16:52ehelyett az emberi viszonyok
komplexitása átitatja az algoritmust. -
16:52 - 16:56Igen, lehet és kell használnunk
az informatikát, -
16:56 - 16:58hogy segítsen jobb döntéseket hozni.
-
16:58 - 17:03De ítéleteinkért az erkölcsi felelősséget
nekünk kell viselnünk, -
17:03 - 17:06és az algoritmusokat azon
keretek között kell használnunk, -
17:06 - 17:11nem pedig arra, hogy lemondjunk
az egymás iránti felelősségünkről, -
17:11 - 17:13és azt kiszervezzük.
-
17:14 - 17:16A gépi intelligencia megérkezett.
-
17:16 - 17:20Ez azt jelenti, hogy még szigorúbban
kell ragaszkodnunk -
17:20 - 17:22az emberi értékekhez és etikához.
-
17:22 - 17:23Köszönöm.
-
17:23 - 17:28(Taps) (Üdvrivalgás)
- Title:
- A gépi intelligenciától fontosabbá válnak az emberi erkölcsök
- Speaker:
- Zeynep Tufekci
- Description:
-
A gépi intelligencia megérkezett, és már használjuk is szubjektív döntések meghozatalára. De mivel a mesterséges intelligencia növekedése és javulása bonyolult, nehéz megérteni, és még nehezebb irányítani. Ebben az óvatosságra intő beszédben Zeynep Tufecki műszaki szociológus elmagyarázza, hogy az intelligens gépek olyan módon hibázhatnak, amelyek nem hasonlítanak az emberi hibamintákra; olymódon, amire nem számítunk, és amire nem vagyunk felkészülve. "Nem szervezhetjük ki a felelősségünket a gépekbe" – mutat rá. "Még szigorúbban kell ragaszkodnunk az emberi értékekhez és az emberi etikához."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Csaba Lóki approved Hungarian subtitles for Machine intelligence makes human morals more important | ||
Péter Pallós accepted Hungarian subtitles for Machine intelligence makes human morals more important | ||
Péter Pallós edited Hungarian subtitles for Machine intelligence makes human morals more important | ||
Peter Balla edited Hungarian subtitles for Machine intelligence makes human morals more important | ||
Peter Balla edited Hungarian subtitles for Machine intelligence makes human morals more important | ||
Peter Balla edited Hungarian subtitles for Machine intelligence makes human morals more important | ||
Peter Balla edited Hungarian subtitles for Machine intelligence makes human morals more important | ||
Peter Balla edited Hungarian subtitles for Machine intelligence makes human morals more important |