Return to Video

A gépi intelligenciától fontosabbá válnak az emberi erkölcsök

  • 0:01 - 0:05
    Az első munkám számítógép-programozás volt
  • 0:05 - 0:07
    a főiskola legelső évében,
  • 0:07 - 0:08
    amit még tizenévesként kezdtem.
  • 0:09 - 0:11
    Kezdésem után nem sokkal
  • 0:11 - 0:12
    szoftvereket írtam egy cégnek,
  • 0:13 - 0:16
    amikor a cég egyik főnök odajött hozzám,
  • 0:16 - 0:18
    és suttogva megkérdezte:
  • 0:18 - 0:21
    "Ő tudja-e, ha hazudok?"
  • 0:22 - 0:24
    Senki más nem volt a szobában.
  • 0:25 - 0:29
    "Kicsoda tudja-e, ha hazudsz?
    És miért suttogunk?"
  • 0:30 - 0:33
    A főnök a szobában lévő
    számítógépre mutatott.
  • 0:33 - 0:36
    "Ő tudja-e, ha hazudok?"
  • 0:38 - 0:42
    Hát, ennek a főnöknek
    viszonya volt a recepcióssal.
  • 0:42 - 0:43
    (Nevetés)
  • 0:43 - 0:45
    És én még csak tizenéves voltam.
  • 0:45 - 0:47
    Hangosan visszasuttogtam:
  • 0:47 - 0:51
    "Igen, a számítógép tudja, mikor hazudsz."
  • 0:51 - 0:53
    (Nevetés)
  • 0:53 - 0:56
    Kinevettem, de igazából
    engem kellene kinevetni.
  • 0:56 - 0:59
    Manapság olyan számítógépes
    rendszerek vannak,
  • 0:59 - 1:03
    amelyek kiszimatolják az érzelmi
    állapotot, sőt a hazugságot is
  • 1:03 - 1:05
    az emberi arc tanulmányozásából.
  • 1:05 - 1:09
    A reklámozók és a hatóságok is
    erősen érdeklődnek irántuk.
  • 1:10 - 1:12
    Azért lettem számítógép-programozó,
  • 1:12 - 1:15
    mert gyerekként megőrültem
    a matekért és a tudományért.
  • 1:16 - 1:19
    De valamikor később tudomást
    szereztem a nukleáris fegyverekről,
  • 1:19 - 1:22
    és komolyan aggódni kezdtem
    a tudomány etikájáért.
  • 1:22 - 1:23
    Zavarban voltam.
  • 1:23 - 1:26
    Ám családi körülményeim miatt
  • 1:26 - 1:29
    minél hamarabb munkába kellett állnom.
  • 1:29 - 1:33
    Úgyhogy azt gondoltam magamban:
    választok egy műszaki területet,
  • 1:33 - 1:34
    ahol könnyen találok munkát,
  • 1:34 - 1:38
    és ahol nem kell foglalkoznom
    semmilyen zavaró etikai kérdéssel.
  • 1:39 - 1:41
    A számítógépeket választottam.
  • 1:41 - 1:42
    (Nevetés)
  • 1:42 - 1:45
    Hát, ha-ha-ha! Ki lehet engem nevetni.
  • 1:45 - 1:48
    Manapság az informatikusok
    olyan felületeket építenek,
  • 1:48 - 1:52
    amelyek azt irányítják,
    amit egymilliárd ember naponta lát.
  • 1:53 - 1:57
    Autókat fejlesztenek,
    amelyek eldönthetik, kit ütnek el.
  • 1:58 - 2:01
    Sőt, gépeket és fegyvereket gyártanak,
  • 2:01 - 2:03
    amelyek háborúban
    embereket ölhetnek meg.
  • 2:03 - 2:06
    Etika végestelen végig.
  • 2:07 - 2:09
    A gépi intelligencia megérkezett.
  • 2:10 - 2:13
    Ma a számítástechnikát
    mindenféle döntésre használjuk,
  • 2:13 - 2:15
    újfajta döntésekre is.
  • 2:15 - 2:20
    Olyan kérdéseket teszünk fel a gépeknek,
    amelyekre nincs egyetlen helyes válasz,
  • 2:20 - 2:22
    szubjektív,
  • 2:22 - 2:24
    nyitott és fontos kérdéseket.
  • 2:24 - 2:26
    Ilyen kérdéseket teszünk fel:
  • 2:26 - 2:27
    „Kit alkalmazzon a cég?”,
  • 2:28 - 2:31
    „Melyik ismerős melyik frissítését
    mutassuk meg neked?”,
  • 2:31 - 2:33
    „Melyik elítéltről valószínűbb,
    hogy újból bűnözik?”,
  • 2:34 - 2:37
    „Melyik hírt vagy mozifilmet
    ajánljuk az embereknek?”
  • 2:37 - 2:40
    Már használjuk egy ideje a számítógépeket,
  • 2:40 - 2:42
    de ez most más.
  • 2:42 - 2:43
    Ez történelmi fordulat,
  • 2:44 - 2:49
    mert a számítástechnikát nem tudjuk
    úgy kötni e szubjektív döntésekhez,
  • 2:49 - 2:54
    ahogy összekapcsoljuk a légi
    közlekedéssel, a hídépítéssel,
  • 2:54 - 2:56
    a holdra szállással.
  • 2:56 - 3:00
    Biztonságosabbak a repülőgépek?
    Kilengett és összedőlt a híd?
  • 3:00 - 3:04
    Ott vannak egyeztetett,
    elég világos viszonyítási alapjaink,
  • 3:04 - 3:06
    és a természet törvényei irányítanak.
  • 3:07 - 3:10
    A zűrös emberi viszonyokra
    vonatkozó döntésekhez
  • 3:10 - 3:14
    nincsenek ilyen kapcsolódási
    és viszonyítási pontjaink.
  • 3:14 - 3:18
    Hogy bonyolítsa a dolgokat,
    szoftverünk egyre erősebb,
  • 3:18 - 3:22
    ugyanakkor kevésbé átlátható
    és egyre bonyolultabb lesz.
  • 3:23 - 3:25
    Nemrég, az elmúlt évtizedben,
  • 3:25 - 3:27
    a komplex algoritmusok
    nagyot léptek előre.
  • 3:27 - 3:29
    Emberi arcokat ismernek fel.
  • 3:30 - 3:32
    Kézírást silabizálnak ki.
  • 3:32 - 3:35
    Hitelkártyacsalásokat ismernek fel,
  • 3:35 - 3:36
    spamet szűrnek ki,
  • 3:36 - 3:38
    és egyik nyelvről a másikra fordítanak.
  • 3:38 - 3:40
    Az orvosi képalkotásban
    daganatokat ismernek fel.
  • 3:40 - 3:43
    Megverik az embert sakkban és ban.
  • 3:43 - 3:48
    A haladás zöme az ún. „gépi tanulás”
    módszerének köszönhető.
  • 3:48 - 3:51
    A gépi tanulás különbözik
    a hagyományos programozástól,
  • 3:51 - 3:55
    ahol a számítógépnek részletes,
    pontos, precíz utasításokat adunk.
  • 3:55 - 4:00
    Inkább olyan, hogy egy rendszerbe
    beletöltünk egy csomó adatot,
  • 4:00 - 4:01
    strukturálatlan adatokat is,
  • 4:01 - 4:04
    amilyeneket digitális életünk hoz létre.
  • 4:04 - 4:06
    A rendszer az adatok átfésüléséből tanul.
  • 4:07 - 4:08
    Még egy alapvető dolog:
  • 4:08 - 4:13
    e rendszerek nem az egyetlen
    válasz logikáját követik.
  • 4:13 - 4:16
    Nem egy egyszerű választ
    szűrnek le, inkább valószínűséget:
  • 4:16 - 4:19
    „Ez inkább hasonlít arra, amit keresel.”
  • 4:20 - 4:23
    A jó dolog ebben az,
    hogy a módszer valóban hatásos.
  • 4:23 - 4:25
    A Google MI-rendszer vezetője így nevezte:
  • 4:25 - 4:27
    „az adatok észszerűtlen hatékonysága”.
  • 4:28 - 4:29
    A hátránya,
  • 4:30 - 4:33
    hogy nemigen értjük,
    mit tanult a rendszer.
  • 4:33 - 4:34
    Valójában ez az erőssége.
  • 4:35 - 4:39
    Ez nem olyan, mint amikor utasításokat
    adunk egy számítógépnek,
  • 4:39 - 4:43
    inkább olyan, mintha kiképeznénk
    egy gép-kutyus-szerű lényt,
  • 4:43 - 4:46
    akit nemigen értünk,
    és nem tudunk irányítani.
  • 4:46 - 4:48
    Ez a gondunk.
  • 4:48 - 4:53
    Gond, ha ez az MI-rendszer valamit elszúr.
  • 4:53 - 4:56
    Az is, ha nem szúrja el,
  • 4:56 - 5:00
    mert nem is tudjuk, mi micsoda.
    ha szubjektív kérdésről van szó.
  • 5:00 - 5:02
    Nem tudjuk, mit gondol ez a dolog.
  • 5:03 - 5:07
    Vegyünk egy felvételi algoritmust,
  • 5:08 - 5:12
    azaz felvételre való rendszert,
    amely gépi tanulási rendszert használ.
  • 5:13 - 5:17
    A rendszert az eddigi alkalmazottak
    adatain tanították be,
  • 5:17 - 5:19
    és arra utasították, hogy a cég jelenlegi
  • 5:19 - 5:22
    jól teljesítő embereihez hasonlókat
    találjon és alkalmazzon.
  • 5:23 - 5:24
    Jól hangzik.
  • 5:24 - 5:26
    Részt vettem egyszer egy konferencián,
  • 5:26 - 5:29
    ahol humánerőforrás-ügyintézők
    és -vezetők gyűltek össze,
  • 5:29 - 5:30
    magas rangú emberek,
  • 5:30 - 5:32
    ők ilyeneket használtak felvételhez.
  • 5:32 - 5:34
    Rendkívül izgatottak voltak.
  • 5:34 - 5:38
    Azt gondolták, hogy ez objektívabbá,
    pártatlanabbá teszi a felvételt,
  • 5:38 - 5:41
    és jobb esélyt ad nőknek
    és a kisebbségeknek
  • 5:41 - 5:44
    a részrehajló ügyintézőkkel szemben.
  • 5:44 - 5:46
    De az emberek felvétele részrehajló.
  • 5:47 - 5:48
    Én tudom.
  • 5:48 - 5:51
    Az egyik korai munkahelyemen
    programozóként dolgoztam,
  • 5:51 - 5:55
    és a kisfőnököm néha odajött hozzám
  • 5:55 - 5:59
    nagyon korán reggel
    vagy nagyon késő délután,
  • 5:59 - 6:02
    és azt mondta: „Zeynep, menjünk ebédelni!”
  • 6:03 - 6:05
    Meglepett a fura időzítés.
  • 6:05 - 6:07
    Délután négykor ebédeljünk?
  • 6:07 - 6:10
    Le voltam égve, ingyenes az ebéd...
    Mindig vele mentem.
  • 6:11 - 6:13
    Később rájöttem, mi történt.
  • 6:13 - 6:17
    Kisfőnökeim nem vallották
    be feletteseiknek,
  • 6:17 - 6:20
    hogy a komoly munkára
    felvett programozó egy tinilány,
  • 6:20 - 6:24
    aki farmerben és surranóban jár munkába.
  • 6:25 - 6:27
    Jól dolgoztam, de nem néztem ki elég jól,
  • 6:27 - 6:29
    nem felelt meg a korom és a nemem.
  • 6:29 - 6:32
    Ezért egy nemtől és rassztól
    független felvétel
  • 6:32 - 6:34
    jól hangzik nekem.
  • 6:35 - 6:38
    De elmondom, hogy e rendszerekkel
    a helyzet ennél miért bonyolultabb,
  • 6:39 - 6:45
    Ma már a számítógép-rendszerek mindenfélét
    ki tudnak következtetni rólunk
  • 6:45 - 6:47
    a digitális morzsáinkból,
  • 6:47 - 6:49
    még akkor is, ha nem
    hoztuk nyilvánosságra őket.
  • 6:50 - 6:52
    Ki tudják következtetni
    nemi orientációnkat,
  • 6:53 - 6:54
    személyiségjegyeinket,
  • 6:55 - 6:56
    politikai szimpátiáinkat.
  • 6:57 - 7:01
    Előrejelző erejük nagy fokú
    pontossággal párosul.
  • 7:01 - 7:04
    Figyelem: olyan dolgokról,
    amelyeket nem is közöltünk.
  • 7:04 - 7:06
    Ez a kikövetkeztetés.
  • 7:06 - 7:09
    Egyik barátnőm olyan számítógépes
    rendszereket fejlesztett,
  • 7:09 - 7:13
    amelyek előrejelzik a szülés utáni
    vagy a súlyos depresszió valószínűségét
  • 7:13 - 7:14
    a közösségi média adataiból.
  • 7:15 - 7:16
    Az eredmények lenyűgözőek.
  • 7:16 - 7:20
    Rendszere előrejelzi
    a depresszió valószínűségét
  • 7:20 - 7:24
    hónapokkal a tünetek megjelenése előtt.
  • 7:24 - 7:25
    Hónapokkal előtte!
  • 7:25 - 7:27
    Nincs még tünet, de előrejelzés már van.
  • 7:27 - 7:32
    Barátnőm reméli, hogy felhasználják
    majd a korai beavatkozáshoz. Nagyszerű!
  • 7:33 - 7:35
    De nézzük ezt a felvételi szempontjából!
  • 7:36 - 7:39
    Az említett humánerőforrás-konferencián
  • 7:39 - 7:44
    odamentem az egyik óriási cég
    magas rangú vezetőjéhez,
  • 7:44 - 7:48
    és megkérdeztem tőle:
    „M van, ha az ön tudta nélkül
  • 7:48 - 7:53
    rendszerük kiszűri azokat,
  • 7:53 - 7:59
    akiknél a depresszió jövőbeni
    valószínűsége nagy?
  • 8:00 - 8:02
    Mi van, ha kiszűri azokat,
    akik egy-két éven belül
  • 8:02 - 8:06
    valószínűleg teherbe esnek,
    de most nem terhesek?
  • 8:07 - 8:12
    Mi van, ha agresszív embereket vesz fel,
    mert a munkahelyi kultúrába beleillenek?"
  • 8:13 - 8:16
    Ez nem derül ki a nemek
    szerinti bontásból.
  • 8:16 - 8:17
    Az lehet, hogy rendben van.
  • 8:17 - 8:21
    Mivel ez gépi tanulás,
    nem hagyományos kódolás,
  • 8:21 - 8:26
    nincs „magas depressziókockázat”,
  • 8:26 - 8:28
    „magas terhességi kockázat”,
  • 8:28 - 8:30
    „agresszív pasi skála” nevű változó.
  • 8:30 - 8:34
    Nemcsak azt nem tudjuk,
    mi alapján választ a rendszer,
  • 8:34 - 8:36
    hanem azt sem, hol kezd el keresni.
  • 8:36 - 8:37
    Ez egy fekete doboz.
  • 8:37 - 8:40
    Előrejelző ereje van, de nem értjük.
  • 8:40 - 8:43
    „Mi a biztosíték rá – kérdeztem,
  • 8:43 - 8:47
    hogy a fekete doboz nem
    csinál valami kétes dolgot?”
  • 8:49 - 8:53
    Úgy nézett rám, mintha megöltem
    volna a tanácselnököt.
  • 8:53 - 8:54
    (Nevetés)
  • 8:54 - 8:56
    Bámult rám, majd azt mondta:
  • 8:57 - 9:01
    „Nem akarok erről hallani
    többet egy szót sem”.
  • 9:01 - 9:03
    Sarkon fordult, és elment.
  • 9:04 - 9:06
    Megjegyezném: nem volt durva.
  • 9:06 - 9:12
    Világos volt: amiről nem tudok, az nem
    az én problémám, lelépek, bután nézek.
  • 9:12 - 9:13
    (Nevetés)
  • 9:14 - 9:18
    Egy ilyen rendszer, lehet,
    hogy kevésbé részrehajló,
  • 9:18 - 9:20
    mint bizonyos esetekben az ügyintézők.
  • 9:20 - 9:22
    Pénzügyileg megérheti.
  • 9:23 - 9:24
    De ahhoz vezethet,
  • 9:24 - 9:29
    hogy folyamatosan és alattomosan
    kizárja a munkaerőpiacról
  • 9:29 - 9:31
    a magas depressziókockázatúakat.
  • 9:32 - 9:34
    Ilyenfajta társadalmat akarunk építeni,
  • 9:34 - 9:37
    még ha tudtunkon kívül is,
  • 9:37 - 9:41
    csak mert olyan gépeknek adtuk át
    a döntéshozatalt, amelyeket nem is értünk?
  • 9:41 - 9:43
    Egy másik nehézség:
  • 9:43 - 9:48
    a rendszerek tanítása gyakran
    tetteinkből létrehozott adatokkal,
  • 9:48 - 9:50
    emberi lenyomatokkal történik.
  • 9:50 - 9:54
    Lehet, hogy ezek
    tükrözik részrehajlásunkat,
  • 9:54 - 9:58
    és a rendszerek eltanulják őket,
  • 9:58 - 9:59
    felerősítik,
  • 9:59 - 10:00
    és visszatükrözik nekünk,
  • 10:00 - 10:02
    miközben azt mondjuk magunknak
  • 10:02 - 10:05
    „Mi csak objektív, semleges
    számítástechnikát gyakorlunk.”
  • 10:06 - 10:10
    Kutatók kimutatták, hogy a Google
    nőknek kisebb valószínűséggel mutat
  • 10:10 - 10:15
    jól fizetett állásokról szóló
    hirdetéseket, mint férfiaknak.
  • 10:16 - 10:19
    Ha afroamerikai nevekre keresünk,
  • 10:19 - 10:24
    gyakrabban hoz fel büntetett
    előéletet sejtető reklámokat,
  • 10:24 - 10:25
    akkor is, ha nincs ilyenről szó.
  • 10:27 - 10:30
    Az ilyen rejtett részrehajlásokat
    és „fekete doboz” algoritmusokat
  • 10:30 - 10:34
    olykor felfedik a kutatók,
    de néha nem tudunk róluk,
  • 10:34 - 10:37
    pedig következményeik
    megváltoztathatják az életet.
  • 10:38 - 10:42
    Wisconsinban egy vádlottat
    hat év börtönre ítéltek,
  • 10:42 - 10:44
    mert kijátszotta a rendőröket.
  • 10:45 - 10:47
    Tán nem tudják: szabadlábra helyezési
  • 10:47 - 10:50
    és büntetési döntésekhez egyre
    gyakrabban használnak algoritmust.
  • 10:50 - 10:53
    Ez az ember meg akarta tudni,
    hogyan számítják a pontszámot.
  • 10:54 - 10:55
    Ez egy kereskedelmi fekete doboz.
  • 10:55 - 11:00
    A cég visszautasította, hogy nyilvános
    bíróság elé vigyék az algoritmusát.
  • 11:00 - 11:06
    De a ProPublica nonprofit
    nyomozó szervezet auditálta az algoritmust
  • 11:06 - 11:08
    a hozzáférhető nyilvános adatokkal,
  • 11:08 - 11:10
    és az eredményeket részrehajlónak találta,
  • 11:10 - 11:14
    az előrejelző képességét pedig
    pocséknak, alig jobbnak a véletlennél,
  • 11:14 - 11:18
    kétszer olyan gyakran jelölte hibásan
    leendő bűnözőnek a fekete,
  • 11:18 - 11:22
    mint a fehér elítélteket.
  • 11:24 - 11:25
    Vegyünk egy másik esetet:
  • 11:26 - 11:30
    egy nőnek el kellett hoznia keresztlányát
  • 11:30 - 11:32
    az iskolából a floridai Broward megyében.
  • 11:33 - 11:35
    Késésben volt, rohant
    az utcán a barátnőjével.
  • 11:35 - 11:39
    Egy tornácon lezáratlan
    gyerekbiciklit és rollert láttak meg,
  • 11:39 - 11:41
    meggondolatlanul felugrottak rá.
  • 11:41 - 11:44
    Ahogy elhajtottak,
    kijött egy nő, s azt kiáltotta:
  • 11:44 - 11:46
    „Hé! Az a gyerek biciklije!”
  • 11:46 - 11:49
    Eldobták, továbbmentek,
    de letartóztatták őket.
  • 11:49 - 11:53
    Rosszat tett, őrültség volt,
    de csak 18 éves volt.
  • 11:53 - 11:55
    Volt néhány fiatalkori kihágása.
  • 11:56 - 12:01
    Ugyanakkor letartóztattak egy férfit
    85 dollár értékű áruházi lopásért,
  • 12:01 - 12:04
    ez egy hasonló kisebb vétség.
  • 12:05 - 12:09
    Volt viszont két korábbi
    ítélete fegyveres rablásért.
  • 12:10 - 12:13
    Az algoritmus mégis a nőt értékelte
    magas kockázatúnak, nem a férfit.
  • 12:15 - 12:19
    Két évvel később a ProPublica azt találta,
    hogy a nő nem követett el új vétséget.
  • 12:19 - 12:21
    Csak nehéz volt munkát találnia
    a priusza miatt.
  • 12:21 - 12:23
    A férfi viszont visszaeső volt,
  • 12:23 - 12:27
    és most nyolcéves büntetését tölti
    egy későbbi bűncselekmény miatt.
  • 12:28 - 12:31
    Világos, hogy auditálnunk kell
    a fekete dobozainkat,
  • 12:31 - 12:34
    s nem engedhetjük, hogy ilyen
    korlátlan hatalmuk legyen.
  • 12:34 - 12:37
    (Taps)
  • 12:38 - 12:42
    Az auditok nagyszerűek és fontosak,
    de nem oldják meg minden gondunkat.
  • 12:42 - 12:45
    Vegyük a Facebook hatásos
    hírválogató algoritmusát,
  • 12:45 - 12:50
    azt, amelyik mindent sorba rak,
    és eldönti, mit mutasson meg nekünk
  • 12:50 - 12:52
    az összes követett ismerős és oldal közül.
  • 12:53 - 12:55
    Mutasson még egy kisbabás képet?
  • 12:55 - 12:56
    (Nevetés)
  • 12:56 - 12:59
    Egy ismerős morcos megjegyzését?
  • 12:59 - 13:01
    Egy fontos, de fajsúlyos hírt?
  • 13:01 - 13:03
    Nincs helyes válasz.
  • 13:03 - 13:05
    A Facebook az oldalon zajló
    tevékenységre optimalizál:
  • 13:06 - 13:07
    lájk, megosztás, komment.
  • 13:08 - 13:11
    2014 augusztusában
  • 13:11 - 13:14
    tüntetések törtek ki a Missouribeli
    Fergusonban,
  • 13:14 - 13:18
    miután egy fehér rendőr lelőtt
    egy afroamerikai tinédzsert,
  • 13:18 - 13:20
    gyanús körülmények között.
  • 13:20 - 13:22
    Tele volt a tüntetések híreivel
  • 13:22 - 13:25
    az algoritmussal nem szűrt Twitter-fiókom,
  • 13:25 - 13:27
    de a Facebookon nem volt semmi.
  • 13:27 - 13:29
    A Facebook-ismerőseim az oka?
  • 13:29 - 13:31
    Kikapcsoltam a Facebook algoritmusát,
  • 13:31 - 13:34
    ami nehéz, mert a Facebook
    azt akarja,
  • 13:34 - 13:36
    hogy az algoritmus irányítson minket.
  • 13:36 - 13:39
    Láttam, hogy az ismerőseim
    beszélgetnek róla.
  • 13:39 - 13:41
    Csakhogy az algoritmus azt
    nem mutatta meg nekem.
  • 13:41 - 13:44
    Kutattam utána, és azt találtam,
    hogy ez egy elterjedt probléma.
  • 13:44 - 13:48
    A fergusoni sztori nem volt
    szimpatikus az algoritmusnak.
  • 13:48 - 13:49
    Nem lájkolható.
  • 13:49 - 13:51
    Ki fog a lájkra kattintani?
  • 13:52 - 13:54
    Még kommentelni sem könnyű.
  • 13:54 - 13:55
    Lájkok és kommentek nélkül
  • 13:55 - 13:59
    az algoritmus egyre kisebb valószínűséggel
    mutatta egyre kevesebbeknek,
  • 13:59 - 14:00
    így nem láthattuk meg.
  • 14:01 - 14:02
    Ehelyett azon a héten
  • 14:02 - 14:04
    a Facebook algoritmusa előtérbe helyezte
  • 14:05 - 14:07
    az ALS jeges vödör kihívást.
  • 14:07 - 14:11
    Nemes cél: önts magadra jeges vizet,
    és adakozz; rendben.
  • 14:11 - 14:12
    Ez szimpatikus volt az algoritmusnak.
  • 14:13 - 14:16
    A gép ezt helyettünk döntötte el.
  • 14:16 - 14:19
    Egy igen fontos, de nehéz beszélgetést
  • 14:19 - 14:21
    fojtott volna el,
  • 14:21 - 14:24
    ha a Facebook lett volna
    az egyetlen csatorna.
  • 14:24 - 14:28
    S végül, e rendszerek úgy is hibázhatnak,
  • 14:28 - 14:31
    ami nem hasonlít az emberi rendszerekre.
  • 14:31 - 14:34
    Emlékeznek a Watsonra,
    az IBM gépi intelligencia rendszerére,
  • 14:34 - 14:37
    amelyik felmosta a padlót a "Mindent
    vagy semmit" kvíz versenyzőivel?
  • 14:37 - 14:39
    Nagyszerű játékos volt.
  • 14:39 - 14:42
    De az utolsó fordulóban a következő
    kérdést tették fel a Watsonnak:
  • 14:43 - 14:46
    „Legnagyobb repterét egy
    II. világháborús hősről nevezték el,
  • 14:46 - 14:48
    a másodikat egy II.
    világháborús csatáról.”
  • 14:48 - 14:49
    (Dúdolja a kvíz zenéjét)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:52
    A két ember eltalálta.
  • 14:53 - 14:57
    A Watson válasza viszont Toronto volt –
  • 14:57 - 14:59
    az USA-város kategóriában!
  • 15:00 - 15:02
    A lenyűgöző rendszer olyan hibát ejtett,
  • 15:03 - 15:06
    amilyet ember sosem tenne,
    egy másodikos gyerek sem.
  • 15:07 - 15:10
    A gépi intelligenciánk
  • 15:10 - 15:13
    olyan módon hibázhat, ami nem
    hasonlít az emberi hibamintákra,
  • 15:13 - 15:16
    olyan módon, amire nem számítunk,
    nem vagyunk rá felkészülve.
  • 15:16 - 15:20
    Ronda dolog lenne lemaradni egy munkáról,
    amire megvan a képesítésünk,
  • 15:20 - 15:22
    de háromszoros szívás lenne,
  • 15:22 - 15:25
    ha ezt egy szubrutinban
    túlcsordult verem okozná.
  • 15:25 - 15:27
    (Nevetés)
  • 15:27 - 15:29
    2010 májusában
  • 15:29 - 15:33
    a Wall Street villámkrachja,
    amit a tőzsdei „eladási” algoritmus
  • 15:33 - 15:36
    visszacsatolási hurka okozott,
  • 15:36 - 15:41
    egybillió dollárnyi értéket
    tett semmivé 36 perc alatt.
  • 15:42 - 15:44
    Bele sem akarok gondolni,
    mit jelent a „hiba”
  • 15:44 - 15:48
    az autonóm halálos fegyverekkel
    összefüggésben.
  • 15:50 - 15:54
    Igen, az emberek mindig
    részrehajlók voltak.
  • 15:54 - 15:56
    Döntéshozók és kapuőrök
  • 15:56 - 15:59
    a bíróságokon, hírekben, háborúban...
  • 15:59 - 16:02
    hibáznak; de éppen erről beszélek.
  • 16:02 - 16:06
    Nem szabadulhatunk meg
    e fogós kérdésektől.
  • 16:07 - 16:10
    Nem szervezhetjük ki
    felelősségünket gépekbe.
  • 16:11 - 16:15
    (Taps)
  • 16:17 - 16:22
    A mesterséges intelligencia nem
    ment föl az etikus gondolkodás alól.
  • 16:23 - 16:26
    Fred Benenson adatkutató
    „math-washing”-nak nevezi ezt.
  • 16:26 - 16:28
    Az ellenkezője szükséges.
  • 16:28 - 16:33
    Gyanakodnunk kell az algoritmusokra,
    és vizsgálnunk kell őket.
  • 16:33 - 16:37
    Gondoskodnunk kell róla,
    hogy az algoritmusok számon kérhetők,
  • 16:37 - 16:39
    auditálhatók és észszerűen
    átláthatók legyenek.
  • 16:39 - 16:43
    El kell fogadnunk, hogy a matek
    és az informatika bevonása
  • 16:43 - 16:46
    a zavaros, értékeket hordozó emberi
    viszonyokba
  • 16:46 - 16:48
    nem eredményez objektivitást;
  • 16:48 - 16:52
    ehelyett az emberi viszonyok
    komplexitása átitatja az algoritmust.
  • 16:52 - 16:56
    Igen, lehet és kell használnunk
    az informatikát,
  • 16:56 - 16:58
    hogy segítsen jobb döntéseket hozni.
  • 16:58 - 17:03
    De ítéleteinkért az erkölcsi felelősséget
    nekünk kell viselnünk,
  • 17:03 - 17:06
    és az algoritmusokat azon
    keretek között kell használnunk,
  • 17:06 - 17:11
    nem pedig arra, hogy lemondjunk
    az egymás iránti felelősségünkről,
  • 17:11 - 17:13
    és azt kiszervezzük.
  • 17:14 - 17:16
    A gépi intelligencia megérkezett.
  • 17:16 - 17:20
    Ez azt jelenti, hogy még szigorúbban
    kell ragaszkodnunk
  • 17:20 - 17:22
    az emberi értékekhez és etikához.
  • 17:22 - 17:23
    Köszönöm.
  • 17:23 - 17:28
    (Taps) (Üdvrivalgás)
Title:
A gépi intelligenciától fontosabbá válnak az emberi erkölcsök
Speaker:
Zeynep Tufekci
Description:

A gépi intelligencia megérkezett, és már használjuk is szubjektív döntések meghozatalára. De mivel a mesterséges intelligencia növekedése és javulása bonyolult, nehéz megérteni, és még nehezebb irányítani. Ebben az óvatosságra intő beszédben Zeynep Tufecki műszaki szociológus elmagyarázza, hogy az intelligens gépek olyan módon hibázhatnak, amelyek nem hasonlítanak az emberi hibamintákra; olymódon, amire nem számítunk, és amire nem vagyunk felkészülve. "Nem szervezhetjük ki a felelősségünket a gépekbe" – mutat rá. "Még szigorúbban kell ragaszkodnunk az emberi értékekhez és az emberi etikához."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Hungarian subtitles

Revisions