"Ma ei usu, et oleks vaja paanikat tekitada, kuid ... inimesed, kes ütlevad:" Ärge muretsege üldse, "ma ei ole sellega nõus." - Bill Gates
„Tehisintellekti (ma ei pea silmas kitsast AI) edenemise tempo on uskumatult kiire. Kui teil pole otsest kokkupuudet selliste rühmadega nagu DeepMind, pole teil aimugi, kui kiiresti - see kasvab eksponentsiaalsusele lähedases tempos. Midagi tõsiselt ohtlikku juhtuda võib viie aasta jooksul. Kuni kümme aastat. ”- Elon Musk
„Täieliku tehisintellekti arendamine võiks inimkonna lõppu õigesti kirjutada ... See astuks iseseisvalt edasi ja kujundaks ennast üha uue tempoga ümber. Inimesed, keda aeglane bioloogiline evolutsioon on piiratud, ei saaks konkureerida ja nad võidakse asendada. ”- Stephen Hawking

Meid on hoiatatud

Bill Gates, Elon Musk, Stephen Hawking - kui need säravad visionäärid millegi kohta arvamust jagavad, on seda ilmselt kõige parem kuulata. Ja enne, kui petate neid paljude juhtide seas vaid kolme mehe väideteks, mõelge sellele: Paljud eksperdid ei uskunud, et tehisintellekt alistab inimese Go tipptegijaid veel kümme aastat, kuid see juhtus 2016. aastal. Tasub rõhutada: Inimesed, kes on kogu oma elu pühendanud AI-le töötamisele, ei uskunud, et see võib juhtuda vähemalt 10 aastat. Seega peaksime tähelepanu pöörama, kui mõned eksperdid seavad kahtluse alla AI ohu ja selle arengutempo.

Kuid piisavalt karistuse ja süngusega; homme tõuseb taas päike. Kell peab veel südaööd lööma, kuid tiksub. Mida saaksime ette valmistada? Peame looma ennetusstandardid, mõttekojad, määrused ning avaliku ja erasektori partnerluse.

AI-st praegune kaitse

Akadeemiliste ja ettevõtete juhid on arenenud AI potentsiaalsele ohule reageerinud mitmel viisil. Kaks tähelepanelikku jälgimisrühma on AI partnerlus ja Tuleviku elu instituut. Viimasel on enam kui 3000 silmapaistvat AI teadlast ja ärijuhti, kes on allkirjastanud Asilomari AI põhimõtted. See lubadus rõhutab eetilisi kaalutlusi, mis on vajalikud AI vastutustundlikuks edendamiseks. Samal ajal on AI-partnerlus, mille hulka kuuluvad asutajaliikmed Google, Amazon, Apple, Facebook, Microsoft ja IBM, keskendunud oma eesmärkidele mõtte juhtimise ja AI-kogukonna kaasamise ümber. Selliste rühmade töö on hea algus, kuid näib, et neil pole lubaduste taga täitmist.

Oma panuse annavad ka üksikud ettevõtted. DeepMind - vaieldamatult AI-uuringute maailma liider - lubas Google'il selle 2014. aastal omandada tingimusel, et Google asutab sõltumatu eetikanõukogu oma tegevuse jälgimiseks. (Kolme aasta pärast on sellest juhatusest siiski vähe teada.) Lisaks kinnitas DeepMind 2017. aasta juulis, et ettevõte töötab selle nimel, et lisada oma AI-sse „kujutlusvõimet“, et ta saaks paremini planeerida halbade olukordade vältimiseks, kujutades ette head ja halvad tulemused. Samamoodi kästavad vanemad ja õpetajad lastel mõelda „enne, kui tegutsete”. AI kaalub tagajärgi ja valib teatud toimingu, kui see võib põhjustada kahju.

Olgu, nii et mõned sammud on astutud õiges suunas, kuid kõigil neil juhtudel on läbipaistvuse puudumine murettekitav. Eespool nimetatud rühmade probleem on see, et alati on olemas kasumimotiiv, mis loob AI arendamiseks halva stiimulite struktuuri. Sisuliselt on see võidurelvastumine. Ükski ettevõte ei taha, et ta jääks rivaali taha, ja õigustatult.

Seda teadvustades asutasid tehnikatööstuse veteranid 2015. aastal miljard dollarit rahastatud mõttekoja OpenAI. Selle organisatsiooni väljendatud eesmärk on uurida intellektuaalomandit ilma ärilise eesmärgita, tagamaks, et see areneb inimkonnale kasulikul viisil. Lühidalt, OpenAI asutamine tunnistab, et eetika pole tehnoloogia arenguga sammu pidanud. Ja eetikat on tulevikus vaja tehisintellekti tuumaks, et enne Tay kasutamist kahjulikumate programmide ennetamist ei saaks neid ennetada. Kuid sellest ei piisa ikkagi: eraisikud kontrollivad „ainult” miljardeid dollareid, valitsused aga triljoneid dollareid ja õigussüsteeme. Nõuetekohase ettevaatuse tagamiseks on vaja valitsuse järelevalvet.

Väga reaalne oht

Sarnane põhjendus pani tehnikadirektorid, näiteks Elon Musk, esitama USA valitsusjuhtidele avalduse, et nad astuksid ette ja reguleeriksid. 2017. aasta juulis toimunud kuberneride tippkohtumisel tõstatas Musk oma mure:

"Ma kõlan pidevalt häirekella, aga kuni inimesed näevad, kuidas tänaval robotid tapavad inimesi, ei tea nad, kuidas reageerida, sest see tundub nii eeterlik."

Ja see on hõõrumine. Inimeste eetika eest hoolitsemine, rääkimata AI eetikast, on keeruline. Enamikul meist on raske aru saada arvutiprogrammi mõjust, mis hävitab ilma füüsilise kohalolekuta. Lisaks jätkas Musk seda hüpoteetilist stsenaariumi seoses 2014. aastal Ukraina kohal alla lastud Malaisia ​​lennukiga:

„Kui teil oleks AI, mille AI eesmärk oli maksimeerida aktsiate portfelli väärtust, oleks üks võimalus maksimeerida väärtust - minna pikalt kaitsele, lühidalt tarbijatele, alustada sõda… Sissetõmmatajasse Malaysian Airlines lennukite marsruudiserver, suunake see üle sõjatsooni, seejärel saatke anonüümne näpunäide, et vaenlase lennuk lendab praegu pea kohal. ”

See muudab AI ähvarduse väga reaalseks ja väga lihtsaks, kas pole? Ja seda hüpoteetilise AI-ga, millel olid näiliselt healoomulised kavatsused. Kujutage ette, kui pahatahtlikud kavatsused oleksid teadlikult programmeeritud. Sellepärast on nüüd valitsusjuhtide jaoks aeg teha AI ja eetika valdkonnas koostööd tööstusharude ja akadeemiliste juhtidega, et kehtestada sobivad regulatsioonid ja partnerlussuhted, et valmistuda AI eksistentsiaalseks riskiks.

Valitsuse vastus: olevik ja tulevik

Eraettevõtted pole ainsad, kes on hakanud AI-le tähelepanu pöörama. Nii Obama administratsioon koos raportiga “Tehisintellekti tulevikuks valmistumine” kui ka Hiina valitsus, kes esitas hiljuti eesmärgi saada 2030. aastaks AI maailmas juhtiv juht, saatis selgeid signaale, et see on teema, mis võib ” t ei tohiks eirata. Siiski on oluline märkida, et mõlemal juhul keskendutakse peamiselt majanduslikele tulemustele. See on mõistlik, kuna valitsuse vastutus on oma rahva ees ja inimesed hoolivad sellest, kas nad saavad endiselt oma perekonda toetada AI-ga, mis ähvardab paljusid okupatsioone. Majandusliku mõjuga seotud õigusaktid on olulised, kuid praegu näib AI oht iseenesest olevat pigem järelmõju. See on mõistlik, kuna poliitikud on harjunud seadusi kehtestama pärast tehnoloogiaga seotud probleemide tekkimist. Lõppude lõpuks on raske ennustada iga uue tehnoloogia negatiivset mõju; AI-st sellest siiski ei piisa. Kui negatiivsed mõjud on täiesti selged, võib valitsuse sekkumiseks olla liiga hilja.

Sellepärast peavad poliitikud tegema koostööd tehnoloogiaekspertidega, et olla selles valdkonnas regulatiivsed. Boonusena võimaldab see poliitikakujundajatel paremini mõista intellektuaalse intellektuaalse olemuse olemust juba põhitasandilt, mis aitab neid majanduse muutustega, mida AI tõenäoliselt põhjustab.

Mida see kõik tähendab igapäevase inimese jaoks, kes ei tööta AI, eetika ega poliitika valdkonnas? Noh, meil on kaks võimalust. Istuge, oodake ja ristame pöialt, et see kõik õnnestuks, või harige end, suurendage kogukondade teadlikkust ja paluge esindajatel AI arengut korralikult reguleerida. Ja kui olete jõudnud selle postituse (ja sarja) lõpuni, siis teate AI arengu kohta rohkem kui 95 protsenti elanikkonnast. See teadmine on jõud. Nüüd on teie otsustada, kas võtate endale vastutuse, mis selle jõuga kaasneb, ja aitate sellel mängida väikest osa, et olla kindel, et meie AI tulevik on hea.