Kuidas tehisintellekt võib ja saab rikutud olla ning kuidas selleks valmistuda

Päeva lõpus on tehisintellekti tarkvara endiselt tarkvara - ja tarkvara võib olla rikutud. Ehkki meil ei ole realistlikku ohtu, et Siri või Alexa muutuvad HAL 9000 või SkyNetiks, on A.I. vältimatu väärkasutus või talitlushäired. süsteemid on võimalus, milleks üksikisikud ja organisatsioonid peavad valmistuma.

Esimene samm petturiteks ettevalmistamiseks A.I. Selle eesmärk on kõigepealt mõista, kuidas tehisintellekti süsteeme saab kahjustada. Louisville'i ülikooli teadlane Roman Yampolskiy on tuvastanud kaheksa ainulaadset teed ohtliku A.I. juurde, mis on toodud allpool. Seejärel arutame meetodeid pahatahtliku tehisintellekti riski vähendamiseks.

Kuidas tehisintellekt areneb

“Tehisintellekt” on paljude konkureerivate määratlustega hõlmatud mõiste (eriti kui seda kasutavad turundajad), kuid üldiselt aktsepteeritud kirjeldus A.I. on tarkvara, mis muudab ennast ilma programmeerijate otsese järelevalveta. A.I. tarkvara areneb vastusena stiimulitele, mille tulemuseks on uus süsteem, mida inimesed otseselt ei kodeerinud.

Moodsaim A.I. on kahe teguri tulemus: inimeste kirjutatud põhialgoritm ja koolitusandmed, mis annavad teada, kuidas see algoritm ennast oma jõudluse parandamiseks või kohandamiseks modifitseerib. Näiteks A.I. Lahendus, mis tuvastab veebifotodel näod, oleks nii originaalse pildituvastusalgoritmi kui ka erinevate koolituspiltide toode, mida algoritm tarbis selleks, et “õppida” eristama inimeste nägusid muudest pildiandmetest.

Koolitusandmed on hästi märkustega ja edastatud kontrollitavas keskkonnas, eelpaigutamisel. See dikteerib, kuidas A.I. töötab kohe pärast selle vabastamist ja üldises kasutuses.

Pärast kasutuselevõttu aga A.I. lahendused puutuvad kokku reaalmaailma andmetega, mida saab kasutada A.I. soorituste teavitamiseks ja edasiviimiseks. See tähendab, et mitu väljaande-eelse A.I. saab ja saab kardinaalselt teistsuguseks, kui nad kohanevad erinevate kasutajate ja neid tööle võtvate organisatsioonidega.

Lihtsamalt öeldes: mõned tehisintellekti lahendused sünnivad nende arendajate poolt halvasti, teised muutuvad nende loomuliku kasvu tagajärjel ohtlikuks. See korruptsioon võib aset leida enne või pärast keskkonda viimist, tahtlikult või ekslikult, keskkonnategurite tagajärjel või lihtsalt A.I enda arengukõvera loogilise järeldusena. Iga asjaolu põhjustab pahatahtliku tehisintellekti erinevat tõugu.

Määratlus „halb“ A.I.

Pahatahtlik tarkvara - mida sageli nimetatakse ka pahavaraks - on tarkvara, mis on loodud kahjustama arvutisüsteeme, inimkasutajaid või mõlemat. Mis eristab pahatahtlikku A.I. tavalisest pahavarast on see, et A.I. võib muutuda pahatahtlikuks ilma selle arendajate nõusolekuta või tahtluseta. A.I. mõnes mõttes kujundab ise, nii et A.I. mis on praegu pahatahtlik, ei pruukinud seda algselt nii kavandada ja A.I. mis on loodud mitte pahatahtlikuks, ei tohi jääda heatahtlikuks ega healoomuliseks.

Nagu eespool mainitud, on A.I. on välja töötatud tarkvara, mis kirjutab end aja jooksul ümber, omandades sellega uusi funktsioone või uusi eesmärke. Sellisena on iga A.I. on potentsiaalselt pahatahtlik mitte ainult seetõttu, et selle arendajad või kasutajad saavad suunata A.I. kahju tekitamiseks, kuid kuna A.I. süsteem suudab kahjuliku käitumise iseseisvalt välja töötada.

Võimalikud marsruudid A.I. Pahavara

Kurjus by Design A.I.

Yampolskiy A-tüüpi tehisintellekt on kõige tõenäolisem ja ohtlikum pahatahtliku A.I. - tehisintellekt, mis oli tahtlikult loodud kahju tekitamiseks. Tüüp A: pahatahtlikud tehisintellektid tehakse pahatahtlikuks tahtlikult, juurutamiseelselt. Ehkki on võimalik, et mõni A.I. võib juhuslikult muutuda ohtlikuks või kahjulikuks, on kindel, et keegi on juba ehitanud A.I. süsteem, mis on tahtlikult loodud kellegi või millegi vigastamiseks.

Mitmed sõjaväelased töötavad avalikult A.I.-juhitud automatiseeritud relvasüsteemide kallal. Mitu luureagentuuri kasutab A.I. ehitada paremaid küberrelvi ja seirevahendeid. Kuritegelikud ühendused kasutavad peaaegu kindlasti A.I. oma andmepüügirünnakute lihvimiseks - näiteks kujutage ette näiteks mõnda vestlusprogrammide hordi, kes jooksevad e-posti või Facebooki Messengeri kaudu läbi Hispaania pädevate vangide pettusi.

Ükskõik, mida tavaline pahavara teha võib, A.I. aitab pahavara paremini teha. Tehisintellekt võib muuta pahavara ise efektiivsemaks ja A.I. Samuti saab pahavara tuvastamise vältimiseks paremaks muuta. Kui A.I. saab pidevalt Turingi testi läbida - st kui te ei saa enam lihtsalt aru, kas räägite inimesega või vestlusbotiga -, siis on võimalik täiesti uus sotsiaalainete rünnakute ulatus.

A. A. pettur on ohtlikum kui ükski tavaline nõks, sest A.I. kunstnik saab tegutseda peaaegu piiramatul skaalal.

Repurposed for Kurjuse A.I.

B-tüüpi Yampolskiy tehisintellekt on loodud õiguspäraseks otstarbeks, kuid suunatud - mitte ümberprogrammeeritud või häkkinud - pahatahtlike eesmärkide poole. Tüüp B A.I.-d tehakse pahatahtlikult, kuid ainult pärast juurutamist ja üldiselt nende koodi otseselt muutmata.

Võtame näiteks A.I. kujutiseanalüüsisüsteem, mis on mõeldud inseneride tuvastamiseks sildade ja maanteede viaduktide struktuuriliste puuduste osas, tehes lihtsalt maanteede tavapäraseid fotosid. Sihtotstarbelisel kasutamisel on see A.I. lahendus päästab elusid, suunates vajalikud ressursid varisemisohtlikele teedele ja sildadele. Kui aga terrorirühmitus satuks sama A.I. süsteemi abil, saaksid nad seda kasutada pommirünnakute suunamiseks piirkondadesse, kus nad kahjustaksid kõige rohkem.

Samamoodi on A.I. Süsteem võiks eksisteerida nõudluse vähendamise kontrolli haldamiseks, mida paljud elektriettevõtted kodukliimaseadmetele paigutavad. Süsteemi võiks kavandada tarbimise minimeerimiseks, tagades samal ajal, et üheski kodus ega ettevõttes pole vajalikku kliimaseadet, et tagada selle kasutajate turvalisus ja mugavus. Säilitamise ja mugavuse suhtelist kaalu kontrollitakse A.I. seadete ekraanil. rakendus, mille eelistused on seadnud inimese töötaja. Kui see töötaja “läks petturiks” ja juhendas A.I. energiasäästu suurendamiseks iga hinna eest oleks kliimaseadmete väljalülitamine isegi äärmuslike kuumalainete ajal, mis võib olla meditsiiniliselt habras.

Nendes näidetes ei muudetud ei tehisintellekti käitumist ega selle aluseks olevat koodi, vahendas A.I. suunati inimkasutajate poolt lihtsalt pahatahtlikele või ohtlikele eesmärkidele.

Halvasti kujundatud A.I.

C tüüpi Yampolskiy tehisintellekt on lihtsalt halvasti konstrueeritud, nii et selle “õige” jõudlus on juhuslik, mitte tahtlikult ohtlik. Tüüp C A.I.-d tehakse juhuslikult pahatahtlikuks, juurutamiseelseks. See erineb Evil by Design (A-tüüpi) süsteemidest selle poolest, et C-tüüpi agendid ei ole loodud pahatahtlikel eesmärkidel, vaid neil lihtsalt puuduvad turvaelemendid või soovimatut käitumist takistavad „takistused“.

Näide halvasti kavandatud A.I. pahatahtlikuks muutumiseks on navigatsioonisüsteem, mis kavandab kaubaautode jaoks kõige kütusesäästlikumaid marsruute, kuid mis ei arvesta silla või tunneli kliirensi kõrgusega. Selle tulemuseks võivad olla kahjulikud või isegi surmaga lõppevad õnnetused, kuna kõrge kliirensiga veoautod suunatakse madala kliirensiga teedele, kus sõidukid satuvad üle takistuste. Võimalik, et seda viga ei avastatud vabastamiseelsel testimisel, kuid see ilmneb pärast vabastamist pärast õnnetuste ilmnemist.

Peaaegu iga suurem tarkvaraväljaanne sisaldab vigu ja vigu, mida ei ilmne enne, kui tarkvara on looduses. A.I. peavad kõik, kuid kindlasti kannatavad samad probleemid, ja need probleemid võivad kergesti põhjustada ohtlikke A.I. pahavara.

Halvasti juhitud A.I.

Inimesed suunavad Jampolskiy D tüüpi tehisintellekti tahtmatult ohtliku käitumise poole. Tüüp D SA.I. on kasutaja eksituse tagajärjel pahatahtlikult kasutusele võetud, juurutamise järgselt. See erineb repurposed for Evil (tüüp B) agendist selle poolest, et inimkasutaja ei kavatse A.I. pahatahtliku käitumise poole, kuid lihtsalt ei saa aru juhistest, mida ta annab A.I. süsteem.

Näitena võib tuua finantsportfelli haldamise A.I. võib naiivne kasutaja juhendada järgmise eelarveaasta maksukohustuse minimeerimist ning A.I. võib reageerida ettevõtte portfelli nihutamisega tahtlikult halvasti toimivatele investeeringutele, mis toovad kaasa rahalist kahju, selle asemel et toota kasumit, mida saaks maksustada. Isegi kui A.I. on kaitsemeetmeid selliste halbade valikute ärahoidmiseks - paljud küpsed rakendused esitavad väljakutse „Kas olete kindel?“, kui kasutaja teeb potentsiaalselt kahjuliku valiku - inimesed ignoreerivad püsivalt neid kaitsemeetmeid teadmatuse, kiirustamise, väsimuse või lihtsa arusaamatuse tõttu.

A.I. pole lõpptarbija rumaluse suhtes immuunsem kui mis tahes muud tüüpi tarkvara.

Mudel rikutud A.I.

Yampolskiy E tüüpi tehisintellekt on täiesti funktsionaalne koopia loomupäraselt vigase „loodusliku“ intelligentsusest. E-tüübi agendid on nende keskkonna, juurutamise eelse tõttu pahatahtlikud. Lihtsamalt öeldes kannatavad E-tüüpi agendid probleemiga, mida ahv näevad, ahvid teevad. Robotprotsesside automatiseerimine, mis näeb madala kvaliteediga A.I. süsteemid õpivad jäljendama inimkasutajate käitumist, jäljendavad ka kõigi nende samade mõjurite ebaefektiivset või kahjulikku käitumist.

Näide mudelkorruptandist A.I. oleks RPA agent, kes on koolitatud esitama ravikindlustuse nõudeid kindlustusmaksja veebisaidile. Kahjuks võis inimagent, kelle poolt RPA „välja koolitas”, mitu vastavus- või uurimisülesannet vahele, mistõttu kindlustusandja lükkas suure osa neist väidetest tagasi või lükkas need tagasi. Mis veelgi hullem, kuna RPA agent võib nõudeid esitada palju kiiremini kui inimene, mille ta asendas, peatab kindlustusselts arsti väga lühikese aja jooksul Internetis esitatud avalduste esitamise väga suure tagasilükkamismäära tõttu.

Kui me õpetame A.I. Inimeste käitumise modelleerimiseks peame olema kindlad, et käitumine on õige. Need A.I.-d on nende keskkonna või “ettevõtte kultuuri” toode. Kui õpetame A.I. käituda rumalalt või ohtlikult, see on rumal ja ohtlik A.I. skaala.

Kood rikutud A.I.

Yampolskiy F-tüüpi tehisintellekt on kannatanud tavapärase tarkvara rikkumise all, mis on põhjustanud ohtlikke rikkeid. Tüüp F A.I.-d on keskkonnamõjurite tõttu rikutud juurutamise järgselt. See korruptsioon tuleneb samadest põhjustest, mis vaevavad “normaalset” tarkvara, see tähendab riistvarahoidla füüsilist riket, mis haldab A.I. - koodi rikkumine ebaõnnestunud kõvakettalt, mälukiibilt või kopeerimisveast - see muudab hea A.I. halb.

Jällegi, A.I. tarkvara on lihtsalt tarkvara ja aja jooksul koguvad kõik digitaalsed failid korruptsiooni. Mõnikord põhjustab korruptsioon pahavara, isegi A.I. süsteemid.

Üle arenenud A.I.

Yampolskiy tüüpi G tehisintellekt on selline, mis kasvab loomulikult aja jooksul pahatahtlikuks, ilma selle arendajate ega kasutajate kavatsusteta. Tüüp G A.I. muutuvad iseseisvalt pahatahtlikuks, juurutamiseelseks; kasutajatelt pole vaja häkkimist, korruptsiooni ega halbu juhiseid.

Tüüpi G agendi näide on teenuse tarkvara halduse teenus A.I. mis optimeerib rekursiivselt omaenda koodi, tagamaks, et tema hallatavad SaaS-i rakendused täidavad teenustaset käsitlevat lepingut (SLA) minimaalse tööaja või minimaalse tehingu reageerimise aja jaoks. Pärast mõnda aega treenimist ja SLA rikkumist põhjustavate tegurite jälgimist võib selline AI välja töötada ettenägematuid ressursside kogumise strateegiaid, näiteks konkureerivate rakenduste või veebisaitide proaktiivne sulgemine oma andmekeskuses, et tagada piiramatu juurdepääs ribalaiusele, võimsusele ja tööajale .

Selline käitumine on A.I.-i direktiivide loogiline järeldus, kuid A.I. Agent võib jõuda järeldusele alles pärast seda, kui on oma koolitusandmetest õppinud, et selline pahatahtlik käitumine aitaks tal eesmärke täita. Need A.I. agentidel võivad puududa vajalikud kaitsemeetmed, kuna inimarendajad ei näe ette A.I. jõuab selle loomuliku evolutsiooni käigus.

Halvasti õpetatud A.I.

Yampolskiy H-tüüpi tehisintellekt on A.I. mis muutub kahjulikeks, kuna nad puutuvad kokku ekslike või ohtlike reaalainete koolitusandmetega. Tüüp H A.I muutuvad iseseisvalt pahatahtlikuks juurutamisjärgseks. Kõige kuulsam näide H-tüüpi agendi kohta on Microsofti vestlusprogramm Tay Tay, kes, olles võrgus elavate inimeste tahtlikult solvava käitumisega kokku puutunud, hakkas kiiresti kasutama samu rassistlikke ja misogünistilisi keelemudeleid, mida ta vabas looduses täheldas.

H-tüüpi agendid erinevad tüüp E-mudelist Corrupt A.I. selle poolest, et nad arenevad iseseisvalt pärast kasutuselevõtmist pahatahtlikuks tarkvaraks, selle asemel, et neid algselt ehitada ebaõige käitumisviisi jäljendamiseks. H-tüüpi süsteemid "satuvad halva rahvahulga alla", rääkides viisil, ja muutuvad pahatahtlikuks, kui nad analüüsivad sobimatut, õpitud käitumist.

Kuigi väljalaske-eelse väljaõppe andmed on kontrollitud ja asjakohased, on väljalaskejärgse väljaõppe andmed suures osas kontrollimata - seega manitseb Interneti-kasutajaid kurikuulus “ärge lugege kommentaare” -, mis pakub väljakutseid A.I. arendajad lähitulevikus, eriti need, mis loovad agente, kelle eesmärk on suhelda inimestega.

Pahatahtliku A.I.

Niisiis, kas kõiki neid võimalikke korruptsiooni ja pahatahtliku käitumise teid silmas pidades on tehisintellekt hukule määratud? Vaevalt. Võti turvaliseks, edukaks A.I. arendamise eesmärk on tagada, et pahatahtlikud A.I. ei saaks levida ning et kõiki A.I. oleks võimalik rikke või ohtliku käitumise ennustamiseks või ennetamiseks jälgida ja ülekuulata.

Mõningaid A.I.-sid, näiteks kavandatud kurjuse jaoks (tüüp A) või neid, mida on pahasti võimalik uuesti korrata (tüüp B), ei tohiks laialdaselt kättesaadavaks teha. Nii nagu me reguleerime ohtlike tööstuskemikaalide või lõhkeainete omamist, peame reguleerima ka ohtlike A.I. süsteemid.

Nagu see paber on märkinud, on mitut tüüpi A.I. mis ei ole tahtlikult ega ilmselgelt pahatahtlikud, kuid muutuvad siiski aja jooksul ohtlikuks. Sellisena on vaja ülekuulata A.I. Agenti poolt väljatoodud eesmärkide osas, koolituse andmete täpsustamiseks, kes selle ehitas, kes seda praegu juhib ja milliseid tegevusi on ta varem võtnud või kavatseb tulevikus võtta. See A.I. auditipäevik aitab tuvastada A.I. potentsiaalselt pahatahtlikud agendid, samuti tuvastada asjaolud, organisatsioonid või isikud, kes on osutunud heaks A.I. halvaks.

Looge vähesus rakendusega Blockchain

Ohtlike tehisintellektide leviku peatamiseks tuleb arvestada antud A.I iga eksemplariga ja võib-olla isegi piirata, millised isikud või organisatsioonid võivad teatud A.I. omada või kasutada. esindajad. Hoolimata õigusasutuste parimatest pingutustest ja sõltumatutest litsentsimismeetmetest, pole keegi veel tarkvaranappust edukalt loonud, kuna oma olemuselt on traditsiooniline tarkvara hõlpsasti kopeeritav. (Selle tõrke selge ülevaate saamiseks otsige kaugemale kui filmide, telesaadete, laulude ja Windowsi tarkvaralitsentside laialt levinud veebipiraatlus.)

Blockchain võiks selle probleemi lahendada A.I. esindajad. Blockchain on loodud digitaalse valuuta topeltkulu probleemiga tegelemiseks, tagades, et iga virtuaalse mündi asukohta ja omandust plokiahela pearaamatus võetakse rangelt arvesse. Samast Bitcoinist ei saa kunagi olla kahte eksemplari. Mis blokeeriv register A.I. agendid, ei tohi kunagi olla tehisintellekti volitamata koopiaid.

Tahtlikult ohtlike A.I. sattumisel valedest kätest muutub tehisintellektide plokiahela register peaaegu kindlaks nõudeks.

Looge vastutus hajutatud pearaamatu abil

Ei piisa lihtsalt A.I. arvu piiramisest. kasutatavaid agente, kuna alati leidub petturitest arendajaid, kes loovad võrguvälised A.I. Seega on vaja meetodit tehisintellekti päritolu tuvastamiseks ja selle eesmärgi kontrollimiseks. Sama blockchain-tehnoloogia, mis loob A.I. nappus võib muuta A.I. ka kontrollitavaks blockchaini hajutatud pearaamatu kaudu.

Sarnaselt turvaliste veebitehingute jaoks kasutatavate veebisaidi turvasertifikaatidega on A.I. autentimise plokiahel võiks nimetada A.I. algset arendajat. algoritm, dokumenteerida kõik litsentseeritud või avatud lähtekoodiga koolitusandmete komplektid, mida kasutatakse A.I. jõudluse parandamiseks, salvestada või deklareerida A.I. missiooni või eesmärk, tuvastada A.I praegune kasutaja. agent ja auditeerida A.I. ise.

Viimane auditifunktsioon - luues A.I. tehinguajalugu - muutub ülioluliseks, kuna A.I. ained hakkavad üksteisega suhtlema, selle asemel et töötada ainult inimestega.

Plokkkett sobib unikaalselt A.I. turvalisus, kuna selle hajutatud olemus hoiab ära ühegi A.I. arendaja muutumine vahekohtunikuks või autentsus või kvaliteet A.I. ruumi. Krüptitud olemus takistab häkkeritel - või isegi petturitel A.I.-del endil - A.I jaotatud pearaamatu logide muutmist. agendid pahatahtliku tegevuse varjamiseks.

Järeldus

Tehisintellekt suurendab tavapärase tarkvara kõiki turvaprobleeme. Sest A.I. areneb, täna ohutu tarkvara võib homme muutuda pahatahtlikuks. Sest A.I. on nii põhialgoritmi kui ka treenimisandmetega kokkupuute tulemus, A.I. süsteemid, mis on vabastamisel kahjutud, saavad halva treeningkomplektiga kokkupuutumisel koolitada pahatahtlikku käitumist. Sest A.I. agendid on tavapärasest tarkvarast laiemalt ja ainulaadselt pädevad, kasutajavea ja pahatahtliku kasutajakavatsuse tagajärjed on A.I-le tõsisemad.

Seega vajab tehisintellekt turvalahendust, mis vastaks neile ainulaadsetele väljakutsetele. Plokkkett, millel on ainulaadne suutlikkus jõuda nappuseni - piirates seeläbi ohtlike A.I.-de levikut - ja pakub ranget, krüpteeritud, neutraalse osapoole tehingute registrit kõigi A.I. tegevus on parim praegu saadaolev tehnoloogia A.I. pahavara.

Kui soovite lisateavet selle kohta, kuidas blockchain saab A.I. esindajad, vaadake BotChaini - mille oleme viimase aasta jooksul arendanud, et mõnda neist täpsetest riskidest leevendada.