Kuidas tuvastada välistamist AI-s

Autorid Joyce Chou, Oscar Murillo ja Roger Ibars

Kas tehisintellekt võib olla rassistlik? Noh, see sõltub. Oletame, et olete afroameeriklasest õpilane koolis, mis kasutab näotuvastustarkvara. Kool kasutab seda hoonete ja veebipõhiste kodutööde juurde pääsemiseks. Kuid tarkvaral on probleem. Selle tegijad kasutasid selle algoritmide koolitamiseks ainult heledanahalisi katsealuseid. Teie nahk on tumedam ja tarkvaral on probleeme teie äratundmisega. Mõnikord hilinesite klassiga või ei saa ülesandeid õigel ajal kätte. Teie klassid kannatavad. Tulemuseks on diskrimineerimine üksnes nahavärvi alusel.

See ei ole tõeline näide, kuid sarnased AI eksimused on juba tehnoloogia valdkonnas ja sotsiaalmeedias kurikuulsad. Tööstusharu on AI-st vaimustatud mõjuval põhjusel - suurandmed ja masinõpe valgustavad võimsaid kogemusi, mis olid mõni aasta tagasi mõeldamatud. Kuid selleks, et AI saaks oma lubadust täita, peavad süsteemid olema usaldusväärsed. Mida rohkem usaldust inimestel on, seda rohkem nad süsteemidega suhtlevad ja süsteemid kasutavad parema tulemuse saamiseks rohkem andmeid. Kuid usalduse loomine võtab kaua aega ja eelarvamused võivad selle hetkega maha kiskuda, kahjustades suurtele kogukondadele tõelist kahju.

AI-s tõrjutuse tunnistamine

Microsoftis oleme välja töötanud kaasava disaini tööriistad ja protsessid, et tuvastada füüsilise puudega inimesi meie disainiprotsessis. Oma tavade arenedes oleme laiendanud oma disainilahendust ka muudesse tõrjutuse valdkondadesse, sealhulgas tunnetusprobleemid, õppimisstiili eelistused ja sotsiaalne kallutatus.

On aeg kasutada sama lähenemisviisi ka AI-le. AI eelarvamus toimub juhul, kui see pole algusest peale loodud, pidades silmas kaasamist. Kaasava AI loomise kõige kriitilisem samm on tuvastada, kus ja kuidas eelarvamused süsteemi nakatavad.

Meie esimene kaasava disaini põhimõte on tunnistada välistamist. Siin tutvustatav juhend jaguneb AI kallutatuse järgi erinevatesse kategooriatesse, et tootearendajad saaksid probleemid varakult tuvastada, tulevikuprobleeme ette näha ja teha paremaid otsuseid. See võimaldab meeskondadel selgelt näha, kus nende süsteemid võivad valesti minna, et nad saaksid tuvastada eelarvamusi ja luua kogemusi, mis täidavad kõigi jaoks AI lubadusi.

Viis võimalust eelarvamuste tuvastamiseks

Tegime koostööd akadeemiliste ja tööstusharu mõtteliidritega, et teha kindlaks viis viisi eelarvamuste tuvastamiseks. Seejärel kasutasime metafooridena lapsepõlvesituatsioone, et illustreerida iga kategooria käitumist. Miks? Me võime kõik seostada lapsepõlves esinevate eelarvamuste episoodidega ja see sobib kena metafooriks: AI on alles lapsekingades ja nagu lapsed, peegeldab see, kuidas ta kasvab, seda, kuidas me seda kasvatame ja kasvatame.

Igas eelarvamuste kategoorias on seda illustreeriv lapsepõlve metafoor, selle määratlus, tootenäide ning teie meeskondade ja AI töö stressitest. Eelarvamused jagunevad järgmiselt:

Käsitledes kõigepealt neid viit eelarvamust, saame luua kaasavamaid tooteid.

Andmekogumi eelarvamused

Andmekogumi eelarvamused on sarnased väikelapse väikese maailmavaatega.

Noor laps määratleb maailma puhtalt selle väikese hulga põhjal, mida nad saavad näha. Lõpuks saab laps teada, et suurem osa maailmast jääb kaugemale sellest väikesest teabehulgast, mis on tema vaateväljas. See on andmestiku kallutatuse juur: intelligentsus, mis põhineb liiga väikesel või homogeensel teabel.

Definitsioon: kui masinõppe mudelite koolitamiseks kasutatud andmed ei kajasta kliendibaasi mitmekesisust. Suuremahulised andmekogumid on AI alus. Samal ajal on andmekogumid sageli taandatud üldistusteks, mis ei arvesta paljude kasutajatega ja on seetõttu alaesindatud.

Toote näide: masinnägemistehnoloogiad - näiteks veebikaamerad kasutajate liikumise jälgimiseks -, mis töötavad hästi ainult väikeste kasutajate alamrühmade alusel, mis põhinevad rassil (valdavalt valgel), kuna esialgse treeningu andmed välistasid muud võistlused ja nahatoonid.

Stressitest: kui kasutate koolitusandmeid, kas see valim hõlmab kõiki teie kliendibaasi? Ja kui ei, siis kas olete oma tulemusi testinud inimestega, kes ei kuulunud teie valimisse? Kuidas on lood teie AI meeskondade inimestega - kas nad on kaasavad, mitmekesised ja tundlikud eelarvamuste tuvastamisel?

Ühingute eelarvamused

Inimühendusi saab AI koolituses säilitada nagu eeldatavaid soorolle.

Kujutage ette mõnda last, kellele meeldib mängida "arsti". Poisid soovivad arsti rolle ja eeldavad, et tüdrukud mängivad õdesid. Tüdrukud peavad oma eelduse ümber lükkama. "Hei, ka tüdrukud võivad olla arstid!"

Definitsioon: Kui mudeli koolitamiseks kasutatud andmed tugevdavad ja korrutavad kultuurilist eelarvamust. AI algoritmide koolitamisel võivad inimeste eelarvamused muutuda masinõppeks. Nende eelarvamuste püsimine edaspidises suhtlemises võib põhjustada ebaõiglaseid klientide kogemusi.

Toote näide: keeletõlke tööriistad, mis teevad soo eeldusi (nt piloodid on mehed ja stjuardessid naised).

Stressitest: kas teie tulemused tekitavad seoseid, mis põlistavad stereotüüpe soo või etnilise kuuluvuse järgi? Mida saate teha soovimatute ja ebaõiglaste ühenduste purustamiseks? Kas teie andmestik on juba klassifitseeritud ja märgistatud?

Automation Bias

Masin üritab kiiret, automatiseeritud tulemust. See ei tea, mida inimene teisest otsast soovib.

Kujutage ette, et tüdruk saab makeoveri. Tüdrukule meeldib sport, ta armastab looduslikku välimust ja vihkab kõike kunstlikku. Kosmeetikul on ilu kohta erinevaid ideid, ta rakendab tonne meiki ja ulme soengut. Tulemused muudavad kosmeetiku õnnelikuks, kuid kohutavad tüdrukut.

Definitsioon: kui automatiseeritud otsused alistavad sotsiaalsed ja kultuurilised kaalutlused. Ennustamisprogrammid võivad automatiseerida eesmärke, mis lähevad vastuollu inimeste mitmekesisusega. Algoritmid ei vastuta inimeste ees, vaid teevad otsuseid, millel on inimlik mõju. AI disainerid ja praktikud peavad arvestama nende inimeste eesmärkidega, keda nende loodud süsteemid mõjutavad.

Toote näide: kaunistamise fotofiltrid tugevdavad näopiltide euroopalikku ettekujutust ilust, näiteks nahatooni kergendamine.

Stressitest: kas tõelised, mitmekesised kliendid nõustuvad teie algoritmi järeldustega? Kas teie AI-süsteem tühistab inimeste otsused ja soosib automatiseeritud otsuste tegemist? Kuidas tagada, et ahelas on inimese POV?

Suhtluse eelarvamused

AI vestlusbotid on vastuvõtlikud inimeste pahatahtlikule sisendile ja vajavad kaitsemeetmeid, et jääda solvamatuks.

Populaarne laste mäng on “Telefon”. Rühma esimene inimene sosistab järgmisele inimesele lause, kes siis sosistab seda järgmisele inimesele - ja nii edasi, kuni viimane inimene ütleb, mida nad kuulsid. Mõte on näha, kuidas teave muutub loomulikult läbi nii paljude vahetamiste. Kuid ütleme, et üks laps muudab seda tahtlikult, et luua naeruväärsem tulemus. See võib olla naljakam, kuid loodus, mis juhtub loomulikult, on murtud.

Definitsioon: kui inimesed võltsivad AI-d ja loovad erapoolikud tulemused. Tänapäeva vestlusbotid võivad nalja teha ja panna inimesi mõtlema, et nad on suure osa ajast inimlikud. Kuid paljud tehisintellekti humaniseerimise katsed on tahtmatult rikkunud arvutiprogramme, mis on inimese toksilise eelarvamusega seotud. Interaktsioonihäired ilmnevad siis, kui robotid õpivad dünaamiliselt ilma kaitsemeetmeteta toksilisuse eest.

Toote näide: Inimesed sisestavad vestlusobjekti teadlikult rassistliku või seksistliku keele, et koolitada seda solvavate asjade ütlemiseks.

Stressitest: kas teil on olemas kontrollid süsteemi pahatahtliku kavatsuse tuvastamiseks? Mida teie AI-süsteem inimestelt õpib? Kas kavandasite reaalajas suhtlemist ja õppimist? Mida see tähendab, mida see kajastab tagasi klientidele?

Kinnitus kallutatus

Kui ikka ja jälle tehakse sama kinnitus, on tulemus vähem mitmekesine, vähem uuriv.

Mõelge lapsele, kes saab ühe aasta eest mänguasja dinosauruse. Teised pereliikmed näevad dinosaurust ja annavad talle rohkem dinosauruseid. Mitu aastat eeldavad sõbrad ja pereliikmed, et laps on dinosauruste fanaatik, ja annavad rohkem dinosauruseid, kuni tal on tohutu kollektsioon.

Definitsioon: kui lihtsustatud isikupärastamine muudab grupi või üksikisiku jaoks kallutatud eeldusi. Confirmation Bias tõlgendab teavet viisil, mis kinnitab eelarvamusi. AI algoritmid pakuvad sisu, mis vastab sellele, mida teised inimesed on juba valinud. See välistab tulemused vähem populaarseid valikuid teinud inimestelt. Teadmistöötaja, kes saab teavet ainult temasugustena mõtlevatelt inimestelt, ei näe kunagi kontrastseid vaateid ja blokeeritakse alternatiivide ja mitmekesiste ideede nägemise eest.

Toote näide: poesaidid, mis näitavad soovitusi klientide juba ostetud asjade kohta.

Stressitest: kas teie algoritm põhineb ja tugevdab ainult populaarseid eelistusi? Kas teie AI-süsteem on võimeline dünaamiliselt arenema, kui teie kliendid aja jooksul muutuvad? Kas teie AI-süsteem aitab teie klientidel saada mitmekesisemat ja kaasavat maailmavaadet?

Selle praimeri kasutamine

Tehisintellekti kogemuste kujundajate ja loojatena tuleb meil mõelda, kuidas AI areneb ja kuidas see mõjutab tegelikke inimesi. See alge on pika tee algus kogemuste loomiseks, mis teeniksid kõiki võrdselt.

Kui rakendame neid ideid oma algses näites afääri-ameerika tüdrukutest, kes on näotuvastustarkvara valesti tõlgendanud, siis võime seda nimetada andmetest Biasena: tarkvara treeniti liiga kitsate andmetega. Neid eelarvamusi juba algusest peale ära tundma ja mõistma, saame testida süsteemi teiste inimlike kaalutluste alusel ja luua kaasavamaid kogemusi. Kas meie näotuvastustarkvara kohta võidakse taotleda tahtlikult ekslikke andmeid? Millised muud eelarvamused võivad kogemust nakatada?

Enamikul AI-s töötavatel inimestel on selliste olukordade kohta anekdootlikud tõendid. Piinlikud, solvavad tagajärjed tahtmatutest eelarvamustest, mida me kõik tahame tuvastada ja vältida. Meie eesmärk siin on aidata teil ära tunda nende olukordade põhjustavat eelarvamust. Alustage nende kategooriatega ja testige oma kogemusi seda tüüpi eelarvamusi silmas pidades, et saaksite keskenduda AI potentsiaali pakkumisele kõigile oma klientidele.

Selle artikli kaastöötajad olid Danielle McClune, Doug Kim ja Elena Dvorkina (illustratsioonid). Kaasava disaini meeskond on tänulik kõigile meie Microsofti teadusuuringute ja disaini partneritele mõtlemapanevate arutelude ja hindamatu toe eest kaasava tehnoloogia arendamisel.

Lisateave Microsofti kaasava disaini kohta

Microsoft Designiga kursis püsimiseks jälgige meid Dribbble'is, Twitteris ja Facebookis või liituge meie Windows Insider programmiga. Ja kui olete huvitatud meie meeskonnaga liitumisest, minge aadressile aka.ms/DesignCareers.