Ņemot vērā mākslīgā intelekta attīstības tempus un centienus "gudros robotus" izmantot visās iespējamajās nozarēs, nebūs pārsteigums tas, ka arī novērošanas kameras tiek aprīkotas ar "smadzenēm".
Šādas novērošanas kameras pilsētvidē nākotnē varētu palīdzēt glābējiem ātrāk reaģēt uz nelaimes gadījumiem un policijai novērst potenciālos draudus sabiedrībai, piemēram, atpazīt meklēšanā esošus indivīdus vai fiksēt aizdomīgas darbības.
Te gan rodas riski, ka robota smadzenes, paļaujoties uz iepriekš iekrātiem datiem, noziegumos apvainos nevainīgus cilvēkus.
Piemēram, ja noteikta izskata jauniešu grupa apzagusi veikalu, tad mākslīgais intelekts var izsaukt policiju, kas nopratinās un pievērsīs uzmanību nevainīgiem līdzīga izskata cilvēkiem. Pēdējos gados tas radījis bažas sociālo procesu pētniekiem. 2018. gadā publicētajā grāmatā Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (Nevienlīdzības automatizēšana: kā augsto tehnoloģiju rīki profilē, uzrauga un soda nabagos) autore Virdžīnija Jūbenksa min, ka matemātiskā dalīšana grupās nodara pāri tieši ievainojamākajām sabiedrības daļām. Eiropas Savienības Vispārīgā datu aizsardzības regula (GDPR), kas Latvijā ir spēkā no šā gada 25. maija, arī nosaka to, ka visiem ir tiesības pieprasīt, lai automatizēto lēmumu pārskatītu cilvēks.
Te jāņem vērā arī aspekts, ka pagaidām mākslīgais intelekts nav spējis sasniegt cilvēka kontekstuālās izpratnes spējas, proti, jau minētājā AI Guardman piemērā secināts, ka dažkārt robots reaģē uz neizlēmīgiem pircējiem, kas paņem rokās un novieto atpakaļ plauktā preci vairākas reizes, kā arī uz darbiniekiem, kas liek preces plauktā. To gan, kā Dienai iepriekš minējuši Latvijas mākslīgā intelekta pētnieki, risina, ievadot mākslīgajā intelektā lielu skaitu piemēru un datu apstrādes speciālistam anotējot, kuri gadījumi ir bīstami, kuri nav.
Visu rakstu lasiet avīzes Diena pirmdienas, 23. jūlija, numurā! Ja vēlaties laikraksta saturu turpmāk lasīt drukātā formātā, to iespējams abonēt ŠEIT!