Paieškos sistemoje internete įrašykite „dirbtinis intelektas“ ir ieškokite vaizdų. Tikriausiai išvysite dirbtines smegenis arba baugius humanoidus robotus, mįslingai žvelgiančius į žmonijos pabaigą.
Viena didžiausių klaidų, kalbant apie dirbtinio intelekto (DI) sampratą, yra jo tapatinimas su žmogaus intelektu. DI yra tam tikrų teorijų, problemų ir metodų jiems spręsti visuma. Tai – kompleksinė mokslo sritis, apimanti daug elementų nuo informatikos iki filosofijos.
Žmogaus veiklos reguliavimo kontekste DI metodų taikymas sukuria situacijas, kurios kelia naujus etinius klausimus ir dar nėra reglamentuotos. Mokslinė fantastika mums leidžia pasvarstyti apie grėsmes, kylančias iš visuotinio DI (angl. Artificial General Intelligence, AGI). Tačiau šiandien reali grėsmė žmogaus teisėms kyla iš atskirų silpnojo DI (angl. weak AI) metodų pritaikymo atvejų specifinėse srityse. Pavyzdžiui, reklamos individualizavimo remiantis apie asmenį surinkta informacija socialiniame tinkle ar galimybės identifikuoti asmenį iš veido požymių.
Dirbtinio intelekto metodai gali palengvinti darbą
DI sietinas su informacijos apdorojimu kompiuteryje panaudojant specifinius algoritmus – t. y. tam tikrų veiksmų seką. Daugelyje sričių darome sprendimus remdamiesi prieinamais duomenimis. Automatizavus duomenų apdorojimą – pasitelkus tam tikra programavimo kalba užrašytus algoritmus, rezultatai gali būti pasiekiami daug greičiau, sprendimai gali būti daug tikslesni nei tais atvejais, kai apdorojimą atlieka žmogus.
Algoritmai plačiai naudojami teisinėje praktikoje. Įmonių teisės srityje populiarėja teisinio patikrinimo (angl. due dilligence) įrankiai, leidžiantys automatizuoti daugybės įmonės dokumentų patikrą identifikuojant svarbias sąsajas ir specifines tekstų vietas. Viešosios teisės srityje daugėja bandymų pasitelkus rizikos vertinimo (angl. risk assessment) įrankius panaudoti algoritmus identifikuojant atskirų asmenų polinkį daryti nusikalstamas veikas ar nustatant vietoves, kuriose didesnė nusikalstamų veikų tikimybė.
Ypatingo dėmesio visuomenėje sulaukė JAV teisėsaugos institucijų naudojama COMPAS programa. Programai būtini duomenys renkami nusikalstama veika kaltinamiems asmenims ar juos apklausiantiems pareigūnams pildant klausimyną. Juo remiantis nustatoma informacija apie asmens praeitį, jo elgesį įvairiose situacijose, gyvenamąją aplinką. Klausimynas apima tiek statinio (pvz., kiek kartų asmuo buvo patrauktas atsakomybėn), tiek dinaminio pobūdžio (pvz., kaip pastaruoju metu asmuo jaučiasi) informaciją. Suvedus duomenis algoritmo pagrindu nustatoma tikimybė, kiek konkretus asmuo linkęs pakartotinai daryti nusikalstamas veikas. Ši išvada padeda įvertinti alternatyvių (pvz., laisvės atėmimui) baudžiamųjų sankcijų skyrimo prasmingumą ir riziką.
Pasaulyje tęsiasi ginčai dėl COMPAS sistemos naudojimo teisėtumo ir atitikties žmogaus teisėms. Bene intensyviausiai keliamas klausimas dėl algoritmo taikymo prasmingumo. Kai kurie ekspertai teigia, kad tuos pačius rezultatus pasiekti galima ir žmogui pritaikant vos kelių sudedamųjų elementų formulę, apimančią asmens amžių ir nusikalstamumo istoriją. COMPAS sistema yra vienas pirmųjų rizikos vertinimo įrankių, kurių teisėtumas ginčytas ir teismuose. Štai dar 2013 m. nusikalstamos veikos padarymu kaltintas Ericas Loomisas teigė, kad COMPAS panaudojimas jo baudžiamojoje byloje pažeidė teismo proceso nešališkumo principą. Ir nors JAV Viskonsino valstijos Aukščiausiasis Teismas paliko nepakeistą žemesnės instancijos teismo sprendimą E. Loomiso baudžiamojoje byloje, kai kurie algoritmų taikymo pavojai sprendime aptarti.
Alternatyva teismo sprendimo priėmimui?
Bet koks institucijos, įskaitant teismą, sprendimas yra nulemtas daugybės veiksnių, apimančių individualią faktinę situaciją ir konkrečiu atveju taikytiną teisę. Šiandien teismai yra kompleksinį teisinį vertinimą teikianti institucija. Teismui svarbi ne tik įstatymo raidė, bet ir teismų praktika panašiose bylose, taikytini teisės principai, teisės normų tikslai ir kiti sprendimą kontekstualizuojantys veiksniai.
Dideliam kiekiui duomenų apdoroti, grupuoti ir taisyklėms išanalizuotų duomenų pagrindu kurti naudojamas mašininio mokymosi metodas (angl. machine learning) yra išskirtinė galimybė automatizuoti tokius sudėtingus procesus kaip teisės taikymas. Mašininis mokymasis yra algoritmus tirianti sritis, apimanti kompiuterio savybę mokytis iš pateikiamų duomenų, nesinaudojant iš anksto pateiktomis taisyklėmis (1 pav.). Būtent galimybė pačiam įvertinti duomenis, kurti duomenų grupes ir jų jungimo taisykles leidžia algoritmui, remiantis praeities teismo praktika, priimti sprendimą konkrečioje faktinėje situacijoje.
Tačiau naujos galimybės kelia ir daug neatsakytų klausimų. Pavyzdžiui, kiek patys teismai gali naudoti algoritmus ir kiek toks naudojimas nepažeis žmogaus teisių, pirmiausia teisės į tinkamą teismo procesą? Ekspertai pabrėžia, kad viena didžiausių pasitikėjimo algoritmais problemų yra klasikinė koreliacijos ir priežastingumo sutapties problema, kai koreliacija dar nereiškia priežastingumo. Dideli duomenų kiekiai gali padėti aptikti reikšmingų veiksnių grupes. Tačiau sąsajos tarp veiksnių gali būti atsitiktinės, o tai tik sumažins šiomis sąsajomis pagrįstų sprendimų kokybę.
Algoritmai padeda nuspėti bylos baigtį
Kita vertus, teismų sprendimams tampant viešai prieinamiems, daugėja tyrėjų, įmonių, advokatų kontorų bandymų sukurti teismų sprendimus analizuojančius ir bylų baigtį prognozuojančius įrankius. Pavyzdžiui, Londono universiteto koledžo, Šefildo ir Pensilvanijos universitetų tyrėjų grupė sukūrė algoritmą, kuris leidžia 79 proc. tikslumu nuspėti bylos baigtį Europos Žmogaus Teisių Teisme. Vis dėlto tiek mokslininkų taikytas metodas, tiek pasiektas (ne)tikslumas dar neleidžia kalbėti apie realias galimybes numatyti teismo procesų baigtį.
Ekspertai atkreipia dėmesį, kad algoritmų naudojimas analizuojant teismų praktiką gali smarkiai kompromituoti atskirus teisėjus ir visą teismų sistemą. Juk žiniasklaida laukte laukia paviešintos aplinkybės, kad, pavyzdžiui, konkretus teisėjas savo bylose skiria vidutiniškai 2 metais trumpesnes laisvės atėmimo bausmes nei jo kolegos. Kai kurios valstybės jau imasi itin griežtų veiksmų – Prancūzijoje neseniai nustatyta baudžiamoji atsakomybė už informacijos, susijusios su konkrečiais teisėjais ar teismų darbuotojais, analizę siekiant įvertinti jų profesinę praktiką ar nuspėti jų sprendimus.
Sudėtingas reglamentavimas
Šiuo metu plačiai aptariamos DI metodų teikiamos galimybės ir keliami pavojai teisės taikymo srityje. Diskusijos dėl kuriamiems ir tobulinamiems algoritmams taikomų etinių standartų vyksta globaliu, regioniniu, valstybių ar atskirų organizacijų lygmeniu.
Etinius teisinio reguliavimo klausimus, susijusius su DI, nagrinėja ir 2019 m. Vilniaus universiteto Teisės fakultete įsteigta mokslinė grupė „Žmogaus teisės ir technologijos“, siekianti suburti tarpdalykinį ekspertų tinklą.
Algoritmų taikymas daugelyje sričių tik iš dalies reglamentuotas teisės aktais. Kol kas tai daugiau minkštosios teisės (angl. soft law) reguliuojami klausimai. Vienas svarbesnių dokumentų teisės taikymo srityje – 2018 m. gruodį Europos veiksmingo teisingumo komisijos susitikime priimta Europos etikos chartija dėl dirbtinio intelekto naudojimo teisminėse sistemose ir jų aplinkose. Pirmasis šios chartijos principas skelbia pagarbą pagrindinėms žmogaus teisėms. 2019 m. vasarį Europos Tarybos Ministrų Komitetas priėmė deklaraciją dėl manipuliatyvių galimybių algoritmų procesuose. Joje, be kita ko, pabrėžiama valstybių narių atsakomybė remiant autonomiškumą, lygybę ir gerovę skatinančių duomenų apdorojimo ir mašininio mokymosi technologijų tyrimus.
Europos Sąjungoje daug emocijų sukėlusio Bendrojo duomenų apsaugos reglamento 22 straipsnis aptaria tam tikras taisykles, taikytinas priimant automatizuotus sprendimus. Tačiau šiandien neapibrėžtumas dėl technologijų plėtojimo krypčių įstatymų leidėjams kelia daug galvos skausmo.
Viena vertus, per didelis DI metodų reguliavimas gali apriboti inovacijų taikymą valstybėje ir ji dėl to praras konkurencinį pranašumą. Kita vertus, per daug liberalus reguliavimas gali nulemti ypač skausmingus padarinius, kai sureguliuoti smarkiai žmogaus teises pažeidžiančias priemones bus sudėtinga ar kai tai bus daroma per vėlai.
Tolimesnė teisės taikymo algoritmizavimo sėkmė priklausys nuo technologijų kūrėjų ir jų vartotojų bendradarbiavimo. Tokie principai kaip skaidrumas, pagarba žmogaus teisėms, atskaitingumas bus sėkmingai užtikrinti tik tuo atveju, jei pavyks rasti iš tiesų veiksmingus algoritmų tobulinimo ir taikymo būdus. Todėl itin svarbu tolesnę diskusiją dėl etikos standartų naudojant algoritmus kreipti į adekvačių institucinių priežiūros mechanizmų kūrimą ir iš privačios iniciatyvos kylančių gerųjų praktikų skatinimą.
Komentarų nėra. Būk pirmas!