Mākslīgais intelekts no pētniecības subjekta un šaurās jomās lietota instrumenta ir kļuvis par ļoti reālu, jaudīgu, plaši pieejamu un līdz ar to ietekmīgu tehnoloģiju. Pēdējo pāris gadu laikā strauji pieaug arī šīs tehnoloģijas ietekmes mērogi. Sākot ar individuāla cilvēka produktivitātes un arī ietekmes mēroga būtisku paplašināšanu, dažādu jomu pacelšanu citā kvalitātē vai to pilnīgu pārvēršanu, līdz pat sabiedrisko un demokrātijas procesu ietekmēšanai.
Eiropas mākslīgā intelekta regulējums: ko tas mainīs Eiropā, Latvijā un globāli?
Balansēt starp mākslīgā intelekta iespējām un riskiem
Jau šobrīd ir virkne pozitīvu piemēru, kā mākslīgais intelekts (MI) palīdz veidot ērtāku dzīves telpu, produktīvāk veikt savu darbu, labāk apkalpot klientus un ātrāk iegūt jaunas zināšanas. Piemēram, personalizēta satura un piedāvājuma sagatavošanā, veselības nozarē melanomas un kaulu lūzumu diagnostikā, klientu noskaņojuma analīzē, finanšu risku analīzē, lielā apjoma informācijas analīzē, arī radošu uzdevumu veikšanā.
Vienlaikus, kļūstot par noderīgu palīginstrumentu, MI demonstrē iespējas, kas tuvākajā laikā būtiski ietekmēs vai pilnībā mainīs dažādas nozares. Tehnoloģiju un MI ieviešana kļūst par uzņēmumu pilnveides virzītāju, kura loma būs plašāka par reiz perspektīvajām robotizācijas un automatizācijas iespējām, jo ieviešama vienkāršāk, lētāk un masīvāk. Lielie valodu modeļi jau tagad sniedz satura analīzes un veidošanas iespējas; vēl nesen aicinājām visiem bērniem mācīt programmēšanas valodas, bet šobrīd sevi ir pieteicis pirmais mākslīgā intelekta programēšanas inženieris.
Lai arī skaļie jauno MI iespēju pieteikumi nereti sākumā izrādās neveikli prototipi, tomēr ātrums, ar kuru tie kļūst par ietekmīgiem, globāli pieejamiem un vienlaikus grūti pārvaldāmiem instrumentiem, kas var tikt izmantoti kā labiem, tā arī negodprātīgiem mērķiem, piemēram – manipulācijai, spiegošanai, personu slēptai ietekmēšanai, kas var apdraudēt gan demokrātijas procesus, gan indivīda spēju uzticēties jebkam, paģēr nepieciešamību šīs jomās pārvaldībai pievērst augstu prioritāti.
Negodprātīgu lietotāju rokās MI var kļūt par bīstamu instrumentu, lai ģenerētu maldinošus attēlu, audio un pat video dziļviltojumus un nodrošināt strauju un plašu dezinformācijas vilni ar mērķi sašūpot sabiedrisko domu īstermiņā, vai ilgtermiņā. Jau šobrīd vairāku ES valstu vēlēšanu procesos ir tikuši lietoti personu izteikumu dziļviltojumi manipulēšanai ar sabiedrības viedokli, kas ir novērots Polijā, Slovākijā, arī Latvijā nesen piedzīvojām dezinformācijas kampaņu par Krievijā spēlējošajiem Latvijas hokejistiem.
Vienlaikus, vērtējot MI riskus, jāatzīst, ka līdzās ļaunprātīgiem lietojumiem, mākslīgais intelekts var gluži vienkārši būt arī nepietiekami precīzs, lai uz to balstītu cilvēkiem būtiskus lēmumus, vai arī tā lietošana vienā vai otrā gadījumā var būt neētiska, pretrunā Eiropas vērtību sistēmai.
Kā piemēru var minēt hrestomātisko 2019. gada Nīderlandes gadījumu, kur nodokļu pārvalde bija ieviesusi algoritmu, kas, vērtējot bērnu pabalstu izkrāpšanas riskus, spēja pats mācīties un “pilnveidoties”, kā rezultātā, balstoties uz sistēmas risku novērtējumu, sešu gadu laikā desmitiem tūkstošu ģimeņu tika nepamatoti uzrēķinātas sodas naudas par pabalstu izkrāpšanu.
Šie ir tikai daži no piemēriem, kas raksturo, kāpēc ir būtiski, ka mākslīgo intelektu mēs lietojam ne tikai, lai uzlabotu un padarītu ērtāku savu ikdienu, bet vienlaikus to darām saskaņā ar personu pamattiesībām un demokrātijas pamatprincipiem. Tāpēc ir svarīgi veidot šajās vērtībās balstītas starptautiskas normas mākslīgā intelekta jomā.
No otras puses, mums arī jāsaglabā un jāattīsta tehnoloģiska līderība, lai ar šiem pašiem instrumentiem rastu risinājumus mākslīgā intelekta ļaunprātīgas izmantošanas riskiem. Vienlaikus būtiski ir veidot globālo dienaskārtību, lai procesā iesaistās ne tikai valdības, bet arī ietekmīgie globālie tehnoloģiju spēlētāji, kuriem ir lielākās iespējas neatbilstošos lietojumus identificēt un ierobežot vai apturēt.
Eiropas mākslīgā intelekta regulējums – ko tas nesīs Eiropā, Latvijā un globāli
2024. gada 13. martā pēc vairāku gadu intensīva darba un grūtām diskusijām tika pieņemts Eiropas Savienības Mākslīgā intelekta akts. Mērķis ir līdzsvarot mākslīgā intelekta radītās iespējas un riskus – nodrošināt uzticama mākslīgā intelekta attīstību, ieviešanu un lietošanu un atbalstīt inovācijas, vienlaikus nodrošināt aizsardzības mehānismus personu pamattiesībām, demokrātijas procesiem un tiesiskumam.
Attiecīgi akts nosaka prasības mākslīgā intelekta risinājumu izstrādātājiem, ieviešanai (laišanai tirgū) un izmantošanai Eiropas Savienībā. Vienlaikus tas ir pasaulē pirmais visaptverošais mākslīgā intelekta regulējums, un tam ir plašāka ietekmes potenciāls – kalpot par orientieri arī starptautisku normu veidošanai šajā jomā, līdzīgi, kā tas ir bijis ar citiem Eiropas ietvara regulējumiem, piem., Vispārējā personu datu aizsardzības regula, pārskatītā Maksājumu pakalpojumu direktīva PSD2 u.c.
Regulējuma būtība – riskos balstīta pieeja
Regulējuma būtība – noteikt papildu prasības mākslīgā intelekta lietojumiem, kas rada risku cilvēku pamattiesībām, veselībai un drošībai, pārējiem nosakot pārredzamības un caurspīdīguma prasības.
Pēc regulējumā noteiktā termiņa būs liegts lietot noteikta veida MI risinājumus, kas ietilpst tā sauktajā nepieņemamo MI lietojumu sarakstā, t.sk. sejas atpazīšanas datu ieguvi no novērošanas kamerām vai internetā, emociju atpazīšanas sistēmas izglītības un darba vietās u.c.
Lielākā uzmanība ir vērsta uz MI lietojumiem, kas kvalificējas kā augsta riska MI lietojumi. Tie ir MI risinājumi, kas var radīt būtiskus riskus drošībai, veselībai vai pamattiesībām. Šajā kategorijā ietilpst, piemēram, MI lietojumi būtiskajos sabiedriskajos pakalpojumos (ūdens, gāze, elektroenerģija), ceļu satiksme, banku pakalpojumi, izglītība, migrācija, tiesībaizsardzība, kritiskā digitālā infrastruktūra un arī vēlēšanu procesi. Šajā gadījumā MI risinājumiem būs jāveic noteikti pasākumi risku izvērtēšanai, darbības pārraudzība, lēmumu pieņemšanas algoritmu izskaidrojamība, kā arī tās būs reģistrējamas vienotā ES reģistrā.
Pārējām sistēmām (vidēja un zema riska) būs jāizpilda dažāda apmēra prasības to pārredzamībai, lai nodrošinātu skaidrību par to darbību un saturu.
Viena no konceptuālām prasībām ir pienākums informēt lietotājus, ja viņi mijiedarbojas ar MI sistēmu. Tāpat arī manipulētiem tekstiem, attēliem, video vai audio būs jābūt atbilstoši marķētiem.
Jāpiebilst, ka Mākslīgā intelekta akts neattiecas uz militāriem, aizsardzības un valsts drošības mērķiem radītām sistēmām.
Vienlaikus MI akts atbalsta inovāciju, gan paredzot, ka no MI akta izslēgtas Mākslīgā intelekta sistēmas un modeļi, kas īpaši izstrādāti un nodoti ekspluatācijā vienīgi zinātniskās pētniecības un izstrādes nolūkā, gan paredzot iespējas veidot regulējuma smilškastes un iespēju MI risinājumus testēt arī reālā vidē, paredzot atkāpes no vispārējām prasībām.
Paredzams, ka regulējums stāsies spēkā jūnijā.
Latvijas fokusā: efektīva risku vadība un attīstību virzošas vides radīšana
Latvijā līdz šim mākslīgā intelekta diskurss ir fokusējies pamatā ap tā sniegtajām iespējām un nav bijis fokuss uz kādu noteiktu prakšu ierobežošanu un aizliegšanu. Vienlaikus ir jāņem vērā, ka vairāki neatbilstošas MI izmantošanas gadījumi pakļautos jau spēkā esošam regulējumam (viltojumi, maldināšana, goda un cieņas aizskaršana, plaģiātisms u.c.).
Tikmēr martā divas Saeimas komisijas ir sākušas diskusijas par preventīvu regulējumu mākslīgā intelekta lietošanā vēlēšanu procesā – grozījumi krimināllikumā saistībā ar dziļviltojumiem, kā arī Valsts prezidenta rosinātie grozījumi pirmsvēlēšanu aģitācijas likumā par caurspīdīguma prasībām, ja tiek izmantots MI. Ir labi, ka šos aspektus tiesiski kārtojam apsteidzoši, vienlaikus Mākslīgā intelekta akts sniedz labu pamatu, uz kā balstīt vienotu terminoloģiju, principus un prakses.
Saistībā ar MI regulējuma ieviešanu Latvijā Vides aizsardzības un reģionālās attīstības ministrija ir sākusi darbu pie MI akta ieviešanas, t.sk. iestāžu atbildību apzināšanas, precizēšanas un skaidrošanas. Jau šobrīd ir redzams, ka MI jomas regulējums paredzēs nepieciešamību stiprināt valsts pārvaldes iestāžu kompetenci šajā jomā, t.sk. patērētāju aizsardzības jomā, konkurences jomā, arī izmeklēšanas iestādēs u.c.
Eiropas tiesiskais ietvars ir radījis labu bāzi minimālajām drošības prasībām, un tagad virknei mūsu iestāžu būs strauji jāstiprina spējas šajā jomā.
Vienlaikus apzinoties, ka MI ir tehnoloģija, kura būs tuvāko gadu attīstības virzītājs, svarīgi būtu, ka valsts pusē tiek nodrošināta ne tikai minimālā nepieciešamā uzraudzības un kontroles funkcija, bet tiek stratēģiski prioritizētas arī nacionālās kompetences un spēju stiprināšana šīs jomas attīstībai.
Tas nozīmē attīstīt kompetences un lietojumu valsts pārvaldē, paredzēt stratēģiski mērķētu atbalstu pētniecības un attīstības investīcijām uzņēmējiem un universitātēm un to sadarbībai.
Nepieciešams rast ciešāku un mērķtiecīgāku sadarbības formātu starp valsts sektoru un universitātēm, lai izveidotu regulējuma testa vides, nodrošinātu MI attīstībai nepieciešamo datu un resursu pieejamību, īstenojot pilotprojektus, tādējādi veidotu un stiprinātu nacionālās spējas izmantot MI sniegtās iespējas, attīstīt MI balstītus produktus un pakalpojumus, kā arī atbilstoši novērtēt un vadīt to riskus.
Eiropas iespēja iedibināt starptautisku standartu uzticama mākslīgā intelekta jomā
Kopumā Mākslīgā intelekta akts palīdzēs nodrošināt sabiedrības interešu aizsardzību. Stājoties spēkā MI aktam, jau šobrīd jābūt gataviem pārskatīt MI lietojumus, īpaši atbilstību aizliegtām un augsta riska praksēm, kā, piem., emociju atpazīšana u.c.
Uzņēmējiem tiks nodrošināti vienoti noteikumi mākslīgā intelekta izstrādes un ieviešanas procesos ES, ņemot vērā, kāda riska mākslīgā intelekta sistēmas tiks izstrādātas un laistas tirgū. Latvijā ir virkne uzņēmumu, kas sekmīgi attīsta produktus un pakalpojumus šajā jomā, kurus minētais regulējums ietekmēs.
Atsevišķās diskusijās tiek pausts, ka ES regulējums būs spēkā tikai Eiropā, un attiecīgi tas varētu ierobežot ES mākslīgā intelekta jomas attīstību, tādējādi noliekot ES neizdevīgākā pozīcijā. Iespējams, pie tā var nonākt, taču, dzīvojot Eiropā, ir skaidrs, ka fokuss būs uz vērtībās un pamattiesībās balstītu izaugsmi.
Vienlaikus Eiropai ir iespēja atkal būt par globāla standarta virzītāju, līdzīgi kā tas reiz bija ar Vispārējo datu aizsardzības regulu.
Masačūsetsas tehnoloģiju institūta Fizikas profesors un grāmatas Life 3.0 autors Makss Tegmarks MI attīstību pielīdzina uguns ieviešanai: “Reiz mēs atklājām uguni, tad regulāri salaidām lietas grīstē, tad mēs ieviesām ugunsdzēšamo aparātu, avārijas izejas, trauksmes signālu un ugunsdzēsējus.” Ņemot vērā MI ietekmes straujo un plašo ietekmi, vēl jo svarīgāk ir savlaicīgi rast balansu starp MI iespēju izvēršanu un preventīvu risku vadību, lai nodrošinātu MI atbildīgu, ētisku un drošu ieviešanu un lietošanu.