Pirms mākslīgais intelekts (MI) spēs pārņemt pasauli savā varā, ir jāatrisina vairākas nozīmīgas problēmas. MI rīki pieredz halucinācijas. Tāpat kā cilvēkiem, arī MI rīkiem nav iespējams pateikt – “to [personas datus], ko tikko redzēji, aizmirsti!”

MI ģeneratīvie rīki, kā “Chat GPT”, ir spējuši pārsteigt ar savu spēju veidot cilvēcīgas atbildes uz teju jebkādu informācijas pieprasījumu. Ņemot vērā, ka arvien vairāk cilvēku vēršas pie MI tehnoloģijām, pieprasot palīdzēt ar mājasdarbiem, vai pat lūdz padomus veselības aprūpē, iezīmējas nozīmīga problēma – MI modeļi bieži vien sniedz izdomātu informāciju.

Pētnieki šo problēmu sauc par halucinācijām, tikmēr sociālo tīklu lietotāji MI rīkus dēvē par “patoloģiskiem meļiem”. Brauna Universitātes profesors, Baltā nama MI tiesību akta līdzautors Surešs Venkatasubramanjans norāda, ka “cilvēkiem patīk pārāk paļauties un cilvēciskot tehnoloģiju darbības”.

“MI tehnoloģijas kā “ChatGPT” ir apmācītas sniegt atbildi, kas izklausās ticama. Tādējādi jebkura atbilde – pat ja tā ir izdomāta, bet izklausās ticama, var šķist lietotājam pieņemama. Šeit arī pazūd patiesības un taisnības standarti,” norāda Venkatasubramanjans.

Pētnieks norāda, ka labākā analoģija cilvēku kontekstā ir melošana vai halucināciju pieredzēšana, kad nepatiesi fakti tiek pataisīti ticami.

“Pieprasījumi datoram ir līdzīgi kā saruna ar pasaku stāstīšanu bērniem. Tev ir jāizstāsta MI rīkam situācija un jāpajautā: “Kas notiks tālāk?” Un tad arī MI rīks sniegs savu redzējumu, kā kaut kas notiks tālāk. Un šo procesu var turpināt bezgalīgi, sacerot jaunas pasakas par dažādām tēmām,” spriež Venkatasubramanjans.

MI ģeneratīvo rīku veidotāji norāda, ka ir ieguldījuši lielu darbu, lai novērstu MI rīku halucinācijas. Tomēr problēma ir tā, ka čata rīku halucinācijas, visticamāk, nav atrisināma problēma.

Kas ir MI halucinācijas?