Salīdzinoši primitīvs MI darbojas tik veiksmīgi, cik veiksmīgi tas ir ieprogrammēts, apmācīts un cik plaša datu bāze ir tā pamatā. Attīstīts MI vai VMI, kas pats mācās un "apzināti" evolucionē, darbojas veidos, ko paši tā radītāji līdz galam nespēj izskaidrot.
Tas nozīme, ka būtiski riski pastāv abos līmeņos. Te jāpiemin kaut vai izskanējušie skandāli par pārlieku paļaušanos uz MI, piemēram, medicīnas sfērā, kur ar ierobežotiem statistikas datiem un nepilnīgi formulētiem uzdevumiem apgādāti algoritmi ir veikuši pacientu šķirošanu, diskriminējot tos pēc rases, vecuma vai vienkārši neatbilstības standarta situācijai.
Tieši tas pats attiecas, piemēram, uz MI izmantošanu darbinieku atlasē, kur lielā skandālā iekūlās "Amazon", kura izmantotais atlases algoritms neizvērtēja pretendentus dzimumneitrāli, bet deva priekšroku vīriešiem, jo uz to mudināja vēsturiskie dati.
Taču vēl lielākas ekspertu bažas ir izraisījis VMI. Pēc šī gada marta "trakās nedēļas" virkne zinātnieku, MI radītāju un attīstītāju nāca klajā ar aicinājumu piebremzēt skrējienu pēc aizvien attīstītāka MI, neizvērtējot un nenovēršot riskus, kas pēc ļaunākā scenārija var pat apdraudēt cilvēces pastāvēšanu. Aicinājums būtībā ir apturēt MI attīstību pašreizējā ChatGPT-4 līmenī, iekams nav izveidots globāls MI uzraudzības mehānisms līdzīgi tam, kā tiek kontrolēta kodolieroču uzraudzība.
Slavenais britu zinātnieks Stīvens Hokings reiz teica: "Visticamāk, ka MI būs vai nu labākā, vai sliktākā lieta, kas varēja notikt ar cilvēci." Atliek cerēt un strādāt pie tā, lai šis fenomenālais atklājums kalpo cilvēcei, nevis rada tai jaunus draudus.