Kad algoritms domā mūsu vietā: kur beidzas tehnoloģija un sākas atbildība? Apriņķis.lv
- Autors: Pauls Barkāns, “Helmes Latvia” vadošais risinājumu arhitekts

Mākslīgais intelekts (MI) ir klātesošs mūsu ikdienā, darbā, izglītībā un informācijas apritē, bieži vien mums to nemaz neapzinoties. Vienlaikus ar dažādu risinājumus attīstību aug arī sabiedrības bažas un piesardzība. Saskaņā ar kompānijas “KPMG” un Melburnas Universitātes 2025. gada pētījumu, 54% cilvēku kopumā nevēlas uzticēties MI, bet 65% novērtē tā sniegtās tehniskās iespējas. Tas liecina, ka cilvēki arvien biežāk sastopas ar MI, bet vienlaikus jūtas nedroši par dažādiem riskiem, ietekmi uz sabiedrību un ētisko izmantošanu.
Uzticēšanos iespējams veicināt tikai ar caurspīdīgu normatīvo regulējumu, skaidriem lietošanas principiem un sabiedrības izglītošanu. Šajā attīstības etapā piesardzība ir ne tikai saprotama, bet pat vajadzīga – īpaši laikā, kad pieaug dezinformācijas, dziļviltojumu un datu izmantošanas riski, tomēr svarīgi atcerēties, ka MI pats par sevi nav ļauns vai labs, tam nav jūtu, nodomu vai politiskās pārliecības.
Atvērtībai pret MI jāiet kopsolī ar izglītošanos
Piesardzība šobrīd ir vēlama – ja trūkst izpratnes par to, kā MI strādā, labāk, lai ir piesardzīga attieksme. Laikā, kad pieaug deinformācijas, dziļviltojumu, dažādu krāpniecības gadījumu skaits, pārlieku liela paļaušanās uz MI, padarīs mūs neaizsargātus. Lai samazinātu skepsi, jādomā par drošības standartiem un uzraudzības mehānismiem. Tehnoloģijas attīstās ātri un cilvēki ne vienmēr tiek līdzi. Ņemot vērā mūsu zināšanu līmeni par MI, lielu daļu sabiedrības aizvien var salīdzinoši viegli apmānīt.
Mēs redzam, ko var panākt, manipulējot ar informāciju – kaimiņvalsts ir tam spilgts piemērs, un, protams, mākslīgais intelekts vairo manipulācijas un propagandas iespējas. Atvērtībai pret MI jāiet kopsolī ar izglītošanos un digitālo pratību. Sliktāk, protams, būtu tad, ja ar zemu izpratni un zināšanām par MI mēs vienlaikus būtu ļoti atvērti un optimistiski noskaņoti, jo tas pavērtu ceļu dažādiem riskiem.
Nevaram paļauties, ka visi izmantos MI rīkus tikai labiem mērķiem
Uzticēšanos MI var sekmēt arī normatīvais regulējums – piemēram, Mākslīgā intelekta likums (“AI Act”), protams, nenoregulēs visas situācijas un pilnībā neizskaudīs riskus, bet tas ir solis pareizajā virzienā. Nevaram paļauties, ka visi izmantos MI rīkus tikai labu un cēlu mērķu vadīti, tāpēc gan organizāciju, gan valsts līmenī nepieciešamas gan dažādas apmācības, gan vadlīnijas un ieteikumi par to, kā atpazīt un novērst riskus.
MI var maldināt arī neapzināti
Svarīgi saprast, ka MI pats par sevi nav nedz ļauns, nedz labs – viss atkarīgs no tā, kā mēs, cilvēki, to pielietojam. MI ir tikai matemātisks modelis, tam nav nedz jūtu, nedz politiskās pārliecības. No kurienes tad rodas riski?
Riskus rada tie, kuri pārvalda šos modeļus, un tie atkarīgi no tā, kur un kā tos izmantojam. Jebkura MI rīcība ir atbilde uz datiem, kas tikuši ievadīti, uz to, kā MI ticis “apmācīts”. Jāapzinās, ka, piemēram, “ChatGPT” var apmācīt ar jebkāda veida datiem, piemēram, propagandas informāciju, un, protams, no tā arī būs atkarīgas atbildes uz jautājumiem un ieteikumi, ko šis risinājums sniegs.
Diemžēl ir teju neiespējami pārbaudīt, kā tiek “apmācīta” lielākā daļa MI modeļu, jo visbiežāk tas ir kādā uzņēmuma pārvaldībā esošs rīks, piemēram, jau pieminēto “ChatGPT” pārvalda uzņēmums “OpenAI “. Ir uzņēmumi, kas strādā ar atvērtiem datiem, ir MI modeļi, kas tiek “apmācīti” ar informāciju no Vikipēdijas u.tml. Tāpēc jāņem vērā, ka informācija, ko sniedz MI var būt nepareizi arī netīšām, nevis apzināta maldināšana.
Tāpat MI var pieņemt lēmumus, kas balstīti aizspriedumos vai diskriminācijā, balstoties vēsturiskajā pieredzē.
Modelis nedomā pats – tas ir trenēts algoritms
Svarīgi apzināties, ka MI nepieņem lēmumus – tos pieņem cilvēki, bet MI sniedz informāciju, kas apzināti vai neapzināti var ietekmēt mūsu lēmumus. Modelis nedomā pats – tas ir trenēts algoritms, kas mudina mūs pieņemt vienu vai otru lēmumu, taču svarīgi atcerēties, ka mēs nekad nevaram zināt, ar kādu nolūku MI modelis ir apmācīts.
Piemēram, ja MI iesaka, kur ieguldīt naudu, un vēlāk šī summa tiek zaudēta, vai atbildīgs ir MI vai mēs paši? Varbūt attiecīgo MI risinājumu “apmācījuši” cilvēki, kuriem pieder akcijas uzņēmumā, kurā rīks attiecīgi iesaka investēt?
Izglītošanās ir gan individuālais, gan darba devēju un valsts pienākums
Kā iespējams risināt šo izaicinājumus un mazināt riskus? Sliktā ziņa, ka nav viena unikāla risinājuma, kas derēs visām situācijām, jo MI rīku ir daudz un tie attīstās straujāk, nekā mēs varam tikt līdzi. Labā ziņa – ir vairāki būtiskākie aspekti, uz ko varam fokusēties. Viens no tiem ir jau pieminētais normatīvais regulējums, bet otrs – sabiedrības izglītošana par to, kā darbojas MI, kādus riskus tas var radīt un kādos gadījumos mums jābūt piesardzīgiem.
Izglītošanās ir gan mūsu individuālais pienākums, gan organizāciju kā darba devēju, gan nacionālā līmeņa jautājums. Piemēram, uzņēmumi var rast risinājumus, lai nodrošinātu MI izmantošanu slēgtā vidē savā infrastruktūrā. Tā tiks nodrošināts, ka, lietojot MI risinājumus, dati nenoplūdīs ārpus organizācijas – tas ir īpaši svarīgi gadījumos, kad tiek strādāts ar sensitīviem datiem. Ir arī vienkāršāki risinājumi – uzņēmumi var apmācīt darbiniekus, ieviest vadlīnijas, kas pielāgotas darbības specifikai. Arī “Helmes Latvia” rūpējas par to, lai darbinieki izmantotu MI risinājumus droši un atbildīgi. Visiem nav jābūt ekspertiem MI jautājumos, bet digitālā pratība ir jāattīsta visiem un individuālā līmenī ikvienam jāuzņemas atbildība, lai MI tiktu izmantots droši un atbildīgi.
Mākslīgais intelekts ir viens no spēcīgākajiem mūsdienu instrumentiem, taču tā vērtību nenosaka tehnoloģija pati par sevi, bet tas, kā mēs to izmantojam. Atbildīga pieeja, izpratne un digitālā pratība ir svarīgi priekšnoteikumi, lai MI sniegtās iespējas pārvērstu sabiedrībai noderīgos risinājumos. Pareizā pieeja nav nedz absolūta paļaušanās, nedz pilnīga noraidīšana, bet līdzsvarots skatījums, kur zināšanas, normatīvais regulējums un skaidri lietošanas principi iet roku rokā ar cilvēka atbildību un gatavību pieņemt gala lēmumu. MI ir tikai instruments un cilvēki izvēlas, kā to izmantot.