“MI tā teica” – un mēs paklausījām… Automation bias darbībā

Projektu vadītāja atlases brīdī MI saka: “Šis ir ideālais kandidāts.” Neviens neuzdod jautājumus – galu galā, viņam ir visi atslēgvārdi un perfekts LinkedIn – viņš taču atbilst visiem 237 kritērijiem. Tikai vēlāk atklājas, ka viņa lielākais projekts ir bijis “elpošanas retrīts Zoomā”… Un kad HR kolēģe intervijā klusām saka: “Vai mēs vispār ar viņu runājām?”, atbilde ir skaidra: “MI teica, ka viņš ir perfekts.” Un viss. Jo, ja kļūdās cilvēks – viņš dabū pa pieri. Ja kļūdās MI – mēs vainojam “sistēmu”. Cik ērti, vai ne? Sveicināts mūsdienu automation bias realitātē!

Kas tas tāds par zvēru?

Automation bias jeb automatizācijas aizspriedums ir cilvēka tieksme pārāk uzticēties automātiskām sistēmām, it īpaši, ja tās parasti darbojas labi. Tas nozīmē, ka, ja kāda sistēma sniedz kļūdainu informāciju, mēs to bieži nepārbaudām – jo “nu taču dators nevar kļūdīties”. Var gan! Vēl trakāk – cilvēki var kļūt tik ļoti atkarīgi no automatizācijām, ka neņem vērā pašu spriedumus vai ignorē pat pretējus pierādījumus, kas var izraisīt kļūdas un lielas!

Šo terminu 90. gados sāka pētīt kognitīvās psiholoģijas un cilvēka-faktora pētnieki, īpaši saistībā ar aviāciju un veselības aprūpi, kur sistēmas kļūda var nozīmēt dzīvību vai nāvi.

Un tagad tas paliek arvien aktuālāks arī Tavā komandā, pateicoties procesu automatizācijas rīkiem, MI asistentiem, automatizētām atlases sistēmām, datu analīzes rīkiem utt. Cilvēki ir tendēti pārāk stipri uzticēties automatizētām sistēmām – no vienkārša Excel makro līdz mākslīgajam intelektam. Kad MI sniedz ieteikumu, mēs bieži vairs neieslēdzam iekšējo “skeptisko domāšanu”, jo “nu, dators jau nez vai kļūdīsies”. Rezultātā – mēs kļūdāmies paši.

Kāpēc tagad tas ir īpaši svarīgi?

Mākslīgais intelekts nav tikai modes vārds – tas kļūst par Tavu kolēģi, analītiķi, pat “otru balsi” sapulcē. Bet šī “balss” nav ne objektīva, ne nekļūdīga. Tā iemācīta no datiem, kas paši var būt kļūdaini vai aizspriedumaini.

Vadītājiem ir risks pārņemt MI “ieteikumus” kā faktus, nevis kā vienu no perspektīvām. Jo īpaši, ja tie ir ērti, ātri un rada šķietamu skaidrību.

Kā tas ietekmē vadītāju?

Vadītāji, kas paļaujas tikai uz datiem, bez kritiskas domāšanas, var pieņemt sliktus lēmumus – tikai tāpēc, ka “sistēma teica”. Automatizācija palīdz, bet nevar aizvietot veselo saprātu. Ja tu neredzi cilvēku, kas slēpjas aiz Excel tabulas… iespējams, pieņem lēmumu par ciparu, nevis cilvēku.

Un, ja HR sistēma saka “zemais sniegums”, bet Tu neesi aprunājies ar pašu cilvēku – vari nepamanīt, ka patiesībā viņš tikai neprot noformēt savu darbu ciparos.

Ņemot vērā šo visu, Tu vari sākt:

  • Pieņemt lēmumus, balstoties uz “MI teica”, nevis realitāti.
  • Ignorēt komandas locekļu pieredzi un izjūtas, jo “dati saka ko citu”.
  • Zaudēt cilvēcisko kontaktu – jo sistēmām un MI nav empātijas, konteksta izpratnes vai intuīcijas.

Un… kad komanda redz, ka lēmumus nosaka “dators”, viņi var kļūt pasīvi: “Kāpēc vispār runāt, ja MI jau izlēma?”

Un komanda?

Automatizācijas aizspriedums komandā nozīmē, ka cilvēki var justies atbrīvoti no domāšanas: “MI noteiks, ko darīt,” vai “programma pateiks, kurš uzvar.” Rezultāts? Kritiskās domāšanas trūkums, pasivitāte un – jā – kļūdaini lēmumi, ko visi vienkārši akceptē.

Jo, kad uzticība sistēmai kļūst lielāka nekā uzticība kolēģim vai pašam sev… nu, tad gan varam dabūt kolektīvu autopilotu, kas ne vienmēr ved pareizajā virzienā, jo:

  • Kritiskā domāšana vājinās. “MI jau pateica – nav vērts diskutēt.”
  • Radošums samazinās. “Kāpēc piedāvāt ideju, ja MI pasaka labāk?”
  • Cilvēciskās kļūdas pārtop par “sistēmas kļūdām” – un neviens neuzņemas atbildību.

Tā komanda no aktīviem līdzdalībniekiem kļūst par novērotājiem… kamēr MI “vada”.

Kā šo domāšanas “kļūdu” labot?

  • MI ir kolēģis, nevis priekšnieks. Atgādini sev un komandai – tehnoloģijas palīdz, bet tās neaizvieto spriestspēju.
  • Uzdod jautājumus. Ne tikai “ko saka sistēma?”, bet arī “vai tas ir jēgpilni?”.
  • Prasi otrreizējo viedokli. Ja MI sniedz rezultātu – dod to cilvēkam pārdomāt un pārskatīt. Ne tikai “apstiprināt ar klikšķi”.
  • Skaties divreiz! Dati ir labi, bet pārliecinies, vai tie saskan ar realitāti. Ja programma saka “viss kārtībā”, bet kolēģis izskatās pārguris – iespējams, programmai pietrūkst sirds.
  • “Cilvēka filtrs” pirms lēmuma. Ieplāno lēmumos pārskatīšanas brīdi – īpaši svarīgos jautājumos, kur ētika, vērtības un konteksts svarīgāki par datiem.
  • Apmāci komandu par šo efektu. Automatizācijas aizspriedums ir nezināšanas produkts. Ja cilvēki saprot, viņi arī domā vairāk. Un, kad zini, Tu vari pielikt pauzi pirms akla “Enter” nospiešanas.
  • Risini kļūdas. Ja MI kļūdās – runājiet par to! Mācieties kopā ar komandu, nevis slēpjiet kļūdu “aiz robota”.
  • Ieplāno “manuālās pārbaudes”. Ik pa laikam pārskati algoritmu ieteikumus kopā ar komandu.
  • Savā komandā veidojiet automatizācijas tā, lai nodrošinātu uzraudzību. Pieskati, lai sistēmas būtu veidotas tā, lai atbalstītu, nevis aizstātu cilvēka spriedumus, lai atstāj vietu, kur pārskatīt un nodrošināt manuālu iejaukšanos.
  • Veicini caurspīdīgumu. Veicini komandā visiem sistēmu lietotājiem skaidrus sistēmas ierobežojumus un lēmumu pieņemšanas procesus.
  • Stimulē kritisko domāšanu. Ļauj cilvēkiem apstrīdēt “datoru viedokli”, bez bailēm “uzrauties” uz vadības dusmām. Apmāci apšaubīt un pārbaudīt automatizētos rezultātus, īpaši svarīgu lēmumu pieņemšanā.

Un ko tagad? Neļauj MI kļūt par vienīgo “domātāju” telpā!

MI ir spēcīgs sabiedrotais, bet tas nav gudrāks par tevi – tikai ātrāks. Un tas, ka tas raksta ar pārliecību, nenozīmē, ka tam ir taisnība. Vadītāj, padari MI par komandas rīku – nevis par komandas vadītāju.

Pamēģini šonedēļ vienu reizi pajautāt: “Vai mēs tam piekrītam tikai tāpēc, ka tā saka sistēma?” Varbūt atradīsies kāda iespēja redzēt vairāk… un domāt dziļāk.

Vai arī, ja MI dod ieteikumu, uzdod jautājumu komandai – “Ko mēs domājam par šo? Vai šis joprojām der?” Redzēsi, kā saruna iegūst pilnīgi citu kvalitāti.

 

Avots: