Dirbtinio intelekto (DI) įrankiai daugeliui jau tapo kasdienio darbo ir laisvalaikio dalimi:
padeda greičiau parašyti tekstą, surasti informaciją ar apibendrinti dokumentus. Vis dėlto,
dažnai vartotojams tenka susidurti su vadinamosiomis DI „haliucinacijomis“ – kai įrankis
pateikia klaidingus faktus, neegzistuojančius šaltinius ar net išgalvotas citatas. Ekspertai
aiškina, kad taip nutinka dėl labai paprastos priežasties.
Užtikrintas atsakymas dar nereiškia tiesos
Pasak „Tele2“ klientų duomenų analizės ir įžvalgų vadovės Ingos Rudinskaitės, viena didžiausių
klaidų – manyti, kad dirbtinis intelektas veikia kaip paieškos sistema ar faktų duomenų bazė.
„Daugelis DI įrankių atsakymus generuoja ne ieškodami vienos teisingos informacijos, o pagal
tikimybę prognozuodami, koks sakinys ar žodis turėtų sekti toliau. Dėl to atsakymai dažnai skamba
labai užtikrintai net tada, kai informacija nėra tiksli. Be to, modernūs modeliai papildomai
treniruojami pateikti atsakymą net tada, kai tiksliausia reakcija būtų „nežinau“, todėl jų tonas dažnai
atrodo itin užtikrintas – įrankis tiesiog „apmokytas“ vengti dvejojimo“, – sako I. Rudinskaitė.
Anot ekspertės, dirbtinis intelektas labai gerai atpažįsta kalbos, sakinių ir informacijos pateikimo
dėsningumus, todėl jo sugeneruoti atsakymai dažnai skamba itin įtikinamai. Vis dėlto tai dar
nereiškia, kad DI iš tiesų supranta informaciją taip, kaip ją supranta žmogus, ar geba savarankiškai
įvertinti, kas yra tikslu, o kas – klaidinga.
Didžiausia problema ta, kad tokios klaidos nebūtinai yra akivaizdžios. DI haliucinacijos dažnai
pateikiamos labai sklandžiai – su tariamais šaltiniais, įtikinamai skambančiais skaičiais ar
neegzistuojančiomis citatomis.
„Jeigu trūksta konteksto ar patikimų šaltinių, dirbtinis intelektas gali pradėti spėlioti. Taip atsiranda
haliucinacijos – išgalvoti faktai ar neegzistuojantys šaltiniai, kurie žmogui gali pasirodyti patikimi“, –
atkreipia dėmesį ekspertė.
Kaip atpažinti haliucinacijas?
Atpažinti netikslų dirbtinio intelekto sugeneruotą atsakymą ne visada paprasta, tačiau yra keli ženklai,
į kuriuos verta atkreipti dėmesį. Įtarimų turėtų kelti atsakymai, kurie skamba labai užtikrintai, tačiau
kartu išlieka gana abstraktūs.
Itin didelė klaidų rizika atsiranda tada, kai dirbtiniam intelektui pateikiama per mažai informacijos
arba užduodami labai platūs, neaiškūs klausimai.
„Vienas geriausių būdų sumažinti klaidų riziką – neprašyti dirbtinio intelekto „visko iš karto“. Kuo
aiškesnė užduotis ir kuo daugiau konteksto pateikiama, tuo mažesnė tikimybė gauti netikslų
atsakymą. Labai padeda aiškiai suformuluota užduotis, papildomi dokumentai ar konkretūs šaltiniai,
kuriais dirbtinis intelektas turėtų remtis“, – teigia ekspertė.
Kada verta pasitelkti papildomus įrankius?
I. Rudinskaitė sako, kad dirbant su aktualijomis ar greitai besikeičiančia informacija verta naudoti
„web search“ funkciją, kuri leidžia dirbtiniam intelektui pasiekti naujausius interneto šaltinius ir
remtis ne tik anksčiau turėtais duomenimis.
„Dirbtinio intelekto modeliai ne visada turi naujausią informaciją, todėl kalbant apie teisės aktus,
kainas ar naujienas verta papildomai įjungti paiešką internete ir pasitikrinti šaltinius. Vis dėlto svarbu
suprasti, kad pati „web search“ funkcija nėra absoliuti apsauga nuo netikslumų – dirbtinis intelektas
gali remtis nepatikimais šaltiniais, neteisingai interpretuoti rastą informaciją ar sumaišyti skirtingus
šaltinius tarpusavyje. Tai sumažina haliucinacijų riziką, tačiau jos visiškai nepanaikina“, – sako I.
Rudinskaitė.
Ji priduria, kad patikimiau veikia principas, kai DIi pateikiame konkretų šaltinį – dokumentą, PDF ar
tekstą – ir paprašome atsakyti remiantis tik juo. Praktikoje taip pat padeda aiškios instrukcijos,
pavyzdžiui, verta nurodyti atsakyti „nežinau“, jei informacijos nepakanka. Taip pat rekomenduojama
sudėtingas užduotis skaidyti į mažesnius žingsnius, nes tai leidžia greičiau pastebėti galimus
netikslumus.
Siekdamos išvengti nepatikimos informacijos, vis daugiau organizacijų investuoja ne tik į pačius
dirbtinio intelekto sprendimus, bet ir į darbuotojų gebėjimą jais naudotis atsakingai bei efektyviai.
„Tele2“ taip pat aktyviai investuoja į darbuotojų dirbtinio intelekto kompetencijas bei vidinius
sprendimus. Bendrovė darbuotojams yra sukūrusi vidinį dirbtinio intelekto asistentą „Tele2 Genie“,
kuris naudojamas kasdienėms užduotims, informacijos apdorojimui ir produktyvumui didinti.
Svarbiausia – kritinis mąstymas
Pasak ekspertės, dirbtinis intelektas gali būti puikus pagalbininkas, tačiau galutinę atsakomybę visada
prisiima žmogus.
„Jeigu DI sugeneruotas tekstas bus naudojamas viešoje komunikacijoje, priimant verslo sprendimus ar
dirbant su klientais, svarbiausius faktus būtina papildomai patikrinti. Dirbtinis intelektas gali padėti
greičiau dirbti, tačiau svarbu nepamiršti, jog jis nėra neklystantis ekspertas“, – pabrėžia I.
Rudinskaitė.
Tamsioji DI pusė – neegzistuojantys šaltiniai ir netikros citatos: kaip neapsigauti?
Komentarų: 03 Min Skaityti
Ankstesnis straipsnisVanduo iš čiaupo: kada galite gerti drąsiai, o kada – geriau nerizikuoti?
Kitas straipsnis Kanų kino festivalyje – trys prestižinės lietuviškos premjeros
