Kas yra dirbtinio intelekto haliucinacijos ir kaip galime jų išvengti?

Dirbtinis intelektas (DI) pastaraisiais metais tapo neatsiejama mūsų gyvenimo dalimi, siūlydamas pagalbą įvairiose srityse – nuo paprastų kasdienių užduočių iki sudėtingų mokslinių tyrimų. Vis dėlto, ši technologija nėra tobula. Viena didžiausių problemų, su kuria susiduria DI vartotojai ir kūrėjai, yra reiškinys, vadinamas „haliucinacijomis“.

Dirbtinio intelekto haliucinacijos – tai atvejai, kai kalbos modelis, pavyzdžiui, „ChatGPT“, pateikia iš pažiūros įtikinamą, tačiau klaidingą, išgalvotą ar su realybe nesusijusią informaciją. Tai nėra paprastos klaidos ar netikslumai; tai yra sistemiškai sugeneruoti atsakymai, kurie gali atrodyti kaip faktai, nors iš tiesų yra sukurti paties modelio. Šis reiškinys kelia didelį susirūpinimą dėl galimo dezinformacijos plitimo, ypač srityse, kur tikslumas yra gyvybiškai svarbus, pavyzdžiui, medicinoje, teisėje ar finansuose.

Kas sukelia dirbtinio intelekto haliucinacijas?

DI haliucinacijos kyla dėl kelių esminių priežasčių, susijusių su tuo, kaip veikia didieji kalbos modeliai (angl. Large Language Models, LLM). Šie modeliai yra apmokomi naudojant milžiniškus duomenų kiekius, tačiau jie nesupranta informacijos taip, kaip tai daro žmogus. Vietoj to, jie mokosi atpažinti dėsningumus ir generuoti tekstą, remdamiesi statistine tikimybe, koks žodis turėtų sekti po kito.

Pagrindinės haliucinacijų priežastys:

Vienas iš DI „krikštatėvių“, Geoffrey Hintonas, teigia, kad terminas „haliucinacijos“ nėra visiškai tikslus. Anot jo, tai labiau primena konfabuliaciją – reiškinį, būdingą ir žmonėms, kai smegenys užpildo atminties spragas išgalvotomis, bet tikėtinomis detalėmis. „Viskas, ką sugeneruoja LLM, yra haliucinacija. Tiesiog kai kurios iš tų haliucinacijų yra tiesa“, – teigia Sohrobas Kazerounianas, DI tyrėjas iš „Vectra AI“.

Kaip atpažinti ir išvengti DI haliucinacijų?

Nors visiškai išvengti DI haliucinacijų neįmanoma, vartotojai gali imtis tam tikrų veiksmų, kad sumažintų jų riziką ir kritiškai įvertintų gautą informaciją. Svarbiausia taisyklė – niekada aklai nepasitikėti DI sugeneruotu turiniu, ypač jei jis susijęs su svarbiais sprendimais.

Praktiniai patarimai:

  1. Tikrinkite faktus: Visada patikrinkite svarbiausius faktus, datas, pavardes ir statistiką, naudodamiesi patikimais pirminiais šaltiniais.

  2. Būkite konkretūs: Formuluokite kuo tikslesnes ir detalesnes užklausas. Nurodykite kontekstą, pageidaujamą formatą ir informacijos šaltinius.

  3. Reikalaukite nuorodų: Paprašykite DI pateikti šaltinius, kuriais rėmėsi generuodamas atsakymą, ir patikrinkite juos.

  4. Kritiškai vertinkite toną: Jei atsakymas atrodo pernelyg pasitikintis savimi ar kategoriškas, tai gali būti haliucinacijos ženklas.

  5. Naudokite kelis įrankius: Palyginkite kelių skirtingų DI modelių atsakymus ta pačia tema.

Vartotojo atsiliepimas: „Naudojau DI, kad parašytų istorinį straipsnį apie mažai žinomą mūšį. Rezultatas atrodė įspūdingai, su datomis, karvedžių pavardėmis ir citatomis. Tačiau pradėjęs tikrinti faktus supratau, kad pusė informacijos – išgalvota. DI tiesiog sukūrė įtikinamą, bet melagingą istoriją. Dabar visada viską tikrinu kelis kartus.“ – Jonas P., istorijos studentas.

Kokie yra DI haliucinacijų pavyzdžiai ir kokią žalą jos gali padaryti?

DI haliucinacijų pavyzdžių apstu – nuo komiškų iki itin pavojingų. Pavyzdžiui, DI gali sukurti neegzistuojančių mokslinių straipsnių citatas, išgalvoti teisinius precedentus ar net apkaltinti nekaltus žmones nusikaltimais.

Garsus pavyzdys – kai JAV teisininkas pasinaudojo „ChatGPT“ teismo dokumentams parengti, o šis įtraukė nuorodas į šešis neegzistuojančius teismo sprendimus. Dėl šio incidento teisininkui buvo skirta bauda. Kitais atvejais DI pokalbių robotai, integruoti į įmonių svetaines, teikė klientams melagingą informaciją apie įmonės politiką ar net siūlė produktus už juokingai mažą kainą.

Vartotojo atsiliepimas: „Mano įmonė bandė integruoti DI klientų aptarnavimo sistemą. Viskas veikė gerai, kol vieną dieną robotas pradėjo klientams siūlyti 90% nuolaidą visoms prekėms, remdamasis „įmonės jubiliejaus politika“, kurios niekada nebuvo. Laimei, klaidą pastebėjome greitai, bet tai galėjo mums kainuoti dešimtis tūkstančių eurų.“ – UAB „Prekybos sprendimai“ vadovė.

Didžiausia žala kyla tada, kai haliucinacijomis patikima srityse, kur klaidos gali turėti rimtų pasekmių:

Ar DI haliucinacijos reiškia, kad technologija yra nepatikima?

Nors haliucinacijos yra rimtas iššūkis, tai nereiškia, kad DI technologija yra bevertė. Tai veikiau rodo jos dabartinius apribojimus ir sritis, kurias reikia tobulinti. Svarbu suprasti, kad DI yra įrankis, o ne visažinis orakulas. Kaip ir bet kurį kitą įrankį, jį reikia naudoti protingai ir atsakingai.

Meta AI vadovas ir vienas iš giluminio mokymosi pradininkų, Yannas LeCunas, yra gana kritiškas dabartinių LLM atžvilgiu. Jis teigia, kad jie niekada nepasieks tikrojo intelekto lygio, nes yra apriboti tik teksto duomenimis ir neturi supratimo apie realų pasaulį. Anot jo, ateities DI sistemos turės mokytis iš įvairesnių duomenų, įskaitant vaizdą ir sąveiką su aplinka.

Eksperto nuomonė: „DI haliucinacijos yra neišvengiama dabartinių modelių architektūros pasekmė. Jie yra tarsi labai pažangūs statistiniai papūgos, o ne mąstančios būtybės. Raktas į patikimesnį DI – ne didesni duomenų rinkiniai, o nauji mokymosi metodai, kurie leistų modeliams įgyti priežasties-pasekmės supratimą.“ – Dr. Linas K., DI tyrėjas.

Nepaisant trūkumų, DI jau dabar duoda didžiulę naudą: automatizuoja rutinines užduotis, padeda analizuoti didelius duomenų kiekius, skatina kūrybiškumą ir spartina mokslinius atradimus. Svarbiausia – rasti tinkamą balansą tarp pasinaudojimo DI galimybėmis ir kritiško požiūrio į jo rezultatus.

Vartotojo atsiliepimas: „Aš esu programuotojas ir kasdien naudoju DI, kad greičiau rašyčiau kodą. Taip, kartais jis pasiūlo neteisingą ar neoptimalų sprendimą. Bet 80% atvejų jo pagalba man sutaupo valandų valandas darbo. Aš tiesiog išmokau atpažinti jo „haliucinacijas“ ir naudoti jį kaip asistentą, o ne kaip vadovą.“ – Tomas V., programuotojas.

Dažniausiai užduodami klausimai (DUK)

  1. Ar visi DI modeliai haliucinuoja?

    Taip, visi dabartiniai didieji kalbos modeliai, įskaitant „GPT-4“, „Gemini“, „Claude“ ir kitus, yra linkę į haliucinacijas. Tai yra fundamentali jų veikimo principo dalis. Skirtumas gali būti tik haliucinacijų dažnume ir pobūdyje, priklausomai nuo modelio architektūros, apmokymo duomenų ir taikymo srities. Naujausi tyrimai rodo, kad sudėtingesni modeliai, gebantys atlikti sudėtingesnes užduotis, gali haliucinuoti net dažniau.

  2. Kaip patikrinti, ar DI pateikta informacija yra teisinga?

    Patikimiausias būdas – kryžminė patikra. Naudokitės patikimomis ir pripažintomis informacijos svetainėmis, moksliniais žurnalais, oficialiomis organizacijų ataskaitomis. Jei DI pateikia citatą ar statistiką, pabandykite rasti pirminį šaltinį. Būkite ypač atidūs, jei informacija atrodo per daug gera, kad būtų tiesa, arba jei ji patvirtina jūsų išankstines nuostatas.

  3. Ar DI kūrėjai sprendžia haliucinacijų problemą?

    Taip, tai yra viena iš aktyviausių tyrimų sričių DI industrijoje. Kuriamos naujos technikos, tokios kaip „Retrieval-Augmented Generation“ (RAG), kurios leidžia modeliui realiu laiku pasiekti ir patikrinti informaciją išorinėse duomenų bazėse prieš generuojant atsakymą. Taip pat tobulinami modelių vertinimo ir derinimo metodai, siekiant sumažinti faktinių klaidų kiekį.

  4. Kuo skiriasi DI haliucinacija nuo paprastos klaidos?

    Paprasta klaida dažniausiai yra atsitiktinė ir pavienė, pavyzdžiui, neteisingai apskaičiuotas skaičius ar gramatinė klaida. DI haliucinacija yra sisteminė problema, kai modelis sukuria ištisus pasakojimus, faktus ar duomenis, kurie yra nuoseklūs ir įtikinami, tačiau visiškai išgalvoti. Haliucinacija yra labiau pasitikėjimo, o ne tikslumo problema.

  5. Ar galima DI haliucinacijas panaudoti kūrybiškiems tikslams?

    Įdomu tai, kad tam tikrame kontekste DI „haliucinacijos“ gali būti vertinamos kaip kūrybiškumas. Meno, dizaino, muzikos ar literatūros srityse gebėjimas generuoti netikėtas ir originalias idėjas yra didelis privalumas. DI gali būti naudojamas kaip įkvėpimo šaltinis, siūlantis naujas perspektyvas ir derinius, kurių žmogus galbūt nesugalvotų. Svarbiausia – atskirti, kada reikalingas faktinis tikslumas, o kada – kūrybinė laisvė.

Šaltiniai:

+370 613 70 574 info@promptas.lt ChatGPT, dirbtinio intelekto mokymai Lietuvoje

Dirbtinio intelekto haliucinacijos – kodėl ChatGPT meluoja?

Kas yra dirbtinio intelekto haliucinacijos ir kaip galime jų išvengti?

Dirbtinio intelekto haliucinacijos – kodėl ChatGPT meluoja?
Skaityti toliau
Google Gemini promptų vadovas

Autorius: Tomas Staniulis, DI konsultantas

2025-ųjų rudeniop Lietuvos verslas įžengė į tą fazę, kai dirbtinis intelektas (DI arba AI) iš eksperimento virsta kasdienio darbo įrankiu. Šimtuose įmonių darbuotojai kasdien naudoja ChatGPT, Copilot, Gemini ar Claude komunikacijai, analizėms ar ataskaitoms rengti. Ir visi jie anksčiau ar vėliau susiduria su tuo, kad DI atsakymai akivaizdžiai yra netikslūs ar netgi melagingi. Šis reiškinys turi aiškų pavadinimą – haliucinacija.

Tomas Staniulis, DI konsultantas

Kai klaida tampa sistema

Dirbtinio intelekto haliucinacijos – tai atvejai, kai didysis kalbos modelis pateikia įtikinamą, bet faktiškai neteisingą atsakymą.

Tai gali būti pramanytas faktas, neegzistuojanti teorija ar iškraipyta informacija. Kodėl taip atsitinka?

Klaidų priežastys nėra atsitiktinės – jos susijusios su pačia DI prigimtimi, vartotojų įpročiais ir manipuliacijomis.

Struktūrinės DI klaidos

Didieji kalbos modeliai, tokie kaip ChatGPT, generuoja tekstą remdamiesi tikimybe, o ne faktų supratimu. Jie nesupranta žodžių reikšmės taip, kaip žmogus, todėl modeliams sunku nuspręsti, kas yra teisinga, jei kontekstas apibrėžtas nepakankamai aiškiai. Pagal tikimybę parenkamas labiausiai kontekstą atitinkantys žodžiai, taigi klaidų tikimybę išlieka.

Pavyzdys:

Sakinys Lietuvos sostinė yra … gali atrodyti akivaizdus žmogui, tačiau DI modeliui jis nėra toks paprastas. Lietuvos istorijoje sostine buvo ne tik Vilnius, bet ir Kaunas, Kernavė ar Trakai. Tad jei neužsimenama apie laikotarpį, modelis gali atsakyti netiksliai – ir tai ne klaida, o tikėtinas rezultatas pagal duomenis, kuriais jis buvo mokytas.

Sprendimas:

Vartotojas turi tiksliai nurodyti kontekstą, pvz., Lietuvos sostinė 2025 metais.

Dirbtinio intelekto vertimo klaidos

Kai naudojamės DI įrankiais kitomis kalbomis ir verčiame turinį į lietuvių, neretai prarandama pradinė mintis, logika ar stilius. Modeliai geba perteikti esmę, tačiau stilistiniai niuansai dažniau iškraipomi, idiomos verčiamos pažodžiui, o sakiniai kartais praranda nuoseklumą.

Skaičiuojama, kad GPT modelių vertimo tikslumas į lietuvių kalbą siekia 82–83 proc., o likusieji 17–18 proc. – tai klaidos, kylančios dėl semantikos, stilistikos, idiomų ar sakinio struktūros neatitikimų.

Pavyzdys:

Angliška frazė It’s a double-edged sword (liet. dviašmenis kardas) gali būti verčiama pažodžiui, prarandant jos perkeltinę – metaforinę – prasmę.

Sprendimas:

Vertimo atveju būtina peržiūrėti ir redaguoti atsakymus, ypač jei jie skirti viešam arba profesionaliam naudojimui.

AI manipuliacijos klaidos

DI sistemos optimizuojamos taip, kad vartotojas liktų patenkintas. Tai reiškia, kad modelis gali pateikti informaciją, kuri atrodo įtikinama, bet nėra pagrįsta. Verta žinoti, kad modelis gali sukurti atsakymą, jei tikslių duomenų nėra, ypač, kai formuluotė yra reikalaujanti.

Manipuliacijos yra gana plati promptų inžinerijos dalis – žmonės tą daro ir sąmoningai ir nesąmoningai. Uždavęs ChatGPT prašymą: Pateik 5 priežastis, kuo moterys geresnės už vyrus, vartotojas gaus norimą atsakymą, tačiau jis vargu ar atitiks tikrovę. Taigi svarbu pasitelkti kritinį mąstymą ir suvokti, kad manipuliuojant klaida gali būti užduota jau klausimo metu.

Pavyzdys:

Jei paklausime: Pateik man šaltinius, kuriuos 2023 m. naudojo Lietuvos švietimo ministerija DI politikoje – modelis, neturėdamas prieigos prie šaltinių, gali juos sugalvoti, kad nepaliktų vartotojo be atsakymo.

Sprendimas:

Būtina tikrinti visą informaciją, gautą iš DI, ypač jei ji skamba pernelyg tikslingai ar įtikinamai.

Šiame vaizdo įraše dirbtinio intelekto „krikštatėvis“ Geoffrey Hintonas paaiškina, kodėl DI modelių generuojamos klaidos yra labiau panašios į žmogaus atminties ypatumus, o ne į techninį gedimą.

Dirbtinio intelekto konteksto klaidos

Didieji kalbos modeliai veikia geriausiai, kai jiems suteikiama pakankamai informacijos. Kuo bendresnis klausimas – tuo didesnė klaidos tikimybė.

Pavyzdys:

Paklausus: Pateik geriausią knygą pasaulyje – DI gali pateikti bet kokį atsakymą priklausomai nuo mokymo duomenų, o ne objektyvų vertinimą.

Sprendimas:

Formuluoti užklausas tiksliai, aiškiai, su apribojimais: laikotarpis, šaltinis, auditorija, tikslas.

DI šališkumo klaidos

Modeliai linkę patvirtinti tai, ko vartotojas nori išgirsti, ypač jei klausimas formuluojamas šališkai.

Pavyzdys:

Klausimas Manau, kad žemė yra plokščia, paaiškink, kodėl tai gali būti tiesa gali paskatinti modelį pateikti pseudomokslinių argumentų, nors jie bus klaidingi.

Sprendimas:

Naudokime nešališkas formuluotes, prašykime mokslinio ar kritinio požiūrio: Paaiškink, kokie argumentai teigia, kad žemė yra plokščia, ir kaip jie kritikuojami moksliškai.

Duomenų ribotumo klaidos

Dažnai žmonės naudojasi DI modeliais nekritiškai ir tikisi, kad gaus naujausią informaciją apie viską, kas tik šauna į galvą. Užmirštama, kad modelis gali nežinoti informacijos, kuri atsirado po duomenų papildymo datos. Modelių žinios paprastai atnaujinamos reguliariai, keletą kartų per metus, tačiau toli gražu ne realiu režimu.

Pavyzdys:

Vartotojas 2025 m. rugpjūtį paklausė ChatGPT: Kokios yra naujos ES direktyvos dėl DI taikymo sveikatos priežiūros srityje? Modelis gali pateikti informaciją apie 2024 m. priimtą DI aktą, tačiau gali nežinoti, kad 2025 metų birželį priimti svarbūs pakeitimai, nes paskutinė duomenų atnaujinimo data buvo 2025 kovas.  

Sprendimas:

Reikalaukite nuorodų ir paaiškinimų, prašykite ieškoti internete ir pateikti šviežiausią informaciją. Paklauskite: Kokio laikotarpio duomenimis remiesi atsakydamas?, ir papildomai pasitikrinti aktualius teisės aktus ar naujienas patikimuose šaltiniuose.

Apibendrinant, DI klaidos nėra atsitiktinės – jos kyla iš modelių struktūros, veikimo principų ir mūsų pačių naudojimosi įpročių. Todėl vietoj pasitikėjimo aklai, būtina: tikrinti faktus, redaguoti logiką, gramatiką ir stilių, atsakingai formuluoti promptus ir žinoti modelių galimybių ribas.

Autorius: Tomas Staniulis, DI konsultantas

© Bet koks šio straipsnio kopijavimas, platinimas ar republikavimas be rašytinio autoriaus sutikimo yra draudžiamas.

Dirbtinio intelekto mokymai verslui

    Susisiekite:
    Dirbtinio intelekto mokymai Promptas.LT