Dirbtinis intelektas (DI) pastaraisiais metais tapo neatsiejama mūsų gyvenimo dalimi, siūlydamas pagalbą įvairiose srityse – nuo paprastų kasdienių užduočių iki sudėtingų mokslinių tyrimų. Vis dėlto, ši technologija nėra tobula. Viena didžiausių problemų, su kuria susiduria DI vartotojai ir kūrėjai, yra reiškinys, vadinamas „haliucinacijomis“.
Dirbtinio intelekto haliucinacijos – tai atvejai, kai kalbos modelis, pavyzdžiui, „ChatGPT“, pateikia iš pažiūros įtikinamą, tačiau klaidingą, išgalvotą ar su realybe nesusijusią informaciją. Tai nėra paprastos klaidos ar netikslumai; tai yra sistemiškai sugeneruoti atsakymai, kurie gali atrodyti kaip faktai, nors iš tiesų yra sukurti paties modelio. Šis reiškinys kelia didelį susirūpinimą dėl galimo dezinformacijos plitimo, ypač srityse, kur tikslumas yra gyvybiškai svarbus, pavyzdžiui, medicinoje, teisėje ar finansuose.
DI haliucinacijos kyla dėl kelių esminių priežasčių, susijusių su tuo, kaip veikia didieji kalbos modeliai (angl. Large Language Models, LLM). Šie modeliai yra apmokomi naudojant milžiniškus duomenų kiekius, tačiau jie nesupranta informacijos taip, kaip tai daro žmogus. Vietoj to, jie mokosi atpažinti dėsningumus ir generuoti tekstą, remdamiesi statistine tikimybe, koks žodis turėtų sekti po kito.
Pagrindinės haliucinacijų priežastys:
Duomenų spragos ir šališkumas: Jei mokymo duomenyse trūksta informacijos tam tikra tema arba duomenys yra šališki, DI modelis gali bandyti „užpildyti“ šias spragas, kurdamas neteisingus faktus.
Modelio kūrybiškumo ir tikslumo konfliktas: DI modeliai yra sukurti ne tik atkartoti informaciją, bet ir būti kūrybingi. Kartais šis kūrybiškumas peržengia ribas ir virsta faktų iškraipymu.
Klaidingas konteksto suvokimas: DI gali neteisingai interpretuoti vartotojo užklausą, ypač jei ji yra dviprasmiška ar pernelyg bendra, ir pateikti atsakymą, kuris neatitinka tikrojo konteksto.
Vienas iš DI „krikštatėvių“, Geoffrey Hintonas, teigia, kad terminas „haliucinacijos“ nėra visiškai tikslus. Anot jo, tai labiau primena konfabuliaciją – reiškinį, būdingą ir žmonėms, kai smegenys užpildo atminties spragas išgalvotomis, bet tikėtinomis detalėmis. „Viskas, ką sugeneruoja LLM, yra haliucinacija. Tiesiog kai kurios iš tų haliucinacijų yra tiesa“, – teigia Sohrobas Kazerounianas, DI tyrėjas iš „Vectra AI“.
Nors visiškai išvengti DI haliucinacijų neįmanoma, vartotojai gali imtis tam tikrų veiksmų, kad sumažintų jų riziką ir kritiškai įvertintų gautą informaciją. Svarbiausia taisyklė – niekada aklai nepasitikėti DI sugeneruotu turiniu, ypač jei jis susijęs su svarbiais sprendimais.
Praktiniai patarimai:
Tikrinkite faktus: Visada patikrinkite svarbiausius faktus, datas, pavardes ir statistiką, naudodamiesi patikimais pirminiais šaltiniais.
Būkite konkretūs: Formuluokite kuo tikslesnes ir detalesnes užklausas. Nurodykite kontekstą, pageidaujamą formatą ir informacijos šaltinius.
Reikalaukite nuorodų: Paprašykite DI pateikti šaltinius, kuriais rėmėsi generuodamas atsakymą, ir patikrinkite juos.
Kritiškai vertinkite toną: Jei atsakymas atrodo pernelyg pasitikintis savimi ar kategoriškas, tai gali būti haliucinacijos ženklas.
Naudokite kelis įrankius: Palyginkite kelių skirtingų DI modelių atsakymus ta pačia tema.
Vartotojo atsiliepimas: „Naudojau DI, kad parašytų istorinį straipsnį apie mažai žinomą mūšį. Rezultatas atrodė įspūdingai, su datomis, karvedžių pavardėmis ir citatomis. Tačiau pradėjęs tikrinti faktus supratau, kad pusė informacijos – išgalvota. DI tiesiog sukūrė įtikinamą, bet melagingą istoriją. Dabar visada viską tikrinu kelis kartus.“ – Jonas P., istorijos studentas.
DI haliucinacijų pavyzdžių apstu – nuo komiškų iki itin pavojingų. Pavyzdžiui, DI gali sukurti neegzistuojančių mokslinių straipsnių citatas, išgalvoti teisinius precedentus ar net apkaltinti nekaltus žmones nusikaltimais.
Garsus pavyzdys – kai JAV teisininkas pasinaudojo „ChatGPT“ teismo dokumentams parengti, o šis įtraukė nuorodas į šešis neegzistuojančius teismo sprendimus. Dėl šio incidento teisininkui buvo skirta bauda. Kitais atvejais DI pokalbių robotai, integruoti į įmonių svetaines, teikė klientams melagingą informaciją apie įmonės politiką ar net siūlė produktus už juokingai mažą kainą.
Vartotojo atsiliepimas: „Mano įmonė bandė integruoti DI klientų aptarnavimo sistemą. Viskas veikė gerai, kol vieną dieną robotas pradėjo klientams siūlyti 90% nuolaidą visoms prekėms, remdamasis „įmonės jubiliejaus politika“, kurios niekada nebuvo. Laimei, klaidą pastebėjome greitai, bet tai galėjo mums kainuoti dešimtis tūkstančių eurų.“ – UAB „Prekybos sprendimai“ vadovė.
Didžiausia žala kyla tada, kai haliucinacijomis patikima srityse, kur klaidos gali turėti rimtų pasekmių:
Medicina: Klaidinga diagnozė ar gydymo rekomendacija.
Finansai: Neteisingos investavimo strategijos, pagrįstos išgalvotomis rinkos analizėmis.
Teisė: Remiamasi neegzistuojančiais įstatymais ar bylomis.
Žiniasklaida: Platinama dezinformacija ir melagienos.
Nors haliucinacijos yra rimtas iššūkis, tai nereiškia, kad DI technologija yra bevertė. Tai veikiau rodo jos dabartinius apribojimus ir sritis, kurias reikia tobulinti. Svarbu suprasti, kad DI yra įrankis, o ne visažinis orakulas. Kaip ir bet kurį kitą įrankį, jį reikia naudoti protingai ir atsakingai.
Meta AI vadovas ir vienas iš giluminio mokymosi pradininkų, Yannas LeCunas, yra gana kritiškas dabartinių LLM atžvilgiu. Jis teigia, kad jie niekada nepasieks tikrojo intelekto lygio, nes yra apriboti tik teksto duomenimis ir neturi supratimo apie realų pasaulį. Anot jo, ateities DI sistemos turės mokytis iš įvairesnių duomenų, įskaitant vaizdą ir sąveiką su aplinka.
Eksperto nuomonė: „DI haliucinacijos yra neišvengiama dabartinių modelių architektūros pasekmė. Jie yra tarsi labai pažangūs statistiniai papūgos, o ne mąstančios būtybės. Raktas į patikimesnį DI – ne didesni duomenų rinkiniai, o nauji mokymosi metodai, kurie leistų modeliams įgyti priežasties-pasekmės supratimą.“ – Dr. Linas K., DI tyrėjas.
Nepaisant trūkumų, DI jau dabar duoda didžiulę naudą: automatizuoja rutinines užduotis, padeda analizuoti didelius duomenų kiekius, skatina kūrybiškumą ir spartina mokslinius atradimus. Svarbiausia – rasti tinkamą balansą tarp pasinaudojimo DI galimybėmis ir kritiško požiūrio į jo rezultatus.
Vartotojo atsiliepimas: „Aš esu programuotojas ir kasdien naudoju DI, kad greičiau rašyčiau kodą. Taip, kartais jis pasiūlo neteisingą ar neoptimalų sprendimą. Bet 80% atvejų jo pagalba man sutaupo valandų valandas darbo. Aš tiesiog išmokau atpažinti jo „haliucinacijas“ ir naudoti jį kaip asistentą, o ne kaip vadovą.“ – Tomas V., programuotojas.
Ar visi DI modeliai haliucinuoja?
Taip, visi dabartiniai didieji kalbos modeliai, įskaitant „GPT-4“, „Gemini“, „Claude“ ir kitus, yra linkę į haliucinacijas. Tai yra fundamentali jų veikimo principo dalis. Skirtumas gali būti tik haliucinacijų dažnume ir pobūdyje, priklausomai nuo modelio architektūros, apmokymo duomenų ir taikymo srities. Naujausi tyrimai rodo, kad sudėtingesni modeliai, gebantys atlikti sudėtingesnes užduotis, gali haliucinuoti net dažniau.
Kaip patikrinti, ar DI pateikta informacija yra teisinga?
Patikimiausias būdas – kryžminė patikra. Naudokitės patikimomis ir pripažintomis informacijos svetainėmis, moksliniais žurnalais, oficialiomis organizacijų ataskaitomis. Jei DI pateikia citatą ar statistiką, pabandykite rasti pirminį šaltinį. Būkite ypač atidūs, jei informacija atrodo per daug gera, kad būtų tiesa, arba jei ji patvirtina jūsų išankstines nuostatas.
Ar DI kūrėjai sprendžia haliucinacijų problemą?
Taip, tai yra viena iš aktyviausių tyrimų sričių DI industrijoje. Kuriamos naujos technikos, tokios kaip „Retrieval-Augmented Generation“ (RAG), kurios leidžia modeliui realiu laiku pasiekti ir patikrinti informaciją išorinėse duomenų bazėse prieš generuojant atsakymą. Taip pat tobulinami modelių vertinimo ir derinimo metodai, siekiant sumažinti faktinių klaidų kiekį.
Kuo skiriasi DI haliucinacija nuo paprastos klaidos?
Paprasta klaida dažniausiai yra atsitiktinė ir pavienė, pavyzdžiui, neteisingai apskaičiuotas skaičius ar gramatinė klaida. DI haliucinacija yra sisteminė problema, kai modelis sukuria ištisus pasakojimus, faktus ar duomenis, kurie yra nuoseklūs ir įtikinami, tačiau visiškai išgalvoti. Haliucinacija yra labiau pasitikėjimo, o ne tikslumo problema.
Ar galima DI haliucinacijas panaudoti kūrybiškiems tikslams?
Įdomu tai, kad tam tikrame kontekste DI „haliucinacijos“ gali būti vertinamos kaip kūrybiškumas. Meno, dizaino, muzikos ar literatūros srityse gebėjimas generuoti netikėtas ir originalias idėjas yra didelis privalumas. DI gali būti naudojamas kaip įkvėpimo šaltinis, siūlantis naujas perspektyvas ir derinius, kurių žmogus galbūt nesugalvotų. Svarbiausia – atskirti, kada reikalingas faktinis tikslumas, o kada – kūrybinė laisvė.
Šaltiniai: