Pojam ‘halucinacije’ vrlo je teško povezati s umjetnom inteligencijom jer on pretpostavlja da su AI alati sposobni apstraktno razmišljati, no čini se da popularni ChatGPT boluje upravo od toga. U digitalnom smislu ‘halucinacije’ su zapravo izmišljeni podaci koje sustavi umjetne inteligencije stvaraju i plasiraju o nekome, često s poprilično negativnim posljedicama za tu osobu. Da bismo znali kako prepoznati i zaštititi se od istih, potrebno je razumjeti što te ‘halucinacije’ podrazumijevaju.
AI ‘halucinacije’ su netočne ili izmišljene informacije koje AI sustavi poput ChatGPT-ja povremeno generiraju, a koje mogu izgledati uvjerljivo, ali nisu utemeljene na stvarnim činjenicama. Do njih dolazi jer umjetna inteligencija predviđa sljedeću riječ na temelju podataka na kojima je trenirana, bez stvarnog razumijevanja pojmova. Te greške mogu biti bezopasne, ali kada je riječ o stvarnim osobama, često mogu biti štetne po njihov ugled i imati ozbiljne posljedice.
U to se uvjerio i jedan australski gradonačelnik koji će najvjerojatnije postati prva osoba koja će tužiti tvorce ChatGPT-ja jer je isti iznio lažne podatke o njemu, prikazujući ga kriminalcem. Naime, njegovi prijatelji i kolege upozorili su ga na to da na upit o njemu popularni chatbot navodi da je riječ o kriminalcu osuđenom za korupciju – kada je u stvarnosti situacija potpuno drugačija. Gradonačelnik u pitanju poznat je po svojoj borbi protiv korupcije i zaslužan je za ukazivanje na brojne nezakonite radnje. Čini se da je aplikacija samo spojila ključne pojmove povezane s njegovim imenom, bez ikakve provjere točnosti tih informacija.
Dvojica čeških znanstvenika u svom radu pod naslovom Problematika AI halucinacija i kako je riješiti (The Problem of AI Hallucination and How to Solve It) navode da je najveći problem to što su jezični modeli poput ChatGPT-ja vrlo uvjerljivi i teško je razlikovati istinu od izmišljotine. Pa, kako onda znati jesu li informacije koje nam je AI pružio točne ili ne?
Prvo, važno je provjeriti izvor informacije – vjerodostojni izvori poput znanstvenih časopisa, uglednih novinskih agencija ili službenih web-stranica pružaju pouzdane podatke. Drugi korak je uspoređivanje više izvora i provjera toga slažu li se podaci. Također, kritički pristupite informacijama koje zvuče previše senzacionalistički ili nevjerojatno. I ako koristite AI alate poput ChatGPT-a, uvijek imajte na umu da oni mogu generirati uvjerljive, ali netočne odgovore, pa je važno dodatno istražiti i potvrditi informacije prije nego što ih prihvatite kao istinite.
Iako živimo u fascinantnom vremenu kada nam je sve dostupno na nekoliko klikova mišem, važno je zapamtiti da je kritički pristup informacijama koje konzumiramo ključ razlikovanja istine od izmišljotina. Ljudska je prosudba trenutačno najjače oružje koje imamo na raspolaganju pa tako AI alate trebamo shvatiti kao pomoć, a ne jedini izvor informacija.
I za kraj, pitali smo ChatGPT što može reći o našem portalu, a Vama prepuštamo da procijenite je li rekao istinu ili ne: „Forward.hr je hrvatski digitalni portal koji se fokusira na inovacije, tehnologiju i kreativnost, s posebnim naglaskom na primjenu umjetne inteligencije (AI) u različitim industrijama. Platforma nudi raznolike sadržaje koji pokrivaju teme poput mode, zdravlja, tehnologije, putovanja, zabave i dizajna, s ciljem pružanja informativnog i inspirativnog sadržaja širokoj publici.“