Kada chatbot postane redar: Claude od sada ima mogućnost prekidanja uznemirujućih razgovora

Kada chatbot postane redar: Claude od sada ima mogućnost prekidanja uznemirujućih razgovora
Dostupnost alata umjetne inteligencije širokoj masi otvorila je brojna pitanja sigurnosti, privatnosti, ali i etičnosti. Razvoj sustava poput ChatGPT-ja, Geminija ili Claudea donio je nebrojene koristi, od ubrzavanja poslovnih procesa do lakšeg učenja i istraživanja, ali istodobno je otvorio i prostor za zlouporabe. Upravo zato vijest da je Anthropic svom modelu Claude dodao mogućnost prekidanja razgovora u određenim situacijama izazvala je veliko zanimanje javnosti.

Najnovije inačice Claudea (Opus 4 i 4.1) dolaze s novom značajkom koja mu omogućuje da sam završi razgovor ako on postane nepovratno štetan ili uznemirujuć. Riječ je o ekstremnim slučajevima, primjerice kada korisnik inzistira na traženju sadržaja koji uključuje maloljetnike ili kada pokušava doći do uputa za nasilne ili terorističke aktivnosti. Model najprije pokušava razgovor preusmjeriti na neku drugu temu, ali ako je korisnik ustrajan, chatbot prekida svaki oblik komunikacije.

Iz Anthropica ističu da im je dobrobit korisnika na prvom mjestu te da ni sami nisu sigurni kakva je etička budućnost umjetne inteligencije, a upravo to ih je inspiriralo da se odluče na ovakav korak. Važno je napomenuti da većina korisnika neće ni osjetiti tu značajku jer Claude će razgovore prekidati samo kao krajnju mjeru, kada sve ostalo zakaže. Korisnicima će biti omogućeno uređivanje poruka, tako da u slučaju da razgovor skrene u neželjenom smjeru, mogu se i sami vratiti na pravi put – naravno, ako to požele. 

„Izbačenim“ korisnicima neće se u potpunosti ograničiti uporaba Claudea. Naime, dovoljno je samo otvoriti novi razgovor i nastaviti u moralno prihvatljivom smjeru, ali prethodni razgovor bit će nedostupan. Sjajno je i to što alat dolazi s uputom da ne prekida razgovore u kojima korisnik navodi da želi nauditi sebi ili drugima – još jedna mjera zaštite i stavljanja dobrobiti korisnika na prvo mjesto. Takve osobe Claude usmjerava da potraže stručnu pomoć i ne prepušta ih sebi samima.

Usporedimo li ovu značajku s konkurencijom, jasno je da Anthropic ide korak dalje. ChatGPT, Gemini i Grok trenutačno nemaju opciju samostalnog prekidanja razgovora, nego se oslanjaju na filtriranje sadržaja i pravila ponašanja. Time Claude postaje pionir sigurnosti u svojoj industriji, a nadamo se da će i ostali alati umjetne inteligencije slijediti njihov primjer. 

PHOTO: PEXELS