Umjetna inteligencija (UI)

What Is an AI Hallucination and How to Avoid It with a Good Prompt

Što je AI halucinacija i kako je izbjeći s dobrim upitom

U svijetu umjetne inteligencije, AI halucinacija ne znači da stroj sanja — to znači da model izmišlja stvari koje zvuče uvjerljivo, ali nisu točne.
To se događa kada AI, pokušavajući biti koristan, popunjava praznine odgovorom koji zvuči najvjerojatnije, umjesto točnim.


Kako nastaju AI halucinacije

AI model ne "zna" činjenice — on predviđa najvjerojatniju sekvencu riječi na temelju uzoraka koje je vidio u podacima za obuku.
Dakle, kada je vaš upit nejasan, proturječan ili nema konteksta,
model improvizira — i tada se javljaju halucinacije.

Primjer:

“Recite mi najnoviji zakon o zaštiti podataka u Hrvatskoj.”
Ako model nema ažurirane informacije, mogao bi generirati nešto što zvuči službeno, ali je potpuno netočno.


⚙️ Kako izbjeći halucinacije pomoću jakog upita

  1. Budite specifični i strukturirani.
    Umjesto da pitate, “Recite mi o zakonima o sigurnosti,” recite:

    “Sažmite načela GDPR-a relevantna za zaštitu podataka u Hrvatskoj (od 2024.) i navedite reference izvora ako su dostupne.”
    To modelu daje jasnoću o onome što vam je potrebno, za koji vremenski okvir i u kojem formatu.

  2. Navedite kontekst.
    Recite modelu tko ste i što pokušavate učiniti.
    Primjer:

    “Ja sam web programer koji priprema internu politiku privatnosti — usredotočite se na praktične točke za male tehničke timove.”
    Na taj način model ne "popunjava" iz mašte; prilagođava se vašoj stvarnoj situaciji.

  3. Zatražite izvore ili razine pouzdanosti.
    Koristite upute poput:

    “Navedite izvore koje ste koristili” ili “Ako niste sigurni, recite 'Nisam siguran' umjesto da pogađate.”
    To potiče transparentnost i smanjuje previše uvjerljive, izmišljene izjave.

  4. Izbjegavajte dvosmislene pojmove.
    Naredbe poput “učini to boljim” otvorene su za interpretaciju.
    Budite specifični:

    “Optimizirajte kod za čitljivost i performanse.”
    Preciznost ograničava slobodu modela da improvizira.

  5. Provjerite ton odgovora.
    Kada AI zvuči pretjerano samouvjereno u vezi s nečim što djeluje čudno — to je obično halucinacija.
    Dodajte zaštitu poput:

    “Odgovorite činjenično i uključite razinu pouzdanosti (visoka / srednja / niska) za svaku tvrdnju.”


Zaključak

AI halucinacije nisu laži — one su previše samouvjerene pretpostavke.
Model vas ne pokušava prevariti; pokušava previše pomoći.

Ključno ste vi — jasnoća, preciznost i kontekst koje date putem vašeg upita.
Što bolje definirate što vam je potrebno, to model ima manje prostora za popunjavanje praznina maštom.

Drugim riječima:

AI ne uspijeva jer je loš — ne uspijeva kada čovjek ne razmišlja dovoljno jasno prije nego što pita.

Portret autora bloga

Mihajlo

Ja sam Mihajlo — programer kojeg pokreću znatiželja, disciplina i stalna želja za stvaranjem nečeg smislenog. Dijelim uvide, upute i besplatne usluge kako bih pomogao drugima da pojednostave svoj rad i rastu u svijetu softvera i umjetne inteligencije koji se neprekidno razvija.