Umět naschvál dělat chyby je známkou kreativity
Jazykový model, jakým Chat GPT, v tomto případě verze 3.5, je nemyslí ani netvoří. Jen propočítává, s jakou pravděpodobností jeden znak následuje po dalším znaku. Jestliže po něm chci slovo liška s tvrdým y, žádné takové ve svých výcvikových datech nikdy neviděl a ani žádný z parametrů jeho neuronové sítě nedokáže nic takového vyvážit. A tak se zasekne. V obou případech to trvalo zajímavou chvíli, než to LLM vzdal a nahlásil error.
Fragment o halucinacích GPT
Jindy, když model neví, tak si vymýšlí. Nazýváme to halucinováním, ale ve skutečnosti jde o běžné fungování modelu, jak nastiňuje jedna větev přemýšlení o AI. Všechny výstupy AI jsou vždy halucinováním. Někdy o tom snad napíšu více.
Když AI halucinují, dělají z hlediska kreativity a strojového myšlení to nejzajímavější, co dělat mohou. Že to dělá texty na úrovni akademiků nebo novinářů, umí to udělat obrázek, vyhledávat na netu a bazálně programovat, je banální. Když si to vymýšlí, aniž by to myslelo, je to mnohem více vzrušující…