O hranicích umělé inteligence I.

Jazykový model, jakým Chat GPT, v tomto případě verze 3.5, je nemyslí ani netvoří. Jen propočítává, s jakou pravděpodobností jeden znak následuje po dalším znaku. Jestliže po něm chci slovo liška s tvrdým y, žádné takové ve svých výcvikových datech nikdy neviděl a ani žádný z parametrů jeho neuronové sítě nedokáže nic takového vyvážit. A tak se zasekne. V obou případech to trvalo zajímavou chvíli, než to LLM vzdal a nahlásil error.

Fragment o halucinacích GPT

Jindy, když model neví, tak si vymýšlí. Nazýváme to halucinováním, ale ve skutečnosti jde o běžné fungování modelu, jak nastiňuje jedna větev přemýšlení o AI. Všechny výstupy AI jsou vždy halucinováním. Někdy o tom snad napíšu více.

Když AI halucinují, dělají z hlediska kreativity a strojového myšlení to nejzajímavější, co dělat mohou. Že to dělá texty na úrovni akademiků nebo novinářů, umí to udělat obrázek, vyhledávat na netu a bazálně programovat, je banální. Když si to vymýšlí, aniž by to myslelo, je to mnohem více vzrušující…

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *