CEEFA: tady zase pozor... lidi poukazujou na to, že když jim něco prozradíš, tak i když jim můžeš zdánlivě dát příkaz, aby to "zapomněli", tak fakticky to nemusí být možné. Probíhá zpětné trénování na komunikaci s tebou (a je to zoufale netransparentní, co se doopravdy děje). Jsou to doklady o tom, že jim někdo omylem pastnul zdroják s API tokenem do promptu a ten se pak vynořil někde v nějaké příští odpovědi, když mezitím měla být wannabe "mezipaměť" konverzace vymazaná.
Je to naopak, než říkáš - dnešní LLM se učej, i když to po nich nechceš!
S tím halucinováním nás to ale donutí přehodnotit spíš to, jak velká část našeho obrazu světa, pokud ho inferujeme jen z jazykového/textového popisu a ne ze smyslové zkušenosti, je taky halucinace. A platí tam skuečně, že jak chytře se ptáš, tak chytrou odpověď dostaneš - protože nakonec ten chat a "osobnost" je jen iluze, ve skutečnosti to pořád vychází z nástroje na doplňování chybějící části textu. Takže čím chytřejší kus textu dodáš, tím chytřejším způsobem ti ho to doplní. Vlastně kdybych někdy skutečně podlehl pokušení si k AI sednout, tak si nejdřív napůjčuju co nejchytřejší knížky k tématu, co mě zajímá a budu se snažit, aby mi je AI vysvětlilo.
Nějaký způsob práce, která má hlavu a patu, asi objevit půjde, protože ta věc se nemůže jednoduše "odstát"... můžeme tomu snížit spotřebu energie a nějak to minimalizovat, až se zbavíme pastí, které vedou k exponenciální složitosti... ale asi to tu s námi už zůstane. Podle mě ale schopnosti, které jsou nutné k efektivnímu používání AI, právě odezní, stejná jako já třeba nikdy nezískal schopnosti používat veřejné nebo dokonce odborné knihovny a jsem generace zničená Internetem.