2 Comments

Nevím jestli si to pamatuju z Lexova podcastu se spoluautorem CICERA ( https://youtu.be/2oHH4aClJQs ) nebo někde jinde, ale ono to strategicky nelže. V té hře je lhaní i dlouhodobé nevýhodné, protože ostatní hráči ti pak nevěří, což je velký handicap. Nicméně si ta ai může na základě nové situace přehodnotit a udělat něco jiného, než co dřív slíbila.

A taky tam mluví o tom, že si nemyslí, že to strategicky plánuje. Spíš prostě umí skvěle vyhodnotit stav a na základě naučených heuristik navrhnout docela dobrou akci. Tzn asi jako kdyz šachový velmistr normálního člověka porazí i když hraje jen první tah, co mu hodí intuice versus když provádí nějaký high level rozmýšlení, co přesně zahrát.

Expand full comment

Co myslis, ze bude dalsi krok?

Je tohle validni intuice, nebo uplny nonsense:

Aktualne je pro ty modelu realitou ciste struktura jazyka. Nemaji data ani incentiv na to, aby jenom nevytvareli "smysluplne znejici" texty.

Prijde mi, ze jazyk hraje 2 role:

1) Signalizovani umyslu ostatnim

2) Sdileni a porozumeni vzajemnym modelum sveta

Je uzitecny rozpoznat, jestli jsou ostatni duveryhodni a pak cross checkovat signalizovani s realnym chovanim.

Pouziva se uz neco takoveho pri trenovani vic cilene, nez napriklad tady u Diplomacy?

Expand full comment