Discussion about this post

User's avatar
Konrad Czajka's avatar

Proszę, unikajmy określania nieprawidłowych wyników otrzymanych z LLM jako "halucynacji". Sugeruje to, że takie sytaucje są pewnymi wyjątkami podczas gdy "halucynacja" jest normalnym trybem pracy LLM. Po prostu częściej lub rzadziej jest spójna z prawdą.

Gdy czytam w mediach wypowiedzi publicystów, jak i "cywili", to przewija się tam sposób patrzenia na AI jako na, cóż, inteligencję. A tam przecież nie ma żadnych procesów myślowych, wnioskowania itp. (pomijam będące w powijakach prace nad lekkim poprawieniem tego stanu rzeczy). Wszystko jest halucynacją, gdzie najczęściej przyjmowaną metryką jakości nie jest zgodność z prawdą, a właśnie umiejętność okłamywania nas (Test Turinga mógł być złym pomysłem ;)). Dlatego z tym większym przerażeniem czytam pomysły Piżmona na optymalizacje pracy instytucji przez zastępowanie pracowników LLMami.

</koniec narzekania>

Dzięki za kolejną ciekawą paczkę linków.

Expand full comment

No posts