Proszę, unikajmy określania nieprawidłowych wyników otrzymanych z LLM jako "halucynacji". Sugeruje to, że takie sytaucje są pewnymi wyjątkami podczas gdy "halucynacja" jest normalnym trybem pracy LLM. Po prostu częściej lub rzadziej jest spójna z prawdą.
Gdy czytam w mediach wypowiedzi publicystów, jak i "cywili", to przewija się tam sposób patrzenia na AI jako na, cóż, inteligencję. A tam przecież nie ma żadnych procesów myślowych, wnioskowania itp. (pomijam będące w powijakach prace nad lekkim poprawieniem tego stanu rzeczy). Wszystko jest halucynacją, gdzie najczęściej przyjmowaną metryką jakości nie jest zgodność z prawdą, a właśnie umiejętność okłamywania nas (Test Turinga mógł być złym pomysłem ;)). Dlatego z tym większym przerażeniem czytam pomysły Piżmona na optymalizacje pracy instytucji przez zastępowanie pracowników LLMami.
Proszę, unikajmy określania nieprawidłowych wyników otrzymanych z LLM jako "halucynacji". Sugeruje to, że takie sytaucje są pewnymi wyjątkami podczas gdy "halucynacja" jest normalnym trybem pracy LLM. Po prostu częściej lub rzadziej jest spójna z prawdą.
Gdy czytam w mediach wypowiedzi publicystów, jak i "cywili", to przewija się tam sposób patrzenia na AI jako na, cóż, inteligencję. A tam przecież nie ma żadnych procesów myślowych, wnioskowania itp. (pomijam będące w powijakach prace nad lekkim poprawieniem tego stanu rzeczy). Wszystko jest halucynacją, gdzie najczęściej przyjmowaną metryką jakości nie jest zgodność z prawdą, a właśnie umiejętność okłamywania nas (Test Turinga mógł być złym pomysłem ;)). Dlatego z tym większym przerażeniem czytam pomysły Piżmona na optymalizacje pracy instytucji przez zastępowanie pracowników LLMami.
</koniec narzekania>
Dzięki za kolejną ciekawą paczkę linków.