Fakty, półprawdy i halucynacje – jak nie dać się oszukać AI
Piotr Bombol, Adaily

Treść dostępna dla członków PTBRiO

AI to dziś najpotężniejszy sprzymierzeniec biznesu, lecz ma wrodzoną wadę – „halucynuje” (tj. przedstawia nieprawdziwe informacje). Problem nie znika nawet z kolejnymi, nowymi modelami czy funkcjami dostępu do sieci: najnowszy audyt Tow Center wykazał, że modele z dostępem do Internetu udzielały błędnych odpowiedzi w ponad 60 % zapytań, a w skrajnych przypadkach aż 94 %. Co gorsza, modele brzmią wtedy absolutnie pewnie, usypiając czujność użytkowników i grożąc „zaśnięciem za kierownicą” – od zmyślonych przepisów wizowych do Chile (przez co można utknąć na lotnisku w Meksyku) po regulaminy aplikacji, które… wymyślają nowe zasady subskrypcji, czego boleśnie doświadczyła firma Cursor. Podzielę się własnymi porażkami i sukcesami w walce z halucynacjami. Pokażę, gdzie występują najczęściej, jak łatwo je wykrywać i eliminować oraz jak wdrożyć w firmie procedury „false-free”. To destylat dwóch lat pracy nad startupem badawczym AI i odpowiedź na pytanie, czy eliminacja halucynacji w 100% jest tylko ambitnym marzeniem, czy rzeczywistym celem.

TAGI: AI, halucynacje, wiarygodność, decyzje biznesowe

Przewijanie do góry