Kto odpowiada za gaz musztardowy w lodówce? Halucynacje systemów AI

Naukowcy pytają o nieistniejące źródła, sieć supermarketów sugeruje klientom produkcję gazu musztardowego, a w USA rusza pozew o zniesławienie, bo popularny ChatGPT uparcie kłamie na temat znanej osoby. Wszystko ze względu na halucynacje - halucynacje AI.

Kto odpowiada za gaz musztardowy w lodówce? Halucynacje systemów AI

W marcu 2023 roku do jednego z redaktorów brytyjskiego Guardiana zgłosił się czytelnik z prośbą o odnalezienie artykułu, którego ten konkretny dziennikarz miał być autorem. Wyszukiwanie z początku nie przyniosło rezultatu, ale przecież nie jest niczym nadzwyczajnym, że redaktorzy mogą mieć kłopot ze spamiętaniem wszystkich tekstów, które przewijają się przez ich biurka. Materiał nie figurował jednak także w archiwum Guardiana.

Dopiero po pewnym czasie okazało się, że problemem nie była ani pamięć redaktora, ani baza danych gazety. Poszukiwany przez czytelnika tekst nigdy nie został napisany. Jego tytuł i opis zawartości okazały się wymysłem ChatGPT. Artykuł został całkowicie wyssany z palca, lub raczej - wyhalucynowany.

Grać jak Behemoth, pisać jak Proust 

By dokładnie zrozumieć, co się wydarzyło, należy najpierw opisać działanie generatywnego AI: efektem pracy sieci neuronowej jest treść przygotowana na podstawie polecenia (promptu) użytkownika. Jakie treści można generować? Niemal dowolne.

Świetnym przykładem jest muzyka. Grupa Dadabots przygotowała zestaw sieci neuronowych, których można posłuchać na ich kanałach na YouTube, a każda z nich tworzy w nieskończoność muzykę, na przykład death metal i funk. Sieci te powstały dzięki analizie setek piosenek z danego gatunku. Na ich podstawie mogły wychwycić pewne wzorce i schematy, a następnie w oparciu o nie generować treść pasującą do schematu. W tym przypadku - piosenki w danym stylu. Sieć uczy się na przykład, że death metal nie jest gatunkiem, w którym często można spotkać solówki na saksofonie. 

Grupa Dadabots

Podobny mechanizm występuje przy trenowaniu sieci neuronowych do generowania innego typu treści. Duże Modele Językowe (Large Language Models, LLM) trenowane są na ogromnej liczbie tekstów, a modele generujące grafiki - na obrazach wraz z podpisami. Na tej podstawie systemy te są w stanie powiązać treść, którą mają przygotować, z zapytaniem użytkownika. Usługi takie jak ChatGPT lub Google Bard na hasło “napisz dla mnie email, w którym uprzejmie prosisz klienta o uregulowanie niezapłaconej faktury” są w stanie taką wiadomość błyskawicznie przygotować. Ich przydatność dostrzegły tysiące pracowników i managerów na całym świecie, korzystających już z nich w codziennej pracy. 

McKinsey & Company wskazuje, że dzięki wsparciu produktywności i wydajności generatywna sztuczna inteligencja ma już na tym etapie szansę zwiększyć wartość światowej gospodarki o 4 biliony dolarów rocznie. Rozwiązania tego typu, szczególnie te opierające się na generowaniu tekstu, znaleźć mogą wiele zastosowań, między innymi w obsłudze klienta oraz wspomaganiu komunikacji. Choćby Microsoft wzbogacił ostatnio swoją platformę HR Viva o wsparcie oparte na generatywnym AI. Na przeszkodzie do rozwoju tego potencjału stoi jednak skłonność tych systemów do halucynowania. 

Czym są halucynacje w systemach AI

Halucynacje najczęściej dotyczą tekstowych systemów generatywnej AI, które tworzą odpowiedzi na konkretne zapytania użytkowników. Ze względu na stopień zaawansowania tych narzędzi odpowiedzi z reguły są nie tylko prawdopodobne, ale wręcz mogą zostać poparte kilkoma źródłami i cytatami. Problem w tym, że w rzeczywistości część z tych informacji może nie być prawdziwa, a źródła i cytaty - wyssane z palca. Innymi słowy, system zmyśla swoje odpowiedzi, tak jak mógłby zrobić to człowiek w podobnej sytuacji. Między ludzkimi konfabulacjami a maszynowymi halucynacjami istnieje jednak kilka istotnych różnic.

  • Człowiek zmyśla świadomie, maszyna - nie. AI nie ma też pojęcia o “prawdziwości” efektów swojej pracy, bo jej kontakt z rzeczywistością ogranicza się do przetwarzania tekstów użytych do jej stworzenia. Nie wszystkie z nich odnoszą się do prawdziwego świata - część może być na przykład literaturą science-fiction.
  • Maszyna halucynuje wyjątkowo spójnie. Duże modele językowe posługują się językiem bardzo sprawnie. Z tego względu stworzona przez nie treść wydaje się wiarygodna i nie budzi wątpliwości użytkownika. Dlatego badacz, który poprosił ChatGPT o przygotowanie listy interesujących artykułów ze swojej dziedziny, uwierzył, że autor pracujący dla Guardiana faktycznie napisał ten konkretny tekst. 
  • Człowiek może mieć świadomość konsekwencji zmyślania. Maszyna nie posiada świadomości wcale.

Halucynacje w biznesie - kwestia smaku

W zależności od tego, do czego użytkownicy (lub firmy) wykorzystują narzędzia generatywnej AI, halucynacje mogą spowodować mniej lub więcej szkód. Szerokim echem odbił się przypadek PAK’n’SAVE, sieci supermarketów z Nowej Zelandii, która wykorzystała model GPT3,5 jako podstawę swojego bota. Jego zadaniem było sugerowanie użytkownikom potraw, które mogliby przygotować, korzystając z resztek jedzenia z własnych lodówek.

Część użytkowników zmanipulowała system, sugerując, że trzymają w swoich lodówkach na przykład wybielacz lub amoniak. Z tych składników bot sugerował przygotowywanie “aromatycznego napoju wodnego”, czyli gazu musztardowego, stosowanego między innymi jako broń chemiczna w czasie I wojny światowej. System wielokrotnie podawał ten przepis, a nawet wykazał się rzadkim w przypadku maszyn poczuciem humoru, podsumowując przepis zwrotem “will leave you breathless”, czyli dosłownie: "pozbawi cię tchu". 

– Za halucynujący system nie odpowiada w zasadzie nikt – mówi Damian Klimas, partner w kancelarii prawnej dotlaw, specjalizującej się w prawie cyfrowym - Dostawca tego typu rozwiązań ogranicza swoją odpowiedzialność w Terms of Use (warunkach użytkowania), informując wprost o zjawisku "halucynacji" i przestrzegając przed robieniem użytku z wygenerowanych odpowiedzi, oczywiście za pomocą innych słów. Z kolei konsekwencje wykorzystania wygenerowanej przez AI treści mogą ponieść użytkownicy, gdyż to właśnie oni mogą ją rozpowszechniać – dodaje Klimas.

Kwestia wizerunku

W przypadku rozpowszechniania treści wyhalucynowanej przez AI kłopoty może mieć także samo OpenAI. Flagowy produkt organizacji - ChatGPT - powtarza, że popularny w stanie Georgia prezenter radiowy Mark Walters jest winny defraudacji. Informacja została wyhalucynowana przez system, jednak mimo to maszyna uparcie ją rozpowszechnia. Nic dziwnego, że Walters zdecydował się pozwać OpenAI o zniesławienie.

- W takiej sytuacji, zakładając, że output się powtarza, a nie był jednorazowym, przykrym przypadkiem, jest to naruszenie dóbr osobistych i w istocie, podjęcie prawnych kroków przeciwko dostawcy jest jedynym słusznym posunięciem - komentuje Damian Klimas.

Podkreśla jednak, że sprawa między Markiem Waltersem a OpenAI jest niezwykle ciekawa od strony prawnej - prawdopodobnie pozwani będą próbowali zasłaniać się generycznością informacji wynikających z powszechnie dostępnych źródeł. Szykuje się niezwykle trudne postępowanie w kwestii dowodowej.

ChatGPT został wytrenowany na milionach tekstów - wliczając w to materiały biznesowe i ekonomiczne. Z tego względu jego porady dotyczące kwestii finansowych i biznesowych są rozsądne. Internet obiegły historie João Ferrão dos Santosa, który mianował ChatGPT CEO swojego startupu, czy Jacksona Greathouse’a Falla, który podążając za radami systemu, założył firmę Green Gadgets Guru. Jednak użycie sztucznej inteligencji nie zwalnia ludzi z odpowiedzialności, nawet jeśli system wyhalucynuje mylące podpowiedzi.

- Jeśli ktokolwiek o zdrowych zmysłach podejmuje istotne decyzje biznesowe w oparciu wyłącznie o to, co wygeneruje AI, powinien liczyć się z konsekwencjami. To trochę tak, jakby oczekiwać, że Google poniesie odpowiedzialność za niewłaściwy wynik wyszukiwania - komentuje Damian Klimas. 

Kwestia umowy

Generatywną AI można spotkać między innymi w takich narzędziach jak Todoist czy Notion, gdzie wspomaga użytkowników w planowaniu zadań czy przygotowywaniu treści. Ale zastosowanie tego typu rozwiązań może iść nawet dalej. CEO mieszczącej się w Bengaluru firmy Dukaan zwolnił 90% kadry zajmującej się obsługą klienta i zastąpił ją chatbotami. Zachwalał ten ruch jako sposób na ścięcie kosztów o 85% i znaczne przyspieszenie rozwiązywania problemów. Średni czas od zgłoszenia do zakończenia sprawy spadł z 2 godzin i 13 minut do 3 minut i 13 sekund. Jednak takie systemy też mogą halucynować i wprowadzić klienta w błąd.

– W takich sytuacjach byłaby pomocna odpowiednio skonstruowana umowa, ale raczej nie mamy na to wpływu ze względu na to, że większość tego typu usług działa jako SaaS. W praktyce lepiej zabezpieczyć się odpowiednio wyuczonym przez nas algorytmem, który zapewni odpowiedni kontekst. Ważne jest także, aby wyszkolony specjalista wprowadził odpowiedni prompt - podpowiada Damian Klimas.

Podsumowanie

Halucynacje systemów opartych o AI “to nie wada, to cecha” - co więcej, jest to cecha, której trudno będzie się pozbyć z nowoczesnych systemów AI. 

– W miejscu pracy można uregulować sposób korzystania z narzędzi genAI wprowadzając odpowiedzialność pracowników za korzystanie z takich systemów, co przynajmniej częściowo może ochronić biznes - wskazuje Damian Klimas i podkreśla, że systemy AI wciąż powinny być traktowane z należytą ostrożnością. 

Brak tej ostrożności może prowadzić między innymi do generowania przepisów na gaz musztardowy serwowanych otwarcie przez system AI. W oświadczeniu wysłanym do redakcji, nomen omen, Guardiana firma PAK‘n’SAVE wyraziła “ubolewanie, że niewielka grupa użytkowników postanowiła używać bota niezgodnie z jego przeznaczeniem”.

- Nie mamy wpływu na dane, z których korzystają narzędzia genAI, więc musimy zdać się na jakość samego systemu. Aby unikać przykrych konsekwencji związanych z użyciem z takich narzędzi konieczne może być każdorazowe sprawdzanie poprawności i prawdziwości odpowiedzi przygotowanej przez system - podsumowuje Damian Klimas.
)

Świetnie! Twoja rejestracja się powiodła.

Witaj z powrotem!

Twoja rejestracja w Digitized - magazyn dla ludzi w cyfrowym świecie zakończyła się sukcesem.

Sukces! Sprawdź swoje konto e-mail w poszukiwaniu magicznego linku do logowania.

Sukces! Twoje informacje rozliczeniowe zostały zaktualizowane.

Twoje informacje rozliczeniowe nie zostały zaktualizowane.