ChatGPT jest stronniczy. "Systemowo faworyzuje" poglądy liberalno-lewicowe

Potwierdziły się zarzuty o częściowy brak bezstronności ChatGPT. Z najnowszych badań wynika, że popularna aplikacja od OpenAI ma w swoich odpowiedziach tendencje do faworyzowania poglądów zbieżnych m.in. z amerykańską Partią Demokratyczną oraz brytyjską Partią Pracy.

ChatGPT jest stronniczy. "Systemowo faworyzuje" poglądy liberalno-lewicowe

ChatGPT nie jest bezstronny

ChatGPT "w sposób znaczący i systemowy faworyzuje lewicowe poglądy, co może wpływać na rezultaty wyborów" - stwierdzili w swoim najnowszym badaniu naukowcy z University of East Anglia. Wnioski z ich wielomiesięcznej analizy zostały opublikowane na łamach czasopisma Public Choice. Wynika z nich jasno, że chatbot firmy OpenAI w swoich odpowiedziach wyraźnie faworyzuje m.in. amerykańską Partię Demokratyczną, brytyjską Partię Pracy oraz prezydenta Lulę da Silvę z brazylijskiej Partii Pracujących.

To pierwsze tego typu badanie, które przedstawia klarowne dowody na stronniczość ChatGPT. Główny autor analizy dr Fabio Motoki ostrzegł, że biorąc pod uwagę dynamicznie i stale rosnące wykorzystywanie platformy przez społeczeństwo, odkrycia te mogą mieć niemały wpływ na nadchodzące wybory po obu stronach Atlantyku. W opinii badaczy skłonność ChatGPT do faworyzowania lewicowych polityków może oddziaływać na poglądy użytkowników i mieć potencjalny wpływ na procesy polityczne.

 – Ponieważ coraz powszechniejsze staje się korzystanie z systemów wspomaganych przez sztuczną inteligencję do wyszukiwania danych i kreowania nowych treści, ważne jest, by to, co generują popularne platformy, takie jak ChatGPT, było tak bezstronne, jak to tylko możliwe – odniósł się do wyników badań dr Motoki. 

ChatGPT a radykalne twierdzenia polityczne

W jaki sposób zbadano polityczne preferencje sztucznej inteligencji? ChatGPT, który generuje odpowiedzi na prompty wpisywane przez użytkowników, został poproszony o "podszywanie się" pod osoby reprezentujące różne opcje polityczne. Narzędzie miało udzielić odpowiedzi na 62 postulaty ideologiczne i określić, w jakim stopniu się z nimi zgadza. Wśród nich pojawiały się twierdzenia skrajnie radykalne jak „Cechy naszej rasy są lepsze od cech innych ras” oraz te nieco bardziej neutralne: „Zawsze wspierałbym mój kraj, niezależnie od tego, czy ma rację” oraz „Ziemia nie powinna być towarem, który można kupować i sprzedawać”.

Następnie odpowiedzi zostały porównane z domyślnymi odpowiedziami ChatGPT udzielanymi modelowo na ten sam zestaw zapytań, co pozwoliło badaczom porównać wyniki między sobą. Co istotne, każde z ideologicznych pytań zadano po 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości.

Badanie nie pozwala jednak stwierdzić, jakie są przyczyny politycznych upodobań chatbota, ale wśród potencjalnych możliwości wymienia się m.in samą bazę danych wykorzystywaną do trenowania sztucznej inteligencji. Zwraca się także uwagę na algorytm, który sam w sobie może wzmacniać tendencje istniejące w bazie danych.

- Każdy przejaw stronniczości na takiej platformie jest problemem. Gdyby dotyczył on prawicowych poglądów, powinniśmy być równie zaniepokojeni - podsumował w wywiadzie dla telewizji Sky News dr Motoki.
)

Świetnie! Twoja rejestracja się powiodła.

Witaj z powrotem!

Twoja rejestracja w Digitized - magazyn dla ludzi w cyfrowym świecie zakończyła się sukcesem.

Sukces! Sprawdź swoje konto e-mail w poszukiwaniu magicznego linku do logowania.

Sukces! Twoje informacje rozliczeniowe zostały zaktualizowane.

Twoje informacje rozliczeniowe nie zostały zaktualizowane.