AI
Deepfake czy prawdziwa mowa? 27% ludzi nie umie ich od siebie odróżnić
Już w jednym na cztery przypadki ludzie nie są w stanie rozróżnić prawdziwej mowy od deepfake’ów wygenerowanych przez AI, wynika z nowego badania przeprowadzonego na University College London.
Czy ludzie są w stanie rozpoznawać deepfake'i?
Grupa naukowców z University College London (UCL) w swoich badaniach użyła algorytmu generatywnej sztucznej inteligencji, który zamieniał tekst pisany na ludzką mowę. Następnie na bazie publicznie dostępnych zestawów danych stworzyła po 50 fałszywych próbek w dwóch językach – angielskim oraz mandaryńskim i zaprezentowała je 529 uczestnikom i uczestniczkom badania.
Celem eksperymentu było sprawdzenie, czy ludzie są w stanie wykryć, że mają do czynienia nie z prawdziwą osobą, a z imitacją człowieka wygenerowaną przez sztuczną inteligencję. I wyniki okazały się interesujące. Uczestnicy badania byli bowiem w stanie zidentyfikować deepfake’i w 73% przypadków. Pozostałe 27% wzięto za nagranie wykonane przez człowieka. Wskaźnik ten ulegał nieznacznej poprawie po przeszkoleniu w zakresie rozpoznawania wytworów AI, ale wciąż oscylował w podobnych granicach. Co ciekawe, język, którym posługiwała się wygenerowana przez algorytm osoba, nie miał znaczenia.
– W naszym badaniu wykazaliśmy, że szkolenie ludzi w zakresie wykrywania deepfake'ów nie jest niezawodnym sposobem, by pomóc im odróżniać je od prawdziwej mowy. Nasze eksperymenty pokazują ponadto, że w tej chwili zautomatyzowane detektory także w pełni nie radzą sobie z tym zadaniem – przekonywała w oświadczeniu prasowym Kimberly Mai, doktorantka z dziedziny uczenia maszynowego na UCL i główna autorka badania.
Mai dodała również, że próbki, których użyto w eksperymencie, zostały wygenerowane przy użyciu stosunkowo starych algorytmów.
– To rodzi dodatkowe pytania o to, czy ludzie poradziliby sobie jeszcze gorzej w wykrywaniu deepfake’ów, gdybyśmy użyli najbardziej zaawansowanej technologii – powiedziała badaczka.
Czy deepfake'i wybiorą prezydenta?
Naukowcy z UCL jednocześnie ostrzegają, że technologia deepfake z każdym rokiem staje się coraz bardziej zaawansowana, a najnowsze wstępnie wytrenowane algorytmy są w stanie odtworzyć głos danej osoby na podstawie zaledwie 3-sekundowego nagrania. Ich użycie może więc diametralnie wypaczać rzeczywistość. Część ekspertów twierdzi m.in., że deepfake’i odegrają niebezpiecznie istotną rolę podczas wyborów prezydenckich w Stanach Zjednoczonych w 2024 r.
– Wraz z tym, jak technologia generatywnej sztucznej inteligencji staje się coraz bardziej wyrafinowana, a wiele z tych narzędzi trafia pod strzechy, dopiero teraz jesteśmy bliscy dostrzeżenia wszystkich zagrożeń i korzyści, które się z nimi wiążą. Z pewnością rozsądne byłoby, aby rządy i organizacje opracowały konkretne strategie radzenia sobie z nadużywaniem tych narzędzi – podsumował prof. Lewis Griffin, współautor badania UCL.