Microsoft zainwestował we francuski startup Mistral AI, VIGO Photonics może zbudować polską fabrykę półprzewodników, a PFR Ventures zasiliło 150 mln zł cztery polskie fundusze VC. Czym jeszcze żyliśmy w minionym tygodniu?
Francuski MistralAI wypuścił wersję beta swojego chatbota, Elon Musk pozwał OpenAI, a Google ma kolejne kłopoty. Czym jeszcze żyliśmy w minionym tygodniu?
Obawy polskich małych i średnich przedsiębiorców w 2024 r., Międzynarodowy Fundusz Walutowy ostrzega przed AI, a Revolutowi grożą wielomilionowe kary za naruszenia prywatności. Czym jeszcze żyliśmy w minionym tygodniu?
Deepfake czy prawdziwa mowa? 27% ludzi nie umie ich od siebie odróżnić
Już w jednym na cztery przypadki ludzie nie są w stanie rozróżnić prawdziwej mowy od deepfake’ów wygenerowanych przez AI, wynika z nowego badania przeprowadzonego na University College London.
Grupa naukowców z University College London (UCL) w swoich badaniach użyła algorytmu generatywnej sztucznej inteligencji, który zamieniał tekst pisany na ludzką mowę. Następnie na bazie publicznie dostępnych zestawów danych stworzyła po 50 fałszywych próbek w dwóch językach – angielskim oraz mandaryńskim i zaprezentowała je 529 uczestnikom i uczestniczkom badania.
Celem eksperymentu było sprawdzenie, czy ludzie są w stanie wykryć, że mają do czynienia nie z prawdziwą osobą, a z imitacją człowieka wygenerowaną przez sztuczną inteligencję. I wyniki okazały się interesujące. Uczestnicy badania byli bowiem w stanie zidentyfikować deepfake’i w 73% przypadków. Pozostałe 27% wzięto za nagranie wykonane przez człowieka. Wskaźnik ten ulegał nieznacznej poprawie po przeszkoleniu w zakresie rozpoznawania wytworów AI, ale wciąż oscylował w podobnych granicach. Co ciekawe, język, którym posługiwała się wygenerowana przez algorytm osoba, nie miał znaczenia.
– W naszym badaniu wykazaliśmy, że szkolenie ludzi w zakresie wykrywania deepfake'ów nie jest niezawodnym sposobem, by pomóc im odróżniać je od prawdziwej mowy. Nasze eksperymenty pokazują ponadto, że w tej chwili zautomatyzowane detektory także w pełni nie radzą sobie z tym zadaniem – przekonywała w oświadczeniu prasowym Kimberly Mai, doktorantka z dziedziny uczenia maszynowego na UCL i główna autorka badania.
Mai dodała również, że próbki, których użyto w eksperymencie, zostały wygenerowane przy użyciu stosunkowo starych algorytmów.
– To rodzi dodatkowe pytania o to, czy ludzie poradziliby sobie jeszcze gorzej w wykrywaniu deepfake’ów, gdybyśmy użyli najbardziej zaawansowanej technologii – powiedziała badaczka.
Czy deepfake'i wybiorą prezydenta?
Naukowcy z UCL jednocześnie ostrzegają, że technologia deepfake z każdym rokiem staje się coraz bardziej zaawansowana, a najnowsze wstępnie wytrenowane algorytmy są w stanie odtworzyć głos danej osoby na podstawie zaledwie 3-sekundowego nagrania. Ich użycie może więc diametralnie wypaczać rzeczywistość. Część ekspertów twierdzi m.in., że deepfake’i odegrają niebezpiecznie istotną rolę podczas wyborów prezydenckich w Stanach Zjednoczonych w 2024 r.
– Wraz z tym, jak technologia generatywnej sztucznej inteligencji staje się coraz bardziej wyrafinowana, a wiele z tych narzędzi trafia pod strzechy, dopiero teraz jesteśmy bliscy dostrzeżenia wszystkich zagrożeń i korzyści, które się z nimi wiążą. Z pewnością rozsądne byłoby, aby rządy i organizacje opracowały konkretne strategie radzenia sobie z nadużywaniem tych narzędzi – podsumował prof. Lewis Griffin, współautor badania UCL.
Redaktor naczelny Digitized. Z dziennikarstwem związany prawie jedną trzecią swojego życia; pracował dla polskich wydań magazynów Playboy, CKM i Esquire oraz serwisów Well.pl i naTemat.pl. Prywatnie poszukiwacz sensu w bezsensie i ładu pośród entropii. Lubi mądre słowa.
Microsoft zainwestował we francuski startup Mistral AI, VIGO Photonics może zbudować polską fabrykę półprzewodników, a PFR Ventures zasiliło 150 mln zł cztery polskie fundusze VC. Czym jeszcze żyliśmy w minionym tygodniu?
Francuski MistralAI wypuścił wersję beta swojego chatbota, Elon Musk pozwał OpenAI, a Google ma kolejne kłopoty. Czym jeszcze żyliśmy w minionym tygodniu?
Obawy polskich małych i średnich przedsiębiorców w 2024 r., Międzynarodowy Fundusz Walutowy ostrzega przed AI, a Revolutowi grożą wielomilionowe kary za naruszenia prywatności. Czym jeszcze żyliśmy w minionym tygodniu?
NVIDIA zaprezentowała Chat with RTX, OpenAI – model Sora, a Google – Gemini 1.5. Tymczasem 17 lutego zaczął obowiązywać unijny Akt o Usługach Cyfrowych (DSA). Czym jeszcze żyliśmy w minionym tygodniu?
Nasza strona wykorzystuje jedynie niezbędne funkcjonalne ciasteczka (cookie). Cenimy Twoją prywatność i nie dołączamy zewnętrznych, śledzących ciasteczek. Więcej szczegółów w naszej polityce prywatności.