17 listopada na blogu OpenAI pojawiła się informacja o tym, że Sam Altman ustępuje ze stanowiska dyrektora generalnego firmy. Powód? Zarząd spółki utracił do niego zaufanie. Kto przejmie po nim stery w OpenAI?
IBM w trybie pilnym zawiesił publikację materiałów promocyjnych na platformie X. Reklamy firmy pojawiły się bowiem obok treści promujących przemoc i mowę nienawiści. W ślad za IBM poszli także inni giganci m.in. Disney, Apple czy Paramount Global.
Poznaliśmy wyniki Ogólnopolskiego Badania Inwestorów organizowanego przez Stowarzyszenie Inwestorów Indywidualnych. Co raport ten mówi nam o polskim środowisku inwestycyjnym?
Deepfake czy prawdziwa mowa? 27% ludzi nie umie ich od siebie odróżnić
Już w jednym na cztery przypadki ludzie nie są w stanie rozróżnić prawdziwej mowy od deepfake’ów wygenerowanych przez AI, wynika z nowego badania przeprowadzonego na University College London.
Grupa naukowców z University College London (UCL) w swoich badaniach użyła algorytmu generatywnej sztucznej inteligencji, który zamieniał tekst pisany na ludzką mowę. Następnie na bazie publicznie dostępnych zestawów danych stworzyła po 50 fałszywych próbek w dwóch językach – angielskim oraz mandaryńskim i zaprezentowała je 529 uczestnikom i uczestniczkom badania.
Celem eksperymentu było sprawdzenie, czy ludzie są w stanie wykryć, że mają do czynienia nie z prawdziwą osobą, a z imitacją człowieka wygenerowaną przez sztuczną inteligencję. I wyniki okazały się interesujące. Uczestnicy badania byli bowiem w stanie zidentyfikować deepfake’i w 73% przypadków. Pozostałe 27% wzięto za nagranie wykonane przez człowieka. Wskaźnik ten ulegał nieznacznej poprawie po przeszkoleniu w zakresie rozpoznawania wytworów AI, ale wciąż oscylował w podobnych granicach. Co ciekawe, język, którym posługiwała się wygenerowana przez algorytm osoba, nie miał znaczenia.
– W naszym badaniu wykazaliśmy, że szkolenie ludzi w zakresie wykrywania deepfake'ów nie jest niezawodnym sposobem, by pomóc im odróżniać je od prawdziwej mowy. Nasze eksperymenty pokazują ponadto, że w tej chwili zautomatyzowane detektory także w pełni nie radzą sobie z tym zadaniem – przekonywała w oświadczeniu prasowym Kimberly Mai, doktorantka z dziedziny uczenia maszynowego na UCL i główna autorka badania.
Mai dodała również, że próbki, których użyto w eksperymencie, zostały wygenerowane przy użyciu stosunkowo starych algorytmów.
– To rodzi dodatkowe pytania o to, czy ludzie poradziliby sobie jeszcze gorzej w wykrywaniu deepfake’ów, gdybyśmy użyli najbardziej zaawansowanej technologii – powiedziała badaczka.
Czy deepfake'i wybiorą prezydenta?
Naukowcy z UCL jednocześnie ostrzegają, że technologia deepfake z każdym rokiem staje się coraz bardziej zaawansowana, a najnowsze wstępnie wytrenowane algorytmy są w stanie odtworzyć głos danej osoby na podstawie zaledwie 3-sekundowego nagrania. Ich użycie może więc diametralnie wypaczać rzeczywistość. Część ekspertów twierdzi m.in., że deepfake’i odegrają niebezpiecznie istotną rolę podczas wyborów prezydenckich w Stanach Zjednoczonych w 2024 r.
– Wraz z tym, jak technologia generatywnej sztucznej inteligencji staje się coraz bardziej wyrafinowana, a wiele z tych narzędzi trafia pod strzechy, dopiero teraz jesteśmy bliscy dostrzeżenia wszystkich zagrożeń i korzyści, które się z nimi wiążą. Z pewnością rozsądne byłoby, aby rządy i organizacje opracowały konkretne strategie radzenia sobie z nadużywaniem tych narzędzi – podsumował prof. Lewis Griffin, współautor badania UCL.
Redaktor naczelny Digitized. Z dziennikarstwem związany prawie jedną trzecią swojego życia; pracował dla polskich wydań magazynów Playboy, CKM i Esquire oraz serwisów Well.pl i naTemat.pl. Prywatnie poszukiwacz sensu w bezsensie i ładu pośród entropii. Lubi mądre słowa.
Polska rajem dla spółek technologicznych, Ministerstwo Cyfryzacji wzmacnia internet w całym kraju, a Blik rozpoczyna ekspansję europejską. Jednocześnie WeWork znalazł się na skraju bankructwa, a Chiny mają kłopoty gospodarcze. O czym jeszcze warto wiedzieć?
Tencent wykupił udziały w Techlandzie, a Unia Europejska bierze się za regulację rynku pracy z naciskiem na samozatrudnienie i umowy cywilnoprawne. Z kolei krakowska AGH pracuje nad zupełnie nowym narzędziem AI dla lekarzy. Czym jeszcze żyliśmy w minionym tygodniu?
Niedawno zwiedzałam niemal w pełni zautomatyzowaną fabrykę. Liczba pracowników była minimalna, a ich obowiązki ograniczały się do dbania o odpowiednią ilość materiałów i wciskania odpowiednich guzików. Ich prawdziwa praca zaczynała się, gdy maszyny się psuły. Wówczas ludzie okazywali się niezbędni.
Bez względu na to, czy nie możecie odżałować Universal Analyticsa, czy też po prostu szukacie narzędzia analitycznego bardziej zorientowanego na prywatność danych, na rynku istnieje wiele różnych alternatyw dla Google Analytics 4. Oto najciekawsze z nich.
Nasza strona wykorzystuje jedynie niezbędne funkcjonalne ciasteczka (cookie). Cenimy Twoją prywatność i nie dołączamy zewnętrznych, śledzących ciasteczek. Więcej szczegółów w naszej polityce prywatności.