Google, Microsoft i OpenAI zakładają forum na rzecz odpowiedzialnego rozwoju AI

Nowo powołana do życia organizacja Frontier Model Forum skupi się na promocji bezpiecznego i odpowiedzialnego tworzenia zaawansowanych modeli językowych sztucznej inteligencji oraz minimalizacji potencjalnego ryzyka, wynikającego z rozwoju tej technologii.

Google, Microsoft i OpenAI zakładają forum na rzecz odpowiedzialnego rozwoju AI

Frontier Model Forum – branża AI chce regulować samą siebie

Cztery najbardziej wpływowe firmy zajmujące się rozwojem sztucznej inteligencji powołały do życia organizację o nazwie Frontier Model Forum (FMF). Głównym celem jej powstania jest chęć nadzorowania bezpiecznego i odpowiedzialnego rozwoju najbardziej zaawansowanych modeli językowych AI oraz promocja najlepszych praktyk w tym zakresie.

W gronie założycielskim poza Google, Microsoftem i OpenAI znalazł się także Anthropic, startup założony w 2021 r. przez Daniela i Daria Amodeich, byłych wysokich rangą pracowników OpenAI.

– Firmy zajmujące się tworzeniem technologii sztucznej inteligencji mają obowiązek upewnić się, że jest ona bezpieczna i pozostaje pod kontrolą człowieka. Inicjatywa ta jest istotnym krokiem w kierunku zjednoczenia sektora technologicznego w odpowiedzialnym rozwoju tej technologii, tak by przynosiła ona korzyści całej ludzkości – przekonywał w oświadczeniu prasowym Brad Smith, prezydent Microsoftu.

https://twitter.com/OpenAI/status/1684145154628653056

Grono założycielskie stawia przed Frontier Model Forum cztery podstawowe zadania na drodze do realizacji powyższych planów. Po pierwsze, prowadzenie zaawansowanych badań w zakresie promocji odpowiedzialnego rozwoju modeli językowych oraz ustandaryzowanej ewaluacji ich potencjalnych możliwości. Po drugie: identyfikowanie najlepszych praktyk branżowych rozwoju modeli AI. Dwa pozostałe zadania to ścisła współpraca FMF z instytucjami rządowymi, naukowymi i publicznymi oraz wsparcie w rozwoju aplikacji, które wesprą ludzkość w walce z najpoważniejszymi globalnymi problemami: kryzysem klimatycznym, cyberzagrożeniami czy wykrywaniem nowotworów na wczesnym etapie.

– Zaawansowane technologie sztucznej inteligencji mogą przynieść ogromne korzyści społeczeństwu, ale osiągnięcie tego potencjału wymaga nadzoru i zarządzania. Niezwykle ważne jest, aby firmy zajmujące się AI – zwłaszcza te, zajmujące się najpotężniejszymi modelami językowymi – wypracowały wspólne podstawy oraz rozwijały przemyślane i elastyczne praktyki w zakresie bezpieczeństwa. To pilna praca, a Forum jest dobrze przygotowane do szybkiego działania w celu poprawy stanu bezpieczeństwa AI – dodała Anna Makanju, wicedyrektorka ds. globalnych operacji w OpenAI.

FMF w ciągu najbliższych miesięcy wybierze też wewnętrzną radę nadzorczą, której głównymi zadaniami będą planowanie i realizacja strategii organizacji oraz reprezentowanie jej interesów. Forum otwarte jest też na przyjmowanie do swoich szeregów nowych firm i instytucji, które zajmują się tworzeniem zaawansowanych modeli językowych AI.

Frontier Model Forum - krytyka założycieli organizacji

Mimo szczytnych deklaracji, trudno jednak w pełni wierzyć w dobre intencje firm stojących za inicjatywą Frontier Model Forum. Wszak należy przypomnieć, że jeszcze w czerwcu 2023 r. OpenAI lobbowało za znaczącym poluzowaniem części przepisów zawartych w unijnej ustawie AI Act. Z kolei zaledwie kilka miesięcy wcześniej Microsoft zwolnił 10 tys. swoich pracowników, w tym zespół odpowiedzialny za etyczny i społeczny aspekt rozwoju AI.

)

Świetnie! Twoja rejestracja się powiodła.

Witaj z powrotem!

Twoja rejestracja w Digitized - magazyn dla ludzi w cyfrowym świecie zakończyła się sukcesem.

Sukces! Sprawdź swoje konto e-mail w poszukiwaniu magicznego linku do logowania.

Sukces! Twoje informacje rozliczeniowe zostały zaktualizowane.

Twoje informacje rozliczeniowe nie zostały zaktualizowane.