Reklamy polityczne a AI. Google aktualizuje swoją politykę w tym zakresie
Od połowy listopada 2023 r. Google będzie wymagać, aby wszyscy zweryfikowani reklamodawcy kampanii wyborczych ujawniali, kiedy ich przekazy zostały zmienione lub wygenerowane przez narzędzia sztucznej inteligencji. Dotyczy to zarówno spotów wideo, treści audio, jak i obrazów, takich jak zdjęcia, memy, grafiki itd.
Reklamodawcy polityczni nadal będą mogli korzystać z AI w swoich przekazach, ale będą musieli wyraźnie to oznaczyć, na przykład poprzez stwierdzenia: „Ten dźwięk został wygenerowany komputerowo” lub „Ten obraz nie przedstawia prawdziwych wydarzeń” na swoich reklamach wyborczych na platformach Google. Komunikaty te muszą być jasne i widoczne dla użytkowników. Nowe zasady nie mają zastosowania do niewielkich poprawek, takich jak zmiana rozmiaru obrazu, kadrowanie, korekta koloru bądź rozjaśnienie, usuwanie „czerwonych oczu” lub edycje tła.
"Od lat zwiększamy przejrzystość reklam wyborczych, w tym np. poprzez oznaczenie „opłacone przez" oraz publicznie dostępny raport przejrzystości reklam politycznych, który dostarcza użytkownikom więcej informacji o reklamach wyborczych udostępnianych na naszych platformach" - przekazało Google Polska w oficjalnym komunikacie.
"Biorąc pod uwagę rosnącą popularność narzędzi generujących treści syntetyczne, będziemy rozbudowywać nasze zasady i wkrótce będziemy wymagać od reklamodawców na całym świecie wyraźnego wskazania, kiedy ich reklamy wyborcze zawierają materiały zmienione lub wygenerowane cyfrowo. Ta zmiana to kolejny element naszej dotychczasowej pracy na rzecz przejrzystości, dzięki której wspieramy odpowiedzialną reklamę polityczną i dajemy wyborcom dostęp do informacji, które pomagają im podejmować świadome decyzje" - dodała firma.
Google informuje, że reklamodawcy zostaną powiadomieni o zmianach z wyprzedzeniem, by mieli czas na wdrożenie poprawek. W Polsce nowe zasady nie będą obowiązywać w trwającej aktualnie kampanii wyborczej.