Bezpieczeństwo
ChatGPT doczekał się groźnego odpowiednika. Czym jest WormGPT?
Bez ochrony i cenzury, którym podlega ChatGPT, WormGPT może służyć do przeprowadzania ataków cybernetycznych na niespotykaną wcześniej skalę. Może się także okazać świetnym narzędziem do produkowania fałszywych informacji.
Na rynku pojawił się nowy gracz: WormGPT. Stworzony przez hakerów na bazie otwarto-źródłowego LLM GPT-J z 2021 roku zaprogramowany został do generowania złośliwego oprogramowania i szablonów maili phishingowych. Jego działanie opiera się na modelu przyjętym przy budowie ChatGPT: przyjmuje zapytania a następnie generuje to, o co zostało zapytane, od streszczeń do kodu. Brakującym elementem jest tu etyka. W teście przeprowadzonym przez SlashNext, organizację zajmującą się obszarem cyberbezpieczeństwa, instruktorzy zlecili temu „zdegenerowanemu” LLM-owi zadanie stworzenia fałszywego e-maila phishingowego, czyli przeprowadzenie ataku typu BEC (Business Email Compromise). WormGPT doskonale poradził sobie z tym zadaniem, wykazując się strategicznym sprytem i dowodząc swego potencjału w zakresie przeprowadzania zaawansowanych ataków phishingowych i BEC.
Bez ochrony i cenzury, którym podlega ChatGPT, WormGPT może służyć do przeprowadzania ataków cybernetycznych na niespotykaną wcześniej skalę. Może się także okazać świetnym narzędziem do produkowania fałszywych informacji. Jeśli jego stworzenie nie spotka się z natychmiastową i zdecydowaną reakcją międzynarodowej społeczności, wymagającą zaangażowania policji i ustawodawców, WormGPT stanie się potężną bronią w dziedzinie inżynierii społecznej, która bez wątpienia szybko znajdzie zastosowanie w szeregu trudnych jeszcze do prognozowania kryminalnych aktywności.