OpenAI blokuje konta wykorzystujące ChatGPT do kodu monitorowania mediów społecznościowych

OpenAI zablokowało kilka kont pochodzących z Chin, które niewłaściwie wykorzystywały technologię ChatGPT do opracowania narzędzia do nadzoru mediów społecznościowych opartego na sztucznej inteligencji. Konta te wykorzystywały ChatGPT do pisania ofert sprzedaży i debugowania kodu programu zaprojektowanego do monitorowania nastrojów antychińskich na platformach takich jak X (dawniej Twitter), Facebook, YouTube i Instagram. Narzędzie miało na celu identyfikację wezwań do protestów przeciwko łamaniu praw człowieka w Chinach i udostępnienie tych spostrzeżeń władzom chińskim. Ponadto grupa korzystała z ChatGPT do generowania e-maili phishingowych dla klientów w Chinach.

Działanie to stanowi część szerszych wysiłków OpenAI mających na celu zapobieganie niewłaściwemu wykorzystywaniu modeli sztucznej inteligencji do złośliwych działań, w tym operacji inwigilacyjnych i wywierania wpływu. W powiązanym przypadku OpenAI zablokowało konta powiązane z Koreą Północną, które generowały fałszywe CV i profile internetowe w celu oszukańczego zapewnienia zatrudnienia w zachodnich firmach. Inny przypadek dotyczył oszustwa finansowego w Kambodży, w którym wykorzystano ChatGPT do tłumaczenia i generowania komentarzy na platformach mediów społecznościowych.

Rząd USA wyraził obawy dotyczące potencjalnego wykorzystania technologii sztucznej inteligencji przez reżimy autorytarne do tłumienia sprzeciwu i szerzenia dezinformacji. OpenAIśrodki proaktywneidentyfikowanie i blokowanie kont zaangażowanych w taką działalność podkreśla wyzwania, przed jakimi stoją firmy zajmujące się sztuczną inteligencją, aby zapewnić, że ich technologie nie będą wykorzystywane do szkodliwych celów. W miarę jak narzędzia sztucznej inteligencji stają się coraz bardziej dostępne, odpowiedzialność za monitorowanie ich niewłaściwego wykorzystania i zapobieganie im pozostaje kluczowym priorytetem zarówno dla programistów, jak i decydentów.

W podobnym duchu DeepSeek, chiński start-up zajmujący się sztuczną inteligencją, stanął w obliczu działań regulacyjnych w różnych krajach ze względu na obawy dotyczące prywatności i bezpieczeństwa danych. Komisja ds. ochrony danych osobowych Korei Południowej zawiesiła nowe pobieranie aplikacji AI DeepSeek, powołując się na nieprzestrzeganie zasad ochrony danych osobowych. Zawieszenie pozostanie do czasu, gdy aplikacja spełni niezbędne standardy prawa dotyczące prywatności, chociaż usługa internetowa pozostanie dostępna. Ponadto włoski organ ochrony danych zablokował chatbota DeepSeek ze względu na kwestie prywatności, co odzwierciedla rosnącą globalną kontrolę aplikacji AI, które mogą zagrażać danym użytkownika.

Dowiedz się więcej:Hakerzy korzystają ze sztucznej inteligencji Gemini firmy Google: jak ją wykorzystują?

Przypadki te podkreślają globalne wyzwania w zakresie regulacji technologii sztucznej inteligencji, równoważenia innowacji z koniecznością ochrony prywatności użytkowników i zapobiegania nadużyciom. W miarę ciągłego rozwoju sztucznej inteligencji firmy i rządy na całym świecie zmagają się z ustanowieniem ram wspierających postęp technologiczny, przy jednoczesnej ochronie standardów etycznych i praw człowieka.