Technologia

Chiny wykorzystały ChatGPT do ataku na premier Japonii, ujawnia OpenAI

Nowy raport OpenAI na temat zagrożeń ujawnia, jak konto powiązane z chińskimi organami ścigania próbowało wykorzystać ChatGPT do sponsorowanej przez państwo kampanii oszczerstw przeciwko premier Japonii Sanae Takaichi – i jak operacja ta mimo wszystko doszła do skutku przy użyciu krajowej chińskiej sztucznej inteligencji.

R
Redakcia
Share
Chiny wykorzystały ChatGPT do ataku na premier Japonii, ujawnia OpenAI

Okno na chińską wojnę informacyjną

Najnowszy raport wywiadowczy OpenAI na temat zagrożeń, opublikowany w tym tygodniu, odsłonił wcześniej nieujawnioną operację powiązaną z chińskim państwem, która próbowała wykorzystać chatbota ChatGPT przeciwko pierwszej kobiecie na stanowisku premiera Japonii. Ujawnienie to oferuje niezwykle szczegółowy wgląd w to, jak autorytarne rządy eksperymentują – czasami niezdarnie – z komercyjnymi narzędziami AI w celu prowadzenia zagranicznych operacji wpływu.

Cel: Nowa premier Japonii

Według ustaleń OpenAI, analitycy zidentyfikowali niepokojącą sesję planowania w połowie października 2025 roku, kiedy to konto ChatGPT powiązane z chińską agencją organów ścigania poprosiło model o pomoc w zaprojektowaniu tajnej kampanii propagandowej przeciwko Sanae Takaichi. Takaichi, która od tego czasu została pierwszą kobietą premierem Japonii, publicznie skrytykowała Komunistyczną Partię Chin za łamanie praw człowieka w Mongolii Wewnętrznej – co najwyraźniej wywołało tę operację.

Konto zażądało, aby ChatGPT stworzył negatywne treści do mediów społecznościowych, wygenerował fałszywe skargi od rzekomych zagranicznych mieszkańców i przekazał te skargi innym japońskim politykom – wszystko to miało na celu zdyskredytowanie Takaichi, zanim zdąży umocnić swoją władzę.

ChatGPT odmówił. Kampania i tak ruszyła.

OpenAI twierdzi, że jego zabezpieczenia zadziałały: ChatGPT odmówił pomocy w realizacji żądań propagandowych. Ale na tym historia się nie kończy. Kilka tygodni później to samo konto powróciło – tym razem, aby przesłać raport wskazujący, że kampania oszczerstw i tak ruszyła, prawie na pewno przy użyciu krajowych chińskich modeli AI, które mają mniej ograniczeń dotyczących treści.

"Ta operacja ujawniła wiele na temat chińskiej strategii tajnych operacji wpływu i represji transnarodowych" – powiedział Ben Nimmo, główny badacz w zespole ds. wywiadu i dochodzeń OpenAI.

Przejście na krajową sztuczną inteligencję po odmowie ChatGPT podkreśla ograniczenia polityki treści pojedynczej platformy jako bariery ochronnej przed dezinformacją sponsorowaną przez państwo.

Skala przemysłowa: Setki agentów, tysiące kont

Chociaż tylko jedno konto wchodziło w interakcje z ChatGPT, szersze dochodzenie OpenAI wykazało, że chińska sieć, która za tym stoi, jest zakrojona na szeroką skalę, zasobochłonna i trwała. Operacja podobno angażuje setki pracowników zarządzających tysiącami nieautentycznych kont rozproszonych na wielu platformach mediów społecznościowych. Taktyki obejmują masowe publikowanie, generowanie fałszywych skarg na konta dysydentów, fałszowanie dokumentów i podszywanie się pod urzędników amerykańskich w celu zastraszania chińskich krytyków za granicą.

Część szerszego obrazu nadużyć

Pełny raport na temat zagrożeń dokumentuje szereg nadużyć ChatGPT wykraczających poza działania podmiotów państwowych. Oszuści w Azji Południowo-Wschodniej wykorzystywali platformę do prowadzenia oszustw matrymonialnych skierowanych do indonezyjskich mężczyzn za pośrednictwem fałszywego serwisu randkowego. Inni podszywali się pod kancelarie prawne i amerykańskie organy ścigania, aby oszukiwać ofiary oszustw. Kilka kont próbowało zbierać informacje o amerykańskiej infrastrukturze, a niektórzy aktorzy szukali wskazówek dotyczących oprogramowania do zamiany twarzy na potrzeby kampanii dezinformacyjnych.

Co to oznacza dla zarządzania AI

Incydent krystalizuje fundamentalne napięcie w branży AI: potężne narzędzia, które odrzucają szkodliwe żądania na zachodnich platformach, mogą być replikowane przez podmioty państwowe przy użyciu krajowych alternatyw działających na innych zasadach. Ponieważ generatywna sztuczna inteligencja staje się centralnym elementem rywalizacji geopolitycznej, analitycy twierdzą, że epizod ten wzmacnia argumenty za międzynarodowymi ramami określającymi podstawowe standardy zachowania modeli AI.

Na razie decyzja OpenAI o opublikowaniu szczegółowych ustaleń stanowi jeden z nielicznych mechanizmów publicznej odpowiedzialności w tym, co w przeciwnym razie jest w dużej mierze niewidoczną dziedziną – dziedziną, która szybko staje się jedną z definiujących aren współczesnej sztuki rządzenia.

Ten artykuł jest dostępny także w innych językach:

Powiązane artykuły