Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Specjalny salonik VIP na dworcu dla Hennig-Kloski. Konsternacja w PKP Wiadomości
Specjalny "salonik VIP" na dworcu dla Hennig-Kloski. Konsternacja w PKP

Ministerstwo Klimatu i Środowiska żądało od PKP wydzielenia ekskluzywnego miejsca dla minister Hennig-Kloski, podczas gdy ta będzie oczekiwać na pociąg – wynika z ustaleń Radia ZET.

Ogromny pożar w Gdańsku. Jest nagranie z lotu ptaka z ostatniej chwili
Ogromny pożar w Gdańsku. Jest nagranie z lotu ptaka

W dawnych Zakładach Naprawczych Taboru Kolejowego na gdańskiej Przeróbce wybuchł pożar. Przed przyjazdem służb z budynku ewakuowało się ok. 60 osób. Media społecznościowe obiegło dramatyczne nagranie, na którym widać skalę zdarzenia.

Nowe ostrzeżenie GIS. Chodzi o popularny produkt Wiadomości
Nowe ostrzeżenie GIS. Chodzi o popularny produkt

Główny Inspektorat Sanitarny wydał w środę ostrzeżenie dotyczące odżywki białkowej "Whey Protein". Doszło do ponownego wprowadzenia do obrotu wycofanej partii produktu, w której wcześniej wykryto obecność metalicznego ciała obcego.

Zaginął samorządowiec i muzyk disco polo. Policja prosi o pomoc z ostatniej chwili
Zaginął samorządowiec i muzyk disco polo. Policja prosi o pomoc

Policja apeluje do osób, które w ostatnim czasie mogły spotkać zaginionego samorządowca i muzyka disco polo z pow. zwoleńskiego (Mazowieckie). 38-letni Łukasz Wnuk wyszedł z domu w niedzielę po południu i do tej pory nie skontaktował się z rodziną. Dotychczasowe poszukiwania nie przyniosły rezultatu.

Trzaskowski: Mamy dwie płcie polityka
Trzaskowski: Mamy dwie płcie

– Ja jestem politykiem zdrowego rozsądku, a według polskiego prawa mamy dwie płcie biologiczne, wszyscy o tym wiemy – mówił na antenie Polsat News kandydat KO na prezydenta Rafał Trzaskowski. 

Nie mam z tym nic wspólnego!. Dramat Roberta Makłowicza Wiadomości
"Nie mam z tym nic wspólnego!". Dramat Roberta Makłowicza

Robert Makłowicz, znany krytyk kulinarny i podróżnik, padł ofiarą oszustów internetowych. W mediach społecznościowych pojawiły się fałszywe konta, które podszywają się pod niego, publikując treści bez jego wiedzy i zgody. Co gorsza, niektóre z nich poruszają tematy polityczne, co budzi szczególne zaniepokojenie.

Kolumbijczycy starli się w centrum Słupska. Nagranie obiegło sieć gorące
Kolumbijczycy starli się w centrum Słupska. Nagranie obiegło sieć

W centrum Słupska doszło do awantury, w której udział wzięło około 30 Kolumbijczyków. Policja apeluje do świadków zdarzenia.

Pożar hali w Gdańsku. Ewakuacja Wiadomości
Pożar hali w Gdańsku. Ewakuacja

W dawnych Zakładach Naprawczych Taboru Kolejowego na gdańskiej Przeróbce wybuchł pożar. Przed przyjazdem służb z budynku ewakuowało się ok. 60 osób.

Dziennikarz WP: Izabela Leszczyna kłamie Wiadomości
Dziennikarz WP: Izabela Leszczyna kłamie

"Bardzo smutne jest to, co robi Izabela Leszczyna. Czyli mówiąc wprost – kłamie, żeby wpadło parę lajków na Twitterku" – pisze w mediach społecznościowych dziennikarz Wirtualnej Polski Patryk Słowik.

Ekspert: jeszcze nigdy nikt tak nie upodlił polskiego wymiaru sprawiedliwości gorące
Ekspert: jeszcze nigdy nikt tak nie upodlił polskiego wymiaru sprawiedliwości

Dzień 3 lutego 2025 r. to data przełomowa w historii sądownictwa, jeszcze nigdy nikt tak nie upodlił polskiego wymiaru sprawiedliwości jak Komisja Kodyfikacyjna Prawa o Ustroju Sądów Powszechnych.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe