Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Nie żyje Mieczysław Buczkowski, ps. Buk, wybitny lekarz i powstaniec warszawski Wiadomości
Nie żyje Mieczysław Buczkowski, ps. Buk, wybitny lekarz i powstaniec warszawski

W wieku 102 lat zmarł Mieczysław Buczkowski, wybitny lekarz i powstaniec warszawski używający pseudonimu Buk – podaje fundacja BohaterON .

Obywatelski projekt ustawy #TakDlaCPK odrzucony gorące
Obywatelski projekt ustawy #TakDlaCPK odrzucony

Sejmowa komisja infrastruktury odrzuciła w środę obywatelski projekt ustawy zobowiązującej rząd do realizacji Centralnego Portu Komunikacyjnego w wersji z pierwotnego programu wieloletniego CPK.

Zastępca Prokuratora Generalnego wszczął śledztwo ws. podejrzenia o zamach stanu pilne
Zastępca Prokuratora Generalnego wszczął śledztwo ws. podejrzenia o zamach stanu

Prokurator Michał Ostrowski wszczął śledztwo z zawiadomienia prezesa Trybunału Konstytucyjnego O tej decyzji powiadomił prokuratora generalnego Adama Bodnara – informuje serwis niezalezna.pl.

Argentyna wycofuje się z WHO. Jest decyzja Wiadomości
Argentyna wycofuje się z WHO. Jest decyzja

– Prezydent Argentyny Javier Milei wycofa ten kraj ze Światowej Organizacji Zdrowia (WHO) – poinformował w środę rzecznik prezydenta Manuel Adorni, tłumacząc to "głębokimi różnicami w sferze zarządzania opieką zdrowotną" oraz "wpływami politycznymi niektórych państw".

Znany sportowiec ogłosił radosną nowinę. Lawina komentarzy Wiadomości
Znany sportowiec ogłosił radosną nowinę. Lawina komentarzy

Jerzy Janowicz podzielił się z fanami wyjątkowym momentem w swoim życiu. 4 lutego tenisista poinformował o narodzinach córki, publikując na swoim profilu w mediach społecznościowych wzruszające zdjęcie ze szpitala.

Prezes TK oskarżył Donalda Tuska o zamach stanu. Jest zawiadomienie pilne
Prezes TK oskarżył Donalda Tuska o zamach stanu. Jest zawiadomienie

Prezes Trybunału Konstytucyjnego Bogdan Święczkowski złożył zawiadomienie o podejrzeniu popełnienia przestępstwa zamachu stanu przez m.in. Donalda Tuska. – To nie jest zamach stanu polegający na wyprowadzeniu wojska na ulice, jest to pełzający, ustrojowy zamach stanu – powiedział w oświadczeniu wygłoszonym w środę.

Rewolucja w Familiadzie. Kultowy element znika po 30 latach Wiadomości
Rewolucja w "Familiadzie". Kultowy element znika po 30 latach

"Familiada", jeden z najbardziej rozpoznawalnych teleturniejów w Polsce, przechodzi istotne zmiany. Po 30 latach emisji program czeka nowa odsłona - i to nie tylko pod względem wizualnym.

Specjalny salonik VIP na dworcu dla Hennig-Kloski. Konsternacja w PKP Wiadomości
Specjalny "salonik VIP" na dworcu dla Hennig-Kloski. Konsternacja w PKP

Ministerstwo Klimatu i Środowiska żądało od PKP wydzielenia ekskluzywnego miejsca dla minister Hennig-Kloski, podczas gdy ta będzie oczekiwać na pociąg – wynika z ustaleń Radia ZET.

Ogromny pożar w Gdańsku. Jest nagranie z lotu ptaka z ostatniej chwili
Ogromny pożar w Gdańsku. Jest nagranie z lotu ptaka

W dawnych Zakładach Naprawczych Taboru Kolejowego na gdańskiej Przeróbce wybuchł pożar. Przed przyjazdem służb z budynku ewakuowało się ok. 60 osób. Media społecznościowe obiegło dramatyczne nagranie, na którym widać skalę zdarzenia.

Nowe ostrzeżenie GIS. Chodzi o popularny produkt Wiadomości
Nowe ostrzeżenie GIS. Chodzi o popularny produkt

Główny Inspektorat Sanitarny wydał w środę ostrzeżenie dotyczące odżywki białkowej "Whey Protein". Doszło do ponownego wprowadzenia do obrotu wycofanej partii produktu, w której wcześniej wykryto obecność metalicznego ciała obcego.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe