Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Niemieckie medium, w którym publikowano instrukcję stosowania wobec PiS metod policyjnych na liście niemieckich służb gorące
Niemieckie medium, w którym publikowano "instrukcję" stosowania wobec PiS "metod policyjnych" na liście niemieckich służb

Bawarski Urząd Ochrony Konstytucji opublikował analizę rosyjskiej kampanii dezinformacyjnej nazywanej w dokumencie "DOPPELGÄNGER". Co ciekawe przewija się w niej nazwa medium, które publikowało artykuły Klausa Bachmanna, który wzywał do stosowania "metod policyjnych" wobec PiS i Andrzeja Dudy.

Czarna seria. Nie żyje następny żołnierz z ostatniej chwili
Czarna seria. Nie żyje następny żołnierz

Armię dotyka seria tragicznych wydarzeń. Tym razem o śmierci żołnierza poinformowała 18. Dywizja Zmechanizowana.

Adam Bodnar podziękował za przewrócenie państwa konstytucyjnego gorące
Adam Bodnar podziękował za "przewrócenie państwa konstytucyjnego"

Donald Tusk i Adam Bodnar odbyli wielogodzinne spotkanie z przedstawicielami ściśle wyselekcjonowanych i najbardziej upolitycznionych środowisk sędziowskich.

Niemieccy pracodawcy gorzej opłacają obcokrajowców tylko u nas
Niemieccy pracodawcy gorzej opłacają obcokrajowców

Niemiecki rząd przyznaje w publikacji Bundestagu, ze w Niemczech średnie miesięczne wynagrodzenie dla pracujących na pełen etat wynosi 3 945 euro dla Niemców i 3 034 euro dla obcokrajowców. Mediana wynagrodzeń obcokrajowców była zatem o 911 euro lub 23 procent niższa niż w przypadku Niemców.

Dramat nad jeziorem Ukiel w Olsztynie z ostatniej chwili
Dramat nad jeziorem Ukiel w Olsztynie

W sobotę na niestrzeżonej plaży nad jeziorem Ukiel w Olsztynie doszło do tragicznego wypadku. 36-letni mężczyzna stracił życie, próbując uratować swojego siedmioletniego syna, który wpadł do wody podczas zabawy na pontonie.

Nie żyje znany piłkarz z ostatniej chwili
Nie żyje znany piłkarz

Media obiegła informacja o śmierci byłego piłkarza reprezentacji Szkocji. Ron Yeats miał 86 lat.

Technicy działają. Potężna awaria na niemieckiej kolei z ostatniej chwili
"Technicy działają". Potężna awaria na niemieckiej kolei

W sobotę, 7 września doszło do poważnej awarii systemu łączności Deutsche Bahn, która sparaliżowała ruch kolejowy w środkowych Niemczech.

Nowa prognoza IMGW. Oto co nas czeka w najbliższych dniach z ostatniej chwili
Nowa prognoza IMGW. Oto co nas czeka w najbliższych dniach

Jak poinformował IMGW, Europa wschodnia, północna oraz częściowo centralna znajdują się w zasięgu słabnącego wyżu znad zachodniej Rosji, pozostała część kontynentu pod wpływem rozległego niżu z ośrodkiem nad Wielką Brytanią. Zachodnia i centralna Polska będzie w zasięgu zatoki niżu z ośrodkiem nad Wielką Brytanią, a wschodnie obszary kraju pozostaną na skraju wyżu z centrum nad zachodnią Rosją. Na przeważający obszar kraju z południa będzie napływać powietrze pochodzenia zwrotnikowego, jedynie wschód pozostanie w powietrzu polarnym, kontynentalnym.

Anna Lewandowska podzieliła się radosną wiadomością. W sieci lawina gratulacji z ostatniej chwili
Anna Lewandowska podzieliła się radosną wiadomością. W sieci lawina gratulacji

Anna Lewandowska podzieliła się w mediach społecznościowych radosną wiadomością.

Kiedy się Pan dowiedział? Niemcy budują swoje CPK. Jest interpelacja do Tuska z ostatniej chwili
"Kiedy się Pan dowiedział?" Niemcy budują swoje CPK. Jest interpelacja do Tuska

Lufthansa w niedawnym komunikacie prasowym informowała, że firma ma planach poczynić wielką wartą 600 milionów euro inwestycję. Chodzi o gruntowną modernizację hubu cargo na lotnisku we Frankfurcie. Wszystko miałoby odbyć się do 2030 roku. W związku z tymi ambitnymi planami poseł PiS Sebastian Łukaszewicz zwrócił się do Premiera Donalda Tuska z interpelacją w której zawarł 4 ważne pytania.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe