Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Kosiniak Kamysz: Nie widzę powodów do przeliczania wszystkich głosów z ostatniej chwili
Kosiniak Kamysz: "Nie widzę powodów do przeliczania wszystkich głosów"

Władysław Kosiniak-Kamysz nie kryje, że jest sceptyczny wobec pomysłów podważania wyników wyborów prezydenckich. Wicepremier podkreślił, że wynik głosowania jest jednoznaczny.

Najgorsi ministrowie w rządzie Tuska - na podium znane nazwiska. Sondaż z ostatniej chwili
Najgorsi ministrowie w rządzie Tuska - na podium znane nazwiska. Sondaż

Nowa minister edukacji okazała się najmniej popularnym członkiem gabinetu Donalda Tuska – tak wynika z najnowszego sondażu SW Research dla „Wprost”. I choć szefowa MEiN zaczęła swoją misję w 2023 r., już dziś wywołuje największe kontrowersje wśród ankietowanych.

Wiceminister odchodzi. Kolejna dymisja w rządzie Tuska pilne
Wiceminister odchodzi. Kolejna dymisja w rządzie Tuska

Nowo mianowany rzecznik rządu Adama Szłapka potwierdził nieoficjalne doniesienia. Wiceminister edukacji narodowej Joanna Mucha odchodzi z rządu.

Walka się toczy. Komunikat poznańskiego zoo Wiadomości
"Walka się toczy". Komunikat poznańskiego zoo

Poznański ogród chętnie dzieli się informacjami o swoich podopiecznych, licząc, że zainteresuje ich losem jak największą rzeszę ludzi, którym na sercu leży ich dobro.

Potężne spadki cen ropy po ataku USA na Iran Wiadomości
Potężne spadki cen ropy po ataku USA na Iran

Jak przewidywali analitycy, atak USA na irańskie obiekty nuklearne miał spowodować zwiększenie presji na ceny ropy naftowej. Ceny surowca poszły w górę już w poprzednich dniach, po ofensywie Izraela. Jak jest obecnie?

Tak wyglądała konferencja Siarhieja Cichanouskiego po uwolnieniu przez Łukaszenkę Wiadomości
Tak wyglądała konferencja Siarhieja Cichanouskiego po uwolnieniu przez Łukaszenkę

Siarhiej Cichanouski, białoruski opozycjonista, został uwolniony po pięciu latach więzienia. Podczas pierwszej konferencji prasowej doszło do wyjątkowo trudnej emocjonalnie sytuacji.

Tak pracownicy SN nazywają protesty wyborcze złożone według wzoru Giertycha z ostatniej chwili
Tak pracownicy SN nazywają protesty wyborcze złożone według wzoru Giertycha

W dzisiejszym programie Radia ZET gościem Bogdana Rymanowskiego była prezes Sądu Najwyższego, prof. Małgorzata Manowska. Rozmowa dotyczyła m.in. nadsyłanych tysiącami do SN protestów wyborczych.

Czekają nas ataki terrorystyczne w Europie? Iran wzywa do akcji imigrancki gang pilne
Czekają nas ataki terrorystyczne w Europie? Iran wzywa do akcji imigrancki gang

Szwedzkie służby bezpieczeństwa alarmują: Iran ma naciskać na jeden z najgroźniejszych gangów działających w Szwecji, by przeprowadzał zamachy terrorystyczne w Europie. Według informacji opublikowanych przez szwedzkie media, celem mają być obiekty związane z Izraelem oraz Stanami Zjednoczonymi.

Niepokojące informacje z granicy. Komunikat Straży Granicznej pilne
Niepokojące informacje z granicy. Komunikat Straży Granicznej

Straż Graniczna regularnie publikuje raporty dotyczące wydarzeń na granicy polsko-białoruskiej, która znajduje się pod naciskiem ataku hybrydowego.

Krwawy zamach w Damaszku. Terrorysta samobójca zaatakował w trakcie mszy pilne
Krwawy zamach w Damaszku. Terrorysta samobójca zaatakował w trakcie mszy

W niedzielę w chrześcijańskim kościele Mar Elias doszło do brutalnego ataku samobójczego, w którym zginęło co najmniej 20 osób, a 52 zostały ranne. Napastnik, powiązany z Państwem Islamskim, wtargnął do świątyni podczas mszy i otworzył ogień do zebranych, po czym wysadził się w powietrze.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe