Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Skandal w Polsacie: Witalij Mazurenko przeprasza z ostatniej chwili
Skandal w Polsacie: Witalij Mazurenko przeprasza

W programie „Debata Gozdyry” na antenie Polsat News padła skandaliczna wypowiedź. Ukraiński dziennikarz z polskim obywatelstwem Witalij Mazurenko w obraźliwy sposób wyraził się o Prezydencie RP Karolu Nawrockim.

Skandal w Polsacie. Ukraiński dziennikarz obraźliwie nt. prezydenta Nawrockiego [WIDEO] z ostatniej chwili
Skandal w Polsacie. Ukraiński dziennikarz obraźliwie nt. prezydenta Nawrockiego [WIDEO]

W programie „Debata Gozdyry” na antenie Polsat News padła skandaliczna wypowiedź. Ukraiński dziennikarz Witalij Mazurenko w obraźliwy sposób odniósł się do decyzji prezydenta Karola Nawrockiego. Prowadząca program Agnieszka Gozdyra stanowczo zareagowała, oceniając jego słowa jako przekroczenie granicy. Mimo wielu szans, Mazurenko nie zdecydował się na przeprosiny ani wycofanie słów skierowanych w stronę Prezydenta RP.

Upadek Europy zaczął się wraz z powstaniem Niemiec gorące
Upadek Europy zaczął się wraz z powstaniem Niemiec

Mechanizm tego upadku jest długofalowy i strukturalny. Niemcy nigdy nie stworzyły prawdziwego imperium zamorskiego. Zamiast uczynić świat kolonią Europy, Niemcy uczyniły kolonią samą Europę.

„Sueddeutsche Zeitung”: Izrael celowo zabija dziennikarzy w Strefie Gazy z ostatniej chwili
„Sueddeutsche Zeitung”: Izrael celowo zabija dziennikarzy w Strefie Gazy

Dziennikarze w Strefie Gazie są zabijani przez Izrael, by świat nie zobaczył rozgrywającego się tam horroru - pisze we wtorek „Sueddeutsche Zeitung”. Niemiecki dziennik ocenia, że rząd Benjamina Netanjahu „prowadzi z nimi wojnę” i celowo pozbawia życia.

Zastępca Hanny Radziejowskiej w Instytucie Pileckiego zwolniony. Jest oświadczenie z ostatniej chwili
Zastępca Hanny Radziejowskiej w Instytucie Pileckiego zwolniony. Jest oświadczenie

"Dziś dowiedzieliśmy się, że mój zastępca, Mateusz Fałkowski został dyscyplinarnie zwolniony z Instytutu Pileckiego" – pisze w mediach społecznościowych sygnalistka Hanna Radziejowska, była kierownik berlińskiego oddziału Instytutu Pileckiego.

Stać was jedynie na tanie manipulacje. Spięcie Andruszkiewicza z Sikorskim na X z ostatniej chwili
"Stać was jedynie na tanie manipulacje". Spięcie Andruszkiewicza z Sikorskim na X

W sieci doszło do gorącej wymiany zdań między wiceszefem Kancelarii Prezydenta RP Adamem Andruszkiewiczem, a ministrem spraw zagranicznych Radosławem Sikorskim. Poszło o decyzję prezydenta Karola Nawrockiego, który zawetował ustawę o pomocy obywatelom Ukrainy.

Brawurowe zwycięstwo Igi Świątek w 1. rundzie wielkoszlemowego US Open z ostatniej chwili
Brawurowe zwycięstwo Igi Świątek w 1. rundzie wielkoszlemowego US Open

Iga Świątek awansowała do drugiej rundy wielkoszlemowego turnieju US Open w Nowym Jorku. Rozstawiona z numerem drugim polska tenisistka wygrała we wtorek z Kolumbijką Emilianą Arango 6:1, 6:2. Spotkanie trwało równo godzinę.

Czy Tusk przybędzie na Radę Gabinetową? Rzecznik rządu odpowiada z ostatniej chwili
Czy Tusk przybędzie na Radę Gabinetową? Rzecznik rządu odpowiada

Rzecznik rządu Adam Szłapka przekazał, że premier Donald Tusk weźmie udział w środę w zwołanej przez prezydenta Karola Nawrockiego Radzie Gabinetowej. Jak dodał, premier zabierze głos w pierwszej części spotkania, otwartej dla mediów.

Komunikat dla mieszkańców Wrocławia z ostatniej chwili
Komunikat dla mieszkańców Wrocławia

Wrocław planuje rozbudowę infrastruktury komunikacyjnej na południowo-wschodnich obrzeżach miasta. Istniejąca obecnie linia tramwajowa zakończona na pętli Księże Małe zostanie wydłużona o 2,3 km – aż do granicy administracyjnej miasta.

Walka o życie konia. Zwierzę wpadło do studni Wiadomości
Walka o życie konia. Zwierzę wpadło do studni

Do nietypowej akcji straży pożarnej doszło w miejscowości Szuminka (woj. lubelskie). Strażacy przez wiele godzin walczyli o życie konia, który wpadł do studni. 

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe