ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Pożar w Ząbkach: 500 osób bez dachu nad głową. Na miejscu ekipa kryminalistyczna z ostatniej chwili
Pożar w Ząbkach: 500 osób bez dachu nad głową. Na miejscu ekipa kryminalistyczna

Przez całą noc trwała akcja gaśnicza budynków przy ul. Powstańców w podwarszawskich Ząbkach. W wyniku ogromnego pożaru 500 osób straciło dach nad głową, zniszczonych lub uszkodzonych zostało ok. 200 mieszkań. Na godzinę 8 w piątek zapowiedziano zebranie zespołu zarządzania kryzysowego. Na miejscu jest ekipa techników kryminalistycznych policji, zabezpieczająca ślady niezbędne do ustalenia przyczyn pożaru.

Geje uznali się za lesbijki i zgarnęli kobietom nagrody sprzed nosa tylko u nas
Geje uznali się za lesbijki i zgarnęli kobietom nagrody sprzed nosa

Kolejny raz kilku transseksualistów zabrało kobietom sportowe nagrody przeznaczone dla zawodniczek, które kobietami się urodziły, a nie tylko mianowały. Kto jednak transseksualiście zabroni, skoro każdy z nas może sobie dzisiaj dowolnie wybrać swoją prawdziwą rzekomo tożsamość?

Kongres USA przyjął wielką piękną ustawę Donalda Trumpa z ostatniej chwili
Kongres USA przyjął "wielką piękną ustawę" Donalda Trumpa

Izba Reprezentantów USA przyjęła ustawę "One Big Beautiful Bill Act" zapowiadaną przez prezydenta Donalda Trumpa, łączącą cięcia podatków, redukcje socjalne i większe środki na deportacje.

Ogromny pożar bloku mieszkalnego w Ząbkach z ostatniej chwili
Ogromny pożar bloku mieszkalnego w Ząbkach

Około 20 zastępów straży pożarnej walczy z pożarem budynku wielorodzinnego przy ulicy Powstańców 62 w podwarszawskich Ząbkach.

Qczaj dopiero co zrobił prawo jazdy: Mam BMW M2, to samochód dla wariatów gorące
Qczaj dopiero co zrobił prawo jazdy: "Mam BMW M2, to samochód dla wariatów"

Trener podkreśla, że decyzja o zrobieniu prawa jazdy była jedną z najlepszych w jego życiu. Teraz, kiedy odpowiedni dokument ma już w kieszeni, z ogromną przyjemnością wsiada za kierownicę i mknie przed siebie. Najbardziej lubi drogi szybkiego ruchu, bo tam może mocniej wcisnąć pedał gazu.

Straż Graniczna miała odesłać migranta do Niemiec pod presją mieszkańców Gubina z ostatniej chwili
Straż Graniczna miała odesłać migranta do Niemiec pod presją mieszkańców Gubina

Próba nielegalnego przekazania migranta na polską stronę granicy wywołała w czwartek nerwową interwencję mieszkańców Gubina – informuje Robert Bąkiewicz z Ruchu Obrony Granic.

Grafzero: Zew Zajdla 2024 z ostatniej chwili
Grafzero: Zew Zajdla 2024

Nadszedł czas na Nagrody Fandomu Polskiego, czyli popularne Zajdle! W 2025 roku nieco wcześniej, bo Polcon ma miejsce w lipcu, ale równie ciekawie. Sześć powieści i cztery opowiadania - Grafzero vlog literacki podaje swoje typy!

PGNiG wydało pilny komunikat dla klientów z ostatniej chwili
PGNiG wydało pilny komunikat dla klientów

Uwaga na fałszywych przedstawicieli PGNiG Obrót Detaliczny i Grupy Orlen. Sprawdź, jak się chronić przed oszustami podszywającymi się pod pracowników.

Nie żyje gwiazda filmów Quentina Tarantino z ostatniej chwili
Nie żyje gwiazda filmów Quentina Tarantino

W czwartek w wieku 67 lat po prawdopodobnym zawale serca zmarł Michael Madsen, gwiazda "Wściekłych psów" i "Kill Billa".

Przewodniczący Wojewódzkiej Rady Bezpieczeństwa Ruchu Drogowego piratem drogowym tylko u nas
Przewodniczący Wojewódzkiej Rady Bezpieczeństwa Ruchu Drogowego piratem drogowym

W Polsce, proszę Państwa, logika od dawna prosiła o azyl polityczny, ale ostatnio chyba wyemigrowała na stałe, i to bez prawa powrotu. Bo jak inaczej skomentować fakt, który nawet dla mnie, człowieka przywykłego do absurdów postkomunizmu, jest niczym diament w koronie groteski?

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane
Emerytury
Stażowe