ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
„Niech ucichną dzisiaj wszelkie spory”. Świąteczne życzenia Pary Prezydenckiej z ostatniej chwili
„Niech ucichną dzisiaj wszelkie spory”. Świąteczne życzenia Pary Prezydenckiej

Para Prezydencka skierowała do Polaków w kraju i za granicą życzenia świąteczne. W bożonarodzeniowym przesłaniu podkreślono znaczenie wspólnoty, tradycji oraz nadziei płynącej z Narodzenia Pańskiego. W komunikacie znalazły się także słowa wdzięczności dla osób pełniących służbę w święta.

Tragiczna Wigilia na Opolszczyźnie. Nie żyje sześć osób po wypadku na DK39 z ostatniej chwili
Tragiczna Wigilia na Opolszczyźnie. Nie żyje sześć osób po wypadku na DK39

Sześć osób zginęło w wypadku na drodze krajowej nr 39 w województwie opolskim w Wigilię o g. 6:30 rano. Po zderzeniu dwóch samochodów osobowych trasa została całkowicie zablokowana, a na miejscu pracują służby pod nadzorem prokuratury – poinformowała policja.

Ważny komunikat dla mieszkańców Warszawy z ostatniej chwili
Ważny komunikat dla mieszkańców Warszawy

W świąteczne dni zmienią się rozkłady komunikacji miejskiej. Zawieszone zostanie kursowanie kilkudziesięciu linii, a inne będą jeździć rzadziej.

Nie żyje Maciej Misztal. Kabareciarz miał tylko 43 lata z ostatniej chwili
Nie żyje Maciej Misztal. Kabareciarz miał tylko 43 lata

Maciej Misztal, współzałożyciel Kabaretu Trzeci Wymiar i wieloletni współpracownik OFPA w Rybniku, zmarł 22 grudnia 2025 r. po ciężkiej chorobie. Miał 43 lata.

Katastrofa samolotu w Turcji. Nie żyje szef sztabu armii Libii z ostatniej chwili
Katastrofa samolotu w Turcji. Nie żyje szef sztabu armii Libii

Służby dotarły do wraku samolotu, którym leciał szef sztabu armii Libii Mohammed Ali Ahmed Al-Haddad – przekazał minister spraw wewnętrznych Turcji Ali Yerlikaya. Wcześniej informowano, że z samolotem utracono kontakt radiowy.

Ogłoszenia o pracę muszą być neutralne płciowo. Minister: Mamy piękny, bogaty język z ostatniej chwili
Ogłoszenia o pracę muszą być neutralne płciowo. Minister: "Mamy piękny, bogaty język"

Minister rodziny, pracy i polityki społecznej Agnieszka Dziemianowicz-Bąk w TVP w likwidacji przekonywała, że w ogłoszeniach o pracę nie powinno się wskazywać płci. Zmiany wejdą w życie 24 grudnia 2025 r.

Nie żyje mężczyzna zaatakowany przez nożownika w Gdańsku z ostatniej chwili
Nie żyje mężczyzna zaatakowany przez nożownika w Gdańsku

Nie żyje mężczyzna, który w niedzielę w centrum Gdańska został zaatakowany przez 26-latka – poinformował serwis tvn24.pl.

Szokujące wieści z Włoch. Znany biathlonista znaleziony martwy podczas zgrupowania z ostatniej chwili
Szokujące wieści z Włoch. Znany biathlonista znaleziony martwy podczas zgrupowania

Sivert Guttorm Bakken, reprezentant Norwegii w biathlonowym Pucharze Świata, został we wtorek znaleziony martwy w hotelu we włoskim Lavaze – poinformowała norweska federacja biathlonu.

Leszek Czarnecki pozywa Telewizję Republika z ostatniej chwili
Leszek Czarnecki pozywa Telewizję Republika

Leszek Czarnecki pozywa Telewizję Republika. Chodzi o opublikowane przez stację w czerwcu tzw. "taśmy Giertycha". – Powodem tej sprawy jest to, że opublikowaliśmy jego rozmowę z Romanem Giertychem. Czyli nie to, że pokazaliśmy nieprawdę – stwierdził szef Telewizji Republika Tomasz Sakiewicz.

Łódzkie: Budynek zawalił się po wybuchu. Trwają poszukiwania z ostatniej chwili
Łódzkie: Budynek zawalił się po wybuchu. Trwają poszukiwania

Prawdopodobnie wybuch butli z gazem doprowadził do zawalenia się budynku w miejscowości Besiekierz Nawojowy w woj. łódzkim. Trwają poszukiwania jednej osoby, która w chwili katastrofy mogła przebywać w budynku.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane