ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Zgwałcił dziecko i oskarżył je o transfobię tylko u nas
Zgwałcił dziecko i oskarżył je o "transfobię"

W ostatnich dniach Wielka Brytania została wstrząśnięta zbrodniami Jamesa Bubba, byłego policjanta z Metropolitan Police, który po dokonaniu serii brutalnych przestępstw ogłosił się “osobą transseksualną”.

Poseł Dariusz Matecki odpowiada Małgorzacie Chmielewskiej z ostatniej chwili
Poseł Dariusz Matecki odpowiada Małgorzacie Chmielewskiej

W związku z listem otwartym Małgorzaty Chmielewskiej, kierowanym do Prezydenta RP, Marszałka Sejmu oraz posłów – w tym także do mnie – przedstawiam swoją publiczną odpowiedź. Uważam za konieczne sprostowanie manipulacji, jakimi posługują się media określając Panią Chmielewską mianem „siostry zakonnej”, choć nią nie jest – pisze poseł Dariusz Matecki.

Katastrofa lotnicza w Radomiu. Rozbił się polski F-16 z ostatniej chwili
Katastrofa lotnicza w Radomiu. Rozbił się polski F-16

Dramatyczne wydarzenia w Radomiu. Podczas czwartkowych prób do Międzynarodowych Pokazów Lotniczych Air Show 2025 rozbił się polski samolot F-16. Wiadomo już oficjalnie, że pilotowi nie udało się katapultować; zginął na miejscu.

Wyłączenia prądu. Ważny komunikat dla mieszkańców woj. wielkopolskiego z ostatniej chwili
Wyłączenia prądu. Ważny komunikat dla mieszkańców woj. wielkopolskiego

Mieszkańcy województwa wielkopolskiego muszą przygotować się na planowane wyłączenia prądu. Enea Operator poinformowała, że prace modernizacyjne sieci obejmą wiele miejscowości; publikujemy harmonogram wyłączeń od piątku 29 sierpnia do niedzieli 31 sierpnia.

Belweder: Trwa spotkanie prezydenta Karola Nawrockiego z przywódcami państw regionu z ostatniej chwili
Belweder: Trwa spotkanie prezydenta Karola Nawrockiego z przywódcami państw regionu

W Belwederze w czwartek po południu rozpoczęło się spotkanie prezydenta Karola Nawrockiego z przywódcami Litwy, Łotwy, Estonii i Danii. W drugiej części narady dołączy, w formie wideorozmowy, prezydent Ukrainy Wołodymyr Zełenski. Ma to być wstęp konsultacji przed wizytą Nawrockiego w Waszyngtonie.

Jarosław Kaczyński uderza w Sławomira Mentzena. „To niegodne” z ostatniej chwili
Jarosław Kaczyński uderza w Sławomira Mentzena. „To niegodne”

– Niegodnym moralnie jest, gdy powstaje grupa o gigantycznych dochodach, a inni żyją w biedzie; my takiej Polski nie chcemy, to Sławomir Mentzen takiej Polski chce – powiedział w czwartek w Białymstoku prezes PiS, Jarosław Kaczyński.

Skandaliczne oświadczenie wiceszefa ukraińskiego MSZ. Będzie reakcja Sikorskiego? z ostatniej chwili
Skandaliczne oświadczenie wiceszefa ukraińskiego MSZ. Będzie reakcja Sikorskiego?

Zastępca Ministra Spraw Zagranicznych Ukrainy Oleksandr Miszczenko najwyraźniej ma problemy z wdzięcznością za polską pomoc udzieloną walczącej z Rosją Ukrainie. Wydał oświadczenie, w którym zarzuca polskim siłom politycznym podsycanie antyukraińskich nastrojów. Jednocześnie fałszuje historię mówiąc o rzekomym „polsko-ukraińskim konflikcie” i deprecjonując Genocidum Atrox, jakim była Rzeź Wołyńska.

Starosta gliwicki z Koalicji Obywatelskiej odwołany z ostatniej chwili
Starosta gliwicki z Koalicji Obywatelskiej odwołany

W powiecie gliwickim doszło do potężnego politycznego tąpnięcia. Radni zdecydowali o odwołaniu starosty i całego zarządu powiatu, którym kierowała Koalicja Obywatelska wraz z lokalnym klubem SGL. Oznacza to, że KO straciła władzę w powiecie.

Ważny komunikat dla mieszkańców Warszawy z ostatniej chwili
Ważny komunikat dla mieszkańców Warszawy

W najbliższych dniach warszawscy kierowcy i pasażerowie komunikacji miejskiej muszą liczyć się z utrudnieniami. Wszystko przez ostatnie prace związane z budową trasy tramwajowej do Wilanowa i wymianą nawierzchni na kilku stołecznych ulicach.

Rząd przyjął projekt budżetu na przyszły rok z ostatniej chwili
Rząd przyjął projekt budżetu na przyszły rok

W czwartek rząd przyjął projekt ustawy budżetowej na 2026 rok. Prognozowane dochody na 2026 r. wyniosą 647 mld zł, a wydatki około 918,9 mld zł. Deficyt budżetu państwa wyniesie 271,7 mld zł, co stanowi 6,5 proc. PKB.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane
Emerytury
Stażowe