ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Rzecznik MSZ Iranu o czerwonych liniach. Chodzi o rozmowy z USA ws. programu nuklearnego Wiadomości
Rzecznik MSZ Iranu o "czerwonych liniach". Chodzi o rozmowy z USA ws. programu nuklearnego

Rzecznik irańskiego ministerstwa spraw zagranicznych Esmaeil Baghaei przypomniał o "czerwonych liniach" Teheranu w kwestii rozmów z USA ws. programu nuklearnego. Podkreślił, że negocjacje muszą odbywać się w "uzgodnionych wcześniej ramach".

Nawrocki przypomniał, jak głosował Trzaskowski. Czemu kazał pan to kobietom? z ostatniej chwili
Nawrocki przypomniał, jak głosował Trzaskowski. "Czemu kazał pan to kobietom?"

Podczas debaty "Super Expressu" Karol Nawrocki przypomniał Rafałowi Trzaskowskiemu, że głosował przeciwko ustawie, która obniżała wiek emerytalny dla kobiet. W odpowiedzi Trzaskowski wymieniał inicjatywy skierowane dla kobiet, realizowane podczas jego rządów w Warszawie.

Rafał Trzaskowski się zaplątał tylko u nas
Rafał Trzaskowski się zaplątał

"Najgorsze, co może być, to ten sam rząd, ten sam prezydent - z jednej partii, którzy tylko słuchają jednej osoby w trudnych czasach." Który polityk jest autorem tych słów?

Blackout w Europie. Hiszpański rząd zdecydował Wiadomości
Blackout w Europie. Hiszpański rząd zdecydował

– Stan wyjątkowy zostanie zastosowany w regionach, które o to poproszą – przekazało hiszpańskie ministerstwo spraw wewnętrznych. Decyzja rządu w Madrycie jest spowodowana ogromną awarią prądu, która dotknęła Hiszpanię i Portugalię.

Nowy sondaż prezydencki. Nawrocki ma powody do radości z ostatniej chwili
Nowy sondaż prezydencki. Nawrocki ma powody do radości

Najnowszy sondaż CBOS: Rafał Trzaskowski 31 proc. poparcia, Karol Nawrocki 27 proc., Sławomir Mentzen 16 proc. Frekwencja na poziomie 73 proc.

Ja nie będę tego słuchał. Trzaskowski opuścił mównicę po słowach Brauna z ostatniej chwili
"Ja nie będę tego słuchał". Trzaskowski opuścił mównicę po słowach Brauna

– To było powstanie w getcie. O czym pan opowiada? To są bohaterowie naszej historii! Ja tego nie będę słuchał – odpowiedział Grzegorzowi Braunowi kandydat KO Rafał Trzaskowski, po czym odszedł od pulpitu.

Podmieniono tablicę na pomniku UPA w Monasterzu. Jest decyzja konserwatora zabytków Wiadomości
Podmieniono tablicę na pomniku UPA w Monasterzu. Jest decyzja konserwatora zabytków

Przywrócenie do stanu pierwotnego pomnika żołnierzy UPA w Monasterzu (Podkarpackie) nakazał właścicielowi terenu - Nadleśnictwu Lubaczów - wojewódzki konserwator zabytków. Na zbiorowej mogile nielegalnie umieszczono dwie tablice. Jedna z nich trafi do policyjnego depozytu.

Debata prezydencka. Karol Nawrocki zapytany o powszechny pobór do wojska z ostatniej chwili
Debata prezydencka. Karol Nawrocki zapytany o powszechny pobór do wojska

Podczas debaty "Super Expressu" kandydat popierany przez PiS Karol Nawrocki oświadczył, że pobór do wojska powinien się odbywać na zasadzie dobrowolności i on nie chce tego zmieniać. Dodał, że należy przyspieszyć system rekrutacji do Wojska Polskiego.

Ekshumacje ofiar rzezi wołyńskiej. Według propozycji ukraińskiej z identyfikacji wypadłyby niemowlęta i dzieci Wiadomości
Ekshumacje ofiar rzezi wołyńskiej. "Według propozycji ukraińskiej z identyfikacji wypadłyby niemowlęta i dzieci"

W zeszły czwartek w dawnej wsi Puźniki na zachodzie Ukrainy rozpoczęły się ekshumacje ofiar rzezi wołyńskiej. Głos w tej sprawie zabrał były ambasador Polski w Kijowie Bartosz Cichocki.

Debata prezydencka. Stanowski nie odpuścił Trzaskowskiemu: Sprawdziłem pana wypowiedzi z ostatniej chwili
Debata prezydencka. Stanowski nie odpuścił Trzaskowskiemu: "Sprawdziłem pana wypowiedzi"

– Sprawdziłem pana wypowiedzi w Google. Nie ma żadnej pana wypowiedzi sprzed wyborów parlamentarnych, która zawiera "wojna hybrydowa". Wymyślił pan to hasło dopiero, gdy PO doszła do władzy i ten "zły PiS" przestał być odpowiedzialny za sytuację na granicy – mówił do Rafała Trzaskowskiego w debacie prezydenckiej "Super Expressu" twórca Kanału Zero Krzysztof Stanowski.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane
Emerytury
Stażowe