[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe [wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa


 

POLECANE
Symboliczne zdjęcie liderów Trójmorza zgromadzonych wokół Włóczni św. Maurycego i wizerunku Chrobrego z ostatniej chwili
Symboliczne zdjęcie liderów Trójmorza zgromadzonych wokół Włóczni św. Maurycego i wizerunku Chrobrego

We wtorek po południu na Zamku Królewskim w Warszawie rozpoczęło się spotkanie liderów państw Inicjatywy Trójmorza, podczas którego wykonano niezwykle symboliczną fotografię.

Nowa fala oszustw telefonicznych. Co zrobić, aby nie dać się nabrać? Wiadomości
Nowa fala oszustw telefonicznych. Co zrobić, aby nie dać się nabrać?

Coraz więcej Polaków otrzymuje połączenia z nieznanych, zagranicznych numerów – najczęściej z Wielkiej Brytanii, Hiszpanii i Portugalii. Choć na pierwszy rzut oka mogą wyglądać jak oferta pracy lub kontakt od znajomego, to w rzeczywistości mamy do czynienia z próbą oszustwa.

Ministerstwo Klimatu tworzy serwis do walki z... dezinformacją klimatyczną z ostatniej chwili
Ministerstwo Klimatu tworzy serwis do walki z... dezinformacją klimatyczną

Ministerstwo klimatu i środowiska tworzy serwis poświęcony walce z dezinformacją klimatyczną – poinformowała we wtorek minister Paulina Hennig-Kloska. Zjawisko dezinformacji klimatycznej było jednym z tematów nieformalnego spotkania ministrów środowiska i klimatu w Warszawie.

To OZE mogą stać za blackoutem w Hiszpanii i Portugalii tylko u nas
To OZE mogą stać za blackoutem w Hiszpanii i Portugalii

Od 12 godzin pod pełną parą pracuja hiszpańscy śledczy i analitycy rynku energii, aby ustalić, co było faktycznym powodem pierwszego tak dużego w Europie blackoutu. Wstępnie wykluczono atak terrorystyczny. Niemal na pewno nie był to sabotaż pracownika lub pracowników spółek energetycznych. Czy za problemem stoi miks energetyczny kraju Cervantesa? Liczby i eksperci sugerują, że to najbardziej prawdopodobne.

Rosja szykuje się do wojny nad Bałtykiem. To realny scenariusz tylko u nas
Rosja szykuje się do wojny nad Bałtykiem. To realny scenariusz

To nie strachy na Lachy, ale bardzo realny scenariusz. Wojnę z NATO – zapewne początkowo na jak najniższym poziomie eskalacji, by dać pretekst USA i „starej Europie” do wstrzymania się od pełnej odpowiedzi – Rosja rozpocznie nad Bałtykiem.

Ujawniono szczegóły zatrzymania księdza, który miał krytykować aborterkę z Oleśnicy z ostatniej chwili
Ujawniono szczegóły zatrzymania księdza, który miał krytykować aborterkę z Oleśnicy

W rozmowie z RatujŻycie.pl siostra zatrzymanego ks. Grzegorza opisała, w jaki sposób jej brat został zatrzymany przez służby w związku z mailem, jakiego wysłał do dr Gizeli Jagielskiej.

Karol Nawrocki: Zwierzchnik sił zbrojnych musi być stabilny emocjonalnie z ostatniej chwili
Karol Nawrocki: Zwierzchnik sił zbrojnych musi być stabilny emocjonalnie

Popierany przez PiS kandydat Karol Nawrocki stwierdził we wtorek w Nowej Dębie, że Polska potrzebuje zwierzchnika sił zbrojnych, "który będzie stabilny emocjonalnie i stabilny pod względem swoich poglądów". Wskazał, że chodzi o osobę, która m.in. zadba o nasz sojusz z USA i o pozycję Polski w NATO.

Bezpieczeństwo energetyczne Polski. Andrzej Duda zwoła Radę Bezpieczeństwa Narodowego z ostatniej chwili
Bezpieczeństwo energetyczne Polski. Andrzej Duda zwoła Radę Bezpieczeństwa Narodowego

Zwołanie Rady Bezpieczeństwa Narodowego ws. bezpieczeństwa energetycznego Polski zapowiedział prezydent Andrzej Duda po spotkaniu liderów Trójmorza. Jak powiedział, wydarzenia w Hiszpanii i Portugalii to "sygnał alarmowy", aby zadbać o stan sieci energetycznych regionu.

Dariusz Matecki wskazuje: Najbardziej obrzydliwy specjalista od kłamstw polityka
Dariusz Matecki wskazuje: "Najbardziej obrzydliwy specjalista od kłamstw"

"Najbardziej obrzydliwy specjalista od kłamstw wyborczych" – pisze na platformie X poseł PiS Dariusz Matecki o parlamentarzyście PO Sławomirze Nitrasie. W opublikowanym komentarzu Matecki opisał sytuację z 2006 roku, gdy Nitras był szefem sztabu wyborczego kandydata PO Piotr Krzystka na prezydenta Szczecina.

Niemcy w tarapatach. Tapinoma magnum sieją spustoszenie z ostatniej chwili
Niemcy w tarapatach. Tapinoma magnum sieją spustoszenie

Inwazyjne mrówki Tapinoma magnum niszczą infrastrukturę w Niemczech i powodują przerwy w prądzie – informuje Frankfurter Rundschau.

REKLAMA

[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe [wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa



 

Polecane
Emerytury
Stażowe