Pierwsze pozwy przeciwko sztucznej inteligencji. W tle śmierć czterolatki
Sprawa śmierci dziewczynki jest w Japonii szczególnie głośna – to właśnie ten kraj chciał (i wciąż chce) być w zdecydowanej czołówce prac nad wprowadzeniem algorytmów SI do życia politycznego i społecznego w państwie. Japońska sztuczna inteligencja ma pomagać nie tylko urzędnikom zajmującym się japońską codziennością, ale docelowo również doradzać rządowi, szczególnie w niełatwych ze względu na japońską historię stosunkach międzynarodowych i gospodarczych. Problem w tym, że pierwsze wykorzystanie SI okazało się w Japonii prawdziwym falstartem – szczególnie bolesnym, bo dotyczącym dziecka, które w wyniku błędu SI zmarło.
Czterolatka została pobita na śmierć przez swoją matkę, która już od wielu lat była na celowniku służb socjalnych w Tsu, niewielkim miasteczku w prefekturze Mie na południowy wschód od Kioto.
Śmierć pod dyktando algorytmu
Urzędnicy, którzy mieli zdecydować, czy odebrać matce dziecko, czy zostawić córkę w domu, gdzie nieraz była już pobita, przekazali sprawę do oceny współpracującej z urzędem prefektury sztucznej inteligencji. Decyzja SI, a za nią decyzja urzędników gubernatora była prosta – dziecko powinno być dalej z matką. Kilka dni później dziewczynka nie żyła. Czy zawiniły algorytmy, na których urzędnicy opierali swoją ocenę sytuacji, czy to może kwestia zbyt wielkiego zaufania, jakim japońska biurokracja obdarzyła już komputery?
– Nie możemy teraz wyciągnąć wniosku, czy [sposób, w jaki system sztucznej inteligencji został wykorzystany do podjęcia decyzji] był w stu procentach odpowiedni – mówił po tragedii Katsuyuki Ichimi, gubernator Mie, wyjaśniając, że SI podjęła decyzję po analizie 13 tys. podobnych spraw z przeszłości. Odsetek aresztowań rodziców wyniósł w nich 39 proc., co więcej, matka obiecała, że będzie postępować zgodnie z wytycznymi personelu centrum konsultacyjnego dla dzieci.
– Liczby pokazane przez system sztucznej inteligencji to nic innego jak miara – przyznaje dzisiaj Katsuyuki Ichimi, dodając, że chciałby cofnąć czas, ale również, że system AI, który został w prefekturze wprowadzony za niemałe pieniądze, pozostanie i dalej będzie odgrywał istotną rolę przy podejmowaniu urzędowych decyzji. Jednak wcześniej decyzję urzędników i rolę, jaką miała w jej podejmowaniu sztuczna inteligencja, zbada komisja zewnętrznych ekspertów, która będzie miała możliwości przesłuchiwania urzędników oraz analizy skryptów, w oparciu o które działają japońskie algorytmy SI. Prefektura zaś niezwłocznie wprowadzi monitorowanie dzieci z podobnymi problemami przez ośrodki konsultacyjne – z wyłączeniem SI z udziału w kontrolach.
Chat i jego twórca pozwani w Ameryce
Szerokim echem odbił się w Stanach Zjednoczonych, ale także w Europie pracującej nad swoimi pionierskimi rozwiązaniami regulującymi współistnienie ludzi i SI, pozew złożony przed dwoje pisarzy – Kanadyjkę Monę Awad i Amerykanina Paula Tremblaya przeciwko spółce Open AI i jej dziecku znanemu w całym świecie pod nazwą ChatGPT.
Amerykanin i Kanadyjka dowodzą, że ChatGPT ukradł im prawa do książek, które napisali. W jaki sposób? Jak dowodzą w pozwie, książki ich autorstwa „zostały bezprawnie wchłonięte i wykorzystane do trenowania ChatGPT, ponieważ chatbot generuje bardzo dokładne streszczenia ich powieści”. Problem pozwu jest poważny, bo wskazuje przypadki całkiem masowej kradzieży „tekstów i pomysłów” wykorzystywanych również później do tworzenia własnych opowiadań, możliwych do znalezienia w internecie jako dzieła stworzone w całości przez SI.
Kilkunastu etyków i prawników z najlepszych amerykańskich uczelni już wskazuje na to, że sędzia rozstrzygający sprawę będzie miał do dyspozycji narzędzia, o których wcześniej czytano wyłącznie w powieściach fantastyczno-naukowych. Jakie? Jeżeli sąd uzna, że ChatGPT rzeczywiście zbyt wiele korzystał z twórczości pozywających go autorów, może uznać ów algorytm za narzędzie przestępstwa i nakazać… wyłączenie go. Pozostaje pytanie, który konkretnie algorytm zostanie wyłączony, bo cała sztuczna inteligencja działająca pod marką Open AI jest już dzisiaj systemem rozproszonym, znajdującym się na wielu komputerach i działającym raczej w oparciu o sieci neuronowe i głębokie uczenie się, co oznacza, że nie można wskazać konkretnego miejsca, gdzie ów algorytm rezyduje. Prawnicy Open AI podkreślają również, że dostępność treści książek i streszczeń dostarczanych przez ChatGPT może wynikać nie tyle z przywłaszczenia przez algorytm treści powieści, lecz choćby z dyskusji i cytatów dotyczących tych książek dostępnych już w internecie.
Pisarze nie odpuszczą
– Ze sztuczną inteligencją wkrótce stanie się to samo, co z muzyką cyfrową, telewizją i filmami i będzie musiała respektować prawa autorskie – twierdzą jednak prawnicy pisarzy, dodając, że „narzędzia tzw. sztucznej inteligencji opierają się na danych tworzonych przez ludzi”.
– Ich systemy całkowicie zależą od ludzkiej kreatywności. Jeśli doprowadzą do bankructwa ludzkich twórców, wkrótce doprowadzą do bankructwa samych siebie – przekonują.
Pierwsze posiedzenie sądu w tej sprawie odbędzie się jeszcze przed końcem lata.
Tekst pochodzi z 29 (1799) numeru „Tygodnika Solidarność”.