Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.


 

POLECANE
Noworodek znaleziony w Oknie Życia w Kielcach Wiadomości
Noworodek znaleziony w Oknie Życia w Kielcach

W oknie życia przy placu Najświętszej Maryi Panny w Kielcach pozostawiono noworodka. Dziecko w poniedziałek rano odebrały siostry nazaretanki i wezwały pogotowie. Chłopiec został przewieziony do szpitala w stanie ciężkim, był m.in. wychłodzony.

Burza w Pałacu Buckingham: Słowa, których Windsorowie woleliby nie słyszeć Wiadomości
Burza w Pałacu Buckingham: Słowa, których Windsorowie woleliby nie słyszeć

Choć książka księcia Harry’ego Spare miała swoją premierę już w styczniu 2023 roku, emocje, które wywołała, wciąż nie opadły. Publikacja natychmiast stała się bestsellerem - w ciągu pierwszej doby sprzedano ponad 1,4 mln egzemplarzy w USA, Kanadzie i Wielkiej Brytanii.

Godzina policyjna po serii strzelanin we Francji z ostatniej chwili
Godzina policyjna po serii strzelanin we Francji

W mieście Nimes w południowo-zachodniej Francji wchodzi w poniedziałek w życie zakaz przebywania nocą na ulicy dla nastolatków w wieku poniżej 16 lat. Postanowienie jest tymczasowe i obowiązuje w kilku dzielnicach. Zostało wprowadzone po serii przestępstw związanych z handlem narkotykami.

Możliwa rezygnacja Tuska?  Politolog: Mówią o tym ludzie z koalicji. Oczywiście ci odważniejsi z ostatniej chwili
Możliwa rezygnacja Tuska? Politolog: "Mówią o tym ludzie z koalicji. Oczywiście ci odważniejsi"

To sprawa do poważnego rozważenia - tak politolog, socjolog dr Mateusz Zaremba ocenił pomysł zmiany na stanowisku premiera. Jak wskazał w Studiu PAP, uzasadnieniem dla rezygnacji Donalda Tuska z pełnionej funkcji byłyby m.in. sondaże zaufania, które nie sprzyjają obecnemu rządowi.

Didier Reynders pouczał Polaków ws. praworządności, teraz ma potężne kłopoty. Szok w Belgii Wiadomości
Didier Reynders pouczał Polaków ws. praworządności, teraz ma potężne kłopoty. Szok w Belgii

Belgijska opozycyjna partia Partia Socjalistyczna (PS) domaga się powołania komisji śledczej w związku z nowymi rewelacjami w śledztwie ws. zarzutów o pranie pieniędzy przez byłego komisarza europejskiego, Didiera Reyndersa. Był on również ministrem finansów i wicepremierem w belgijskim rządzie. 

Zawinił Tusk, ale Onet uderzył w prezydenta Dudę. Kancelaria Prezydenta demaskuje manipulację Wiadomości
Zawinił Tusk, ale Onet uderzył w prezydenta Dudę. Kancelaria Prezydenta demaskuje manipulację

Kancelaria Prezydenta opublikowała dokument, z którego wynika, że Onet dopuścił się manipulacji. Sprawa dotyczy mianowań na stanowisko asesorskie, które - jak wynika z artykułu Onetu - opóźnia kancelaria prezydenta Andrzeja Dudy. Tymczasem - jak się okazuje - prawda wygląda zupełnie inaczej.

Wjechał wprost pod nadjeżdżający pociąg. Pilny komunikat PKP z ostatniej chwili
"Wjechał wprost pod nadjeżdżający pociąg". Pilny komunikat PKP

PKP wydało komunikat z informacją o opóźnieniach w kursowaniu pociągów, do jakich doszło w wyniku kolizji auta i pociągu Skawiną a Radziszowem.

Polemika z listem pasterskim kard. Rysia ws. imigrantów: mamy do czynienia z ograniczaniem wolności słowa gorące
Polemika z listem pasterskim kard. Rysia ws. imigrantów: mamy do czynienia z ograniczaniem wolności słowa

Słowa kardynała Grzegorza Rysia zawarte w jego ostatnim liście pasterskim są alarmujące i nie możemy ich lekceważyć.

Czy Schnepf zostanie dodany do listy sprawców zbrodni? Instytut Pileckiego odpowiada z ostatniej chwili
Czy Schnepf zostanie dodany do listy sprawców zbrodni? Instytut Pileckiego odpowiada

Dyrektor Instytut Pileckiego odpowiadał na pytania dziennikarzy, dotyczące sprawy braku na liście osób biorących udział w obławie augustowskiej - Maksymiliana Schnepfa, ojca dyplomaty Ryszarda Schnepfa, który jest mężem dziennikarki TVP, Doroty Wysockiej-Schnepf. Odpowiedź dyrektora placówki była zaskakująca: - Będziemy dyskutować, będziemy przeglądać materiały, ale wydaje mi się, że dopiero wtedy, jak będziemy mieli komplet materiałów, to będziemy mogli coś powiedzieć - stwierdził.

Ekspert: systemowa bezkarność sędziów na konkretnym przykładzie tylko u nas
Ekspert: systemowa bezkarność sędziów na konkretnym przykładzie

W 1982 roku młody człowiek został tymczasowo aresztowany za próbę symbolicznego protestu przeciwko władzy PRL. Sędzia, który wydał decyzję o jego izolacji, nie tylko nie poniósł żadnych konsekwencji lecz po latach trafił do Sądu Najwyższego. Dziś, mimo prób pociągnięcia go do odpowiedzialności, nadal pozostaje bezkarny.

REKLAMA

Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe