Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.


 

POLECANE
Tragiczny wypadek na granicy z Niemcami. Nie żyje Polak z ostatniej chwili
Tragiczny wypadek na granicy z Niemcami. Nie żyje Polak

Na polsko-niemieckim przejściu granicznym w Jędrzychowicach doszło do śmiertelnego wypadku. Po niemieckiej stronie zderzyły się trzy auta. Zginął obywatel Polski kierujący toyotą. Dwie osoby zostały ranne – informuje RMF FM.

Belgia albo Węgry. Zbigniew Ziobro ma propozycję dla prokuratury z ostatniej chwili
Belgia albo Węgry. Zbigniew Ziobro ma propozycję dla prokuratury

Pełnomocnik Zbigniewa Ziobry mec. Bartosz Lewandowski potwierdził, że Ziobro zaproponował Prokuraturze Krajowej przesłuchanie go w Brukseli lub na Węgrzech oraz zadeklarował, że stawi się na nim, by usłyszeć zarzuty.

Będzie wniosek o referendum? Znamienne słowa prezydenta z ostatniej chwili
Będzie wniosek o referendum? Znamienne słowa prezydenta

– Nowa konstytucja będzie próbą usystematyzowania tego, co dzieje się w Polsce – podkreślił prezydent Karol Nawrocki, pytany w wywiadzie o prace nad nową ustawą zasadniczą. Dodał, że jeśli "proces destabilizacji państwa" nie zatrzyma się – wniesie o referendum.

Kto z PiS byłby najlepszym premierem? Jest sondaż z ostatniej chwili
Kto z PiS byłby najlepszym premierem? Jest sondaż

Kto miałby stanąć na czele przyszłego rządu, gdyby partia Jarosława Kaczyńskiego znów doszła do władzy? Pracownia United Surveys na zlecenie Wirtualnej Polski postanowiła zapytać o to Polaków.

Wielka afera korupcyjna w otoczeniu Zełenskiego. Przyjaciel prezydenta Ukrainy uciekł z kraju tylko u nas
Wielka afera korupcyjna w otoczeniu Zełenskiego. Przyjaciel prezydenta Ukrainy uciekł z kraju

Nad Dnieprem wybuchła wielka afera korupcyjna, w której podejrzanymi są ludzie bliscy prezydentowi. Zapewne chodzące na podporządkowane prezydentowi SBU i DBR („ukraińskie FBI”) dużo wcześniej dowiedziały się o operacji NABU i SAP, co może wskazywać na przyczyny niedawnej próby zniszczenia przez Zełenskiego niezależności kluczowych organów antykorupcyjnych Ukrainy.

Międzynarodowy Komitet Olimpijski rozważa zakaz startów mężczyzn w kobiecych dyscyplinach z ostatniej chwili
Międzynarodowy Komitet Olimpijski rozważa zakaz startów mężczyzn w kobiecych dyscyplinach

Międzynarodowy Komitet Olimpijski rozważa zmianę polityki wobec udziału osób transpłciowych w kobiecych dyscyplinach – informuje Według brytyjski Daily Mail.

Cztery prawnicze głosy na zespole do spraw przeciwdziałaniu bezprawiu tylko u nas
Cztery prawnicze głosy na zespole do spraw przeciwdziałaniu bezprawiu

Sąd Apelacyjny w Poznaniu uchylił wyrok pedofilowi, bo orzekał "neosędzia". Bulwersujący wyrok był powodem zwołania parlamentarnego zespołu ds. przeciwdziałania bezprawiu w Sejmie. W obradach wzięli udział Rzecznik Dyscyplinarny Sędziów Sądów Powszechnych sędzia Piotr Schab, sędzia Kamila Borszowska-Moszowska, prokurator Andrzej Golec prezes Stowarzyszenia Prokuratorów Ad Vocem i dr Oskar Kida.

Marsz Niepodległości 2025 z lotu ptaka. Mamy nagranie z ostatniej chwili
Marsz Niepodległości 2025 z "lotu ptaka". Mamy nagranie

Mamy nagranie przedstawiające tysiące uczestników Marszu Niepodległości na rondzie Dmowskiego w Warszawie, tuż przed rozpoczęciem pochodu.

Polska będzie zwolniona z paktu migracyjnego? KE twierdzi, że to możliwe z ostatniej chwili
Polska będzie zwolniona z paktu migracyjnego? KE twierdzi, że to możliwe

Komisja Europejska poinformowała, że sześć państw UE, w tym Polska, może ubiegać się o zwolnienie z relokacji migrantów.

Incydent w Warszawie. Na lewicowej manifestacji z ostatniej chwili
Incydent w Warszawie. Na lewicowej manifestacji

Jeden z uczestników zgromadzenia zorganizowanego przez środowiska lewicowe rzucił racę na schody konsulatu Stanów Zjednoczonych.

REKLAMA

Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe