Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 


 

POLECANE
Afera KPO. Poseł KO stwierdziła, że pieniądze dostała połowa znajomych i rodziny z ostatniej chwili
Afera KPO. Poseł KO stwierdziła, że pieniądze dostała "połowa znajomych i rodziny"

Nie milkną echa afery ze środkami z Krajowego Planu Odbudowy. – Patrząc na region, w którym ja mieszkam, to połowa albo i większość moich znajomych, rodziny bliższej, dalszej, też dostała dofinansowania – stwierdziła poseł KO Katarzyna Królak.

Dokonałeś w domu drobnego remontu? Ruszyły kontrole, licz się z wysoką karą pilne
Dokonałeś w domu drobnego remontu? Ruszyły kontrole, licz się z wysoką karą

Wraz z początkiem sierpnia w całej Polsce ruszyła bezprecedensowa akcja kontrolna prowadzona przez Powiatowe Inspektoraty Nadzoru Budowlanego. Jak informuje „Wprost”, inspektorzy rozpoczęli intensywne sprawdzanie mieszkań pod kątem nielegalnych przeróbek, które mogą naruszać przepisy prawa budowlanego.

Komunikat dla mieszkańców Podkarpacia z ostatniej chwili
Komunikat dla mieszkańców Podkarpacia

W piątek w Krośnie podpisano umowę z wykonawcą robót budowlanych na rewitalizację linii 108 Jasło – Nowy Zagórz – informuje Samorząd Województwa Podkarpackiego.

Co wiceminister rządu Tuska obiecała ambasadorom UE ws. rodzin uciekających do Polski? gorące
Co wiceminister rządu Tuska obiecała ambasadorom UE ws. rodzin uciekających do Polski?

Wojewódzki Sąd Administracyjny w Warszawie, wyrokiem z 8 lipca 2025 r., uznał, że Ministerstwo Sprawiedliwości dopuściło się bezczynności w rozpatrzeniu wniosku Instytutu Ordo Iuris o udostepnienie informacji publicznej i zasądził na rzecz instytutu zwrot kosztów postępowania (597 zł). Wyrok zapadł na posiedzeniu niejawnym i dopiero w dniu 7 sierpnia został doręczony Instytutowi Ordo Iuris wraz z uzasadnieniem.

Afera KPO. Komisja Europejska domaga się wyjaśnień z ostatniej chwili
Afera KPO. Komisja Europejska domaga się wyjaśnień

Komisja Europejska wystosowała formalne wezwanie do polskich władz o szczegółowe wyjaśnienia dotyczące przyznawania funduszy z Krajowego Planu Odbudowy (KPO) dla branży gastronomicznej i hotelarskiej. W centrum uwagi znalazły się kontrowersyjne zakupy, m.in. mobilne ekspresy do kawy oraz jachty, które wzbudziły poważne wątpliwości.

Afera KPO. Dziennikarz TVP przekonuje: Nie ma żadnej nieprawidłowości z ostatniej chwili
Afera KPO. Dziennikarz TVP przekonuje: "Nie ma żadnej nieprawidłowości"

– Nie ma żadnej nieprawidłowości w tym, że właściciel solarium kupuje mobilne ekspresy do kawy po to, żeby zarabiać na sprzedaży kawy – przekonywał usilnie widzów TVP Info dziennikarz Piotr Maślak. Nagranie wywołało burzę w sieci.

Od soboty w Warszawie zamknięte główne drogi i mosty. Próba generalna przed wojskową defiladą z ostatniej chwili
Od soboty w Warszawie zamknięte główne drogi i mosty. Próba generalna przed wojskową defiladą

W związku z przygotowaniami do obchodów Święta Wojska Polskiego, na Wisłostradzie oraz pobliskich ulicach wprowadzona zostanie tymczasowa organizacja ruchu. Próba generalna defilady zaplanowana jest na niedzielę, 10 sierpnia, jednak pierwsze utrudnienia zaczną się już w sobotę.

Donald Trump zaprasza Karola Nawrockiego do Białego Domu. Podano termin z ostatniej chwili
Donald Trump zaprasza Karola Nawrockiego do Białego Domu. Podano termin

Donald Trump, prezydent USA, zaprosił Karola Nawrockiego na oficjalne spotkanie robocze w Białym Domu – poinformował Paweł Szefernaker, szef gabinetu prezydenta RP.

tylko u nas
Ryszard Czarnecki: MEGA integruje europejską prawicę

Podczas warszawskiej konferencji MEGA zagraniczni goście z czterdziestu krajów bardzo pozytywnie oceniali atmosferę inauguracji prezydentury Karola Nawrockiego i kondycję polskiego konserwatyzmu. Ryszard Czarnecki w rozmowie z Konradem Wernickim podkreśla, że Polska staje się punktem odniesienia dla prawicy w Europie i poza nią, a cykl MEGA może odegrać kluczową rolę w budowaniu międzynarodowej wspólnoty konserwatystów.

Klub swingersów z dotacją KPO. Właściciel: Premier mówi o kontrolach? Zapraszam Wiadomości
Klub swingersów z dotacją KPO. Właściciel: "Premier mówi o kontrolach? Zapraszam"

Burza wokół Krajowego Planu Odbudowy nabiera tempa. Internauci zaczęli analizować listę firm, które otrzymały unijne dotacje. Wśród beneficjentów znalazł się m.in. klub swingersów z Lublińca. Na zapowiedzi premiera Donalda Tuska, który mówi o kontroli każdej złotówki z KPO, właściciel odpowiada:„Premier mówi o kontrolach? Zapraszam”.

REKLAMA

Unia Europejska mówi "stop". Poważne zagrożenia związane z rozwojem sztucznej inteligencji

Od 1 sierpnia w Unii Europejskiej weszły regulacje – pierwsze w świecie – dotyczące sztucznej inteligencji i jej pozycji w kontaktach z ludźmi. Pracami nad unijnym prawem przyglądali się wszyscy prawodawcy świata, przede wszystkim Amerykanie, Japończycy i bardziej rozwinięte kraje arabskie. AI Act, jak nazywa się zbiór dokumentów i przepisów EU, w ciągu dwóch lat ma być implementowany w systemach prawnych krajów członkowskich, przy czym wdrożenie to musi się odbyć jeden do jednego. Unijni prawnicy nie pozostawili miejsca na interpretację przepisów.
AI Unia Europejska mówi
AI / Mike MacKenzie Flickr Creative Commons

Jednak, choć nowe prawo jest dobre, co przyznają wszyscy bez wyjątku prawnicy oceniający europejski AI Act, nie oznacza to, że znikną zagrożenia związane z SI. Chiny, Rosja i Korea Północna mają wobec nowej technologii zupełnie inne plany, co jest największą słabością europejskich rozwiązań. Sztuczna inteligencja z Kremla czy Pekinu może być przygotowana dokładnie na to, czego zachodni świat chce zabronić swojej SI. 

Oszukać rozmówcę

Choć sztuczna inteligencja wydaje się technologią towarzyszącą nam ledwie od kilku lat, jej początki, z którymi mogliśmy się zetknąć w codziennych aktywnościach, sięgają lat 90. XX wieku, kiedy triumfy w komunikacji święciły zalążki serwisów społecznościowych, czyli komunikatory pozwalające na prywatne lub publiczne prowadzenie rozmów. Najpopularniejszy wówczas Internet Relay Chat, czyli popularny IRC, był komunikatorem pozwalającym na zakładanie grup dla ludzi o podobnych zainteresowaniach, języku czy nawet pochodzeniu. Dzisiaj to codzienność, z której dzięki profesjonalnym narzędziom chętnie korzystamy w pracy lub organizując rodzinne spotkania online, jednak 30 lat temu rzeczywistość wyglądała zupełnie inaczej.

Serwery IRC wymagały ciągłego pilnowania, bo przejęcie ich i odebranie właścicielom było pierwszym zadaniem każdego uczącego się hakera. Programiści szybko nauczyli się pisać boty, a nawet całe sieci botów – specjalnych programów pilnujących poszczególnych kanałów, które potrafiły umiejętnie reagować na próbę przejęcia, a co bardziej społeczne potrafiły nawet prowadzić rozmowy z użytkownikami kanałów. I nie zawsze chodziło o udzielanie porad czy dawanie odpowiedzi na pytania natury technicznej. Duża część botów potrafiła odpowiadać na pytania w taki sposób, że przeciętny użytkownik przez kilka chwil miał wrażenie, że po drugiej stronie ekranu siedzi ktoś jak najbardziej żywy, czasem nawet interesujący jako... człowiek. 

Trzęsienie ziemi w Pałacu Buckingham: William wypowiedział wojnę Harry'emu

Czytaj także: Wielka Brytania: Polak odparł atak sześciu napastników chcących go okraść

Czytaj także: Kiedy na Ziemię powrócą astronauci, którzy uktnęli na orbicie? Jest komunikat NASA

Dzień dobry. Tu Anna, jestem twoim chatbotem

Dzisiaj tzw. chatboty są codziennością i nawet najlepiej napisane w niedługiej konwersacji dają się złapać na sztuczności. Choć – to rzecz, która jeszcze kilka lat temu wydawała się pomysłem rodem z powieści SF – potrafimy już budować chatboty, które rozmawiają przez telefon, nierzadko przyjemnym głosem odpowiadając na nasze pytania, a nawet wymyślając abstrakcyjne historie. Ludzkość poszła znacznie dalej, bo potrafimy powołać do „życia” programy posiadające twarz, głos, a nawet wiarygodnie udające emocje. Jeżeli do tych cech dołożymy dostęp do całej wiedzy w internecie, szybko odkryjemy, że z ekranu monitora patrzy na nas ktoś, kto wie o nas wszystko, a więc potrafi nami łatwo manipulować. Co więcej, odczytuje nasze emocje i zapamiętuje, co sprawia nam przyjemność, a co nas napawa lękiem.

Te zgromadzone na nasz temat dane to łakomy kąsek nie tylko dla firm zajmujących się personalizacją reklam, ale przede wszystkim służb i administracji – dla nich takie narzędzia jeszcze dekadę temu były Świętym Graalem, który dzisiaj znalazł się w ich rękach, pozwalając na bezprecedensową kontrolę jednostek, a nawet całych społeczeństw. Nowe unijne prawo miało w założeniach – i ma w obecnej postaci – zapobiegać takim nadużyciom. Czy będzie skuteczne? To pokażą najbliższe dwa lata, które rządy państw unijnych dostały na wprowadzenie ich do krajowych systemów prawnych. 

AI Act dzieli stosowaną w Europie sztuczną inteligencję na cztery kategorie – niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Pierwszą i drugą kategorię mają stanowić chatboty czy gry (oraz postaci w tych grach), które będą musiały spełniać dość ostre wymogi dotyczące przejrzystości. I nie chodzi wyłącznie o to, że użytkownik będzie zawsze wiedział, czy rozmawia z botem, czy może miał szczęście dodzwonić się do jak najbardziej żywego człowieka na infolinii. 

Zanim powiesz o sobie wszystko...

To również przygotowane przez SI wiadomości i serwisy informacyjne (coraz częściej odczytywane przez specjalnie napisane programy graficzne udające prezenterów), czy przygotowane przez SI umowy i regulaminy. W każdej z wymienionych kategorii konieczne będzie wyraźne zaznaczenie, że współpracuje z nami robot, oraz podanie informacji na temat tego, jakie o nas dane są zbierane oraz kto jest przechowuje i kto ma do nich dostęp. 

Podobne do RODO? Nie do końca, bo zakres danych, które już dzisiaj bezwiednie udostępniamy do analizy wykonywanej przez sztuczną inteligencję, jest zatrważający – wystarczy choćby sprawdzić, co w ramach zbadania jakości naszego snu rejestruje prosty smartwatch, czyli zegarek skomunikowany z telefonem komórkowym. Bo nad śledzeniem użytkownika nikt już się dzisiaj nie zastanawia. W końcu i tak wysyłamy pełną informację na ten temat, nosząc ze sobą telefony komórkowe.

Technologie wysokiego ryzyka to przede wszystkim systemy SI, które autonomicznie będą podejmowały decyzje dotyczące przyszłości konkretnego człowieka. Chodzi np. o systemy analizujące podania studentów o stypendia czy przyjęcie na studia lub porównujące CV podczas starania się o pracę. Takie rozwiązania będą dopuszczane na rynek UE pod warunkiem spełnienia surowych wymogów. I każde z narzędzi będzie oceniane pod kątem ryzyka jeszcze przed wprowadzeniem na unijny rynek. Decyzje podjęte przez AI nie będą ostateczne – zawsze i na każdym poziomie będzie je można zaskarżyć. 

Zakaz punktowania społecznego

Obszary SI wypełniające definicję niedopuszczalnego ryzyka to całość oprogramowania stanowiącego zagrożenia dla praw podstawowych użytkowników – w tym technologie monitorujące i szpiegujące ludzi czy wykorzystujące ich dane wrażliwe do przewidywania ich zachowań. Zabronione będzie też stosowanie tzw. systemu punktowania społecznego służącego do oceny obywateli na podstawie ich zachowań społecznych – podobne rozwiązanie znamy z książki i filmu „Raport mniejszości”, gdzie do więzienia trafiali ludzie, którzy dopiero mogli popełnić przestępstwo, a więc formalnie – niewinni.

Firmy, które nie będą przestrzegać unijnych przepisów o AI, będą musiały liczyć się z surowymi karami. Będzie to albo część rocznego globalnego obrotu firmy (do 7 proc.), albo odgórnie określona grzywna w zależności od tego, która kwota będzie wyższa. W przypadku naruszenia innych obowiązków – będzie to 3 proc. dochodu, zaś za podanie nieprawdziwych informacji – 1,5 proc. Małym i średnim przedsiębiorstwom oraz start-upom grozić będą raczej kary administracyjne. 

USA, Japonia oraz najbardziej rozwinięte kraje arabskie przy wprowadzaniu swoich rozwiązań prawnych będą wzorować się na unijnych zapisach. AI Act zwiększy bezpieczeństwo wykorzystania sztucznej inteligencji, nie zniweluje go jednak i już dziś wiadomo, że przepisy trzeba będzie na bieżąco uzupełniać i zmieniać.
 



 

Polecane
Emerytury
Stażowe