[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
 [Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski

 

POLECANE
Czarna seria wypadków na Śląsku. Wśród ofiar kobieta w ciąży i jej dziecko Wiadomości
Czarna seria wypadków na Śląsku. Wśród ofiar kobieta w ciąży i jej dziecko

Katowickie drogi stały się w sobotę 26 lipca miejscem tragicznych wydarzeń – w trzech poważnych wypadkach życie straciły cztery osoby. Wśród ofiar była kobieta w zaawansowanej ciąży, a mimo natychmiastowej pomocy i wysiłków lekarzy, nie udało się uratować także jej dziecka – poinformowała policja.

Trzaskowski: W tym roku Campus Polska Przyszłości się nie odbędzie z ostatniej chwili
Trzaskowski: W tym roku Campus Polska Przyszłości się nie odbędzie

Prezydent Warszawy Rafał Trzaskowski poinformował w niedzielę, że Campus Polska Przyszłości w 2025 r. się nie odbędzie.

Niepokojące informacje z Głuchołaz. Ulice znowu zalane, most zamknięty z ostatniej chwili
Niepokojące informacje z Głuchołaz. Ulice znowu zalane, most zamknięty

Most tymczasowy w Głuchołazach został zamknięty, w sieci krążą nagrania z zalanych ulic. - Tak państwo „zabezpieczyło” miasto niecały rok po powodzi - pisze na platformie X europoseł Michał Dworczyk.

Niemcy usiłują odesłać nielegalnych imigrantów do Grecji. Grecja odmawia ich przyjęcia pilne
Niemcy usiłują odesłać nielegalnych imigrantów do Grecji. Grecja odmawia ich przyjęcia

Tysiące uchodźców, którym przyznano już ochronę międzynarodową w Grecji, przyjechało w 2025 r. do Niemiec, gdzie ponownie składało wnioski o azyl - informuje grupa medialna Funke, powołując się na dane Federalnego Ministerstwa Spraw Wewnętrznych. Deportacje do Grecji napotykają na zdecydowany opór ze strony Aten.

Główny Inspektorat Sanitarny wydał pilny komunikat dla mieszkańców i turystów w woj. pomorskim i zachodniopomorskim z ostatniej chwili
Główny Inspektorat Sanitarny wydał pilny komunikat dla mieszkańców i turystów w woj. pomorskim i zachodniopomorskim

Zakwit sinic sprawił, że w niedzielę zamkniętych jest 11 kąpielisk w północnej Polsce. Takie dane opublikował Główny Inspektorat Sanitarny. Średnia temperatura wody w Bałtyku wynosi ok. 20 st. C.

Chcesz pozwać władzę przed sądem administracyjnym? Teraz będzie Cię to kosztowało o wiele więcej tylko u nas
Chcesz pozwać władzę przed sądem administracyjnym? Teraz będzie Cię to kosztowało o wiele więcej

Ledwo człowiek na chwilę wakacyjnie odwróci wzrok, zajmie się czymś pożytecznym, a już nasi urzędnicy, w swej niezmordowanej trosce o nasze dobro, wymyślą coś nowego.

Wbiegł na murawę podczas meczu. Aktywista Ostatniego Pokolenia chciał się przypiąć do bramki z ostatniej chwili
Wbiegł na murawę podczas meczu. Aktywista Ostatniego Pokolenia chciał się przypiąć do bramki

Podczas drugiej połowy spotkania Lechii Gdańsk z Lechem Poznań, zakończonego wynikiem 3:4, doszło do niecodziennego incydentu. W 66. minucie meczu na murawę wbiegł aktywista związany z ruchem "Ostatnie Pokolenie". Mężczyzna próbował przypiąć się do słupka jednej z bramek.

Niemcy opublikowali dane o przestępczości w szkołach. Zwrócili uwagę na cudzoziemców i ataki nożem Wiadomości
Niemcy opublikowali dane o przestępczości w szkołach. Zwrócili uwagę na cudzoziemców i ataki nożem

W 2024 roku aż 40 proc. osób podejrzanych o przemoc w niemieckich szkołach nie miało obywatelstwa Niemiec. Co istotne, osoby pochodzenia zagranicznego, które posiadają niemieckie paszporty – w tym również z podwójnym obywatelstwem – zostały zaklasyfikowane wyłącznie jako Niemcy. Informacje te zostały ujawnione w odpowiedzi na interpelację posła Alternatywy dla Niemiec (AfD), Martina Hessa.

Skandal. Znany vloger miał przeprowadzić wywiad ze Sławoszem Uznańskim-Wiśniewskim. Astronomia przegrała z polityką? gorące
Skandal. Znany vloger miał przeprowadzić wywiad ze Sławoszem Uznańskim-Wiśniewskim. Astronomia przegrała z polityką?

Znany vloger Karol Wójcicki prowadzący na YouTube popularnonaukowy kanał "Z głową w gwiazdach" miał przeprowadzić wywiad ze Sławoszem Uznańskim-Wiśniewskim, polskim kosmonautą, który wrócił niedawno ze swojej misji kosmicznej. Wywiad nie doszedł do skutku, a okoliczności sprawiają wrażenie dość skandalicznych.

W związku z niebezpieczną pogodą zwołano sztab kryzysowy. Ewakuowano obozy harcerskie pilne
W związku z niebezpieczną pogodą zwołano sztab kryzysowy. Ewakuowano obozy harcerskie

W związku ze zbliżającym się załamaniem pogody, Rządowe Centrum Bezpieczeństwa wysłało alerty do mieszkańców aż 12 województw. Min. Marcin Kierwiński zdecydował o zwołaniu sztabu kryzysowego w siedzibie Rządowego Centrum Bezpieczeństwa — poinformowało Ministerstwo Spraw Wewnętrznych i Administracji.

REKLAMA

[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
 [Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski


 

Polecane
Emerytury
Stażowe