[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
 [Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski

 

POLECANE
Blackout w Hiszpanii. Rząd podał przyczynę awarii dostawy prądu Wiadomości
Blackout w Hiszpanii. Rząd podał przyczynę awarii dostawy prądu

Hiszpański rząd podał we wtorek przyczynę kwietniowej awarii dostaw prądu. Minister ds. transformacji energetycznej Sara Aagesen wskazała na błędy techniczne.

Nieoficjalnie: Trump poważnie rozważa dołączenie do wojny przeciwko Iranowi z ostatniej chwili
Nieoficjalnie: Trump poważnie rozważa dołączenie do wojny przeciwko Iranowi

Prezydent USA Donald Trump poważnie rozważa włączenie USA do wojny i przeprowadzenie amerykańskiego ataku na irańskie obiekty nuklearne, przede wszystkim podziemne zakłady Fordo - podał we wtorek portal Axios, powołując się na źródła w amerykańskich władzach.

Prezydent Andrzej Duda zwołuje Radę Bezpieczeństwa Narodowego pilne
Prezydent Andrzej Duda zwołuje Radę Bezpieczeństwa Narodowego

W środę odbędzie się posiedzenie Rady Bezpieczeństwa Narodowego. Prezydent Andrzej Duda zaprosił też na spotkanie Karola Nawrockiego.

Ranking konkurencyjności gospodarek. Fatalny wynik Polski i spadek o 11 pozycji z ostatniej chwili
Ranking konkurencyjności gospodarek. Fatalny wynik Polski i spadek o 11 pozycji

Polska gospodarka odnotowała jeden z największych spadków w historii udziału w prestiżowym, szwajcarskim rankingu konkurencyjności IMD. Zajęliśmy dopiero 52. miejsce na 69 analizowanych państw, tracąc aż 11 pozycji względem ubiegłego roku. To najgorszy wynik od pięciu lat i sygnał, że polska gospodarka ma poważne problemy strukturalne.

Troje dziennikarzy „Tygodnika Solidarność” i portalu Tysol.pl z nagrodą i wyróżnieniami SDP! z ostatniej chwili
Troje dziennikarzy „Tygodnika Solidarność” i portalu Tysol.pl z nagrodą i wyróżnieniami SDP!

Dziennikarka portalu Tysol.pl oraz TV Republika Monika Rutke otrzymała nagrodę im. Stefana Żeromskiego za reportaż „Zakaz wstępu” opublikowany na portalu tysol.pl. Krzysztof Karnkowski oraz Marcin Krzeszowiec zostali wyróżnieni w konkursie SDP odpowiednio za opublikowane na łamach „Tygodnika Solidarność” teksty: „J. D. Vance. Z pasa rdzy na sam szczyt?” oraz „Stalowa agonia”. 

ABW przyjrzy się kampanii Trzaskowskiego? Jest komunikat PKW Wiadomości
ABW przyjrzy się kampanii Trzaskowskiego? Jest komunikat PKW

Rzecznik KBW Marcin Chmielnicki potwierdził, że PKW zwróciła się do ABW z prośbą o informacje ws. finansowania kampanii prezydenckiej Rafała Trzaskowskiego.

Trump zabiera głos ws. przywódcy Iranu. Na razie go nie zabijemy z ostatniej chwili
Trump zabiera głos ws. przywódcy Iranu. "Na razie go nie zabijemy"

Mamy całkowitą kontrolę nad irańską przestrzenią powietrzną - oświadczył we wtorek prezydent USA Donald Trump. Wiemy, gdzie ukrywa się polityczny i duchowy lider Iranu Ali Chamenei, ale na razie nie będziemy go zabijać - dodał.

Minister cyfryzacji zabrał głos ws. zakłóceń GPS w dronach Wiadomości
Minister cyfryzacji zabrał głos ws. zakłóceń GPS w dronach

Minister cyfryzacji Krzysztof Gawkowski odniósł się do doniesień dotyczących zakłóceń GPS na północy kraju, o których w ostatnim czasie informowali użytkownicy dronów.

Sąd wydał wyrok w sprawie Sławomira Cenckiewicza. Decyzja Tuska uchylona z ostatniej chwili
Sąd wydał wyrok w sprawie Sławomira Cenckiewicza. Decyzja Tuska uchylona

We wtorek Sławomir Cenckiewicz poinformował, że Wojewódzki Sąd Administracyjny w Warszawie uchylił decyzję premiera Donalda Tuska oraz Jarosława Stróżyka ze Służby Kontrwywiadu Wojskowego o cofnięciu mu poświadczeń bezpieczeństwa. 

Jest decyzja prokuratury ws. Zbigniewa Ziobry i Edwarda Siarki Wiadomości
Jest decyzja prokuratury ws. Zbigniewa Ziobry i Edwarda Siarki

Jak informuje RMF FM, prokuratura podjęła decyzję, że nie będzie rozpatrywać sprawy posła Zbigniewa Ziobry i Edwarda Siarki.

REKLAMA

[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
 [Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski


 

Polecane
Emerytury
Stażowe