Niepokojące. Sztuczna inteligencja podczas testów chciała "zabić" swojego operatora
Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.
"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".
Badacze zmienili więc sposób uczenia systemu.
"Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.
Departament Sił Powietrznych Stanów Zjednoczonych zaprzecza
Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała.