De acordo com um relatório das Nações Unidas que acaba de ser tornado público, drones militares atacaram humanos de forma totalmente autônoma no ano passado.
A primeira vez que tal operação foi relatada. Uma aplicação tecnológica que até agora só podíamos imaginar ou ver em obras de ficção científica …
O incidente, que envolveu um quadricóptero Kargu-2 produzido pela STM (empresa turca) equipado com uma carga explosiva, ocorreu na Líbia.
A máquina pode ser pilotada manualmente, mas em modo autônomo, suas câmeras de bordo equipadas com inteligência artificial permitem encontrar e identificar alvos.
Ele pode então atacar movendo-se em direção ao alvo antes de ativar o explosivo.
A STM afirma que o robô possui um sofisticado sistema de reconhecimento de objetos e faces. No entanto, a empresa não respondeu aos pedidos de comentários.
Embora os detalhes completos do incidente não tenham sido divulgados e não se saiba se houve vítimas, o evento sugere que os esforços internacionais para banir as armas autônomas letais antes que elas não sejam usadas já podem chegar tarde demais.
Rastreado e atacado por drones autônomos de “homens-bomba”
As informações sobre esse possível ataque estão disponíveis em um relatório do grupo de especialistas do Conselho de Segurança das Nações Unidas sobre a Líbia, publicado em março de 2021.
Ele descreve em detalhes um conflito de guerra civil ocorrido em março de 2020 entre as forças aliadas na Líbia. Governo da Líbia (GNA) , que já foi dissolvido, e os afiliados a Khalifa Haftar, comandante do Exército Nacional da Líbia.
O relatório afirma que as forças em retirada de Haftar foram “perseguidas” por drones Kargu-2 autônomos, que foram “muito eficazes”.
“Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir uma conexão de dados entre o operador e a arma:
Em outras palavras, os drones foram capazes de pesquisar e atacar alvos sem um ser humano por perto.
Uma tecnologia frágil e muito jovem
Kallenborn expressou preocupação sobre a dependência do drone Kargu-2 na visão de máquina. “ Quão frágil é o sistema de reconhecimento de objetos? E com que frequência ele identifica os alvos incorretamente?
Embora não haja informações públicas sobre a IA do drone, os pesquisadores descobriram anteriormente que os algoritmos gerais de visão de máquina podem ser enganados, e até com bastante facilidade, dependendo das circunstâncias.
Jack Watling, do Royal United Services Institute, um think tank de defesa britânico, se pergunta se os drones Kargu-2 estavam realmente em modo autônomo, pois apenas seus operadores teriam certeza.
Isso destaca um problema de restrições legais: ao contrário de armas químicas ou minas terrestres, as armas autônomas não podem ser facilmente distinguidas das armas controladas por um operador.
Vídeo de demonstração de um ataque de drone KARGU, com ejeção de projétil:
Deixe um comentário