Arma autônoma letal - Lethal autonomous weapon

Um BAE Systems Corax durante o teste de voo

As armas autônomas letais ( LAWs ) são um tipo de sistema militar autônomo que pode procurar e engajar alvos de forma independente com base em restrições e descrições programadas. As leis também são conhecidas como sistemas de armas autônomas letais (LAWS), sistemas de armas autônomas (AWS), armas robóticas , robôs assassinos ou matadores . As LEI podem operar no ar, na terra, na água, debaixo d'água ou no espaço. A autonomia dos sistemas atuais a partir de 2018 era restrita no sentido de que um ser humano dá o comando final para atacar - embora haja exceções com certos sistemas "defensivos".

Ser autônomo como arma

Ser "autônomo" tem diferentes significados em diferentes campos de estudo. Em engenharia, pode se referir à capacidade da máquina de operar sem o envolvimento humano. Em filosofia, pode se referir a um indivíduo ser moralmente independente. Na ciência política, pode se referir à capacidade de autogoverno de uma área . Em termos de desenvolvimento de armas militares, a identificação de uma arma como autônoma não é tão clara como em outras áreas. O padrão específico implicado no conceito de ser autônomo pode variar enormemente entre diferentes acadêmicos, nações e organizações.

Várias pessoas têm muitas definições do que constitui uma arma autônoma letal. Heather Roff, redatora da Escola de Direito da Case Western Reserve University , descreve os sistemas de armas autônomos como "sistemas de armas armadas, capazes de aprender e adaptar seu 'funcionamento em resposta às mudanças nas circunstâncias do ambiente em que [eles são] implantados', como bem como capazes de tomar decisões de demissão por conta própria. " Esta definição de sistemas de armas autônomos é um limite bastante alto em comparação com as definições de estudiosos como as definições de Peter Asaro e Mark Gubrud vistas abaixo.

Acadêmicos como Peter Asaro e Mark Gubrud estão tentando diminuir o limite e julgar mais sistemas de armas autônomos. Eles acreditam que qualquer sistema de armas capaz de liberar uma força letal sem a operação, decisão ou confirmação de um supervisor humano pode ser considerado autônomo. De acordo com Gubrud, um sistema de armas operando parcial ou totalmente sem intervenção humana é considerado autônomo. Ele argumenta que um sistema de armas não precisa ser capaz de tomar decisões completamente por si mesmo para ser chamado de autônomo. Em vez disso, deve ser tratado como autônomo, desde que envolva ativamente uma ou várias partes do "processo de preparação", desde encontrar o alvo até o disparo final.

Outras organizações, no entanto, estão estabelecendo o padrão do sistema de armas autônomo em uma posição mais elevada. O Ministério da Defesa (Reino Unido) define sistemas de armas autônomos como "sistemas que são capazes de compreender a intenção e a direção de um nível superior. A partir desse entendimento e sua percepção de seu ambiente, tal sistema é capaz de tomar as medidas adequadas para produzir um É capaz de decidir um curso de ação, a partir de uma série de alternativas, sem depender da supervisão e controle humanos - tal envolvimento humano com o sistema ainda pode estar presente, no entanto. Enquanto a atividade geral de uma aeronave não tripulada autônoma será previsíveis, as ações individuais podem não ser. "

Como resultado, a composição de um tratado entre estados requer uma rotulagem comumente aceita do que exatamente constitui uma arma autônoma.

Sistemas defensivos automáticos

A arma letal mais antiga acionada automaticamente é a mina terrestre , usada desde pelo menos 1600s, e as minas navais , usadas pelo menos desde 1700s. As minas antipessoal foram proibidas em muitos países pelo Tratado de Ottawa de 1997 , não incluindo os Estados Unidos, a Rússia e grande parte da Ásia e do Oriente Médio.

Alguns exemplos atuais de LEWs são sistemas automatizados de proteção ativa "hardkill" , como sistemas CIWS guiados por radar usados ​​para defender navios que estão em uso desde a década de 1970 (por exemplo, o US Phalanx CIWS ). Esses sistemas podem identificar e atacar de forma autônoma mísseis, foguetes, fogo de artilharia, aeronaves e embarcações de superfície de acordo com critérios definidos pelo operador humano. Existem sistemas semelhantes para tanques, como o Russian Arena , o Israeli Trophy e o alemão AMAP-ADS . Vários tipos de armas sentinela estacionárias , que podem disparar contra humanos e veículos, são usados ​​na Coréia do Sul e em Israel. Muitos sistemas de defesa antimísseis , como o Iron Dome , também possuem recursos de seleção de alvos autônomos. As torres automáticas instaladas em veículos militares são chamadas de estações remotas de armas .

A principal razão para não haver um "humano no circuito" nesses sistemas é a necessidade de uma resposta rápida. Eles geralmente têm sido usados ​​para proteger o pessoal e as instalações contra projéteis que entram.

Sistemas ofensivos autônomos

Os sistemas com um grau mais alto de autonomia incluiriam drones ou veículos aéreos de combate não tripulados , por exemplo: "O protótipo de drone de combate com propulsão a jato BAE Systems Taranis pode levar a um Future Combat Air System que pode pesquisar, identificar e localizar inimigos de forma autônoma, mas pode só se engaja com um alvo quando autorizado pelo comando de missão. Ele também pode se defender contra aeronaves inimigas "(Heyns 2013, §45). O drone Northrop Grumman X-47B pode decolar e pousar em porta-aviões (demonstrado em 2014); está definido para ser desenvolvido em um sistema de vigilância e ataque aerotransportado não tripulado (UCLASS).

Carreta de reboque Sérvio Land Rover Defender com robô de combate rastreado "Miloš"

De acordo com o The Economist , conforme a tecnologia avança, as aplicações futuras de veículos submarinos não tripulados podem incluir desminagem, colocação de minas, rede de sensores anti-submarinos em águas contestadas, patrulhamento com sonar ativo, reabastecimento de submarinos tripulados e transformação de plataformas de mísseis de baixo custo. Em 2018, o US Nuclear Posture Review alegou que a Rússia estava desenvolvendo um "novo torpedo autônomo submarino intercontinental, com armamento nuclear e propulsão nuclear" denominado " Status 6 ".

A Federação Russa está desenvolvendo ativamente mísseis , drones , veículos não tripulados , robôs militares e robôs médicos com inteligência artificial .

O ministro israelense Ayoob Kara afirmou em 2017 que Israel está desenvolvendo robôs militares, incluindo alguns tão pequenos quanto moscas.

Em outubro de 2018, Zeng Yi, um executivo sênior da empresa de defesa chinesa Norinco , fez um discurso no qual disse que "Em campos de batalha futuros, não haverá pessoas lutando", e que o uso de armas autônomas letais na guerra é " inevitável". Em 2019, o secretário de Defesa dos EUA, Mark Esper, criticou a China por vender drones capazes de tirar vidas sem supervisão humana.

O Exército Britânico implantou novos veículos não tripulados e robôs militares em 2019.

A Marinha dos Estados Unidos está desenvolvendo frotas "fantasmas" de navios não tripulados .

Em 2020, um drone Kargu 2 perseguiu e atacou um alvo humano na Líbia , de acordo com um relatório do Painel de Peritos sobre a Líbia do Conselho de Segurança da ONU , publicado em março de 2021. Esta pode ter sido a primeira vez que um robô assassino autônomo armado com armas letais atacou seres humanos.

Questões éticas e legais

Padrão usado na política dos EUA

A política atual dos EUA declara: "Os sistemas de armas autônomos ... devem ser projetados para permitir que os comandantes e operadores exerçam níveis apropriados de julgamento humano sobre o uso da força." No entanto, a política exige que os sistemas de armas autônomos que matam pessoas ou usam força cinética, selecionando e engajando alvos sem intervenção humana adicional, sejam certificados como compatíveis com "níveis apropriados" e outros padrões, não que tais sistemas de armas não possam atender a esses padrões e sejam portanto proibido. Caçadores-assassinos "semi-autônomos" que identificam e atacam alvos de maneira autônoma nem precisam de certificação. O vice-secretário de Defesa, Robert Work, disse em 2016 que o Departamento de Defesa "não delegaria autoridade letal a uma máquina para tomar uma decisão", mas pode precisar reconsiderar isso, já que "regimes autoritários" podem fazê-lo. Em outubro de 2016, o presidente Barack Obama afirmou que no início de sua carreira ele estava desconfiado de um futuro em que um presidente dos EUA fazendo uso de guerra de drones poderia "travar guerras perpétuas em todo o mundo, e muitas delas encobertas, sem qualquer responsabilidade ou debate democrático ". Nos Estados Unidos, a IA relacionada à segurança está sob a alçada da Comissão de Segurança Nacional de Inteligência Artificial desde 2018. Em 31 de outubro de 2019, o Conselho de Inovação em Defesa do Departamento de Defesa dos Estados Unidos publicou o rascunho de um relatório delineando cinco princípios para armamento AI e fazer 12 recomendações para o uso ético de inteligência artificial pelo Departamento de Defesa que garantiria que um operador humano sempre seria capaz de olhar para a 'caixa preta' e entender o processo de kill-chain. Uma grande preocupação é como o relatório será implementado.

Possíveis violações da ética e de atos internacionais

Stuart Russell , professor de ciência da computação da University of California, Berkeley, afirmou que a preocupação que ele tem com LAWS é que sua visão é que ela é antiética e desumana. O principal problema desse sistema é que é difícil distinguir entre combatentes e não combatentes.

Há preocupação por parte de alguns (por exemplo, Noel Sharkey 2012) sobre se as LEI violariam o Direito Internacional Humanitário , especialmente o princípio da distinção, que exige a capacidade de discriminar combatentes de não-combatentes, e o princípio da proporcionalidade , que exige danos aos civis é proporcional ao objetivo militar. Essa preocupação é freqüentemente invocada como motivo para banir os "robôs assassinos" por completo - mas é duvidoso que essa preocupação possa ser um argumento contra as LEIS que não violam o Direito Internacional Humanitário.

Um relatório de 2021 do American Congressional Research Service declara que "não há proibições legais nacionais ou internacionais sobre o desenvolvimento do uso de leis", embora reconheça as negociações em andamento na Convenção das Nações Unidas sobre Certas Armas Convencionais (CCW).

Algumas pessoas dizem que as LEIS confundem os limites de quem é o responsável por um determinado assassinato. O filósofo Robert Sparrow argumenta que as armas autônomas são causalmente, mas não moralmente responsáveis, semelhantes às crianças soldados. Em cada caso, ele argumenta que existe o risco de atrocidades ocorrerem sem um sujeito apropriado para responsabilizar, o que viola o jus in bello . Thomas Simpson e Vincent Müller argumentam que podem facilitar o registro de quem deu qual comando. Da mesma forma, Steven Umbrello , Phil Torres e Angelo F. De Bellis argumentam que se as capacidades técnicas das LEWs são pelo menos tão precisas quanto as dos soldados humanos, então, dadas as deficiências psicológicas dos soldados humanos na guerra, garante que apenas esses tipos de LEWs éticos deveriam ser usado. Da mesma forma, eles propõem o uso da abordagem de design sensível a valores como uma estrutura potencial para projetar essas leis para se alinharem com os valores humanos e o Direito Internacional Humanitário . Além disso, as potenciais violações do DIH pelas LEWs são - por definição - aplicáveis ​​apenas em ambientes de conflito que envolvem a necessidade de distinguir entre combatentes e civis. Dessa forma, qualquer cenário de conflito sem a presença de civis - ou seja, no espaço ou nas profundezas do mar - não enfrentaria os obstáculos colocados pelo DIH.

Campanhas para banir leis

A possibilidade de LAWs gerou um debate significativo, especialmente sobre o risco de "robôs assassinos" vagando pela Terra - em um futuro próximo ou distante. O grupo Campaign to Stop Killer Robots foi formado em 2013. Em julho de 2015, mais de 1.000 especialistas em inteligência artificial assinaram uma carta alertando sobre a ameaça de uma corrida armamentista de inteligência artificial e pedindo o banimento das armas autônomas . A carta foi apresentado em Buenos Aires na 24ª Conferência Internacional Conjunta de Inteligência Artificial (IJCAI-15) e foi co-assinado por Stephen Hawking , Elon Musk , Steve Wozniak , Noam Chomsky , Skype co-fundador Jaan Tallinn e Google DeepMind co- fundador Demis Hassabis , entre outros.

De acordo com a PAX For Peace (uma das organizações fundadoras da The Campaign to Stop Killer Robots), armas totalmente automatizadas (FAWs) irão diminuir o limiar de ir para a guerra conforme os soldados são removidos do campo de batalha e o público se distancia da experiência da guerra, dando aos políticos e outros tomadores de decisão mais espaço para decidir quando e como ir para a guerra. Eles alertam que, uma vez implantados, os FAWs tornarão o controle democrático da guerra mais difícil - algo que o autor de Kill Decision - um romance sobre o assunto - e o especialista em TI Daniel Suarez também alertou: segundo ele, isso pode recentralizar o poder em poucas mãos por exigindo muito poucas pessoas para ir para a guerra.

Existem sites que protestam contra o desenvolvimento de LEI, apresentando ramificações indesejáveis ​​caso as pesquisas sobre o uso de inteligência artificial para designação de armas continuem. Nesses sites, notícias sobre questões éticas e jurídicas são constantemente atualizadas para que os visitantes possam recapitular com notícias recentes sobre encontros internacionais e artigos de pesquisa sobre Leis.

A Santa Sé apelou à comunidade internacional para proibir o uso de LEI em várias ocasiões. Em novembro de 2018, o Arcebispo Ivan Jurkovic , Observador Permanente da Santa Sé nas Nações Unidas, afirmou que “Para evitar uma corrida armamentista e o aumento das desigualdades e da instabilidade, é um dever imperativo agir com prontidão: agora é a hora de evitar que as LEIS se tornem a realidade da guerra de amanhã. ” A Igreja teme que esses sistemas de armas tenham a capacidade de alterar irreversivelmente a natureza da guerra, criar distanciamento da ação humana e questionar a humanidade das sociedades.

Em 29 de março de 2019, a maioria dos governos representados em uma reunião da ONU para discutir o assunto era favorável à proibição das Leis. Uma minoria de governos, incluindo os da Austrália, Israel, Rússia, Reino Unido e Estados Unidos, se opôs à proibição.

Sem proibição, mas regulamentação

Uma terceira abordagem concentra-se na regulamentação do uso de sistemas de armas autônomos em vez de uma proibição. O controle de armas de IA militar provavelmente exigirá a institucionalização de novas normas internacionais incorporadas em especificações técnicas eficazes combinadas com monitoramento ativo e diplomacia informal ('Track II') por comunidades de especialistas, juntamente com um processo de verificação legal e política.

Veja também

Referências

Leitura adicional

  • Heyns, Christof (2013), 'Relatório do Relator Especial sobre execuções extrajudiciais, sumárias ou arbitrárias', Assembleia Geral da ONU, Conselho de Direitos Humanos, 23 (3), A / HRC / 23/47.
  • Krishnan, Armin (2009), Robôs assassinos: legalidade e ética das armas autônomas (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), 'Autonomous killer robots are provavelmente good news' , em Ezio Di Nucci e Filippo Santoni de Sio (eds.), Drones andesponsability: Legal, filosófico e sócio-técnico perspectivas sobre o uso de remotamente armas controladas, 67-81 (Londres: Ashgate).
  • A campanha de Stuart Russell contra LAWs
  • Sharkey, Noel E (2012), 'Automating Warfare: lições aprendidas com os drones', Journal of Law, Information & Science , 21 (2).
  • Simpson, Thomas W e Müller, Vincent C. (2016), 'Just war and robots' killings ' , The Philosophical Quarterly 66 (263), 302-22.
  • Singer, Peter (2009), Wired for war: The robotics revolution and conflitos in the 21st Century (Nova York: Penguin)
  • Departamento de Defesa dos EUA (2012), 'Diretiva 3000.09, Autonomia em sistemas de armas'. <2014 Killer Robots Policy Paper Final.docx>.
  • Departamento de Defesa dos EUA (2013), 'Unmanned Systems Integrated Road Map FY2013-2038'. < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • The Ethics of Autonomous Weapons Systems (2014) Seminário em UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >