• Mundo

    Tuesday, 07-May-2024 18:38:37 -03

    Criação de robôs capazes de matar gera dilemas entre militares nos EUA

    MATTHEW ROSENBERG
    JOHN MARKOFF
    DE CAMP EDWARDS, EM MASSACHUSETTS (EUA)

    27/10/2016 12h00

    O pequeno drone com seis rotores passou zumbindo pela réplica de uma aldeia do Oriente Médio e se aproximou de uma construção parecida com uma mesquita, com sua câmera procurando alvos.

    Não havia seres humanos pilotando remotamente o drone, que era apenas uma máquina que pode ser comprada na Amazon. Mas, armado com software de inteligência artificial avançado, ele tinha se transformado em um robô capaz de encontrar e identificar a meia dúzia de homens que carregavam pela aldeia réplicas de fuzis AK-47, fingindo ser insurgentes.

    Hilary Swift - 25.out.2016/The New York Times
    Jacob Regenstein and Ben Krosner with fake rifles for an autonomous drone tracking test at Joint Base Cape Cod, Mass., Aug. 25, 2016. The U.S. has put artificial intelligence at the center of its defense strategy, with weapons that can identify targets and make decisions. (Hilary Swift/The New York Times)
    Jacob Regenstein e Ben Krosner participam de teste com drone no Estado americano de Massachusetts

    Enquanto o aparelho teleguiado descia ligeiramente, um retângulo vermelho brilhou em um vídeo que estava sendo transmitido para engenheiros que monitoravam o teste. O drone havia parado sobre um homem obscurecido nas sombras, uma demonstração de proeza nessa caçada que deu uma antevisão assombrosa de como o Pentágono pretende transformar a prática da guerra.

    Quase sem ser notado fora dos círculos de defesa, o Pentágono colocou a inteligência artificial no centro de sua estratégia para manter a posição dos EUA como potência militar dominante no mundo. Ele está gastando bilhões de dólares para desenvolver o que chama de armas autônomas e semiautônomas e para construir um arsenal de armas do tipo que até agora só existia em filmes de Hollywood e na ficção-científica, alarmando entre cientistas e ativistas preocupados com as implicações de uma corrida bélica robótica.

    O Departamento de Defesa dos EUA está projetando caças a jato robóticos que entrariam em combate ao lado de aeronaves pilotadas. Além disso, testou mísseis que podem decidir o que devem atacar e construiu navios que podem caçar submarinos inimigos, seguindo os que descobre por milhares de milhas sem a ajuda de seres humanos.

    "Se Stanley Kubrick dirigisse 'Dr. Fantástico' hoje, seria sobre a questão das armas autônomas", disse Michael Schrage, um bolsista de pesquisa na escola de administração do Instituto de Tecnologia de Massachusetts (MIT).

    As autoridades de defesa dizem que as armas são necessárias para que os EUA mantenham sua vantagem militar sobre a China, a Rússia e outros países rivais, que também estão investindo dinheiro em pesquisas semelhantes (além de aliados como o Reino Unido e Israel). O último orçamento do Pentágono destinou US$ 18 bilhões (cerca de R$ 56 bilhões) a serem gastos em três anos em tecnologias que incluem as exigidas por armas autônomas.

    Assim como a Revolução Industrial promoveu a criação de máquinas poderosas e destrutivas como aviões e tanques, que diminuíram o papel dos soldados individuais, a tecnologia de inteligência artificial está permitindo que o Pentágono reorganize os lugares do homem e da máquina no campo de batalha, do mesmo modo que transforma a vida comum com computadores capazes de ver, ouvir e falar e carros que podem se conduzir autonomamente.

    Hilary Swift - 25.out.2016/The New York Times
    Jacob Regenstein, an engineer, during testing of an airborne autonomous drone at Joint Base Cape Cod, Mass., Aug. 25, 2016. The U.S. has put artificial intelligence at the center of its defense strategy, with weapons that can identify targets and make decisions. (Hilary Swift/The New York Times)
    O engenheiro Jacob Regenstein faz teste com drone autônomo em Massachusetts

    As novas armas ofereceriam velocidade e precisão sem comparação com as de qualquer ser humano, enquanto reduziriam o número —e o custo— de soldados e pilotos expostos à morte ou a ferimentos graves em combate. O desafio para o Pentágono é garantir que as armas sejam parceiras confiáveis dos humanos, e não potenciais ameaças.

    No centro da mudança estratégica imaginada pelo Pentágono há um conceito que as autoridades chamam de guerra de centauros. Com o nome do ser mitológico grego que era meio humano e meio cavalo, a estratégia enfatiza o controle humano e as armas autônomas como um meio de aumentar e ampliar a criatividade e a capacidade de solução de problemas de soldados, pilotos e marinheiros, e não substituí-los.

    As armas, na visão do Pentágono, seriam menos como o Exterminador do Futuro e mais como o super-herói dos quadrinhos Homem de Ferro, disse em uma entrevista o vice-secretário de Defesa, Robert O. Work.

    Fora do Pentágono, porém, há uma profunda desconfiança de que tais limites se mantenham firmes quando as tecnologias para criar armas pensantes forem aperfeiçoadas. Centenas de cientistas e especialistas advertiram em uma carta aberta no ano passado que desenvolver até a mais burra das armas inteligentes corre o risco de desencadear uma corrida armamentista global. O resultado, segundo a carta, seriam robôs totalmente independentes, capazes de matar, baratos e facilmente disponíveis, tanto para Estados vilões e extremistas violentos quanto para as grandes potências.

    "As armas autônomas serão as Kalashnikov de amanhã", disse a carta (Kalashnikov é o nome de um tipo de rifle automático).

    O debate entre os militares não é mais sobre se se devem construir armas autônomas, mas sobre quanta independência se deve dar a elas. O general da Força Aérea, Paul J. Selva, vice-presidente do Estado Maior Conjunto, disse recentemente que os EUA estão a aproximadamente uma década de possuir a tecnologia para construir um robô totalmente independente, capaz de decidir por conta própria quem e quando matar, embora não tenham a intenção de fabricar nenhum.

    Outros países não estão longe disso, e é muito provável que alguém eventualmente tente lançar "uma espécie de Exterminador", disse Selva, invocando o que parece ser uma referência comum em qualquer discussão sobre armas autônomas.

    Hilary Swift - 25.out.2016/The New York Times
    Joe Kehoe, with an engineering team, draws on a satellite photo while giving instructions before an autonomous drone tracking test at Joint Base Cape Cod, Mass., Aug. 25, 2016. The U.S. has put artificial intelligence at the center of its defense strategy, with weapons that can identify targets and make decisions. (Hilary Swift/The New York Times)
    Joe Kehoe faz traços sobre foto e satélite antes de teste com drone autônomo em Massachusetts

    Por enquanto, porém, o estado atual dessa arte é decididamente menos assustador. O pequeno drone desarmado testado neste verão em Massachussets não conseguiu se ligar sozinho e simplesmente decolar. Humanos tiveram de lhe dizer aonde ir e o que procurar. Depois de solto, porém, ele decidiu por si mesmo como executar as ordens.

    O projeto é dirigido pela Agência de Projetos de Pesquisa Avançada de Defesa, conhecida como Darpa, que está desenvolvendo o software necessário para máquinas capazes de trabalhar com pequenas unidades de soldados ou fuzileiros navais como batedores ou em outras funções.

    Além das preocupações práticas, a junção de automação cada vez mais capacitada com armas provocou um debate mais intenso entre estudiosos de Direito e de ética. As perguntas são numerosas, e as respostas, polêmicas: pode-se confiar em uma máquina com força letal? De quem será a culpa se um robô atacar um hospital ou uma escola? Ser morto por uma máquina é uma maior violação da dignidade humana do que se o golpe fatal for dado por um humano?

    Uma diretriz do Pentágono diz que as armas autônomas devem empregar "níveis adequados de avaliação humana". Cientistas e especialistas em direitos humanos dizem que o critério é amplo demais e pediram com urgência que tais armas sejam submetidas a um "controle humano significativo".

    [an error occurred while processing this directive]

    Fale com a Redação - leitor@grupofolha.com.br

    Problemas no aplicativo? - novasplataformas@grupofolha.com.br

    Publicidade

    Folha de S.Paulo 2024