domingo, 26 de abril de 2015

Robôs usados no lugar de soldados deixarão as guerras mais humanas, ou tornarão os conflitos mais arrastados?

  (Foto: icaro yuji)
Qandi Agha era um caixa no Afeganistão quando, em 2012, foi mantido sob custódia por seis semanas e meia. “Agha foi afogado até sentir que morreria”, diz Joanne Mariner, especialista em direito humanitário da Anistia Internacional. “Também amarraram um cordão ao redor de seu pênis para que ele não urinasse”, completa. A tortura de Agha é um de muitos casos registrados por Mariner para um relatório recente sobre casualidades de civis em guerras. Relatos de tortura não são incomuns, desde os infames abusos em Abu Ghraib.
Será que isso aconteceria se os soldados fossem máquinas altamente sofisticadas?
Para muitos, é uma ideia ultrajante. Mas já tem gente que acha que as máquinas poderiam ser mais cuidadosas no campo de batalha. “As pessoas estão massacrando umas às outras injustamente”, diz Ronald Arkin, um especialista em robótica do Instituto de Tecnologia da Geórgia, em Atlanta. “Não posso ficar aqui sentado sem fazer nada. Acredito que a tecnologia pode ajudar.” Diferentemente dos humanos, os robôs não podem quebrar regras. Seguindo esse raciocínio, guerras travadas por máquinas seriam mais humanas. E enviar robôs em vez de soldados humanos também salvaria vidas, especialmente para a nação que dispõe dessa tecnologia. Assim, o desenvolvimento dos chamados sistemas de armas autônomas letais – ou “robôs assassinos” – está se acelerando, com muitos dos exércitos do mundo à procura de maneiras de manter seus soldados fora da linha de fogo.
Porém existe oposição clamorosa. Em novembro, representantes de dezenas de nações se reuniram na sede das Nações Unidas em Genebra, Suíça, para discutir se a Organização das Nações Unidas (ONU) deveria considerar uma proibição. O objetivo é conseguir que os robôs assassinos sejam classificados junto com armas químicas, minas terrestres e lasers capazes de cegar as pessoas. Com as armas totalmente autônomas sendo uma possibilidade técnica, ativistas estão ansiosos para deter seu desenvolvimento – e logo. Mas o que está em jogo afinal? Atualmente, os robôs têm vários papéis no campo de batalha. Alguns carregam equipamentos, outros desarmam bombas e fazem vigilância. E drones movidos por controle remoto permitem ataques a alvos a milhares de quilômetros de distância. Os últimos lançamentos, no entanto, elevam os drones a outro patamar: eles têm a capacidade de selecionar e atacar alvos com pouca ou nenhuma intervenção humana.
ATUALMENTE, OS ROBÔS TÊM VÁRIOS PAPÉIS NO CAMPO DE BATALHA. ALGUNS CARREGAM EQUIPAMENTOS, OUTROS DESARMAM BOMBAS E FAZEM VIGILÂNCIA. E DRONES PERMITEM ATAQUES A QUILÔMETROS DE DISTÂNCIA (Foto: icaro yuji)
OBRIGATORIEDADE MORAL
Já existem vários exemplos disso no mundo todo. O sistema antimísseis Phalanx, da marinha dos Estados Unidos, a bordo de seus navios Aegis, pode fazer suas próprias “avaliações de execução” – ponderando a probabilidade de que um alvo seja atacado. A BAE, companhia britânica aeroespacial e de defesa, está desenvolvendo um jato não tripulado chamado Taranis. Ele pode decolar, voar até determinado destino e identificar objetos de interesse com pouca intervenção de operadores humanos em bases terrestres. O jato é um protótipo e não carrega armas, mas demonstra a viabilidade técnica de uma aeronave desse tipo. Enquanto isso, o “complexo móvel robótico” da Rússia, veículo não tripulado semelhante a um tanque que protege instalações de mísseis balísticos, e a torre de armas Super Aegis ll, da Coreia do Sul, capaz de focar um indivíduo a 2,2 quilômetros de distância, são reconhecidamente capazes de detectar e disparar contra alvos móveis sem nenhuma supervisão humana de qualquer tipo.
"Se o objetivo da lei humanitária internacional é reduzir o sofrimento de não combatentes em tempos de guerra, então usar robôs de mira exímia seria mais que apropriado, seria uma obrigatoriedade moral"
Fabricantes de armas não gostam de falar sobre os detalhes. As especificidades técnicas, geralmente, são secretas. O que está claro, entretanto, é que a tecnologia não é mais o fator limitante. “A tecnologia não é a provável restrição no que diz respeito àquilo que é viável no futuro”, diz o porta-voz da fabricante britânica de mísseis MBDA. Em vez disso, diz ele, armas autônomas serão contidas por normas, não por capacidade. Então, quais são as regras relevantes da guerra? Não há leis tratando especificamente de robôs, mas as armas precisam estar de acordo com as convenções existentes. Um princípio básico é o que diz que civis e propriedades civis não podem ser intencionalmente tomadas como alvos. As armas também têm de ser capazes de distinguir civis de soldados. “Se o objetivo da lei humanitária internacional é reduzir o sofrimento de não combatentes em tempos de guerra, então usar robôs de mira exímia seria mais que apropriado, seria uma obrigatoriedade moral”, disse ao The Wall Street Journal Erik Schechter, matemático da Universidade Vanderbilt, em Nashville, Estados Unidos.
SERÁ QUE UM DRONE PODE DISTINGUIR ENTRE UM TAXISTA COM BARBA E UM MEMBRO DO TALIBÃ COM BARBA? PARA ESPECIALISTAS EM TECNOLOGIA DE GUERRA, HOJE NÃO EXISTE UM COMPUTADOR PERFEITO QUE CONSIGA FAZER ESSA AVALIAÇÃO (Foto: icaro yuji)
O DIREITO À DIGNIDADE
Os robôs poderiam poupar vidas de soldados também. Em vez de ser solicitado um ataque aéreo para bombardear uma base inimiga suspeita, que poderia estar situada numa área urbana densamente povoa­da, robôs poderiam entrar no prédio à frente de soldados humanos, sujeitando-se aos riscos iniciais. Ou seja, quando certos aspectos de uma missão são arriscados, máquinas poderiam assumir a liderança. A ideia é controversa. Para muitos, o possível conceito de que um chip de computador tenha poder de vida e morte sobre alguém é perturbador. De acordo com Christof Heyns, relator especial da ONU para execuções extrajudiciais, sumárias ou arbitrárias, isso poderia transgredir o direito humanitário e o direito humano à dignidade. “Pessoas precisam estar estreitamente envolvidas na decisão para que ela não viole a dignidade humana”, diz ele.
“A esperança de um julgamento humano não está totalmente ausente. E a esperança é parte de uma vida digna”
Heyns aponta que o alvo de um robô não tem a opção de apelar por clemência como poderia ter se uma pessoa estivesse atrás da arma. Seria como ser exterminado. Drones movidos por controle remoto já dão pouca oportunidade de haver tais apelos. Mas esses pelo menos têm um operador humano, apesar de distante, que pode fazer julgamentos éticos. “A esperança de um julgamento humano não está totalmente ausente”, diz Heyns. “E a esperança é parte de uma vida digna.” Ele se preocupa com o que chama de “despersonalização da força”. Em um relatório de 2013 à ONU, Heyns alertou que “máquinas de guerra incansáveis, prontas para o ataque ao apertar de um botão”, poderiam levar a um futuro de conflito permanente. Se os governos não têm que pôr a mão na lama, entrar em guerra pode ficar fácil demais. Mesmo em cenários onde máquinas lutam com máquinas, danos colaterais significativos poderiam destruir a infraestrutura de uma nação. E, uma vez que o número de casualidades será mais baixo, as guerras poderão continuar por períodos maiores, impedindo a reconstrução dos territórios envolvidos.
O medo de despersonalizar a guerra convenceu alguns de que robôs armados deveriam ser vetados. “Pessoas morrem em guerras”, diz o congressista norte-americano Jim McGovern. “Não deveríamos jamais chegar ao ponto de esquecer quão horrível isso é.” Preocupado com a possibilidade de que nações tecnologicamente avançadas es­tejam se distanciando da realida­de da guerra, McGovern quer que os Estados Unidos assumam a li­derança da proibição de armas autônomas. “As pessoas deveriam estar preocupadas com o impacto de bombardeios, de ataques de drones.” diz. “Ao tirar o fator humano dessa equação, você dessensibiliza as pessoas. Quero que elas saibam que a guerra é horrível e feia.” No ano passado, McGovern organizou um briefing para políticos dos Estados Unidos feito pelos membros da Campanha para Deter Os Robôs Assassinos – uma dádiva para Noel Sharkey, um dos líderes da campanha, que vem tentando chamar a atenção internacional para a questão há quase uma década.
Sharkey é um especialista em inteligência artificial e robótica da Universidade de Sheffield, Reino Unido. Um motivador-chave de seu esforço de campanha é o seu conhecimento das deficiências da tecnologia atual. Enquanto Arkin está interessado na tecnologia da próxima geração, Sharkey preocupa-se com o presente. “Um cálculo só vale o que valem os dados que são postos nele”, diz Mariner, da Anistia Internacional. Será que um drone pode distinguir entre um taxista com barba e um membro do Talibã com barba? “Não há um computador perfeito que consiga fazer essa avaliação”, diz ela.

Nenhum comentário:

Postar um comentário

fale com Dracolich