Lutiana Barbosa[1]
Gustavo Macedo[2]
“Os espíritos que conjurei
Já não me obedecem mais”
Aprendiz de Feiticeiro, Goethe
Em 2021, a Organização das Nações Unidas (ONU) reconheceu que uma arma letal autônoma, o drone STM Kargu-2, foi utilizada no ano anterior em conflitos na Líbia. O relatório do painel de especialistas endereçado ao Conselho de Segurança aponta que sistemas de armas letais autônomas foram programados para atacar alvos sem a participação humana na decisão.
Do outro lado do Mediterrâneo, homens, mulheres e crianças líbios que fugiam do mesmo conflito arriscavam suas vidas em embarcações precárias tentando chegar à Europa em busca de segurança. Quando chegavam, eram identificados e classificados por sistemas de inteligência artificial (IA) que auxiliavam na decisão do seu status migratório.
Enquanto isso, no Brasil, tribunais começaram a enfrentar controvérsias relativas à IA aplicadas a atividades até então corriqueiras na vida de milhares de cidadãos. Tem-se por exemplo o caso em que o Tribunal de Justiça do Distrito Federal e dos Territórios (TJDFT) determinou que cobranças indevidas realizadas por inteligência artificial do Banco do Brasil não gerariam o direito à repetição em dobro prevista no Código de Defesa do Consumidor. A explicação estaria no fato de que robôs não poderiam agir com ‘má-fé’, atributo inerentemente humano.
O uso crescente de IA para fins bélicos, migratórios e comerciais são objeto de uma série de três artigos nos quais abordamos desafios práticos do cotidiano gerados pela IA. Neste, refletimos sobre perguntas como: Uma máquina deve ter autonomia para decidir se usará da violência para matar ou ferir um ser humano? Nos textos vindouros, questionaremos: Deve-se confiar no julgamento de uma inteligência artificial sobre quem tem o direito ou não de entrar em um país? E, para fins de reparação de uma cobrança indevida, é possível dizer que uma máquina agiu de má-fé?
Deontologia x utilitarismo
Para nos auxiliar no entendimento da questão, apresentamos brevemente duas perspectivas filosóficas sobre o uso da inteligência artificial.
A perspectiva deontológica entende que, mesmo que a inteligência artificial possa apresentar resultados melhores que os humanos, é moralmente inadmissível empregá-la para executar tarefas inerentemente humanas (por exemplo, um algoritmo decidir sobre um ataque armado é errado, independentemente de suas consequências). Assim, não deve ser utilizada, ao menos em alguns campos que exigem valoração, pois é desprovida de capacidade para compreender contexto e mensurar o valor da vida e da liberdade. Eticamente falando, a interação entre duas ou mais pessoas é justa na medida que pode ser julgada por ser uma relação entre iguais. Aplica-se aqui o preceito de igualdade de tratamento, ou seja, de que as pessoas tenderiam a tratar os outros como gostariam de ser tratadas – ainda que desse cálculo implicasse algum prejuízo ou dano físico e moral. Em última análise, é uma perspectiva que reconhece a importância das diferenças culturais e religiosas entre as pessoas.
Já os utilitaristas defendem que, se a IA puder produzir resultados melhores que os humanos, deve ser utilizada para a maximização dos ganhos (por exemplo, um robô decidir sobre um ataque armado é aceitável, se gerar mais felicidade para um maior número de pessoas). Desse modo, ainda que uma minoria saia prejudicada, a decisão seria válida quando vista em um contexto mais amplo. Esta é a perspectiva que mais cresce na justificativa pelo emprego de IA em diversas dimensões de nossas vidas.
Se por um lado a IA pode maximizar o bem-estar, por outro o seu uso por governos e empresas encontra certos limites. Para demonstrar algumas das tensões entre ambas as perspectivas, passaremos para a análise sobre o uso de armas letais autônomas.
Armas Letais Autônomas
No âmbito bélico a IA possibilitou uma terceira grande mudança de paradigma (antecedida pela invenção da pólvora e de armas nucleares): o desenvolvimento de armas letais autônomas, também chamadas de robôs assassinos, tema deste primeiro artigo. Estas novas armas desencadearam uma nova corrida armamentista que tem como protagonistas Estados Unidos, China e Rússia.
Mas afinal, o que são armas letais autônomas? Ainda não há consenso na comunidade internacional quanto a sua definição. Num extremo estão aqueles que associam a elas um nível de inteligência quase humano, como o Ministério da Defesa do Reino Unido. No outro extremo está a Rússia que considera até mesmo sistemas controlados remotamente como armas autônomas. Outra vertente, que inclui a Cruz Vermelha, a coalizão de ONGs Stop Killer Robots e o Departamento de Defesa do Estados Unidos, em linhas gerais, define tais armas como sistemas que, uma vez ativados, são capazes de selecionar e atingir alvos sem a necessidade de ulterior participação humana.
Há aqui a necessidade de uma distinção em relação a drones e armas letais autônomas. Nos modelos de drones militares mais empregados atualmente há um agente humano que aperta remotamente o botão (ou seja, o ser humano está dentro do processo decisório). Já nas armas letais autônomas, a decisão é tomada via IA, que processa informações, seleciona e ataca alvos por conta própria. Nenhum dos dois modelos é infalível, e ambos devem ser passíveis de questionamento e escrutínio.
Há, contudo, a dificuldade em atribuir responsabilização e possível punição sobre uma IA por atos antiéticos ou ilegais. Logo, não havendo como estabelecer um controle coercitivo sobre uma IA, como limitar seus eventuais excessos? Posto em outras palavras: é o criador quem controla a criatura ou o contrário quando se trata de armas letais autônomas?
Tal qual os versos de Goethe que abrem este texto, o empresário Elon Musk, à frente das empresas de tecnologia Tesla e Space X, comparou o seu uso da IA à invocação de demônios. Em 2017, ele e mais outros 135 fundadores e diretores de empresas associadas à IA e robótica de 28 países assinaram uma carta-aberta conclamando à ONU a proteger a humanidade de robôs assassinos.
Na perspectiva deontológica, armas autônomas seriam inerentemente violadoras de preceitos éticos fundamentais, como a dignidade da pessoa humana e, portanto, deveriam ser banidas. A decisão sobre a vida e a morte não poderia ser tomada por algoritmos. Esta perspectiva também é compartilhada pela Human Rights Watch e pela coalizão de ONG Stop Killer Robots.
Por outro lado, utilitaristas apresentam argumentos como que armas autônomas podem implicar em maior precisão nos ataques, redução de causalidades a civis, redução do número de humanos em campos de batalha, e que armas autônomas não têm o instinto humano de auto-preservação e que, portanto, podem agir apenas reativamente. Esta é a perspectiva dos Estados Unidos e da Rússia, por exemplo. Entre estes dois extremos estão aqueles que propõem a necessidade de regulamentação dos robôs assassinos. Relembramos que o Direito Humanitário, os Direitos Humanos e o Direito Internacional se aplicam a robôs assassinos, mas são insuficientes para lidar com a mudança paradigmática que eles representam, qual seja, a decisão é tomada por inteligência artificial e não por um agente humano.
Deontologicamente, a melhor saída seria bani-las, tal como foi feito com armas a laser que causam cegueira. No entanto, isto parece improvável ante a oposição ferrenha de grandes potências militares como Rússia e Estados Unidos. Sendo assim, restar-nos-ia uma saída como a regulamentação dessas novas armas, na busca por um meio termo entre os extremos ideológicos.
Debate multilateral
Em 2017 o tema passou a ser formalmente debatido por um grupo de experts governamentais tendo como ponto de partida a Convenção da ONU sobre Certas Armas Convencionais (CCAC). Enquanto a diplomacia caminha a passos lentos, a tecnologia avança rapidamente, expondo novos dilemas. A prova disso é que até hoje não houve progresso significativo quanto à delimitação de um regime jurídico aplicável a armas letais autônomas. Um dos grandes entraves é que toda decisão deve ser consensual e, assim, Estados que desenvolvem robôs assassinos boicotam esforços diplomáticos de regulamentação.
No último encontro do grupo de experts, que encerrou em 8 de dezembro de 2021, o que se observou foi um fracasso em definir as próximas etapas de trabalho e elaborar recomendações. A Sexta Conferência da ONU de Revisão da CCAC, que ocorreu entre 13 e 17 de dezembro de 2021, também foi uma decepção. O encontro teria se tornado palco de “tirania das minorias”, visto que países como a Rússia teriam repetidamente impedido o avanço de decisões diplomáticas, em razão da necessidade de consenso.
Considerações preliminares
Em suma, cabe à comunidade internacional buscar soluções para delinear o regime jurídico aplicável às armas letais autônomas, bem como refletir do ponto de vista ético o destino da humanidade. Se de um lado uma perspectiva deontológica parece se apartar da realidade em que o desenvolvimento de armas letais autônomas parece inevitável, a saída utilitarista não endereça minimamente preocupações éticas e valores essenciais à humanidade, sendo necessário encontrar um ponto de equilíbrio entre os dois extremos. Tendo em vista o impacto da discussão em nossas vidas, e considerando que parece improvável que se consiga chegar a um tratado sobre armas autônomas no âmbito da CCAC, acreditamos que a temática deva ser desenvolvida em foros alternativos.
Nos próximos dois textos desta série de publicações apresentaremos reflexões sobre inteligência artificial a partir da migração e do comércio com o objetivo de ilustrar a urgência e pertinência do tema em nossas vidas cotidianas. Ponderaremos se o uso de soluções de IA para resolver velhos desafios pode levar a problemas ainda maiores. Ressaltaremos que seu desenvolvimento e aplicação deve levar em consideração princípios gerais e particulares condizentes às realidades das comunidades sobre as quais se aplicam.
[1] Defensora Pública Federal e doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). Mestre em Direito pela PUC-MG e LL.M pela Columbia University.
[2] Pesquisador de pós-doutorado no Instituto de Estudos Avançados da Universidade (IEA) de São Paulo (USP). Doutor em Ciência Política pela USP.
Fonte Imagética: Photo by Jonathan Lampel on Unsplash. Disponível em <https://unsplash.com/photos/L9wrEGJjRdo>. Acesso em 16 set 2022.