Lutiana Barbosa[1]
Gustavo Macedo[2]
“O estudo das máquinas pensantes nos ensina mais sobre o cérebro do que podemos aprender por métodos introspectivos. O homem ocidental está se exteriorizando na forma de gadgets.”
― William S. Burroughs, Naked Lunch
Vivemos uma das maiores crises de refugiados desde a Segunda Guerra Mundial. Poucas semanas após o início da invasão russa na Ucrânia, mais de 3 milhões de pessoas fugiram do país, de acordo com a Agência da ONU para Refugiados (ACNUR). Embora as atenções da mídia internacional estejam voltadas para o Leste Europeu, estima-se que dois terços dos atuais 82,4 milhões de refugiados no mundo sejam absorvidos por países do chamado Sul Global.
O cenário é de enorme quantidade de pessoas que cruzam as fronteiras às pressas em busca de acolhimento e proteção, necessitando de condições básicas para sua permanência digna no país de destino. Diante dos desafios dessa situação, a tecnologia tem ajudado aqueles que chegam e aqueles que recebem. Por um lado, ela pode auxiliar países hospedeiros a administrar uma grande quantidade de informações para tomar decisões vitais para sua segurança e daquelas que cruzam suas fronteiras. Por outro, a tecnologia tem ajudado os migrantes de várias formas, como geolocalização em tempo real, estadias gratuitas via empresas de locação temporária de imóveis online, doação de criptomoedas, combate a apagões de internet e combate a fake news.
Neste segundo artigo da série sobre Ética & Inteligência Artificial do Boletim Lua Nova, discutiremos o potencial do uso de tecnologias de Inteligência Artificial (IA) aplicadas a situações como essa observada na Ucrânia no início de 2022. Daremos continuidade ao emprego das perspectivas deontológica e utilitarista para pensar os prós e contras do uso de inteligência artificial no contexto migratório.
É fato que a inteligência artificial tem sido crescentemente usada no ciclo migratório. Desde 2020, o uso de IA aplicada à migração foi acelerado com a pandemia de COVID-19 para o monitoramento e controle de fronteiras com o suposto argumento de evitar o espalhamento do vírus. Tecnologias de IA também têm sido aplicadas para verificação de identidade, deliberação sobre solicitações de visto e a outras decisões administrativas, gerenciamento de fronteiras, e análise de probabilidade do migrante causar problemas de acordo com classificações algorítmicas. No entanto, seu uso indiscriminado gera desafios tanto para gestores de políticas públicas quanto para migrantes, incluindo possíveis efeitos negativos na proteção de direitos humanos como discriminação e violação de privacidade.
A história das crises migratórias revela que a realidade de grande parcela dos migrantes é de vulnerabilidade, tais como solicitantes de refúgio e refugiados, migrantes forçados, crianças, especialmente separadas e não acompanhadas, mulheres, população negra, indígenas, e LGBTQI+. Essas vulnerabilidades podem ser amenizadas ou agravadas a depender do tipo de uso de IA na questão migratória.
Enfim, consideramos que decisões migratórias gravitam em um espectro de dois extremos. De um lado, encontram-se os direitos humanos dos migrantes, enquanto do outro lado encontra-se a segurança nacional do Estado que o recebe. Reconhecemos que os Estados possuem o direito de decidir sobre como melhor administrar os fluxos migratórios em seus territórios. Mas também ressaltamos que este poder encontra limites em normas internacionais de direitos humanos voluntariamente adotadas pelos Estados-Membros que são partes do regime internacional de mobilidade humana.
Exemplos de uso da IA na migração
O uso de inteligência artificial é uma realidade cada vez mais frequente e abrangente. Nos Estados Unidos a iniciativa de verificação extrema era um projeto que previa o monitoramento de atividades de mídia social de solicitantes de visto e titulares de vistos para avaliar se eles contribuiriam positivamente para a sociedade. O aspecto de aprendizagem de máquina do projeto norte-americano foi descontinuado após críticas de que o programa poderia apresentar informações não confiáveis, bem como violar o direito à liberdade de expressão online. Na Nova Zelândia algoritmos detectam a partir de idade, gênero e etnia prováveis pessoas indesejadas no contexto migratório. Na União Européia, já se utilizou o detector de mentiras iBorderCtrl que opera por inteligência artificial para a triagem de passageiros em aeroportos. A Grécia está testando o sistema Centauro de monitoramento de campos de refugiados que, com base em algoritmos, prevê e informa possíveis ameaças à segurança. Na Malásia, por exemplo, a verificação de cumprimento de medidas de restrição de entrada foi feita por drones. Tecnologias de monitoramento utilizadas na fronteira EUA-México têm sido associadas com aumento das mortes de migrantes, já que para tentar escapar da fiscalização acabam percorrendo rotas mais perigosas. O Roborder tem como objetivo desenvolver um sistema de monitoramento de fronteiras completamente autônomo que tem capacidade de identificar atividades criminais na fronteira. No Brasil, ainda não há relatos de utilização de inteligência artificial para tomada de decisões no contexto migratório. No entanto, considerando a tendência global, é provável que num futuro próximo tais tecnologias sejam utilizadas para decidir temas relacionados à migração.
Deontologia x utilitarismo
Para melhor refletir sobre migração e IA, retomamos as perspectivas filosóficas deontológicas e utilitarista sobre o uso da inteligência artificial, já apresentada no primeiro texto desta série.
Utilitaristas defendem que, se a IA puder produzir resultados melhores que os humanos, deve ser utilizada para a maximização dos ganhos (por exemplo, um robô decidir sobre status migratório gerar maior segurança para o Estados). De acordo com essa perspectiva, a tecnologia possibilita a tomada de decisões céleres, imparciais, precisas e lastreadas em dados. Desse modo, diminuir-se-iam as chances de haver vieses e preconcepções humanas no processo de tomada de decisão. Ainda que uma minoria saísse prejudicada por decisões que não exercem um juízo valorativo adequado, a decisão seria válida em um contexto mais amplo por beneficiar um maior número de pessoas. Do ponto de vista dos Estados, decisões céleres e alicerçadas em grande quantidade de dados se traduziriam numa melhor defesa dos interesses de segurança nacional. Logo, o uso de IA tornaria o processo mais justo, seguro e objetivo para um maior número de pessoas. Portanto, os argumentos favoráveis ao emprego de IA para a gestão migratória são predominantemente utilitaristas.
A perspectiva deontológica entende que, mesmo que a inteligência artificial possa apresentar resultados melhores que os humanos, é moralmente inadmissível empregá-la para executar tarefas inerentemente humanas (por exemplo, um algoritmo decidir sobre quem pode ingressar e permanecer em um país seria errado, independentemente de suas consequências). Na raiz desse argumento está a noção de que a dignidade humana é fruto da interação entre dois indivíduos que se reconhecem enquanto livres e portadores de direitos. Assim, a IA não deveria ser utilizada, ao menos em alguns campos que exigem valoração, pois seria desprovida de capacidade para compreender todo o contexto pessoal e migratório e mensurar os impactos de tal decisão no projeto de vida dos migrantes.
Mesmo que bem intencionado, o uso de IA pode se tornar instrumento de vigilância e opressão. Sua utilização pode ocasionar práticas discriminatórias, violar o direito à privacidade, de mobilidade, e de associação. A tecnologia muitas vezes replica vieses existentes em bases de dados que refletem práticas sociais injustas, como o racismo, a xenofobia e outras formas de discriminação. Assim, pessoas podem ser lombrosianamente categorizadas como tendo uma personalidade voltada para a delinquência. Mais ainda, os times que desenvolvem algoritmos muitas vezes não tem uma diversidade de gênero, classe social e origem étnica, o que aumenta as chances de discriminação velada. A privacidade e o direito de associação são devassados com o acesso e consideração de suas redes sociais, amigos, comunidades, dentre outros. Outro fator relevante é que a IA não é capaz de compreender o contexto e as nuances das diversas realidades migratórias. Em suma, perspectiva deontológica gravita em prol dos direitos humanos dos migrantes.
Considerações finais
No que diz respeito a questões migratórias, em um extremo temos a segurança nacional e em outro os direitos humanos dos migrantes. Observamos que os argumentos contra a utilização da IA gravitam para o extremo dos direitos humanos, e que os argumentos a favor tendem para os interesses de segurança nacional dos Estados. Enquanto o único argumento a favor da IA que aparenta favorecer os migrantes é a possível celeridade das decisões migratórias tomadas por sistemas autônomos, o argumento da imparcialidade permanece um desafio. A tecnologia não é neutra por se basear em dados que refletem práticas sociais discriminatórias presentes na pré-compreensão dos seus programadores.
Se por um lado a IA pode maximizar o bem-estar por oferecer celeridade e segurança nacional, por outro o seu uso por governos no contexto migratório deve encontrar limites lastreados no princípio da dignidade da pessoa humana. É necessário que governos, academia e sociedade civil discutam o uso da inteligência artificial no contexto migratório para evitar excessos e garantir seu uso eficiente. Defendemos que sejam incorporadas noções claras de direitos humanos tanto no desenvolvimento de algoritmos quanto em sua aplicação e avaliação. É essencial que algoritmos migratórios sejam desenvolvidos por times com diversidade de gênero, classe, etnia e origem nacional, bem como que se definam mecanismos de revisão dos algoritmos antes e durante a sua utilização e responsabilização.
* Este texto não reflete, necessariamente, a opinião do Boletim Lua Nova ou do Cedec.
[1] Defensora Pública Federal e doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG). Mestre em Direito pela PUC-MG e LL.M pela Columbia University.
[2] Pesquisador de pós-doutorado no Instituto de Estudos Avançados da Universidade (IEA) de São Paulo (USP). Doutor em Ciência Política pela USP.
Fonte Imagética: Photo by Katie Moum on Unsplash. Disponível em <https://unsplash.com/photos/7XGtYefMXiQ>. Acesso em 16 set 2022.