Wanda Capeller[1]
João Pedroso[2]
Andreia Santos[3]
13 de março de 2024
O impacto das novas tecnologias e a conformação do mundo atual à disrupção tecnológica, principalmente, promovida pelos avanços na Inteligência Artificial (IA) tem promovido transformações que se refletem tanto em oportunidades, como em novos riscos. A IA expandiu-se rapidamente e conceptualmente tem sido usada de muitas formas diferentes, destacando um processo profundamente interpretativo e político no estabelecimento dos seus limites (cf. JOYCE et al., 2021). Segundo a definição do Parlamento Europeu (2023), a IA pode ser definida como: “a habilidade de uma máquina exibir capacidades semelhantes às humanas (…) [e] lidem com o que percebem, resolvam problemas e ajam para alcançar um objetivo específico (…), analisando os efeitos de ações anteriores e trabalhando de forma autónoma (…)”.
Do ponto de vista das oportunidades, a evolução das novas tecnologias, juntamente com a utilização da IA, tem contribuído para avanços importantes como: a redução do erro; o menor risco para os humanos; maior produtividade devido à sua disponibilidade “24hx7dias da semana”; a IA é a força motriz de inúmeras inovações em várias áreas, designadamente no campo da medicina, com aplicações que vão desde diagnóstico e tratamento até descoberta de medicamentos e ensaios clínicos,; a rapidez de processamento de informação; a sua capacidade de analisar grandes quantidades de dados e identificar padrões e tendências; e a facilitação da vida quotidiana através de aplicações como a “Siri” da Apple e a “Cortana” do Windows (cf. KUMAR, 2019).
Contudo, o seu desenvolvimento e aplicação apresenta, também, novos riscos no que diz respeito ao funcionamento das sociedades. A racionalidade instrumental da IA com base na algoritmização entra em confronto com os valores democráticos, com a ética e com a simbolização do direito e da justiça. Novos riscos surgem com base no modo como os algoritmos aplicados são selecionados e programados.
Um desses riscos assenta sobre a transparência processual, isto é, a forma como os resultados alcançados traduzem os processos que conduziram os inputs até lá. Muitas vezes, o design dos sistemas de IA não permite conhecer o mecanismo subjacente à interpretação que fazem e como chegam ao produto ou decisão final, nem mesmo pelos programadores que os criaram (SURDEN, 2019). Para além disso, a própria escolha dos inputs, no sentido do que é considerado relevante, coloca o risco de serem ignoradas informações importantes para a correta análise da situação (NUNES; MARQUES, 2018). O que, por sua vez, se relaciona com os riscos de discriminação – os denominados “vieses algorítmicos” – uma vez que o viés inconsciente do programador poderá refletir discriminações de ordem social, de género ou cor de pele, embora tornando o resultado aparentemente científico (BRITO; FERNANDES, 2020: 90). Subjacente a todas estas questões, a construção dos mecanismos de IA apresenta uma preocupação com a segurança, a confiabilidade dos sistemas e sua inteligibilidade, a designada “accountability” (responsabilização pelos sistemas) relacionada com a expectativa de que designers, e de quem desenvolve e aplica tecnologias de IA, cumpram as normas e a legislação para garantir o seu adequado funcionamento (NOVELLI; TADDEO; FLORIDI, 2023). Porém, tem-se assistido ao uso indevido de dados pessoais, dando origem ao surgimento de riscos de atentado à privacidade, à confidencialidade e à segurança das pessoas (SOURDIN; MEREDITH; LI, 2021).
Os efeitos da IA têm sido considerados paradoxais, pelo que neste artigo opta-se por realçar diferentes efeitos perversos da utilização da IA que têm entrado em rota de colisão com os princípios democráticos, do estado de direito e da justiça social.
O primeiro está relacionado com a desumanização e desestabilização da sociedade através de novas formas algorítmicas e conteúdos “artificiais”. O controlo algorítmico transforma os indivíduos ao nível da sua intimidade e subjetividade, dotando-os de “novas maneiras de agir, de pensar e de sentir”. Uma nova semântica algorítmica emerge, tipicamente usada nas esferas negociais do mercado, que, no entanto, penetra o quotidiano, sendo invadido por uma linguagem técnica e instrumental, que vai ao encontro da linguagem natural. Em recente entrevista, Yuval Harari apontou para o perigo da IA colocar riscos à democracia através do simples facto de destruir uma conversa, dado que para o historiador, o diálogo é essencial para a democracia, e este é feito com base na linguagem e na confiança que se estabelece (RIOS, 2023). Questiona-se, por isso, sobre o que acontece quando a IA minar esta confiança, “como poderemos saber se estamos a ter uma discussão – sobre o político que queremos eleger, por exemplo – com uma máquina ou com um humano? A democracia é uma conversa entre pessoas, não entre bots e pessoas” (RIOS, 2023).
De acordo com o autor, estamos perante o uso de uma “intimidade falsa”, através de formas que a IA utiliza para estabelecer relações próximas com as pessoas, influenciando opiniões e visões do mundo, com potencial para desestabilizar as sociedades, e até prejudicar a nossa compreensão básica da civilização humana, dado que as nossas normas culturais são baseadas em narrativas sociais aceites. Os últimos desenvolvimentos da IA, de que são exemplo as IA generativas, como é o caso do ChatGPT, tem realçado a discussão sobre as implicações éticas, legais e sociais da IA no modo como se define a sua forma, finalidade, função, capacidades, requisitos e contingências. Os investigadores assinalam que as pessoas têm a sensação de que interagem com uma entidade subjetiva, constroem um vínculo com esse interlocutor – mesmo que inconscientemente – que as expõe a esse risco, minando a sua autonomia (cf. SMUHA et al., 2023).
O segundo assenta sobre o favorecimento e tendências totalitárias através do controlo social, da vigilância e da falta de privacidade. A metáfora foucaultiana do panótico é agora substituída por uma intensa produção de dispositivos pós-panóticos de alta tecnologia, permitindo o reforço do biopoder que intensifica os efeitos da sua própria invisibilidade. Neste sentido, o binómio segurança/inflação tecnológica estende-se a todas as sociedades através de modelos informais de controlo cruzado. Estes modelos baseiam-se em formas eletrónicas – sistemas numéricos, informatizados, de deteção e deteção por infravermelhos, “lógicas de espionagem”, sistemas de leitura de dados biométricos, câmaras de vigilância, sistemas de partilha de inteligência-, e também em formas “sinópticas” da sociedade voyeur – as formas “omnióticas” a partir do controlo monitorizado de “todos por todos” (MELO PIMENTA, 2008). Os “cookies”, ferramentas de rastreamento e logins sociais permitem a sincronização de dados sobre o comportamento online dos utilizadores em plataformas, sites e dispositivos, obtendo informações constantes sobre a sua localização, comportamento, preferências e vida social. Com base nos dados recolhidos, os utilizadores ficam sujeitos a tentativas personalizadas de modificação de comportamento, sem conhecimento ou consentimento explícito, pelo que tanto em sociedades democráticas, quanto nas mais autoritárias, esse conhecimento e influência podem ser usados não apenas para fins económicos, mas também políticos (KÖRNER, 2019, p. 8). O mesmo se passa com as tecnologias de vigilância com base em IA – como o reconhecimento facial, de voz e de movimento, potenciado pelas inúmeras câmaras em espaços públicos – que aliadas à análise preditiva tanto podem ser usadas para aumentar a segurança e proteção dos cidadãos, como permitir um controlo sem precedentes por parte dos governos, principalmente, para os estados autoritários que podem assim monitorizar e controlar a vida dos cidadãos (cf. KÖRNER, 2019, p.13).
O terceiro reflete a desinformação e a manipulação de dados no funcionamento político das sociedades. O tema da desinformação tem ganhado destaque através de contas falsas e bots, micro alvos psicográficos (“microtargeting”) e deepfakes (imagens alteradas) utilizados para manipular a informação com diferentes fins (BRKAN, 2019). A IA permite analisar e orientar os discursos públicos dado que a sua capacidade de observar e analisar enormes quantidades de comunicação e informações em tempo real, permite detetar padrões e reações instantâneas e muitas vezes invisíveis.
A IA revela a inadaptação dos poderes institucionais a ordenar o universo algorítmico , que impacta a democracia. De facto, os poderes tradicionais não são capazes de resguardar a democracia, atingida frontalmente pela desinformação (disinformation) e informação incorreta (misinformation), que servem aos complotismos e populismos. Se, historicamente, a difusão de desinformação e/ou informação incorreta sempre existiu, a sua projeção algorítmica potencializa os efeitos perversos da IA na esfera política. Com a IA, essas práticas adquiriram novas características, a saber: a extrema velocidade da circulação das comunicações que permite uma progressão exponencial das partilhas; o alcance sem precedentes dos conteúdos difundidos, que atinge, instantaneamente, milhões de utilizadores; o tratamento massivo e abusivo de dados pessoais que permite a segmentação no direcionamento dos conteúdos; a arquitetura informacional e os parâmetros de funcionamento das plataformas que potencializam conteúdos extremos que provocam vagas de reação (BARBOSA; MARTINS; VALENTE, 2021, p. 9). Esses mecanismos visibilizam ideias e debates anti-democráticos, que, em geral, nada têm a ver com a realidade factual. Mais ainda, dificultam a aplicação de medidas de contra-informação ou reparatórias (idem). Por influenciar a opinião pública e desviar o debate democrático, essas estratégias enganosas, à contramão das práticas democráticas, intensificam a violência simbólica (e real) inerente ao campo político. Isso ficou evidenciado nas eleições presidenciais norte-americanas (2016), e brasileiras (2018), ambas atingidas pelas práticas e técnicas de disinformation (informações falsas, complotismo, rumores de caráter político, propaganda negativa sobre ações políticas, etc.) e misinformation (difusão involuntária de informações incorretas) (US DEPARTMENT OF JUSTICE, 2019; WECKER, 2022).
Finalmente, um outro efeito perverso relaciona-se com a reconfiguração das desigualdades socioeconómicas e da distribuição de poder no mundo. Uma questão muitas vezes esquecida, e que é importante assinalar, é a de que a tecnologia é uma questão de justiça e um produto de relações sociotécnicas mais amplas, pelo que o uso e design de sistemas automatizados é o resultado de escolhas humanas sobre políticas, prioridades e normas culturais, o que demonstra que a IA é, no fundo, uma questão de justiça política e social (cf. NIKLAS, 2019). Com a automatização dos aparelhos de produção e distribuição de bens materiais e imateriais, o capitalismo algorítmico redefiniu o setor económico, gerando imensas implicações nas esferas político-sociais. Em escala global, a IA impactou o jogo geopolítico, não apenas por induzir as grandes potências mundiais (Estados Unidos, China, Rússia) a uma “guerra algorítmica”, mas também por induzir os demais países a investir na IA para melhor situarem-se na arena política internacional.Podemos, portanto, afirmar que a inovação tecnológica não alterou a “essência do capitalismo”, pelo contrário, a aceleração capitalista (ROSA, 2014), alavancada pela era algorítmica, veio manter sistemas de extração e acumulação logística através da exploração de dados.
A quarta revolução industrial (Indústria 4.0 e 5.0) ultrapassou em grande parte o estágio da automação digital, afetando o controlo global e a distribuição do poder global, doravante baseado no processamento massivo de dados e no machine learning. Alguns autores definiram este fenómeno como um processo de “extrativismo algorítmico” (ou “extrativismo de dados”), noções que são criadas para estabelecer a analogia entre a gestão da informação e a indústria mineira de extração de dados. No capitalismo digital, o extrativismo de IA é uma indústria baseada na exploração de recursos energéticos e de mão de obra barata (CRAWFORD, 2021, p. 28). No entanto, os dados digitais são também matéria-prima que pode ser extraída, comercializada, refinada e processada através de plataformas que permitem um novo regime de acumulação (CELIS BUENO; SCHULTZ, 2021, p. 2). Assim, o capitalismo digital e o extrativismo digital levam a uma “guerra algorítmica” baseada numa competição económica, e até militar, extrema, como demonstra o exemplo emblemático dos Estados Unidos e da China. Tal competição empurra outros Estados para uma escolha ideológica entre os países democráticos ocidentais, por um lado, e os países autocráticos, por outro lado, atraindo poderes algorítmicos e estabelecendo esferas de influência, ou seja, soft power e soft law, e aumentando o gap entre os países mais ricos e os mais pobres. Os países do sul global, perpetuando a sua posição de dependência económica e financeira, deparam-se com novas formas de dependência tecnológica cuja equação pode ser expressa através de: “+ fornecimento de dados/- transferência tecnológica”, onde a matéria-prima e a sua extração resultaram no aumento da dependência económica e na subordinação aos poderes mercantis.
Os desafios, riscos e efeitos perversos resultantes das novas tecnologias de IA deixam claro a necessidade da sua regulação. O caminho regulatório teve início com as respostas aos desafios éticos e, depois, efetivamente, com a criação de um quadro regulatório, de que é exemplo a Europa (Conselho da Europa e União Europeia) e suas instituições, cuja ação se tem destacado na produção normativa relativa à IA, nomeadamente no “AI ACT”. O debate sobre o texto que precedeu a sua aprovação no Parlamento Europeu, em 14 de junho de 2023, foi intenso, centrando-se sobre os sistemas de IA com um nível de risco inaceitável, bem como os de risco elevado, os quais interferem diretamente com a proteção dos direitos fundamentais, democracia e estado de direito.
Deste modo, e concluindo, é urgente um aprofundamento da análise sociojurídica da relação sobre os efeitos da IA com recurso a três parâmetros. O primeiro é o da complexidade que envolve a IA e as diferentes dimensões da sociedade. O facto do seu desenvolvimento exponencial colocar riscos existenciais aos humanos, é por si só revelador dos desafios que se colocam. Os avanços tecnológicos não poderão colocar em causa o que nos distingue do que é produzido artificialmente – a nossa humanidade. O segundo, é a questão da relação entre o tempo da IA e do direito, onde aquela tem um ritmo demasiado acelerado e a sua regulação jurídica demasiada lenta. O modo como o direito regula as lógicas de desenvolvimento e aplicação da IA, e os seus efeitos perversos, devem ser orientadas para o reforço dos princípios democráticos na regulação das sociedades. O terceiro parâmetro constitui-se na necessidade de uma agenda científica para repensar a mutação dos conceitos que usamos, quando projetados na esfera algorítmica. É notório que do ponto de vista sociojurídico, a produção e uso da IA é diferente em função de uma ampla gama de contextos políticos e socioeconómicos, e consequentemente traça limites de categorização, que são em si – e na relação com a sociedade – processos profundamente interpretativos, políticos e societais. Assim, afirma-se a nossa proposta da necessidade de desenvolvimento de uma sociologia política do direito, justiça e IA, a qual deve ser capaz de repensar o direito e a justiça face às transformações impostas, neste caso, pelas novas tecnologias que utilizam a IA (CAPELLER, PEDROSO E SANTOS, 2023).
* Este texto não representa necessariamente a opinião do Boletim Lua Nova ou do CEDEC.
Bibliografia:
BARBOSA, Beatriz.; MARTINS, Helena; VALENTE, Jonas. Fake News: como as plataformas enfrentam a desinformação. Rio de Janeiro: Grupo Multifoco, 2021.
BRKAN, Maja. Artificial Intelligence and Democracy: The Impact of Disinformation, Social Bots and Political Targeting. Delphi, 2, p.66-71, 2019.
BUENO; Claudio CELIS; SCHULTZ, Maria Jesus. Extractivismo de datos. Imaginación maquínica, 2021. Disponível em: http://imaginacionmaquinica.cl/extractivismo-de-dato. Acesso em: 29 set 2023
CAPELLER, Wanda; PEDROSO, João; SANTOS, Andreia (2023) IA e Justiça: contributo para uma Sociologia Política do Direito, Justiça e Inteligência Artificial. Sociologia online APS, 2023 (em revisão).
CRAWFORD, Kate.Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale: Yale University Press, 2021.
JOYCE, Kelly; et al. Toward a Sociology of Artificial Intelligence: A Call for Research on Inequalities and Structural Change. Socius: Sociological Research for a Dynamic World. Volume 7, p. 1–11, 2021.
KÖRNER, Kevin. Digital politics – AI, big data and the future of democracy. Frankfurt: Deutsche Bank Research, 2019
KUMAR, Sunil. Advantages and Disadvantages of Artificial Intelligence. Towards Data Science online, 2019. Disponível em: https://towardsdatascience.com/advantages-and-disadvantages-of-artificial-intelligence-182a5ef6588c. Acesso em: 29 set. 2023
MELO PIMENTA, Emanuel D. The City of Sun. Panopticon, Synopticon and Omniopticon – Big Brother ant the Giant with Thousand Eyes. Low Power Society, p. 260-303, 2008
NIKLAS, Jedrzej. Conceptualising socio-economic rights in the discussion on Artificial Intelligence. SSRN online, 2019. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3569780. Acesso em: 29 set. 2023
NOVELLI, Claudio; TADDEO, Mariarosaria; FLORIDI, Luciano. Accountability in artificial intelligence: what it is and how it works. AI and Society, 2023. Disponível em: https://doi.org/10.1007/s00146-023-01635-y Acesso em: 29 set. 2023
NUNES, Dierle; MARQUES, Ana. Inteligência artificial e direito processual: vieses algoritmos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, 285, p. 421-447, 2018
RIOS, Pedro. Yuval Harari em Lisboa: a inteligência artificial pode ser “o T-rex” que “destruirá a democracia”. Público online, 2023. Disponível em: https://www.publico.pt/2023/05/19/ciencia/noticia/yuval-harari-lisboa-inteligencia-artificial-trex-destruira-democracia-2050375 Acesso em: 29 set. 2023
ROSA, Hartmut. Aliénation et accélération. Vers une théorie critique de la modernité tardive. Paris: La Découverte, 2014
SMUHA, Nathalie A. et al. Open Letter: We are not ready for manipulative AI – urgent need for action. Ku Leuven online, 2023. Disponível em: https://www.law.kuleuven.be/ai-summer-school/open-brief/open-letter-manipulative-ai Acesso em: 29 set 2023
SOURDIN, T.; MEREDITH, J.; LI, B. Digital Technology and Justice: Justice Apps. NY: Routledge, 2021
SURDEN, Harry. Artificial Intelligence and Law: An Overview. Georgia State University Law Review, vol. 35, nº 4, p. 1305-1337, 2019.
US DEPARTMENT OF JUSTICE. Report on the Investigation Into Russian Interference in the 2016 Election Presidential Election – Volume I of II, Special Counsel Rober S. Mueller, III. US: Department of Justice, 2019.
WECKER, Katharina. Inteligência artificial e democracia direta podem conviver?. SWISSInfo. Ch online. Disponível em: https://www.swissinfo.ch/por/intelig%C3%AAncia-artificial-e-democracia-direta-podem-conviver-/47577828 Acesso em: 29 set. 2023.
[1] João Pedroso é jurista e sociólogo do direito. Professor auxiliar da Faculdade de Economia da Universidade de Coimbra e investigador do Centro de Estudos Sociais da Universidade de Coimbra.
[2] Wanda Capeller é Doutora em Direito e Ciência Política pela Universidade de Picardie (Amiens, França), e obteve o título de Pós-Doutoramento em Sociologia do Direito pela Universidade de Ciências Sociais de Toulouse (França). Professora Emérita da Universidade francesa (SciencesPo-Toulouse, França).
[3] Andreia Santos é socióloga e doutora em Sociologia, no âmbito do Programa de Doutoramento em “Relações de Trabalho, Desigualdades Sociais e Sindicalismo” da Faculdade de Economia da Universidade de Coimbra.
Referência Imagética: O presidente Joe Biden faz um pronunciamento durante a assinatura de uma Ordem Executiva sobre Inteligência Artificial, segunda-feira, 30 de outubro de 2023, na Sala Leste da Casa Branca. (Foto Oficial da Casa Branca por Adam Schultz). Acesso em 19 fev 2024, disponível em: https://commons.wikimedia.org/wiki/Category:Artificial_intelligence_risks#/media/File:P20231030AS-0718.jpg.