terça-feira, 22 de dezembro de 2020

Inteligência Artificial: uma breve análise jurídica, sociológica e tecnológica na Sociedade da Informação

Por Mayara Carneiro*


 A análise dos sistemas de Inteligência Artificial deve seguir um ponto de vista jurídico, sociológico e tecnológico. Como afirma Lawrence Lessig em “The Law of the Horse: what cyberlaw might teach”, o debate completo entre direito e tecnologia não pode se restringir a essas duas vertentes, mas deve abranger outras forças regulatórias, em um cenário em que as leis, as normas sociais, os mercados e a arquitetura estariam presentes.

Questiona-se, a partir do ponto de vista jurídico, quem seria o responsável caso um sistema inteligente provoque um dano que não era previsível. Seria o programador que a criou? A empresa que lançou o software? O consumidor que comprou e interage com a máquina em uma relação de aprendizado? Será que o Direito está preparado para lidar com máquinas inteligentes, autônomas e imprevisíveis?

Outro ponto a ser levado em consideração é o tipo de Inteligência Artificial que se pretende tratar. Se Inteligência Artificial Forte, que tem consciência sobre si e sobre seus atos, que entende, é verdadeiramente inteligente e pode chegar à singularidade; ou se Inteligência Artificial Fraca, que age como se inteligente fosse, que não entende e não tem consciência sobre si e sobre seus atos – que é a Inteligência que se tem no estado da arte atual.

Créditos: Pixabay

De fato, a Inteligência Artificial está em todos os lugares (atuando, principalmente, junto ao processo de ressignificação do ser humano através da ciborguização que acontece na interação homem-máquina, como previsto por Donna Haraway em “A Cyborg Manifesto: Science, Technology, and Socialist Feminism in the Late 20th Century”, como em um celular, que atua como a extensão do ser humano, em que nele estão contidas todas as informações de seu dono. Ao mesmo tempo, tem-se Inteligências Artificiais capazes de ganhar cidadanias e direitos, como o exemplo clássico da Sophia da Hanson Robotics, que possui mais direitos do que as mulheres da Arábia Saudita, porque pode se locomover livremente sem a presença de alguém do sexo oposto, além de não precisar ter seu rosto e corpo cobertos.

Para entender a real importância e influência dos sistemas de Inteligência Artificial ao longo da Sociedade da Informação e sua capacidade de influência nas relações humanas, faz-se uso do que ensina o filósofo francês Bruno Latour, qual seja o surgimento de novos atuantes (actants) na esfera pública e a e a quebra da categorização binária humana e não humana. Consequentemente, passa-se a atribuir características humanas a seres não humanos.

Ao mesmo tempo, do ponto de vista sociológico, tem-se algoritmos que se utilizam de proxies (variáveis não relevantes) de raça e de classe que acabam maximizando a discriminação de minorias tradicionalmente discriminadas pela sociedade, como o algoritmo da Northpointe utilizado para prever a reincidência criminal e a periculosidade no estado da Flórida, Estados Unidos.

Esse algoritmo foi exposto pela ProPublica porque não fazia perguntas diretas de raça e classe, mas perguntas como “existe muito crime no seu bairro?”, o que representa um proxy de classe e de raça, e “já foi suspenso ou expulso da escola?”, que é um proxy de raça, considerando que em uma pesquisa rápida no Google confirma-se que a maioria das crianças que são suspensas ou expulsas nas escolas norte-americanas são pretas. Os resultados para essas perguntas são tão óbvios quanto se parecem: as pessoas pretas e pobres recebiam avaliações de riscos maiores, sendo consideradas mais propícias a reincidência criminal e consideradas com maior periculosidade, o que não se confirmou. Isso gerou um grave problema.

O processo algorítmico, reconhecido por sua “dureza”, não é influenciado por processos externos ao seu código. Mas o ser humano passa a estar presente em várias partes do processo ao fornecer os bancos de dados e as bases de treinamentos, que, por muitas vezes, são desequilibrados. Consequentemente, o algoritmo apresenta resultados desequilibrados. Ressalta-se: O algoritmo é (sempre) neutro, contudo, eventualmente pode apresentar um resultado enviesado por ser um reflexo dos seus bancos de dados e das bases de treinamento, fornecidos pelo ser humano.

Neste sentido, Cathy O’Neil caracteriza esses algoritmos como sendo generalizados (widespread) por serem capazes de atingir milhares de pessoas de forma generalizada, sendo capazes de decidir sobre critérios de reincidência, periculosidade, empregabilidade, empréstimo etc.; misteriosos (mysterious) por agirem secretamente, as pessoas que têm suas vidas decididas por algoritmos, dificilmente sabem que isso ocorre, não se sabe ao certo quais critérios são utilizados; e destrutivos (destructive) pela capacidade de destruir a vida das pessoas afetadas de forma injusta.

Por esse motivo, fala-se em ética de Inteligência Artificial (AI Ethics) aliada a princípios de governança algorítmica (como a explicabilidade), em uma tentativa de fazer com que o algoritmo traga resultados mais justos.

Outro ponto a ser discutido, no que tange a análise tecnológica, é a autonomia da Inteligência Artificial. Trata-se de uma autonomia meramente tecnológica, resultante de uma racionalidade previamente programada. Isso significa dizer que o sistema inteligente só tem autonomia porque o humano assim o quis. O que implica dizer que todas as ações da máquina sempre podem ser ligadas a um ser humano ou a um grupo econômico.

Quando o termo “Inteligência Artificial” foi cunhado, em 1956, Alan Turing já se questionava em 1950 sobre a possibilidade de as máquinas pensarem (can machine think?). Eventualmente deixou essa pergunta de lado para querer saber o quão bem poderia uma máquina imitar o cérebro humano. Por isso teceu o argumento de várias inaptidões (Arguments from Various Disabilities) em que afirmava que uma máquina seria capaz de fazer inúmeras coisas mencionadas, mas nunca poderá fazer X. Por X, determinou: ser amável, bonito, amigável, senso de humor etc., ou seja, características mais subjetivas, ligadas ao ser humano per se. Tal entendimento vai ao encontro ao que o jurista italiano Ugo Pagallo chamou de autonomia artificial, no qual as máquinas inteligentes apenas emulam sentimentos e emoções, como atores em uma peça de teatro, não sendo algo genuíno.

No mesmo sentido, John Searle mostra no Chinese Room Argument que do mesmo jeito que uma simulação de incêndio não ateia fogo na vizinhança, uma simulação de entendimento da máquina não faz com que ela entenda verdadeiramente. A máquina só ficou incrivelmente boa em manipular símbolos formais não interpretados.

A responsabilidade civil a ser empregada dependerá do tipo de Inteligência Artificial empregada, visto que o dano que um carro autônomo causa é físico, enquanto o dano causado por um algoritmo com resultado enviesado fere os direitos da personalidade do indivíduo. Mas acredita-se em uma Inteligência Artificial desenvolvida frente à ética deontológica, que, todavia, não vai focar na intenção do sistema (já que ele não possui intenção), mas no que se pretendia fazer. Todavia, mesmo com valores éticos, o sistema não tem raciocínio prático, julgamento, autorreflexão, deliberação, que são características privativas do ser humano. Por isso a necessidade do homem por trás do sistema autônomo e inteligente.

Assim, a Inteligência Artificial verdadeiramente ética e justa deve ser construída segundo princípios de segurança algorítmica, além de ser ética, segura e deve estar aliada a princípios de privacidade by design, isto é, desde sua concepção, como sugere Eduardo Magrani. Dessa forma, o sistema estará alinhado com um princípio de prevenção de riscos favorável à justiça e ao bem estar daqueles que vivem a Sociedade da Informação.

 

Sobre a autora:

* Mestre em Direito da Sociedade da Informação, membro do Grupo de Pesquisa “Família, Grupos Sociais e Informação”, ambos no Centro Universitário das Faculdades Metropolitanas Unidas – SP. Pós-graduada em Direito Civil e Processo Civil no Centro Universitário UniFacid Wyden (Teresina - PI). Advogada. Vice-presidente da Comissão de Direito Digital da OAB/PI. E-mail: mayaracarneir@gmail.com

CV: http://lattes.cnpq.br/3123942841476426. https://orcid.org/0000-0003-1139-4597. IG: @mayaracarneiroadv

 

 

REFERÊNCIAS

 

LATOUR, Bruno. A esperança de Pandora: ensaios sobre a realidade dos estudos científicos. Tradução: Gilson César Cardoso de Sousa. Bauru: EDUSC, 2001.

MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019.

O'NEIL, Cathy. Weapons of math destruction: how Big Data increases inequality and threatens democracy. New York: Crown, 2016.

PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Dordrecht: Springer, 2013.

TURING, Alan. Computing Machinery and Intelligence. Oxford University Press, v. 59, n. 236, p. 433-460 out. 1950.


3 comentários:

  1. Excelente análise. Aos poucos vamos nos confrontando com a IA e é necessário avaliar as vantagens e riscos da tecnologia.

    ResponderExcluir
  2. Parabéns pelo artigo. Gosto da tecnologia, mas estas evoluções trazem alterações nas estruturas da organização da sociedade. Nem todos poderão estar preparados para estas transformações.

    ResponderExcluir
  3. Artigo de opinião bem embasado. O avanço tecnológico tem ajudado bastante no desenvolvimento humano e de nosso planeta. Marcos regulatórios devem sempre serem revistados para que não haja abuso de autoridades de forma autoritária e eminentemente apenas com interesse político!

    ResponderExcluir