Por Mayara Carneiro*
A análise dos sistemas de Inteligência Artificial deve seguir um ponto de vista jurídico, sociológico e tecnológico. Como afirma Lawrence Lessig em “The Law of the Horse: what cyberlaw might teach”, o debate completo entre direito e tecnologia não pode se restringir a essas duas vertentes, mas deve abranger outras forças regulatórias, em um cenário em que as leis, as normas sociais, os mercados e a arquitetura estariam presentes.
Questiona-se, a partir do ponto de vista
jurídico, quem seria o responsável caso um sistema inteligente provoque um dano
que não era previsível. Seria o programador que a criou? A empresa que lançou o
software? O consumidor que comprou e interage com a máquina em uma relação de
aprendizado? Será que o Direito está preparado para lidar com máquinas
inteligentes, autônomas e imprevisíveis?
Outro ponto a ser levado em consideração é
o tipo de Inteligência Artificial que se pretende tratar. Se Inteligência
Artificial Forte, que tem consciência sobre si e sobre seus atos, que entende,
é verdadeiramente inteligente e pode chegar à singularidade; ou se Inteligência
Artificial Fraca, que age como se inteligente fosse, que não entende e não tem
consciência sobre si e sobre seus atos – que é a Inteligência que se tem no
estado da arte atual.
De fato, a Inteligência Artificial está em
todos os lugares (atuando, principalmente, junto ao processo de ressignificação
do ser humano através da ciborguização que acontece na interação homem-máquina,
como previsto por Donna Haraway em “A Cyborg Manifesto: Science, Technology,
and Socialist Feminism in the Late 20th Century”, como em um celular, que
atua como a extensão do ser humano, em que nele estão contidas todas as
informações de seu dono. Ao mesmo tempo, tem-se Inteligências Artificiais
capazes de ganhar cidadanias e direitos, como o exemplo clássico da Sophia da Hanson
Robotics, que possui mais direitos do que as mulheres da Arábia Saudita,
porque pode se locomover livremente sem a presença de alguém do sexo oposto,
além de não precisar ter seu rosto e corpo cobertos.
Para entender a real importância e
influência dos sistemas de Inteligência Artificial ao longo da Sociedade da
Informação e sua capacidade de influência nas relações humanas, faz-se uso do
que ensina o filósofo francês Bruno Latour, qual seja o surgimento de novos
atuantes (actants) na esfera pública e a e a quebra da categorização
binária humana e não humana. Consequentemente, passa-se a atribuir
características humanas a seres não humanos.
Ao mesmo tempo, do ponto de vista
sociológico, tem-se algoritmos que se utilizam de proxies (variáveis não
relevantes) de raça e de classe que acabam maximizando a discriminação de
minorias tradicionalmente discriminadas pela sociedade, como o algoritmo da
Northpointe utilizado para prever a reincidência criminal e a periculosidade no
estado da Flórida, Estados Unidos.
Esse algoritmo foi exposto pela ProPublica
porque não fazia perguntas diretas de raça e classe, mas perguntas como “existe
muito crime no seu bairro?”, o que representa um proxy de classe e de
raça, e “já foi suspenso ou expulso da escola?”, que é um proxy de raça,
considerando que em uma pesquisa rápida no Google confirma-se que a maioria das
crianças que são suspensas ou expulsas nas escolas norte-americanas são pretas.
Os resultados para essas perguntas são tão óbvios quanto se parecem: as pessoas
pretas e pobres recebiam avaliações de riscos maiores, sendo consideradas mais
propícias a reincidência criminal e consideradas com maior periculosidade, o
que não se confirmou. Isso gerou um grave problema.
O processo algorítmico, reconhecido por
sua “dureza”, não é influenciado por processos externos ao seu código. Mas o
ser humano passa a estar presente em várias partes do processo ao fornecer os
bancos de dados e as bases de treinamentos, que, por muitas vezes, são
desequilibrados. Consequentemente, o algoritmo apresenta resultados
desequilibrados. Ressalta-se: O algoritmo é (sempre) neutro, contudo,
eventualmente pode apresentar um resultado enviesado por ser um reflexo dos
seus bancos de dados e das bases de treinamento, fornecidos pelo ser humano.
Neste sentido, Cathy O’Neil caracteriza
esses algoritmos como sendo generalizados (widespread) por serem capazes
de atingir milhares de pessoas de forma generalizada, sendo capazes de decidir
sobre critérios de reincidência, periculosidade, empregabilidade, empréstimo etc.;
misteriosos (mysterious) por agirem secretamente, as pessoas que têm
suas vidas decididas por algoritmos, dificilmente sabem que isso ocorre, não se
sabe ao certo quais critérios são utilizados; e destrutivos (destructive)
pela capacidade de destruir a vida das pessoas afetadas de forma injusta.
Por esse motivo, fala-se em ética de
Inteligência Artificial (AI Ethics) aliada a princípios de governança
algorítmica (como a explicabilidade), em uma tentativa de fazer com que o
algoritmo traga resultados mais justos.
Outro ponto a ser discutido, no que tange
a análise tecnológica, é a autonomia da Inteligência Artificial. Trata-se de
uma autonomia meramente tecnológica, resultante de uma racionalidade
previamente programada. Isso significa dizer que o sistema inteligente só tem
autonomia porque o humano assim o quis. O que implica dizer que todas as ações
da máquina sempre podem ser ligadas a um ser humano ou a um grupo econômico.
Quando o termo “Inteligência Artificial”
foi cunhado, em 1956, Alan Turing já se questionava em 1950 sobre a
possibilidade de as máquinas pensarem (can machine think?).
Eventualmente deixou essa pergunta de lado para querer saber o quão bem poderia
uma máquina imitar o cérebro humano. Por isso teceu o argumento de várias
inaptidões (Arguments from Various Disabilities) em que afirmava que uma
máquina seria capaz de fazer inúmeras coisas mencionadas, mas nunca poderá
fazer X. Por X, determinou: ser amável, bonito, amigável, senso de humor etc.,
ou seja, características mais subjetivas, ligadas ao ser humano per se.
Tal entendimento vai ao encontro ao que o jurista italiano Ugo Pagallo chamou
de autonomia artificial, no qual as máquinas inteligentes apenas emulam
sentimentos e emoções, como atores em uma peça de teatro, não sendo algo
genuíno.
No mesmo sentido, John Searle mostra no Chinese
Room Argument que do mesmo jeito que uma simulação de incêndio não ateia
fogo na vizinhança, uma simulação de entendimento da máquina não faz com que
ela entenda verdadeiramente. A máquina só ficou incrivelmente boa em manipular
símbolos formais não interpretados.
A responsabilidade civil a ser empregada
dependerá do tipo de Inteligência Artificial empregada, visto que o dano que um
carro autônomo causa é físico, enquanto o dano causado por um algoritmo com
resultado enviesado fere os direitos da personalidade do indivíduo. Mas
acredita-se em uma Inteligência Artificial desenvolvida frente à ética
deontológica, que, todavia, não vai focar na intenção do sistema (já que ele
não possui intenção), mas no que se pretendia fazer. Todavia, mesmo com valores
éticos, o sistema não tem raciocínio prático, julgamento, autorreflexão,
deliberação, que são características privativas do ser humano. Por isso a
necessidade do homem por trás do sistema autônomo e inteligente.
Assim, a Inteligência Artificial
verdadeiramente ética e justa deve ser construída segundo princípios de
segurança algorítmica, além de ser ética, segura e deve estar aliada a
princípios de privacidade by design, isto é, desde sua concepção, como
sugere Eduardo Magrani. Dessa forma, o sistema estará alinhado com um princípio
de prevenção de riscos favorável à justiça e ao bem estar daqueles que vivem a
Sociedade da Informação.
Sobre
a autora:
* Mestre em
Direito da Sociedade da Informação, membro do Grupo de Pesquisa “Família,
Grupos Sociais e Informação”, ambos no Centro Universitário das Faculdades
Metropolitanas Unidas – SP. Pós-graduada em Direito Civil e Processo Civil no
Centro Universitário UniFacid Wyden (Teresina - PI). Advogada. Vice-presidente
da Comissão de Direito Digital da OAB/PI. E-mail: mayaracarneir@gmail.com
CV:
http://lattes.cnpq.br/3123942841476426. https://orcid.org/0000-0003-1139-4597.
IG: @mayaracarneiroadv
REFERÊNCIAS
LATOUR,
Bruno. A esperança de Pandora: ensaios sobre a realidade dos estudos
científicos. Tradução: Gilson César Cardoso de Sousa. Bauru: EDUSC, 2001.
MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019.
O'NEIL, Cathy. Weapons of math destruction: how Big Data increases inequality and threatens democracy. New York: Crown, 2016.
PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Dordrecht: Springer, 2013.
TURING, Alan. Computing Machinery and Intelligence. Oxford University Press, v. 59, n. 236, p. 433-460 out. 1950.
Excelente análise. Aos poucos vamos nos confrontando com a IA e é necessário avaliar as vantagens e riscos da tecnologia.
ResponderExcluirParabéns pelo artigo. Gosto da tecnologia, mas estas evoluções trazem alterações nas estruturas da organização da sociedade. Nem todos poderão estar preparados para estas transformações.
ResponderExcluirArtigo de opinião bem embasado. O avanço tecnológico tem ajudado bastante no desenvolvimento humano e de nosso planeta. Marcos regulatórios devem sempre serem revistados para que não haja abuso de autoridades de forma autoritária e eminentemente apenas com interesse político!
ResponderExcluir