quinta-feira, 24 de dezembro de 2020

Feliz Natais de 2020

 por Eleonardo Rodrigues






Há cerca de 2.000 anos nascia Jesus,

Seu nascimento cumpria uma promessa.

Para celebrar e registrar três reis magos

Levaram incenso, ouro e mirra.

 

Esse evento marcou e marca profundamente várias gerações.

O propósito de sua vinda e vida

Restaurou a esperança em forma de fé em várias humanidades.

 

Hoje, o Natal se renova...

A atual humanidade de 2020 celebra seu Natal.

Seja cristão, muçulmano, budista ou ateísta.

 

Os olhos desses crentes brilham,

E, nesse reflexo, se ver o quarto rei magro em silhueta feminina,

Carregando em suas mãos uma linda vacina.

 

Que lindo presente Jesus nos dá,

Teus devotos se quedam humildemente.

E a ti, rendem honra e glória!

Pois, dessa vez, nos presentear-se em forma de milagre da ciência.

 


terça-feira, 22 de dezembro de 2020

Inteligência Artificial: uma breve análise jurídica, sociológica e tecnológica na Sociedade da Informação

Por Mayara Carneiro*


 A análise dos sistemas de Inteligência Artificial deve seguir um ponto de vista jurídico, sociológico e tecnológico. Como afirma Lawrence Lessig em “The Law of the Horse: what cyberlaw might teach”, o debate completo entre direito e tecnologia não pode se restringir a essas duas vertentes, mas deve abranger outras forças regulatórias, em um cenário em que as leis, as normas sociais, os mercados e a arquitetura estariam presentes.

Questiona-se, a partir do ponto de vista jurídico, quem seria o responsável caso um sistema inteligente provoque um dano que não era previsível. Seria o programador que a criou? A empresa que lançou o software? O consumidor que comprou e interage com a máquina em uma relação de aprendizado? Será que o Direito está preparado para lidar com máquinas inteligentes, autônomas e imprevisíveis?

Outro ponto a ser levado em consideração é o tipo de Inteligência Artificial que se pretende tratar. Se Inteligência Artificial Forte, que tem consciência sobre si e sobre seus atos, que entende, é verdadeiramente inteligente e pode chegar à singularidade; ou se Inteligência Artificial Fraca, que age como se inteligente fosse, que não entende e não tem consciência sobre si e sobre seus atos – que é a Inteligência que se tem no estado da arte atual.

Créditos: Pixabay

De fato, a Inteligência Artificial está em todos os lugares (atuando, principalmente, junto ao processo de ressignificação do ser humano através da ciborguização que acontece na interação homem-máquina, como previsto por Donna Haraway em “A Cyborg Manifesto: Science, Technology, and Socialist Feminism in the Late 20th Century”, como em um celular, que atua como a extensão do ser humano, em que nele estão contidas todas as informações de seu dono. Ao mesmo tempo, tem-se Inteligências Artificiais capazes de ganhar cidadanias e direitos, como o exemplo clássico da Sophia da Hanson Robotics, que possui mais direitos do que as mulheres da Arábia Saudita, porque pode se locomover livremente sem a presença de alguém do sexo oposto, além de não precisar ter seu rosto e corpo cobertos.

Para entender a real importância e influência dos sistemas de Inteligência Artificial ao longo da Sociedade da Informação e sua capacidade de influência nas relações humanas, faz-se uso do que ensina o filósofo francês Bruno Latour, qual seja o surgimento de novos atuantes (actants) na esfera pública e a e a quebra da categorização binária humana e não humana. Consequentemente, passa-se a atribuir características humanas a seres não humanos.

Ao mesmo tempo, do ponto de vista sociológico, tem-se algoritmos que se utilizam de proxies (variáveis não relevantes) de raça e de classe que acabam maximizando a discriminação de minorias tradicionalmente discriminadas pela sociedade, como o algoritmo da Northpointe utilizado para prever a reincidência criminal e a periculosidade no estado da Flórida, Estados Unidos.

Esse algoritmo foi exposto pela ProPublica porque não fazia perguntas diretas de raça e classe, mas perguntas como “existe muito crime no seu bairro?”, o que representa um proxy de classe e de raça, e “já foi suspenso ou expulso da escola?”, que é um proxy de raça, considerando que em uma pesquisa rápida no Google confirma-se que a maioria das crianças que são suspensas ou expulsas nas escolas norte-americanas são pretas. Os resultados para essas perguntas são tão óbvios quanto se parecem: as pessoas pretas e pobres recebiam avaliações de riscos maiores, sendo consideradas mais propícias a reincidência criminal e consideradas com maior periculosidade, o que não se confirmou. Isso gerou um grave problema.

O processo algorítmico, reconhecido por sua “dureza”, não é influenciado por processos externos ao seu código. Mas o ser humano passa a estar presente em várias partes do processo ao fornecer os bancos de dados e as bases de treinamentos, que, por muitas vezes, são desequilibrados. Consequentemente, o algoritmo apresenta resultados desequilibrados. Ressalta-se: O algoritmo é (sempre) neutro, contudo, eventualmente pode apresentar um resultado enviesado por ser um reflexo dos seus bancos de dados e das bases de treinamento, fornecidos pelo ser humano.

Neste sentido, Cathy O’Neil caracteriza esses algoritmos como sendo generalizados (widespread) por serem capazes de atingir milhares de pessoas de forma generalizada, sendo capazes de decidir sobre critérios de reincidência, periculosidade, empregabilidade, empréstimo etc.; misteriosos (mysterious) por agirem secretamente, as pessoas que têm suas vidas decididas por algoritmos, dificilmente sabem que isso ocorre, não se sabe ao certo quais critérios são utilizados; e destrutivos (destructive) pela capacidade de destruir a vida das pessoas afetadas de forma injusta.

Por esse motivo, fala-se em ética de Inteligência Artificial (AI Ethics) aliada a princípios de governança algorítmica (como a explicabilidade), em uma tentativa de fazer com que o algoritmo traga resultados mais justos.

Outro ponto a ser discutido, no que tange a análise tecnológica, é a autonomia da Inteligência Artificial. Trata-se de uma autonomia meramente tecnológica, resultante de uma racionalidade previamente programada. Isso significa dizer que o sistema inteligente só tem autonomia porque o humano assim o quis. O que implica dizer que todas as ações da máquina sempre podem ser ligadas a um ser humano ou a um grupo econômico.

Quando o termo “Inteligência Artificial” foi cunhado, em 1956, Alan Turing já se questionava em 1950 sobre a possibilidade de as máquinas pensarem (can machine think?). Eventualmente deixou essa pergunta de lado para querer saber o quão bem poderia uma máquina imitar o cérebro humano. Por isso teceu o argumento de várias inaptidões (Arguments from Various Disabilities) em que afirmava que uma máquina seria capaz de fazer inúmeras coisas mencionadas, mas nunca poderá fazer X. Por X, determinou: ser amável, bonito, amigável, senso de humor etc., ou seja, características mais subjetivas, ligadas ao ser humano per se. Tal entendimento vai ao encontro ao que o jurista italiano Ugo Pagallo chamou de autonomia artificial, no qual as máquinas inteligentes apenas emulam sentimentos e emoções, como atores em uma peça de teatro, não sendo algo genuíno.

No mesmo sentido, John Searle mostra no Chinese Room Argument que do mesmo jeito que uma simulação de incêndio não ateia fogo na vizinhança, uma simulação de entendimento da máquina não faz com que ela entenda verdadeiramente. A máquina só ficou incrivelmente boa em manipular símbolos formais não interpretados.

A responsabilidade civil a ser empregada dependerá do tipo de Inteligência Artificial empregada, visto que o dano que um carro autônomo causa é físico, enquanto o dano causado por um algoritmo com resultado enviesado fere os direitos da personalidade do indivíduo. Mas acredita-se em uma Inteligência Artificial desenvolvida frente à ética deontológica, que, todavia, não vai focar na intenção do sistema (já que ele não possui intenção), mas no que se pretendia fazer. Todavia, mesmo com valores éticos, o sistema não tem raciocínio prático, julgamento, autorreflexão, deliberação, que são características privativas do ser humano. Por isso a necessidade do homem por trás do sistema autônomo e inteligente.

Assim, a Inteligência Artificial verdadeiramente ética e justa deve ser construída segundo princípios de segurança algorítmica, além de ser ética, segura e deve estar aliada a princípios de privacidade by design, isto é, desde sua concepção, como sugere Eduardo Magrani. Dessa forma, o sistema estará alinhado com um princípio de prevenção de riscos favorável à justiça e ao bem estar daqueles que vivem a Sociedade da Informação.

 

Sobre a autora:

* Mestre em Direito da Sociedade da Informação, membro do Grupo de Pesquisa “Família, Grupos Sociais e Informação”, ambos no Centro Universitário das Faculdades Metropolitanas Unidas – SP. Pós-graduada em Direito Civil e Processo Civil no Centro Universitário UniFacid Wyden (Teresina - PI). Advogada. Vice-presidente da Comissão de Direito Digital da OAB/PI. E-mail: mayaracarneir@gmail.com

CV: http://lattes.cnpq.br/3123942841476426. https://orcid.org/0000-0003-1139-4597. IG: @mayaracarneiroadv

 

 

REFERÊNCIAS

 

LATOUR, Bruno. A esperança de Pandora: ensaios sobre a realidade dos estudos científicos. Tradução: Gilson César Cardoso de Sousa. Bauru: EDUSC, 2001.

MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre: Arquipélago Editorial, 2019.

O'NEIL, Cathy. Weapons of math destruction: how Big Data increases inequality and threatens democracy. New York: Crown, 2016.

PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Dordrecht: Springer, 2013.

TURING, Alan. Computing Machinery and Intelligence. Oxford University Press, v. 59, n. 236, p. 433-460 out. 1950.


quinta-feira, 17 de dezembro de 2020

Mente, Cérebro e Ressonância Magnética

Por Eleonardo Rodrigues


            Hoje em dia, há um boom da imagem da neuroimagem, tanto na literatura técnica quanto na imprensa leiga, na qualidade de “fotografia da mente”. Face a este desenvolvimento emergente e vertiginoso, pesquisadores deste segmento devem se questionar sobre os usos e abusos dos recursos da neuroimagem. Destacam-se atualmente as seguintes tecnologias de imagem: TC (Tomografia Computadorizada), fMRI (Imagem de Ressonância Magnética Funcional), PETscan (Tomografia por Emissão de Pósitrons) e SPECT (Tomografia por Emissão de Fóton Único). Peres (2009) exemplifica que, até o ano de 2007, muitos estudos envolveram o método PET com uso em 48%, o SPECT com 33% e fMRI em 19%, que vem crescendo significativamente por se tratar de um método não invasivo e não usar radiação ionizante comum na energia nuclear. Por isto, não é correto usar o termo ressonância magnética nuclear, apesar de algumas pessoas ainda insistirem nessa nomenclatura.

    A Tomografia Computadorizada é uma técnica que se baseia em emissão de Raios-X. Esse aparelho consiste em uma fonte de raios-X que é acionada, ao mesmo tempo em que realiza um movimento circular ao redor da cabeça do paciente, emitindo um feixe de raios-X em forma de leque. Já as imagens de ressonância magnética têm maior capacidade de demonstrar diferentes estruturas no cérebro e facilita visualizações de mínimas alterações na maioria das doenças. Também possibilita avaliar estruturas como hipocampos, núcleos da base e cerebelo – que é de difícil avaliação por meio da TC (AMARO JÚNIOR E YAMASHITA, 2001).

            A técnica de fMRI é semelhante a um exame clínico com MRI, diferenciando a particularidade de se obter informações relativas à determinada função cerebral. Por exemplo, que partes do cérebro são mais ativas durante estimulação cognitiva do tipo escutar uma música, concentrar-se em uma imagem agradável ou não, relembrar memórias de longo prazo. Tem como vantagens alta resolução espacial e temporal; permite a correlação da atividade neural com a anatomia subjacente; diversos paradigmas podem ser utilizados com um simples exame e permite vários ensaios em um intervalo curto de tempo, favorecendo a avaliação estrutural de transtornos psiquiátricos. Essa técnica baseia-se no fato de que a atividade cerebral requer energia, e a glicose é a forma de energia processada pelo cérebro. Quando observamos qual área cerebral está consumindo maior quantidade de glicose, então, pode-se inferir onde o cérebro está funcionando mais energicamente.

            Como descrito por Costa, Oliveira e Bressan (2001), os métodos PETscan e SPECT, baseiam-se no princípio básico de que a instrumentação utilizada é apenas receptora de informação, ou seja, para se obter as imagens, é necessário administrar aos pacientes um radiofármaco marcado (um contraste, uma forma de glicose radioativa leve), seja um emissor de pósitron para PET, seja um emissor de fóton simples no caso do SPECT. Sabe-se que a eficácia de detecção do sinal radioativo é maior no PET do que no SPECT, mesmo assim seu uso é limitado, pois os radioisótopos de emissão de pósitrons têm vida radioativa curta de minutos, no máximo cerca de duas horas para o flumazenil, tornando um instrumento oneroso e restrito às grandes universidades públicas e clínicas privadas, favorecendo ao SPECT uma alternativa mais viável.

            No que pese a necessidade de ultrapassar problemas significativos com tais metodologias, ainda são bastante necessários nas seguintes situações clínicas: diagnóstico diferencial das demências, incluindo a depressão dos idosos; avaliação pré-cirúrgica de doentes com epilepsia focal; confirmação de morte cerebral; avaliação das sequelas neuropsiquiátricas após traumatismos encefálicos; diagnóstico diferencial entre doença de Parkinson e parkinsionismo induzido por fármacos. Além de estudar uma gama maior de funções cerebrais principalmente em relação à neurotransmissão e os neuroreceptores do que os exames de ressonância magnética funcional.

            As vantagens do PET e SPECT, respectivamente, são: exames com dinâmicas temporais, ou seja, mensura variações ao longo do procedimento; permite boa localização espacial em regiões ativas e uso de distintos marcadores para estudos metabólicos. Favorece a aquisição das imagens na tomografia posterior à tarefa em desenvolvimento, reduzindo artefatos de movimento; privacidade ao sujeito; usam-se marcadores da atividade neural mais estável, como meia-vida mais longa entre quatro e seis horas. Na mesma ordem, as desvantagens compreendem exame invasivo; em um curto período o experimento não pode ser repetido; restrição a estudos com tarefas sem variações; imobilidade dos sujeitos envolvidos. Baixa resolução não adquire anatomia; restrição ao estudo com tarefas sem variações e os demais quesitos do PET.

            Do ponto de vista da filosofia da mente, neurocientistas e médicos pesquisadores apoiam-se na neuroimagem como reforço do materialismo reducionista e ao materialismo eliminativo. Ao passo que a neuroimagem nos fornece apenas localização cerebral. Esta não deve ser confundida com localização anatômica, o que não nos permite inferir uma tese identitarista e reducionista para o problema mente-corpo. Observa-se, desde os primórdios dessa técnica, que a neuroimagem sugere um cérebro mais parecido com uma rede, em que uma função cognitiva tem vários locais dentro de uma concepção equipotencialista, conexionista ou holista. Pensemos, estudos feitos com linguagem e memória levam à conclusão de que são várias áreas cerebrais envolvidas no desenvolvimento do discurso e que muitos são os papéis assumidos pelo cérebro pré-frontal esquerdo nessa produção, o qual pode acessar significado, resgatar palavras da memória, gerar representações internas e acessar informação fonológica. Todavia, aquilo que é capturado pela neuroimagem – o brilho - refere-se em parte o que está ocorrendo no cérebro quando uma determinada função cognitiva é realizada. Portanto, uma função não se reduz a uma única região anatômica, mas sim multilocalizada. (TEIXEIRA, 2008; DAMÁSIO, 2000; LLOYD, 2000).

            Com base nesta linha de raciocínio, Teixeira (2008), sugere que a neuroimagem associada à ideia do mental como virtual, ao territorializar o lugar do psíquico e do anatômico, não caracteriza em si o reducionismo nem independência da relação mente-corpo, mas nos possibilita uma teoria do aspecto dual, sendo assim, o mental e físico são modos de descrição de uma única e mesma realidade. Dessa forma, no campo das psicoterapias os métodos da neuroimagem têm favorecido o estudo de sujeitos com transtornos de personalidade, transtornos de estresse pós-traumático, depressão maior, transtorno obsessivo-compulsivo, fobia social e específica.

 

Artigo original, fonte:

Rodrigues, E. P. Mente, Cérebro e Ressonância Magnética. Sapiêncianº 25, p. 30, Ano VI, setembro de 2010. ISSN - 1809-0915. 

Link da revista: 

https://www.sapiencia.fapepi.pi.gov.br/edicoes?pgid=k3hxufyv-e98d3726-2ac8-4479-bf66-ea22eab9b915


Referências:

PERES, J. Trauma e Superação. São Paulo: Roca, 2009.

AMARO JUNIOR, Edson; YAMASHITA, Helio. Aspectos básicos de tomografia computadorizada e ressonância magnética. Rev. Bras. Psiquiatr., São Paulo, v. 23, supl. 1, p. 2-3, May 2001. 

COSTA, Durval C; OLIVEIRA, José Manuel AP; BRESSAN, Rodrigo A. PET e SPECT em neurologia e psiquiatria: do básico às aplicações clínicas. Rev. Bras. Psiquiatr., São Paulo, v. 23, supl. 1, p. 4-5, May 2001.

DAMASIO, A. O mistério da consciência. São Paulo: Companhia das Letras, 2000.

TEIXEIRA, J. F. Como ler a filosofia da mente. São Paulo: Paulus, 2008.

LLOYD, Robert. Self-Organized Cognitive Maps, The Professional Geographer, 52:3, 517-531, 2000.