top of page

Preconceito Artificial - IA sub judice

A Inteligência Artificial é, e será por um bom tempo, preconceituosa. E não disporá da empatia para suavizar isso.

Algoritmos de Inteligência Artificial são programados por humanos e, consequentemente reproduzem seu modelo mental.

Machine learning, em seu estágio mais elementar, consiste em alimentar o algoritmo com novas informações, ou seja, mais do mesmo. Sistemas mais evoluídos são capazes de aprender por conta própria, a partir de suas experiências, atualizando seus modelos probabilísticos. Ou seja, a cada nova experiência o algoritmo revê seus pré-conceitos, substituindo-os por versões aprimoradas, com maior probabilidade de sucesso.

Humanos aprendem a se relacionar com o mundo dessa forma, criando conceitos e atualizando-os a partir de sua experiência.

Anthony Daniels, psiquiatra e escritor britânico, discorreu extensamente sobre o tema em seu polêmico livro “Em Defesa do Preconceito – a necessidade de se ter ideias preconcebidas” (2007, publicado no Brasil em 2015), assinado com um de seus pseudônimos, Theodor Dalrymple. Vale a leitura.

Em um artigo recente, publicado no site CBS News, Taylor Mooney e Grace Baek alertam sobre a questão da discriminação racial por algoritmos projetados para auxiliar as autoridades policiais no combate ao crime. O artigo, “Is artificial intelligence making racial profiling worse?”, utiliza como referência para a discussão o PredPol, utilizado pela polícia de Los Angeles (LAPD).

"Sem discriminação, não há decisão."

Discriminação é outro mecanismo humano importante para sua sobrevivência, e certamente necessário para que algoritmos de inteligência artificial possam “tomar decisões”. Uma decisão é, essencialmente, um processo discriminatório.

A ideia de que a Inteligência Artificial seria capaz de promover julgamentos e “decidir” com isenção é, em essência, falaciosa. A única verdade nisso é que uma máquina não será influenciada por seus sentimentos, já que não os tem. E isso não é necessariamente positivo.

A neurociência já demonstrou que o significado emocional é um importante complemento para a razão nos processos de cognição e decisão – vide “O Erro de Descartes” (Damásio, 1994). Acertamos mais quando combinamos razão e sentimento.

Pelo menos por enquanto, ainda que algoritmos que emulam emoções humanas estejam sendo desenvolvidos e testados, máquinas não são providas de emoção, apenas de preconceitos e formas de atualizá-los. Sua “cognição” é limitada à razão.

A maior eficiência em atualizar seus preconceitos não é uma garantia de que suas “decisões” serão melhores.


Flavio Ferrari

bottom of page