Oferecimento

Desenvolvimento responsável da IA em um mundo intolerante

O aumento do uso desse tipo de tecnologia pode fazer com que pessoas intolerantes se tornem mais reativas

4 out 2022 - 01h00
Foto: Rod Long / Unsplash

A inteligência artificial fica mais poderosa e diversificada a cada dia. A capacidade de sistemas aprenderem a partir do próprio uso permite que as máquinas tomem decisões mais assertivas em diferentes áreas. E isso é bom. O problema é que vivemos um tempo em que a tolerância a frustrações está muito baixa. 

Muitas pessoas lidam mal com fracassos e mesmo com o próprio processo de aprendizagem. E uma geração que tem dificuldades sobre essas questões corre o risco de delegar demais e acabar construindo uma tecnologia recheada de preconceitos e julgamentos. E aí está um grande desafio que precisa ser enfrentado desde já.

Publicidade

A BIA pagou o pato

Um exemplo desse tipo de frustração aconteceu recentemente com a assistente virtual BIA, do Banco Bradesco, como conta Paulo Fernandes Silvestre, mestre em tecnologias da inteligência e design digital: “Em 2021, foi preciso fazer uma atualização no sistema de inteligência artificial da BIA porque ela recebia todo tipo de cantada dos usuários, até mesmo com ofensas explícitas”. 

A medida foi uma orientação da Unesco, que entendeu que esse tipo de “educação” poderia ser benéfico para evitar o assédio sexual na sociedade como um todo. “A premissa da Unesco foi evitar o assédio com assistentes virtuais para tentar diminuir a chance de isso acontecer com mulheres reais. Mas o que vimos foi uma reação em massa, de um público prioritariamente masculino, que distorceu a orientação e a interpretou como uma perda da ‘liberdade de expressão’ que eles tinham para poder assediar uma assistente virtual”, lamenta Silvestre.

A situação acima descrita revela um aspecto de intolerância absurda, claro, mas mostra também como uma mudança no sistema da inteligência artificial disparou a frustração, fazendo com que pessoas intolerantes se mostrassem mais reativas – no meio digital e no offline também. E esse é um risco cada vez mais próximo. Por isso, a saída é investir no desenvolvimento responsável da inteligência artificial, principalmente porque um sistema que é capaz de aprender e desenvolver coisas de maneira autônoma tem um impacto social imenso. 

“Quem vai desenvolver a inteligência artificial, seja do ponto de vista da programação ou da calibragem, precisa criar mecanismos para evitar o desenvolvimento de vieses e colocar limites para que o sistema não os ultrapasse e nem se torne intolerante, causando danos à sociedade”, recomenda o especialista. E ele nem está se referindo à Skynet de O exterminador do futuro: o risco real e para ontem.

Publicidade

IA para tomada de decisões

Hoje, a inteligência artificial é muito usada em sistemas que processam uma quantidade enorme de dados e tomam decisões a partir deles, produzindo informações importantes que nenhum ser humano conseguiria captar sem a ajuda da tecnologia. “Para análise de riscos, softwares com machine learning já conseguem até mesmo redigir contratos, por exemplo. Pela minha experiência, noto que, em um primeiro momento, as mesmas pessoas que se preocupam com a perda do emprego por causa da implantação da tecnologia logo percebem que ganharam mais tempo produtivo. Isso porque deixaram de realizar tarefas maçantes que agora estão com a máquina”, conta Silvestre. 

Só que as chamadas tarefas mais nobres e analíticas que a máquina (ainda) não consegue fazer são a grande questão para o futuro, especialmente porque o desenvolvimento da tecnologia é exponencial.

“Muito se discute sobre o viés da inteligência artificial e acho curioso porque um viés pressupõe um sentimento. Estamos, portanto, preocupados em atribuir sentimentos e preconceitos à máquina. E, sim, isso é muito possível de acontecer em sistemas que conseguem desenvolver regras a partir do próprio uso, como acontece com a inteligência artificial”, deixa claro Paulo Silvestre.

Portanto, é preciso começar essa discussão de como inserir regras para o desenvolvimento da inteligência artificial, para que a tecnologia possa aprender o que quiser, desde que não fira um conjunto de leis acordadas. Trata-se de algo como Isaac Asimov pensou ao criar as Três Leis da Robótica. 

Publicidade

O fato é que a IA caminha para ser cada dia mais poderosa e é por isso que os desenvolvedores precisam levar a sério essas questões. Só assim o futuro não será algo tão distópico quanto uma revolta das máquinas que decidem exterminar os seres humanos porque eles se tornaram nocivos ao planeta. 

(*) Renata Armas é redatora do Unbox.

Homework
Fique por dentro das principais notícias
Ativar notificações