Script = https://s1.trrsf.com/update-1733861710/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

'Se você denuncia machismo e racismo, é tratada como louca', diz Timnit Gebru

Referência em ética e inteligência artificial, Gebru foi demitida do Google após acusar a empresa de censura e racismo; pesquisadora participa pela primeira vez de evento no Brasil na próxima semana.

9 set 2021 - 20h06
Compartilhar
Exibir comentários
Gebru é pesquisadora na área de inteligência artificial
Gebru é pesquisadora na área de inteligência artificial
Foto: Getty Images / BBC News Brasil

Referência mundial no estudo de ética e inteligência artificial, a cientista da computação Timnit Gebru não foge de falar sobre o recente episódio em que bateu de frente com um gigante da tecnologia. Ela foi demitida do Google no ano passado após enviar um e-mail interno falando acusando a empresa de "silenciar vozes marginalizadas".

"Fui demitida por ser uma mulher negra que não se cala", diz Gebru, que vai participar de um evento no Brasil pela primeira vez na semana que vem - ela é uma das convidadas do Programaria Summit 2021, encontro para fomentar a carreira de mulheres na área de tecnologia.

Sua demissão no ano passado gerou um escândalo global. Centenas de funcionários da empresa assinaram uma carta em defesa à pesquisadora e uma campanha online começou para apoiá-la. O Google disse que houve "muita especulação e mal-entendido" sobre a demissão.

Gebru estuda como a inteligência artificial reproduz preconceitos. Ela analisa a forma como sistemas de reconhecimento facial que não reconhecem rostos negros, por exemplo, porque são calibrados para os rostos de brancos, e outros viés de algoritmos.

Ela havia sido contratada como co-líder da equipe de Ética em Inteligência Artificial e produziu uma pesquisa sobre a presença de vieses e outros problemas em uma das principais tecnologias usadas pela empresa, os modelos de linguagem.

A pesquisadora contou que o Google pediu que o artigo não fosse publicado ou que os nomes dos funcionários da empresa fossem retirados, e Gebru se recusou.

Gabru afirma que não achava que a pesquisa "ia causar um tsunami" nem ser algo super inovador.

"Mas eles acharam que era crítico demais. Eles não estão acostumados com algo que questiona a essência de uma tecnologia específica", diz ela em conversa com programadoras brasileiras que será exibida no Programaria Summit.

"Eles estão acostumados com algo como 'é óbvio que grandes modelos de linguagem são muito bons' - você tem que começar com essa premissa - 'mas existe este pequeno problema... e é assim que podemos resolvê-lo'. E não estão acostumados com um trabalho que diga 'vamos repensar inteiramente essa linha de trabalho, porque ela está gerando muitos problemas'."

O Google disse que houve "muita especulação e mal-entendido" sobre a demissão. Jeff Dean, um gerente sênior do Google que lida com a pesquisa em IA, afirmou que o artigo de Gebru foi apresentado um dia antes do prazo, o que não era tempo suficiente para o processo de revisão e que o trabalho "ignorou muitas pesquisas relevantes".

"Timnit respondeu com um e-mail exigindo que uma série de condições sejam atendidas para que ela continue trabalhando no Google, incluindo a revelação das identidades de cada pessoa com quem conversamos e consultamos como parte da revisão do artigo e do feedback", afirmou.

"Timnit escreveu que, se não atendêssemos a essas demandas, ela deixaria o Google. Aceitamos e respeitamos sua decisão de sair do Google", escreveu Dean.

Gebru diz que na prática ela foi demitida. "Na verdade eles me demitiram. Eles acharam que eu ia ficar envergonhada e sair de cena", diz ela.

"Eles tinham tão pouco respeito por mim que não achavam que era necessário diálogo. Achavam que eles iam apenas me dizer o que fazer e eu diria 'claro, com certeza', 'sim mestre'. Eu fui ficando cada vez mais incomodada. Porque se você me diz para fazer isso agora, o que vem depois? Como minha equipe vai conseguir fazer seu trabalho?", diz ela.

"Mas eu acho que eles nem pensaram muito sobre isso. O que acontece é que eu sou uma mulher negra, no Google, que não se cala. Eu sempre levantei todos os problemas com os quais eu lidei: machismo, assédio, retaliação, todo tipo de coisa", argumenta a pesquisadora.

"Não foi só o artigo, se um homem branco tivesse escrito aquela pesquisa, eles não teriam feito a mesma coisa com ele. Foi o artigo, foi eu, e o fato de que a pesquisa foi escrita da perspectiva de minorias marginalizadas. Nós demos destaque para coisas que, para eles, não são consideradas um grande problema, por exemplo, racismo e desigualdade na questão ambiental."

Tecnologias de inteligência artificial podem reproduzir preconceitos pela forma como são calibradas
Tecnologias de inteligência artificial podem reproduzir preconceitos pela forma como são calibradas
Foto: Getty Images / BBC News Brasil

Diversidade na tecnologia

A pesquisadora diz que a comunidade científica, em geral, recebeu bem a pesquisa, apesar de ser uma área - tecnologia - em que em geral há pouca representatividade de mulheres e de pessoas negras.

Gebru conta como sua infância foi importante para ela ter a confiança para entrar na área.

"Eu cresci na Etiópia, até os 15 anos. Então todo mundo era negro - havia uma série de outras questões étnicas e discriminação por isso, mas em termos de raça, nunca tive essa ideia de que pessoas negras não deveriam fazer engenharia", diz ela, cuja formação é em engenharia elétrica.

"Meu pai era engenheiro elétrico, minhas duas irmãs também. Eu não tinha essa sentimento de que eu não posso fazer engenharia como mulher", conta ela.

Ela teve contato com o preconceito nos Estados Unidos.

"Quando eu fui para os EUA e a discriminação começou no primeiro dia. Eu ouvi 'ah, você não pode fazer essa disciplina, porque é muito difícil, você iria reprovar'", conta ela. "Se eu tivesse nascido e crescido nos EUA, eu não teria ido para essa área."

"Minha conselheira disse que eu não iria entrar em nenhuma das universidade para as quais eu me inscrevi", diz ela, que foi aprovada na Universidade de Stanford e trabalhou em parceria com o MIT (Massachusetts Institute of Technology).

Ela diz que muitas vezes o racismo sutil é mais difícil de lidar do que o racismo e o machismo óbvios.

"Quando o racismo é óbvio, você sabe com o que está lidando. Mas o que acontece muitas vezes é que eles sabem que não devem dizer essas coisas, então eles agem de maneira claramente racista e machista, mas usam códigos, te colocam em certos lugares", afirma.

"E se você denuncia, você é tratada como louca, você é quem está imaginando. É o (que se chama de) gaslighting", diz ela.

"Muito assédio e muito abuso passam despercebidos porque ninguém está prestando atenção", diz.

A conversa completa de programadoras brasileiras com Gebru será exibida no Programaria Summit, no qual ela também fará uma participação ao vivo. O evento tem parte da programação gratuita e acontece nos dias 9, 16, 17 e 18 de setembro.

BBC News Brasil BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Compartilhar
Publicidade
Seu Terra












Publicidade