Desde que foi lançado, no final de 2022, o programa de inteligência artificial ChatGPT despertou admiração pelo avanço tecnológico que representa — mas, também, temores sobre seus impactos futuros.
Diante desse chatbot capaz de responder a quase todas as perguntas do usuário e de produzir textos que parecem ter sido escritos por um humano, surgiram perguntas como: os estudantes vão usá-lo para fazer o dever de casa? E os políticos para escrever seus discursos?
Será que esse artigo que você está lendo foi escrito por um humano ou um robô?
Esse tipo de programa despertou ainda preocupações com os trabalhos que deixarão de existir por conta da automatização e com os direitos autorais, já que essas ferramentas obtêm informações da internet e geralmente não citam fontes.
Mas existe uma outra polêmica até agora pouco falada: ela tem a ver com as centenas de milhares de trabalhadores, muitos de baixa renda, sem os quais sistemas de inteligência artificial (IA) como o ChatGPT não existiriam.
Estamos falando da "força de trabalho oculta", como chamou a organização sem fins lucrativos Partnership on AI (PAI), que reúne representantes de universidades, de organizações da sociedade civil, da mídia e da própria indústria envolvida com a IA.
Essa força oculta é composta por pessoas subcontratadas por grandes empresas de tecnologia, geralmente em países pobres do Hemisfério Sul, para "treinar" sistemas de IA.
'Rotuladores'
Esses homens e mulheres realizam uma tarefa tediosa — e potencialmente prejudicial à saúde mental, como abordaremos adiante — mas que é essencial para que programas como o ChatGPT funcionem.
Eles rotulam milhões de dados e imagens para ensinar a IA a agir.
Tomemos, por exemplo, o chatbot do momento.
Quando você faz uma pergunta ao ChatGPT, o programa usa cerca de 175 bilhões de "parâmetros" ou variáveis para decidir o que responder.
Como já mencionamos, esse sistema de IA usa como fonte principal as informações obtidas na internet. Mas como distinguir os conteúdos? Graças às referências "ensinadas" por seres humanos.
"Não há nada de inteligente na inteligência artificial. Ela tem que aprender à medida que é treinada", explica Enrique García, co-fundador e gerente da DignifAI, empresa americana com sede na Colômbia.
A empresa contrata esses "rotuladores" de dados (data taggers).
Na indústria de tecnologia, esse tipo de atividade é chamado de "enriquecimento de dados".
Ironicamente, apesar de ser um trabalho essencial para o desenvolvimento da IA, o enriquecimento de dados é o elo mais pobre da cadeia produtiva das grandes empresas de tecnologia.
Um fato que foi reconhecido pela organização Partnership on AI.
"Apesar do papel fundamental que esses profissionais de enriquecimento de dados desempenham, um crescente corpo de pesquisa revela as precárias condições de trabalho que esses trabalhadores enfrentam", disse a organização, a qual a OpenAI, empresa que criou o ChatGPT, faz parte.
Menos de US$2 a hora
Uma investigação da revista Time revelou que muitos dos "rotuladores" terceirizados pela OpenAI para treinar seu ChatGPT recebiam entre US$ 1,32 e US$ 2 por hora (cerca de R$ 6 a R$10) .
Segundo reportagem do jornalista Billy Perrigo, a empresa de tecnologia, que tem a Microsoft entre seus principais investidores, terceirizou o trabalho de enriquecimento de dados por meio de uma companhia chamada Sama, com sede em San Francisco — que por sua vez contratou trabalhadores no Quênia para a atividade.
Através de um comunicado, um porta-voz da OpenAI disse que a terceirizada era responsável pela gestão dos salários e condições de trabalho dos taggers contratados para trabalhar no ChatGPT.
"Nossa missão é garantir que a IA beneficie toda a humanidade, e trabalhamos duro para construir sistemas de IA seguros e úteis que limitem o viés e o conteúdo nocivo", disse o porta-voz.
A Sama também contrata para o Google e a Meta "rotuladores" em outros países de baixa renda, como Uganda e Índia. A empresa se apresenta como uma "IA ética" e afirma ter tirado mais de 50 mil pessoas da pobreza.
No entanto, Martha Dark, diretora da organização ativista britânica Foxglove — cujo objetivo é "enfrentar gigantes da tecnologia e governos, por um futuro onde a tecnologia seja usada para beneficiar a todos, não apenas os ricos e poderosos" —, avalia que as empresas de tecnologia usam a terceirização para pagar aos trabalhadores muito menos do que deveriam.
"Todas essas empresas são multibilionárias e é francamente inadequado que estejam pagando US$ 2 por hora para as pessoas que tornam essas plataformas possíveis", disse ele.
Mas para Enrique García, do DignifAI, a polêmica sobre os salários "é uma questão de perspectiva".
Na Europa e nos Estados Unidos, pode-se entender que ganhar essa quantia não é suficiente, mas em outras partes do mundo, este pode ser um bom salário, argumenta.
"Muitas pessoas criticam nosso setor pela questão salarial, mas na DignifAI nosso piso salarial é de US$ 2,30 a hora, o que representa 1,8 vezes o salário mínimo na Colômbia", diz.
"Se o projeto for mais complexo e exigir profissionais especializados, como arquitetos ou médicos, o salário pode chegar a US$ 25 por hora", diz García.
Embora reconheça que existem empresas que pagam abaixo do salário mínimo, o empresário considera injusto focar apenas neste setor.
"Existem dinâmicas de terceirização em muitos setores, não apenas neste, então também não é justo nos rotular por 'exploração digital'", diz ele.
Impacto social
García também destaca que existem várias empresas do setor, como a sua, que têm impacto social e o objetivo de "aumentar a produtividade e a dignidade das pessoas".
O lema do DignifAI é "terceirizar a dignidade através da inteligência artificial".
A empresa está sediada em Cúcuta, na fronteira entre a Colômbia e a Venezuela, e busca dar trabalho aos migrantes venezuelanos e a colombianos que migraram internamente.
"Muitos deles, antes de trabalhar conosco, ganhavam US$ 4 ou US$ 5 por dia. Para essa população vulnerável e sem opções de mercado de trabalho, ganhar 1,8 vezes o salário mínimo colombiano é bastante atraente", afirma.
Ingrid, uma venezuelana de 42 anos que chegou à Colômbia no final de 2018, ratifica isso.
Licenciada em pedagogia, Ingrid, que preferiu não fornecer seu sobrenome, disse à BBC que atualmente não pode dar aulas porque ainda não validou seu diploma na Colômbia.
Ela afirma que trabalhar como "rotuladora" para o DignifAI lhe permitiu ganhar a vida e também se preparar para outra profissão.
"Eu trabalho quatro horas por dia e tenho conseguido usar o tempo restante fazendo um curso de design", diz a pedagoga.
Apesar de não trabalhar mais como data tagger, por ter sido promovida ao cargo de supervisora de projetos, ela não hesita em recomendar esse trabalho.
"É mais gratificante, menos cansativo e mais bem pago do que ser garçonete, auxiliar de meio período ou fazer trabalhos físicos", avalia, acrescentando que a maioria de seus colegas são donas de casa, vendedores ambulantes ou estudantes.
Saúde mental
Além do salário, outra questão sobre as condições de trabalho dos data taggers é o efeito na saúde mental.
Não é o tédio da tarefa que mais preocupa alguns especialistas — embora esta seja outra crítica que se faz a este trabalho — mas o material tóxico ao qual alguns deles estão expostos.
Uma das funções desses trabalhadores é ensinar ao programa de IA quais informações não são adequadas para publicação — mergulhando nos cantos mais sombrios da internet e rotulando os materiais violentos, sinistros e perversos que ali estiverem, de forma a ordenar que a máquina ignore tudo isso.
De acordo com Martha Dark, da organização Foxglove, fazer esse trabalho "pode causar estresse pós-traumático e outros problemas de saúde mental para muitos trabalhadores".
Sua organização dá assistência a um ex-funcionário da Sama que trabalhou como moderador do Facebook no Quênia. Em 2022, ele processou a Sama e a Meta, dona da rede social, pelos danos psicológicos que sofreu. O caso ainda tramita na Justiça de Nairóbi.
"Esses trabalhos têm um custo para a saúde mental de quem os faz e devem fornecer tratamento psiquiátrico adequado, além de um salário mais justo", disse Dark à BBC.
Segundo a ativista, as grandes empresas de tecnologia têm muitos recursos financeiros para prestar esse tipo de assistência, mas não o fazem porque "colocam o lucro acima da segurança de seus trabalhadores".
Enrique García reconhece que as grandes empresas poderiam investir mais na contratação de taggers, mas afirma que exigir muito delas pode levá-las a procurar trabalhadores em outros lugares.
"Pode ser que a grande tecnologia possa pagar mais, mas estamos muito gratos pelas oportunidades", diz ele.
"Pelo menos estamos trazendo oportunidades de geração de renda para cá onde, sem essa alternativa, não existiriam."
- Este texto foi publicado em https://www.bbc.com/portuguese/articles/c3gze230pj1o