Script = https://s1.trrsf.com/update-1734630909/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Ferramenta do TikTok ganha dinheiro com nossas emoções? Entenda

Focused View diz garantir que marca será vista no TikTok por "usuários que estão realmente prestando atenção" e "engajados emocionalmente"

9 mai 2023 - 05h00
Compartilhar
Exibir comentários
Anúncio do TikTok gerou alertas de que plataforma estaria usando tecnologias de análise emocional
Anúncio do TikTok gerou alertas de que plataforma estaria usando tecnologias de análise emocional
Foto: Solen Feyissa / Unsplash

O TikTok lançou em outubro do ano passado a ferramenta Focused View, que promete aos anunciantes uma maneira de impulsionar o impacto de suas marcas, garantindo que "seus anúncios sejam exibidos para usuários que estão realmente prestando atenção – os usuários que estão engajados emocionalmente e de forma tangível".

Desse modo, as marcas só pagam se os anúncios são vistos por seis segundos ou mais. 

Embora a empresa não tenha dado muitos detalhes sobre o funcionamento da função, este anúncio gerou alguns alertas, pois isso poderia indicar que estariam utilizando tecnologias de análise emocional no novo recurso e, assim, colocando em risco direitos dos usuários.

Em uma carta aberta, a Access Now, uma organização internacional que visa proteger os direitos digitais, exigiu explicações da empresa sobre o funcionamento deste novo recurso e sua garantia de proteção de direitos digitais. Estaria o TikTok monitorando as emoções dos seus usuários? Se sim, quais são os problemas envolvidos com isso?   

Como argumenta a organização, essas tecnologias de análise emocional poderiam estar em desacordo com a legislação europeia sobre privacidade, proteção de dados e futuras regras para inteligência artificial (IA). Ou ainda, se suas promessas às marcas não estiverem certas, isso poderia abrir margem para que os anunciantes levantem questionamentos sobre práticas comerciais desleais.

Análise emocional: a polêmica

As tecnologias de análise emocional compõem uma série de sistemas de inteligência artificial voltados para reconhecer e identificar emoções por meio, por exemplo, do reconhecimento facial ou de voz. Porém, esse tipo de tecnologia vem sendo muito criticado por especialistas por sua base pseudocientífica. 

Em geral, essa análise é baseada na teoria da universalidade das emoções do psicólogo Paul Ekman. De acordo com sua teoria, existiriam sete emoções universais e identificáveis a partir de micro expressões faciais, que seriam: a alegria, a raiva, a tristeza, o desprezo, a surpresa, a aversão e o medo.

Para Ekman, esse pequeno número de emoções são entendidas como naturais, inatas e que seriam iguais em todas as culturas, regiões e etnias. Baseado nisso, os sistemas de IA são construídos sob a premissa de que as emoções podem ser reconhecidas pelas máquinas.

Empresas vem utilizando a análise emocional para, por exemplo, contratar candidatos a uma vaga de emprego, visando prospectar aspectos emocionais e traços de personalidade para mensurar aspectos como honestidade e amor pelo trabalho.

O problema é que essas teorias já foram amplamente questionadas e contestadas entre os cientistas por serem excessivamente reducionistas, desconsiderando nuances da expressão emocional e sua relação com o contexto. Ainda assim, uma enorme indústria se constitui em torno da possibilidade de monetizar a partir disso.

Não apenas a cientificidade desses sistemas é questionável, mas eles também tendem a apresentar diversos tipos de falhas e imprecisões, bem como vieses de raça e gênero.  

Por conta disso, reguladores já alertaram sobre a ineficácia e falta de embasamento científico desse tipo de tecnologia que pode ter muitos riscos aos direitos humanos. Como alertou a EDRi, o coletivo europeu de especialistas e organizações da sociedade civil de direitos digitais, o TikTok com o recurso "está lançando mais um pesadelo da privacidade".

Não somente a tecnologia estaria se utilizando de dados sensíveis, como dados biométricos, mas também se pretende realizar um rastreamento altamente invasivo que busca inferir aspectos da nossa personalidade, estado emocional e padrões de comportamento. 

Histórico ruim do TikTok

E não seria a primeira vez que o TikTok estaria envolvido com práticas que comprometem os direitos à privacidade e à proteção de dados de seus usuários.

Em janeiro deste ano, a Autoridade de Proteção de Dados da França, a Commission Nationale de l'informatique et des Libertés (CNIL), definiu uma multa de 5 milhões de euros ao TikTok por sua forma de usar cookies e solicitar consentimento dos usuários.

Embora o TikTok já tenha se pronunciado dizendo que não utiliza o reconhecimento de emoções, terá que se adequar à regulação de privacidade e proteção de dados nesse novo recurso que busca "o alto nível de engajamento e atenção" dos usuários como seu grande diferencial. 

Os objetivos da nova ferramenta, contudo, revelam a centralidade da atenção humana no modelo de negócios da plataforma. Mais do que isso, a qualidade desta atenção também é importante, pois garantiria usuários emocionalmente mais suscetíveis aos impactos dos anúncios por mais tempo olhando anúncios.

Para atender a esses propósitos, empresas de tecnologia saem na corrida por máquinas capazes de revelar aspectos psicológicos, emocionais e cognitivos que possam ser quantificáveis e capitalizáveis, mesmo correndo o risco de reduzir a complexidade humana e submeter pessoas a julgamentos injustos.   

* Anna Bentes é professora da FGV ECMI e fellow da Derechos Digitales 

Fonte: Redação Byte
Compartilhar
Publicidade
Seu Terra












Publicidade