IA do buscador da Microsoft acusa médico falsamente de 100 assédios
Ferramenta de pesquisa do Bing interpretou errado entrevista concedida pelo médico
A Microsoft está sendo processada devido a uma falsa associação de um médico a 100 casos de assédio sexual feita pelo Bing, sistema da big tech para buscas na internet com inteligência artificial (IA).
Uma entrevista concedida pelo médico a um portal de notícias foi mal interpretada pelo buscador, que posteriormente informou usuários que o médico era o acusado em casos que ele na verdade investigava, enquanto participante do Conselho Regional de Medicina.
Uma publicação no Diário de Justiça do Estado de São Paulo da segunta-feira (19) mostra que o juiz Jayter Cortez Junior, da 7ª vara Cível de Bauru/SP, determinou, em 15 de junho, a exclusão da associação do médico aos casos de assédio, em um prazo de 48 horas, sob pena de R$ 5 mil.
"Exercício de in(inteligência artificial)"
Na ação, o juiz afirma que o site de pesquisa da Microsoft "não se limita a coletar e reproduzir, com fidedignidade, informações criadas por terceiro", para estar livre de responsabilidade.
" [o site] altera equivocadamente a informação lançada em matéria jornalística, em exercício de (in)inteligência artificial, atribuindo indevidamente ao autor fato criminoso praticado por terceiro e por ele investigado", diz.
O magistrado cita a necessidade de rápida ação por parte da empresa devido ao alcance global da plataforma na disseminação da desinformação.
Mais detalhes ainda são incertos porque o caso tramita sob segredo de Justiça.
Os advogados que representam o médico e a Microsoft foram procurados pelo Byte para prestar mais esclarescimentos sobre o caso, mas, até o fechamento da notícia, não haviam se pronunciado.