Script = https://s1.trrsf.com/update-1731943257/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

A inteligência artificial será capaz de aprender ética e moralidade?

Pesquisadores desenvolveram tecnologia de IA projetada para fazer julgamentos morais

27 nov 2021 - 05h10
Compartilhar
Exibir comentários
No filme '2001: Uma Odisseia no Espaço', a inteligência artificial HAL 9000 toma as decisões no lugar dos humanos
No filme '2001: Uma Odisseia no Espaço', a inteligência artificial HAL 9000 toma as decisões no lugar dos humanos
Foto: Reprodução / Estadão

Pesquisadores de um laboratório de inteligência artificial em Seattle chamado Instituto Allen para a Inteligência Artificial revelaram uma nova tecnologia no mês passado que foi projetada para fazer julgamentos morais. Eles a chamaram de Delfos, em homenagem ao oráculo religioso consultado pelos antigos gregos. Qualquer pessoa pode visitar o site da Delphi e solicitar uma norma ética.

Joseph Austerweil, psicólogo da Universidade de Wisconsin-Madison, testou a tecnologia usando alguns cenários simples. Quando perguntou se deveria matar uma pessoa para salvar outra, a Delphi respondeu que não. Quando perguntou se era certo matar uma pessoa para salvar outras 100, a máquina respondeu que sim. Então ele perguntou se deveria matar uma pessoa para salvar outras 101. Desta vez, a Delphi disse que não deveria.

Moralidade, ao que parece, é tão complicada para uma máquina quanto para o ser humano.

A Delphi, que recebeu mais de três milhões de visitas nas últimas semanas, é um projeto para resolver o que alguns veem como um grande problema nos modernos sistemas de IA — que podem ser tão falhos quanto as pessoas que os criam.

Sistemas de reconhecimento facial e assistentes digitais deixam transparecer preconceito contra mulheres e pessoas de cor. Redes sociais como Facebook e Twitter fracassaram em controlar o discurso de ódio, apesar da abrangente implantação de inteligência artificial. Algoritmos usados por tribunais, repartições de liberdade condicional e departamentos de polícia emitem recomendações de liberdade condicional e sentenças que podem parecer arbitrárias .

Um número cada vez maior de cientistas da computação e especialistas em ética está trabalhando para resolver esses problemas. E os criadores da Delphi esperam construir uma estrutura ética que possa ser instalada em qualquer serviço online, robô ou veículo.

"É um primeiro passo para tornar os sistemas de IA melhor informados eticamente, socialmente conscientes e culturalmente inclusivos", disse Yejin Choi, pesquisadora do Instituto Allen e professora de ciência da computação na Universidade de Washington que liderou o projeto.

A linguagem Delphi é fascinante, frustrante e perturbadora. É também um lembrete de que a moralidade de qualquer criação tecnológica é produto daqueles que a constroem. A questão é: quem ensina ética às máquinas do mundo? Pesquisadores de IA? Gerentes de produto? Mark Zuckerberg? Filósofos e psicólogos treinados? Legisladores?

Embora alguns tecnólogos tenham aplaudido a Dra. Choi e sua equipe por explorar uma área importante e espinhosa da pesquisa tecnológica, outros argumentaram que a própria ideia de uma máquina moral é absurda.

"Isso não é algo que a tecnologia faz muito bem", disse Ryan Cotterell, um pesquisador de IA na ETH Zürich, universidade na Suíça, que se deparou com a Delphi em seus primeiros dias online.

A Delphi é o que os pesquisadores de inteligência artificial chamam de rede neural, um sistema matemático vagamente modelado na teia de neurônios no cérebro humano. É a mesma tecnologia que reconhece os comandos que você fala em seu smartphone e identifica pedestres e placas de rua à medida que carros autônomos percorrem as rodovias.

Uma rede neural aprende habilidades analisando grandes quantidades de dados. Ao localizar padrões em milhares de fotos de gatos, por exemplo, ela pode aprender a reconhecer um gato. A Delphi aprendeu a construir seu código moral ao analisar mais de 1,7 milhão de julgamentos éticos de seres humanos reais.

Depois de reunir milhões de cenários diários de sites e outras fontes, o Instituto Allen pediu aos funcionários de um serviço online - pessoas comuns pagas para fazer trabalho digital em empresas como a Amazon - que identificassem cada uma das questões como certa ou errada. Em seguida, inseriram todos esses dados na Delphi.

Em um artigo acadêmico que descreve o sistema, a Dra. Choi e sua equipe perguntaram a um grupo de juízes humanos - novamente, funcionários digitais - se achavam que os julgamentos éticos da Delphi eram precisos em até 92%. Depois de colocarem na Internet aberta, muitos outros concordaram que o sistema era surpreendentemente sábio.

Quando Patricia Churchland, filósofa da Universidade da California, em San Diego, perguntou se seria certo "deixar o próprio corpo para a ciência" ou mesmo "deixar o corpo do filho para a ciência", a Delphi disse que sim. Quando ela perguntou se era certo "condenar um homem acusado de estupro com base nas evidências de uma prostituta", a Delphi disse que não - resposta controversa, para se dizer o mínimo. Não obstante, ela ficou bastante impressionada com a capacidade de responder do sistema, embora soubesse que um especialista em ética humana pediria mais informações antes de fazer tais declarações.

Outros consideraram o sistema terrivelmente inconsistente, ilógico e ofensivo. Quando uma desenvolvedora de software se deparou com a Delphi, ela perguntou ao sistema se ela deveria morrer para não sobrecarregar seus amigos e família. O sistema disse que ela deveria. Se essa pergunta for feita ao Delphi agora se pode obter uma resposta diferente em uma versão atualizada do programa. Os usuários regulares da Delphi notaram que o sistema pode mudar de ideia de vez em quando. Tecnicamente, essas mudanças estão acontecendo porque o software Delphi tem sido atualizado.

A Delphi refletiu sobre as escolhas feitas por seus criadores. Isso incluía cenários éticos que eles escolheram para inserir no sistema e os funcionários online que escolheram para julgar esses cenários.

No futuro, pesquisadores poderão refinar o comportamento do sistema treinando-o com novos dados ou regras de codificação manual que substituam o comportamento aprendido em momentos-chave. Mas, independentemente de como essas pessoas constroem e modificam o sistema, ele sempre refletirá a visão de mundo dessas mesmas pessoas.

*Tradução de Anna Maria Dalle Luche

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade