Script = https://s1.trrsf.com/update-1734630909/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Inteligência artificial: o que podemos aprender com Matrix e outros filmes de ficção científica

Pesquisadores citaram o enredo da animação 'Wall-E', da Pixar, como exemplo de um "cenário de desastre" relacionado ao avanço da IA. Mas será que há algo que o cinema nos indique sobre os efeitos do avanço dessa tecnologia?

16 jun 2023 - 11h15
Compartilhar
Exibir comentários
Tom Cruise em 'Minority Report'
Tom Cruise em 'Minority Report'
Foto: Getty Images / BBC News Brasil

Em um alerta apocalíptico divulgado esta semana, pesquisadores de renome citaram o enredo de um grande filme para ilustrar uma série de "cenários de desastre" relacionados à inteligência artifical (IA). Na visão deles, esses riscos ameaçam a própria existência da humanidade.

Dois dos três chamados "padrinhos da IA" estão preocupados — embora o terceiro deles discorde da avaliação, dizendo que tais "profecias de destruição" são um absurdo.

Ao tentar dar sentido a esses alertas durante uma entrevista com um desses pesquisadores, um apresentador da televisão britânica usou o cinema como exemplo.

"Como alguém que não tem experiência nessa área, penso no Exterminador do Futuro e na Skynet - sistema de IA, vilã do filme -, além de outros filmes que vi", disse.

E ele não está sozinho nesse tipo de comparação. Os organizadores da declaração de alerta — o Centro para Segurança em IA (Cais, na sigla em inglês) — usaram a animação Wall-E, da Pixar, como um exemplo das possíveis ameaças relacionadas à IA.

A ficção científica sempre foi um caminho para adivinhar o que o futuro reserva à humanidade. Muito raramente, ela acerta algumas coisas.

Com as ameaças potenciais listadas pelo Cais no alerta recente, será que os sucessos de bilheteria de Hollywood têm algo a nos dizer sobre os perigos da IA?

'Vulnerabilidade'

Wall-E e Minority Report

O personagem principal da saga futurística 'Wall-E'
O personagem principal da saga futurística 'Wall-E'
Foto: Getty Images / BBC News Brasil

O Cais diz que "vulnerabilidade" é quando a humanidade "se torna totalmente dependente das máquinas, semelhante ao cenário retratado no filme Wall-E".

Caso você não se lembre do enredo, os humanos retratados nesta animação eram seres felizes que não trabalhavam e mal conseguiam ficar em pé sozinhos. Os robôs cuidavam de tudo para eles.

Adivinhar se isso de fato é possível para toda a nossa espécie carrega a incerteza de prever o futuro numa bola de cristal.

Mas há outra forma de dependência mais insidiosa que não está tão distante assim de nós. Essa é a entrega do poder a uma tecnologia que talvez não entendamos completamente, avalia Stephanie Hare, pesquisadora de ética em IA e autora do livro Technology Is Not Neutral ("A Tecnologia Não é Neutra", em tradução livre).

Pense em Minority Report, retratado no início deste artigo. O respeitado policial John Anderton (interpretado por Tom Cruise) é acusado de um crime que não cometeu porque os sistemas construídos para prever transgressões à lei têm certeza de que ele o fará no futuro.

"O policiamento preditivo já está aqui — a polícia de Londres faz uso dele", diz Hare.

No filme, a vida de Tom Cruise é arruinada por um sistema "inquestionável", que ele não entende totalmente.

Mas o que acontece na prática quando alguém precisa se submeter a "uma decisão que altera a vida" — como um pedido de financiamento imobiliário ou de liberdade condicional — que acaba recusada pela IA?

Hoje, um humano poderia explicar por que você não atendeu aos critérios. Mas muitos sistemas de IA são opacos e até mesmo os pesquisadores que os construíram não entendem completamente o caminho até a tomada de decisão.

"Nós apenas alimentamos os dados, o computador faz alguma coisa, a mágica acontece e, então, um resultado aparece", detalha Hare.

A tecnologia pode ser eficiente, mas é discutível se ela deve ser usada em cenários críticos, como policiamento, saúde ou guerra, entende a pesquisadora.

"Se o resultado não pode ser explicado, não está tudo bem."

'Armamento'

O Exterminador do Futuro

Arnold Schwarzenegger em O Exterminador do Futuro
Arnold Schwarzenegger em O Exterminador do Futuro
Foto: Getty Images / BBC News Brasil

O verdadeiro vilão da franquia O Exterminador do Futuro não é o robô assassino interpretado por Arnold Schwarzenegger: trata-se, na verdade, da Skynet, uma IA projetada para defender e proteger a humanidade.

Um dia, ela superou a programação e decidiu que as pessoas eram a maior ameaça de todas — um argumento cinematográfico comum.

É claro que estamos muito longe da Skynet. Mas alguns especulam que acabaremos por construir uma inteligência artificial generalizada (AGI) que poderia fazer tudo o que os humanos podem realizar de melhor — e talvez seja até autoconsciente.

Para Nathan Benaich, fundador da empresa de investimentos em IA Air Street Capital, de Londres, esse cenário é um pouco exagerado.

"A ficção científica costuma nos dizer muito mais sobre seus criadores e nossa cultura do que sobre a tecnologia", aponta ele.

Benaich acrescenta que as previsões sobre o futuro raramente acontecem.

"No início do século 20, se imaginava um mundo de carros voadores, onde as pessoas se comunicavam por telefones comuns — enquanto agora viajamos da mesma maneira, mas nos comunicamos de uma forma completamente diferente."

O que temos hoje está a caminho de se tornar algo mais parecido com o computador de bordo de Star Trek do que com a Skynet.

"Computador, mostre-me uma lista de todos os membros da tripulação", você pode dizer, e nossa IA de hoje já pode fornecê-la e responder a perguntas sobre a lista em linguagem comum.

Ela não consegue, no entanto, substituir a tripulação — ou disparar os torpedos de um veículo militar.

As preocupações com a manipulação de armamentos dizem respeito à integração da IA no hardware militar — algo que já é discutido — e se podemos confiar na tecnologia em cenários de vida ou morte.

Os pessimistas também estão preocupados com o potencial de uma IA projetada para transformar medicações em armas químicas ou ameaças semelhantes.

'Objetivos divergentes'

2001 - Uma Odisseia no Espaço

Cena do clássico 2001 - Uma Odisseia no Espaço
Cena do clássico 2001 - Uma Odisseia no Espaço
Foto: Getty Images / BBC News Brasil

Outro enredo popular no cinema não é que a IA seja má — mas sim, está equivocada.

Em 2001 - Uma Odisseia no Espaço, de Stanley Kubrick, conhecemos o HAL-9000, um supercomputador que controla a maior parte das funções da nave Discovery e facilita a vida dos astronautas — até que ela começa a apresentar problemas de funcionamento.

Os astronautas decidem desconectar o HAL e assumir o controle sozinhos. Mas HAL — que sabe coisas que os astronautas não entendem — decide que essa decisão compromete a missão.

Os astronautas até tentam, mas o robô os engana — e mata a maioria deles.

Ao contrário de uma Skynet autoconsciente, você poderia argumentar que HAL está fazendo o que lhe foi dito — afinal, ele tenta preservar a missão, mas não da maneira que se esperava.

Na linguagem moderna da área, os sistemas de IA malcomportados são considerados "desalinhados". Os objetivos deles passam a não corresponder mais aos desejos humanos.

Às vezes, isso ocorre porque as instruções não eram claras o suficiente ou porque a IA é inteligente o suficiente para encontrar um atalho.

Por exemplo, se a tarefa de uma IA for "certifique-se de que sua resposta e este documento de texto correspondam", ela pode decidir que o melhor caminho é alterar o documento de texto para uma resposta mais fácil.

Isso não é o que o humano pretendia, mas estaria tecnicamente correto.

Portanto, embora 2001 - Uma Odisseia no Espaço esteja longe da realidade, a obra reflete um problema muito real dos sistemas de IA atuais.

'Desinformação'

Matrix

Carrie-Anne Moss e Keanu Reeves em Matrix
Carrie-Anne Moss e Keanu Reeves em Matrix
Foto: Getty Images / BBC News Brasil

"Como você saberia a diferença entre o mundo dos sonhos e o mundo real?", questiona Morpheus (Laurence Fishburne) a um jovem Neo (Keanu Reeves) em Matrix, de 1999.

A história — sobre como a maioria das pessoas vive sem perceber que o mundo é uma farsa digital — constrói uma boa metáfora para a atual explosão de desinformação gerada pela IA.

Hare diz que Matrix é um ponto de partida útil para "conversas sobre desinformação e deepfakes".

"O que isso significaria para as eleições? E para a manipulação do mercado de ações? E para os direitos humanos e as liberdades civis?", questiona ela.

O ChatGPT e os geradores de imagens já estão fabricando conteúdos culturais que parecem reais, mas podem estar totalmente errados ou serem mentirosos.

Há também um lado muito mais sombrio — como a criação de pornografia por meio de deepfakes que é extremamente difícil para as vítimas desmentirem.

"Se isso acontecer comigo ou com alguém que amo, não há nada que possamos fazer para nos proteger agora", alerta Hare.

O que realmente pode acontecer

Como então encarar o alerta dos principais especialistas em IA, que chegaram a comparar o perigo dessa tecnologia à guerra nuclear?

"Eu acho que [o alerta] foi muito irresponsável", critica Hare.

"Se eles realmente pensam isso, deveriam parar de desenvolvê-la."

Provavelmente não é com os robôs assassinos que precisamos nos preocupar, avalia a especialista — mas, sim, com um acidente não intencional.

"Teremos uma alta segurança no setor bancário. Também haverá muito cuidado em relação às armas. Portanto, o que os invasores poderiam fazer é criar [uma IA] talvez esperando que eles pudessem ganhar um pouco de dinheiro ou fazer uma inflexão nas esferas de poder. E, a partir daí, eles perderiam o controle sobre ela", antevê a pesquisadora.

"Imagine todos os problemas de segurança cibernética que tivemos, mas multiplicados por um bilhão, porque tudo será mais rápido."

Benaich, da Air Street Capital, reluta em fazer qualquer suposição sobre possíveis problemas futuros.

"Acho que a IA transformará muitos setores desde o início, [mas] precisamos ser supercuidadosos ao tomar decisões apressadas com base em histórias delirantes e bizarras, onde grandes saltos são assumidos sem uma noção de como será a ponte entre eles", alerta ele.

BBC News Brasil BBC News Brasil - Todos os direitos reservados. É proibido todo tipo de reprodução sem autorização escrita da BBC News Brasil.
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade