Script = https://s1.trrsf.com/update-1725976688/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

IA pode fugir do controle em breve e os cientistas estão preocupados

Cientistas afirmam que, à medida que a tecnologia de IA avança rapidamente, qualquer erro ou uso indevido pode trazer graves consequências para a raça humana

23 set 2024 - 09h10
Compartilhar
Exibir comentários

Os principais cientistas de IA do mundo estão pedindo aos governos mundiais que trabalhem juntos para regulamentar a tecnologia antes que seja tarde demais.

Três ganhadores do Prêmio Turing - basicamente o Prêmio Nobel de ciência da computação - que ajudaram a liderar a pesquisa e o desenvolvimento da IA, juntaram-se a uma dúzia de cientistas importantes de todo o mundo para assinar uma carta aberta que pedia a criação de melhores salvaguardas para o avanço da IA.

Os cientistas afirmaram que, à medida que a tecnologia de IA avança rapidamente, qualquer erro ou uso indevido pode trazer graves consequências para a raça humana.

"A perda do controle humano ou o uso malicioso desses sistemas de IA pode levar a resultados catastróficos para toda a humanidade", escreveram os cientistas na carta. Eles também alertaram que, com o ritmo acelerado do desenvolvimento da IA, esses "resultados catastróficos" poderiam ocorrer a qualquer momento.

Os cientistas descreveram as seguintes etapas para começar a lidar imediatamente com o risco do uso malicioso da IA:

Órgãos governamentais de segurança de IA

Os governos precisam colaborar com as precauções de segurança da IA. Algumas das ideias dos cientistas incluem incentivar os países a desenvolver autoridades específicas de IA que respondam a "incidentes" e riscos de IA dentro de suas fronteiras. O ideal seria que essas autoridades cooperassem entre si e, a longo prazo, fosse criado um novo órgão internacional para impedir o desenvolvimento de modelos de IA que representem riscos para o mundo.

"Esse órgão garantiria que os estados adotassem e implementassem um conjunto mínimo de medidas eficazes de preparação para a segurança, incluindo registro de modelos, divulgação e armadilhas", diz a carta.

Compromissos de segurança de IA do desenvolvedor

Outra ideia é exigir que os desenvolvedores tenham a intenção de garantir a segurança de seus modelos, prometendo que não ultrapassarão os limites. Os desenvolvedores se comprometeriam a não criar IA "que possa replicar, melhorar, buscar poder ou enganar seus criadores de forma autônoma, ou que permita a construção de armas de destruição em massa e a realização de ataques cibernéticos", conforme estabelecido em uma declaração dos principais cientistas durante uma reunião em Pequim no ano passado.

Pesquisa independente e verificações tecnológicas sobre IA

Outra proposta é a criação de uma série de fundos globais de segurança e verificação de IA, financiados por governos, filantropos e empresas que patrocinariam pesquisas independentes para ajudar a desenvolver melhores verificações tecnológicas de IA.

Entre os especialistas que imploraram aos governos que agissem em relação à segurança da IA estavam três ganhadores do prêmio Turing, incluindo Andrew Yao, mentor de alguns dos empreendedores de tecnologia mais bem-sucedidos da China, Yoshua Bengio, um dos cientistas da computação mais citados do mundo, e Geoffrey Hinton, que ensinou o cofundador e ex-cientista-chefe da OpenAI, Ilya Sutskever, e que passou uma década trabalhando com aprendizado de máquina no Google.

Cooperação e ética em IA

Na carta, os cientistas elogiaram a cooperação internacional já existente sobre IA, como a reunião de maio entre os líderes dos EUA e da China em Genebra para discutir os riscos da IA. No entanto, eles disseram que é preciso mais cooperação.

O desenvolvimento da IA deve vir acompanhado de normas éticas para engenheiros, semelhantes às que se aplicam a médicos ou advogados, argumentam os cientistas. Os governos devem pensar na IA menos como uma nova e empolgante tecnologia e mais como um bem público global.

"Coletivamente, devemos nos preparar para evitar os riscos catastróficos que podem surgir a qualquer momento", diz a carta.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

c.2024 Fortune Media IP Limited

Distribuído por The New York Times Licensing Group

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade