Inteligência artificial pode criar novas armas biológicas, diz especialista
Dario Amodei, executivo-chefe da startup de IA Anthropic, teme que IA possa ser usada para criar vírus e outras armas em menos de dois anos
A velocidade com que a inteligência artificial está sendo desenvolvida pode trazer danos graves ao mundo nos próximos anos. Ela já vem sendo usada em golpes digitais mais elaborados, por exemplo. Mas em uma audiência no Congresso dos EUA na terça-feira (25), três influentes especialistas de IA sugeriram que nações e terroristas poderiam usar a tecnologia para criar armas biológicas.
A declaração veio de Dario Amodei, executivo-chefe da startup de IA Anthropic. Ele disse temer que a IA possa ser usada para criar vírus perigosos e outras armas biológicas em menos de dois anos.
Yoshua Bengio, professor de IA da Universidade de Montreal (Canadá), disse que os Estados Unidos precisam pressionar outros países para chegar a uma cooperação internacional sobre o desenvolvimento da IA. Na sua visão, deveria ser algo parecido com as regras internacionais sobre tecnologia nuclear.
Já Stuart Russell, professor de ciência da computação da Universidade da Califórnia em Berkeley (EUA), disse que a maneira como a IA funciona leva a uma compreensão mais difícil de como pode ser entendida e controlada, em um nível mais acentuado do que outras tecnologias de risco.
Nos últimos meses, pesquisadores e até as próprias empresas de IA têm reforçado sobre os riscos da ferramenta e acreditam que uma versão autônoma dessa inteligência pode potencialmente surgir em apenas alguns anos. As previsões anteriores estimavam isso em décadas.
Em março, uma carta aberta do instituto Future of Life pediu até uma pausa de seis meses no desenvolvimento de inteligência artificial. Yoshua Bengio — que trabalhou nos anos 1990 e 2000 em técnicas de IA que levaram a chatbots como o ChatGPT, da OpenAI, e o Bard, do Google — foi um dos signatários.
Mas o manifesto foi criticado por outros especialistas. Para eles, os riscos apontados na carta apontam problemas que talvez nem venham a acontecer, ignorando riscos reais que já estão acontecendo, como profissionais humanos sendo demitidos e trocados por IAs.