Script = https://s1.trrsf.com/update-1731945833/fe/zaz-ui-t360/_js/transition.min.js
PUBLICIDADE

Hacker rouba segredos da OpenAI, mas empresa não comunica autoridades

Incidente reforça preocupações sobre IA cair em mãos erradas

4 jul 2024 - 19h10
Compartilhar
Exibir comentários

No início do ano passado, um hacker obteve acesso aos sistemas internos de mensagens da OpenAI, dona do ChatGPT, e roubou detalhes sobre o design das tecnologias de inteligência artificial (IA) da empresa.

De acordo com duas pessoas familiarizadas com o incidente, o hacker obteve detalhes de discussões em um fórum online em que os funcionários falavam sobre as tecnologias mais recentes da OpenAI, mas não entrou nos sistemas em que a empresa abriga e constrói sua inteligência artificial.

Os executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco em abril de 2023. Porém, os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada. Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo privado sem vínculos conhecidos com um governo estrangeiro. A empresa não informou o FBI ou qualquer outro órgão de segurança pública.

"Se ela fosse propriedade de outra pessoa, isso poderia ser extremamente prejudicial para grande parte da sociedade? Nossa resposta é 'Não, provavelmente não'", disse ela ao The Times no mês passado. "Isso poderia acelerar algo para um mau ator no futuro? Talvez. Isso é realmente especulativo."

Ainda assim, pesquisadores e executivos de tecnologia há muito tempo se preocupam com a possibilidade de a IA um dia alimentar a criação de novas armas biológicas ou ajudar a invadir os sistemas de computadores do governo. Alguns até acreditam que ela poderia destruir a humanidade.

Várias empresas, incluindo a OpenAI e a Anthropic, já estão bloqueando suas operações técnicas. A OpenAI criou recentemente um Comitê de Segurança e Proteção para explorar como deve lidar com os riscos apresentados por tecnologias futuras. O comitê inclui Paul Nakasone, um ex-general do Exército que liderou a Agência de Segurança Nacional e o Comando Cibernético. Ele também foi nomeado para a diretoria da OpenAI.

"Começamos a investir em segurança anos antes do ChatGPT", disse Knight. "Estamos em uma jornada não apenas para entender os riscos e ficar à frente deles, mas também para aprofundar nossa resiliência."

Autoridades federais e legisladores estaduais também estão pressionando por regulamentações governamentais que impediriam as empresas de liberar determinadas tecnologias de IA e multá-las em milhões se suas tecnologias causassem danos. Mas os especialistas dizem que esses perigos ainda estão a anos ou mesmo décadas de distância.

As empresas chinesas estão criando seus próprios sistemas que são quase tão poderosos quanto os principais sistemas dos EUA. De acordo com algumas métricas, a China eclipsou os Estados Unidos como o maior produtor de talentos em IA, com o país gerando quase metade dos principais pesquisadores da área do mundo.

"Não é loucura pensar que a China logo estará à frente dos EUA", diz Clément Delangue, executivo-chefe da Hugging Face, uma empresa que hospeda muitos dos projetos de I.A. de código aberto do mundo.

Alguns pesquisadores e líderes de segurança nacional argumentam que os algoritmos matemáticos que estão no centro dos atuais sistemas de IA, embora não sejam perigosos hoje, podem se tornar perigosos e pedem controles mais rígidos nos laboratórios de I.A.

"Mesmo que os piores cenários sejam de probabilidade relativamente baixa, se forem de alto impacto, é nossa responsabilidade levá-los a sério", disse Susan Rice, ex-conselheira de política interna do presidente Biden e ex-conselheira de segurança nacional do presidente Barack Obama, durante um evento no Vale do Silício no mês passado. "Não acho que seja ficção científica, como muitos gostam de afirmar."

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Estadão
Compartilhar
TAGS
Publicidade
Seu Terra












Publicidade