Samsung proíbe ChatGPT após funcionários 'abrirem o bico' para a IA
Ferramenta de bate-papo não é recomendada como plataforma corporativa
A Samsung deu uma "bronca" em funcionários que estavam utilizando o ChatGPT para compartilhar informações corporativas confidenciais, segundo informou a edição coreana da revista Economist em 30 de março — a publicação teve acesso à mensagem.
A fabricante recomenda que empregados parem o compartilhamento de informações de interesse da empresa com o robô da OpenAI, lançado em novembro e movido a inteligência artificial (IA). Se persistir, a empresa considera proibir a plataforma em toda a rede corporativa da firma.
Segundo a reportagem, a bronca veio após a gigante detectar três casos nos quais funcionários enviaram informações confidenciais para o chatbot. Em um deles, o funcionário enviou o código-fonte de bases de dados em busca de correção de erros. Em um segundo caso, o funcionário pediu uma melhoria de código. Em um terceiro caso, o funcionário pediu a minuta de uma reunião fornecendo as informações discutidas no encontro.
O motivo para a preocupação da Samsung está no fato de o ChatGPT ser uma ferramenta que reaproveita todos os dados ali compartilhados pelos usuários. Na prática, a própria IA fica mais inteligente conforme mais pessoas usam o serviço, compartilhando mais informações.
"Assim que o conteúdo é inserido no ChatGPT, os dados são transmitidos e armazenados em um servidor externo, impossibilitando a empresa de recuperá-los", explica a Samsung a funcionários em comunicado, segundo a Economist.
Além disso, a Samsung pretende desenvolver um chatbot próprio para ser utilizada pelos colaboradores. No entanto, não há mais informações sobre o projeto, de acordo com a revista.