Funcionários da Samsung expuseram dados internos ao usar ChatGPT. Saiba mais sobre o vazamento acidental de informações confidenciais.
Ao utilizar um bot de inteligência artificial para corrigir erros de código, os colaboradores da Samsung acabaram expondo informações internas e memorandos a terceiros, o que resultou em um vazamento de dados confidenciais.
A Samsung experimentou uma situação delicada ao perceber que a confiança no ChatGPT pode ser uma faca de dois gumes. O que começou como uma busca por ajuda básica acabou por se tornar um problema de segurança cibernética. Ao utilizarem o ChatGPT para corrigir erros de código-fonte, os colaboradores da empresa inadvertidamente compartilharam informações sensíveis da Samsung com terceiros.
Em um curto espaço de tempo, os colaboradores da Samsung Semiconductor recorreram ao ChatGPT em busca de soluções imediatas para problemas internos, utilizando a ferramenta pelo menos três vezes em apenas 20 dias.
Em uma dessas ocasiões, um funcionário inseriu o código-fonte de um programa proprietário no bot, enquanto em outra, foram fornecidas ao ChatGPT sequências de teste altamente confidenciais para identificar chips defeituosos e buscar ajuda com a otimização. Em um terceiro caso, um colaborador utilizou o tradutor de IA Naver Clova para converter uma reunião gravada em um documento, solicitando em seguida que o ChatGPT o transformasse em uma apresentação.
"A utilização do ChatGPT pelos funcionários da Samsung Semiconductor acarretou em um vazamento de informações sensíveis da empresa. Por ser gerenciado por uma empresa terceirizada e armazenado em servidores externos, qualquer inserção de dados internos, como o código-fonte, sequências de teste ou conteúdo de reuniões, pode resultar em um grande risco de segurança cibernética.
Uma vez que a informação é entregue, ela não pode mais ser controlada, e pode ser utilizada por terceiros para qualquer finalidade. Diante desse incidente, a Samsung Electronics rapidamente alertou sua liderança e colaboradores sobre os riscos associados ao uso do ChatGPT em suas atividades diárias, apesar de ter apresentado a ferramenta em primeiro lugar
Cada vez mais profissionais estão incorporando ferramentas geradoras de IA, como o ChatGPT e o DALL-E 2, em seus fluxos de trabalho. De fato, um estudo recente da Aberdeen com 642 profissionais constatou que 59% deles utilizaram IA generativa em seu trabalho.
No entanto, com a crescente adoção dessas poderosas ferramentas, é essencial que as pessoas encontrem maneiras de mitigar o risco de vazamento de informações ou de plágio, ou até mesmo evitem o uso dessas ferramentas em circunstâncias específicas.
Apesar do acidente que ocorreu na Samsung, não houve apenas consequências negativas. A empresa está utilizando a situação como uma oportunidade para desenvolver sua própria ferramenta de IA, semelhante ao ChatGPT, mas para uso interno exclusivo. Essa ferramenta permitirá que os funcionários recebam assistência rápida sem comprometer a confidencialidade da empresa.
Segundo a publicação coreana Economist, a versão da Samsung tem um limite de 1.024 bytes para as perguntas submetidas, o que poderá ser aumentado à medida que a empresa aprimora a ferramenta. Além disso, a Samsung Electronics está implementando uma série de medidas de segurança para evitar vazamentos semelhantes no futuro.