Atriz criada por IA faz sucesso em Hollywood
Tilly Norwood já tem 58 mil seguidores no Instagram e está atraindo a atenção de agências de talento, produtoras e fãs
07/10/202511/04/2023
Por redação AIoT Brasil
Uma falha inacreditável ou uma brincadeira de mau gosto? É isso o que a Samsung está tentando descobrir para explicar por que três de seus engenheiros expuseram dados sensíveis da empresa no ChatGPT. E tudo indica que as informações foram recebidas com naturalidade pela inteligência artificial da OpenAI a fim de serem utilizadas como treinamento para futuras respostas públicas, o que aumentou o constrangimento.
O caso foi noticiado inicialmente pelo portal coreano The Economist Korea e em seguida repercutiu mundo afora, pelo seu aspecto inusitado. O vazamento ocorreu 15 dias depois que a Samsung havia autorizado seus funcionários a acessar novamente o ChatGPT, o que estava proibido justamente para evitar esse tipo de problema.
Agora, com os novos incidentes, a fabricante de semicondutores coreana está avaliando a possibilidade de restabelecer a proibição, além de aplicar uma punição disciplinar aos funcionários envolvidos. A política de utilização do ChatGPT é bem clara e alerta que todos os comandos introduzidos no bot podem ser usados para treinamento. A OpenAI também pede aos utilizadores que não coloquem dados sensíveis nos pedidos feitos ao ChatGPT e lembra que a única forma de eliminar informação identificável é apagar a conta, em um processo que pode ser demorado.
De acordo com The Economist Korea, um engenheiro pediu ao ChatGPT para verificar informações sensíveis no código de um banco de dados de semicondutores, para verificar eventuais erros. Outro funcionário o pediu uma otimização de código fonte, em busca de uma “otimização de código”, e um terceiro adicionou a gravação de uma reunião online e solicitou ao bot que gerasse uma minuta. Depois disso, os executivos da Samsung intervieram.
Consta que o uso do ChatGPT para localizar e corrigir erros em códigos tornou-se uma prática comum entre os engenheiros de software. Se os usuários fizerem uma pergunta de codificação, o bot tentará identificar a solução e fornecerá um trecho de código para ser copiado. O Microsoft Bing e o Google Bard também podem detectar bugs em linhas de código, e tudo isso facilita muito o trabalho dos desenvolvedores.
Ao mesmo tempo em que investiga os três engenheiros, a Samsung anunciou que está pensando em construir a sua própria versão do ChatGPT, para evitar que esse tipo de situação se repita. Além disso, a empresa vai limitar o tamanho dos pedidos dos utilizadores a um kilobyte, pouco mais de 1 mil caracteres de texto.
#ChatGPT#dados sensíveis#dados vazados#inteligência artificial#open AI#samsung
Tilly Norwood já tem 58 mil seguidores no Instagram e está atraindo a atenção de agências de talento, produtoras e fãs
07/10/2025Relatório da Bloomberg mostra que a venda de US$ 6,6 bilhões em ações de funcionários elevará a avaliação da big tech para US$ 500 bilhões
06/10/2025Entre outras opções, os pais poderão definir horários de bloqueios e serão avisados se os filhos indicarem que pensam em se ferir
03/10/2025