Meta interrompe parceria com Mercor após violação de dados

A Meta suspendeu temporariamente toda a colaboração com o fornecedor de dados Mercor após uma grave violação de dados. Isso pode ter exposto informações importantes sobre como modelos de IA são treinados.

IA explicada

O que ocorreu na violação de dados envolvendo a Meta e a Mercor?

A Meta suspendeu temporariamente sua parceria com a Mercor após uma grave violação de dados que pode ter exposto informações sobre o treinamento de modelos de IA. A Mercor, fornecedora de conjuntos de dados para laboratórios como OpenAI e Anthropic, confirmou o ataque que afetou seus sistemas e outras organizações. A OpenAI investiga a exposição de seus dados, mas não interrompeu seus projetos atuais.

  • Resumo: A Meta pausou a colaboração com a Mercor devido a uma falha de segurança que expôs dados usados no desenvolvimento de IA.
  • Por que isso importa: A violação pode comprometer informações confidenciais sobre o treinamento de modelos de IA, afetando várias empresas do setor.
  • Ponto principal: A segurança dos dados usados no desenvolvimento de IA é crítica e a violação levou a uma reavaliação das parcerias com fornecedores de dados.

Meta interrompe parceria com Mercor após violação de segurança

A Meta confirmou que pausou sua colaboração com a Mercor, um fornecedor líder de dados, enquanto investiga uma séria falha de segurança. Fontes indicam que a pausa é por tempo indeterminado, e outros grandes laboratórios de IA também estão reavaliando suas parcerias com a Mercor. A empresa é conhecida por fornecer conjuntos de dados personalizados para laboratórios de IA como OpenAI e Anthropic, e esses conjuntos são frequentemente confidenciais, pois são cruciais para o desenvolvimento de modelos de IA como ChatGPT e Claude Code. Ainda não está claro se os dados expostos na violação fornecerão informações significativas para concorrentes, incluindo outros laboratórios de IA nos EUA e na China.

A OpenAI não interrompeu seus projetos atuais com a Mercor, mas está investigando como seus dados proprietários de treinamento podem ter sido expostos. Segundo um porta-voz da OpenAI, o incidente não afetou os dados dos usuários. A Mercor confirmou o ataque em um e-mail enviado aos funcionários em 31 de março, informando que seus sistemas, bem como milhares de outras organizações globalmente, foram impactados. Funcionários que trabalham em projetos da Meta não podem registrar horas até que o projeto seja retomado, o que pode acarretar perda de renda. A Mercor está buscando projetos alternativos para os afetados. Também foi reportado que um grupo conhecido como TeamPCP comprometeu duas versões da ferramenta LiteLLM, uma API de IA, o que pode ter ampliado o impacto da violação para outras empresas.

Impactos e perspectivas para o mercado brasileiro de IA

Avaliação rápida da AIny: Essa violação de dados destaca a necessidade urgente de reforço na segurança da informação entre desenvolvedores de IA no Brasil. Empresas que lidam com dados sensíveis devem revisar suas práticas de segurança para evitar riscos semelhantes. Além disso, o episódio pode influenciar como companhias brasileiras estabelecem parcerias com fornecedores internacionais de dados, buscando maior transparência e controle.

Fonte: WIRED

Leia também: Pesquisa revela entrega cognitiva dos usuários de IA