Meta a temporairement suspendu toute collaboration avec le fournisseur de données Mercor suite à une grave fuite de données. Cet incident pourrait avoir exposé des informations cruciales sur la manière dont les modèles d’IA sont entraînés.
Écouter l’article
Écoutez l’article avec une voix IA naturelle.
IA expliquée
Pourquoi Meta a-t-il suspendu sa collaboration avec Mercor ?
Meta a suspendu son partenariat avec Mercor après une fuite de données majeure qui a exposé des informations sur l'entraînement des modèles d'IA. Mercor fournit des ensembles de données confidentiels à plusieurs laboratoires d'IA. Cette suspension est indéfinie et d'autres acteurs du secteur réévaluent aussi leur collaboration avec Mercor.
- En bref: Une faille de sécurité chez Mercor a conduit Meta à interrompre temporairement son partenariat.
- Pourquoi c’est pertinent: Les données exposées concernent l'entraînement des modèles d'IA, un élément clé pour plusieurs laboratoires.
- Point clé: Cette fuite met en lumière les risques liés à la sécurité des données dans le développement de l'IA.

Meta suspend sa collaboration avec Mercor après une faille de sécurité
Meta a confirmé avoir mis en pause son partenariat avec Mercor, un fournisseur de données majeur, pendant qu’une enquête est menée sur une importante faille de sécurité. Des sources indiquent que cette suspension est indéfinie, et que d’autres grands laboratoires d’IA envisagent également de revoir leur collaboration avec Mercor. L’entreprise est reconnue pour fournir des ensembles de données sur mesure à des laboratoires d’IA tels qu’OpenAI et Anthropic, ces ensembles étant souvent confidentiels car essentiels au développement de modèles d’IA comme ChatGPT et Claude Code. Il reste incertain si les données exposées lors de cette fuite fourniront des informations significatives à des concurrents, y compris d’autres laboratoires d’IA aux États-Unis et en Chine.
OpenAI n’a pas interrompu ses projets en cours avec Mercor, mais examine comment ses données d’entraînement propriétaires pourraient avoir été compromises. Selon un porte-parole d’OpenAI, cet incident n’affecte pas les données des utilisateurs. Mercor a confirmé l’attaque dans un courriel adressé à ses employés le 31 mars, précisant que ses systèmes ainsi que ceux de milliers d’autres organisations dans le monde ont été impactés. Les employés travaillant sur des projets Meta ne peuvent pas enregistrer leurs heures tant que les projets ne sont pas éventuellement relancés, ce qui pourrait entraîner une perte de revenus. Mercor cherche à proposer des projets alternatifs aux personnes concernées. Par ailleurs, il a été rapporté qu’un groupe connu sous le nom de TeamPCP a compromis deux versions de l’outil API LiteLLM, ce qui pourrait avoir étendu l’impact de la fuite à plusieurs entreprises.
Implications pour le marché français de l’IA
Analyse AIny : Cette fuite de données souligne l’importance croissante de la sécurité des données pour les développeurs d’IA en France. Les entreprises françaises manipulant des données sensibles devront renforcer leurs protocoles de sécurité et réévaluer leurs partenariats avec des fournisseurs internationaux. Ce contexte pourrait également influencer la manière dont les acteurs français collaborent avec des fournisseurs de données étrangers, en privilégiant la transparence et la protection des informations stratégiques.
Source : WIRED
Lire aussi : Une étude révèle la reddition cognitive des utilisateurs d’IA

