Meta hat vorübergehend alle Kooperationen mit dem Datenanbieter Mercor eingestellt, nachdem es zu einem schweren Datenleck gekommen ist. Dabei könnten wichtige Informationen darüber offengelegt worden sein, wie KI-Modelle trainiert werden.
Artikel anhören
Den Artikel mit natürlicher KI-Stimme anhören.
KI erklärt
Was bedeutet die Datenpanne bei Mercor für KI-Entwicklungen?
Meta hat die Zusammenarbeit mit dem Datenanbieter Mercor nach einem schweren Datenleck vorübergehend gestoppt. Mercor liefert wichtige, oft geheime Datensätze für das Training von KI-Modellen an Unternehmen wie Meta, OpenAI und Anthropic. Der Vorfall betrifft mehrere Organisationen weltweit und führt zu Unsicherheiten bei der Nutzung sensibler Trainingsdaten.
- Kurz erklärt: Mercor ist ein zentraler Datenlieferant für KI-Modelle, dessen Sicherheitsvorfall die Zusammenarbeit mit großen KI-Firmen unterbricht.
- Warum es relevant ist: Die Offenlegung von Trainingsdaten kann Wettbewerbern Einblicke in KI-Entwicklungen geben und die Datensicherheit in der Branche infrage stellen.
- Das Wichtigste: Meta pausiert die Kooperation mit Mercor, andere KI-Labore prüfen ebenfalls ihre Zusammenarbeit, während die Auswirkungen auf proprietäre Daten noch untersucht werden.

Meta stoppt Zusammenarbeit mit Mercor nach Sicherheitsvorfall
Meta hat bestätigt, dass die Zusammenarbeit mit Mercor, einem führenden Datenanbieter, pausiert wird, während ein schwerwiegender Sicherheitsvorfall untersucht wird. Quellen berichten, dass die Pause unbegrenzt ist und auch andere große KI-Labore ihre Zusammenarbeit mit Mercor prüfen. Das Unternehmen ist bekannt dafür, maßgeschneiderte Datensätze an KI-Labore wie OpenAI und Anthropic zu liefern. Diese Datensätze sind oft geheim, da sie entscheidend für die Entwicklung von KI-Modellen wie ChatGPT und Claude Code sind. Es ist noch unklar, ob die bei dem Vorfall offengelegten Daten Konkurrenten, darunter andere KI-Labore in den USA und China, signifikante Informationen liefern.
OpenAI hat seine laufenden Projekte mit Mercor nicht gestoppt, untersucht jedoch, ob ihre proprietären Trainingsdaten betroffen sind. Ein Sprecher von OpenAI betonte, dass der Vorfall keine Auswirkungen auf die Nutzerdaten habe. Mercor bestätigte den Angriff in einer E-Mail an die Mitarbeiter am 31. März und gab an, dass ihre Systeme sowie Tausende weiterer Organisationen weltweit betroffen seien. Mitarbeiter, die an Meta-Projekten arbeiten, können keine Stunden erfassen, bis das Projekt möglicherweise wieder aufgenommen wird, was zu Einkommensverlusten führen kann. Mercor bemüht sich, alternative Projekte für die Betroffenen zu finden. Zudem wurde berichtet, dass eine Gruppe namens TeamPCP zwei Versionen des KI-API-Tools LiteLLM kompromittiert hat, was dazu geführt haben könnte, dass mehrere Unternehmen von dem Datenleck betroffen sind.
Ausblick für den deutschen Markt
AIny kurze Einschätzung: Dieses Datenleck wird auch in Deutschland die Aufmerksamkeit auf Datensicherheit bei KI-Entwicklern erhöhen. Unternehmen, die mit sensiblen Daten arbeiten, müssen ihre Sicherheitsmaßnahmen kritisch überprüfen. Zudem könnte sich die Zusammenarbeit deutscher Firmen mit internationalen Datenanbietern künftig stärker an Sicherheitsstandards orientieren.
Quelle: WIRED
Lesen Sie auch: Studie enthüllt kognitive Kapitulation von KI-Nutzern

