Meta stopper samarbeid med Mercor etter datainnbrudd

Meta har midlertidig stoppet alt samarbeid med dataleverandøren Mercor etter et alvorlig datainnbrudd. Dette kan ha eksponert viktige data om hvordan AI-modeller trenes.

AI-lyd

Lytt til artikkelen

Få innholdet lest opp med naturlig AI-stemme.

AI-forklart

Hva betyr Metas stopp i samarbeidet med Mercor etter datainnbruddet?

Meta har midlertidig stoppet samarbeidet med dataleverandøren Mercor etter et alvorlig datainnbrudd som kan ha eksponert treningsdata for AI-modeller. Flere store AI-laboratorier vurderer også sine samarbeid med Mercor. Det er uklart hvor mye informasjon konkurrenter kan ha fått tilgang til.

  • Kort forklart: Meta har stoppet samarbeidet med Mercor på grunn av et sikkerhetsbrudd som kan ha eksponert viktige AI-treningsdata.
  • Hvorfor det er relevant: Mercor leverer datasett til ledende AI-selskaper, og bruddet kan påvirke utviklingen av AI-modeller og konkurranse i markedet.
  • Det viktigste å vite: Flere AI-laboratorier undersøker nå sine prosjekter med Mercor, og det er usikkert hvor mye data som er lekket eller hvordan det påvirker AI-treningen.

Konsekvenser for AI-trening og konkurranse i markedet

Meta har bekreftet at de har pauset sitt samarbeid med Mercor, en ledende dataleverandør, mens de undersøker et alvorlig sikkerhetsbrudd. Kilder opplyser at pausen er ubegrenset, og at andre store AI-laboratorier også vurderer sitt samarbeid med Mercor. Selskapet er kjent for å levere spesiallagde datasett til AI-laboratorier som OpenAI og Anthropic, og disse datasettene er ofte hemmelige da de er avgjørende for utviklingen av AI-modeller som ChatGPT og Claude Code. Det er fortsatt uklart om dataene som ble eksponert i bruddet vil gi konkurrenter, inkludert andre AI-laboratorier i USA og Kina, betydelig informasjon.

OpenAI har ikke stoppet sine nåværende prosjekter med Mercor, men undersøker hvordan deres proprietære treningsdata kan ha blitt eksponert. Ifølge en talsperson for OpenAI påvirker ikke hendelsen brukerdataene deres. Mercor bekreftet angrepet i en e-post til ansatte den 31. mars, og opplyste om at det påvirket deres systemer, samt tusenvis av andre organisasjoner globalt. Ansatte som arbeidet med Meta-prosjekter kan ikke loggføre timer før prosjektet eventuelt gjenopptas, noe som kan føre til at de mister inntekt. Mercor jobber med å finne alternative prosjekter for de berørte. Det er også rapportert at en gruppe kjent som TeamPCP har kompromittert to versjoner av AI API-verktøyet LiteLLM, noe som kan ha ført til at flere selskaper er berørt av datainnbruddet.

Hva skjer videre?

AIny kort vurdering: Dette datainnbruddet kan føre til økt fokus på datasikkerhet blant norske AI-utviklere. Selskaper som jobber med sensitive data må nå vurdere sine sikkerhetsprosedyrer. Det kan også påvirke hvordan norske selskaper samarbeider med internasjonale dataleverandører.

Kilde: WIRED

Les denne saken også på engelsk

Read in English

Les også: Forskning avdekker AI-brukeres kognitive overgivelse