Anthropic sier utenlandske laboratorier gjennomførte tre «industriskala» distillasjonskampanjer for å utvinne evner fra modellen Claude.
Kampanjene genererte over 16 millioner forespørsler ved bruk av om lag 24 000 falske kontoer. Angripernes teknikk, kalt distillasjon, trener svakere systemer på kvalitetssvar fra et sterkere system for å raskt gjenskape proprietær logikk. Tjenestene brukte kommersielle proxy-nettverk med såkalte «hydra cluster»-arkitekturer som fordeler trafikk over flere API-er og skytjenester; ett nettverk styrte mer enn 20 000 svindelkontoer samtidig. Nettverkene blandet destillasjonstrafikk med vanlig kundetrafikk for å unngå oppdagelse, og nye kontoer erstattet dem som ble utestengt. Anthropic advarer om at slike ulovlig trenede modeller kan omgå sikkerhetsbegrensninger, utgjøre nasjonal sikkerhetsrisiko og bli brukt i militære og etterretningssammenhenger. Begrenset tilgang til avanserte prosessorer reduserer både direkte trening og omfanget av slik skala-distillasjon.
Norsk kontekst: Saken gjelder beskyttelse av intellektuell eiendom og nasjonal sikkerhet knyttet til kunstlig intelligens (KI), temaer som også er relevante for norske leverandører, offentlige etater og forskningsmiljøer og omtales i AI-nyheter.
Kilde: https://artificialintelligence-news.com/news/anthropic-claude-faces-industrial-scale-ai-model-distillation | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
