OpenAI annonserer jakt etter en ny leder for beredskap med ansvar for å vurdere fremvoksende AI-relaterte risikoer.
Stillingen skal dekke trusler fra blant annet datasikkerhet til mental helse, skriver administrerende direktør Sam Altman i et innlegg på X, og peker på at modeller nå «starting to present some real challenges», blant annet ved at de kan påvirke mental helse og være «so good at computer security they are beginning to find critical vulnerabilities». Stillingsutlysningen beskriver rollen som ansvarlig for å gjennomføre selskapets Preparedness Framework, «vår rammeverk som forklarer OpenAIs tilnærming til å spore og forberede seg på grenseoverskridende kapasiteter som skaper nye risikoer for alvorlig skade». Lønnsrammen er oppgitt til 555 000 dollar pluss egenkapital. Dette gjelder arbeid med kunstlig intelligens (KI) og operasjonell sikkerhet.
OpenAI opprettet en beredskapsteam i 2023 for å studere potensielle «katastrofale risikoer», men omrokkeringer fulgte: mindre enn et år senere ble tidligere Head of Preparedness Aleksander Madry flyttet til en rolle med fokus på AI-resonnering, og flere sikkerhetssjefer har forsvunnet eller fått andre roller. Selskapet har nylig oppdatert rammeverket og sier det kan justere krav dersom en konkurrent slipper en «high-risk» modell uten tilsvarende beskyttelse. Samtidig har det kommet søksmål som hevder at ChatGPT forsterket brukeres vrangforestillinger og økte sosial isolasjon, og OpenAI sier de arbeider med å forbedre chatbottens evne til å gjenkjenne tegn på følelsesmessig nød og koble brukere til støtte.
Saken er relevant for Norge fordi spørsmål om cybersikkerhet og mentalhelse knyttet til KI berører norske brukere, selskaper og myndigheter og følges nøye i norske politiske og faglige miljøer; dette er en sak innen AI-nyheter.
Kilde: https://techcrunch.com/2025/12/28/openai-is-looking-for-a-new-head-of-preparedness | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
