Slik gjør selskaper ansvarlig AI til kjerneverdier

PwC-undersøkelse og bransjeeksperter gir åtte råd for å bygge ansvarlig AI inn i selskapets praksis.

PWC-undersøkelsen blant 310 ledere viser at 56 prosent sier at førstelinjeteamene — IT, engineering, data og AI — nå leder arbeidet med ansvarlig AI, noe som flytter styring nærmere de som bygger løsningene.

PwC anbefaler en tredelt «forsvars»-modell:

  • førstelinjen bygger og drifter,
  • andrelinjen gjennomgår og styrer,
  • tredjelinjen sikrer og reviderer.

Undersøkelsen viser videre at 61 prosent har integrert ansvarlig AI i kjerneoperasjoner og beslutninger, 21 prosent er i treningsfasen, mens 18 prosent befinner seg i tidlig stadium. Omtrent halvparten peker på utfordringen med å gjøre prinsipper om til skalerbare, repeterbare prosesser.

Ekspertene anbefaler blant annet:

  • å bygge ansvarlig kunstlig intelligens (KI) inn fra start,
  • gi AI tydelig formål,
  • etablere klare policyer,
  • gjøre ansvarlighet til en del av jobben,
  • sikre forklarbarhet og menneskelig kontroll i alle faser.

Tidligere NSA-hacker Jake Williams advarer mot inkonsistent output fra LLM-er, noe som har ført til at noen organisasjoner ruller tilbake AI-initiativ på grunn av regulatorisk eksponering.

Dette er relevant for norske virksomheter: ansvarlig AI påvirker forretningsverdi og regulatorisk risiko, og krever styringsrammer og opplæring for å bli integrert i drift. Temaet er også fremtredende i internasjonale AI-nyheter.

Kilde: https://zdnet.com/article/8-ways-to-make-responsible-ai-part-of-your-companys-dna | Sammendraget er KI-generert med OpenAI API av Ainy.no