PwC-undersøkelse og bransjeeksperter gir åtte råd for å bygge ansvarlig AI inn i selskapets praksis.
PWC-undersøkelsen blant 310 ledere viser at 56 prosent sier at førstelinjeteamene — IT, engineering, data og AI — nå leder arbeidet med ansvarlig AI, noe som flytter styring nærmere de som bygger løsningene.
PwC anbefaler en tredelt «forsvars»-modell:
- førstelinjen bygger og drifter,
- andrelinjen gjennomgår og styrer,
- tredjelinjen sikrer og reviderer.
Undersøkelsen viser videre at 61 prosent har integrert ansvarlig AI i kjerneoperasjoner og beslutninger, 21 prosent er i treningsfasen, mens 18 prosent befinner seg i tidlig stadium. Omtrent halvparten peker på utfordringen med å gjøre prinsipper om til skalerbare, repeterbare prosesser.
Ekspertene anbefaler blant annet:
- å bygge ansvarlig kunstlig intelligens (KI) inn fra start,
- gi AI tydelig formål,
- etablere klare policyer,
- gjøre ansvarlighet til en del av jobben,
- sikre forklarbarhet og menneskelig kontroll i alle faser.
Tidligere NSA-hacker Jake Williams advarer mot inkonsistent output fra LLM-er, noe som har ført til at noen organisasjoner ruller tilbake AI-initiativ på grunn av regulatorisk eksponering.
Dette er relevant for norske virksomheter: ansvarlig AI påvirker forretningsverdi og regulatorisk risiko, og krever styringsrammer og opplæring for å bli integrert i drift. Temaet er også fremtredende i internasjonale AI-nyheter.
Kilde: https://zdnet.com/article/8-ways-to-make-responsible-ai-part-of-your-companys-dna | Sammendraget er KI-generert med OpenAI API av Ainy.no
