Ansvarlig KI i prioritering av generative AI-prosjekter

Bedrifter bør inkludere ansvarlig AI i tidlig prioritering for å fange opp risiko, beregne mitigering og unngå kostbar omarbeiding.

AWS’ rammeverk definerer ansvarlig AI gjennom åtte dimensjoner: fairness, explainability, privacy and security, safety, controllability, veracity and robustness, governance og transparency. For prioritering foreslår AWS å bruke WSJF-metoden (Priority = cost of delay / job size) og legge anslaget for ansvarlig AI-mitigering inn i «job size». Et eksempel viser to generative prosjekter — automatisk produkttekst fra LLM og tekst-til-bilde for reklame — der tekstprosjektet først fikk høyere prioritet (3,5 vs. 5) før ansvarlig AI-vurdering, men at risikovurdering og nødvendige mottiltak kan øke jobbstørrelse og endre prioriteringen.

Risikovurderingen som er beskrevet, peker på konkrete mitigeringer som guardrails, menneskelige og automatiserte kontroller og datastyring for å håndtere lav til middels alvorlighetsgrad i dimensjoner som fairness, privacy, safety og controllability. I AI-nyheter understrekes at tidlig vurdering gir mer nøyaktige estimater av både risiko og innsats.

Temaet er relevant for norske virksomheter som vurderer generativ kunstlig intelligens (KI), særlig fordi krav til risikovurdering, datastyring og regelverk påvirker prosjektkostnader og omdømme også i Norge.

Kilde: https://aws.amazon.com/blogs/machine-learning/incorporating-responsible-ai-into-generative-ai-project-prioritization | Sammendraget er KI-generert med OpenAI API av Ainy.no