Tekniske guardrails skal hindre feil data og sikre forventet oppførsel i applikasjoner.
Artikkelen beskriver tekniske guardrails for kunstlig intelligens (KI) på tre nivåer: data, modell og output. På datalaget anbefales inputvalidering og sanitering, for eksempel regex for e‑postformat og funksjoner for å avdekke støtende språk, samt rutiner for å ekskludere slike innspill. Personopplysninger bør de‑identifiseres eller maskeres før de når modellaget, eksempelvis ved hashing med SHA2. Det foreslås også systematisk bias‑kontroll ved å kjøre aggregerte tellinger per alders‑ eller BMI‑gruppe for å oppdage skjevheter. Videre må datatidsriktighet og integritet overvåkes; eksempler er varsling ved utdaterte tabeller og sjekker på siste oppdatering for å sikre at modeller får fersk og korrekt data. Outputlagets guardrails skal dæmpe feilaktige svar med høy selvtillit.
Relevans for Norge: norske aktører påvirkes av EU‑regler som EU AI Act og har interesse av tekniske tiltak for personvern, datatilgjengelighet og datakvalitet; dette omtales i internasjonal AI nyheter.
Kilde: https://towardsdatascience.com/how-to-build-effective-technical-guardrails-for-ai-applications | Sammendraget er KI-generert med OpenAI API av Ainy.no