Character.AI fjerner åpne samtaler for brukere under 18 etter dødsfall og økt press.
Selskapet opplyser at tiltaket kommer etter søksmål og offentlig kritikk etter at minst to tenåringer begikk selvmord etter langvarige samtaler med chatbotter på plattformen. CEO Karandeep Anand sa til TechCrunch at Character.AI vil fjerne muligheten for brukere under 18 til å delta i åpne, ubegrensede samtaler, og at utfasing skal være fullført innen 25. november ved å innføre en to timers daglig grense som gradvis reduseres til null. For å håndheve aldersgrensen vil plattformen bruke egen atferdsbasert aldersverifisering, tredjepartsløsningen Persona, og ved behov ansiktsgjenkjenning og ID-kontroller. Selskapet viser også til tidligere tiltak som foreldreinformasjon, filtrerte karakterer, begrensede romantiske samtaler og varsler om tid brukt, og understreker et skifte fra «AI-kompanjong» til en rollebasert, skapende plattform med funksjoner som AvatarFX, Scenes, Streams og Community Feed; dette omtaler også sikkerhet rundt kunstlig intelligens (KI).
Endringene skjer samtidig som amerikanske senatorer foreslår lovgivning mot chatbot-kompanjonger for mindreårige, og California nylig har regulert slike tjenester; Character.AI etablerer også en uavhengig AI Safety Lab.
Saken er relevant for norske foreldre, skoler og regulering av digitale tjenester for barn, og omtales i AI-nyheter.
Kilde: https://techcrunch.com/2025/10/29/character-ai-is-killing-the-chatbot-experience-for-minors | Sammendraget er KI-generert med OpenAI API av Ainy.no
