OpenClaws skaper, Peter Steinberger, ble midlertidig utestengt fra å bruke Anthropics AI-modell, Claude, på grunn av «mistenkelig» aktivitet. Utestengelsen varte imidlertid ikke lenge, da kontoen hans ble gjenopprettet etter at nyheten spredte seg på sosiale medier.
Lytt til artikkelen
Få innholdet lest opp med naturlig AI-stemme.
Anthropic endrer tilgangsregler for OpenClaw-brukere
Steinberger delte på X at han hadde fått en melding fra Anthropic om at kontoen hans var suspendert. Dette skjedde etter at Anthropic kunngjorde at abonnementer på Claude ikke lenger ville dekke bruken av tredjepartsverktøy som OpenClaw. Brukere må nå betale ekstra for å bruke OpenClaw gjennom Claudes API. Steinberger hevdet at han fulgte de nye reglene, men ble likevel utestengt. Anthropic forklarte at endringen i prisstrukturen var nødvendig fordi abonnementene ikke kunne håndtere bruken av OpenClaw, som kan være mer ressurskrevende enn vanlige forespørsel.
Steinberger uttrykte sin frustrasjon over dette, og bemerket at tidspunktet for endringen sammenfalt med at Anthropic lanserte nye funksjoner i sin egen agent, Cowork. Han påpekte at han kun bruker Claude for testing, for å sikre at oppdateringer til OpenClaw ikke skader brukerne av Claude. Diskusjonen rundt dette har skapt oppmerksomhet, spesielt siden Claude fortsatt er populær blant OpenClaw-brukere.
Hva skjer videre?
AIny kort vurdering: Denne hendelsen viser hvordan endringer i tilgang og pris kan påvirke utviklere i Norge. Med økt fokus på API-bruk og kostnader, må norske selskaper vurdere hvordan de integrerer AI-løsninger. Steinbergers situasjon kan gi innsikt i hvordan utviklere kan navigere i et stadig mer komplekst landskap av AI-modeller.
Kilde: TechCrunch

