Peter Steinberger, der Entwickler von OpenClaw, wurde vorübergehend vom Zugriff auf Anthropics KI-Modell Claude ausgeschlossen, wegen „verdächtiger“ Aktivitäten. Die Sperrung dauerte jedoch nicht lange, da sein Konto wiederhergestellt wurde, nachdem die Nachricht in den sozialen Medien verbreitet wurde.
Artikel anhören
Den Artikel mit natürlicher KI-Stimme anhören.
Anthropic ändert Zugangsregeln für OpenClaw-Nutzer
Steinberger teilte auf X mit, dass er eine Nachricht von Anthropic erhalten habe, dass sein Konto gesperrt wurde. Dies geschah, nachdem Anthropic angekündigt hatte, dass Abonnements für Claude die Nutzung von Drittanbieter-Tools wie OpenClaw nicht mehr abdecken würden. Nutzer müssen nun zusätzlich bezahlen, um OpenClaw über Claudes API zu verwenden. Steinberger behauptete, er habe die neuen Regeln befolgt, wurde aber dennoch gesperrt. Anthropic erklärte, dass die Änderung der Preisstruktur notwendig sei, da die Abonnements die Nutzung von OpenClaw, die ressourcenintensiver als gewöhnliche Anfragen sein kann, nicht abdecken könnten.
Steinberger äußerte seine Frustration darüber und bemerkte, dass der Zeitpunkt der Änderung mit der Einführung neuer Funktionen in Anthropics eigenem Agenten Cowork zusammenfiel. Er betonte, dass er Claude nur zu Testzwecken nutze, um sicherzustellen, dass Updates für OpenClaw die Nutzer von Claude nicht beeinträchtigen. Die Diskussion hat Aufmerksamkeit erregt, insbesondere da Claude bei OpenClaw-Nutzern weiterhin beliebt ist.
Lokale Relevanz für den deutschen Markt
Dieser Vorfall verdeutlicht, wie Änderungen bei Zugangsbedingungen und Preisgestaltung Entwickler in Deutschland beeinflussen können. Angesichts steigender API-Nutzung und Kosten müssen deutsche Unternehmen sorgfältig prüfen, wie sie KI-Lösungen integrieren. Steinbergers Fall bietet wertvolle Einblicke, wie Entwickler in einem zunehmend komplexen Umfeld von KI-Modellen agieren können.
Quelle: TechCrunch
Lesen Sie auch: OpenAI unterstützt Gesetzesvorschlag zur Haftung bei KI-Schäden

