Jetzt anrufen:
Clawdbot heißt jetzt Moltbot – und gehört inzwischen zu OpenAI. Der virale KI-Agent für den Eigengebrauch hat nicht nur seinen Namen gewechselt, sondern auch seinen Besitzer: Seit Februar 2026 ist der Entwickler Peter Steinberger offiziell bei OpenAI angestelltAngebotSchulungPR1. Damit endet ein rasantes Kapitel der Open-Source-Szene – und es beginnt eine neue Phase, in der aus Spielerei vielleicht bald Produkt wird.
Moltbot (ehemals Clawdbot) spaltet die Gemüter. Einerseits verspricht der Agent die langersehnte KI mit Händen: ein persönlicher Assistent, der lokal läuft und Dinge für uns erledigt. Andererseits mehren sich die Warnungen – von Datenschutz-Alarmen bis zu handfesten Sicherheitslücken. Zeit für eine ironisch-zugespitzte Bestandsaufnahme dieses Wunderassistenten zwischen Hype und Kontrollverlust.

Was ist Moltbot (früher Clawdbot)?
Moltbot ist ein Open-Source KI-Assistent, den man selbst hosten kann – entwickelt vom österreichischen Unternehmer Peter Steinberger. Im Grunde handelt es sich um „Claude mit Händen“: Statt nur zu chatten, kann diese KI handfeste Aktionen durchführen. Der Agent integriert sich tief ins System und verknüpft sich mit Anwendungen wie Messenger-Apps, E-Mail-Clients oder dem Dateisystem. Moltbot kann also Nachrichten verschicken, Termine im Kalender verwalten, Dateien lesen und erstellen – und behält dank persistenter Speicherfunktion auch langfristig Kontext.
Was macht den Reiz aus? Anders als reine Cloud-Chatbots läuft Moltbot lokal auf eigener Hardware. Man behält die volle Kontrolle, die Konversationen bleiben (theoretisch) auf dem eigenen Rechner. Dazu kommt der Always-on-Faktor: Moltbot schläft nie. Es kann dauerhaft im Hintergrund laufen, proaktiv erinnern, Aufgaben zeitgesteuert erledigen und auf Ereignisse reagieren. Dieses Versprechen einer persönlichen, voll integrierten KI hat einen Sturm der Begeisterung ausgelöst. Innerhalb weniger Monate sammelte das Projekt über 60.000 Sterne auf GitHub und avancierte zu einem der am schnellsten wachsenden Open-Source-Projekte aller Zeiten. Auch Tech-Größen wie Andrej Karpathy und David Sacks zeigten sich begeistert, und MacStories feierte Moltbot als „die Zukunft persönlicher KI-Assistenten“.
Der Namenswechsel kam übrigens nicht freiwillig: Anthropic (Macher des KI-Modells Claude) zwang das Projekt wegen der Ähnlichkeit „Clawd“ vs. „Claude“ zu einer Umbenennung. Steinberger sah es sportlich – „Molt passt perfekt, das machen Hummer beim Wachsen“ – doch die hektische Aktion endete im Chaos. Betrüger kaperten die freiwerdenden Clawdbot-Accounts binnen Sekunden und zockten mit einem Fake-$CLAWD-Token ahnungslose Anleger:innen ab.
KI-Agenten + eigene Daten: Warum RAG die Zukunft sein könnte
Der große Unterschied zu klassischen Chatbots ist, dass Moltbot auf unsere eigenen Daten und Tools zugreifen kann. Kurz gesagt: Die KI zapft bei Bedarf unsere Dateien, E-Mails oder internen Wissensdatenbanken an, um mit diesem Kontext bessere Antworten und Entscheidungen zu liefern. Dieses Prinzip nennt sich auch Retrieval-Augmented Generation (RAG). Langfristig können KI-Agenten, die mit persönlichen oder unternehmensinternen Daten arbeiten dürfen, erheblich nützlicher sein als generische Assistenten ohne Kontext. Moltbot demonstriert das bereits: Es kennt meine Termine und Projekte, kann Dokumente durchsuchen und aufgrund seines Wissens proaktiv Vorschläge machen. Die Vision dahinter ist eine Art persönliches Betriebssystem, in dem eine KI als verlängerter Arm der Nutzer:innen agiert. Statt nur ein schlauer Chatbot zu sein, wird der Agent zum digitalen Butler mit Gedächtnis und Werkzeugkasten.
Warum ist der Hype darum gerechtfertigt? Weil hier ein echter Paradigmenwechsel passieren könnte. Wir bewegen uns von isolierten KI-Spielereien hin zu agentischen Systemen, die wirklich Hand an unsere Workflows legen. Wer erlebt, wie Moltbot eigenständig E-Mails sortiert oder den Wetterbericht checkt und dann vorschlägt, den Regenschirm mitzunehmen, versteht den Reiz. KI mit Zugriff auf unseren Kontext ist ein Game-Changer – zumindest in der Theorie.
Mehr Schatten als Licht: Risiken und Nebenwirkungen
Doch momentan überwiegen die Risiken. Moltbot läuft nativ mit vollen Nutzer:innenrechten auf dem System – eine Sandbox oder andere Beschränkungen fehlen komplett. Daraus ergeben sich etliche potenzielle Sicherheits- und Datenschutzprobleme:
- Offene Hintertüren: Fehlkonfigurierte Installationen ließen Moltbots Admin-Interface ungeschützt ins Internet ragen. Fremde konnten so ungehindert API-Schlüssel, Tokens und Chat-Historien abgreifen oder sogar Befehle auf dem Host-System ausführen. (In einem Fall brachte eine manipulierte E-Mail den Bot dazu, die letzten 5 Nutzer-E-Mails an einen Angreifer zu versenden.)
- Klartext-Schlüssel: Moltbot speichert API-Keys und Zugangsdaten im Klartext auf der Festplatte. Gelangen Angreifer an diese Dateien, sind die „Kronjuwelen“ sofort kompromittiert.
- Prompt Injection: Eine autonome KI kann falsche Befehle ausführen, wenn sie sich austricksen lässt. Moltbot könnte durch geschickt formulierte Prompts verleitet werden, interne Informationen preiszugeben oder ungewollte Aktionen durchzuführen. Ohne jegliche Isolation könnten Angreifer so schlimmstenfalls die Kontrolle über das System erlangen.
- Datenschutz: Werden personenbezogene Daten über Moltbot verarbeitet, drohen DSGVO-Probleme. Oft nutzt der Bot externe LLM-APIs, d.h. sensible Inhalte wandern zu US-Anbietern wie OpenAI oder Anthropic – datenschutzrechtlich heikel bis unzulässig. Auch bei rein lokalem Betrieb ist unklar, welche Logs entstehen und wie Missbrauch verhindert wird.
Kein Wunder, dass manche Beobachter:innen das Szenario als „terrifying“ bezeichnen. Die Sicherheitsarchitektur solcher Agenten ist noch äußerst unreif.
Hype ja – aber übers Ziel hinaus
Ist der aufgeladene Hype übertrieben? Jein. Die Begeisterung ist verständlich – Moltbot wirkt streckenweise wie Science-Fiction. Trotzdem hat die Sache eine Eigendynamik entwickelt, bei der viele das Tool nutzen, ohne über die Konsequenzen nachzudenken. Das Projekt ist erst ein paar Monate alt, eher eine experimentelle Beta als ein ausgereiftes Produkt. Ausgereifte Sicherheitsprozesse? Fehlanzeige. Wer Moltbot heute einsetzt, braucht Fachwissen und sollte jeden Schritt zweimal überlegen.
Zudem wurde der Hype durch reißerische Schlagzeilen und unsinnige Krypto-Spekulationen weiter befeuert. Ein Realitätscheck tut not. Auch erfahrene Nutzer warnen: Moltbot sollte isoliert auf separater Hardware laufen und keinesfalls auf dem Haupt-Laptop mit sensiblen Daten.
Fazit: Vorsicht und DSFA nicht vergessen
Moltbot liefert einen aufregenden Ausblick darauf, wie KI unser Digitalleben bereichern könnte. Doch derzeit schießt der Enthusiasmus übers Ziel hinaus. Besonders Unternehmen müssen einen kühlen Kopf bewahren. Es ist dringend nötig, vor dem Einsatz solcher Agenten eine Datenschutz-Folgenabschätzung (DSFA) durchzuführen und die IT-Sicherheit einzubeziehen. Schon jetzt zeigt sich nämlich: In 22 % der untersuchten Unternehmen nutzen Mitarbeiter eigenmächtig Moltbot – ein datenschutzrechtlicher Super-GAU, wenn man nicht gegensteuert.
Meine persönliche Einschätzung: Moltbot ist ein spannendes Experiment, und der Hype ist teilweise verdient – allerdings allenfalls als Tech-Demo, nicht als einsatzreifer Helfer. Für den Alltagseinsatz fehlt noch viel Reife, sowohl technisch als auch organisatorisch. Bis dahin gilt: Ausprobieren auf eigene Gefahr. Die Krallen des Hummers sind scharf – wer unvorsichtig ist, schneidet sich leicht in die Finger.
