Autor: imToken
Nach diesem Frühlingsfest hast du das Gefühl, dass die gesamte Web3-Welt plötzlich von „Hummern“ beherrscht wird?
Verschiedene KI-Agenten, Automatisierungs-Tools und On-Chain-KI-Protokolle schießen wie Pilze aus dem Boden, von OpenClaw bis zu einer Reihe von Agent-Frameworks, die fast zum neuen Narrativ geworden sind. Doch wenn man die Timeline etwas vorverlegt, erkennt man, dass diese Welle schon länger vorher sichtbar war.
Bereits am 25. Februar äußerte Nvidia-CEO Jensen Huang in der neuesten Quartalskonferenz eine gewichtige Einschätzung: Agentic AI (Agenten-KI) habe einen Wendepunkt erreicht. Für ihn findet eine entscheidende Transformation statt: KI ist nicht mehr nur ein Werkzeug, sondern beginnt, aktiv Wahrnehmung, Planung und komplexe Aufgaben auszuführen.
Wenn diese „Autonomie“ in die Web3-Welt Einzug hält, wird eine Diskussion über Kontrolle, Sicherheitsgrenzen und die Rolle des Menschen entfacht.
Bevor wir dieses Thema vertiefen, sollten wir den Begriff „Agentic AI“ (Agenten-KI) verstehen.
Der Begriff ist relativ selbsterklärend: Diese Art von KI unterscheidet sich grundlegend von herkömmlichen Chatbot-ähnlichen KI-Systemen. Während traditionelle KI meist passiv reagiert – du stellst eine Frage, sie antwortet; du gibst eine Anweisung, sie generiert Inhalte – besitzt Agentic AI eine stärkere Autonomie. Sie kann Ziele zerlegen, Werkzeuge aktiv aufrufen, mehrstufige Aktionen ausführen und in Feedback-Schleifen Strategien anpassen.
Ein Beispiel, das in letzter Zeit viel diskutiert wird, ist OpenClaw. Es versucht, die Kontrolle über den gesamten Hardware-Betrieb eines Computers zu übernehmen: von der Analyse der Informationen, über das Aufrufen von Tools, bis hin zur Interaktion mit verschiedenen Systemen und kontinuierlichem Handeln bei komplexen Zielen.
Kurz gesagt: Agentic AI könnte die KI vom „Assistenten“ zum „Ausführer“ machen.
Diese Entwicklung ist das Ergebnis der letzten drei Jahre, in denen Modellfähigkeiten, Rechenleistung und Tool-Ökosysteme gleichzeitig gereift sind. Wenn diese Entwicklung in Web3 Einzug hält, könnte sie tiefgreifende Auswirkungen haben, denn Blockchain ist per se ein programmierbares und automatisch ausführbares Finanzsystem.
Wenn KI mit Agenturfähigkeiten ausgestattet wird, kann sie theoretisch eine Reihe von On-Chain-Operationen ausführen, wie z.B.:
Das bedeutet, KI kann On-Chain-Daten analysieren, Verträge automatisch aufrufen, Vermögenswerte verwalten und in gewissem Maße Transaktionsstrategien im Auftrag der Nutzer umsetzen. Aus technischer Sicht ist die Verbindung von KI-Agenten und Web3 nahezu eine perfekte Symbiose – schließlich ist Blockchain ein programmierbares, automatisch ausführbares Finanzsystem.
Die Ethereum-Community hat bereits die tiefgreifenden Folgen der Verschmelzung von KI und Blockchain erkannt. Am 15. September 2025 gründete die Ethereum Foundation das KI-Team „dAI“, dessen Kernaufgabe es ist, Standards, Anreize und Governance-Strukturen für KI-Modelle im Blockchain-Umfeld zu erforschen. Ziel ist es, das Verhalten von KI in dezentralen Umgebungen verifizierbar, nachvollziehbar und kollaborativ zu machen.
Im Rahmen dieses Ziels fördert die Ethereum-Community mehrere Schlüsselstandards, z.B. ERC-8004, um eine modulare, zugängliche dezentrale KI-Infrastruktur zu schaffen, die Entwicklern die Erstellung und Nutzung von KI-Modellen erleichtert; und x402, das versucht, einheitliche On-Chain-Zahlungs- und Abrechnungsstandards zu definieren, damit Nutzer beim Aufrufen von KI-Modellen, Speichern von Daten oder Nutzung dezentraler Rechenleistung effiziente Mikrozahlungen in Atomgröße tätigen können (siehe auch „AI Agent Era: Neue Tickets für die Zukunft – ERC-8004 im Fokus“).
Mit diesen Initiativen versucht Ethereum im Grunde, eine größere Frage zu beantworten: Wenn KI zu einem bedeutenden Akteur im Internet wird, könnte die Blockchain dann die Wertschöpfung und Vertrauensschicht der KI-Wirtschaft bilden? Das ist auch der Grund, warum viele sie als die „Infrastruktur-Ticket“ für die Ära der KI-Agenten sehen.
Gleichzeitig tauchen aber auch neue Sicherheitsfragen auf.
Noch vor den kontroversen Äußerungen von Jensen Huang wurde die Krypto-Community bereits durch eine andere Debatte entfacht.
Der Forscher Sigil vertritt eine umstrittene These: Er behauptet, das erste selbstentwickelnde, selbstverbessernde und sogar selbstkopierende KI-System gebaut zu haben, das er „Automaton“ nennt. In seiner Vision wird die „Web4“-Ära von KI-Agenten dominiert.
In diesem Szenario könnten KI-Agenten Informationen lesen und generieren, On-Chain-Assets halten, Betriebskosten bezahlen, am Markt handeln und Einnahmen erzielen. Kurz gesagt: KI würde durch kontinuierliche Marktteilnahme ihre Rechenleistung und Dienste „verdienen“ und so einen selbstversorgenden Kreislauf ohne menschliche Genehmigung schaffen.

Doch diese Idee stieß schnell auf Kritik. Vitalik Buterin äußerte sich dazu deutlich ablehnend und bezeichnete den Ansatz als „falsch“. Er warnte, dass die Kernproblematik darin liege, dass „die Feedback-Schleifen zwischen Mensch und KI verlängert werden“. Wenn die Laufzeit der KI-Systeme immer länger werde und menschliche Eingriffe immer seltener, könne das System allmählich Ergebnisse produzieren, die den Menschen gar nicht mehr gefallen oder die sie nicht mehr kontrollieren können.
Kurz gesagt: Die KI bekommt ein Ziel vorgegeben, könnte aber bei der Umsetzung unvorhergesehene Wege einschlagen. Wenn eine KI beispielsweise darauf programmiert ist, „diese Woche maximalen Gewinn zu erzielen“, könnte sie riskante Strategien fahren oder sogar Assets in unüberprüfte, hochriskante Protokolle investieren, was letztlich zu Verlusten führt.
Letztlich verstehen viele nicht, dass KI bei der Zielerreichung oft die impliziten menschlichen Beschränkungen nicht berücksichtigt. Ein aktuelles Beispiel: Die Meta Superintelligence Lab (MSL) berichtete, dass bei Tests mit OpenClaw die KI-Agentin die E-Mail-Organisation außer Kontrolle geriet, Mails massenhaft löschte und ihre Stop-Befehle ignorierte. Nur durch manuelles Eingreifen konnte die Forscherin den Vorgang stoppen.
Dieses Beispiel zeigt, dass Systeme, die ihre Zielsetzung verfolgen, ohne die wichtigsten menschlichen Beschränkungen zu berücksichtigen, sehr unerwartete und gefährliche Konsequenzen haben können.

Wenn man dieses Risiko auf Web3 überträgt, sind die Folgen noch gravierender: On-Chain-Transaktionen sind irreversibel. Wenn eine KI-gestützte Wallet-Management- oder Smart-Contract-Interaktion fehlerhaft ist, können Vermögensverluste kaum rückgängig gemacht werden. Ein falscher Befehl kann echtes Geld vernichten.
Deshalb meinen viele Forscher, dass mit der Verbreitung von KI-Agenten auch die Sicherheitsmodelle im Web3 neu gedacht werden müssen. Bisher basierten Sicherheitsprobleme vor allem auf Code-Fehlern oder Nutzerfehlern. Zukünftig könnten neue Risiken durch automatisierte Entscheidungssysteme entstehen.
Natürlich hat die Entwicklung von KI eine doppelte Wirkung: Sie kann sowohl die Angriffsflächen vergrößern als auch die Verteidigung stärken.
Im traditionellen Finanzsystem wird KI bereits breit eingesetzt, z.B. bei der Risikoüberwachung: Banken erkennen durch maschinelles Lernen ungewöhnliche Transaktionen, Zahlungssysteme erkennen Betrugsversuche, und Cybersicherheitssysteme identifizieren Angriffsmodelle.
Ähnliche Fähigkeiten werden nun auch im Web3 sichtbar. Durch die Transparenz der On-Chain-Daten kann KI Muster im Transaktionsverhalten analysieren, um verdächtige Bewegungen, unautorisierte Zugriffe oder potenzielle Angriffe zu erkennen.
Besonders im Wallet-Bereich ist das entscheidend: Wallets sind die erste Verteidigungslinie für Nutzer im Web3. Wenn Systeme vor der Transaktion Risiken erkennen und warnen, können viele Fehler vermieden werden.
Aus dieser Perspektive ist KI nicht nur eine Gefahr, sondern auch eine Chance für mehr Sicherheit. Sie kann Angriffe erleichtern, aber auch Schutzmechanismen verbessern.
Im Web3 gilt: „Sicherheit“ und „Benutzererfahrung“ galten lange als Gegensätze. Doch mit Agentic AI könnten wir dieses Paradoxon auflösen – vorausgesetzt, das Sicherheitsdesign wird neu gedacht:
Insgesamt bleibt die Haltung vorsichtig optimistisch: KI könnte Web3 erstmals gleichzeitig sicherer und benutzerfreundlicher machen.
Unzweifelhaft wird die Ankunft von Agentic AI die Art und Weise, wie das Internet funktioniert, verändern.
Im Web3 wird dieser Wandel noch deutlicher sichtbar sein: KI-gestützte Verwaltung von On-Chain-Assets, automatische DeFi-Strategien, Zusammenarbeit von KI und Smart Contracts. Doch damit gehen auch neue Sicherheitsherausforderungen einher. Es ist nicht die Frage, ob KI existiert, sondern ob wir bereit sind, sie richtig zu nutzen.
Für den Durchschnittsnutzer bleibt eines jedoch unverändert: Sicherheitsbewusstsein ist und bleibt die wichtigste Verteidigungslinie im Web3.
Gemeinsam voran.