OpenAIs Codex-Sicherheit debütiert, während der KI-Cybersicherheits-Wettlauf mit Anthropic sich verschärft

Coinpedia

OpenAI hat am 6. März Codex Security eingeführt, eine auf künstlicher Intelligenz (KI) basierende Anwendungssicherheitslösung, die Github-Repositories auf Schwachstellen scannt – nur wenige Wochen nachdem Anthropic sein Konkurrenzprodukt Claude Code Security vorgestellt hat. Damit wird KI-gesteuerte Code-Abwehr zum neuesten Wettbewerbsfeld der Tech-Branche.

OpenAI startet Codex Security, um Anthropic’s Claude Code Security herauszufordern

Die Veröffentlichung erfolgt inmitten wachsender Interesse an KI-Tools, die große Softwareprojekte schneller durchforsten können als menschliche Sicherheitsteams. Codex Security ist darauf ausgelegt, Repositories zu analysieren, Schwachstellen zu erkennen, diese in isolierten Testumgebungen zu validieren und Lösungsvorschläge zu unterbreiten, die Entwickler vor der Anwendung überprüfen können. Das System baut Kontext für Commit für Commit auf, sodass die KI versteht, wie sich Code entwickelt, anstatt nur einzelne Schnipsel zu markieren.

OpenAI schrieb:

„Wir stellen Codex Security vor. Eine Anwendungssicherheitslösung, die Ihnen hilft, Ihren Code zu sichern, indem sie Schwachstellen findet, validiert und Lösungsvorschläge macht, die Sie überprüfen und beheben können. So können Teams sich auf die wichtigen Schwachstellen konzentrieren und schneller Code ausliefern.“

OpenAI erklärte, dass das Tool auf seinem Codex-Ökosystem aufbaut, einem cloudbasierten KI-Entwicklungsassistenten, der im Mai 2025 eingeführt wurde und Entwicklern beim Schreiben von Code, Beheben von Fehlern und Vorschlagen von Pull Requests hilft. Bis März 2026 nutzten laut Unternehmen etwa 1,6 Millionen Nutzer pro Woche Codex. Codex Security erweitert diese Fähigkeiten in den Bereich der Anwendungssicherheit, einem Branchensegment, das jährlich schätzungsweise 20 Milliarden US-Dollar generiert.

Die Ankündigung von OpenAI erfolgt parallel zur Veröffentlichung von GPT-5.3 Instant und GPT-5.4. Zudem folgt sie auf den 20. Februar, an dem Anthropic Claude Code Security vorgestellt hat, das ganze Codebasen scannt und Patches für erkannte Schwachstellen vorschlägt. Das Tool basiert auf dem Claude Opus 4.6 Modell und versucht, Software wie ein menschlicher Sicherheitsexperte zu analysieren – indem es Geschäftslogik, Datenflüsse und Systeminteraktionen untersucht, anstatt sich nur auf statische Scan-Regeln zu stützen.

Anthropic gab bekannt, dass Claude Code Security bereits mehr als 500 Schwachstellen in Open-Source-Softwareprojekten identifiziert hat, darunter Probleme, die jahrelang unbemerkt geblieben waren. Das Unternehmen bietet die Funktion derzeit in einer Forschungs-Vorschau für Unternehmenskunden und Teams an, während Open-Source-Administratoren kostenlosen, beschleunigten Zugang beantragen können.

Beide Unternehmen setzen auf KI-Systeme, die in der Lage sind, den Code-Kontext zu verstehen, und glauben, dass diese herkömmliche Schwachstellen-Scanner übertreffen werden, die oft viele Fehlalarme produzieren. Um dieses Problem zu lösen, verwendet Claude Code Security ein mehrstufiges Verifizierungssystem, das Ergebnisse erneut überprüft und Schweregrad sowie Vertrauenswürdigkeit bewertet.

Codex Security verfolgt einen etwas anderen Ansatz. Statt ausschließlich auf Modell-Inferenz zu setzen, validiert der Agent vermutete Schwachstellen in isolierten Umgebungen, bevor Ergebnisse angezeigt werden. OpenAI sagte, dieser Prozess reduziert Rauschen und ermöglicht es der KI, Erkenntnisse anhand der während des Tests gesammelten Beweise zu priorisieren.

„Codex Security begann als Aardvark, das im letzten Jahr in einer privaten Beta gestartet wurde“, schrieb OpenAI auf X. Das Unternehmen fügte hinzu:

„Seitdem haben wir die Signalqualität deutlich verbessert, Rauschen reduziert, die Schweregenauigkeit erhöht und Fehlalarme verringert, sodass die Ergebnisse besser mit realen Risiken übereinstimmen.“

Entwickler, die die Ergebnisse von Codex Security überprüfen, können unterstützende Daten einsehen, Code-Diffs für vorgeschlagene Patches betrachten und Fixes über Github-Workflows integrieren. Das System ermöglicht es Teams auch, Bedrohungsmodelle anzupassen, indem Parameter wie Angriffsfläche, Repository-Umfang und Risikotoleranz eingestellt werden.

Während die Einführung von Anthropic Teile der Cybersicherheitsbranche erschütterte, hat OpenAI bisher mehr Aufmerksamkeit als Marktpanik erzeugt. Als Claude Code Security im Februar vorgestellt wurde, sanken einige Cybersicherheitsaktien kurzzeitig um 5 % bis 10 %, darunter Unternehmen wie Crowdstrike und Palo Alto Networks, erholten sich aber in den folgenden Handelssitzungen weitgehend.

Damals erklärten Analysten, dass der Verkaufsdruck wahrscheinlich auf Ängsten beruhte, ob KI-Tools Teile des Marktes für Anwendungssicherheit ersetzen könnten. Viele Forscher argumentieren jedoch, dass KI-Tools eher bestehende Sicherheitsplattformen ergänzen als sie vollständig ersetzen werden.

Die KI-gestützte Schwachstellen-Erkennung hat sich in den letzten zwei Jahren rasant entwickelt, wobei große Sprachmodelle (LLMs) zunehmend an Cybersicherheitsforschungsaufgaben wie Capture-the-Flag-Wettbewerben und automatisierter Schwachstellenentdeckung teilnehmen. Diese Fähigkeiten können Verteidigern helfen, Software-Schwächen schneller zu erkennen – aber auch Bedenken aufwerfen, dass Angreifer ähnliche Systeme ausnutzen könnten.

Um diese Risiken zu minimieren, startete OpenAI am 5. Februar die Initiative „Trusted Access for Cyber“, die geprüften Sicherheitsexperten kontrollierten Zugang zu fortschrittlichen Modellen für Verteidigungsforschung bietet. Anthropic verfolgt einen ähnlichen Ansatz durch Partnerschaften mit Institutionen wie dem Pacific Northwest National Laboratory und internen Red-Team-Programmen.

Das Aufkommen von KI-Sicherheitsagenten markiert eine Verschiebung hin zu dem, was viele Forscher „agentische Cybersicherheit“ nennen, bei der autonome Systeme kontinuierlich Software-Schwachstellen analysieren, testen und beheben. Wenn dies gelingt, könnten solche Tools die Zeit zwischen Entdeckung und Patch-Implementierung verkürzen – eine der größten Schwächen moderner Software-Sicherheit.

Für Entwickler und Sicherheitsteams ist das Timing kaum zu ignorieren. KI schreibt nicht mehr nur Code – sie prüft, zerbricht und repariert ihn oft im selben Workflow.

Und da OpenAI und Anthropic nun direkt konkurrieren, könnte die nächste Welle von Cybersicherheits-Tools nicht als herkömmliche Scanner, sondern als KI-Agenten kommen, die niemals schlafen, niemals klagen und idealerweise Schwachstellen erkennen, bevor Hacker es tun.

FAQ 🤖

  • Was ist OpenAI’s Codex Security? Codex Security ist ein KI-gestützter Anwendungssicherheitsagent, der GitHub-Repositories scannt, Schwachstellen validiert und Code-Fehler vorschlägt.
  • Wie unterscheidet sich Codex Security von herkömmlichen Schwachstellen-Scannern? Das System nutzt KI-Reasoning und Sandbox-Validierung, um den Code-Kontext zu analysieren und Fehlalarme zu reduzieren.
  • Was ist Anthropic’s Claude Code Security? Claude Code Security ist ein konkurrierendes KI-Tool, das Codebasen auf Schwachstellen scannt und Patches vorschlägt, basierend auf Anthropic’s Claude-Modell.
  • Warum entwickeln KI-Unternehmen Cybersicherheits-Agenten? KI-Agenten können Schwachstellen schneller erkennen und beheben als herkömmliche Tools, was Entwicklern hilft, die Code-Sicherheit im großen Maßstab zu verbessern.
Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare