Laut 1M AI News hat Anthropic Anfang dieses Jahres einen Vorschlag eingereicht, um an einem 100-Millionen-Dollar-Wettbewerb des Pentagon, dem Orchestrator Prize Challenge, teilzunehmen. Ziel ist die Entwicklung einer sprachgesteuerten autonomen Drohnenschwarm-Technologie. Der Wettbewerb wird vom Defense Autonomous Warfare Group, einer Untereinheit des Special Operations Command, und der Defense Innovation Unit gemeinsam veranstaltet und verläuft in fünf Phasen, von Softwareentwicklung bis zu praktischen Tests. Spätere Phasen umfassen „Zielerkennung und -teilung“ sowie „vom Start bis zum Abschluss“. Anthropic basiert seinen Vorschlag auf Claude, der Befehle des Kommandanten in digitale Anweisungen umwandelt und Drohnenschwärme koordiniert, ohne autonome Zielerfassung oder Waffentaktik. Der Mensch behält die volle Überwachung, und das Unternehmen schlug vor, eine gemeinsame Forschungsinitiative mit dem Pentagon aufzubauen, um autonome Waffensysteme sicher zu entwickeln und zu evaluieren.
Anthropic ist der Ansicht, dass der Vorschlag die rote Linie „keine vollständige autonome Waffe“ nicht überschreitet, da Menschen jederzeit die Kontrolle überwachen und das System stoppen können. Letztlich wurde Anthropic nicht ausgewählt, und Bloomberg konnte die Gründe dafür nicht bestätigen. Eingereichte Vorschläge umfassen einen gemeinsamen Vorschlag von SpaceX und xAI sowie zwei Verteidigungstechnologieunternehmen, die OpenAI als KI-Partner einsetzen (eines davon ist der Auftragnehmer für autonome militärische Fahrzeuge, Applied Intuition). Die Technologie von OpenAI soll im „Aufgabensteuerung“-Abschnitt verwendet werden, um Sprachbefehle in digitale Anweisungen umzuwandeln. Nach der Ankündigung des Pentagon letzten Freitag, dass seine Auftragnehmer keine Geschäftsbeziehungen mit Anthropic eingehen dürfen, kündigte OpenAI nur wenige Stunden später eine neue Vereinbarung mit dem Verteidigungsministerium an, um seine KI-Tools in einem vertraulichen Cloud-System zu verwenden. Anthropic lehnte eine Stellungnahme ab. (Bloomberg)