Gate News-Nachricht, 29. April — OpenAI-Forscher Sébastien Bubeck und Ernest Ryu sagen, KI-Systeme könnten innerhalb von zwei Jahren die meisten menschlichen Forschungsarbeiten übernehmen und stellen Mathematik als klare Messgröße für den Fortschritt von KI dar. Im Gegensatz zu vagen Leistungstests bieten mathematische Probleme eine präzise Überprüfung: Die Antworten sind entweder richtig oder falsch — und lassen keinen Raum für Mehrdeutigkeit.
Bubeck stellte fest, dass echtes KI-Denken erfordert, lange Ketten des Schlussfolgerns zu überstehen. Ein einzelner Fehler in einem mehrstufigen Argument lässt den gesamten Beweis zusammenbrechen — daher sei die Fehlererkennung und -korrektur während des Prozesses das ultimative Ziel für fortgeschrittene Modelle. Die internen Labore von OpenAI haben bereits mehr als zehn völlig neue Theoreme hervorgebracht, die in führenden Fachzeitschriften für Kombinatorik veröffentlichbar sind, was zeigt, dass KI heute wirklich originelle, bahnbrechende Arbeiten liefert — nicht nur bestehende Papers neu zusammenbaut.
Doch anhaltende wissenschaftliche Durchbrüche erfordern einen konstanten Fokus über Wochen intensiver Tests hinweg. Aktuelle Systeme benötigen noch strikte menschliche Aufsicht, um jede Richtungsänderung zu steuern und zu verifizieren. Bubeck verwendet den Begriff „AGI-Zeit“, um zu messen, wie lange ein Modell menschliches Denken unabhängig nachahmen kann; aktuelle Systeme arbeiten etwa über Tage bis zu einer Woche, während das Branchenziel Wochen oder Monate vorsieht, um autonome Arbeit in Bereichen wie der Biologie zu ermöglichen.
Langzeitgedächtnis ist entscheidend für diese Zukunft. Standard-Chatfenster begrenzen die Tiefe — komplexe mathematische Beweise überschreiten oft 50 Seiten — während Code-Repositories zeigen, wie längere Arbeitssitzungen zu tieferem Problemlösen führen. Wenn KI an Unabhängigkeit und Gedächtnis gewinnt, wird die menschliche Expertise wertvoller, nicht weniger. Mitarbeitende müssen das tiefe grundlegende Wissen behalten, um Maschinenantworten herauszufordern und zu verifizieren, und Organisationen werden neue automatisierte Filter sowie Reputation-Systeme benötigen, um dem Vertrauensbedarf inmitten einer Flut von KI-gestützter Forschung gerecht zu werden.
Verwandte Artikel
KI-Plattform Certifyde nimmt $2M in Seed-Finanzierung mit Ripple-CEO Brad Garlinghouse auf
Anthropic bringt 8 kreative Tool-Connectoren für Claude auf den Markt, darunter Blender, Adobe, Autodesk
Weißes Haus umgeht Risikoanalyse des Pentagon, um am 29. April das Anthropic-Mythos-Modell einzusetzen
Cognizant erwirbt Astreya für $600M , um das Geschäft mit KI-Infrastruktur auszubauen
30 bösartige Plugins auf ClawHub, getarnt als KI-Tools, über 9.800 Mal heruntergeladen