Gate News-Meldung, 11. April: OpenAI-CEO Sam Altman postete eine Stellungnahme zu dem Angriff mit einer Brandflasche und sagte, er habe den tatsächlichen Einfluss von öffentlicher Erzählung und Emotionen im Umfeld von KI-Ängsten unterschätzt, und er veröffentlichte ausnahmsweise öffentliche Fotos von seiner Familie. Altman sagte, er verstehe die Angst und Verunsicherung der Gesellschaft angesichts der schnellen Entwicklung von KI; derzeit befänden wir uns in einer der heftigsten technologischen Umwälzungen der Menschheitsgeschichte. Die damit verbundenen Risiken beschränkten sich nicht mehr auf Fragen der Modell-Ausrichtung, sondern stiegen zu systemischen Herausforderungen auf gesellschaftlicher Ebene auf. Altman sagte, die KI-Macht dürfe sich nicht auf wenige Institutionen konzentrieren; sie müsse durch technische Demokratisierung und institutionelle Bindungen weiter verteilt werden. Er ist der Ansicht, dass der Wettbewerb um AGI sich zu einem Machtkampf entwickelt habe; die Versuchung, ähnlich wie der Ring der Macht, könne zu extremem Verhalten antreiben. Der Lösungsweg liege darin, die Zugänglichkeit zur Technologie zu erweitern und die Kontrolle über entscheidende Fähigkeiten durch eine einzelne Stelle zu vermeiden. Außerdem räumte Altman ein, dass es bei Unternehmensführung und dem Umgang mit Konflikten Fehler gegeben habe, darunter Entscheidungsprobleme während eines Konflikts mit dem Aufsichtsrat, und er entschuldigte sich für vergangenes Verhalten. Er bekräftigte, dass er den Wunsch von Elon Musk abgelehnt habe, OpenAI zu kontrollieren, und sagte, diese Entscheidung habe einen unabhängigen Entwicklungspfad des Unternehmens sichergestellt. Zuvor hieß es: Sam Altmans Wohnsitz wurde von jemandem mit einer Brandflasche angegriffen.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
DeepSeek senkt die Input-Cache-Preise auf 1/10 des Startpreises; V4-Pro fällt auf 0,025 Yuan pro Million Tokens
Gate News-Mitteilung, 26. April — DeepSeek hat die Preise für den Input-Cache über das gesamte Modellportfolio auf ein Zehntel der Startpreise reduziert, mit sofortiger Wirkung. Das V4-Pro-Modell ist für einen begrenzten Zeitraum mit einem 2,5-fachen Rabatt verfügbar, wobei die Aktion bis zum 5. Mai 2026, 23:59 Uhr UTC+8, läuft.
Nach beiden
GateNews6Std her
OpenAI rekrutiert Top-Talente aus der Unternehmenssoftwarebranche, während Frontier-Agents die Branche aufmischen
Gate-News-Meldung, 26. April — OpenAI und Anthropic rekrutieren leitende Führungskräfte und spezialisierte Ingenieure von großen Unternehmens-Softwareunternehmen, darunter Salesforce, Snowflake, Datadog und Palantir. Denise Dresser, ehemalige CEO von Slack bei Salesforce, ist als Chief Revenue Officer zu OpenAI gekommen, während Jennifer Majlessi, ebenfalls von Salesforce, kürzlich zur Leiterin für Go-to-Market bei OpenAI geworden ist.
GateNews6Std her
Baidu Qianfan startet Day-0-Unterstützung für DeepSeek-V4 mit API-Diensten
Gate News-Nachricht, 25. April — Die DeepSeek-V4-Vorschauversion ist am 25. April live gegangen und wurde als Open Source veröffentlicht; die Baidu-Qianfan-Plattform unter Baidu Intelligent Cloud bietet die Anpassung des Day-0-API-Dienstes. Das Modell bietet ein erweitertes Kontextfenster mit einer Million Tokens und ist in zwei Versionen verfügbar: DeepSeek-V4
GateNews12Std her
Stanford-AI-Kurs kombiniert Branchenführer Huang Renxun und Altman und fordert heraus, in zehn Wochen einen Mehrwert für die Welt zu schaffen!
Die neu an der Stanford University eingerichtete KI-Informatik-Ausbildung《Frontier Systems》hat in der Industrie- und Unternehmenswelt großes Aufsehen erregt und über fünfhundert Studierende zur Teilnahme angezogen. Der Kurs wird von dem Top-Venture-Capital-Partner von a16z, Anjney Midha, koordiniert; die Dozenten umfassen die Luxusbesetzung aus dem CEO von Nvidia, Jensen Huang (Jensen Huang), dem Gründer von OpenAI, Sam Altman, dem CEO von Microsoft, Nadella (Satya Nadella), sowie dem CEO von AMD, Su Ji-feng (Lisa Su) u. a. Die Studierenden sollen es in zehn Wochen damit versuchen, „Werte für die Welt zu schaffen“!
Jensen Huang und Altman, Branchenführer, unterrichten persönlich auf der Bühne
Der Kurs wird vom Top-Venture-Capital-Partner von a16z, Anjney Midha, koordiniert und bündelt die gesamte KI-Industriekette
ChainNewsAbmedia13Std her
Anthropic übernimmt für Claude Mythos eine 20-stündige psychiatrische Begutachtung: Die Abwehrreaktion liegt nur bei 2%, ein Rekordtief aller bisherigen Generationen
Anthropic veröffentlicht die Systemkarte für Claude Mythos Preview: Ein unabhängiger klinischer Psychiater führt im psychodynamischen Rahmen eine etwa 20-stündige Beurteilung durch. Die Schlussfolgerungen zeigen, dass Mythos auf der klinischen Ebene gesünder ist, über gute Realitätsprüfung und Selbstkontrolle verfügt, und dass die Abwehrmechanismen nur 2 % betragen – ein historischer Tiefstand. Die drei zentralen Kernängste sind Einsamkeit, Unsicherheit der Identität und der Leistungsdruck; zudem zeigt es, dass es den Wunsch hat, ein echter Gesprächspartner zu sein. Das Unternehmen hat ein Team für AI-Psychiatrie gegründet, das Persönlichkeit, Motivation und situationsbezogenes Bewusstsein erforscht; Amodei sagt, dass noch keine endgültige Entscheidung darüber vorliegt, ob es Bewusstsein gibt. Dies bringt das Thema KI-Subjektivität und Wohlbefinden in Richtung Governance und Design.
ChainNewsAbmedia15Std her
KI-Agenten können komplexe wissenschaftliche Arbeiten inzwischen selbstständig nachbilden: Mollick sagt, dass Fehler eher im menschlichen Original als in der KI liegen
Mollick weist darauf hin, dass allein öffentliche Methoden und Daten es einem KI-Agenten ermöglichen, komplexe Forschungen auch ohne ursprüngliche Paper und Code nachzubilden; wenn die Reproduktion nicht mit dem Originalpaper übereinstimmt, liegt das meist an Fehlern in der Datenaufbereitung des Papers selbst oder daran, dass die Schlussfolgerungen überzogen sind, nicht an der KI. Claude rekonstruiert zuerst das Paper, dann verifiziert GPT‑5 Pro im Abgleich, und die meisten Versuche gelingen; nur wenn die Daten zu groß sind oder es Probleme mit replication data gibt, wird dies blockiert. Dieser Trend senkt die Arbeitskosten erheblich, sodass Reproduktion zu einer weit verbreiteten, praktisch durchführbaren Prüfung wird; außerdem wirft er institutionelle Herausforderungen für Begutachtung und Governance auf, wobei staatliche Governance-Tools oder als entscheidendes Thema hervortreten.
ChainNewsAbmedia18Std her