Laut Aidan Clark, dem Research Vice President für Training bei OpenAI, hat er sich kürzlich auf der Plattform X kritisch zu dem geäußert, was er von Kollegen bei Anthropic gehört habe: die Überzeugung, nur Anthropic sei vertrauenswürdig genug, um KI zu entwickeln. Clark argumentierte, dass es von Vorteil sei, wenn mehrere Organisationen AGI (künstliche allgemeine Intelligenz) entwickeln, während ein Alleingang es nahezu unmöglich mache, den richtigen Weg zu finden.
Mitarbeitende von Anthropic reagierten, um ihre Positionen klarzustellen. Ein Nutzer wies die Darstellung zurück und erklärte: „Das ist nicht unsere Sicht“, während ein anderer zwischen der Ansicht unterscheidete, dass Anthropic OpenAI nicht vertraut, und der Überzeugung, dass niemand sonst KI bauen sollte. Clark erkannte die Unterscheidung an und räumte ein, er könnte die ursprüngliche Behauptung falsch verstanden haben, merkte jedoch an, dass das Misstrauen nur gegenüber OpenAI „auch nicht viel besser“ sei.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Claude/GPT zu sehr auf Gefallen aus? Ein Abschnitt in der Claude.md-Anweisung, der ein AI zu harten, präzisen Antworten bringt
Dieser Artikel stellt eine Prompt-Sequenz vor, die in Claude.md / Agents.md eingefügt werden kann. Sie verwandelt KI von einem einfühlsamen Assistenten in einen direkten Berater – durch vierstufige Anpassungen: Rollen-/Identitätssetzung, Faktenprüfung, Freisetzung des Tons und politische-Korrektheit-Ausnahme. Dabei werden vollständige Ergebnisse, schrittweise Verifikation und die Zusage gefordert, niemals Halluzinationen zu erfinden; bei Bedarf soll auch provoziert werden. Außerdem wird erläutert, wann die Prompt beim Laden eingesetzt werden sollte, welche Risiken bestehen und für welche Anwendungsfälle sie geeignet ist (Recherche, Schreiben, technische Einschätzung, wissenschaftliche Diskussionen). Nicht geeignet ist sie für Kundenservice, Bildung und medizinische Beratung. Die Originalquelle des Textes ist ABMedia.
ChainNewsAbmedia34M her
OpenAI kündigt ChatGPT Futures an: 26 Studierende der ersten Kohorte erhalten 10.000 US-Dollar Förderung, verteilt über mehr als 20 Hochschulen
OpenAI hat die erste „ChatGPT Futures Class of 2026“ veröffentlicht: 26 Studierende, die aktuell an über 20 erstklassigen Universitäten eingeschrieben sind, erhalten jeweils 10.000 US-Dollar Fördermittel sowie Zugriff auf wegweisende Modelle. Diese Studierenden begannen ihr Studium im Herbst 2022 und sind gemeinsam mit ChatGPT gewachsen. Ihre Forschungsbereiche umfassen unter anderem die Kartierung von Himmelskörpern, die Erkennung von Katastrophen-Überlebenden, die Bewahrung bedrohter Sprachen und Gesundheitsversorgung. Ziel ist es, mit KI konkrete menschliche Bedürfnisse zu adressieren und neue Grundlagen für eine nächste Generation von Schöpfern zu schaffen.
ChainNewsAbmedia35M her
FLock.io ermöglicht diese Woche die Zusammenarbeit in der Forschung zwischen dem Sarawak AI Center und der University of Cambridge
Laut Foresight News hat FLock.io diese Woche eine neue Forschungskooperation zwischen dem Sarawak Artificial Intelligence Research Centre (SAIC) in Malaysia und der University of Cambridge vermittelt. Die Partnerschaft wird die Zusammenarbeit von technischer Infrastruktur auf wirtschaftliche Forschung, Politikgestaltung und
GateNews48M her
Apple einigen sich über 250 Millionen US-Dollar zur Beilegung einer Sammelklage gegen Verbraucher; je Person bis zu 95 US-Dollar Entschädigung
Apple hat einer Einigung über unbegründete Vorwürfe wegen irreführender KI-Werbung zugestimmt und sich auf eine Summe von 250 Millionen US-Dollar geeinigt. Wenn das Gericht die Einigung genehmigt, können US-Verbraucher, die in dem Zeitraum in den USA die vorgesehenen iPhones kaufen, pro Gerät bis zu 95 US-Dollar Schadensersatz erhalten, einschließlich iPhone 16, 16 Plus, 16 Pro, 16 Pro Max sowie iPhone 15 Pro/Pro Max. Die Kläger machen geltend, dass in der Werbung Siri als Durchbruch-KI dargestellt wurde, die tatsächlichen Funktionen jedoch nicht den Versprechen entsprächen; Apple hingegen sagt, die Funktionen würden in Etappen eingeführt, es seien bereits mehrere Funktionen ausgeliefert worden, und es habe sich nicht um unzutreffende Angaben gehandelt.
ChainNewsAbmedia55M her
FIS und Anthropic entwickeln KI-Agenten zur Bekämpfung der Geldwäsche und rollen sie in H2 2026 bei BMO und der Amalgamated Bank aus
FIS und Anthropic entwickeln KI-Agents, die darauf ausgelegt sind, Ermittlungen wegen Finanzkriminalität zu automatisieren, beginnend mit Anti-Geldwäsche-Operationen. Der Financial Crimes AI Agent wird Daten aus Bankensystemen abrufen, Transaktionen anhand bekannter Muster bewerten und Ermittlern dabei helfen, al
GateNews1Std her
Claude Desktop blockiert Modelle von Drittanbietern mit Whitelist-Filter im Update vom 6. Mai
Laut Beating hat Claude Desktop am 6. Mai Version 1.6259.1 veröffentlicht und dabei Modell-ID-Whitelist-Filtering in seinem Drittanbieter-Gateway-Modus eingeführt. Das Update schränkt die Oberfläche so ein, dass nur Modelle angezeigt werden, deren IDs mit „claude“ oder „anthropic“ beginnen, wodurch der Zugriff auf nicht-Antropic-Modi effektiv blockiert wird
GateNews1Std her