Suchergebnisse für "GPT-4O"
2026-04-24
08:45

Ehemaliger ByteDance-Seed-Ingenieur: ByteDance-AI-Iteration dauert sechs Monate, während es bei Google drei Monate sind

Gate-News-Meldung, 24. April — Zhang Chi, ein ehemaliger Ingenieur im Seed-Team von ByteDance und derzeit Assistenzprofessor an der Peking-Universität, gab in dem Podcast „Into Asia“ bekannt, dass ByteDance ungefähr sechs Monate benötigt, um einen vollständigen Zyklus des Trainings großer Sprachmodelle (pretraining abzuschließen, plus Post-Training, während Google Berichten zufolge nur drei Monate braucht. Zhang führte den Geschwindigkeitsunterschied als einen zentralen Grund dafür an, warum chinesische Unternehmen bei der Entwicklung von KI nur schwer aufholen können.
Mehr
15:32

Rakuten-Gruppe veröffentlicht japanisches großes Sprachmodell Rakuten AI 3.0, das Kontreverse auslöst, da es angeblich auf DeepSeek-Architektur basiert

Rakuten Group führte am 17. März das auf Japanisch spezialisierte Large Language Model Rakuten AI 3.0 ein und behauptete, GPT-4o in mehreren japanischen Tests zu übertreffen. Nutzer entdeckten jedoch, dass das Modell möglicherweise auf DeepSeek basiert, und stellten Fragen zur seiner Ausrichtung gegenüber China sowie zur Authentizität der eigenständigen Forschungs- und Entwicklungstechnologie auf, was zu Diskussionen führte.
Mehr
08:53

Rakuten veröffentlicht Rakuten AI 3.0 Modell, Konfigurationsdatei zeigt, dass die zugrunde liegende Architektur DeepSeek V3 ist

Rakuten Group hat am 17. März ein leistungsstarkes KI-Modell namens Rakuten AI 3.0 veröffentlicht, das 671 Milliarden Parameter umfasst und für die japanische Sprache optimiert wurde. Es soll in mehreren Benchmark-Tests GPT-4o übertreffen. Das Modell wird kostenlos unter der Apache 2.0-Lizenz als Open Source bereitgestellt, basiert auf einer Feinabstimmung des DeepSeek V3-Modells und erhielt Unterstützung durch Rechenkapazitäten der japanischen Regierung.
Mehr
03:23

OpenClaw Gründer teilen die Rangliste der Anpassungsfähigkeit von KI-Modellen, wobei die inländischen Modelle minimax-m2.1 und kimi-k2.5 auf den Plätzen 2 und 3 liegen.

OpenClaw-Gründer Peter Stanberg teilte die Benchmark-Ergebnisse von PinchBench, die zeigen, dass Gemini 3 Flash mit einer Erfolgsquote von 95,1% bei Proxy-Aufgaben den ersten Platz belegt, inländische Modelle wie minimax-m2.1 und kimi-k2.5 belegen den zweiten und dritten Platz mit Erfolgsquoten von 93,6% bzw. 93,4%. Andere Modelle wie Claude Sonnet 4.5 und GPT-4o schneiden schlechter ab.
Mehr
08:07

OpenAI: Fünf alte Versionen des ChatGPT-Modells wurden eingestellt

OpenAI hat am 13. Februar die Nutzung von fünf älteren ChatGPT-Modellversionen eingestellt, darunter mehrere GPT-4- und GPT-5-Versionen, aber ChatGPT Enterprise-Nutzer können GPT-5 weiterhin bis 2026 verwenden. Gleichzeitig wird GPT-5 Pro für alle zahlenden Nutzer zugänglich sein.
Mehr
00:59

OpenAI hat den Zugang zum GPT-4.1 Modell auf der ChatGPT Plattform umfassend geöffnet.

Gate.io News bot消息, das OpenAI, das US-amerikanische Forschungszentrum für künstliche Intelligenz, heute angekündigt hat, dass es zur Erfüllung der Nutzerbedürfnisse offiziell die Nutzung des GPT-4.1 Modells auf der ChatGPT Plattform freigibt. Dieses auf Codierungsaufgaben und Befehlsausführung fokussierte GPT-4.1-Modell ist jetzt für Plus-, Pro- und Team-Nutzer zugänglich, die über das Menü "Mehr Modelle" im Modellauswahl-Tool darauf zugreifen können. Unternehmens- und Bildungskunden werden in den kommenden Wochen schrittweise Zugang erhalten. Gleichzeitig plant OpenAI die Einführung einer Mini-Version von GPT-4.1, die das bestehende GPT-4o mini ersetzen und allen ChatGPT-Nutzern zur Verfügung stehen wird.
Mehr