OpenAI veröffentlicht drei Voice-Modelle in der Realtime-API; GPT-Realtime-2 bietet ein 128K-Kontextfenster

Laut Beating hat OpenAI in seiner Realtime-API drei Sprachmodelle veröffentlicht: GPT-Realtime-2 für Sprachgespräche mit Reasoning, GPT-Realtime-Translate für Echtzeit-Übersetzung und GPT-Realtime-Whisper für Streaming-Transkription. GPT-Realtime-2 ist OpenAIs erstes Sprachmodell mit Reasoning-Fähigkeiten auf GPT-5-Niveau und erweitert das Kontextfenster von 32K auf 128K Tokens. Es unterstützt bis zu 1-2 Stunden dichte Konversation.

GPT-Realtime-2 verbesserte sich um 15,2 % im Big-Bench-Audio-Benchmark und um 13,8 % bei Audio MultiChallenge im Vergleich zu GPT-Realtime-1.5. GPT-Realtime-Translate unterstützt 70+ Eingangssprachen für Übersetzungen in 13 Ausgangssprachen. Preise: GPT-Realtime-2 bei 32 $ pro Million Eingabetokens und 64 $ pro Million Ausgabetokens; Translate bei 0,034 $ pro Minute; Whisper bei 0,017 $ pro Minute.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Sakana AI und Nvidia erzielen mit dem Überspringen von 80% ungültiger Berechnungen 30% schnellere H100-Inferenz

Sakana AI und Nvidia haben TwELL Open Source veröffentlicht, ein sparsames Datenformat, das H100-GPUs ermöglicht, in großen Sprachmodellen 80% ungültiger Berechnungen zu überspringen, ohne die Genauigkeit zu beeinträchtigen. Die Lösung liefert bis zu 30% schnellere Inferenz und 24% schnellere Trainingsleistung auf H100s und senkt gleichzeitig den Spitzen-Speicherverbrauch. In Tests an einem Modell mit 1,5 Milliarden Parametern reduzierte der Ansatz die aktiven Neuronen durch eine leichte Regular

GateNews9M her

Microsoft stellt Phi-Ground 4B Open-Source und übertrifft OpenAI Operator sowie Claude bei der Bildschirmklick-Genauigkeit

Laut Beating hat Microsoft kürzlich die Modellfamilie Phi-Ground Open Source gestellt. Sie wurde entwickelt, um das Problem zu lösen, wo eine KI auf dem Bildschirm eines Computers klicken soll. Die Version mit 4 Milliarden Parametern, kombiniert mit größeren Sprachmodellen zur Planungsanweisung, übertraf in dem Showdown-Benchmark die Klickgenauigkeit von OpenAI Operator und Claude Computer Use und belegte in fünf Auswertungen, darunter ScreenSpot-Pro, den ersten Platz unter allen Modellen mit we

GateNews41M her

Tilde Research entdeckt: Muon Optimizer tötet 25% der Neuronen; Aurora Alternative erzielt einen 100-fachen Gewinn an Daten-Effizienz

Laut Tilde Research weist der von führenden KI-Modellen einschließlich DeepSeek V4 und Kimi K2.5 übernommene Muon-Optimizer einen versteckten Fehler auf: Er führt dazu, dass über 25% der Neuronen in den MLP-Layern während des frühen Trainings dauerhaft absterben. Das Team entwickelte Aurora, einen alternativen Optimizer, und stellte ihn als Open Source bereit. Ein Modell mit 1,1 Milliarden Parametern, das nur mit 100 Milliarden Tokens trainiert wurde, erreichte die Leistung von Qwen3-1,7B, das a

GateNews1Std her

Nvidia verpflichtet sich Anfang 2026 zu über 40 Milliarden US-Dollar für KI-Investitionen, darunter 30 Milliarden US-Dollar für OpenAI

Laut TechCrunch hat Nvidia in den ersten Monaten des Jahres 2026 mehr als 40 Milliarden US-Dollar für Eigenkapitalbeteiligungen an KI-Unternehmen zugesagt, wobei eine 30-Milliarden-US-Dollar-Investition in OpenAI die größte einzelne Zusage darstellt. Der Chiphersteller versprach außerdem bis zu 3,2 Milliarden US-Dollar für den Glashersteller Corning sowie bis zu 2,1 Milliarden US-Dollar für den Betreiber von Rechenzentren IREN. Dazu gehören eine Fünf-Jahres-Warrant sowie ein separater Vertrag üb

GateNews4Std her

NVIDIA öffnet langfristige KI-Partnerschaft: Deepinfra erhält 107 Millionen US-Dollar B-Runden-Finanzierung, um eine „Token-Fabrik“ aufzubauen

Die KI-Startup DeepInfra hat den Abschluss einer B-Runden-Finanzierung in Höhe von 107 Millionen US-Dollar bekannt gegeben. Die Runde wird von 500 Global und Georges Harik, einem frühen Google-Ingenieur, angeführt; strategische Investoren wie NVIDIA (NVIDIA), Samsung Next und Supermicro beteiligen sich ebenfalls. Laut offizieller Mitteilung soll das frische Kapital dazu genutzt werden, die Kapazitäten globaler Rechenzentren auszubauen und damit die derzeitigen Rechenkosten sowie Effizienz-Engpäs

ChainNewsAbmedia4Std her

EZB-Direktoriummitglied Escrivá warnt am 9. Mai vor KI-Risiken für die Finanzinfrastruktur

Ein Mitglied des EZB-Rats, Escrivá, erklärte am 9. Mai, dass die Zentralbanken die Widerstandsfähigkeit der Finanzinfrastruktur sowie die Robustheit der Cybersicherheit im Zuge der Entwicklungen im Bereich der künstlichen Intelligenz neu bewerten müssen. Laut seinen Ausführungen auf einer Veranstaltung zwingen jüngste Fortschritte bei KI zu einer Neubewertung der Fähigkeit der Finanzsysteme, neu entstehende Risiken zu verkraften.

GateNews5Std her
Kommentieren
0/400
Keine Kommentare