Laut Beating hat das finnische KI-Labor QuTwo eine Seed-Runde in Höhe von 25 Millionen Euro (ungefähr 29 Millionen US-Dollar) abgeschlossen, mit einer Post-Money-Bewertung von 325 Millionen Euro (ungefähr 380 Millionen US-Dollar). Gründer und Executive Chairman Peter Sarlin hatte zuvor Silo AI gegründet, das AMD 2024 für 665 Millionen US-Dollar übernommen hat.
QuTwo OS ist eine Computing-Orchestrierungs-Schicht, die Aufgaben über klassische Chips, Quantenprozessoren oder hybride Architekturen verteilt. Das Unternehmen hat rund 20 Millionen Euro an Vertragsumsätzen gesichert; zu den Kunden zählen der Händler Zalando sowie OP Financial Group, der größte Finanzdienstleister Finnlands. Zu den Seed-Investoren gehören der DST-Global-Gründer Yuri Milner, Skype-Mitgründer Niklas Zennström sowie Gründer von Supercell, Wolt und Miro.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
Anthropic im Code-Modus: Streit um MCP vs. CLI — Tools für Runtime belegt, Tokens von 150.000 auf 2.000 gedrückt
2025 年整年 AI 工程社群在「MCP vs CLI」哪個更適合 Agent 工具呼叫的問題上爭論不休、Anthropic 2025 年 11 月發表的「Code execution with MCP」論文從第一原則重新定義了問題。akshaypachaar 5/10 整理 thread說明:問題從來不在協議本身、而在「session 開始時把所有工具描述塞進 context」的舊習慣;Anthropic 的解法是讓模型寫程式碼呼叫工具、運行時負責管理工具細節。新模式被稱為「Code Mode」。 舊模式的問題:150K tokens 中模型大部分用不到 舊 MCP 模式的浪費結構: Playwright MCP:13.7K tokens(一次塞滿) Chrome DevTools MCP:18K tokens 5 個 server 設定:尚未開始工作就燒掉 55K tokens 單一 workflow 完整執行:可膨脹到 150K tokens 模型實際用到的:絕大部分都用不上 批評者主張改用 CLI、但 CLI 在多租戶 app 容易出錯、缺乏 typed contract、a
ChainNewsAbmedia1Std her
ByteDance plant, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen
Laut ChainCatcher unter Berufung auf Golden Data plant ByteDance, die Ausgaben für KI-Infrastruktur in diesem Jahr um 25% auf 200 Milliarden Yuan zu erhöhen, angetrieben durch steigende Kosten für Speicherchips und eine beschleunigte Entwicklung künstlicher Intelligenz.
GateNews2Std her
Die Unternehmens-AI-Plattform Pit schließt die $16M -Series-Finanzierung, angeführt von a16z
Laut Odaily hat die Enterprise-AI-Plattform Pit die Fertigstellung einer Finanzierungsrunde über 16 Millionen US-Dollar bekanntgegeben, die von a16z angeführt wurde; beteiligt waren Lakestar sowie Führungskräfte von OpenAI, Anthropic, Google, Deel und Revolut. Pit positioniert sich als „AI product team as a service“ und soll traditionelle Tabellenkalkulationen sowie starre SaaS-Systeme ersetzen.
GateNews2Std her
Google testet die Einstellung mit Prüfungen, bei denen Ingenieure KI-Tools nutzen dürfen
Laut The Chosun Daily testet Google Einstellungstests, mit denen US-amerikanische Software-Engineer-Kandidaten KI-Tools in ausgewählten Einstiegs- und Mid-Level-Positionen nutzen können. Der Versuch umfasst Aufgaben zum Code-Verständnis, bei denen die Bewerber bestehenden Code durchsehen, Bugs beheben und die Performance verbessern. Die Interviewer werden bewerten, wie die Kandidaten KI anleiten, deren Ergebnisse prüfen, die Resultate überarbeiten und Code debuggen, statt nur ihre Fähigkeit zu b
GateNews4Std her
OpenAI stellt die Fine-Tuning-API mit sofortiger Wirkung ein. Bestehende Nutzer können sie bis zum 6. Januar 2027 weiterhin nutzen.
Laut der offiziellen Ankündigung von OpenAI, die von Beating überwacht wird, stellt das Unternehmen seine Self-Serve Fine-Tuning-API für Entwickler mit sofortiger Wirkung ein. Neue Nutzer können keine Fine-Tuning-Aufgaben mehr erstellen, während bestehende aktive Nutzer auf den Dienst bis zum 6. Januar 2027 zugreifen können. Die bereitgestellten Fine-Tuned-Modelle werden ihre Inferenzdienste an den Lebenszyklus ihrer Basismodelle gebunden haben und enden, wenn das Basismodell außer Dienst gestel
GateNews4Std her
Sakana AI und Nvidia erzielen mit dem Überspringen von 80% ungültiger Berechnungen 30% schnellere H100-Inferenz
Sakana AI und Nvidia haben TwELL Open Source veröffentlicht, ein sparsames Datenformat, das H100-GPUs ermöglicht, in großen Sprachmodellen 80% ungültiger Berechnungen zu überspringen, ohne die Genauigkeit zu beeinträchtigen. Die Lösung liefert bis zu 30% schnellere Inferenz und 24% schnellere Trainingsleistung auf H100s und senkt gleichzeitig den Spitzen-Speicherverbrauch. In Tests an einem Modell mit 1,5 Milliarden Parametern reduzierte der Ansatz die aktiven Neuronen durch eine leichte Regular
GateNews5Std her