ブルームバーグによると、スウェーデンのAIスタートアップ「Pit」は、アンドリーセン・ホロウィッツが主導する資金調達ラウンドで、資金16 millionを調達し、Lakestarの参加に加えて主要なAIおよびテック企業の幹部が参加した。スウェーデンのステナおよびルンディン一族もこのラウンドに加わった。PitはすでにVoi、Tre、Stena Recycling、Kryといった企業でパイロット案件を確保している。この資金は、産業をまたいで断片化した業務フローを効率化することを目的としたPitのAIツールの開発に充てられる。
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は
免責事項をご参照ください。
関連記事
Anthropic コードモード 解:MCP と CLI の争い—ツールが Runtime に常駐し、トークンを 150K から 2K へ圧縮
2025 年の通年、AIエンジニアのコミュニティは「MCP vs CLI」のどちらがエージェントのツール呼び出しにより適しているかという問題で議論が止まらず、Anthropic が2025年11月に発表した「Code execution with MCP」論文は、第一原則からその問題設定そのものを再定義した。akshay\pachaar が5/10に整理したスレッドの説明:問題はそもそも「協議そのもの」ではなく、「セッション開始時にすべてのツールの説明を context に詰め込む」古い習慣にある。Anthropic の解決策は、モデルにコードを書かせてツールを呼び出し、実行時(runtime)がツールの詳細管理を担当することだ。新しい方式は「Code Mode」と呼ばれる。 旧方式の問題:150K tokens のうちモデルが実際に使うのは大部分ではない 旧 MCP モードの無駄な構造: Playwright MCP:13.7K tokens(1回で全部詰め込み) Chrome DevTools MCP:18K tokens 5 個の server 設定:まだ動き始めてもいないのに
ChainNewsAbmedia1時間前
バイトダンスは、今年AIインフラへの支出を2,000億人民元に増やし、25%の引き上げを計画しています。
ChainCatcherがGolden Dataの引用として伝えているところによると、ByteDanceは、メモリーチップのコスト上昇と人工知能開発の加速を背景に、今年AIインフラへの支出を25%増やして2000億人民元にする計画だ。
GateNews2時間前
エンタープライズ向けAIプラットフォーム「Pit」のクローズ $16M シリーズ資金調達をa16zが主導
Odailyによると、エンタープライズ向けAIプラットフォームのPitは、a16zが主導し、LakestarとOpenAI、Anthropic、Google、Deel、Revolutの幹部が参加した総額$16 millionの資金調達ラウンドの完了を発表した。Pitは自社を「サービスとしてのAIプロダクトチーム」と位置付け、従来のスプレッドシートや硬直したSaaSシステムを置き換えることを目指している。
GateNews2時間前
GoogleがAIツールを使えるようにする技術者向け採用試験を実施へ
朝鮮日報によると、Googleは採用試験を試験的に導入しており、米国のソフトウェアエンジニア候補者が、選ばれた初級および中級の職種においてAIツールを使用できるようにしている。この試験には、応募者が既存のコードを読み解き、バグを修正し、パフォーマンスを改善するコード理解タスクが含まれている。面接官は、候補者がAIにどのように指示するか、その出力を確認するか、結果を編集するか、そしてコードをデバッグするかを評価し、コードを最初から書く能力だけを見て判断するのではない。
GateNews4時間前
OpenAIは即時にファインチューニングAPIを提供中止し、既存ユーザーは2027年1月6日まで利用できます
Beatingが監視しているOpenAIの公式発表によると、同社は開発者向けのセルフサービス型ファインチューニングAPIを即時に提供終了するとしています。新規ユーザーはこれ以上ファインチューニングのタスクを作成できず、既存のアクティブユーザーは2027年1月6日までサービスにアクセスできます。デプロイされたファインチューニング済みモデルの推論サービスは、ベースモデルのライフサイクルに紐づけられており、ベースモデルが退役すると停止します。 OpenAIは、GPT-5.5のような同社の新しいベースモデルは、指示とフォーマットに従う点で十分に強力になったと述べています。同社は、ファインチューニングと比べて、プロンプトエンジニアリングとRetrieval-Augmented Generation(RAG)を組み合わせることで、より安価で、より高速で、ほとんどのユースケースに対して十分だとしています。
GateNews5時間前
Sakana AIとNvidiaは、不正確な計算の80%をスキップすることで、H100推論を30%高速化することに成功
Sakana AI と Nvidia は、H100 GPU が大規模言語モデルにおいて精度を損なうことなく不正確な計算の 80% をスキップできるようにする疎データ形式の TwELL をオープンソース化しました。この解決策は、H100 上で推論を最大 30% 高速化し、学習を 24% 高速化するとともに、ピーク時のメモリ使用量を削減します。1.50 億パラメータのモデルでのテストでは、この手法により学習中の軽量な正則化によってアクティブなニューロンが 2% 未満に抑えられ、7 つの下流タスクすべてで性能の低下は見られませんでした。
GateNews6時間前