米国と中国は、財務当局者が主導する公式AI安全対話を開始する予定

報道によると、米国と中国は、両国の技術競争をめぐる危機管理メカニズムの確立を目的として、公式なAI安全対話の立ち上げに向けて準備しているという。ウォール・ストリート・ジャーナルによれば、米国側の代表団は財務長官スコット・ベッセントが率い、中国側は副財務大臣リャオ・ミンとほかの当局者が担当する。

協議の中核テーマには、予測不能なAIモデルの挙動の防止、自律型の軍事システムの管理、そしてオープンソースのツールを悪用する非国家主体からの脅威への対応が含まれるとされる。双方は、高水準の「AIホットライン」を設ける可能性について検討しているとも報じられている。だが、ブルームバーグによれば、ベッセントは中国とのAI競争に対して強硬な姿勢を取っており、米国のAIモデルがこの分野でのアメリカの優位を確実にすると、最近発言している。これは、制御されないAI開発に対するセーフガードを確立することを対話の目標として掲げている内容と矛盾する。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。

関連記事

GoogleがAIツールを使えるようにする技術者向け採用試験を実施へ

朝鮮日報によると、Googleは採用試験を試験的に導入しており、米国のソフトウェアエンジニア候補者が、選ばれた初級および中級の職種においてAIツールを使用できるようにしている。この試験には、応募者が既存のコードを読み解き、バグを修正し、パフォーマンスを改善するコード理解タスクが含まれている。面接官は、候補者がAIにどのように指示するか、その出力を確認するか、結果を編集するか、そしてコードをデバッグするかを評価し、コードを最初から書く能力だけを見て判断するのではない。

GateNews1時間前

OpenAIは即時にファインチューニングAPIを提供中止し、既存ユーザーは2027年1月6日まで利用できます

Beatingが監視しているOpenAIの公式発表によると、同社は開発者向けのセルフサービス型ファインチューニングAPIを即時に提供終了するとしています。新規ユーザーはこれ以上ファインチューニングのタスクを作成できず、既存のアクティブユーザーは2027年1月6日までサービスにアクセスできます。デプロイされたファインチューニング済みモデルの推論サービスは、ベースモデルのライフサイクルに紐づけられており、ベースモデルが退役すると停止します。 OpenAIは、GPT-5.5のような同社の新しいベースモデルは、指示とフォーマットに従う点で十分に強力になったと述べています。同社は、ファインチューニングと比べて、プロンプトエンジニアリングとRetrieval-Augmented Generation(RAG)を組み合わせることで、より安価で、より高速で、ほとんどのユースケースに対して十分だとしています。

GateNews2時間前

Sakana AIとNvidiaは、不正確な計算の80%をスキップすることで、H100推論を30%高速化することに成功

Sakana AI と Nvidia は、H100 GPU が大規模言語モデルにおいて精度を損なうことなく不正確な計算の 80% をスキップできるようにする疎データ形式の TwELL をオープンソース化しました。この解決策は、H100 上で推論を最大 30% 高速化し、学習を 24% 高速化するとともに、ピーク時のメモリ使用量を削減します。1.50 億パラメータのモデルでのテストでは、この手法により学習中の軽量な正則化によってアクティブなニューロンが 2% 未満に抑えられ、7 つの下流タスクすべてで性能の低下は見られませんでした。

GateNews3時間前

MicrosoftがPhi-Ground 4Bモデルをオープンソース化し、画面クリック精度でOpenAI OperatorとClaudeを上回る

Beatingによると、Microsoftは最近、コンピューター画面上でAIがどこをクリックすべきかという問題を解決するために設計されたPhi-Groundモデルファミリーをオープンソース化しました。4 billionパラメータ版は、指示の計画のためのより大きな言語モデルと組み合わせることで、ShowdownベンチマークにおいてOpenAI OperatorやClaude Computer Useのクリック精度を上回り、ScreenSpot-Proを含む5つの評価のすべてで、サブ100-billion-parameterの全モデルの中で1位にランクインしました。 チームは40 million以上のデータサンプルで学習を行い、学術論文で用いられている3つの一般的な学習手法が、大規模化すると効果がなくなることを見出しました。主要なアプローチはシンプルでした。座標を通常の数値として出力することで、「523, 417」のようにします。これまでの研究では、座標のための専用の位置語彙が考案されていましたが、これはスケールしませんでした。さらにチームは、画像の前にテキストの指示を置くと性能が向上する

GateNews4時間前

ティルド・リサーチがムオン・オプティマイザーはニューロンの25%を破壊すると発見。オーロラの代替案はデータ効率を100倍に向上。

Tilde Researchによると、DeepSeek V4やKimi K2.5を含む主要なAIモデルが採用しているMuonオプティマイザには隠れた欠陥があります。それは、初期トレーニングの間にMLP層のニューロンのうち25%以上が永久に死んでしまうことを引き起こすというものです。チームは代替オプティマイザであるAuroraを設計し、オープンソース化しました。1.1Bパラメータのモデルは、わずか100Bトークンだけで学習し、HellaSwagやWinograndeのような言語理解ベンチマークにおいて、36Tトークンで学習したQwen3-1.7Bと同等の性能を達成し、データ効率が約100倍向上したことを示しています。AuroraはMuonと比べて計算オーバーヘッドが6%増えるだけで、直接の置き換えとして利用できます。

GateNews4時間前

Nvidiaは2026年初頭にAI投資として400億ドル超を拠出し、OpenAIへの300億ドルを含む

TechCrunchによると、Nvidiaは2026年の最初の数か月にAI企業への株式投資として400億ドル超を拠出し、最大の単独コミットメントとしてOpenAIへの300億ドルの投資を行いました。半導体メーカーは、ガラスメーカーのCorningに最大32億ドル、データセンター運営会社のIRENに最大21億ドルも拠出すると約束しており、これには5年間のワラントと、Nvidia Blackwellシステムを用いたマネージドGPUクラウドサービス向けの別途34億ドルの契約が含まれています。FactSetのデータによれば、Nvidiaは今年、上場企業に対して数十億ドル規模の投資を7件発表するとともに、非公開のスタートアップに対する資金調達ラウンドに約2ダース(20件程度)参加しています。

GateNews7時間前
コメント
0/400
コメントなし