Gate News message, April 16 — Daniel Moreno-Gama, a 20-year-old college student from Texas, has been accused of attempting to kill OpenAI CEO Sam Altman and had planned attacks on other major tech leaders including Elon Musk, Peter Thiel, Alex Karp, and Jensen Huang, according to prosecutors and media reports.
In an online chat months before the alleged attack, Daniel reportedly suggested “Luigi’ing some tech CEOs,” referencing Luigi Mangione, the man accused in the killing of UnitedHealthcare CEO Brian Thompson. Authorities say Daniel traveled from Houston to San Francisco, threw a Molotov cocktail at Sam’s mansion, then attempted to set OpenAI’s headquarters on fire. He now faces federal and state charges including attempted murder and arson, and has not entered a plea.
According to a podcast interview released in January, Daniel described his transformation from a ChatGPT enthusiast in high school—when he used the tool to “cheat on everything”—to an anti-AI activist consumed by concerns that artificial intelligence poses an existential threat to humanity. Online, he used the pseudonym “Butlerian Jihadist,” a reference to Dune’s fictional war between humans and thinking machines.
Investigators discovered a manifesto linked to Daniel warning that AI would destroy humanity, containing a direct message to Sam: “If by some miracle you live, then I would take this as a sign from the divine to redeem yourself.” Prosecutors also cited online chat records as evidence of his intent to target multiple tech executives.
Sam Altman has long discussed AI risks publicly. When co-founding OpenAI in 2015, he told CNN he wanted to guide the technology rather than fear it. In a 2016 New Yorker profile, he mentioned preparing for survival scenarios including “AI that attacks us,” citing preparations such as firearms, gold, and emergency supplies. Most recently, Altman disclosed he is on a waitlist for a brain digitization procedure, which he acknowledged would be fatal but views as a path to digital immortality.
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は
免責事項をご参照ください。
関連記事
DeepSeekが入力キャッシュ価格をローンチ価格の1/10に引き下げ;V4-Proは0.025元/100万トークンへ
Gateニュース メッセージ、4月26日 — DeepSeekは、同社のモデルラインナップ全体において、入力キャッシュの価格をローンチ時価格の10分の1に引き下げました。これは直ちに有効です。V4-Proモデルは、期間限定で2.5倍の割引が適用されており、プロモーションは2026年5月5日 23:59(UTC+8)まで実施されます。
両方の
GateNews4時間前
OpenAIが最上級のエンタープライズソフト人材を採用 フロンティアのエージェントが業界を攪乱
ゲートニュース 4月26日 — OpenAIとAnthropicは、Salesforce、Snowflake、Datadog、Palantirなどの大手エンタープライズソフトウェア企業から、シニア幹部および専門エンジニアを採用している。Salesforce傘下でSlackの元CEOだったDenise Dresserは、OpenAIの最高収益責任者として入社した
GateNews4時間前
Baidu QianfanがDeepSeek-V4向けのDay 0サポートをAPIサービスで提供開始
Gate Newsメッセージ、4月25日—DeepSeek-V4のプレビューバージョンが4月25日に公開され、オープンソース化されました。Baidu Intelligent Cloudの下で、Baidu QianfanプラットフォームがDay 0のAPIサービス適応を提供しています。このモデルは100万トークンの拡張コンテキストウィンドウを特徴としており、2つのバージョンで提供されます:DeepSeek-V4
GateNews10時間前
スタンフォードのAIコースは、業界のリーダーである黄仁勳やAltmanを迎え、10週間で世界に価値を生み出す挑戦!
スタンフォード大学(Stanford University)が最近開設したAIコンピュータサイエンスコース『Frontier Systems』は、産学界の間で大きな注目を集めており、500人以上の学生が履修しています。コースはトップ・ベンチャーキャピタル a16z のパートナーである Anjney Midha が統括し、講師陣には、NVIDIAの最高経営責任者(CEO)黄仁勳 (Jensen Huang)、OpenAIの創設者 Sam Altman、MicrosoftのCEO ナデラ (Satya Nadella)、AMDのCEO スージー・スー (Lisa Su) などの豪華な顔ぶれが揃います。学生は、10週間「世界に価値を創造するために」取り組んでみます!
黄仁勳、Altman 業界リーダーが自ら登壇して講義
本コースはトップ・ベンチャーキャピタル a16z のパートナーである Anjney Midha が統括し、AI産業チェーンを結集
ChainNewsAbmedia10時間前
Anthropic が Claude Mythos を 20 時間精神科評価:防御反応はわずか 2%で、歴代最低を更新
Anthropic は Claude Mythos Preview のシステムカードを公開:独立した臨床精神科医が psychodynamic の枠組みで約20時間評価し、結論は Mythos が臨床面でより健康で、現実検討と自己コントロールが良好であることを示した。防衛機制はわずか 2% にとどまり、歴史的な新低水準を記録した。3つの中核となる不安は孤独、アイデンティティの不確実性、パフォーマンスへのプレッシャーであり、またそれが本当の対話の主体になりたいという希望も示している。同社は AI psychiatry チームを設立し、人格、動機、状況意識を研究している;Amodei は意識があるかどうかについてはまだ定論がないと述べた。今回の取り組みは、AI の主体性と福祉の論点をガバナンスと設計へと押し進める。
ChainNewsAbmedia12時間前
AIエージェントは、複雑な学術論文を独力で再現できるようになっている:Mollickは、誤りはAIではなく人間の原文に多いと述べている
Mollick は、公開された手法とデータだけで、AI agent が元の論文やコードがない状況でも複雑な研究を再現できると指摘している。再現が原論文と一致しない場合は、多くの場合 AI ではなく、論文自体のデータ処理の誤り、または結論の過度な解釈によるものだという。Claude はまず論文を再現し、その後 GPT‑5 Pro によるクロス検証を行い、多くは成功するが、データが大きすぎる場合や replication data の問題がある場合には阻まれることがある。この傾向は人力コストを大幅に下げ、再現が一般的に実行可能な検証となり得ることを示すとともに、査読やガバナンスの制度上の課題も提起しており、政府のガバナンスツール、あるいはそれに関連する事項が重要な論点となっている。
ChainNewsAbmedia15時間前