Sam Altman căn nhà biệt thự trị giá 27 triệu trong khu Marriott bị ném bom xăng và bắn súng, ba nghi phạm bị bắt

MarketWhisper

Sam Altman豪宅遇襲

Giám đốc điều hành của OpenAI, Sam Altman, tại nơi ở ở Russian Hill, San Francisco, đã liên tiếp bị hai vụ tấn công trong vòng hai ngày; ba nghi phạm lần lượt đã bị bắt. Vào ngày 10 tháng 4, một người đàn ông đến từ Texas với lập trường phản đối mạnh mẽ đối với trí tuệ nhân tạo đã ném một chai xăng (bom cháy) vào nhà ở; vào ngày 12 tháng 4, một cặp nam nữ đã bắn vào nhà từ trong xe, camera giám sát ghi lại biển số xe, và cảnh sát đã hoàn tất việc bắt giữ vào chiều cùng ngày.

Vụ tấn công thứ nhất: Bom cháy và lời đe doạ nhắm tới trụ sở OpenAI

Sam Altman豪宅縱火嫌犯 (Nguồn: X)

Khoảng 3 giờ 40 phút sáng ngày 10 tháng 4, người đàn ông 20 tuổi đến từ Texas là Daniel Alejandro Moreno-Gama đã ném một chai xăng (bom cháy) vào cổng kim loại phía bắc khu nhà của Altman trên phố Chestnut, lực lượng an ninh nhanh chóng dập tắt đám cháy, hiện trường không gây ra thiệt hại nghiêm trọng. Khoảng một giờ sau, chính nghi phạm đó xuất hiện gần trụ sở OpenAI tại Mission Bay, tuyên bố sẽ thiêu huỷ tòa nhà, ngay sau đó bị cảnh sát bắt giữ và đối mặt với các cáo buộc như âm mưu giết người, phóng hoả và tàng trữ thiết bị cháy.

Dữ liệu điều tra cho thấy trước đó Moreno-Gama đã đăng rất nhiều bài trên mạng xã hội, bày tỏ sự phản đối mạnh mẽ đối với trí tuệ nhân tạo, cho rằng AI sẽ đe doạ sự tồn tại của con người, đồng thời chỉ trích ngành công nghệ là “thiếu đạo đức”. Anh ta từng tham gia máy chủ Discord của PauseAI, nhưng PauseAI đã phủ nhận rõ ràng mọi liên hệ trực tiếp, tuyên bố rằng trong 34 thông điệp được đăng chung trên máy chủ của mình không có bất kỳ nội dung kích động bạo lực nào, và sau khi vụ việc xảy ra đã gỡ bỏ; đồng thời lên án toàn diện hành vi bạo lực nhắm vào cá nhân.

Vụ tấn công thứ hai: Vụ nổ súng và hai nghi phạm bị bắt

Chưa đầy 48 giờ sau khi xảy ra vụ việc thứ nhất, vào khoảng 1 giờ 40 phút sáng ngày 12 tháng 4, một chiếc xe sedan Honda chạy qua trước nhà rồi quay đầu, dừng bên phía Lombard Street. Hành khách ngồi ghế phụ thò tay ra khỏi cửa sổ, nghi ngờ đã bắn một phát về hướng nhà. Camera giám sát ghi lại đầy đủ biển số xe, và cảnh sát đã thành công xác định nghi phạm vào chiều cùng ngày.

Tóm tắt ba vụ bắt giữ

Daniel Alejandro Moreno-Gama (20 tuổi, Texas): âm mưu giết người, phóng hoả, tàng trữ thiết bị cháy; bị cáo buộc tấn công bằng bom cháy và đe doạ trụ sở OpenAI

Amanda Tom (25 tuổi): tội sơ suất trong việc xả súng; bị cáo buộc bắn vào nhà của Altman từ trong xe

Muhamad Tarik Hussein (23 tuổi): tội sơ suất trong việc xả súng; bị bắt cùng vụ án với Tom; trong lúc cảnh sát thực hiện lệnh khám xét đã phát hiện thêm ba khẩu súng

Căng thẳng liên quan đến AI và an ninh của giới lãnh đạo công nghệ: Altman kêu gọi hạ nhiệt đối đầu

Sau vụ bom cháy, Altman đăng bài trên blog; trong bài viết có kèm ảnh chụp của chồng anh, Oliver Mulherin, và con trai. Anh cho biết anh hiểu sự lo ngại của công chúng đối với công nghệ, nhưng kêu gọi “giảm mức độ gay gắt của lời nói và hành động, nỗ lực giảm xung đột bên trong gia đình, theo cả nghĩa đen lẫn nghĩa bóng đều như vậy”.

Trưởng công an San Francisco, Derrick Lew, cho biết cảnh sát sẽ coi các tội phạm liên quan đến việc dùng súng “vô cùng nghiêm trọng” và sẽ truy tố một cách nghiêm khắc theo quy định pháp luật. Điều đáng chú ý là, khoảng năm tháng trước cuộc tấn công này, nhân viên của OpenAI đã từng kích hoạt quy trình sơ tán khẩn cấp vì nhận được các mối đe doạ từ những người phản đối AI, cho thấy các rủi ro an ninh liên quan đã xuất hiện từ trước.

Chi phí mà các công ty công nghệ dành cho bảo vệ an ninh cấp cao tiếp tục tăng: Tesla năm 2023 chi khoảng 2,4 triệu USD cho chi phí an ninh của Musk; Facebook năm 2019 chi 20,4 triệu USD cho chi tiêu an ninh của Zuckerberg. Hiện tại, OpenAI chưa công bố cụ thể khoản chi cho vấn đề an ninh của Altman.

Câu hỏi thường gặp

Động cơ của nghi phạm tấn công nơi ở của Sam Altman là gì?

Nghi phạm của vụ tấn công bom cháy đầu tiên, Moreno-Gama, từng công khai bày tỏ sự phản đối mạnh mẽ đối với AI, cho rằng trí tuệ nhân tạo tồn tại nguy cơ đe doạ sự sinh tồn của con người, và có liên hệ với cộng đồng trực tuyến của PauseAI. Về động cơ cụ thể của vụ nổ súng thứ hai, cảnh sát hiện vẫn chưa công bố.

PauseAI là tổ chức gì, và liệu có liên quan trực tiếp đến cuộc tấn công này không?

PauseAI là một tổ chức phi lợi nhuận hoạt động nhằm vận động tạm dừng phát triển các mô hình AI tiên phong. Nghi phạm của vụ tấn công đầu tiên từng đăng 34 thông điệp trên máy chủ Discord của họ, nhưng PauseAI khẳng định rõ ràng rằng không có bất kỳ liên quan nào đến hành vi tấn công; tổ chức này tuyên bố trong các thông điệp của mình không có nội dung kích động bạo lực, đã gỡ bỏ sau khi sự việc xảy ra, và lên án toàn diện hành vi bạo lực nhắm vào bất kỳ ai.

Các nhà lãnh đạo công nghệ cấp cao nên ứng phó thế nào trước nguy cơ an ninh ngày càng gia tăng?

Các công ty công nghệ hàng đầu mỗi năm chi hàng triệu đến hàng chục triệu USD để bảo vệ giám đốc điều hành (CEO) của mình. Các trường hợp đã được công khai hiện bao gồm chi phí an ninh của Tesla dành cho Musk và chi tiêu an ninh hằng năm của Facebook dành cho Zuckerberg. Hai vụ tấn công liên tiếp nhắm vào nơi ở của Altman dự kiến sẽ tiếp tục thúc đẩy ngành công nghệ đánh giá lại các tiêu chuẩn bảo vệ an ninh cấp cao.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

IEA: Chi tiêu cơ sở hạ tầng AI đã vượt đầu tư sản xuất dầu khí, dự kiến sẽ tăng thêm 75% vào năm 2026

Theo phân tích và dữ liệu thị trường do Cơ quan Năng lượng Quốc tế (IEA) công bố vào ngày 26 tháng 4, tổng chi tiêu vốn của năm công ty công nghệ hàng đầu trong năm 2025 vượt 400 tỷ USD, chủ yếu được đầu tư cho việc xây dựng hạ tầng AI, với quy mô đã vượt qua mức đầu tư hàng năm của sản xuất dầu và khí đốt toàn cầu. IEA ước tính rằng, chi tiêu vốn liên quan vào năm 2026 có thể tiếp tục tăng thêm 75%.

MarketWhisper15phút trước

Thượng nghị sĩ Bernie Sanders đưa ra cảnh báo về mối đe dọa sinh tồn từ AI

Sanders nhấn mạnh rằng ngay cả khi hầu hết các nhà khoa học AI đều thừa nhận khả năng AI thoát khỏi sự kiểm soát và trở thành mối nguy đối với sự tồn tại của chúng ta, vẫn chưa có biện pháp lớn nào được thực hiện để ngăn chặn điều đó. “Chúng ta phải đảm bảo rằng AI mang lại lợi ích cho nhân loại, chứ không gây hại cho chúng ta,” ông nói. Các ý chính rút ra: Bernie Sanders

Coinpedia24phút trước

Trưởng bộ phận mô hình AI của Xiaomi: Cuộc cạnh tranh AI đang chuyển sang thời đại Agent; tự tiến hóa là sự kiện then chốt dẫn tới AGI

Người phụ trách đội ngũ mô hình lớn của Xiaomi, La Fuli, đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili vào ngày 24 tháng 4 (mã video: BV1iVoVBgERD). Thời lượng cuộc phỏng vấn là 3,5 giờ, và đây là lần đầu tiên cô công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fuli cho biết, cuộc đua cạnh tranh của các mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt của AGI trong năm tới.

MarketWhisper25phút trước

xAI Grok Voice tiếp quản đường dây nóng chăm sóc khách hàng của Starlink, 70% cuộc gọi được tự động kết án

Theo thông báo chính thức của xAI được phát hành vào ngày 23 tháng 4, xAI đã giới thiệu tác nhân AI giọng nói Grok Voice Think Fast 1.0 và đã được triển khai trên đường dây nóng dịch vụ khách hàng Starlink +1 (888) GO STARLINK. Theo dữ liệu thử nghiệm được công bố trong thông báo, 70% các cuộc gọi được AI tự động xử lý chấm dứt, không cần sự can thiệp của con người.

MarketWhisper36phút trước

GPT-5.5 Trở Lại Tuyến Đầu Trong Lập Trình, Nhưng OpenAI Đổi Benchmark Sau Khi Thua Opus 4.7

Tin tức cổng, ngày 27 tháng 4 — SemiAnalysis, một công ty phân tích chất bán dẫn và AI, đã phát hành một bảng benchmark so sánh các trợ lý lập trình bao gồm GPT-5.5, Claude Opus 4.7 và DeepSeek V4. Phát hiện then chốt: GPT-5.5 đánh dấu lần đầu tiên OpenAI quay trở lại tuyến đầu trong các mô hình lập trình trong vòng sáu tháng, với các kỹ sư của SemiAnalysis hiện đang luân phiên giữa Codex và Claude Code sau trước đó gần như chỉ dựa vào Claude. GPT-5.5 dựa trên một cách tiếp cận huấn luyện trước mới được mã danh "Spud" và thể hiện lần mở rộng quy mô huấn luyện trước đầu tiên của OpenAI kể từ GPT-4.5. Trong thử nghiệm thực tế, một sự phân công rõ ràng đã xuất hiện. Claude đảm nhiệm lập kế hoạch dự án mới và thiết lập ban đầu, trong khi Codex tỏ ra xuất sắc trong việc sửa các lỗi đòi hỏi nhiều suy luận. Codex thể hiện khả năng hiểu cấu trúc dữ liệu tốt hơn và lý luận logic mạnh hơn nhưng gặp khó khăn trong việc suy ra ý định người dùng mơ hồ. Trong một tác vụ trên cùng một bảng điều khiển, Claude tự động tái tạo bố cục trang tham chiếu nhưng bịa ra một lượng lớn dữ liệu, trong khi Codex bỏ qua bố cục nhưng lại cung cấp lượng dữ liệu chính xác hơn đáng kể. Bài phân tích tiết lộ chi tiết thao túng benchmark: Bài đăng blog của OpenAI hồi tháng 2 đã kêu gọi ngành áp dụng SWE-bench Pro làm tiêu chuẩn mới cho các benchmark lập trình. Tuy nhiên, thông báo của GPT-5.5 đã chuyển sang một benchmark mới có tên "Expert-SWE." Lý do, được chôn trong các chi tiết nhỏ, là GPT-5.5 đã bị Opus 4.7 vượt qua trên SWE-bench Pro và thua kém đáng kể so với Mythos 77.8% chưa được phát hành của Anthropic. Về Opus 4.7, Anthropic đã công bố một bài phân tích hậu kiểm một tuần sau khi phát hành, thừa nhận ba lỗi trong Claude Code đã tồn tại trong nhiều tuần từ tháng 3 đến tháng 4, ảnh hưởng đến gần như tất cả người dùng. Trước đó, nhiều kỹ sư đã báo cáo sự suy giảm hiệu năng ở phiên bản 4.6 nhưng bị bác bỏ như những quan sát chủ quan. Ngoài ra, bộ mã thông báo (tokenizer) mới của Opus 4.7 làm tăng số lượng token lên đến 35%, điều mà Anthropic đã công khai thừa nhận—thực chất tương đương với một đợt tăng giá ẩn. DeepSeek V4 được đánh giá là "theo kịp với tuyến đầu nhưng không dẫn đầu," định vị mình là lựa chọn thay thế có chi phí thấp nhất trong số các mô hình nguồn đóng. Bài phân tích cũng ghi nhận rằng "Claude tiếp tục vượt trội DeepSeek V4 Pro trên các tác vụ viết tiếng Trung có độ khó cao," và bình luận rằng "Claude đã thắng mô hình Trung Quốc ngay trên chính ngôn ngữ của nó." Bài viết đưa ra một khái niệm quan trọng: nên đánh giá giá mô hình theo "chi phí cho mỗi tác vụ" thay vì "chi phí cho mỗi token." Giá của GPT-5.5 gấp đôi so với GPT-5.4 input $5, output per million tokens, nhưng nó hoàn thành các tác vụ tương tự bằng ít token hơn, vì vậy chi phí thực tế không nhất thiết cao hơn. Dữ liệu ban đầu của SemiAnalysis cho thấy tỉ lệ đầu vào/đầu ra của Codex là 80:1, thấp hơn tỉ lệ 100:1 của Claude Code.

GateNews41phút trước

Giám đốc điều hành Google DeepMind: Mọi công ty sản phẩm AI đều nên xây dựng các bộ chuẩn tùy chỉnh

Tin tức Gate ngày 27 tháng 4 — Logan Kilpatrick, quản lý sản phẩm cấp cao tại Google DeepMind và là người phụ trách sản phẩm của Google AI Studio, cho biết trên X rằng mọi công ty đang xây dựng các sản phẩm dựa trên AI đều nên thiết lập các bộ chuẩn tùy chỉnh của riêng mình để đo hiệu suất của mô hình AI. Ông mô tả đây là một cách để

GateNews1giờ trước
Bình luận
0/400
Không có bình luận