Gần đây, Sam Altman thông báo OpenAI đã ký kết thỏa thuận hợp tác với Bộ Quốc phòng Hoa Kỳ nhằm triển khai các mô hình AI của mình trong môi trường mạng đám mây mật. Thỏa thuận này tích hợp các nguyên tắc then chốt như “cấm giám sát quy mô lớn tại Hoa Kỳ” và “đảm bảo con người giữ vai trò chịu trách nhiệm đối với việc sử dụng vũ lực”. Dù đây là một hình thức hợp tác giữa doanh nghiệp và chính phủ, nhưng về bản chất, động thái này đánh dấu việc trí tuệ nhân tạo chính thức được tích hợp vào lõi của hệ thống an ninh quốc gia.

Nguồn ảnh: https://x.com/sama/status/2027578652477821175
Diễn biến này không chỉ đơn thuần là một bước triển khai kỹ thuật—mà còn đánh dấu bước ngoặt trong thiết kế thể chế, cấu trúc quyền lực và tương lai xã hội.
Trong những năm gần đây, các mô hình AI quy mô lớn chủ yếu được ứng dụng trong lĩnh vực tiêu dùng, dịch vụ doanh nghiệp và nghiên cứu khoa học. Việc triển khai chúng trong mạng lưới quốc phòng mật báo hiệu ba sự chuyển dịch lớn:
Altman nhấn mạnh hai nguyên tắc trọng yếu:
Bề ngoài, đây là động thái chủ động của các công ty công nghệ trong việc xác lập giới hạn đạo đức. Tuy nhiên, vấn đề đặt ra là: Khi AI được tích hợp sâu vào hệ thống an ninh quốc gia, các nguyên tắc này sẽ được diễn giải và thực thi thế nào trong các tình huống phức tạp?
Lịch sử cho thấy, khi công nghệ trở thành một phần của hệ thống chiến lược quốc gia, hướng phát triển của nó thường thay đổi. Yêu cầu về an ninh, hiệu quả và cạnh tranh có thể dần làm dịch chuyển các giới hạn ban đầu.
Hiện tại, các mô hình AI lớn về cơ bản là hệ thống dự đoán xác suất. Khi khả năng suy luận, vận dụng công cụ và thực hiện nhiệm vụ dài hạn được nâng cao, AI đang chuyển hóa căn bản:
Khi triển khai trong mạng lưới quốc phòng, mô hình AI có thể đảm nhận các vai trò như:
Các vai trò này không trực tiếp “kích hoạt vũ khí”, nhưng lại ảnh hưởng đến quy trình ra quyết định. Nói cách khác, dù “con người chịu trách nhiệm sử dụng vũ lực”, AI vẫn có thể trở thành yếu tố then chốt trong việc định hình quyết định.
Đây là sự chuyển dịch quan trọng: Dù quyền quyết định không trao cho AI, nhưng nền tảng logic của quyết định ngày càng phụ thuộc vào hệ thống AI.
Về lâu dài, sự phụ thuộc này có thể tạo ra tác động cấu trúc sâu sắc hơn so với việc ủy quyền trực tiếp.
Thỏa thuận quy định xây dựng các biện pháp bảo vệ kỹ thuật, triển khai mô hình độc quyền trong mạng đám mây và bổ sung Thiết bị Tăng cường Chức năng (FDE) để đảm bảo tuân thủ.
Các mục tiêu đặt ra bao gồm:
Thách thức là ranh giới kiểm soát kỹ thuật thường thay đổi khi yêu cầu biến động.
Ví dụ:
Trong hệ thống phức tạp, rủi ro hiếm khi xuất phát từ một điểm duy nhất mà đến từ sự tích lũy chức năng. Khi mô hình tích hợp dữ liệu liên ngành, dù từng nhiệm vụ hợp pháp, tổng thể lại có thể tạo ra động lực quyền lực mới.
Vì vậy, “biện pháp bảo vệ kỹ thuật” không phải là giải pháp cuối cùng mà là quá trình thương lượng liên tục.
Huấn luyện và triển khai AI đòi hỏi nguồn lực tính toán và dữ liệu khổng lồ, tạo ra ưu thế về quy mô và rào cản vốn cho các mô hình lớn. Khi an ninh quốc gia trở thành kịch bản ứng dụng, xu hướng tập trung này càng được củng cố:
Điều này dự báo tương lai AI sẽ phát triển về phía mô hình mà năng lực cốt lõi bị kiểm soát bởi một số ít chủ thể.
Tính mở của công nghệ có thể mâu thuẫn với thực tế tập trung trong triển khai.
Nếu AI trở thành hạ tầng quốc gia, mô hình vận hành sẽ giống các lĩnh vực điện lực, viễn thông hoặc thanh toán tài chính, thay vì hệ sinh thái phần mềm mã nguồn mở.

Dựa trên xu hướng hiện tại, có thể dự báo ba hướng tiến hóa dài hạn.
Trong kịch bản này, AI đóng vai trò như bộ khuếch đại nhận thức thay vì thay thế quyền lực.
Lộ trình này không dẫn đến mất kiểm soát đột ngột mà dần biến đổi cấu trúc quyền lực.
Nếu thực sự xuất hiện trí tuệ nhân tạo tổng quát (AGI), năng suất và năng lực nhận thức có thể thay đổi về chất. Tuy nhiên, hiện chưa có bằng chứng cho thấy giai đoạn này cận kề.
Sự phát triển năng lực của AI là xu hướng công nghệ, nhưng định hướng phụ thuộc vào bốn biến số quan trọng:
Khi doanh nghiệp công nghệ và hệ thống quốc phòng hợp tác sâu, công nghệ trở thành tài sản chiến lược thay vì chỉ là hàng hóa thị trường.
Vấn đề không nằm ở sự hợp tác, mà là:
Nếu quá trình thể chế hóa không bắt kịp tốc độ phát triển công nghệ, rủi ro dài hạn không phải là mất kiểm soát mà là tập trung quyền lực.
Trí tuệ nhân tạo hiện là yếu tố trung tâm trong cạnh tranh địa chính trị toàn cầu.
Các quốc gia đang tăng tốc sáng kiến về:
Trong bối cảnh này, hợp tác giữa doanh nghiệp và chính phủ gần như là điều không thể tránh khỏi. Từ chối hợp tác sẽ không thể ngăn cản cuộc đua công nghệ toàn cầu.
Do đó, vấn đề không phải là “có hợp tác hay không”, mà là “hợp tác như thế nào”. Nếu các nguyên tắc an ninh được thể chế hóa, minh bạch và kiểm toán được, mô hình hợp tác này có thể trở thành hình mẫu trách nhiệm. Nếu nguyên tắc chỉ là tuyên ngôn mà thiếu cơ chế giám sát độc lập, rủi ro sẽ tăng song song với năng lực.
Khi AI dần đảm nhận vai trò nhận thức và phân tích, trách nhiệm của con người sẽ chuyển dịch:
Đây là sự dịch chuyển trung tâm quyền lực. Thách thức thực sự không phải là máy móc thông minh hơn con người, mà là liệu con người có sẵn sàng nhận trách nhiệm tối hậu. Nếu quyền phán xét ngày càng được ủy thác cho mô hình, thì dù “quyền quyết định cuối cùng” vẫn thuộc về con người về mặt hình thức, thực tế quyết định sẽ bị công nghệ dẫn dắt.
Những yếu tố này sẽ quyết định AI trở thành hạ tầng công cộng hay công cụ củng cố quyền lực.
Altman nhận định: “Thế giới phức tạp, hỗn loạn và đôi khi nguy hiểm.” Nhận định này lý giải động lực hợp tác: Trong thời kỳ bất định gia tăng, các quốc gia tìm kiếm lợi thế công nghệ.
Điều có ý nghĩa then chốt là: Sức mạnh công nghệ không đồng nghĩa với sự trưởng thành thể chế. Tương lai AI không phải là tuyến tính mà là sự tương tác động giữa công nghệ, vốn, chính phủ và xã hội. AI có thể trở thành hạ tầng nhận thức hoặc bộ khuếch đại quyền lực. Quỹ đạo cuối cùng phụ thuộc vào cách nhân loại thiết kế quy tắc, phân bổ trách nhiệm và duy trì minh bạch.
Việc AI tham gia vào mạng lưới mật không phải là điểm kết thúc—mà chỉ là khởi đầu. Thách thức thực sự nằm ở việc liệu ranh giới có còn rõ ràng và thực thi được khi năng lực tiếp tục mở rộng.





