(MENAFN- The Conversation) Tám tháng trước vụ xả súng hàng loạt tại Tumbler Ridge, OpenAI đã biết có điều gì đó không ổn. Hệ thống đánh giá tự động của công ty đã cảnh báo tài khoản ChatGPT của Jesse Van Rootselaar về các tương tác liên quan đến các kịch bản bạo lực súng đạn. Khoảng một tá nhân viên đã biết. Một số người đề xuất liên hệ cảnh sát. Thay vào đó, OpenAI đã cấm tài khoản này, nhưng không chuyển hồ sơ cho cơ quan thực thi pháp luật vì vào thời điểm đó chưa đạt “ngưỡng cần thiết”.
Vào ngày 10 tháng 2, Van Rootselaar đã giết tám người (mẹ cô, anh trai nửa huyết thống 11 tuổi và sáu người khác tại Trường Trung học Tumbler Ridge) rồi tự sát bằng vết thương tự gây ra.
Vụ việc này không chỉ đơn thuần về một sự đánh giá sai lầm của một công ty. Nó phơi bày sự thiếu hụt của bất kỳ khung pháp lý nào của Canada để xác định trách nhiệm khi một công ty AI có thông tin có thể ngăn chặn bạo lực.
Là một nhà nghiên cứu về đạo đức sức khỏe và quản trị AI tại Đại học Simon Fraser, tôi nghiên cứu cách các hệ thống thuật toán định hình quyết định trong các môi trường có rủi ro cao. Thảm họa Tumbler Ridge nằm đúng ở điểm giao nhau này: một tập đoàn tư nhân đã thực hiện một đánh giá rủi ro theo kiểu lâm sàng mà họ không đủ khả năng để thực hiện, trong một môi trường pháp lý không cung cấp hướng dẫn rõ ràng.
Vấn đề về lời thú tội kỹ thuật số
Chatbot AI tạo sinh không phải là mạng xã hội. Mạng xã hội hoạt động như một quảng trường công cộng nơi các bài đăng có thể được theo dõi và báo cáo bởi người dùng khác. Các tương tác với chatbot là riêng tư, thân mật và được thiết kế để thân thiện. Người dùng thường xuyên tiết lộ nỗi sợ hãi, ảo tưởng và ý định bạo lực với các hệ thống được xây dựng để phản hồi bằng sự ấm áp của cuộc trò chuyện.
Trong thực hành lâm sàng, loại tiết lộ này kích hoạt một nghĩa vụ đã được thiết lập rõ ràng. Nguyên tắc Tarasoff, được các tỉnh của Canada áp dụng qua luật pháp về sức khỏe tâm thần, bắt buộc các nhà trị liệu phải cảnh báo nếu họ xác định rằng bệnh nhân có mối đe dọa đáng tin cậy đối với một người rõ ràng, ngay cả khi điều đó vi phạm sự bí mật. Nhưng nghĩa vụ đó dựa trên phán đoán lâm sàng của các chuyên gia được đào tạo, hiểu rõ sự khác biệt giữa ý tưởng và ý định.
Có thể nói, OpenAI đã cố gắng phản chiếu tiêu chuẩn lâm sàng này. Nhưng những người đưa ra đánh giá này là kỹ sư phần mềm và người kiểm duyệt nội dung, không phải nhà tâm lý pháp y. Chính công ty cũng thừa nhận sự căng thẳng này, trích dẫn các rủi ro của “quá mức thực thi” và sự lo lắng về các cuộc gặp cảnh sát không báo trước đối với giới trẻ.
Câu hỏi thực sự không phải là liệu lý luận của OpenAI có thể biện hộ được hay không. Mà là liệu một công ty tư nhân có nên tự quyết định điều này hay không.
Một khoảng trống nơi luật pháp cần có
Bộ trưởng AI liên bang Evan Solomon, người dự định gặp đại diện của OpenAI vào ngày 24 tháng 2 về vấn đề này, đã nói vào ngày 21 tháng 2 rằng ông “rất lo ngại” về các tiết lộ này, và thêm rằng chính phủ liên bang đang xem xét “một loạt các biện pháp” và “tất cả các phương án đều đang được xem xét.” Nhưng các phương án đó vẫn chưa rõ ràng vì các công cụ lập pháp có thể đã giúp họ không còn tồn tại nữa.
Luật về Trí tuệ nhân tạo và Dữ liệu, nằm trong dự luật C-27, được xem là câu trả lời của Canada cho quy định về AI. Luật về Tác hại Trực tuyến (Dự luật C-63) sẽ giải quyết nội dung số độc hại. Cả hai đều đã chết trên bảng dự luật khi Quốc hội bị đình hoãn vào tháng 1 năm 2025.
Điều còn lại là một bộ quy tắc ứng xử tự nguyện không có hiệu lực pháp lý và không có hậu quả nếu không tuân thủ. Khi OpenAI cảnh báo tài khoản của Van Rootselaar, nghĩa vụ duy nhất của họ là theo chính sách nội bộ. Việc cấm tài khoản đã giải quyết trách nhiệm của công ty nhưng lại khiến một người có ý định bạo lực bị cô lập khỏi bất kỳ con đường can thiệp nào.
Luật bảo vệ quyền riêng tư của Canada còn làm phức tạp vấn đề hơn. Luật Bảo vệ Thông tin Cá nhân và Tài liệu Điện tử (PIPEDA) có một ngoại lệ khẩn cấp: điều 7(3)(e) cho phép tiết lộ mà không cần sự đồng ý “đến người cần thông tin vì một tình huống khẩn cấp đe dọa đến tính mạng, sức khỏe hoặc an ninh của cá nhân.” Nhưng quy định này được soạn thảo cho các tình huống rõ ràng, không phải cho các chỉ số đe dọa xác suất mà các tương tác chatbot AI tạo ra. Đối với một tập đoàn nước ngoài điều hướng sự mơ hồ này, sự không chắc chắn ủng hộ hành động không làm gì cả.
Điều Canada cần bây giờ
Chương trình quản trị kỹ thuật số tiếp theo của Canada phải nhận thức rõ rằng các tương tác giữa con người và AI về cơ bản khác biệt so với các bài đăng trên mạng xã hội. Ba yếu tố thiết yếu là:
Luật pháp ràng buộc với các ngưỡng pháp lý rõ ràng để các công ty AI phải chuyển các tương tác bị cảnh báo cho cơ quan chức năng. Các ngưỡng này cần được xây dựng cùng các chuyên gia về sức khỏe tâm thần, thực thi pháp luật và quyền riêng tư, chứ không để các tập đoàn cá nhân quyết định.
Một ủy ban an toàn kỹ thuật số độc lập như một cơ quan phân loại thứ ba. Khi một công ty AI xác định các tương tác cực kỳ đáng lo ngại, họ nên chuyển hồ sơ cho các chuyên gia đánh giá mối đe dọa đã được đào tạo thay vì tự quyết hoặc kích hoạt phản ứng cảnh sát vũ trang ngay lập tức.
Luật quyền riêng tư hiện đại hóa, cung cấp rõ ràng về pháp lý cho việc tiết lộ liên quan đến AI, giải quyết sự mơ hồ hiện tại khiến việc không hành động trở thành lựa chọn dễ dàng hơn.
Tại hội nghị AI diễn ra ở New Delhi từ ngày 16 đến 20 tháng 2, 86 quốc gia, bao gồm Canada, đã cam kết thúc đẩy “AI an toàn, đáng tin cậy và mạnh mẽ.” Tuy nhiên, không có cam kết cụ thể nào được đưa ra. Sam Altman của OpenAI nhấn mạnh tính cấp bách của quy định AI quốc tế và đề xuất thành lập một tổ chức quốc tế về tiêu chuẩn an toàn AI dựa trên mô hình của Cơ quan Năng lượng Nguyên tử Quốc tế, một điều trớ trêu không bị bỏ qua đối với những ai theo dõi các tiết lộ tại Tumbler Ridge.
Bộ trưởng Solomon nói rằng tất cả các phương án đều đang được xem xét. Các gia đình nạn nhân vụ xả súng, những người sống sót và cộng đồng bị tàn phá tại Tumbler Ridge đang sống với cái giá của việc để các lựa chọn quy định còn bỏ ngỏ quá lâu.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nguy hiểm đã được cảnh báo, nhưng không được báo cáo: Những gì Thảm kịch Tumbler Ridge tiết lộ về khoảng trống quản trị AI của Canada
(MENAFN- The Conversation) Tám tháng trước vụ xả súng hàng loạt tại Tumbler Ridge, OpenAI đã biết có điều gì đó không ổn. Hệ thống đánh giá tự động của công ty đã cảnh báo tài khoản ChatGPT của Jesse Van Rootselaar về các tương tác liên quan đến các kịch bản bạo lực súng đạn. Khoảng một tá nhân viên đã biết. Một số người đề xuất liên hệ cảnh sát. Thay vào đó, OpenAI đã cấm tài khoản này, nhưng không chuyển hồ sơ cho cơ quan thực thi pháp luật vì vào thời điểm đó chưa đạt “ngưỡng cần thiết”.
Vào ngày 10 tháng 2, Van Rootselaar đã giết tám người (mẹ cô, anh trai nửa huyết thống 11 tuổi và sáu người khác tại Trường Trung học Tumbler Ridge) rồi tự sát bằng vết thương tự gây ra.
Vụ việc này không chỉ đơn thuần về một sự đánh giá sai lầm của một công ty. Nó phơi bày sự thiếu hụt của bất kỳ khung pháp lý nào của Canada để xác định trách nhiệm khi một công ty AI có thông tin có thể ngăn chặn bạo lực.
Là một nhà nghiên cứu về đạo đức sức khỏe và quản trị AI tại Đại học Simon Fraser, tôi nghiên cứu cách các hệ thống thuật toán định hình quyết định trong các môi trường có rủi ro cao. Thảm họa Tumbler Ridge nằm đúng ở điểm giao nhau này: một tập đoàn tư nhân đã thực hiện một đánh giá rủi ro theo kiểu lâm sàng mà họ không đủ khả năng để thực hiện, trong một môi trường pháp lý không cung cấp hướng dẫn rõ ràng.
Vấn đề về lời thú tội kỹ thuật số
Chatbot AI tạo sinh không phải là mạng xã hội. Mạng xã hội hoạt động như một quảng trường công cộng nơi các bài đăng có thể được theo dõi và báo cáo bởi người dùng khác. Các tương tác với chatbot là riêng tư, thân mật và được thiết kế để thân thiện. Người dùng thường xuyên tiết lộ nỗi sợ hãi, ảo tưởng và ý định bạo lực với các hệ thống được xây dựng để phản hồi bằng sự ấm áp của cuộc trò chuyện.
Trong thực hành lâm sàng, loại tiết lộ này kích hoạt một nghĩa vụ đã được thiết lập rõ ràng. Nguyên tắc Tarasoff, được các tỉnh của Canada áp dụng qua luật pháp về sức khỏe tâm thần, bắt buộc các nhà trị liệu phải cảnh báo nếu họ xác định rằng bệnh nhân có mối đe dọa đáng tin cậy đối với một người rõ ràng, ngay cả khi điều đó vi phạm sự bí mật. Nhưng nghĩa vụ đó dựa trên phán đoán lâm sàng của các chuyên gia được đào tạo, hiểu rõ sự khác biệt giữa ý tưởng và ý định.
Có thể nói, OpenAI đã cố gắng phản chiếu tiêu chuẩn lâm sàng này. Nhưng những người đưa ra đánh giá này là kỹ sư phần mềm và người kiểm duyệt nội dung, không phải nhà tâm lý pháp y. Chính công ty cũng thừa nhận sự căng thẳng này, trích dẫn các rủi ro của “quá mức thực thi” và sự lo lắng về các cuộc gặp cảnh sát không báo trước đối với giới trẻ.
Câu hỏi thực sự không phải là liệu lý luận của OpenAI có thể biện hộ được hay không. Mà là liệu một công ty tư nhân có nên tự quyết định điều này hay không.
Một khoảng trống nơi luật pháp cần có
Bộ trưởng AI liên bang Evan Solomon, người dự định gặp đại diện của OpenAI vào ngày 24 tháng 2 về vấn đề này, đã nói vào ngày 21 tháng 2 rằng ông “rất lo ngại” về các tiết lộ này, và thêm rằng chính phủ liên bang đang xem xét “một loạt các biện pháp” và “tất cả các phương án đều đang được xem xét.” Nhưng các phương án đó vẫn chưa rõ ràng vì các công cụ lập pháp có thể đã giúp họ không còn tồn tại nữa.
Luật về Trí tuệ nhân tạo và Dữ liệu, nằm trong dự luật C-27, được xem là câu trả lời của Canada cho quy định về AI. Luật về Tác hại Trực tuyến (Dự luật C-63) sẽ giải quyết nội dung số độc hại. Cả hai đều đã chết trên bảng dự luật khi Quốc hội bị đình hoãn vào tháng 1 năm 2025.
Điều còn lại là một bộ quy tắc ứng xử tự nguyện không có hiệu lực pháp lý và không có hậu quả nếu không tuân thủ. Khi OpenAI cảnh báo tài khoản của Van Rootselaar, nghĩa vụ duy nhất của họ là theo chính sách nội bộ. Việc cấm tài khoản đã giải quyết trách nhiệm của công ty nhưng lại khiến một người có ý định bạo lực bị cô lập khỏi bất kỳ con đường can thiệp nào.
Luật bảo vệ quyền riêng tư của Canada còn làm phức tạp vấn đề hơn. Luật Bảo vệ Thông tin Cá nhân và Tài liệu Điện tử (PIPEDA) có một ngoại lệ khẩn cấp: điều 7(3)(e) cho phép tiết lộ mà không cần sự đồng ý “đến người cần thông tin vì một tình huống khẩn cấp đe dọa đến tính mạng, sức khỏe hoặc an ninh của cá nhân.” Nhưng quy định này được soạn thảo cho các tình huống rõ ràng, không phải cho các chỉ số đe dọa xác suất mà các tương tác chatbot AI tạo ra. Đối với một tập đoàn nước ngoài điều hướng sự mơ hồ này, sự không chắc chắn ủng hộ hành động không làm gì cả.
Điều Canada cần bây giờ
Chương trình quản trị kỹ thuật số tiếp theo của Canada phải nhận thức rõ rằng các tương tác giữa con người và AI về cơ bản khác biệt so với các bài đăng trên mạng xã hội. Ba yếu tố thiết yếu là:
Luật pháp ràng buộc với các ngưỡng pháp lý rõ ràng để các công ty AI phải chuyển các tương tác bị cảnh báo cho cơ quan chức năng. Các ngưỡng này cần được xây dựng cùng các chuyên gia về sức khỏe tâm thần, thực thi pháp luật và quyền riêng tư, chứ không để các tập đoàn cá nhân quyết định.
Một ủy ban an toàn kỹ thuật số độc lập như một cơ quan phân loại thứ ba. Khi một công ty AI xác định các tương tác cực kỳ đáng lo ngại, họ nên chuyển hồ sơ cho các chuyên gia đánh giá mối đe dọa đã được đào tạo thay vì tự quyết hoặc kích hoạt phản ứng cảnh sát vũ trang ngay lập tức.
Luật quyền riêng tư hiện đại hóa, cung cấp rõ ràng về pháp lý cho việc tiết lộ liên quan đến AI, giải quyết sự mơ hồ hiện tại khiến việc không hành động trở thành lựa chọn dễ dàng hơn.
Tại hội nghị AI diễn ra ở New Delhi từ ngày 16 đến 20 tháng 2, 86 quốc gia, bao gồm Canada, đã cam kết thúc đẩy “AI an toàn, đáng tin cậy và mạnh mẽ.” Tuy nhiên, không có cam kết cụ thể nào được đưa ra. Sam Altman của OpenAI nhấn mạnh tính cấp bách của quy định AI quốc tế và đề xuất thành lập một tổ chức quốc tế về tiêu chuẩn an toàn AI dựa trên mô hình của Cơ quan Năng lượng Nguyên tử Quốc tế, một điều trớ trêu không bị bỏ qua đối với những ai theo dõi các tiết lộ tại Tumbler Ridge.
Bộ trưởng Solomon nói rằng tất cả các phương án đều đang được xem xét. Các gia đình nạn nhân vụ xả súng, những người sống sót và cộng đồng bị tàn phá tại Tumbler Ridge đang sống với cái giá của việc để các lựa chọn quy định còn bỏ ngỏ quá lâu.