Mira Network: Thử nghiệm âm thầm nhằm kiểm chứng độ tin cậy của AI

Trong vài năm gần đây, trí tuệ nhân tạo phát triển với tốc độ đáng kinh ngạc. Các mô hình ngày càng thông minh hơn, câu trả lời ngày càng tự nhiên và công cụ AI xuất hiện ở khắp mọi lĩnh vực. Tuy nhiên, đằng sau sự tiến bộ đó vẫn tồn tại một vấn đề khiến nhiều nhà phát triển AI cảm thấy khó chịu: AI có thể tự tin đưa ra những câu trả lời sai. Không chỉ là những lỗi nhỏ vô hại, đôi khi AI tạo ra thông tin sai nhưng lại được trình bày rất thuyết phục. Điều này khiến người dùng dễ tin tưởng vào những nội dung thực chất không hề tồn tại. Bất kỳ ai từng làm việc với các mô hình ngôn ngữ đều đã gặp tình huống này. Ví dụ, khi yêu cầu AI cung cấp tài liệu nghiên cứu, nó có thể tạo ra một trích dẫn được định dạng rất chuẩn… nhưng bài nghiên cứu đó chưa từng tồn tại. Hoặc khi hỏi về một thư viện lập trình, AI có thể “sáng tạo” ra một hàm có vẻ hợp lý, nhưng khi thử chạy thì hoàn toàn không hoạt động. Điều này không có nghĩa AI cố tình nói dối. Các mô hình chỉ đơn giản dự đoán chuỗi từ có khả năng xuất hiện cao nhất dựa trên dữ liệu huấn luyện Vì vậy, sự chính xác không phải lúc nào cũng được đảm bảo. Chính khoảng cách giữa sự thông minh và độ tin cậy này là nơi @mira_network xuất hiện. Một hướng tiếp cận khác cho vấn đề AI Thay vì cố gắng xây dựng một mô hình AI thông minh hơn, Mira Network tập trung vào một nhiệm vụ khác: kiểm tra xem câu trả lời của AI có thực sự đúng hay không trước khi người dùng tin vào nó. Ý tưởng của #Mira khá đơn giản nhưng rất thú vị. Khi một hệ thống AI tạo ra câu trả lời, kết quả đó không được gửi ngay cho người dùng. Thay vào đó, nó sẽ đi qua một quá trình xác minh (verification). Trong quá trình này, nhiều validator độc lập sẽ phân tích các tuyên bố hoặc dữ liệu trong câu trả lời để kiểm tra độ chính xác. Các validator này có thể sử dụng những mô hình AI khác nhau hoặc các hệ thống kiểm chứng riêng để đánh giá thông tin. Nếu phần lớn validator đồng ý rằng câu trả lời đáng tin cậy, kết quả sẽ được chấp nhận. Nếu phát hiện mâu thuẫn hoặc thiếu bằng chứng, câu trả lời có thể bị đánh dấu hoặc bị loại bỏ. Mục tiêu là mang lại cho AI một yếu tố mà trước đây nó thường thiếu: trách nhiệm giải trình (accountability). Vai trò của blockchain trong hệ thống Blockchain xuất hiện trong Mira Network không chỉ để “gắn mác crypto”. Nó đóng vai trò là nền tảng giúp hệ thống hoạt động theo cách phi tập trung. Những người tham gia mạng lưới có thể vận hành node xác minh để kiểm tra kết quả của AI. Khi họ thực hiện xác minh chính xác và trung thực, họ sẽ nhận được phần thưởng token. Ngược lại, nếu cố tình gian lận hoặc thao túng kết quả, họ có thể bị phạt về mặt kinh tế. Cơ chế này khá quen thuộc với những ai hiểu cách blockchain hoạt động. Trong Bitcoin, miner xác nhận giao dịch tài chính.Trong Mira Network, validator xác nhận độ chính xác của thông tin do AI tạo ra. Nói cách khác, thay vì xác minh tiền, mạng lưới đang cố gắng xác minh tri thức do AI tạo ra. Vì sao vấn đề này ngày càng quan trọng? AI “hallucination” (ảo giác AI) đã gây ra nhiều tình huống thực tế đáng chú ý. Một trong những ví dụ nổi tiếng là khi các luật sư sử dụng AI để chuẩn bị hồ sơ pháp lý. AI đã tạo ra các trích dẫn vụ án trông hoàn toàn hợp lệ, nhưng sau đó người ta phát hiện rằng những vụ án đó chưa từng tồn tại. Những sự cố như vậy cho thấy một vấn đề cấu trúc của AI hiện nay: AI có thể tạo ra nội dung trông rất thuyết phục, nhưng lại không có cơ chế tự kiểm chứng sự thật. Khi AI ngày càng được sử dụng trong giáo dục, nghiên cứu, tài chính hay y tế, điểm yếu này trở nên khó bỏ qua. Mira Network cố gắng giải quyết vấn đề bằng cách coi mỗi câu trả lời của AI là một “tuyên bố” cần được kiểm tra, thay vì một thông tin mặc định đúng. Một phần của hệ sinh thái AI phi tập trung Trong vài năm gần đây, nhiều dự án blockchain bắt đầu thử nghiệm việc xây dựng hạ tầng cho AI phi tập trung. Một số mạng lưới tập trung vào: cung cấp sức mạnh tính toán phân tán cho việc huấn luyện AIxây dựng thị trường dữ liệu mở để chia sẻ và bán dữ liệu Trong hệ sinh thái đó, Mira Network chọn một hướng đi khác: xác minh đầu ra của AI. Nếu AI phi tập trung trong tương lai được xây dựng theo nhiều lớp, thì Mira đang cố gắng xây dựng lớp kiểm chứng độ tin cậy của thông tin. Những thách thức không dễ giải quyết Tuy nhiên, việc xác minh AI cũng không đơn giản. Trước hết, việc chạy nhiều mô hình AI để kiểm tra từng câu trả lời sẽ tốn thêm tài nguyên tính toán. Điều này có thể làm tăng chi phí vận hành và khiến tốc độ phản hồi chậm hơn so với một hệ thống AI đơn lẻ. Ngoài ra, các mạng lưới phi tập trung cũng phải đối mặt với vấn đề phối hợp. Các validator cần đánh giá thông tin độc lập nhưng vẫn phải tránh tình trạng thông đồng hoặc thao túng kết quả. Thiết kế hệ thống khuyến khích kinh tế để giữ cho mạng lưới trung thực là một bài toán phức tạp. Blockchain có thể giúp điều chỉnh lợi ích, nhưng nó không loại bỏ hoàn toàn mọi rủi ro. Một góc nhìn về tương lai của AI Dù còn nhiều thách thức, ý tưởng của Mira phản ánh một nhận thức ngày càng rõ ràng: AI đang trở nên quá quan trọng để hoạt động mà không có cơ chế kiểm chứng. Internet đã giải quyết vấn đề niềm tin trong các giao dịch tài chính. Nhờ mật mã học và blockchain, các mạng lưới phân tán có thể xác nhận quyền sở hữu tài sản mà không cần một trung gian duy nhất. Nhưng đối với thông tin, chúng ta vẫn chủ yếu dựa vào niềm tin vào các nền tảng, tổ chức hoặc trang web. AI đang làm thay đổi hệ thống đó vì máy móc có thể tạo ra nội dung nhanh hơn rất nhiều so với khả năng kiểm chứng của con người. Mira Network đang thử nghiệm điều gì? Mira Network không hẳn đang cố gắng xây dựng một AI tốt hơn. Thay vào đó, nó đang thử nghiệm một ý tưởng khác: AI cần có một hệ thống đứng phía sau để liên tục kiểm tra và xác nhận thông tin mà nó tạo ra. Cách tiếp cận này không loại bỏ hoàn toàn sai sót. Nhưng nó có thể giảm đáng kể khả năng thông tin sai lệch được truyền đi mà không bị phát hiện. Liệu Mira có thành công hay không vẫn còn là câu hỏi mở. Trong thế giới công nghệ, rất nhiều ý tưởng tham vọng đã dừng lại ở giai đoạn thử nghiệm. Tuy nhiên, câu hỏi mà Mira đặt ra có thể sẽ còn tồn tại rất lâu: Khi AI ngày càng tạo ra nhiều thông tin cho con người, ai — hoặc hệ thống nào — sẽ chịu trách nhiệm xác minh rằng thông tin đó là đúng? $MIRA

MIRA-1,22%
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim