Hiện tượng “ảo giác” (hallucination) trong AI đang trở thành mối đe dọa thực sự, nhất là khi các hệ thống trí tuệ nhân tạo ngày càng được sử dụng trong những quyết định sống còn từ chẩn đoán y tế cho đến lái xe tự động. Một spinout từ MIT có tên Themis AI đã tìm ra cách giúp AI nhận ra giới hạn của chính mình và biết nói “Tôi không chắc”.
Vấn đề: AI biết nhiều, nhưng không biết khi nào “không biết”
Tưởng tượng bạn có một người bạn luôn tự tin phát biểu, kể cả khi họ không thực sự hiểu vấn đề đó chính là cách nhiều mô hình AI hiện nay đang hoạt động. Chúng đưa ra kết luận với sự tự tin tuyệt đối, bất kể nền tảng dữ liệu có đáng tin hay không.
“Ảo giác” AI (hallucination) là hiện tượng mô hình tạo ra thông tin sai lệch nhưng vẫn thể hiện như thể đó là sự thật. Khi AI chỉ đơn giản là tổng hợp nội dung giải trí, việc này có thể bỏ qua. Nhưng nếu AI đang đưa ra kế hoạch điều trị ung thư hoặc hướng dẫn xe tự lái, thì việc “đoán bừa” có thể gây hậu quả nghiêm trọng.
Themis AI và nền tảng Capsa: Dạy AI biết khi nào nên dừng lại
Themis AI, ra đời năm 2021 từ nhóm nghiên cứu của Giáo sư Daniela Rus tại MIT, đã phát triển Capsa một nền tảng bổ trợ có thể tích hợp vào bất kỳ hệ thống AI nào để nhận diện khi mô hình đang bước vào “vùng nguy hiểm” về độ tin cậy.
Cách hoạt động của Capsa:
- Phân tích hành vi nội bộ của AI trong quá trình xử lý dữ liệu
- Nhận diện mẫu hình liên quan đến thiếu thông tin, lệch mẫu huấn luyện, hoặc nhiễu dữ liệu
- Tự động cảnh báo “vùng rủi ro cao” trước khi AI trả lời hoặc hành động
“Capsa không sửa lỗi cho AI nó giúp AI tự nhận ra khi có khả năng sai,” đại diện Themis chia sẻ.
Ứng dụng thực tế: Từ xe tự lái đến ngành dầu khí
Dù còn non trẻ, Themis AI đã được ứng dụng trong nhiều lĩnh vực đòi hỏi độ chính xác cực cao:
Ngành | Ứng dụng |
---|---|
Viễn thông | Ngăn chặn sai sót trong lập kế hoạch mạng lưới |
Dầu khí | Phân tích địa chấn phức tạp với cảnh báo độ tin cậy |
Chatbot doanh nghiệp | Tạo phản hồi chính xác + trung thực, tránh “chém gió” |
Y học và dược phẩm | Ưu tiên những thuốc AI thật sự chắc chắn về hiệu quả |
Đặc biệt, trong nghiên cứu dược phẩm, Themis AI giúp loại bỏ sớm các hợp chất mà AI “đoán bừa”, tiết kiệm hàng triệu USD trong thử nghiệm lâm sàng.
Nền tảng từ MIT: Hành trình từ Toyota đến y sinh học
Khởi nguồn từ một nghiên cứu do Toyota tài trợ vào năm 2018, nhóm của GS. Rus tập trung vào AI đáng tin cậy cho xe tự lái nơi mà 1 lỗi nhận diện có thể gây tai nạn chết người.
Một bước ngoặt quan trọng là khi họ phát hiện và tự động khắc phục thiên vị giới tính và sắc tộc trong hệ thống nhận diện khuôn mặt.
Bằng cách “gắn cờ” khi hệ thống có nguy cơ mắc sai lầm do dữ liệu không đầy đủ hoặc sai lệch, nhóm nghiên cứu đã xây dựng nên một lớp “ý thức tự đánh giá” cho AI tiền đề cho nền tảng Capsa.
Tăng cường năng lực AI trên thiết bị giới hạn
Một điểm mạnh khác của Themis AI là tăng cường hiệu quả cho AI chạy trên thiết bị biên (edge devices). Với dung lượng và khả năng xử lý hạn chế, thiết bị biên thường sử dụng mô hình nhỏ kém chính xác hơn. Nhưng nhờ Capsa:
- AI biết khi nào nên xử lý tại chỗ
- Khi nào nên gửi yêu cầu lên cloud để nhờ “mô hình lớn” xử lý
Điều này mở ra tương lai cho những thiết bị thông minh tiết kiệm chi phí nhưng vẫn đáng tin cậy.
Vì sao “biết không biết” là kỹ năng AI quan trọng nhất?
Những tiến bộ AI gần đây đang hướng đến năng lực hành động tự động (agentic AI). Trong bối cảnh đó, tự tin sai có thể còn nguy hiểm hơn im lặng đúng lúc.
“AI không chỉ cần thông minh nó cần học cách thừa nhận khi không chắc chắn. Đó là phẩm chất con người nhất mà công nghệ từng đạt được,” Giáo sư Daniela Rus, MIT.
Kết luận: Themis AI và chuẩn mực mới cho AI có đạo đức
Trong cuộc đua AI toàn cầu, nơi các mô hình được đánh giá bởi tốc độ và độ “sáng tạo”, Themis AI nhắc nhở ngành công nghệ rằng chất lượng và sự khiêm tốn cũng cần được tích hợp.
Nếu các mô hình có thể cảnh báo: “Tôi không chắc lắm về điều này, bạn nên kiểm tra thêm”, thì AI sẽ trở thành một cộng sự đáng tin cậy chứ không phải một “người bạn tự tin thái quá”.
Tìm hiểu thêm: https://chatgpt.com/