Trong cuộc đua triển khai AI doanh nghiệp, một trở ngại liên tục cản trở con đường: ảo giác. Những phản hồi bịa đặt này từ các hệ thống AI đã gây ra mọi thứ, từ lệnh trừng phạt pháp lý đối với luật sư đến việc các công ty buộc phải tôn trọng các chính sách hư cấu.
Các tổ chức đã thử nhiều cách tiếp cận khác nhau để giải quyết thách thức ảo giác, bao gồm tinh chỉnh dữ liệu tốt hơn, thế hệ tăng cường truy xuất (RAG) và lan can . Công ty phát triển nguồn mở Oumi hiện đang cung cấp một cách tiếp cận mới, mặc dù có tên gọi hơi “sến”.
Tên công ty là từ viết tắt của Open Universal Machine Intelligence (Oumi). Công ty được lãnh đạo bởi các kỹ sư cũ của Apple và Google với sứ mệnh xây dựng một nền tảng AI nguồn mở vô điều kiện .
Vào ngày 2 tháng 4, công ty đã phát hành HallOumi, một mô hình xác minh yêu cầu mã nguồn mở được thiết kế để giải quyết vấn đề về độ chính xác thông qua một phương pháp tiếp cận mới để phát hiện ảo giác. Tất nhiên, Halloumi là một loại pho mát cứng, nhưng điều đó không liên quan gì đến tên của mô hình. Tên này là sự kết hợp của Hallucination và Oumi, mặc dù thời điểm phát hành gần Ngày Cá tháng Tư có thể khiến một số người nghi ngờ rằng bản phát hành là một trò đùa – nhưng nó không phải là trò đùa; nó là giải pháp cho một vấn đề rất thực tế.
“Ảo giác thường được coi là một trong những thách thức quan trọng nhất trong việc triển khai các mô hình tạo sinh”, Manos Koukoumidis, CEO của Oumi, nói với VentureBeat. “Cuối cùng, vấn đề nằm ở lòng tin—các mô hình tạo sinh được đào tạo để tạo ra các kết quả có khả năng xảy ra theo xác suất, nhưng không nhất thiết phải đúng”.
HallOumi hoạt động như thế nào để giải quyết ảo giác AI của doanh nghiệp
HallOumi phân tích nội dung do AI tạo ra theo từng câu. Hệ thống chấp nhận cả tài liệu nguồn và phản hồi của AI, sau đó xác định xem tài liệu nguồn có hỗ trợ từng tuyên bố trong phản hồi hay không.
“Những gì HallOumi làm là phân tích từng câu một cách độc lập,” Koukoumidis giải thích. “Đối với mỗi câu mà nó phân tích, nó sẽ cho bạn biết các câu cụ thể trong tài liệu đầu vào mà bạn nên kiểm tra, do đó bạn không cần phải đọc toàn bộ tài liệu để xác minh xem những gì [mô hình ngôn ngữ lớn] LLM nói là chính xác hay không.”
Mô hình cung cấp ba đầu ra chính cho mỗi câu được phân tích:
- Điểm số tin cậy cho biết khả năng bị ảo giác.
- Trích dẫn cụ thể liên kết các tuyên bố với bằng chứng hỗ trợ.
- Một lời giải thích dễ hiểu cho biết lý do tại sao tuyên bố đó được ủng hộ hoặc không được ủng hộ.
“Chúng tôi đã huấn luyện nó để trở nên rất tinh tế”, Koukoumidis cho biết. “Ngay cả đối với các nhà ngôn ngữ học của chúng tôi, khi mô hình đánh dấu một cái gì đó là ảo giác, ban đầu chúng tôi nghĩ rằng nó có vẻ đúng. Sau đó, khi bạn xem xét lý do, HallOumi chỉ ra chính xác lý do tinh tế tại sao nó là ảo giác—tại sao mô hình đưa ra một số loại giả định, hoặc tại sao nó không chính xác theo một cách rất tinh tế”.
Tích hợp HallOumi vào quy trình làm việc AI của doanh nghiệp
Hiện nay, có nhiều cách để sử dụng và tích hợp HallOumi với AI doanh nghiệp.
Một lựa chọn khác là dùng thử mô hình bằng một quy trình thủ công thông qua giao diện demo trực tuyến .

Một cách tiếp cận dựa trên API sẽ tối ưu hơn cho quy trình làm việc AI của doanh nghiệp và sản xuất. Manos giải thích rằng mô hình này hoàn toàn là mã nguồn mở và có thể được cắm vào quy trình làm việc hiện có, chạy cục bộ hoặc trên đám mây và sử dụng với bất kỳ LLM nào.
Quá trình này bao gồm việc cung cấp ngữ cảnh gốc và phản hồi của LLM cho HallOumi, sau đó xác minh đầu ra. Các doanh nghiệp có thể tích hợp HallOumi để thêm lớp xác minh vào hệ thống AI của họ, giúp phát hiện và ngăn ngừa ảo giác trong nội dung do AI tạo ra.
Oumi đã phát hành hai phiên bản: mô hình 8B tạo ra cung cấp phân tích chi tiết và mô hình phân loại chỉ cung cấp điểm số nhưng có hiệu quả tính toán cao hơn.
HallOumi so với RAG so với Guardrails để bảo vệ ảo giác AI cho doanh nghiệp
Điểm khiến HallOumi khác biệt so với các phương pháp tiếp cận cơ bản khác là cách nó bổ sung chứ không thay thế các kỹ thuật hiện có như RAG (tạo dữ liệu tăng cường thu thập) trong khi vẫn cung cấp khả năng phân tích chi tiết hơn so với các phương pháp thông thường.
“Tài liệu đầu vào mà bạn đưa qua LLM có thể là RAG,” Koukoumidis cho biết. “Trong một số trường hợp khác, nó không chính xác là RAG, vì mọi người nói, ‘Tôi không lấy bất cứ thứ gì. Tôi đã có tài liệu mà tôi quan tâm rồi. Tôi nói với bạn, đó là tài liệu mà tôi quan tâm. Hãy tóm tắt nó cho tôi.’ Vì vậy, HallOumi có thể áp dụng cho RAG nhưng không chỉ các tình huống RAG.”
Sự khác biệt này rất quan trọng vì trong khi RAG hướng đến mục tiêu cải thiện quá trình tạo dữ liệu bằng cách cung cấp bối cảnh có liên quan thì HallOumi xác minh đầu ra sau khi tạo dữ liệu bất kể bối cảnh đó được lấy như thế nào.
So với lan can, HallOumi cung cấp nhiều hơn là xác minh nhị phân. Phân tích cấp độ câu với điểm tin cậy và giải thích giúp người dùng hiểu chi tiết về nơi và cách xảy ra ảo giác.
HallOumi kết hợp một hình thức lý luận chuyên biệt vào phương pháp tiếp cận của mình.
“Chắc chắn có một biến thể lý luận mà chúng tôi đã thực hiện để tổng hợp dữ liệu,” Koukoumidis giải thích. “Chúng tôi hướng dẫn mô hình lý luận từng bước hoặc từng yêu cầu phụ, để suy nghĩ về cách phân loại yêu cầu lớn hơn hoặc câu lớn hơn để đưa ra dự đoán.”
Mô hình này cũng có thể phát hiện không chỉ ảo giác ngẫu nhiên mà cả thông tin sai lệch cố ý. Trong một cuộc trình diễn, Koukoumidis đã chỉ ra cách HallOumi xác định khi mô hình của DeepSeek bỏ qua nội dung Wikipedia được cung cấp và thay vào đó tạo ra nội dung giống như tuyên truyền về phản ứng của Trung Quốc đối với COVID-19.
Điều này có ý nghĩa gì đối với việc áp dụng AI của doanh nghiệp
Đối với các doanh nghiệp muốn dẫn đầu trong việc áp dụng AI, HallOumi cung cấp một công cụ có khả năng quan trọng để triển khai an toàn các hệ thống AI tạo sinh trong môi trường sản xuất.
“Tôi thực sự hy vọng điều này sẽ mở ra nhiều kịch bản”, Koukoumidis cho biết. “Nhiều doanh nghiệp không thể tin tưởng vào các mô hình của họ vì các triển khai hiện tại không thực sự tiện dụng hoặc hiệu quả. Tôi hy vọng HallOumi cho phép họ tin tưởng vào LLM của mình vì giờ đây họ có thứ gì đó để truyền đạt sự tự tin mà họ cần”.
Đối với các doanh nghiệp có tốc độ áp dụng AI chậm hơn, bản chất mã nguồn mở của HallOumi có nghĩa là họ có thể thử nghiệm công nghệ ngay bây giờ trong khi Oumi cung cấp các tùy chọn hỗ trợ thương mại khi cần.
Koukoumidis cho biết thêm: “Nếu bất kỳ công ty nào muốn tùy chỉnh HallOumi tốt hơn cho tên miền của họ hoặc có cách thương mại cụ thể nào đó để sử dụng HallOumi, chúng tôi luôn sẵn lòng giúp họ phát triển giải pháp”.
Khi các hệ thống AI tiếp tục phát triển, các công cụ như HallOumi có thể trở thành thành phần tiêu chuẩn của các ngăn xếp AI doanh nghiệp – cơ sở hạ tầng thiết yếu để phân biệt AI thực tế với hư cấu.