Báo cáo mới của Apple nhấn mạnh: AI hiện nay chỉ là công cụ bắt chước mô hình ngôn ngữ, không có khả năng suy luận thực sự và có thể sụp đổ hoàn toàn khi xử lý các tác vụ phức tạp.
Chỉ vài giờ trước khi sự kiện WWDC 2025 chính thức diễn ra, nhóm nghiên cứu của Apple đã công bố một báo cáo dài 32 trang mang tên “The Illusion of Thinking” (Ảo giác về tư duy), đặt ra một câu hỏi then chốt: Chúng ta đang tin vào thứ công nghệ thực sự hiểu vấn đề, hay chỉ đơn giản là một hệ thống giỏi bắt chước?
AI hiện đại chỉ “giả vờ biết suy nghĩ”?
Báo cáo của Apple so sánh hai nhóm mô hình: LLM (Large Language Model) và LRM (Large Reasoning Model) được triển khai bởi các công ty như OpenAI, Google DeepMind, Anthropic và DeepSeek.
Kết quả thử nghiệm chỉ ra:
- LLM hoạt động tốt với tác vụ đơn giản, còn LRM có ưu thế hơn ở cấp độ trung bình.
- Cả hai nhóm đều sụp đổ hoàn toàn khi đối mặt với những bài toán có độ phức tạp cao, dù có đủ số token để xử lý.
Apple gọi đây là hiện tượng “complete accuracy collapse” – tình trạng mô hình mất toàn bộ khả năng trả lời chính xác sau một ngưỡng độ phức tạp nhất định.
Báo cáo cũng chỉ ra rằng các mô hình này không sử dụng thuật toán rõ ràng, thiếu nhất quán trong suy luận, và chỉ đơn thuần cố gắng mô phỏng suy nghĩ chứ không thực sự suy nghĩ.
Thử thách thực sự: Sáng tạo và tổng quát hóa
Apple cho rằng: AI hiện nay không thể giải quyết vấn đề một cách sáng tạo hoặc trừu tượng hóa như con người. Thay vào đó, chúng bị giới hạn bởi khả năng phát hiện và tái sử dụng mẫu dữ liệu.
Điều này dẫn tới hai hệ quả nghiêm trọng:
- Khả năng đánh giá sai thông tin khi mô hình gặp dữ liệu giả, nhiễu hoặc chưa từng học.
- Nguy cơ lặp lại thiên kiến và sai lầm từ dữ liệu huấn luyện, vì thiếu tư duy phản biện và bối cảnh đạo đức.
Apple ngầm ám chỉ: Những hạn chế này cũng đang ảnh hưởng đến chính sản phẩm của họ
Trong buổi công bố kết quả tài chính mới đây, CEO Tim Cook thừa nhận rằng một số tính năng AI hứa hẹn tại WWDC 2024 đã bị trì hoãn vì chưa đạt tiêu chuẩn chất lượng.
Điều này đặt ra khả năng: Apple Intelligence hệ sinh thái AI nội bộ của Apple có thể đang chịu giới hạn bởi chính những rào cản mà nghiên cứu của họ mô tả.
Góc nhìn rộng hơn: Liệu chúng ta có đang đánh cược tương lai vào công nghệ “ảo giác”?
Không chỉ Apple lên tiếng. Chuyên gia Gary Marcus một trong những tiếng nói phản biện nổi bật nhất về AI hiện nay – cũng nhiều lần cảnh báo: GenAI không thật sự “hiểu” vấn đề. Thay vào đó, nó chỉ kết nối xác suất từ dữ liệu cũ để tạo ra kết quả có vẻ đúng.
Sự chênh lệch giữa lời hứa hẹn về AGI và khả năng thực tế của các mô hình hiện tại đang khiến nhiều nhà lãnh đạo công nghệ và doanh nghiệp bắt đầu giảm kỳ vọng và tìm hướng tiếp cận thận trọng hơn.
Hướng đi khả thi: Kết hợp con người máy móc, thay vì thay thế hoàn toàn
Theo báo cáo, thay vì phụ thuộc hoàn toàn vào AI, doanh nghiệp nên theo đuổi mô hình phát triển kết hợp (hybrid AI) tận dụng khả năng tính toán của AI, nhưng vẫn giữ vai trò then chốt của con người trong việc đánh giá, sáng tạo và kiểm tra kết quả.
Trong thời gian tới, Apple được kỳ vọng sẽ:
- Ra mắt Siri thế hệ mới với khả năng hội thoại tự nhiên hơn.
- Mở API Apple Intelligence để nhà phát triển tích hợp AI vào ứng dụng.
- Tiếp tục hợp tác với các hãng AI lớn như OpenAI, Google, Anthropic để tăng sức cạnh tranh.
Kết luận: AI chưa “thông minh” và chúng ta cần tỉnh táo
Apple đang gửi đi một thông điệp quan trọng: AI hôm nay chưa phải AGI, và nếu không cẩn thận, chúng ta có thể bị cuốn vào “ảo giác về sự hiểu biết” mà các mô hình đang tạo ra.
Với tốc độ triển khai AI vào mọi lĩnh vực từ chăm sóc sức khỏe, tài chính, giáo dục đến quản trị công câu hỏi lớn nhất không phải là AI có thể làm gì, mà là: liệu chúng ta đã sẵn sàng để hiểu giới hạn của nó chưa?
Tìm hiểu thêm: https://chatgpt.com/