Động thái này nối tiếp thành công của Mistral về mô hình mã nguồn mở, dù công ty từng chịu phê bình từ cộng đồng nhà phát triển trên mạng xã hội X sau khi tung mô hình thương mại “Medium 3.” Với bản phát hành Devstral, Mistral tái khẳng định cam kết với cộng đồng mã nguồn mở và mục tiêu “trao quyền” cho lĩnh vực AI trong phát triển phần mềm (software engineering).
Nguồn gốc: “Codestral” và bước tiến của Devstral
Devstral là giai đoạn tiếp theo của loạt mô hình tập trung vào mã do Mistral phát triển. Trước đây, công ty ra mắt Codestral (tháng 5/2024) – mô hình 22 tỉ tham số chuyên xử lý khoảng 80 ngôn ngữ lập trình và được ưa chuộng cho tác vụ sinh mã và gợi ý. Sau đó, Mistral liên tục nâng cấp, tung Codestral-Mamba và bản Codestral 25.01, thu hút sự quan tâm của cộng đồng tích hợp vào IDE và doanh nghiệp.
Giờ đây, Devstral không chỉ là mô hình sinh mã mà còn tích hợp “agentic,” có thể tương tác với các thư viện kiểm thử, điều hướng source code quy mô lớn và xử lý những tác vụ phức tạp trong phát triển phần mềm.
Kết quả: Vượt trội mô hình lớn ở “SWE-Bench Verified”
Mistral cho biết Devstral ghi điểm 46,8% trên chuẩn SWE-Bench Verified (500 vấn đề thực tế từ GitHub đã được xác thực thủ công). Đây là mức cao nhất so với các mô hình mã nguồn mở và đứng trên một vài mô hình “đóng,” bao gồm GPT-4.1-mini (thấp hơn 20 điểm).
“Hiện tại, nó vượt qua mọi mô hình mã nguồn mở khác về khả năng ‘tác tử’ dành cho code, đồng thời chỉ dùng 24 tỉ tham số — bạn có thể chạy cục bộ, kể cả trên MacBook,” ông Baptiste Rozière, nhà nghiên cứu tại Mistral AI chia sẻ. Bên cạnh hiệu suất, Devstral còn được “miễn phí” sử dụng theo giấy phép Apache 2.0, cho phép doanh nghiệp và nhà phát triển tùy ý triển khai và thương mại hóa.
Thiết kế tối ưu cho kỷ nguyên “agentic AI”
Khác với mô hình LLM thông thường, Devstral được xây dựng cho các khung “agentic” như OpenHands, SWE-Agent hay OpenDevin. Các khung này cho phép mô hình tương tác, xét test case, duyệt file nguồn, thực hiện tác vụ đa bước trên dự án.
“Chúng tôi công bố cùng với OpenDevin, một scaffolding chuyên cho tác tử code,” Rozière giải thích. “Mô hình chúng tôi xây, khung là do họ tạo — gồm tập prompt và công cụ mô hình có thể dùng, kiểu như backend dành cho phát triển.”
Những điểm lưu ý:
- Devstral được huấn luyện qua nhiều giai đoạn, gồm tiền huấn luyện, tinh chỉnh có giám sát và RL.
- Mô hình có thể duy trì mạch ngữ cảnh đến 128.000 token, dùng tokenizer “Tekken” với “vocab” 131.000 từ.
- Hỗ trợ đầy đủ trên Hugging Face, Ollama, Kaggle, LM Studio, Unsloth, hoạt động ổn cùng vLLM, Transformers, Mistral Inference.
Khả năng triển khai và giấy phép cởi mở
Nhờ kích cỡ “chỉ 24B tham số,” Devstral dễ chạy cục bộ (chẳng hạn trên một GPU RTX 4090 hoặc máy Mac RAM 32GB), rất hữu ích cho tình huống dữ liệu nhạy cảm và ít tài nguyên. Đồng thời, giấy phép Apache 2.0 cho phép sử dụng và phát hành mô hình “không giới hạn” (kể cả mục đích thương mại).
Báo giá của Mistral cho API “Le Platforme” là 0,10 đô cho một triệu token đầu vào, 0,30 đô cho một triệu token đầu ra. Nhưng nếu muốn chạy cục bộ, người dùng có thể dùng các công cụ như OpenHands, tích hợp vào “luồng agentic” ngay trong codebase.
Theo Rozière, khi dùng nội bộ: “Bạn có thể yêu cầu sửa mã, cập nhật phiên bản thư viện. Mô hình biết tìm đúng vị trí mã và thực hiện thay đổi. Rất tiện.”
Nhìn về phía trước
Dù Devstral hiện ở giai đoạn “nghiên cứu,” Mistral cùng All Hands AI đang phát triển phiên bản lớn hơn, với nhiều chức năng hơn. Rozière khẳng định “sẽ luôn có khoảng cách giữa mô hình nhỏ và lớn,” nhưng “chúng ta đã tiến xa trong việc thu hẹp cách biệt.” Devstral có thể là bước đệm cho một tương lai “agentic,” nơi hệ thống code “tự trị” hỗ trợ viết và chỉnh sửa phần mềm ở quy mô lớn.
Với hiệu năng ấn tượng, giấy phép “mở,” cùng triết lý “tác tử,” Devstral hướng đến mục tiêu không chỉ dừng ở mô hình sinh mã, mà trở thành “nền tảng” cho hệ thống AI tự động hóa toàn bộ quy trình phát triển.