Thứ Năm, Tháng 6 19, 2025

Groq vừa làm cho Hugging Face nhanh hơn nhiều — và nó sẽ có trên AWS và Google

Công ty đã công bố vào thứ Hai rằng hiện tại họ hỗ trợ mô hình ngôn ngữ Qwen3 32B của Alibaba với cửa sổ ngữ cảnh 131.000 mã thông báo đầy đủ — một khả năng kỹ thuật mà họ tuyên bố không có nhà cung cấp suy luận nhanh nào khác có thể sánh kịp. Đồng thời, Groq đã trở thành nhà cung cấp suy luận chính thức trên nền tảng của Hugging Face , có khả năng giới thiệu công nghệ của mình đến hàng triệu nhà phát triển trên toàn thế giới.

Động thái này là nỗ lực táo bạo nhất của Groq cho đến nay nhằm chiếm lĩnh thị phần trong thị trường suy luận AI đang phát triển nhanh chóng, nơi các công ty như AWS Bedrock , Google Vertex AI và Microsoft Azure đã thống trị bằng cách cung cấp quyền truy cập thuận tiện vào các mô hình ngôn ngữ hàng đầu.

“Tích hợp Hugging Face mở rộng hệ sinh thái Groq, cung cấp cho các nhà phát triển sự lựa chọn và tiếp tục giảm rào cản gia nhập trong việc áp dụng suy luận AI nhanh chóng và hiệu quả của Groq”, một phát ngôn viên của Groq nói với VentureBeat. “Groq là nhà cung cấp suy luận duy nhất cho phép cửa sổ ngữ cảnh 131K đầy đủ, cho phép các nhà phát triển xây dựng ứng dụng ở quy mô lớn”.

Cửa sổ ngữ cảnh 131k của Groq so với các đối thủ suy luận AI như thế nào

Khẳng định của Groq về cửa sổ ngữ cảnh — lượng văn bản mà một mô hình AI có thể xử lý cùng một lúc — đã chạm đến một hạn chế cốt lõi đã gây khó khăn cho các ứng dụng AI thực tế. Hầu hết các nhà cung cấp suy luận đều gặp khó khăn trong việc duy trì tốc độ và hiệu quả về chi phí khi xử lý các cửa sổ ngữ cảnh lớn, vốn rất cần thiết cho các tác vụ như phân tích toàn bộ tài liệu hoặc duy trì các cuộc hội thoại dài.

Công ty đánh giá chuẩn độc lập Artificial Analysis đã đo lường việc triển khai Qwen3 32B của Groq chạy ở mức khoảng 535 token mỗi giây, tốc độ cho phép xử lý thời gian thực các tài liệu dài hoặc các tác vụ lý luận phức tạp. Công ty định giá dịch vụ ở mức 0,29 đô la cho một triệu token đầu vào và 0,59 đô la cho một triệu token đầu ra — mức giá thấp hơn nhiều nhà cung cấp đã thành lập.

Groq và Alibaba Cloud là những nhà cung cấp duy nhất hỗ trợ toàn bộ cửa sổ ngữ cảnh 131.000 token của Qwen3 32B, theo các tiêu chuẩn độc lập từ Artificial Analysis. Hầu hết các đối thủ cạnh tranh đều cung cấp các giới hạn nhỏ hơn đáng kể. (Nguồn: Groq)

Khi được hỏi về tính khả thi về mặt kinh tế của việc hỗ trợ các cửa sổ ngữ cảnh lớn, người phát ngôn giải thích: “Groq cung cấp một ngăn xếp được tích hợp đầy đủ, mang lại khả năng tính toán suy luận được xây dựng để mở rộng quy mô, nghĩa là chúng tôi có thể tiếp tục cải thiện chi phí suy luận đồng thời đảm bảo hiệu suất mà các nhà phát triển cần để xây dựng các giải pháp AI thực sự”.

Ưu điểm kỹ thuật bắt nguồn từ kiến ​​trúc Bộ xử lý ngôn ngữ (LPU) tùy chỉnh của Groq , được thiết kế riêng cho suy luận AI thay vì các bộ xử lý đồ họa (GPU) thông dụng mà hầu hết các đối thủ cạnh tranh đều dựa vào. Phương pháp tiếp cận phần cứng chuyên dụng này cho phép Groq xử lý các hoạt động sử dụng nhiều bộ nhớ như cửa sổ ngữ cảnh lớn hiệu quả hơn.

Tại sao tích hợp Hugging Face của Groq có thể mở khóa hàng triệu nhà phát triển AI mới

Việc tích hợp với Hugging Face có lẽ là động thái chiến lược dài hạn quan trọng hơn. Hugging Face đã trở thành nền tảng thực tế cho phát triển AI nguồn mở, lưu trữ hàng trăm nghìn mô hình và phục vụ hàng triệu nhà phát triển hàng tháng. Bằng cách trở thành nhà cung cấp suy luận chính thức, Groq có quyền truy cập vào hệ sinh thái nhà phát triển rộng lớn này với tính năng thanh toán hợp lý và quyền truy cập thống nhất.

Các nhà phát triển hiện có thể chọn Groq làm nhà cung cấp trực tiếp trong Hugging Face Playground hoặc API , với việc sử dụng được tính vào tài khoản Hugging Face của họ. Tích hợp hỗ trợ một loạt các mô hình phổ biến bao gồm dòng Llama của Meta , các mô hình Gemma của Google và Qwen3 32B mới được thêm vào .

Theo tuyên bố chung, “Sự hợp tác giữa Hugging Face và Groq là một bước tiến đáng kể trong việc giúp suy luận AI hiệu suất cao dễ tiếp cận và hiệu quả hơn”.

Mối quan hệ hợp tác này có thể làm tăng đáng kể lượng người dùng và khối lượng giao dịch của Groq, nhưng cũng đặt ra câu hỏi về khả năng duy trì hiệu suất ở quy mô lớn của công ty.

Cơ sở hạ tầng của Groq có thể cạnh tranh với AWS Bedrock và Google Vertex AI ở quy mô lớn không

Khi được hỏi về kế hoạch mở rộng cơ sở hạ tầng để xử lý lưu lượng truy cập mới có khả năng đáng kể từ Hugging Face , người phát ngôn của Groq đã tiết lộ phạm vi hoạt động toàn cầu hiện tại của công ty: “Hiện tại, cơ sở hạ tầng toàn cầu của Groq bao gồm các trung tâm dữ liệu trên khắp Hoa Kỳ, Canada và Trung Đông, phục vụ hơn 20 triệu token mỗi giây”.

Công ty có kế hoạch tiếp tục mở rộng quốc tế, mặc dù các chi tiết cụ thể không được cung cấp. Nỗ lực mở rộng quy mô toàn cầu này sẽ rất quan trọng vì Groq phải đối mặt với áp lực ngày càng tăng từ các đối thủ cạnh tranh được tài trợ tốt với nguồn lực cơ sở hạ tầng sâu hơn.

Ví dụ, dịch vụ Bedrock của Amazon tận dụng cơ sở hạ tầng đám mây toàn cầu khổng lồ của AWS, trong khi Vertex AI của Google được hưởng lợi từ mạng lưới trung tâm dữ liệu toàn cầu của gã khổng lồ tìm kiếm. Dịch vụ Azure OpenAI của Microsoft cũng có cơ sở hạ tầng hỗ trợ sâu rộng tương tự.

Tuy nhiên, người phát ngôn của Groq bày tỏ sự tin tưởng vào cách tiếp cận khác biệt của công ty: “Là một ngành công nghiệp, chúng tôi mới chỉ bắt đầu thấy nhu cầu thực sự về tính toán suy luận. Ngay cả khi Groq triển khai gấp đôi lượng cơ sở hạ tầng theo kế hoạch trong năm nay, vẫn không có đủ năng lực để đáp ứng nhu cầu hiện tại”.

Giá suy luận AI tích cực có thể tác động đến mô hình kinh doanh của Groq như thế nào

Thị trường suy luận AI được đặc trưng bởi mức giá cạnh tranh và biên lợi nhuận cực kỳ mỏng khi các nhà cung cấp cạnh tranh giành thị phần. Mức giá cạnh tranh của Groq đặt ra câu hỏi về lợi nhuận dài hạn, đặc biệt là khi xét đến bản chất thâm dụng vốn của việc phát triển và triển khai phần cứng chuyên dụng.

“Khi chúng ta thấy nhiều giải pháp AI mới hơn ra mắt thị trường và được áp dụng, nhu cầu suy luận sẽ tiếp tục tăng theo cấp số nhân”, người phát ngôn cho biết khi được hỏi về con đường dẫn đến lợi nhuận. “Mục tiêu cuối cùng của chúng tôi là mở rộng quy mô để đáp ứng nhu cầu đó, tận dụng cơ sở hạ tầng của chúng tôi để giảm chi phí tính toán suy luận xuống mức thấp nhất có thể và tạo điều kiện cho nền kinh tế AI trong tương lai”.

Chiến lược này — đặt cược vào sự tăng trưởng khối lượng lớn để đạt được lợi nhuận bất chấp biên lợi nhuận thấp — phản ánh cách tiếp cận của các nhà cung cấp cơ sở hạ tầng khác, mặc dù thành công không được đảm bảo.

Việc áp dụng AI của doanh nghiệp có ý nghĩa gì đối với thị trường suy luận trị giá 154 tỷ đô la

Các thông báo được đưa ra khi thị trường suy luận AI đang có sự tăng trưởng bùng nổ. Công ty nghiên cứu Grand View Research ước tính thị trường chip suy luận AI toàn cầu sẽ đạt 154,9 tỷ đô la vào năm 2030, nhờ vào việc triển khai ngày càng nhiều các ứng dụng AI trên khắp các ngành.

Đối với những người ra quyết định của doanh nghiệp, động thái của Groq vừa là cơ hội vừa là rủi ro. Các tuyên bố về hiệu suất của công ty, nếu được xác thực ở quy mô lớn, có thể giảm đáng kể chi phí cho các ứng dụng AI nặng. Tuy nhiên, việc dựa vào một nhà cung cấp nhỏ hơn cũng tiềm ẩn rủi ro về chuỗi cung ứng và tính liên tục so với các công ty đám mây lớn đã thành danh.

Khả năng kỹ thuật để xử lý các cửa sổ ngữ cảnh đầy đủ có thể đặc biệt có giá trị đối với các ứng dụng doanh nghiệp liên quan đến phân tích tài liệu, nghiên cứu pháp lý hoặc các nhiệm vụ suy luận phức tạp, trong đó việc duy trì ngữ cảnh trong các tương tác dài là rất quan trọng.

Thông báo kép của Groq đại diện cho một canh bạc được tính toán rằng phần cứng chuyên dụng và giá cả cạnh tranh có thể vượt qua lợi thế về cơ sở hạ tầng của các công ty công nghệ lớn. Liệu chiến lược này có thành công hay không có thể phụ thuộc vào khả năng duy trì lợi thế về hiệu suất của công ty trong khi mở rộng quy mô trên toàn cầu—một thách thức đã được chứng minh là khó khăn đối với nhiều công ty khởi nghiệp về cơ sở hạ tầng.

Hiện tại, các nhà phát triển có thêm một lựa chọn hiệu suất cao trong một thị trường ngày càng cạnh tranh, trong khi các doanh nghiệp theo dõi xem liệu những cam kết về mặt kỹ thuật của Groq có chuyển thành dịch vụ đáng tin cậy, đạt chuẩn sản xuất ở quy mô lớn hay không.

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin nóng tuần này

Ren Zhengfei: Huawei và chiến lược AI thầm lặng của Trung Quốc

CEO Huawei chia sẻ về tương lai trí tuệ...

Ericsson và AWS bắt tay tạo ra mạng di động “tự chữa lành” nhờ AI

Liên minh giữa hai ông lớn viễn thông và...

Meta đầu tư 14,8 tỷ USD vào Scale AI: Cảnh báo “lách luật” và độc quyền AI?

Thương vụ trị giá 14,8 tỷ USD không chỉ...

Chủ đề

Bài viết liên quan

Danh mục phổ biến

Language »