Thứ Hai, Tháng 6 16, 2025

Việc áp dụng AI thành công phụ thuộc vào một điều: Máy tính thông minh hơn, có kích thước phù hợp

Khi việc áp dụng AI tăng tốc, các doanh nghiệp đang gặp phải tình trạng tắc nghẽn tính toán vượt ra ngoài sức mạnh xử lý thô. Thách thức không chỉ là có nhiều tính toán hơn; mà là có tính toán thông minh hơn, hiệu quả hơn, được tùy chỉnh theo nhu cầu của tổ chức, với khả năng mở rộng cùng với sự đổi mới của AI. Các mô hình AI đang phát triển về quy mô và độ phức tạp, đòi hỏi các kiến ​​trúc có thể xử lý các tập dữ liệu khổng lồ, hỗ trợ học tập liên tục và cung cấp hiệu quả cần thiết cho việc ra quyết định theo thời gian thực.

Từ đào tạo và suy luận AI trong các trung tâm dữ liệu siêu lớn đến tự động hóa do AI điều khiển trong doanh nghiệp, khả năng triển khai và mở rộng cơ sở hạ tầng điện toán một cách liền mạch hiện là yếu tố tạo nên sự khác biệt cạnh tranh.

Ra mắt chiến lược AI nhanh nhẹn

Bắt đầu từ đâu? Hiện đại hóa các trung tâm dữ liệu hiện có là bước đầu tiên thiết yếu để loại bỏ các nút thắt đối với đổi mới AI. Điều này giải phóng không gian và năng lượng, cải thiện hiệu quả và xanh hóa trung tâm dữ liệu, tất cả đều giúp tổ chức đủ nhanh nhẹn để thích ứng với môi trường AI đang thay đổi.

Balasubramanian cho biết: “Bạn có thể nâng cấp trung tâm dữ liệu hiện tại của mình từ CPU Intel Xeon 8280 thế hệ thứ ba lên CPU AMD EPYC thế hệ mới nhất và tiết kiệm tới 68% năng lượng trong khi sử dụng ít hơn 87% máy chủ 3 ”. “Đây không chỉ là cách thông minh và hiệu quả để nâng cấp trung tâm dữ liệu hiện tại mà còn mở ra các lựa chọn cho các bước tiếp theo trong việc nâng cấp sức mạnh tính toán của công ty”.

Và khi một tổ chức phát triển chiến lược AI của mình, điều quan trọng là phải có kế hoạch cho các yêu cầu về phần cứng và tính toán phát triển nhanh. Đây là một công việc phức tạp, cho dù bạn đang làm việc với một mô hình duy nhất làm nền tảng cho các quy trình tổ chức, các mô hình tùy chỉnh cho từng phòng ban hay AI đại lý.

Balasubramanian cho biết: “Nếu bạn hiểu được tình hình cơ bản của mình – nơi AI sẽ được triển khai và cơ sở hạ tầng nào đã có sẵn về mặt không gian, năng lượng, hiệu quả và chi phí – bạn sẽ có rất nhiều giải pháp công nghệ mạnh mẽ để giải quyết những vấn đề này”.

Ngoài một kích thước phù hợp với tất cả các tính toán

Một nhận thức chung trong doanh nghiệp là các giải pháp AI đòi hỏi một khoản đầu tư lớn ngay từ đầu, trên mọi phương diện, vào phần cứng, phần mềm và dịch vụ. Điều đó đã được chứng minh là một trong những rào cản phổ biến nhất đối với việc áp dụng — và là rào cản dễ vượt qua, Balasubramanian nói. Hành trình AI bắt đầu bằng việc xem xét công nghệ hiện có và nâng cấp trung tâm dữ liệu; từ đó, một tổ chức có thể bắt đầu mở rộng quy mô cho tương lai bằng cách lựa chọn công nghệ có thể phù hợp với các vấn đề hiện tại và mục tiêu của ngày mai.

Balasubramanian cho biết: “Thay vì chi tiêu mọi thứ cho một loại sản phẩm hoặc giải pháp cụ thể, giờ đây bạn có thể điều chỉnh kích thước phù hợp và giải pháp cho các tổ chức của mình”. “AMD độc đáo ở chỗ chúng tôi có một bộ giải pháp rộng để đáp ứng các yêu cầu riêng. Chúng tôi có các giải pháp từ đám mây đến trung tâm dữ liệu, giải pháp biên, giải pháp máy khách và mạng, v.v. Danh mục rộng này cho phép chúng tôi cung cấp hiệu suất tốt nhất trên tất cả các giải pháp và cho phép chúng tôi cung cấp hướng dẫn chuyên sâu cho các doanh nghiệp đang tìm kiếm giải pháp phù hợp với nhu cầu của họ”.

Danh mục AI đó được thiết kế để giải quyết các khối lượng công việc AI đòi hỏi khắt khe nhất — từ đào tạo mô hình nền tảng đến suy luận biên. GPU AMD Instinct TM MI325X mới nhất, được hỗ trợ bởi bộ nhớ HBM3e và kiến ​​trúc CDNA, mang lại hiệu suất vượt trội cho khối lượng công việc AI tạo ra, cung cấp hiệu suất suy luận tốt hơn tới 1,3 lần so với các giải pháp cạnh tranh 1,2 ​. CPU AMD EPYC tiếp tục thiết lập các tiêu chuẩn của ngành, cung cấp mật độ lõi, hiệu quả năng lượng và băng thông bộ nhớ cao vô song, rất quan trọng đối với khả năng mở rộng tính toán AI​.

Sự hợp tác với nhiều nhà lãnh đạo trong ngành — bao gồm các OEM như Dell, Supermicro, Lenovo và HPE, các nhà cung cấp mạng như Broadcom và Marvell, và các nhà cung cấp chuyển mạch như Arista và Cisco — tối đa hóa tính mô-đun của các giải pháp trung tâm dữ liệu này. Nó mở rộng liền mạch từ hai hoặc bốn máy chủ lên hàng nghìn, tất cả đều được xây dựng bằng mạng AI dựa trên Ethernet thế hệ tiếp theo và được hỗ trợ bởi công nghệ và chuyên môn hàng đầu trong ngành.

Tại sao phần mềm nguồn mở lại quan trọng đối với sự phát triển của AI

Trong khi cả phần cứng và phần mềm đều quan trọng để giải quyết những thách thức về AI ngày nay, phần mềm nguồn mở sẽ thúc đẩy sự đổi mới thực sự.

“Chúng tôi tin rằng không có công ty nào trên thế giới này có câu trả lời cho mọi vấn đề”, Balasubramanian nói. “Cách tốt nhất để giải quyết các vấn đề của thế giới bằng AI là có một mặt trận thống nhất, và để có một mặt trận thống nhất nghĩa là có một ngăn xếp phần mềm mở mà mọi người có thể cộng tác. Đó là một phần quan trọng trong tầm nhìn của chúng tôi”.

Nền tảng phần mềm nguồn mở của AMD, ROCm TM , được nhiều công ty hàng đầu trong ngành như OpenAI, Microsoft, Meta, Oracle, v.v. áp dụng rộng rãi. Meta chạy mô hình lớn nhất và phức tạp nhất của mình trên GPU AMD Instinct. ROCm đi kèm với hỗ trợ tiêu chuẩn cho PyTorch, khuôn khổ AI lớn nhất và có hơn một triệu mô hình từ kho lưu trữ mô hình cao cấp của Hugging Face, cho phép khách hàng bắt đầu hành trình của mình với trải nghiệm liền mạch ngay khi xuất xưởng trên phần mềm ROCm và GPU Instinct.

AMD hợp tác với các nhà cung cấp như PyTorch, Tensorflow, JAX, Triton của OpenAI và các nhà cung cấp khác để đảm bảo rằng bất kể quy mô mô hình là nhỏ hay lớn, các ứng dụng và trường hợp sử dụng đều có thể mở rộng từ một GPU cho đến hàng chục nghìn GPU — giống như phần cứng AI có thể mở rộng để phù hợp với bất kỳ quy mô khối lượng công việc nào.

Sự tham gia sâu sắc của ROCm vào hệ sinh thái với tích hợp liên tục và phát triển liên tục đảm bảo rằng các chức năng và tính năng AI mới có thể được tích hợp an toàn vào ngăn xếp. Các tính năng này trải qua quá trình thử nghiệm và phát triển tự động để đảm bảo phù hợp, mạnh mẽ, không phá vỡ bất kỳ thứ gì và có thể cung cấp hỗ trợ ngay lập tức cho các nhà phát triển phần mềm và nhà khoa học dữ liệu sử dụng nó.

Khi AI phát triển, ROCm đang chuyển hướng sang cung cấp các khả năng mới, thay vì ràng buộc một tổ chức vào một nhà cung cấp cụ thể có thể không cung cấp sự linh hoạt cần thiết để phát triển.

“Chúng tôi muốn cung cấp cho các tổ chức một ngăn xếp phần mềm nguồn mở hoàn toàn mở từ trên xuống dưới và trên toàn bộ tổ chức”, ông nói. “Người dùng có thể chọn các lớp đáp ứng nhu cầu của họ và sửa đổi chúng khi cần thiết hoặc chạy các mô hình ngay khi xuất xưởng, đảm bảo rằng các doanh nghiệp có thể chạy các mô hình chuyên sâu như DeepSeek, Llama hoặc các mô hình Gemma mới nhất của Google ngay từ ngày đầu tiên”.

Nhìn về phía trước: Tầm nhìn của AMD về điện toán AI

Khi các tổ chức đón nhận cuộc cách mạng ban đầu của AI, họ cần tránh bị bó buộc vào một giải pháp cụ thể, tìm ra các giải pháp điện toán đáp ứng nhu cầu của họ hiện tại và trong tương lai. Làm việc với một chuyên gia trong ngành là rất quan trọng để xác định những nhu cầu đó và những gì cần thiết để đưa chúng tiến lên khi AI thay đổi thế giới.

AMD đang thúc đẩy sự thay đổi đó, hợp tác với các phòng thí nghiệm AI hàng đầu đi đầu trong phát triển AI và hệ sinh thái rộng lớn hơn của các nhà phát triển và các công ty phần mềm hàng đầu. Với lượng khách hàng ngày càng tăng bao gồm Microsoft, Meta, Dell Technologies, HPE, Lenovo và các công ty khác, AMD đang định hình bối cảnh AI bằng cách cung cấp các giải pháp hiệu suất cao, tiết kiệm năng lượng thúc đẩy sự đổi mới trong các ngành công nghiệp

Nhìn về phía trước, sự hợp tác đó là nền tảng cho lộ trình công nghệ của AMD. Công ty đang đầu tư vào các giải pháp phần cứng và phần mềm toàn diện, bao gồm việc mua lại ZT Systems gần đây, mang đến chuyên môn thiết kế máy chủ và cụm thiết yếu để đưa các giải pháp toàn diện ra thị trường nhanh chóng với các đối tác OEM, ODM và Cloud của chúng tôi.

Và khi các mô hình trở nên lớn hơn và tinh vi hơn, nhu cầu về phần cứng tăng theo cấp số nhân. Đây là động lực thúc đẩy chiến lược sản phẩm và bộ tính năng của AMD: đảm bảo danh mục giải pháp của mình có thể mở rộng, với cơ sở hạ tầng AI mở và linh hoạt, duy trì hiệu suất và hiệu quả.

Balasubramanian cho biết: “Danh mục đầu tư rộng này được thiết kế để điều chỉnh đúng các giải pháp AI nhằm cung cấp hiệu suất tốt nhất cho mọi thiết lập của khách hàng và thúc đẩy các chiến lược AI ở mọi quy mô”. “Bất kể tổ chức đang ở giai đoạn nào của hành trình AI, cho dù họ đang xây dựng mô hình hay sử dụng mô hình cho trường hợp sử dụng cuối, chúng tôi muốn họ đến và nói chuyện với chúng tôi, và tìm hiểu cách chúng tôi có thể giúp giải quyết các vấn đề lớn nhất của họ”.

BÌNH LUẬN

Vui lòng nhập bình luận của bạn
Vui lòng nhập tên của bạn ở đây

Tin nóng tuần này

Databricks mở mã nguồn công cụ ETL khai báo, tăng tốc xây dựng pipeline tới 90%

Databricks công bố mở mã nguồn công cụ Spark...

Google DeepMind ra mắt mô hình AI thay đổi vĩnh viễn dự báo bão

DeepMind hợp tác với Trung tâm Bão Quốc gia...

Microsoft và OpenAI “chia tay”: Ai sẽ nắm giữ quyền lực AI toàn cầu?

Mối quan hệ từng được ví như “bromance” công...

OpenAI tung o3-pro, giảm giá o3 đến 80%

Model mới cùng chiến lược giá mạnh tay của...

Meta đầu tư 15 tỷ USD vào Scale AI, theo đuổi tham vọng siêu trí tuệ

Meta đang tái định hướng chiến lược AI bằng...

Chủ đề

Bài viết liên quan

Danh mục phổ biến

Language »