Nhưng hãy chứng kiến cảnh tượng tại Google Cloud Next 2025 ở Las Vegas tuần trước: Một Google tự tin, được trang bị các mô hình hàng đầu, cơ sở hạ tầng mạnh mẽ và chiến lược doanh nghiệp gắn kết, tuyên bố một sự thay đổi đáng kinh ngạc. Trong một cuộc họp kín với các nhà phân tích cùng các giám đốc điều hành cấp cao của Google, một nhà phân tích đã tóm tắt lại. Ông cho biết, đây giống như khoảnh khắc Google chuyển từ “bắt kịp, sang bắt kịp chúng tôi”.
Cảm nghĩ rằng Google không chỉ bắt kịp mà thậm chí còn vượt lên trước OpenAI và Microsoft trong cuộc đua AI doanh nghiệp đã chiếm ưu thế trong suốt sự kiện. Và đó không chỉ là chiêu trò tiếp thị của Google. Bằng chứng cho thấy Google đã tận dụng năm qua để thực hiện mạnh mẽ, tập trung, chuyển đổi các tài sản công nghệ của mình thành một nền tảng tích hợp, hiệu suất cao, nhanh chóng chiếm được cảm tình của những người ra quyết định trong doanh nghiệp. Từ việc tự hào về các mô hình AI mạnh mẽ nhất thế giới chạy trên silicon tùy chỉnh siêu hiệu quả, đến hệ sinh thái đang phát triển mạnh mẽ của các tác nhân AI được thiết kế cho các vấn đề kinh doanh trong thế giới thực, Google đang đưa ra một lập luận thuyết phục rằng công ty chưa bao giờ thực sự bị thua lỗ – nhưng những lần vấp ngã của công ty đã che giấu một giai đoạn phát triển sâu sắc, có nền tảng.
Bây giờ, với stack tích hợp đang hoạt động hết công suất, Google dường như đang ở vị thế dẫn đầu giai đoạn tiếp theo của cuộc cách mạng AI doanh nghiệp. Và trong các cuộc phỏng vấn của tôi với một số giám đốc điều hành của Google tại Next, họ cho biết Google nắm giữ lợi thế về cơ sở hạ tầng và tích hợp mô hình mà các đối thủ cạnh tranh như OpenAI, Microsoft hoặc AWS sẽ phải vật lộn để sao chép.
Cái bóng của sự nghi ngờ: thừa nhận quá khứ gần đây
Không thể đánh giá được động lực hiện tại nếu không thừa nhận quá khứ gần đây. Google là nơi khai sinh ra kiến trúc Transformer, kiến trúc đã châm ngòi cho cuộc cách mạng hiện đại trong các mô hình ngôn ngữ lớn (LLM). Google cũng bắt đầu đầu tư vào phần cứng AI chuyên dụng (TPU), hiện đang thúc đẩy hiệu quả hàng đầu trong ngành, một thập kỷ trước. Tuy nhiên, hai năm rưỡi trước, không hiểu sao nó lại thấy mình đang chơi phòng thủ.
ChatGPT của OpenAI đã thu hút trí tưởng tượng của công chúng và sự quan tâm của doanh nghiệp với tốc độ chóng mặt và trở thành ứng dụng phát triển nhanh nhất trong lịch sử. Các đối thủ cạnh tranh như Anthropic đã tạo ra chỗ đứng trong các lĩnh vực như lập trình.
Các bước đi công khai của riêng Google đôi khi có vẻ do dự hoặc sai sót. Bản demo Bard khét tiếng đã thất bại vào năm 2023 và cuộc tranh cãi sau đó về trình tạo hình ảnh của công ty tạo ra các mô tả không chính xác về mặt lịch sử đã tạo nên một câu chuyện về một công ty có khả năng bị cản trở bởi bộ máy quan liêu nội bộ hoặc sự điều chỉnh quá mức về sự liên kết. Có vẻ như Google đã lạc lối: Những bước đi chệch hướng của AI dường như phù hợp với một mô hình, đầu tiên được thể hiện qua sự chậm chạp ban đầu của Google trong cuộc cạnh tranh về đám mây, nơi công ty vẫn giữ vị trí thứ ba về thị phần sau Amazon và Microsoft. Giám đốc công nghệ của Google Cloud, Will Grannis đã thừa nhận những câu hỏi ban đầu về việc liệu Google Cloud có tụt hậu trong thời gian dài hay không. Ông nhớ lại mọi người đã hỏi ông rằng “Liệu nó có phải là sự thật không?”. Câu hỏi vẫn còn đó: Liệu Google có thể chuyển sự xuất sắc không thể phủ nhận trong nghiên cứu và quy mô cơ sở hạ tầng của mình thành sự thống trị của AI trong doanh nghiệp hay không?
Trục xoay: một quyết định có ý thức để dẫn đầu
Tuy nhiên, đằng sau hậu trường, một sự thay đổi đang diễn ra, được thúc đẩy bởi một quyết định có ý thức ở cấp cao nhất nhằm giành lại quyền lãnh đạo. Mat Velloso, Phó chủ tịch sản phẩm của Nền tảng nhà phát triển AI của Google DeepMind, đã mô tả cảm giác về một khoảnh khắc quan trọng khi gia nhập Google vào tháng 2 năm 2024, sau khi rời Microsoft. “Khi tôi đến Google, tôi đã nói chuyện với Sundar [Pichai], tôi đã nói chuyện với một số nhà lãnh đạo ở đây và tôi cảm thấy đó là khoảnh khắc họ quyết định, được rồi, [AI tạo sinh] này là thứ mà ngành công nghiệp rõ ràng quan tâm. Hãy biến nó thành hiện thực”, Velloso chia sẻ trong một cuộc phỏng vấn với VentureBeat trong Next tuần trước.
Sự thúc đẩy mới này không bị cản trở bởi nỗi lo sợ về “chảy máu chất xám” mà một số người ngoài cuộc cảm thấy đang làm Google kiệt quệ. Trên thực tế, công ty đã âm thầm tăng gấp đôi việc thực hiện vào đầu năm 2024 – một năm được đánh dấu bằng việc tuyển dụng mạnh mẽ, thống nhất nội bộ và thu hút khách hàng. Trong khi các đối thủ cạnh tranh đã tuyển dụng rầm rộ, Google vẫn giữ được đội ngũ lãnh đạo AI cốt lõi của mình, bao gồm cả CEO DeepMind Demis Hassabis và CEO Google Cloud Thomas Kurian, mang lại sự ổn định và chuyên môn sâu rộng.
Hơn nữa, tài năng bắt đầu đổ về sứ mệnh tập trung của Google. Ví dụ, Logan Kilpatrick đã quay trở lại Google từ OpenAI, bị thu hút bởi cơ hội xây dựng AI nền tảng trong công ty, tạo ra nó. Anh ấy đã tham gia cùng Velloso trong những gì anh ấy mô tả là “trải nghiệm từ con số không đến con số một”, được giao nhiệm vụ xây dựng lực kéo của nhà phát triển cho Gemini ngay từ đầu. “Nó giống như nhóm là tôi vào ngày đầu tiên … chúng tôi thực sự không có người dùng nào trên nền tảng này, chúng tôi không có doanh thu. Không ai quan tâm đến Gemini vào lúc này”, Kilpatrick nhớ lại về điểm khởi đầu. Những người quen thuộc với động lực nội bộ cũng ghi nhận những nhà lãnh đạo như Josh Woodward, người đã giúp thành lập AI Studio và hiện đang lãnh đạo Gemini App and Labs. Gần đây hơn, Noam Shazeer, đồng tác giả chính của bài báo Transformer “Attention Is All You Need” ban đầu trong nhiệm kỳ đầu tiên của mình tại Google, đã trở lại công ty vào cuối năm 2024 với tư cách là đồng trưởng nhóm kỹ thuật cho dự án Gemini quan trọng
Nỗ lực chung này, kết hợp những lần tuyển dụng này, những đột phá trong nghiên cứu, sự cải tiến công nghệ cơ sở dữ liệu và sự tập trung vào doanh nghiệp một cách sắc sảo hơn, đã bắt đầu mang lại kết quả. Những tiến bộ tích lũy này, kết hợp với những gì mà CTO Will Grannis gọi là “hàng trăm yếu tố nền tảng chi tiết”, đã tạo tiền đề cho các thông báo tại Next ’25 và củng cố câu chuyện trở lại của Google.
Trụ cột 1: Gemini 2.5 và kỷ nguyên của các mô hình tư duy
Đúng là câu thần chú của một doanh nghiệp hàng đầu đã trở thành “không chỉ là về mô hình”. Xét cho cùng, khoảng cách hiệu suất giữa các mô hình hàng đầu đã thu hẹp đáng kể và những người trong ngành công nghệ thừa nhận rằng trí thông minh thực sự đến từ công nghệ được đóng gói xung quanh mô hình, không chỉ riêng mô hình đó – ví dụ, các công nghệ tác nhân cho phép một mô hình sử dụng các công cụ và khám phá web xung quanh nó.
Mặc dù vậy, việc sở hữu LLM có hiệu suất tốt nhất rõ ràng là một thành tích quan trọng – và là một trình xác thực mạnh mẽ, một dấu hiệu cho thấy công ty sở hữu mô hình có những thứ như nghiên cứu vượt trội và kiến trúc công nghệ cơ bản hiệu quả nhất. Với việc phát hành Gemini 2.5 Pro chỉ vài tuần trước Next ’25, Google đã nắm giữ chắc chắn danh hiệu đó. Nó nhanh chóng đứng đầu bảng xếp hạng Chatbot Arena độc lập, vượt trội hơn đáng kể so với biến thể GPT-4o mới nhất của OpenAI và vượt qua các điểm chuẩn lý luận khó nhằn như Bài kiểm tra cuối cùng của Nhân loại . Như Pichai đã tuyên bố trong bài phát biểu quan trọng, “Đây là mô hình AI thông minh nhất từ trước đến nay của chúng tôi. Và đây là mô hình tốt nhất trên thế giới”. Mô hình này đã thúc đẩy mức tăng 80 phần trăm trong việc sử dụng Gemini trong vòng một tháng, ông đã Tweet riêng .
Lần đầu tiên, nhu cầu về Gemini của Google bùng nổ. Như tôi đã trình bày chi tiết trước đây , ngoài trí thông minh thô sơ của Gemini 2.5 Pro, điều khiến tôi ấn tượng là khả năng lập luận có thể chứng minh được của nó . Google đã thiết kế một khả năng “suy nghĩ”, cho phép mô hình thực hiện lập luận nhiều bước, lập kế hoạch và thậm chí là tự phản ánh trước khi hoàn thiện phản hồi. Chuỗi suy nghĩ (CoT) có cấu trúc, mạch lạc – sử dụng các bước được đánh số và các dấu đầu dòng phụ – tránh được bản chất lan man hoặc không rõ ràng của các đầu ra từ các mô hình khác từ DeepSeek hoặc OpenAI. Đối với các nhóm kỹ thuật đánh giá đầu ra cho các nhiệm vụ quan trọng, tính minh bạch này cho phép xác thực, sửa lỗi và chuyển hướng với sự tự tin chưa từng có.
Nhưng quan trọng hơn đối với người dùng doanh nghiệp, Gemini 2.5 Pro cũng đã thu hẹp đáng kể khoảng cách trong mã hóa, một trong những lĩnh vực ứng dụng lớn nhất của AI tạo sinh. Trong một cuộc phỏng vấn với VentureBeat, CTO Fiona Tan, CTO của nhà bán lẻ hàng đầu Wayfair, cho biết sau các thử nghiệm ban đầu, công ty thấy rằng nó “đã tiến bộ khá nhiều” và hiện “khá tương đương” với Claude 3.7 Sonnet của Anthropic, trước đây là lựa chọn ưa thích của nhiều nhà phát triển.
Google cũng đã thêm một cửa sổ ngữ cảnh 1 triệu mã thông báo khổng lồ vào mô hình, cho phép suy luận trên toàn bộ cơ sở mã hoặc tài liệu dài, vượt xa khả năng của các mô hình của OpenAI hoặc Anthropic. (OpenAI đã phản hồi tuần này bằng các mô hình có cửa sổ ngữ cảnh lớn tương tự, mặc dù các điểm chuẩn cho thấy Gemini 2.5 Pro vẫn giữ được lợi thế trong suy luận tổng thể). Ưu điểm này cho phép thực hiện các tác vụ kỹ thuật phần mềm phức tạp, nhiều tệp.
Bổ sung cho Pro là Gemini 2.5 Flash , được công bố tại Next ’25 và phát hành ngày hôm qua . Ngoài ra, một mô hình “suy nghĩ”, Flash được tối ưu hóa cho độ trễ thấp và hiệu quả về chi phí. Bạn có thể kiểm soát mức độ lý giải của mô hình và cân bằng hiệu suất với ngân sách của mình. Phương pháp tiếp cận theo từng tầng này phản ánh thêm chiến lược “trí thông minh trên mỗi đô la” được các giám đốc điều hành của Google ủng hộ.
Velloso đã trình bày một biểu đồ cho thấy rằng trên toàn bộ phổ thông tin, các mô hình của Google cung cấp giá trị tốt nhất. “Nếu chúng ta có cuộc trò chuyện này cách đây một năm… Tôi sẽ không có gì để trình bày”, Velloso thừa nhận, nhấn mạnh sự thay đổi nhanh chóng. “Và bây giờ, giống như, trên toàn bộ, chúng tôi đang, nếu bạn đang tìm kiếm bất kỳ mô hình nào, bất kỳ quy mô nào, giống như, nếu bạn không phải là Google, bạn đang mất tiền”. Các biểu đồ tương tự đã được cập nhật để tính đến các bản phát hành mô hình mới nhất của OpenAI trong tuần này, tất cả đều hiển thị cùng một điều: Các mô hình của Google cung cấp trí thông minh tốt nhất trên mỗi đô la. Xem bên dưới:

Với bất kỳ mức giá nào, các mô hình của Google đều cung cấp thông tin tình báo tốt hơn các mô hình khác, khoảng 90 phần trăm thời gian. Nguồn: Pierre Bongrand .
Tan của Wayfair cho biết bà cũng nhận thấy những cải tiến về độ trễ đầy hứa hẹn với 2.5 Pro: “Gemini 2.5 đã trở lại nhanh hơn”, khiến nó khả thi đối với “nhiều khả năng hướng đến khách hàng hơn”, bà cho biết, điều mà bà cho biết chưa từng xảy ra với các mô hình khác. Bà cho biết Gemini có thể trở thành mô hình đầu tiên mà Wayfair sử dụng cho những tương tác với khách hàng này.
Khả năng của gia đình Gemini mở rộng đến đa phương thức, tích hợp liền mạch với các mô hình hàng đầu khác của Google như Imagen 3 (tạo hình ảnh), Veo 2 (tạo video), Chirp 3 (âm thanh) và Lyria (chuyển văn bản thành nhạc) mới được công bố, tất cả đều có thể truy cập thông qua nền tảng của Google dành cho người dùng Doanh nghiệp, Vertex. Google là công ty duy nhất cung cấp các mô hình phương tiện tạo sinh của riêng mình trên tất cả các phương thức trên nền tảng của mình. Microsoft, AWS và OpenAI phải hợp tác với các công ty khác để thực hiện điều này.
Trụ cột 2: Năng lực cơ sở hạ tầng – động cơ dưới mui xe
Khả năng lặp lại nhanh chóng và phục vụ hiệu quả các mô hình mạnh mẽ này bắt nguồn từ cơ sở hạ tầng vô song của Google, được mài giũa qua nhiều thập kỷ vận hành các dịch vụ trên quy mô toàn cầu. Trọng tâm của điều này là Bộ xử lý Tensor (TPU).
Tại Next ’25, Google đã ra mắt Ironwood , TPU thế hệ thứ bảy của hãng, được thiết kế riêng cho nhu cầu suy luận và “mô hình tư duy”. Quy mô rất lớn, được thiết kế riêng cho khối lượng công việc AI đòi hỏi khắt khe: Vỏ Ironwood chứa hơn 9.000 chip làm mát bằng chất lỏng, cung cấp công suất tính toán được cho là 42,5 exaflop. Phó chủ tịch Hệ thống ML của Google, Amin Vahdat đã phát biểu trên sân khấu tại Next rằng đây là “gấp hơn 24 lần” công suất tính toán của siêu máy tính số 1 thế giới hiện tại.
Google tuyên bố rằng Ironwood cung cấp hiệu suất/watt gấp 2 lần so với Trillium, thế hệ TPU trước đó. Điều này rất quan trọng vì khách hàng doanh nghiệp ngày càng nói rằng chi phí năng lượng và tính khả dụng hạn chế việc triển khai AI quy mô lớn.
Giám đốc công nghệ Google Cloud Will Grannis nhấn mạnh tính nhất quán của tiến trình này. Năm này qua năm khác, Google đang cải tiến bộ xử lý của mình gấp 10 lần, 8 lần, 9 lần, 10 lần, ông nói với VentureBeat trong một cuộc phỏng vấn, tạo ra cái mà ông gọi là “định luật Moore siêu tốc” cho các bộ tăng tốc AI. Ông cho biết khách hàng đang mua lộ trình của Google, không chỉ công nghệ của Google.
Vị thế của Google đã thúc đẩy khoản đầu tư TPU bền vững này. Nó cần cung cấp năng lượng hiệu quả cho các dịch vụ lớn như Tìm kiếm, YouTube và Gmail cho hơn 2 tỷ người dùng. Điều này đòi hỏi phải phát triển phần cứng tùy chỉnh, được tối ưu hóa từ lâu trước khi bùng nổ AI tạo ra hiện tại. Trong khi Meta hoạt động ở quy mô người tiêu dùng tương tự, các đối thủ cạnh tranh khác lại thiếu động lực nội bộ cụ thể này cho quá trình phát triển phần cứng AI tích hợp theo chiều dọc trong nhiều thập kỷ.
Hiện nay, các khoản đầu tư vào TPU đang mang lại hiệu quả vì chúng không chỉ thúc đẩy hiệu quả cho các ứng dụng của riêng Google mà còn cho phép Google cung cấp Gemini cho những người dùng khác với mức độ thông minh tốt hơn trên mỗi đô la, mọi thứ đều như nhau.
Tại sao các đối thủ cạnh tranh của Google không thể mua bộ xử lý hiệu quả từ Nvidia, bạn hỏi? Đúng là bộ xử lý GPU của Nvidia thống trị quá trình đào tạo trước của LLM. Nhưng nhu cầu thị trường đã đẩy giá của những GPU này lên cao và Nvidia lấy một phần lợi nhuận kha khá cho chính mình. Điều này chuyển chi phí đáng kể cho người dùng chip của mình. Và ngoài ra, trong khi đào tạo trước đã thống trị việc sử dụng chip AI cho đến nay, thì điều này đang thay đổi khi các doanh nghiệp thực sự triển khai các ứng dụng này. Đây là lúc “suy luận” xuất hiện và ở đây TPU được coi là hiệu quả hơn GPU đối với khối lượng công việc ở quy mô lớn.
Khi bạn hỏi các giám đốc điều hành của Google rằng lợi thế công nghệ chính của họ trong AI đến từ đâu, họ thường trả lời rằng TPU là quan trọng nhất. Mark Lohmeyer, Phó chủ tịch điều hành cơ sở hạ tầng điện toán của Google, đã khẳng định chắc chắn: TPU “chắc chắn là một phần rất khác biệt trong những gì chúng tôi làm… OpenAI, họ không có những khả năng đó”.
Điều đáng chú ý là Google trình bày TPU không phải là riêng lẻ mà là một phần của kiến trúc AI doanh nghiệp rộng hơn, phức tạp hơn. Đối với những người trong cuộc về mặt kỹ thuật, có thể hiểu rằng hiệu suất hàng đầu phụ thuộc vào việc tích hợp các đột phá công nghệ ngày càng chuyên biệt. Nhiều bản cập nhật đã được trình bày chi tiết tại Next. Vahdat mô tả đây là một “hệ thống siêu máy tính”, tích hợp phần cứng (TPU, GPU Nvidia mới nhất như Blackwell và Vera Rubin sắp ra mắt, lưu trữ tiên tiến như Hyperdisk Exapools, Anywhere Cache và Rapid Storage) với một ngăn xếp phần mềm thống nhất. Phần mềm này bao gồm Cluster Director để quản lý bộ tăng tốc, Pathways (thời gian chạy phân tán của Gemini, hiện có sẵn cho khách hàng) và mang lại các tối ưu hóa như vLLM cho TPU, cho phép di chuyển khối lượng công việc dễ dàng hơn cho những người trước đây sử dụng ngăn xếp Nvidia/PyTorch. Vahdat lập luận rằng hệ thống tích hợp này là lý do tại sao Gemini 2.0 Flash đạt được trí thông minh cao hơn 24 lần trên mỗi đô la so với GPT-4o.
Google cũng đang mở rộng phạm vi cơ sở hạ tầng vật lý của mình. Cloud WAN giúp mạng cáp quang riêng 2 triệu dặm có độ trễ thấp của Google có sẵn cho các doanh nghiệp, hứa hẹn hiệu suất nhanh hơn tới 40% và tổng chi phí sở hữu (TCO) thấp hơn 40% so với mạng do khách hàng quản lý.
Hơn nữa, Google Distributed Cloud (GDC) cho phép phần cứng Gemini và Nvidia (thông qua quan hệ đối tác với Dell) chạy trong môi trường có chủ quyền, tại chỗ hoặc thậm chí là môi trường không có không khí – một khả năng mà CEO của Nvidia Jensen Huang ca ngợi là “hoàn toàn to lớn” vì đã đưa AI tiên tiến vào các ngành công nghiệp và quốc gia được quản lý. Tại Next, Huang gọi cơ sở hạ tầng của Google là tốt nhất trên thế giới: “Không có công ty nào tốt hơn Google và Google Cloud ở mọi lớp điện toán”, ông nói.
Trụ cột 3: Toàn bộ ngăn xếp tích hợp – kết nối các điểm
Lợi thế chiến lược của Google tăng lên khi xem xét cách các mô hình và thành phần cơ sở hạ tầng này được đan xen vào một nền tảng gắn kết. Không giống như các đối thủ cạnh tranh, thường dựa vào quan hệ đối tác để thu hẹp khoảng cách, Google kiểm soát gần như mọi lớp, cho phép tích hợp chặt chẽ hơn và chu kỳ đổi mới nhanh hơn.
Vậy tại sao sự tích hợp này lại quan trọng, nếu một đối thủ cạnh tranh như Microsoft có thể chỉ cần hợp tác với OpenAI để kết hợp chiều rộng cơ sở hạ tầng với năng lực mô hình LLM? Những người Google mà tôi đã nói chuyện cho biết điều đó tạo ra sự khác biệt rất lớn và họ đưa ra những giai thoại để chứng minh điều đó.
Hãy lấy sự cải tiến đáng kể của cơ sở dữ liệu doanh nghiệp BigQuery của Google làm ví dụ. Cơ sở dữ liệu này hiện cung cấp biểu đồ kiến thức cho phép các LLM tìm kiếm dữ liệu hiệu quả hơn nhiều và hiện có lượng khách hàng gấp năm lần so với các đối thủ cạnh tranh như Snowflake và Databricks, VentureBeat đưa tin ngày hôm qua . Yasmeen Ahmad, Trưởng bộ phận Sản phẩm Phân tích Dữ liệu tại Google Cloud, cho biết những cải tiến lớn này chỉ có thể thực hiện được vì các nhóm dữ liệu của Google đã làm việc chặt chẽ với nhóm DeepMind. Họ đã xử lý các trường hợp sử dụng khó giải quyết và điều này giúp cơ sở dữ liệu cung cấp độ chính xác cao hơn 50 phần trăm dựa trên các truy vấn phổ biến, ít nhất là theo thử nghiệm nội bộ của Google, trong việc tìm ra dữ liệu phù hợp so với các đối thủ cạnh tranh gần nhất, Ahmad nói với VentureBeat trong một cuộc phỏng vấn. Ahmad cho biết loại tích hợp sâu này trên toàn bộ ngăn xếp là cách Google đã “vượt qua” ngành.
Sự gắn kết nội bộ này trái ngược hoàn toàn với động lực “bạn thù” tại Microsoft. Trong khi Microsoft hợp tác với OpenAI để phân phối các mô hình của mình trên đám mây Azure, Microsoft cũng đang xây dựng các mô hình của riêng mình. Mat Velloso, giám đốc điều hành của Google hiện đang lãnh đạo chương trình phát triển AI, đã rời Microsoft sau khi cảm thấy thất vọng khi cố gắng liên kết các kế hoạch của Windows Copilot với các dịch vụ mô hình của OpenAI. “Làm thế nào để bạn chia sẻ các kế hoạch sản phẩm của mình với một công ty khác thực sự đang cạnh tranh với bạn… Toàn bộ mọi thứ là một sự mâu thuẫn”, ông nhớ lại. “Ở đây, tôi ngồi cạnh những người đang xây dựng các mô hình”.
Sự tích hợp này thể hiện điều mà các nhà lãnh đạo Google coi là lợi thế cốt lõi của họ: khả năng độc đáo trong việc kết nối chuyên môn sâu rộng trên toàn bộ phổ, từ nghiên cứu cơ bản và xây dựng mô hình đến triển khai ứng dụng và thiết kế cơ sở hạ tầng “quy mô toàn cầu”.
Vertex AI đóng vai trò là hệ thần kinh trung ương cho các nỗ lực AI doanh nghiệp của Google. Và sự tích hợp này không chỉ giới hạn ở các dịch vụ của riêng Google. Model Garden của Vertex cung cấp hơn 200 mô hình được tuyển chọn, bao gồm Google, Llama 4 của Meta và nhiều tùy chọn nguồn mở khác. Vertex cung cấp các công cụ để điều chỉnh, đánh giá (bao gồm Evals hỗ trợ AI, được Grannis nêu bật là một công cụ tăng tốc chính), triển khai và giám sát. Khả năng cơ sở của nó tận dụng các cơ sở dữ liệu sẵn sàng cho AI bên trong cùng với khả năng tương thích với các cơ sở dữ liệu vector bên ngoài. Thêm vào đó là các dịch vụ mới của Google để xây dựng các mô hình cơ sở với Google Search, công cụ tìm kiếm tốt nhất thế giới.
Tích hợp mở rộng sang Google Workspace. Các tính năng mới được công bố tại Next ’25, như “Help Me Analyze” trong Sheets (đúng vậy, Sheets hiện có công thức “=AI” ), Audio Overviews trong Docs và Workspace Flows , tiếp tục nhúng các khả năng của Gemini vào quy trình làm việc hàng ngày, tạo ra một vòng phản hồi mạnh mẽ để Google sử dụng để cải thiện trải nghiệm.
Trong khi thúc đẩy ngăn xếp tích hợp của mình, Google cũng ủng hộ tính cởi mở khi phục vụ hệ sinh thái. Sau khi thúc đẩy việc áp dụng Kubernetes, giờ đây họ đang thúc đẩy JAX cho các khuôn khổ AI và hiện là các giao thức mở cho giao tiếp tác nhân (A2A) cùng với hỗ trợ cho các tiêu chuẩn hiện có (MCP). Google cũng cung cấp hàng trăm trình kết nối với các nền tảng bên ngoài từ bên trong Agentspace , đây là giao diện hợp nhất mới của Google để nhân viên tìm và sử dụng các tác nhân. Khái niệm trung tâm này rất hấp dẫn. Bài thuyết trình chính về Agentspace (bắt đầu từ phút 51:40) minh họa cho điều này. Google cung cấp cho người dùng các tác nhân được xây dựng sẵn hoặc nhân viên hoặc nhà phát triển có thể tự xây dựng các tác nhân của riêng họ bằng các khả năng AI không cần mã. Hoặc họ có thể kéo các tác nhân từ bên ngoài thông qua các trình kết nối A2A. Nó tích hợp vào trình duyệt Chrome để truy cập liền mạch.
Trụ cột 4: Tập trung vào giá trị doanh nghiệp và hệ sinh thái đại lý
Có lẽ sự thay đổi quan trọng nhất là Google tập trung mạnh mẽ hơn vào việc giải quyết các vấn đề cụ thể của doanh nghiệp, đặc biệt là thông qua góc nhìn của các tác nhân AI. Thomas Kurian, Giám đốc điều hành Google Cloud, đã nêu ra ba lý do khiến khách hàng chọn Google: nền tảng được tối ưu hóa cho AI, phương pháp tiếp cận đa đám mây mở cho phép kết nối với CNTT hiện có và sự tập trung sẵn sàng cho doanh nghiệp vào bảo mật, chủ quyền và tuân thủ.
Các đại lý là chìa khóa cho chiến lược này. Ngoài AgentSpace, điều này cũng bao gồm:
Building Blocks: Bộ công cụ phát triển tác nhân (ADK) mã nguồn mở , được công bố tại Next, đã nhận được sự quan tâm đáng kể từ các nhà phát triển. ADK đơn giản hóa việc tạo ra các hệ thống đa tác nhân, trong khi giao thức Agent2Agent (A2A) được đề xuất nhằm mục đích đảm bảo khả năng tương tác, cho phép các tác nhân được xây dựng bằng các công cụ khác nhau (Gemini ADK, LangGraph, CrewAI, v.v.) cộng tác. Grannis của Google cho biết A2A dự đoán được những thách thức về quy mô và bảo mật trong tương lai với hàng trăm nghìn tác nhân tương tác.
Giao thức A2A này thực sự quan trọng. Trong một cuộc phỏng vấn với VentureBeat tuần này, CISO của một nhà bán lẻ lớn tại Hoa Kỳ đã yêu cầu được giấu tên vì tính nhạy cảm của vấn đề bảo mật. Nhưng họ cho biết giao thức A2A hữu ích vì nhà bán lẻ đang tìm kiếm giải pháp để phân biệt giữa người thật và bot đang sử dụng đại lý để mua sản phẩm. Nhà bán lẻ này muốn tránh bán cho bot đầu cơ và với A2A, việc đàm phán với các đại lý để xác minh danh tính chủ sở hữu của họ trở nên dễ dàng hơn.
Các tác nhân được xây dựng theo mục đích cụ thể: Google đã giới thiệu các tác nhân chuyên gia được tích hợp vào Agentspace (như NotebookLM, Idea Generation, Deep Research) và nêu bật năm danh mục chính đang thu hút sự chú ý: Tác nhân khách hàng (các công cụ hỗ trợ như Reddit Answers, trợ lý hỗ trợ của Verizon, Wendy’s drive-thru), Tác nhân sáng tạo (được WPP, Brandtech, Sphere sử dụng), Tác nhân dữ liệu (đưa ra thông tin chi tiết tại Mattel, Spotify, Bayer), Tác nhân mã hóa (Gemini Code Assist) và Tác nhân bảo mật (được tích hợp vào nền tảng Google Unified Security mới).
Chiến lược đại lý toàn diện này dường như đang tạo được tiếng vang. Các cuộc trò chuyện với các giám đốc điều hành tại ba doanh nghiệp lớn khác trong tuần qua, cũng nói ẩn danh do nhạy cảm về cạnh tranh, đã phản ánh sự nhiệt tình này đối với chiến lược đại lý của Google. Giám đốc điều hành Google Cloud Francis DeSouza đã xác nhận trong một cuộc phỏng vấn: “Mọi cuộc trò chuyện đều bao gồm AI. Cụ thể, mọi cuộc trò chuyện đều bao gồm các đại lý.”
Kevin Laughridge, một giám đốc điều hành tại Deloitte, một người dùng lớn các sản phẩm AI của Google và là nhà phân phối các sản phẩm này cho các công ty khác, đã mô tả thị trường đại lý là một “cuộc giành giật đất đai” nơi những động thái ban đầu của Google với các giao thức và nền tảng tích hợp của nó mang lại những lợi thế đáng kể. “Bất kỳ ai ra ngoài trước và có được nhiều đại lý thực sự mang lại giá trị nhất – là người sẽ chiến thắng trong cuộc đua này”, Laughridge cho biết trong một cuộc phỏng vấn. Ông cho biết tiến trình của Google là “đáng kinh ngạc”, lưu ý rằng các đại lý tùy chỉnh mà Deloitte xây dựng chỉ một năm trước đây hiện có thể được sao chép “ngay lập tức” bằng cách sử dụng Agentspace. Bản thân Deloitte đang xây dựng 100 đại lý trên nền tảng này, nhắm mục tiêu vào các chức năng trung gian như tài chính, rủi ro và kỹ thuật, ông cho biết.
Các điểm chứng minh của khách hàng đang tăng lên. Tại Next, Google đã trích dẫn “hơn 500 khách hàng đang sản xuất” với AI tạo sinh, tăng từ chỉ “hàng chục nguyên mẫu” một năm trước. Nếu Microsoft được coi là đi trước một năm trước, thì điều đó có vẻ không còn rõ ràng nữa. Với cuộc chiến quan hệ công chúng từ mọi phía, thật khó để nói ai thực sự đang chiến thắng ngay bây giờ một cách chắc chắn. Các số liệu khác nhau. Con số 500 của Google không thể so sánh trực tiếp với 400 nghiên cứu điển hình mà Microsoft quảng bá (và Microsoft, để đáp lại, đã nói với VentureBeat tại thời điểm báo chí đưa tin rằng họ có kế hoạch cập nhật số lượng công khai này lên 600 trong thời gian ngắn, nhấn mạnh vào hoạt động tiếp thị mạnh mẽ). Và nếu việc phân phối AI của Google thông qua các ứng dụng của mình là đáng kể, thì việc phân phối Copilot của Microsoft thông qua dịch vụ 365 của mình cũng ấn tượng không kém. Cả hai hiện đang tiếp cận hàng triệu nhà phát triển thông qua API.
[Ghi chú của biên tập viên: Hiểu được cách các doanh nghiệp đang điều hướng ‘cuộc chiếm đoạt đất đai của các đại lý’ này và triển khai thành công các giải pháp AI phức tạp này sẽ là trọng tâm của các cuộc thảo luận tại sự kiện Transform của VentureBeat vào ngày 24-25 tháng 6 tại San Francisco.]
Nhưng có rất nhiều ví dụ về sức hút của Google:
- Wendy’s: Đã triển khai hệ thống lái xe AI đến hàng nghìn địa điểm chỉ trong một năm, cải thiện trải nghiệm của nhân viên và độ chính xác của đơn hàng. Giám đốc công nghệ của Google Cloud, Will Grannis lưu ý rằng hệ thống AI có khả năng hiểu tiếng lóng và lọc tiếng ồn xung quanh, giúp giảm đáng kể căng thẳng khi tương tác trực tiếp với khách hàng. Điều đó giúp nhân viên rảnh tay để tập trung vào khâu chuẩn bị và chất lượng thực phẩm — một sự thay đổi mà Grannis gọi là “một ví dụ tuyệt vời về việc AI hợp lý hóa các hoạt động trong thế giới thực”.
- Salesforce: Công bố kế hoạch mở rộng đáng kể, cho phép nền tảng của công ty chạy trên Google Cloud lần đầu tiên (ngoài AWS), với lý do Google có khả năng giúp họ “đổi mới và tối ưu hóa”.
- Honeywell & Intuit: Các công ty trước đây có mối quan hệ chặt chẽ với Microsoft và AWS, hiện đang hợp tác với Google Cloud trong các sáng kiến về AI.
- Các ngân hàng lớn (Deutsche Bank, Wells Fargo): Tận dụng các đại lý và Gemini để nghiên cứu, phân tích và hiện đại hóa dịch vụ khách hàng .
- Nhà bán lẻ (Walmart, Mercado Libre, Lowe’s): Sử dụng nền tảng tìm kiếm, đại lý và dữ liệu.
Sự thu hút của doanh nghiệp này thúc đẩy tăng trưởng chung của Google Cloud, vượt qua AWS và Azure trong ba quý gần đây nhất. Google Cloud đạt mức doanh thu hằng năm là 44 tỷ đô la vào năm 2024, tăng từ mức chỉ 5 tỷ đô la vào năm 2018.
Điều hướng vùng nước cạnh tranh
Sự trỗi dậy của Google không có nghĩa là các đối thủ cạnh tranh đang đứng yên. Việc OpenAI nhanh chóng phát hành GPT-4.1 (tập trung vào mã hóa và ngữ cảnh dài ) và o-series (lý luận đa phương thức, sử dụng công cụ ) trong tuần này chứng minh sự đổi mới liên tục của OpenAI. Hơn nữa, bản cập nhật tính năng tạo hình ảnh mới của OpenAI trong GPT-4o đã thúc đẩy sự tăng trưởng mạnh mẽ chỉ trong tháng qua, giúp ChatGPT đạt 800 triệu người dùng . Microsoft tiếp tục tận dụng dấu ấn doanh nghiệp rộng lớn và quan hệ đối tác OpenAI, trong khi Anthropic vẫn là một đối thủ mạnh, đặc biệt là trong các ứng dụng mã hóa và có ý thức về an toàn.
Tuy nhiên, không thể phủ nhận rằng câu chuyện của Google đã được cải thiện đáng kể. Chỉ một năm trước, Google được coi là một đối thủ cứng nhắc, ngập ngừng, vụng về, có lẽ sắp đánh mất cơ hội dẫn đầu AI. Thay vào đó, ngăn xếp tích hợp độc đáo và sự kiên định của công ty đã tiết lộ một điều khác: Google sở hữu các khả năng đẳng cấp thế giới trên toàn bộ quang phổ – từ thiết kế chip (TPU) và cơ sở hạ tầng toàn cầu đến nghiên cứu mô hình nền tảng (DeepMind), phát triển ứng dụng (Workspace, Search, YouTube) và dịch vụ đám mây doanh nghiệp (Vertex AI, BigQuery, Agentspace). “Chúng tôi là công ty siêu quy mô duy nhất tham gia vào cuộc trò chuyện về mô hình nền tảng”, deSouza tuyên bố thẳng thắn. Quyền sở hữu đầu cuối này cho phép tối ưu hóa (như “trí thông minh trên mỗi đô la”) và chiều sâu tích hợp mà các mô hình dựa vào quan hệ đối tác khó có thể sánh kịp. Các đối thủ cạnh tranh thường cần ghép các phần rời rạc lại với nhau, có khả năng tạo ra sự xung đột hoặc hạn chế tốc độ đổi mới.
Khoảnh khắc của Google là bây giờ
Trong khi cuộc đua AI vẫn còn năng động, Google đã tập hợp tất cả những mảnh ghép này vào đúng thời điểm thị trường đòi hỏi. Như Laughridge của Deloitte đã nói, Google đã đạt đến điểm mà các khả năng của mình hoàn toàn phù hợp “ở nơi thị trường đòi hỏi”. Nếu bạn đang chờ đợi Google chứng minh được mình trong lĩnh vực AI doanh nghiệp, thì có thể bạn đã bỏ lỡ khoảnh khắc đó — Google đã làm như vậy rồi. Công ty đã phát minh ra nhiều công nghệ cốt lõi thúc đẩy cuộc cách mạng này dường như cuối cùng đã bắt kịp — và hơn thế nữa, giờ đây họ đang thiết lập tốc độ mà các đối thủ cạnh tranh cần phải bắt kịp.