Tại Google Cloud Next ’23, Google Cloud đã công bố một loạt quan hệ đối tác và cải tiến sản phẩm mới để thúc đẩy các doanh nghiệp và tổ chức thuộc khu vực công ở Đông Nam Á thử nghiệm và xây dựng ứng dụng với các mô hình ngôn ngữ lớn (LLM) và mô hình AI tạo sinh (generative AI) dễ dàng hơn, có thể tùy chỉnh chúng với dữ liệu doanh nghiệp, tích hợp và triển khai chúng một cách thuận lợi vào các ứng dụng thông qua các AI được tích hợp sẵn tính năng bảo mật, an toàn và có trách nhiệm.
Nâng cấp danh mục cơ sở hạ tầng chuyên dụng và tối ưu hóa cho AI của Google Cloud
Những khả năng xử lý vượt trội và ứng dụng rộng rãi mang tính cách mạng của AI tạo sinh rất cần cơ sở hạ tầng phức tạp và có khả năng xử lý mạnh mẽ. Trong 25 năm, Google Cloud đã đầu tư vào trung tâm dữ liệu và mạng, phát triển mạng lưới đám mây toàn cầu bao gồm 38 khu vực, với mục tiêu vận hành hoàn toàn bằng năng lượng xanh carbon-free 24/7 vào năm 2030.
Mạng lưới toàn cầu này bao gồm các khu vực đám mây ở Indonesia và Singapore, với các khu vực đám mây mới sẽ được thiết lập tại Malaysia và Thái Lan. Dựa trên nền tảng này, hệ thống cơ sở hạ tầng được tối ưu hóa cho AI của Google Cloud đang là lựa chọn hàng đầu để huấn luyện và phục vụ các mô hình AI tạo sinh, với hơn 70% các công ty thuộc nhóm kỳ lân AI tạo sinh hiện đang xây dựng ứng dụng dựa trên Google Cloud, bao gồm AI21, Anthropic, Cohere, Jasper, Replit, Runway và Typeface.
Để giúp các tổ chức ở Đông Nam Á chạy các tác vụ AI yêu cầu cao nhất một cách hiệu quả về chi phí và có thể mở rộng, Google Cloud đã công bố một loạt những cải tiến đáng kể cho danh mục cơ sở hạ tầng tối ưu hóa cho AI bao gồm: Cloud TPU v5e – đã có sẵn trong bản preview công khai – và A3 VMs với GPU NVIDIA H100 đã có mặt rộng rãi (GA).
Cloud TPU v5e là bộ gia tốc phần cứng AI của Google Cloud được xây dựng với mục đích tiết kiệm chi phí, linh hoạt và có khả năng mở rộng nhất cho đến nay. Giờ đây khách hàng có thể sử dụng một nền tảng Cloud Tensor Processing Unit (TPU) để chạy song song hoạt động huấn luyện và suy luận (training and inferencing) cho AI với quy mô lớn.
Cloud TPU v5e mang lại hiệu suất đào tạo cao hơn gấp 2 lần trên mỗi đô la và hiệu suất suy luận cao hơn gấp 2,5 lần trên mỗi đô la cho các mô hình LLM và AI tạo sinh so với Cloud TPU v4, giúp các tổ chức có thể đào tạo và triển khai các mô hình AI lớn hơn và phức tạp hơn.
Cloud TPU v5e hiện đang có sẵn trong bản preview công khai tại các khu vực đám mây đặt tại Las Vegas và Columbus của Google Cloud, với kế hoạch mở rộng sang các khu vực khác, bao gồm khu vực đám mây tại Singapore của Google Cloud vào cuối năm nay.
A3 VM, siêu máy tính được cung cấp bởi GPU (Bộ xử lý đồ họa) H100 của NVIDIA, sẽ chính thức ra mắt vào tháng tới, cho phép các tổ chức đạt được hiệu suất đào tạo nhanh hơn 3 lần so với A2 -thế hệ trước của nó.
A3 VM được thiết kế riêng để huấn luyện và phục vụ các tác vụ LLM và AI tạo sinh có yêu cầu đặc biệt cao. Trên sân khấu của Google Cloud Next ’23, Google Cloud và NVIDIA cũng đã công bố các tích hợp mới để giúp các tổ chức khác có thể sử dụng cùng một công nghệ NVIDIA mà Google DeepMind và các nhóm nghiên cứu của Google đã sử dụng trong hai năm qua.
Google Cloud cũng công bố một số cải tiến cơ sở hạ tầng quan trọng khác, bao gồm:
- Google Kubernetes Engine (GKE) Enterprise: Công cụ này cho phép mở rộng quy mô theo chiều ngang đa cụm cần thiết cho các tác vụ AI và máy học (ML) yêu cầu cao nhất. Khách hàng hiện có thể cải thiện năng suất phát triển AI bằng cách tận dụng GKE để quản lý điều phối tác vụ AI quy mô lớn trên Cloud TPU v5e. Ngoài ra, hỗ trợ GKE cho VM A3 với GPU NVIDIA H100 hiện đã được cung cấp rộng rãi.
- Cross-Cloud Network: Đây là nền tảng mạng lưới toàn cầu giúp khách hàng kết nối và bảo mật các ứng dụng giữa các đám mây và onprem. Nền tảng này là mở (open), được tối ưu hóa cho các tác vụ – điều này rất quan trọng đối với toàn bộ hiệu suất khi các tổ chức áp dụng AI tạo sinh, cung cấp bảo mật dựa trên ML hướng đến Zero Trust.
- Các dịch vụ AI mới cho Google Distributed Cloud (GDC): GDC được thiết kế nhằm đáp ứng những nhu cầu riêng biệt của các tổ chức mong muốn vận hành các tác vụ ở biên hoặc bên trong các trung tâm dữ liệu của họ. Các sản phẩm trong GDC sẽ đưa AI đến mạng rìa (Edge), với các tích hợp của Vertex AI và sản phẩm được quản lý mới với AlloyDB Omni trên GDC Hosted.
Mark Lohmeyer, Phó Chủ tịch kiêm Tổng Giám đốc Cơ sở hạ tầng máy tính và máy học của Google Cloud, cho biết: “Trong hai thập kỷ qua, Google đã xây dựng một số khả năng xử lý AI hàng đầu lĩnh vực: từ việc tạo dựng kiến trúc Transformer của Google giúp hiện thực hóa AI tạo sinh, cho đến cơ sở hạ tầng tối ưu hóa cho AI của chúng tôi, được xây dựng để mang lại quy mô và hiệu suất toàn cầu từ nhu cầu của các sản phẩm Google đang phục vụ hàng tỷ người dùng như YouTube, Gmail, Google Maps, Google Play và Android.
Chúng tôi rất vui mừng được mang những cải tiến và nghiên cứu trong nhiều thập kỷ đến với các khách hàng của Google Cloud, hỗ trợ họ theo đuổi những cơ hội chuyển hóa trong lĩnh vực AI. Chúng tôi cung cấp giải pháp hoàn chỉnh cho AI, từ cơ sở hạ tầng điện toán được tối ưu hóa cho AI đến phần mềm và dịch vụ đầu cuối (end-to-end) để hỗ trợ toàn bộ vòng đời đào tạo, điều chỉnh và phục vụ mô hình ở quy mô toàn cầu”.
Mở rộng hoạt động phát triển AI tạo sinh đáp ứng nhu cầu doanh nghiệp lớn với các mô hình và công cụ mới trên Vertex AI
Bên cạnh cơ sở hạ tầng hàng đầu thế giới của Google Cloud, công ty còn cung cấp Vertex AI như một nền tảng AI toàn diện cho phép khách hàng truy cập, điều chỉnh và triển khai các mô hình của bên thứ nhất, bên thứ ba và mã nguồn mở, cũng như xây dựng và mở rộng quy mô các ứng dụng AI cấp doanh nghiệp. Dựa trên sự ra mắt hỗ trợ AI tạo sinh trên Vertex AI, Google Cloud hiện đang mở rộng đáng kể khả năng xử lý của Vertex AI. Những khả năng này bao gồm:
- Các cải tiến đối với PaLM 2: 38 ngôn ngữ bao gồm tiếng Trung giản thể, tiếng Trung phồn thể, tiếng Indonesia, tiếng Thái và tiếng Việt, hiện đã có mặt trên PaLM 2 dành cho Text và Chat – đây là mô hình bên thứ nhất có chức năng tóm tắt và dịch văn bản cũng như duy trì cuộc trò chuyện đang diễn ra. PaLM 2 dành cho Text và Chat có thể được truy cập thông qua Model Garden của Vertex AI cùng với khả năng điều chỉnh bộ điều hợp. Điều này giúp các tổ chức ở Đông Nam Á xây dựng các ứng dụng AI tạo sinh nhằm phục vụ người dùng tốt hơn bằng các ngôn ngữ địa phương, trong khi phản hồi dựa trên dữ liệu doanh nghiệp hoặc kho dữ liệu riêng của họ. Google Cloud cũng đang lên kế hoạch tích hợp PaLM 2 cho Text và Chat trên hệ thống đám mây tại Singapore vào cuối năm nay. Để hỗ trợ những cuộc hội thoại trả lời câu hỏi dài hơn cũng như tóm tắt và phân tích các tài liệu lớn như tài liệu nghiên cứu, sách và tài liệu pháp lý, PaLM 2 dành cho Text và Chat giờ đây cũng sẽ hỗ trợ các cửa sổ ngữ cảnh 32.000 token (đủ để gói gọn một tài liệu 85 trang trong một prompt).
- Các cải tiến đối với Codey: Đã có những cải tiến về chất lượng của Codey, mô hình bên thứ nhất của Google Cloud có chức năng tạo và sửa chữa mã phần mềm, hỗ trợ lên đến 25% các ngôn ngữ chính cho việc tạo mã và chat để tạo code. Các doanh nghiệp có thể truy cập Codey thông qua Model Garden của Vertex AI cùng với khả năng điều chỉnh bộ điều hợp. Google Cloud cũng đang lên kế hoạch lưu trữ Codey trong hệ thống đám mây đặt tại Singapore vào cuối năm nay.
- Cải tiến đối với Imagen: Google Cloud đã giới thiệu Style Tuning cho Imagen, một khả năng xử lý mới giúp các doanh nghiệp điều chỉnh các hình ảnh cho tương thích hơn với quy chuẩn thương hiệu của họ với tối đa 10 hình ảnh. Imagen là mô hình bên thứ nhất của Google Cloud để tạo ra hình ảnh chất lượng cao từ các mô tả văn bản. Các doanh nghiệp có thể truy cập Imagen thông qua Model Garden của Vertex AI. Google Cloud cũng ra mắt thủy vân số (digital watermarking) trên Vertex AI, hiện đang ở giai đoạn thử nghiệm, nhằm cung cấp cho doanh nghiệp khả năng xác thực hình ảnh AI do Imagen tạo ra. Tính khả dụng thử nghiệm của thủy vân số trên Vertex AI khiến Google Cloud trở thành nhà cung cấp đám mây đầu tiên cho phép tạo watermark vô hình và chống giả mạo trong các hình ảnh do AI tạo ra. Công nghệ này được hỗ trợ bởi Google DeepMind SynthID, một công nghệ tiên tiến nhúng thủy vân số trực tiếp vào các điểm ảnh, khiến mắt thường không nhìn thấy được và rất khó để giả mạo mà không làm hỏng hình ảnh.
- Các mô hình mới: Llama 2 và Code Llama từ Meta, Falcon LLM của Viện Đổi mới Công nghệ – một dạng mô hình mã nguồn mở phổ biến – hiện đã có mặt trên Model Garden của Vertex AI. Google Cloud cũng thông báo sớm về sự ra mắt Claude 2 của Anthropic trên Model Garden của Vertex AI. Google Cloud sẽ là nhà cung cấp đám mây duy nhất hỗ trợ cả tính năng điều chỉnh bộ điều hợp và học tăng cường (reinforcement learning) từ phản hồi của con người (RLHF) cho Llama 2.
- Tiện ích mở rộng Vertex AI: Nhà phát triển có thể truy cập, xây dựng và quản lý các tiện ích mở rộng cung cấp thông tin theo thời gian thực, tích hợp dữ liệu của công ty và hành động thay cho người dùng.
- Ứng dụng Tìm kiếm doanh nghiệp và Giao tiếp của Vertex AI: Các công cụ này hiện đã có mặt rộng rãi, cho phép các tổ chức tạo ứng dụng tìm kiếm và trò chuyện bằng dữ liệu của họ chỉ trong vài phút với ít dòng code nhất, cùng chức năng quản lý và bảo mật cấp doanh nghiệp đã được tích hợp sẵn.
- Grounding: Google Cloud đã công bố một dịch vụ mặt đất cho doanh nghiệp hoạt động trên Vertex AI Search và Conversation, cũng như các mô hình nền tảng trên Model Garden của Vertex AI, giúp các tổ chức có khả năng kết nối các phản hồi vào dữ liệu doanh nghiệp của chính họ để cung cấp các phản hồi chính xác hơn. Công ty cũng đang làm việc với một số khách hàng đầu tiên để thử nghiệm grounding với công nghệ hỗ trợ Google Tìm kiếm.
Google đánh giá nghiêm ngặt các mô hình của mình nhằm đảm bảo tuân thủ Nguyên tắc AI có trách nhiệm. Khi sử dụng Vertex AI, khách hàng sẽ duy trì toàn quyền kiểm soát dữ liệu của họ: dữ liệu không cần rời khỏi tenant đám mây của khách hàng, được mã hóa cả trong quá trình chuyển đổi và lưu trữ, đồng thời không được chia sẻ hay sử dụng để đào tạo các mô hình của Google.
Thomas Kurian, Giám đốc điều hành Google Cloud cho biết: “Việc kiểm soát dữ liệu của bạn cũng quan trọng không kém việc khám phá và đào tạo mô hình phù hợp. Ngay từ đầu, Google Cloud đã thiết kế Vertex AI để cung cấp cho bạn toàn quyền kiểm soát và phân tách dữ liệu, mã code cũng như bảo hộ tác quyền với xác suất rò rỉ dữ liệu là 0%.
Cho dù bạn tùy chỉnh và huấn luyện mô hình của mình bằng Vertex AI với các tài liệu và dữ liệu riêng tư từ các ứng dụng, cơ sở dữ liệu SaaS hoặc các nguồn độc quyền khác của riêng bạn, dữ liệu đó cũng không bị rò rỉ đến mô hình nền tảng. Chúng tôi sao lưu mô hình, cho phép bạn huấn luyện và gói gọn mô hình đó trong một cấu hình riêng tư, giúp bạn hoàn toàn nắm quyền kiểm soát dữ liệu của mình.
Chúng tôi không sử dụng các prompt và dữ liệu, cũng như thông tin đầu vào của người dùng tại thời điểm suy luận để cải thiện mô hình của mình, đồng thời, không khách hàng nào có thể truy cập vào nguồn dữ liệu này.”
Vertex AI đã được nhiều công ty ở nhiều lĩnh vực trên toàn cầu sử dụng để xây dựng và triển khai các ứng dụng AI, bao gồm affable.ai, Aruna, Bank Raykat Indonesia, FOX Sports, HCA Healthcare, HSBC, Jiva, Kasikorn Business-Technology Group Labs, KoinWorks, The Estée Lauder Companies, Priceline, Shopify, Wendy’s, cùng nhiều công ty khác.
“Kể từ khi công bố hỗ trợ AI tạo sinh trên Vertex AI cách đây chưa đầy sáu tháng, chúng tôi rất hào hứng và kỳ vọng khi thấy nhiều ứng dụng sáng tạo từ đa dạng tệp khách hàng, từ các doanh nghiệp lớn như GE Appliances nơi phát triển ứng dụng tiêu dùng SmartHQ để người dùng có thể tạo công thức nấu ăn dựa trên nguyên liệu sẵn có trong bếp, cho đến những kỳ lân khởi nghiệp như Typeface, nơi giúp các tổ chức tận dụng AI để viết nên những câu chuyện thương hiệu hấp dẫn.
Với số lượng tài khoản đăng ký Vertex AI tăng hơn 15 lần trong quý vừa rồi, chúng tôi nhận thấy nhu cầu đáng kể trong việc sử dụng AI,” ông Kurian nói thêm.