Bộ phận Google của Alphabet đã ra mắt hai bộ xử lý trí tuệ nhân tạo chuyên dụng vào thứ Tư, đánh dấu lần đầu tiên kiến trúc đơn vị xử lý tensor của hãng được tách thành các chip riêng biệt dành cho việc huấn luyện và suy luận.
TPU 8t được thiết kế chuyên biệt cho việc huấn luyện mô hình AI, trong khi người anh em TPU 8i tập trung hoàn toàn vào suy luận—quá trình triển khai các mô hình đã được huấn luyện trong các ứng dụng thực tế. Broadcom đóng vai trò là đối tác đồng phát triển, tiếp nối sự hợp tác đã kéo dài hơn mười năm.
Alphabet Inc., GOOGL
Đây là sự chuyển hướng chiến lược so với các phương pháp trước đây. Các thế hệ TPU trước kết hợp cả khả năng huấn luyện và suy luận trong một bộ xử lý duy nhất. Google cho rằng sự thay đổi này xuất phát từ sự nổi lên của các hệ thống AI agentic—các mô hình tự hành hoạt động trong các vòng phản hồi liên tục với sự giám sát tối thiểu của con người—đòi hỏi silicon được xây dựng có mục đích hơn.
TPU 8i định hướng suy luận tích hợp 384 megabyte SRAM trên mỗi bộ xử lý—gấp ba lần dung lượng của Ironwood. Theo Google, cải tiến kiến trúc này loại bỏ nút thắt cổ chai "phòng chờ", giảm các đợt tăng độ trễ xảy ra khi nhiều người dùng đồng thời truy vấn một mô hình.
So với Ironwood, TPU 8i đạt hiệu quả chi phí tốt hơn 80%. Về mặt vận hành, các tổ chức có thể đáp ứng gần gấp đôi nhu cầu người dùng mà không cần tăng ngân sách.
Chip cũng thể hiện hiệu quả năng lượng được cải thiện lên đến 2 lần trên mỗi watt, được hỗ trợ bởi công nghệ quản lý nguồn điện động điều chỉnh mức tiêu thụ năng lượng dựa trên yêu cầu khối lượng công việc thời gian thực.
Lần đầu tiên, cả hai bộ xử lý đều sử dụng Axion CPU của Google làm bộ xử lý chủ, cho phép tối ưu ở cấp độ kiến trúc hệ thống thay vì chỉ giới hạn cải tiến ở hiệu suất chip riêng lẻ.
Về khả năng huấn luyện, cấu hình superpod TPU 8t hỗ trợ các cụm lên đến 9.600 bộ xử lý với 2 petabyte bộ nhớ băng thông cao. Điều này đại diện cho băng thông giao tiếp liên chip gấp đôi so với Ironwood, và Google tuyên bố có thể rút ngắn thời gian phát triển mô hình tiên tiến từ nhiều tháng xuống chỉ còn vài tuần.
Bộ xử lý huấn luyện mang lại hiệu suất tính toán gấp 2,8 lần so với kiến trúc Ironwood thế hệ thứ bảy ở cùng mức giá.
Việc áp dụng sớm đang ngày càng thu hút sự chú ý. Citadel Securities đã phát triển các nền tảng nghiên cứu định lượng sử dụng cơ sở hạ tầng TPU của Google. Tất cả mười bảy phòng thí nghiệm quốc gia của Bộ Năng lượng Hoa Kỳ vận hành các ứng dụng AI co-scientist trên các bộ xử lý này. Anthropic đã cam kết sử dụng nhiều gigawatt năng lực điện toán TPU của Google.
Các nhà phân tích tại DA Davidson đã dự báo vào tháng 9 rằng bộ phận TPU của Google, khi kết hợp với Google DeepMind, có thể đạt mức định giá tiệm cận 900 tỷ đô la.
Google duy trì mô hình phân phối độc quyền cho các TPU—chúng không có sẵn để mua trực tiếp và chỉ có thể được truy cập thông qua các dịch vụ Google Cloud. Nvidia tiếp tục cung cấp phần cứng GPU cho Google, và công ty xác nhận sẽ nằm trong số những nhà cung cấp dịch vụ đám mây đầu tiên cung cấp nền tảng Vera Rubin sắp ra mắt của Nvidia khi nó ra mắt vào cuối năm nay.
Các bộ xử lý được thiết kế hợp tác chặt chẽ với Google DeepMind, đơn vị đã triển khai chúng để huấn luyện các mô hình ngôn ngữ Gemini và tối ưu các thuật toán hỗ trợ nền tảng Search và YouTube.
Google thông báo rằng cả TPU 8t và TPU 8i sẽ được cung cấp rộng rãi cho khách hàng nền tảng đám mây vào cuối năm 2025.
The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.

