Divisi Google milik Alphabet memperkenalkan dua prosesor kecerdasan buatan khusus pada hari Rabu, menandai pertama kalinya arsitektur unit pemrosesan tensor-nya dipisahkan menjadi chip berbeda untuk operasi pelatihan dan inferensi.
TPU 8t dirancang khusus untuk pelatihan model AI, sementara pasangannya, TPU 8i, berfokus sepenuhnya pada inferensi—proses penerapan model yang telah dilatih dalam aplikasi dunia nyata. Broadcom berperan sebagai mitra pengembangan bersama, melanjutkan kolaborasi yang telah berlangsung lebih dari sepuluh tahun.
Alphabet Inc., GOOGL
Ini merupakan perubahan strategi dari pendekatan sebelumnya. Iterasi TPU terdahulu menggabungkan kemampuan pelatihan dan inferensi dalam satu prosesor. Google mengaitkan perubahan ini dengan munculnya sistem AI agentik—model otonom yang beroperasi dalam loop umpan balik berkelanjutan dengan pengawasan manusia minimal—yang membutuhkan silikon yang lebih bertujuan khusus.
TPU 8i yang berorientasi inferensi memuat 384 megabyte SRAM per prosesor—tiga kali kapasitas Ironwood. Menurut Google, peningkatan arsitektur ini menghilangkan hambatan "ruang tunggu", mengurangi lonjakan latensi yang terjadi ketika banyak pengguna secara bersamaan melakukan kueri pada sebuah model.
Dibandingkan Ironwood, TPU 8i mencapai efisiensi biaya 80% lebih baik. Dalam istilah operasional, organisasi dapat mengakomodasi hampir dua kali lipat permintaan pengguna tanpa menambah anggaran.
Chip ini juga menunjukkan efisiensi energi per watt yang meningkat hingga 2x, dimungkinkan oleh teknologi manajemen daya dinamis yang mengatur konsumsi energi berdasarkan kebutuhan beban kerja secara real-time.
Untuk pertama kalinya, kedua prosesor menggunakan CPU Axion milik Google sebagai prosesor host, memungkinkan optimasi pada tingkat arsitektur sistem daripada hanya membatasi peningkatan pada performa chip individual.
Terkait kemampuan pelatihan, konfigurasi superpod TPU 8t mendukung kluster hingga 9.600 prosesor dengan memori bandwidth tinggi sebesar 2 petabyte. Ini mewakili dua kali lipat bandwidth komunikasi antarchip Ironwood, dan Google mengklaim hal ini dapat mempersingkat jadwal pengembangan model frontier dari hitungan bulan menjadi hanya beberapa minggu.
Prosesor pelatihan ini menghadirkan performa komputasi 2,8 kali lipat dari arsitektur Ironwood generasi ketujuh pada titik harga yang setara.
Adopsi awal terus berkembang. Citadel Securities mengembangkan platform riset kuantitatif menggunakan infrastruktur TPU Google. Semua tujuh belas laboratorium nasional Departemen Energi Amerika Serikat menjalankan aplikasi AI co-scientist pada prosesor tersebut. Anthropic telah berkomitmen untuk memanfaatkan kapasitas komputasi TPU Google dalam jumlah gigawatt.
Analis di DA Davidson memproyeksikan pada bulan September bahwa divisi TPU Google, bila digabungkan dengan Google DeepMind, dapat memiliki valuasi mendekati $900 miliar.
Google mempertahankan model distribusi eksklusif untuk TPU—tidak tersedia untuk pembelian langsung dan hanya dapat diakses melalui layanan Google Cloud. Nvidia terus memasok perangkat keras GPU ke Google, dan perusahaan mengonfirmasi bahwa mereka akan menjadi salah satu penyedia layanan cloud awal yang menawarkan platform Vera Rubin Nvidia yang akan datang ketika diluncurkan akhir tahun ini.
Prosesor ini dirancang dalam kolaborasi erat dengan Google DeepMind, yang telah menerapkannya untuk melatih model bahasa Gemini dan mengoptimalkan algoritma yang mendukung platform Search dan YouTube.
Google mengumumkan bahwa TPU 8t dan TPU 8i akan tersedia secara umum bagi pelanggan platform cloud pada akhir 2025.
The post Alphabet (GOOGL) Unveils Dual-Purpose 8th-Gen TPU Chips Developed With Broadcom appeared first on Blockonomi.