Microsoft telah memperkenalkan chip kecerdasan buatan baru yang disebut Maia 200 yang menargetkan beban kerja komputasi cloud. Chip ini hadir dua tahun setelah Microsoft mengungkapkan chip AI pertamanya, Maia 100, yang tidak pernah tersedia secara luas untuk klien cloud. Perusahaan mengatakan Maia 200 akan menjangkau lebih banyak pelanggan dan memberikan ketersediaan yang lebih luas di masa depan.
Microsoft mengumumkan bahwa Maia 200 dapat berfungsi sebagai alternatif untuk prosesor dari Nvidia, Trainium milik Amazon, dan TPU milik Google. Scott Guthrie, wakil presiden eksekutif Microsoft untuk cloud dan AI, mengatakan Maia 200 membawa "ketersediaan pelanggan yang lebih luas di masa depan." Microsoft mengatakan Maia 200 mewakili sistem inferensi paling efisien yang diterapkan hingga saat ini.
Pengembang, akademisi, dan laboratorium AI dapat mengajukan permohonan untuk pratinjau software development kit Maia 200. Pratinjau ini menawarkan akses awal ke alat untuk membangun dan mengoptimalkan beban kerja AI pada chip baru. Microsoft mengatakan pratinjau ini akan memperluas eksperimen di berbagai model AI open source dan kasus penggunaan perusahaan.
Microsoft mengatakan tim superintelligence-nya, yang dipimpin oleh Mustafa Suleyman, akan menggunakan Maia 200 untuk beban kerja internal dan pelanggan. Perusahaan juga mengonfirmasi bahwa Microsoft 365 Copilot dan Microsoft Foundry akan berjalan di chip baru. Layanan ini mencakup add-on perangkat lunak produktivitas dan kerangka kerja untuk membangun di atas model AI besar.
Penyedia cloud menghadapi permintaan yang meningkat dari pengembang model AI seperti Anthropic dan OpenAI, kata Microsoft. Operator pusat data mencari daya komputasi yang lebih tinggi sambil mengelola kendala energi dan biaya. Dalam lingkungan kompetitif ini, perusahaan bertujuan untuk menyeimbangkan performa dengan biaya operasional dan penggunaan energi.
Microsoft mengatakan chip Maia 200 menggunakan proses 3-nanometer dari Taiwan Semiconductor Manufacturing Co. Perusahaan mengatakan menempatkan empat chip Maia 200 di dalam setiap server, saling terhubung untuk meningkatkan throughput. Microsoft menjelaskan bahwa desain ini menggunakan kabel Ethernet daripada standar InfiniBand yang terlihat dalam instalasi Nvidia.
Perusahaan menyatakan bahwa Maia 200 memberikan performa 30 persen lebih tinggi pada titik harga yang setara dibandingkan dengan alternatif. Microsoft mengatakan setiap Maia 200 mencakup lebih banyak memori bandwidth tinggi daripada Trainium milik AWS atau TPU generasi ketujuh milik Google. Desain arsitektur ini bertujuan untuk mendukung beban kerja inferensi model skala besar.
Microsoft juga mengatakan dapat menghubungkan hingga 6.144 chip Maia 200 untuk meningkatkan performa lebih jauh. Perusahaan mengklaim bahwa pendekatan ini membantu mengurangi penggunaan energi dan total biaya kepemilikan. Microsoft sebelumnya menunjukkan bahwa Maia 100 dapat menjalankan GitHub Copilot pada tahun 2023.
Microsoft mengatakan akan menerapkan chip Maia 200 pertama kali di wilayah pusat data U.S. Central. Perusahaan mengatakan chip akan tiba kemudian di wilayah U.S. West 3. Penerapan global tambahan akan mengikuti peluncuran awal ini.
Postingan Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilities pertama kali muncul di Blockonomi.


