TLDR Microsoft meluncurkan chip Maia 200 untuk mendukung tugas AI cloud yang berat dan bersaing dengan chip Nvidia, AWS, dan Google. Maia 200 menghadirkan performa 30% lebih baikTLDR Microsoft meluncurkan chip Maia 200 untuk mendukung tugas AI cloud yang berat dan bersaing dengan chip Nvidia, AWS, dan Google. Maia 200 menghadirkan performa 30% lebih baik

Microsoft Meluncurkan Chip AI Generasi Kedua untuk Memperkuat Kemampuan Cloud

TLDR

  • Microsoft meluncurkan chip Maia 200 untuk mendukung tugas AI cloud yang menuntut dan bersaing dengan chip Nvidia, AWS, dan Google.
  • Maia 200 memberikan performa 30% lebih baik dengan biaya yang sama dan menggunakan proses 3nm untuk daya dan kecepatan yang optimal.
  • Microsoft akan pertama kali memasang Maia 200 di pusat data U.S. Central, diikuti oleh U.S. West 3 dan lokasi global lainnya.
  • Pratinjau software development kit tersedia untuk pengembang, peneliti, dan laboratorium yang bekerja dengan model AI open-source.
  • Maia 200 akan mendukung Microsoft 365 Copilot, Microsoft Foundry, dan tim superintelligence internal yang dipimpin oleh Mustafa Suleyman.

Microsoft telah memperkenalkan chip kecerdasan buatan baru yang disebut Maia 200 yang menargetkan beban kerja komputasi cloud. Chip ini hadir dua tahun setelah Microsoft mengungkapkan chip AI pertamanya, Maia 100, yang tidak pernah tersedia secara luas untuk klien cloud. Perusahaan mengatakan Maia 200 akan menjangkau lebih banyak pelanggan dan memberikan ketersediaan yang lebih luas di masa depan.

Maia 200 Bertujuan Bersaing di Pasar Prosesor AI Cloud

Microsoft mengumumkan bahwa Maia 200 dapat berfungsi sebagai alternatif untuk prosesor dari Nvidia, Trainium milik Amazon, dan TPU milik Google. Scott Guthrie, wakil presiden eksekutif Microsoft untuk cloud dan AI, mengatakan Maia 200 membawa "ketersediaan pelanggan yang lebih luas di masa depan." Microsoft mengatakan Maia 200 mewakili sistem inferensi paling efisien yang diterapkan hingga saat ini.

Pengembang, akademisi, dan laboratorium AI dapat mengajukan permohonan untuk pratinjau software development kit Maia 200. Pratinjau ini menawarkan akses awal ke alat untuk membangun dan mengoptimalkan beban kerja AI pada chip baru. Microsoft mengatakan pratinjau ini akan memperluas eksperimen di berbagai model AI open source dan kasus penggunaan perusahaan.

Microsoft mengatakan tim superintelligence-nya, yang dipimpin oleh Mustafa Suleyman, akan menggunakan Maia 200 untuk beban kerja internal dan pelanggan. Perusahaan juga mengonfirmasi bahwa Microsoft 365 Copilot dan Microsoft Foundry akan berjalan di chip baru. Layanan ini mencakup add-on perangkat lunak produktivitas dan kerangka kerja untuk membangun di atas model AI besar.

Penyedia cloud menghadapi permintaan yang meningkat dari pengembang model AI seperti Anthropic dan OpenAI, kata Microsoft. Operator pusat data mencari daya komputasi yang lebih tinggi sambil mengelola kendala energi dan biaya. Dalam lingkungan kompetitif ini, perusahaan bertujuan untuk menyeimbangkan performa dengan biaya operasional dan penggunaan energi.

Detail Teknis dan Rencana Penerapan untuk Chip Maia 200

Microsoft mengatakan chip Maia 200 menggunakan proses 3-nanometer dari Taiwan Semiconductor Manufacturing Co. Perusahaan mengatakan menempatkan empat chip Maia 200 di dalam setiap server, saling terhubung untuk meningkatkan throughput. Microsoft menjelaskan bahwa desain ini menggunakan kabel Ethernet daripada standar InfiniBand yang terlihat dalam instalasi Nvidia.

Perusahaan menyatakan bahwa Maia 200 memberikan performa 30 persen lebih tinggi pada titik harga yang setara dibandingkan dengan alternatif. Microsoft mengatakan setiap Maia 200 mencakup lebih banyak memori bandwidth tinggi daripada Trainium milik AWS atau TPU generasi ketujuh milik Google. Desain arsitektur ini bertujuan untuk mendukung beban kerja inferensi model skala besar.

Microsoft juga mengatakan dapat menghubungkan hingga 6.144 chip Maia 200 untuk meningkatkan performa lebih jauh. Perusahaan mengklaim bahwa pendekatan ini membantu mengurangi penggunaan energi dan total biaya kepemilikan. Microsoft sebelumnya menunjukkan bahwa Maia 100 dapat menjalankan GitHub Copilot pada tahun 2023.

Microsoft mengatakan akan menerapkan chip Maia 200 pertama kali di wilayah pusat data U.S. Central. Perusahaan mengatakan chip akan tiba kemudian di wilayah U.S. West 3. Penerapan global tambahan akan mengikuti peluncuran awal ini.

Postingan Microsoft Unveils Second‑Generation AI Chip to Strengthen Cloud Capabilities pertama kali muncul di Blockonomi.

Penafian: Artikel yang diterbitkan ulang di situs web ini bersumber dari platform publik dan disediakan hanya sebagai informasi. Artikel tersebut belum tentu mencerminkan pandangan MEXC. Seluruh hak cipta tetap dimiliki oleh penulis aslinya. Jika Anda meyakini bahwa ada konten yang melanggar hak pihak ketiga, silakan hubungi [email protected] agar konten tersebut dihapus. MEXC tidak menjamin keakuratan, kelengkapan, atau keaktualan konten dan tidak bertanggung jawab atas tindakan apa pun yang dilakukan berdasarkan informasi yang diberikan. Konten tersebut bukan merupakan saran keuangan, hukum, atau profesional lainnya, juga tidak boleh dianggap sebagai rekomendasi atau dukungan oleh MEXC.