
FirstIndonesiaMagz.id– Microsoft telah membangun chip AI buatannya sendiri yang dapat digunakan untuk melatih model bahasa yang besar dan berpotensi menghindari ketergantungan yang mahal pada Nvidia.
Microsoft juga telah membangun CPU berbasis Arm sendiri untuk beban kerja cloud. Kedua chip silikon khusus ini dirancang untuk memberi daya pada pusat data Azure dan mempersiapkan perusahaan dan pelanggan perusahaan untuk masa depan yang penuh dengan AI.
Chip AI Azure Maia Microsoft dan CPU Azure Cobalt bertenaga Arm akan hadir pada tahun 2024 serta didukung oleh lonjakan permintaan tahun ini untuk GPU H100 Nvidia yang banyak digunakan untuk melatih dan mengoperasikan alat gambar generatif dan model bahasa yang besar.
Sementara, Chip AI Azure Maia dan CPU Azure Cobalt yang baru dibuat sendiri di Microsoft dikombinasikan dengan perombakan mendalam pada seluruh jajaran server cloud untuk mengoptimalkan kinerja, daya, dan biaya.
CPU Azure Cobalt dinamai sesuai dengan pigmen biru adalah chip 128-inti yang dibangun di atas desain Arm Neoverse CSS dan disesuaikan untuk Microsoft. Ini dirancang untuk mendukung layanan cloud umum di Azure.
“Kami membuat beberapa pilihan desain yang sangat disengaja, termasuk kemampuan untuk mengontrol kinerja dan konsumsi daya per inti dan pada setiap mesin virtual,” ujar Kepala Sistem Perangkat Keras dan Infrastruktur Azure di Microsoft, Rani Borkar, dalam sebuah wawancara dengan The Verge.
Microsoft saat ini sedang menguji CPU Cobalt pada beban kerja seperti Microsoft Teams dan SQL server, dengan rencana untuk menyediakan mesin virtual bagi pelanggan tahun depan untuk berbagai beban kerja.
Meskipun Borkar tidak akan melakukan perbandingan langsung dengan server Amazon Graviton 3 yang tersedia di AWS, seharusnya ada beberapa peningkatan kinerja yang nyata dibandingkan dengan server berbasis Arm yang saat ini digunakan Microsoft untuk Azure.
“Pengujian awal kami menunjukkan bahwa performa kami mencapai 40 persen lebih baik daripada yang saat ini ada di pusat data kami yang menggunakan server Arm komersial,” ujar Borkar.
Selain itu, Akselerator AI Maia 100 Microsoft, yang dinamai sesuai dengan nama bintang biru terang, dirancang untuk menjalankan beban kerja AI cloud, seperti pelatihan dan inferensi model bahasa yang besar.
Akselerator tersebut digunakan untuk mendukung beberapa beban kerja AI terbesar perusahaan di Azure, termasuk bagian dari kemitraan senilai miliaran dolar dengan OpenAI di mana Microsoft mendukung semua beban kerja OpenAI.
“Kami sangat senang ketika Microsoft pertama kali membagikan desain mereka untuk chip Maia, dan kami telah bekerja sama untuk menyempurnakan dan mengujinya dengan model kami,” ujar CEO OpenAI, Sam Altman.
Diproduksi dengan proses TSMC 5-nanometer, Maia memiliki 105 miliar transistor – sekitar 30 persen lebih sedikit daripada 153 miliar yang ditemukan pada pesaing AMD, Nvidia, yaitu GPU AI MI300X.
“Maia mendukung implementasi pertama kami untuk tipe data sub 8-bit, tipe data MX, untuk merancang perangkat keras dan perangkat lunak secara bersama-sama. Hal ini membantu kami mendukung pelatihan model dan waktu pengambilan kesimpulan yang lebih cepat,” tutur Borkar.
Microsoft merupakan bagian dari grup yang terdiri dari AMD, Arm, Intel, Meta, Nvidia, dan Qualcomm yang menstandarkan format data generasi berikutnya untuk model AI. Microsoft membangun kerja kolaboratif dan terbuka dari Open Compute Project (OCP) untuk mengadaptasi seluruh sistem dengan kebutuhan AI.