Nvidia saat ini menitikberatkan pada konfigurasi CUDA pada seluruh iterasi chip GPU. CUDA memiliki platform paralel yang mengeksekusi perintah komputasi secara paralel pula. Arsitektur ini memiliki kelebihan yaitu sifatnya yang general dan serbaguna. Namun keterlambatan dari Nvidia rupanya belum mampu membendung permintaan chipset pusat data AI, sehingga muncul celah bagi Marvell untuk mengisi permintaan chipset AI untuk komputasi khusus untuk keperluan hyperscale.
Beberapa produk Marvel dengan arsitektur ASIC sudah beredar di pasaran antara lain Maia-2 yang didesain khusus untuk Microsoft Azure. Selain itu, ada chipset Axion untuk komputasi layanan Google Cloud. Ada juga Trainium dan Inferentia yang secara khusus didesain untuk Amazon Web Services. Ketiga chipset ini memiliki kekhususan masing-masing. Maia-2 misalnya, dikhususkan untuk melatih agen AI dengan workload tinggi, Axion untuk optimasi workload komputasi awan (cloud computing), Trainium digunakan untuk pemodelan machine learning, dan Inferentia melatih efisiensi dan optimasi akselerator AI AWS.
Siap Lepas Landas Mulai Q3
Pada kuartal ketiga tahun ini, pendapatan yang berasal dari pusat data AI meroket sampai 98%. Hal ini merambat pada kinerja keuangan Marvell yang meraup USD $1,52 miliar pendapatan di periode tersebut. Angka pendapatan ini naik 7% secara tahunan dan 19% bila dibandingkan dengan kuartal sebelumnya. Khusus pendapatan dari pusat data, Marvell meraup USD $1,1 miliar atau lebih dari 70% keseluruhan pendapatan.