Google, Cloud Next 2024 etkinliğinin açılışını yeni Axion işlemcisinin ve yeni Vids uygulamasının da aralarında bulunduğu bazı büyük duyurularla birlikte gerçekleştirdi. Google'ın veri merkezleri için özel olarak ürettiği ilk Arm tabanlı CPU Axion, Arm'nin Neoverse V2 CPU'sunu temel alıyor.
Google'ın iddiasına göre Axion, buluttaki en hızlı genel amaçlı Arm tabanlı işlemcilerden yüzde 30, en yeni x86 tabanlı VM'lerden yüzde 50 daha iyi performans gösteriyor. Ayrıca işlemcinin aynı x86 tabanlı VM'lere göre yüzde 60 daha fazla enerji tasarrufu sağladığı iddia ediliyor. Google, Axion'u BigTable ve Google Earth Engine gibi hizmetlerde şimdiden kullanmaya başladı ve gelecekte bu hizmeti daha da genişletmeyi planlıyor.
Axion'un piyasaya sürülmesi Google'ı, veri merkezlerinde kullanılan Arm tabanlı CPU'lar alanında lider olan Amazon ile rekabete sokabilir. Şirketin bulut işletmesi Amazon Web Services (AWS), Graviton işlemcisini 2018'de piyasaya sürdü ve sonraki iki yıl içinde ikinci ve üçüncü iterasyonları devreye soktu. Diğer çip geliştiricisi NVIDIA, 2021'de Grace adlı veri merkezlerinde kullanılmak üzere ilk Arm tabanlı CPU'sunu piyasaya sürdü ve Ampere gibi şirketler de bu alanda önemli çalışmalar sürdürüyor.
Google birkaç yıldır kendi işlemcilerini geliştiriyor, ancak bunlar öncelikli olarak tüketici ürünlerine odaklanmış durumda. Orijinal Arm tabanlı Tensor serisi ilk olarak 2021'in sonlarında piyasaya sürülen Pixel 6 ve 6 Pro akıllı telefonlarda kullanıldı. Sonraki Pixel telefonların tümü Tensor'un güncellenmiş sürümleriyle donatıldı. Bundan önce Google, veri merkezleri için "Tensör İşleme Birimi"ni (TPU) geliştirdi. Şirket bu birimleri 2015 yılında veri merkezlerinde dahili olarak kullanmaya başladı, 2016 yılında kamuoyuna duyurdu ve 2018 yılında üçüncü tarafların kullanımına açtı.
Arm tabanlı işlemciler genellikle daha düşük maliyetli ve daha enerji tasarruflu bir seçenek olarak karşımıza çıkıyor. Wall Street Journal'a göre Google'ın duyurusu, Arm CEO'su Rene Haas'ın yapay zeka modellerinin enerji kullanımıyla ilgili bir açıklama yapmasının hemen ardından geldi. Haas, ChatGPT gibi modelleri elektrik ihtiyaçları açısından "doyumsuz" olarak nitelendiriyor ve 10 yılın sonunda, yapay zeka veri merkezlerinin ABD'nin elektrik ihtiyacının yüzde 20 ila yüzde 25'ini tüketebileceğini öne sürüyor. Bugün bu oranın yaklaşık yüzde 4 ya da daha az olduğunu belirten Haas, durumun sürdürülebilir olmadığını savunuyor.