Bir Amazon.com şirketi olan Amazon Web Services (AWS) ve NVIDIA, giderek karmaşıklaşan büyük dil modellerini (LLM’ler) eğitmek ve üretici yapay zekâ uygulamaları geliştirmek için optimize edilmiş, dünyanın en ölçeklenebilir, isteğe bağlı yapay zekâ (AI) altyapısını oluşturmaya odaklanan çok yönlü bir iş birliği yaptıklarını duyurdu.
Bu konuda Amazon’dan gelen açıklama şöyle oldu: “Bu iş birliği, NVIDIA H100 Tensor Core GPU’lar tarafından desteklenen yeni nesil Amazon Elastic Compute Cloud (Amazon EC2) P5 bulut sunucularını ve AWS’in en büyük derin öğrenme modellerini oluşturmak ve eğitmek için 20 exaFLOP’a kadar işlem performansı sağlayacak son teknoloji ağ iletişimini ve ölçeklenebilirliğini kapsıyor. P5 bulut sunucuları, 3.200 Gbps düşük gecikme süreli, yüksek bant genişlikli ağ aktarım hızı sağlayarak müşterilerin EC2 UltraClusters’da 20.000 H100 GPU’ya kadar ölçeklendirme yapmasına olanak tanıyan ve böylece yapay zekâ için istek üzerine süper bilgisayar sınıfı performansa erişebilmelerini sağlayan AWS’in ikinci nesil Esnek Yapı Bağdaştırıcısı (EFA, Elastic Fabric Adapter) ağ iletişiminden yararlanan ilk GPU tabanlı bulut sunucusu olacak. Bu teknolojiyi kullanmak için sabırsızlanan şirketler arasında, ürün geliştirmelerini hızlandırmak ve müşterilerine yeni empatik yapay zekâ tabanlı deneyimler sunmak isteyen dünya çapında tanınan şirketlerden biri olan Pinterest yer alıyor.”
AWS CEO’su Adam Selipsky konuyla ilgili olarak şunları söyledi: “AWS ve NVIDIA, AI/ML (yapay zekâ/makine öğrenimi), grafik, oyun ve HPC (yüksek performanslı bilişim) gibi çeşitli uygulamalara yönelik, istek üzerine, büyük ölçekli, uygun maliyetli, GPU tabanlı çözümler sunmak için 12 yılı aşkın süredir iş birliği yapıyor. Bugün birçok müşterinin makine öğrenimi eğitimi iş yüklerini 10.000’den fazla GPU’ya ölçeklendirdiği de göz önüne alınırsa, AWS her nesilde ölçeklenebilirlik sınırlarını zorlayan GPU tabanlı bulut sunucuları sunma konusunda benzersiz bir deneyime sahip. İkinci nesil EFA, müşterilerin P5 bulut sunucularını 20.000’den fazla NVIDIA H100 GPU’ya ölçeklendirmelerine olanak sağlayarak startup’lardan büyük şirketlere kadar geniş bir yelpazede müşterilere istek üzerine süper bilgisayar yetenekleri sunabilecek.”
NVIDIA kurucusu ve CEO’su Jensen Huang ise, “Hızlandırılmış bilgi işlem ve yapay zekâ tam zamanında geldi. Hızlandırılmış bilgi işlem, işletmeler daha az kaynakla daha fazlasını yapmaya çalışırlarken maliyetleri ve gücü düşürmenin yanı sıra kademeli işlevlerin hızlandırılmasını sağlar. Üretici yapay zekâ, şirketleri, ürünlerini ve iş modellerini yeniden tasarlamaya teşvik etti ve yıkılan değil yıkıcı olan olabileceklerini fark etmelerini sağladı. AWS, uzun süredir çözüm ortağımız ve NVIDIA GPU’ları sunan ilk bulut hizmeti sağlayıcısı. Müşterilerimizin önlerindeki muazzam fırsatları değerlendirmek için hızlandırılmış bilgi işlem ve üretici yapay zekadan yararlanmalarına yardımcı olmak için uzmanlığımızı, ölçeğimizi ve erişimimizi birleştirmekten heyecan duyuyoruz” şeklinde konuştu.
Konu hakkında şunlar da aktarıldı: “NVIDIA GPU’lar tarafından desteklenen yeni P5 bulut sunucuları, soru yanıtlama, kod oluşturma, video ve görüntü oluşturma, ses tanıma ve daha fazlası dahil olmak üzere en zorlu ve bilgi işlem açısından yoğun üretici yapay zekâ uygulamalarının arkasındaki giderek karmaşıklaşan LLM’leri ve görüntü işleme modellerini eğitmek için ideal olarak kullanılabiliyor. Yeni sunucu tasarımları ise, NVIDIA ve AWS mühendislik ekiplerinin termal, elektrik ve mekanik alanlardaki uzmanlığını kullanarak ölçeklenebilir ve verimli yapay zekayı hedefliyor ve AWS altyapısında enerji verimliliğine odaklanarak geniş ölçekte yapay zekâ sunmak için GPU’lardan yararlanan sunucular oluşturulmasını sağlıyor. GPU’lar genellikle belirli yapay zekâ iş yükleri için CPU’lardan 20 kat daha fazla enerji tasarrufludur ve H100, LLM’ler için CPU’lardan 300 kata kadar daha verimlidir.”