Yeni MLCommons Sonuçları, Intel’in Rekabetçi Yapay Zekâ Kazanımlarını Vurguluyor

MLCommons bugün, hem Habana Gaudi derin öğrenme hızlandırıcısının hem de 4. Nesil Intel Xeon Scalable işlemcinin eğitim sonuçlarının sunulduğu sektörel yapay zekâ performans ölçütü MLPerf Training 3.0’ın sonuçlarını yayınladı. Intel Başkan ...

MLCommons bugün, hem Habana Gaudi derin öğrenme hızlandırıcısının hem de 4. Nesil Intel Xeon Scalable işlemcinin eğitim sonuçlarının sunulduğu sektörel yapay zekâ performans ölçütü MLPerf Training 3.0’ın sonuçlarını yayınladı.

Intel Başkan Yardımcısı ve Veri Merkezi ve Yapay Zekâ Grubu Genel Müdürü Sandra L. Rivera: “MLCommons’ın yayınladığı en son MLPerf sonuçları, Intel Xeon işlemcilerin ve Intel Gaudi derin öğrenme hızlandırıcılarının yapay zekâ alanında müşterilere sağladığı TCO değerini doğruluyor. Xeon yerleşik hızlandırıcıları sayesinde genel amaçlı işlemcilerde yüksek hacimli yapay zekâ iş yüklerini çalıştırmak için ideal bir çözüm haline gelirken, Gaudi ise büyük dil modelleri ve üretken yapay zekâ için rekabetçi performans sunuyor. Intel’in optimize edilmiş, programlaması kolay açık yazılıma sahip ölçeklenebilir sistemleri, müşterilerin ve iş ortaklarının veri merkezinde buluttan akıllı uca kadar geniş bir yelpazede yapay zekâya dayalı çözümler sunmasının önündeki engelleri azaltıyor.”

Endüstrideki mevcut anlatı, üretken yapay zekâ ve büyük dil modellerinin (LLM’ler) yalnızca Nvidia GPU’larda çalışabileceği yönünde. Oysa yeni veriler, Intel’in yapay zekâ çözümleri portföyünün, verimliliği ve ölçeği sınırlayan kapalı ekosistemlerden kurtulmak isteyen müşteriler için rekabetçi ve cazip seçenekler sunduğunu gösteriyor.

En son MLPerf Training 3.0 sonuçları, Intel ürünlerinin bir dizi derin öğrenme modeli üzerindeki performansını vurguluyor. Eğitim için Gaudi2 tabanlı yazılım ve sistemlerin olgunluğu, büyük dil modeli GPT-3 üzerinde ölçekli olarak gösterildi. Gaudi2, GPT-3’ün LLM eğitimi için kıyaslama ölçütüne performans sonuçları sunan iki yarı iletken çözümden biri.

Gaudi2, ayrıca hem sunucu hem de sistem maliyetlerinde müşterilere önemli ölçüde rekabetçi maliyet avantajları da sağlıyor. Hızlandırıcının GPT-3, bilgisayarlı görü ve doğal dil modelleri üzerindeki MLPerf onaylı performansı ve gelecekteki yazılım gelişmeleri, Gaudi2’yi Nvidia’nın H100’üne son derece cazip bir fiyat/performans alternatifi haline getiriyor.

CPU cephesindeyse, Intel yapay zekâ motorlarına sahip 4. Nesil Xeon işlemcilerin derin öğrenme eğitimi performansı, müşterilerin Xeon tabanlı sunucularla veri ön işleme, model eğitimi ve dağıtımı için tek üniversal yapay zekâ sistemi oluşturarak yapay zekâ performansı, verimlilik, doğruluk ve ölçeklenebilirliğin doğru kombinasyonunu sağlayabileceğini gösterdi.

Üretken yapay zekâ ve büyük dil modellerinin eğitimi için, büyük ölçekli işlem gereksinimlerini karşılayabilecek sunucu kümeleri gereklidir. Bu MLPerf sonuçları, test edilen en zorlu model olan 175 milyar parametreli GPT-3 üzerinde Habana Gaudi2’nin olağanüstü performansını ve verimli ölçeklenebilirliğini somut bir şekilde doğruluyor.

Sonuçlarda öne çıkan hususlar:

  • Gaudi2, GPT-31 üzerinde etkileyici bir eğitim süresi sağladı1: 384 hızlandırıcıda 311 dakika.
  • GPT-3 modelinde 256’dan 384 hızlandırıcıya neredeyse lineer %95 ölçeklendirme.
  • Bilgisayarla görüde -ResNet-50 8 hızlandırıcı ve Unet3D 8 hızlandırıcı- ve doğal dil işleme modelleri -BERT 8 ve 64 hızlandırıcılar- üzerinde mükemmel eğitim sonuçları.
  • BERT ve ResNet modelleri için Kasım ayındaki sunuma kıyasla sırasıyla %10 ve %4 oranlarında performans artışları – bu sonuçlar, Gaudi2 yazılımının olgunlaştığının kanıtıdır.
  • Gaudi2 sonuçları “kutudan çıktığı gibi” sunuldu, yani müşteriler Gaudi2’yi şirket içinde ya da bulutta uygularken benzer performans sonuçlarına ulaşabilirler.

İlk yorum yazan siz olun

Bilim-teknoloji Haberleri