0

Xilinx’in sunduğu

AI, muazzam toplumsal gelişmeler yaratarak hayatımızın birçok yönünü değiştirmeye başladı. Kendi kendine giden otomobillerden yapay zeka destekli tıbbi teşhise kadar, gerçekten dönüştürücü bir çağın başlangıcındayız.

Ancak fırsatla birlikte zorluklar da geliyor. Eğitimli makine öğrenimi algoritmalarına dayalı tahminler yapma süreci olan AI çıkarımı, dağıtım konumu (bulut, uç veya uç nokta) ne olursa olsun, sıkı güç bütçeleriyle yüksek işlem performansı gerektirir. Genel olarak, CPU’ların tek başına yetişmediği ve AI çıkarım iş yüklerini daha verimli bir şekilde işlemek için bir tür işlem hızlandırmanın gerekli olduğu kabul edilir.

Aynı zamanda, AI algoritmaları geleneksel silikonun hızından daha hızlı bir şekilde gelişmektedir geliştirme döngüleri. Yapay zeka ağlarının ASIC uygulamaları gibi sabit silikon çipler, son teknoloji ürünü yapay zeka modellerindeki hızlı yenilik nedeniyle hızla modası geçmiş olma riskiyle karşı karşıyadır.

Tam uygulama hızlandırma

{1 } Daha az bilinen üçüncü bir zorluk var. Bu, AI Çıkarımının tek başına konuşlandırılmadığı gerçeğine odaklanır. Gerçek AI dağıtımları, genellikle AI işlevinden önce ve sonra AI dışı işleme gerektirir. Örneğin, yapay zeka modelinin veri girişi gereksinimlerine uyması için bir görüntünün sıkıştırmasının açılması ve ölçeklenmesi gerekebilir.

Bu geleneksel işleme işlevleri, yine yüksek performans ve düşük güçle, AI işleviyle aynı çıktıda çalışmalıdır. Yapay zeka çıkarım uygulamasında olduğu gibi, yapay zeka dışı ön ve son işleme işlevleri bir tür hızlandırma gerektirmeye başlıyor.

Yalnızca yapay zekayı hızlandırmak yeterli DEĞİL

{1 }

Gerçek bir uygulama oluşturmak için, tüm uygulamanın verimli bir şekilde uygulanması gerekir. Bir veri merkezi uygulamasında, uygulama binlerce hatta milyonlarca paralel örneğe sahip olabilir. Örnek başına tasarruf edilebilecek her bir Watt değeri, genel güç tüketiminde büyük bir fark yaratacaktır

Bir çözüm, yalnızca tüm uygulama hem hızlanma yoluyla performans hedefini hem de güç gereksinimlerini karşıladığında uygulanabilir. Daha fazla verimlilik. Öyleyse, bütün bir uygulama hızlandırmasını nasıl uygulanabilir bir şekilde uygulayabiliriz?

Üç temel öğe vardır: özel bir veri yolu oluşturma yeteneği; tek cihazlı bir uygulamanın kullanılması; ve hızla gelişmeye ve gelişmeye devam ederken en yeni AI modellerinden yararlanma yeteneği. Üç öğeye de bir göz atalım.

Özel bir veri yolu oluşturma yeteneği

AI çıkarımının çoğu biçimi akış verileri üzerinde çalışır. Genellikle veriler, bir video beslemesinin parçası, işlenen tıbbi görüntüler veya analiz edilen ağ trafiği gibi hareket halindedir. Veriler diskte depolandığında bile, diskten okunur ve “AI uygulaması” aracılığıyla akışa alınır.

Özel bir veri yolu, bu tür veri akışlarını işlemek için en verimli yöntemi sağlar. Özel bir veri yolu, uygulamayı, verilerin bellekten küçük parçalar halinde okunduğu, çalıştırıldığı ve belleğe geri yazıldığı geleneksel Von-Neuman CPU mimarisinin sınırlamalarından kurtarır. Bunun yerine, özel bir veri yolu, verileri bir işleme motorundan diğerine düşük gecikme süresi ve doğru performans düzeyiyle aktarır. Çok düşük işlem performansı uygulamanın gereksinimlerini karşılamayacaktır. Çok fazla performans verimsiz olacaktır – boşta kalma özelliğiyle güç veya fiziksel alan israfı. Özel bir veri yolu, uygulama için uygulamayı doğru boyutlandırarak mükemmel bir denge sağlar.

Tek cihaz uygulaması

Bazı çözümler yapay zeka çıkarımında iyidir, ancak tüm uygulama işlemede değildir . GPU’lar gibi sabit mimarili cihazlar genellikle bu kategoriye girer. GPU’lar genellikle yüksek Tera işlem / saniye (TOP) sayılarına sahip olabilir, bu yaygın bir performans ölçümüdür, ancak AI çıkarım performansının genellikle işlem öncesi ve sonrası performansla eşleştirilmesi gerekir. AI olmayan bileşenler aynı GPU’da verimli bir şekilde uygulanamazsa, çok cihazlı bir çözüme ihtiyaç vardır. Bu, güç tüketimi açısından çok verimsiz ve maliyetli olan cihazlar arasında veri gönderilmesini gerektirerek gücü boşa harcar. Tüm uygulamayı verimli bir şekilde uygulayabilen tek bir cihaz, gerçek dünyadaki AI çıkarım dağıtımlarında önemli bir avantaja sahiptir.

En yeni AI modellerine uyum sağlayın ve bunlarla gelişin

Hız AI’daki inovasyon şaşırtıcıdır. Bugün en son teknoloji olarak kabul edilen şey, bundan altı ay sonra kolayca modası geçmiş hale gelebilir. Daha eski modelleri kullanan uygulamalar rekabet edememe riski taşır, bu nedenle en son modelleri hızlı bir şekilde uygulama yeteneği kritik önem taşır.

Öyleyse hangi teknoloji yapay zeka modellerinin dinamik güncellemelerine izin verirken her ikisini de hızlandırmak için özel bir veri yolu oluşturma yeteneği sağlar Tek bir cihazda yapay zeka ve yapay zeka dışı işleme? Cevap, uyarlanabilir bilgi işlem platformlarıdır.

Uyarlanabilir bilgi işlem platformları

Uyarlanabilir bilgi işlem platformları, üretimden sonra dinamik olarak yeniden yapılandırılabilen donanımlar üzerine kurulmuştur. Bu, FPGA’lar gibi uzun süredir devam eden teknolojileri ve Xilinx’in AI Engine gibi daha yeni yenilikleri içerir. Xilinx’in Versal ™ Adaptive Compute Compute Acceleration Platform gibi tek cihazlı bir platform, özel veri yollarının oluşturulmasına izin vererek hem yapay zeka hem de yapay zeka dışı işleme işlevlerini hızlandırabilir. Donanım hızlı bir şekilde yeniden yapılandırılabildiğinden, en yeni AI modellerini hızlı ve verimli bir şekilde uygulayabilirler. Uyarlanabilir bilgi işlem cihazları, her iki dünyanın da en iyisini sağlar. Uzun ve pahalı tasarım döngüleri olmadan özel ASIC’lerin verimlilik avantajlarını sunarlar.

Bir AI uygulamasının en iyi uygulamasının en hızlı olması gerekmez, en verimli olun, ancak esnek kalın. Doğru boyutta olmalı, gereken performansı sunmalı, ne daha fazla ne de daha azını sunmalıdır.

Özet

Yapay zeka çıkarımı daha yaygın hale geldikçe, zorluk sadece AI modelinin nasıl dağıtılacağı, ancak tüm AI uygulamasının en verimli şekilde nasıl dağıtılacağı. Uygulamalar binlerce, hatta milyonlarca kez çoğaltıldığında, her örnekte küçük bir enerji tasarrufu, tüm elektrik santrali değerinde enerji tasarrufu sağlayabilir.

Bunu, geliştirilmekte olan sayısız yeni AI uygulamasıyla çarptığınızda, etkiler dramatik olacak. Tüm yapay zeka uygulamalarının verimli bir şekilde hızlandırılmasının teknoloji endüstrisindeki herkes için bir hedef olması gerektiği ve uyarlanabilir bilgi işlem platformlarının rekabetçi bir çözüm sağlaması gerektiğine şüphe yok.

Greg Martin, Xilinx, Inc.’de Stratejik Pazarlama Direktörüdür { 2}

Sponsorlu makaleler, gönderi için ödeme yapan veya VentureBeat ile iş ilişkisi olan bir şirket tarafından üretilen içeriklerdir ve her zaman açıkça işaretlenirler. Yazı işleri ekibimiz tarafından üretilen içerik, hiçbir şekilde reklam verenlerden veya sponsorlardan etkilenmez. Daha fazla bilgi için [email protected] ile iletişime geçin.

Kaynak :
https://venturebeat.com/2020/09/17/adaptive-computing-platforms-deliver-efficient-ai-acceleration/


0 Comments

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir