Yapay Zeka Modellerinin Enerji Verimliliği İyileştiriliyor
Yapay zeka modelleri, özellikle tıbbi görüntü işleme ve konuşma tanıma gibi uygulamalarda, karmaşık veri yapıları üzerinde işlemler yapmakta ve bu durum büyük miktarda hesaplama gücüne ihtiyaç duymaktadır. Bu, derin öğrenme modellerinin neden bu kadar enerji tükettiğinin en büyük sebeplerinden biridir.
MIT araştırmacıları, derin öğrenme algoritmalarının geliştiricilerinin iki farklı tür veri tekrarlılığından aynı anda yararlanabilmelerini sağlayan otomatize bir sistem geliştirdi. Bu sistem, makine öğrenimi işlemleri için gereken hesaplama, bant genişliği ve bellek depolama miktarını azaltmayı amaçlıyor.
Verimlilik Arttıran Yeni Bir Yöntem
Mevcut optimizasyon teknikleri genellikle karmaşık ve yalnızca bir tür tekrarlılığa, yani sparsity veya simetriye odaklanmaya izin vermektedir. Oysa MIT araştırmacılarının yöntemi, bir algoritmayı baştan sona inşa ederken her iki tür tekrarlılığı aynı anda kullanabilmeyi sağlıyor. Bu yaklaşım sayesinde bazı deneylerde hesaplama hızının neredeyse 30 kat artırıldığı görülmüştür.
Sistem, kullanıcı dostu bir programlama dili sayesinde, geniş bir uygulama yelpazesindeki makine öğrenimi algoritmalarını optimize etmek için kullanılabilir. Ayrıca, derin öğrenme uzmanı olmayan bilim insanlarının da kullandıkları AI algoritmalarının verimliliğini artırmalarına yardımcı olabilir.
Tensorlar ve Hesaplama Verimliliği
Makine öğreniminde veriler genellikle tensor olarak bilinen çok boyutlu dizilerle temsil edilmektedir. Bir tensor, iki eksende değerler içeren matris benzeri bir yapıdır; ancak bir matrisin sahip olduğu her boyut için bir eksen daha bulunabilir. Bu nedenle tensorlar, manipüle edilmesi zor yapılardır.
Derin öğrenme modelleri, bu tensorlar üzerinde tekrar eden matris çarpma ve toplama işlemleri gerçekleştirerek verilerdeki karmaşık desenleri öğrenir. Ancak tensorlar üzerindeki hesaplama yükü oldukça fazladır. Verilerin düzenleniş şekli nedeniyle mühendisler çoğu zaman tekrar eden hesaplamaları çıkartarak bir sinir ağının işlemlerinin hızını artırabilir.
Örneğin, bir tensor e-ticaret sitesinden kullanıcı yorumlarına ait verileri temsil ediyorsa, her kullanıcının her ürünü incelemediği için çoğu değerin sıfır olması muhtemeldir. Bu tür bir veri tekrarı, sparsity olarak bilinir ve model, yalnızca sıfır olmayan değerler üzerinde çalışarak zaman ve hesaplama tasarrufu sağlar.
Ayrıca, bazen bir tensor simetrik olabilir; yani veri yapısının üst yarısı ile alt yarısı eşittir. Bu durumda model yalnızca bir taraf üzerinde işlem yapabilir, böylece hesaplama miktarı azalır. Bu tür bir veri tekrarı ise simetri olarak adlandırılır.
“Ancak her iki optimizasyonu bir arada yakalamaya çalışmak karmaşık bir süreç olabiliyor,” diyor Willow Ahrens, MIT’de doktora sonrası araştırmacı ve sistemle ilgili bir yayının yazarlarından biri.
Ahrens ve ekibi, hesaplama verimliliğini artırmak amacıyla SySTeC adı verilen yeni bir derleyici geliştirmiştir. Bu derleyici, tensorlardaki her iki tür tekrarlılığı da otomatik olarak kullanarak hesaplamaları optimize ediyor. Bu sayede kullanıcılar, diken üzerinde hesaplama sürecine girmeden algoritmalarını geliştirebilecekler.