Nükleer santrale gerek yok: Yeni algoritma yapay zekanın enerji sorununu çözüyor

Üretken yapay zeka uygulamaları ve bunlara güç veren modeller o kadar yoğun bir şekilde enerji tüketiyor ki dev teknoloji firmaları veri merkezlerini nükleer santraller ile beslemeyi planlıyor. Bu ve benzer yöntemler ile Microsoft ve Google gibi büyük oyuncular durumu hafifletmeye çalışırken BitEnergy AI adlı bir şirket, bu sorunun çözümünü bulduğunu iddia ediyor.

Enerji tüketimi yüzde 95 düşüyor

BitEnergy AI araştırmacıları, yapay zekanın enerji tüketimini önemli ölçüde azaltabilecek bir teknik geliştirdiklerini söylüyor. Araştırma, bu yöntemin enerji tüketimini yüzde 95 oranında azaltabileceğini öne sürüyor. Ekip, bu buluşa Linear-Complexity Multiplication ya da kısaca L-Mul adını verdi. Bu hesaplama süreci, yapay zeka ile ilgili görevlerde kayan nokta çarpımlarından çok daha az enerji gerektiren ve daha az adım içeren tamsayı toplama işlemlerini kullanıyor.

Yapay zeka hesaplamalarında genellikle çok büyük veya çok küçük sayıları işlemek için kayan noktalı sayılar kullanılıyor. Bu sayede karmaşık hesaplamaları kesin bir şekilde gerçekleştirmek mümkün oluyor. Ancak bu hassasiyet, yüksek enerji tüketimini de beraberinde getiriyor.

Yapay zeka alanındaki enerji tüketimi esasında yolun en başından beri bir sorun olmaya devam ediyor. Örneğin ChatGPT, her gün 549 MWh elektrik kullanıyor; bu, 18 bin evin elektrik kullanıma eşdeğer. Üstelik bu tüketim yeni modellerle birlikte daha da artacak. Analistlere göre 2027 yılına kadar yapay zeka endüstrisi yıllık 85 ila 134 TWh arasında elektrik tüketecek.

L-Mul algoritması, karmaşık kayan noktalı çarpımları daha basit tamsayı toplama işlemleri ile hesaplamaları çözerek bu aşırı enerji israfını hedef alıyor. Yapılan algoritma testlerinde yapay zeka modellerinin doğruluğunu korurken enerji tüketimini, tensör çarpımları için yüzde 95 ve nokta çarpımları için yüzde 80 oranında azalttığı gözlemlendi. Algoritma aynı zamanda mevcut 8-bit hesaplama standartlarını aşarak daha az bit düzeyi hesaplama ile daha yüksek hassasiyet sağlıyor. Yeni algoritmanın kapsamlı testlerde yalnızca yüzde 0,07 oranında bir performans kaybı gözlemlendi.

L-Mul algoritması, GPT (Generative Pre-trained Transformer) tabanlı modellerde en iyi performansı sunabiliyor. Bunların hepsi iyi haberler ama kötü haberler de var. İşin en tatsız yanı L-Mul algoritmasının özel bir donanım gerektiriyor olması. Mevcut yapay zeka işleme süreçleri, bu tekniği kullanmak için optimize edilmemiş durumda. Neyse ki firma, özel donanım ve programlama API’lerinin geliştirilmesi üzerinde çalışıyor. Bu çalışmaların makul bir zaman diliminde tamamlanması bekleniyor. Ondan sonraki en büyük zorluk ise Nvidia ve AMD gibi üreticilerin bunları benimsemesi olacak.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir