Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Apple’dan AirPods Max Güncellemesi: Nasıl Yüklenir?
İçindekiler
ToggleStorageReview, Nvidia’nın Jetson Orin Nano Super adlı kompakt yapay zeka geliştirme platformunu test etmek amacıyla Solidigm D5-P5336 SSD’yi kullanarak bir deney gerçekleştirdi. Nano Super, 6 çekirdekli Arm CPU, 1024 çekirdekli Ampere GPU ve 8GB LPDDR5 RAM ile geliyor. 249 dolarlık uygun fiyatı, AI geliştiricileri için erişilebilir bir seçenek sunuyor, ancak sınırlı VRAM nedeniyle büyük ölçekli modelleri çalıştırmakta zorlanıyor.
Deneyde, Nano Super’in bellek sınırlarını aşmak için yenilikçi bir yöntem kullanıldı. Jetson platformu, büyük yapay zeka modellerini çalıştırmak için Gen 4 PCIe x4 bağlantısını destekleyen Solidigm U.2 SSD ile genişletildi. SSD’nin sunduğu 7,1 GB/sn okuma ve 3,3 GB/sn yazma hızı, teorik olarak büyük ölçekli AI işlemlerinde avantaj sağladı, ancak Jetson Orin’in PCIe Gen3 arayüzü nedeniyle 2,5 GB/sn’ye kadar sınırlı okuma hızları elde edilebildi.
Deney sırasında DeepSeek R1 70B Distilled adlı büyük ölçekli LLM (Large Language Model) çalıştırıldı. Jetson’ın sadece 8GB belleğe sahip olması, geleneksel yöntemlerle bu modelin çalıştırılmasını imkansız hale getirirken, ekip AirLLM kullanarak modeli dinamik olarak yüklemeyi başardı. DeepSeek R1 70B modeli, normalde bu cihazın çalıştırabileceği sınırdan 45 kat daha büyük olmasına rağmen, kısıtlı donanım ortamında başarılı bir şekilde çalıştırıldı.
Deneyin en büyük sınırlayıcı faktörü, Jetson Orin Nano Super’in PCIe Gen3 arayüzü ve düşük VRAM kapasitesi oldu. Küçük modellerle başarılı sonuçlar alınırken, 70B modelinde tek bir jeton üretme süresi 4,5 dakika sürdü. Bu, gerçek zamanlı yapay zeka işlemleri için uygun bir çözüm olmadığını gösterse de büyük SSD kapasitesinin, kısıtlı donanım ortamlarında büyük modellerin çalıştırılmasını mümkün kılabileceğini kanıtladı.
Bu test, devasa kapasiteli SSD’lerin, kısıtlı donanım konfigürasyonlarında bile büyük yapay zeka modellerini çalıştırmada nasıl yardımcı olabileceğini ortaya koydu. Nvidia Jetson Orin Nano Super gibi düşük maliyetli yapay zeka platformlarının, yüksek kapasiteli depolama çözümleriyle büyük AI modelleri için daha verimli hale getirilebileceği görüldü.
Gelecekte, AI ve depolama dünyasındaki gelişmeleri takip etmeye devam edeceğiz!
Yorum Yaz