Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
Oyun Yayıncıları Neden Twitch’e Geri Dönüyor?
OpenAI ve Anthropic, büyük yeni yapay zeka modellerine erişim sağlayarak, ABD hükümetinin güvenlik testleri yapmasına izin vereceklerini açıkladı. Bu adım, olası risklerin değerlendirilmesi ve sorunların hafifletilmesi için şirketler ile hükümet arasında işbirliğini artırmayı hedefliyor.
İçindekiler
ToggleOpenAI ve Anthropic, modelleri hem halka açılmadan önce hem de sonrasında ABD Yapay Zeka Güvenliği Enstitüsü ile paylaşmak üzere mutabakat anlaşmaları imzaladı. Hükümet yetkilileri, bu adımın güvenlik risklerini değerlendirmek ve olası sorunları hafifletmek için birlikte çalışmalarına yardımcı olacağını belirtti. ABD ajansı, İngiltere’deki muadil kurumla işbirliği içinde, güvenlik iyileştirmeleri hakkında geri bildirim sağlayacağını söyledi.
Yapay zeka modellerinin paylaşılması, federal ve eyalet yasama organlarının, yenilikçiliği baltalamadan teknolojiye ne tür güvenlik önlemleri getireceğini değerlendirdiği bir zamanda önemli bir adım olarak görülüyor.
Çarşamba günü, Kaliforniya yasama organı, OpenAI ve Anthropic dahil olmak üzere bazı yapay zeka şirketlerinin, daha küçük açık kaynaklı geliştiricilere zarar verebileceği uyarısında bulunduğu “Güvenli ve Emniyetli Sınır Yapay Zeka Modelleri İnovasyonu Yasası”nı (SB 1047) kabul etti. Yasa, Kaliforniya’daki yapay zeka şirketlerinin, gelişmiş temel modelleri eğitmeden önce belirli güvenlik önlemleri almalarını gerektiriyor.
Bu arada, Beyaz Saray, büyük şirketlerden yapay zeka güvenliği konusunda gönüllü taahhütler almak için çalışmalar yürütüyor. Birçok önde gelen firma, siber güvenlik ve ayrımcılık araştırmalarına yatırım yapmak ve yapay zeka tarafından oluşturulan içeriği damgalamak için bağlayıcı olmayan taahhütlerde bulundu.
ABD Yapay Zeka Güvenliği Enstitüsü direktörü Elizabeth Kelly, yeni anlaşmaların “sadece bir başlangıç olduğunu, ancak yapay zekanın geleceğini sorumlu bir şekilde yönlendirmeye çalışırken önemli bir dönüm noktası olduğunu” belirtti. OpenAI ve Anthropic’in bu süreçteki rolü, sektördeki diğer şirketlere örnek olması açısından büyük önem taşıyor.
Yapay zeka teknolojisindeki hızlı gelişmeler, hem hükümetleri hem de şirketleri güvenlik konusunda önlemler almaya zorluyor. OpenAI ve Anthropic gibi sektör liderleri, modellerini paylaşarak ve güvenlik testlerine izin vererek, sorumlu bir yapay zeka geleceği için önemli adımlar atıyor. Ancak, yenilikçiliği baltalamadan doğru düzenlemeleri getirmek de büyük önem taşıyor. Önümüzdeki dönemde, yapay zeka yarışında güvenliğin ön planda tutulması bekleniyor.
Yorum Yaz