OpenAI ve Anthropic, büyük yeni yapay zeka modellerine erişim sağlayarak, ABD hükümetinin güvenlik testleri yapmasına izin vereceklerini açıkladı. Bu adım, olası risklerin değerlendirilmesi ve sorunların hafifletilmesi için şirketler ile hükümet arasında işbirliğini artırmayı hedefliyor.
OpenAI ve Anthropic, modelleri hem halka açılmadan önce hem de sonrasında ABD Yapay Zeka Güvenliği Enstitüsü ile paylaşmak üzere mutabakat anlaşmaları imzaladı. Hükümet yetkilileri, bu adımın güvenlik risklerini değerlendirmek ve olası sorunları hafifletmek için birlikte çalışmalarına yardımcı olacağını belirtti. ABD ajansı, İngiltere’deki muadil kurumla işbirliği içinde, güvenlik iyileştirmeleri hakkında geri bildirim sağlayacağını söyledi.
Yapay zeka modellerinin paylaşılması, federal ve eyalet yasama organlarının, yenilikçiliği baltalamadan teknolojiye ne tür güvenlik önlemleri getireceğini değerlendirdiği bir zamanda önemli bir adım olarak görülüyor.
Çarşamba günü, Kaliforniya yasama organı, OpenAI ve Anthropic dahil olmak üzere bazı yapay zeka şirketlerinin, daha küçük açık kaynaklı geliştiricilere zarar verebileceği uyarısında bulunduğu “Güvenli ve Emniyetli Sınır Yapay Zeka Modelleri İnovasyonu Yasası”nı (SB 1047) kabul etti. Yasa, Kaliforniya’daki yapay zeka şirketlerinin, gelişmiş temel modelleri eğitmeden önce belirli güvenlik önlemleri almalarını gerektiriyor.
Bu arada, Beyaz Saray, büyük şirketlerden yapay zeka güvenliği konusunda gönüllü taahhütler almak için çalışmalar yürütüyor. Birçok önde gelen firma, siber güvenlik ve ayrımcılık araştırmalarına yatırım yapmak ve yapay zeka tarafından oluşturulan içeriği damgalamak için bağlayıcı olmayan taahhütlerde bulundu.
ABD Yapay Zeka Güvenliği Enstitüsü direktörü Elizabeth Kelly, yeni anlaşmaların “sadece bir başlangıç olduğunu, ancak yapay zekanın geleceğini sorumlu bir şekilde yönlendirmeye çalışırken önemli bir dönüm noktası olduğunu” belirtti. OpenAI ve Anthropic’in bu süreçteki rolü, sektördeki diğer şirketlere örnek olması açısından büyük önem taşıyor.
Yapay zeka teknolojisindeki hızlı gelişmeler, hem hükümetleri hem de şirketleri güvenlik konusunda önlemler almaya zorluyor. OpenAI ve Anthropic gibi sektör liderleri, modellerini paylaşarak ve güvenlik testlerine izin vererek, sorumlu bir yapay zeka geleceği için önemli adımlar atıyor. Ancak, yenilikçiliği baltalamadan doğru düzenlemeleri getirmek de büyük önem taşıyor. Önümüzdeki dönemde, yapay zeka yarışında güvenliğin ön planda tutulması bekleniyor.
Nissan şirket içerisinde zor günlerden geçiyor. Şirket içerisinde sular durulmuyor ve istifalarda arka arkaya gelmeye…
Nükleer silahlar oldukça korkutucu olsa da savaş arenasında zaman zaman kullanıldı. Günümüzde birçok ülke nükleer…
Jaguar geçtiğimiz günlerde yeni nesil elektrikli aracını tanıttı. Yeni model Type Paris’te tanıtıldı. Jaguar, elektrikli…
Geçtiğimiz ay tanıtımı yapılan "Başka Bir Sen" filmi, izleyiciler tarafından büyük bir merakla bekleniyor. Filmin…
Galaxy F06 5G uygun fiyatı ve özellikleri ile merak edilen bir telefondu ve nihayet fiyatı…
Online alışverişlerde tarayıcınıza kaydettiğiniz kredi kartı bilgileriniz, siber suçluların hedefinde! Uzmanlar, bu kolaylığın aslında finansal…
This website uses cookies.