Üyelerimize Özel Tüm Opsiyonlardan Giriş Yaparak Faydalanabilirsiniz
Üyelerimize Özel Tüm Opsiyonlardan Giriş Yaparak Faydalanabilirsiniz
Üyelerimize Özel Tüm Opsiyonlardan Giriş Yaparak Faydalanabilirsiniz
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Zaten bir üyeliğiniz mevcut mu ? Giriş yapın
Sitemize üye olarak beğendiğiniz içerikleri favorilerinize ekleyebilir, kendi ürettiğiniz ya da internet üzerinde beğendiğiniz içerikleri sitemizin ziyaretçilerine içerik gönder seçeneği ile sunabilirsiniz.
Üyelerimize Özel Tüm Opsiyonlardan Kayıt Olarak Faydalanabilirsiniz
OpenAI, en son dil modeli GPT-4o’nun piyasaya sürülmesinden önce yaptığı risk değerlendirmelerini ve aldığı güvenlik önlemlerini açıklayan bir araştırma belgesi yayınladı. GPT-4o, Mayıs ayında halka açık olarak kullanıma sunulmuştu.
İçindekiler
ToggleOpenAI, GPT-4o’nun lansmanından önce, olası güvenlik açıklarını tespit etmek amacıyla harici bir uzman ekip görevlendirdi. Bu ekip, GPT-4o’nun izinsiz ses klonları oluşturma, müstehcen ve şiddet içerikli materyal üretme veya telif hakkı korumalı ses öğelerini kopyalama gibi riskleri inceledi. Yapılan kapsamlı değerlendirmenin sonuçları artık kamuoyuyla paylaşıldı.
OpenAI’nın kendi değerlendirme çerçevesine göre, GPT-4o “orta düzey” riskli olarak nitelendirildi. Bu genel risk seviyesi; siber güvenlik, biyolojik tehditler, ikna kabiliyeti ve model otonomisi olmak üzere dört ana kategorinin en yüksek risk derecesi dikkate alınarak belirlendi. İkna kabiliyeti dışındaki tüm kategorilerde risk seviyesi düşük olarak değerlendirildi. Araştırmacılar, GPT-4o tarafından üretilen bazı yazı örneklerinin, okuyucuların fikirlerini insan yazarlardan daha iyi etkileyebildiğini tespit etti. Ancak genel olarak GPT-4o’nun ürettiği içeriklerin daha ikna edici olmadığı belirtildi.
OpenAI, GPT-4o’nun sistem kartını kritik bir dönemde yayınladı. Şirket son zamanlarda, kendi çalışanlarından eyalet senatörlerine kadar pek çok kesimden güvenlik standartlarıyla ilgili eleştiriler almaktaydı. GPT-4o’nun sistem kartının yayınlanmasından sadece dakikalar önce, The Verge’ün özel haberine göre, Senatör Elizabeth Warren ve Temsilci Lori Trahan, OpenAI’nın ifşa edenleri ve güvenlik incelemelerini nasıl ele aldığına dair yanıtlar talep eden bir açık mektup kaleme aldı. Bu mektup, halihazırda kamuoyuna yansıyan birçok güvenlik sorununa dikkat çekiyor.
Öte yandan, OpenAI böylesine güçlü bir çoklu modal modeli ABD başkanlık seçimlerinden hemen önce piyasaya sürmesi nedeniyle endişeleri artırdı. GPT-4o’nun yanlışlıkla yanlış bilgi yayma veya kötü niyetli aktörler tarafından ele geçirilme riski açıkça mevcut. OpenAI, kötüye kullanımı önlemek için gerçek dünya senaryolarını test ettiğini vurgulasa da, seçim öncesi böyle bir adım kaygıları artırıyor.
OpenAI’ya sadece GPT-4o’nun eğitim verileriyle ilgili değil, güvenlik testleriyle ilgili de daha şeffaf olması yönünde çağrılar var. Kaliforniya’da, OpenAI da dahil olmak üzere birçok önde gelen yapay zeka laboratuvarının bulunduğu eyalette, büyük dil modellerini düzenlemek için bir yasa tasarısı üzerinde çalışılıyor. Eğer bu yasa onaylanırsa, OpenAI’nın sınır modelleri, kamuya açık kullanıma sunulmadan önce eyalet tarafından zorunlu tutulan risk değerlendirmelerine tabi olacak.
GPT-4o Sistem Kartı’ndan çıkan en büyük sonuç ise, harici uzmanlar ve test ekiplerine rağmen, çoğu değerlendirmenin hala OpenAI’nın kendisine bağlı olması. Şirketin kendi kendini denetlemesi ve değerlendirmesi, eleştirilere rağmen devam ediyor. Ancak GPT-4o gibi güçlü modellerin yaygınlaşmasıyla, bağımsız denetimlerin önemi daha da artacak gibi görünüyor.
Yorum Yaz