XDefiant PC Sistem Gereksinimleri Açıklandı

Sıradaki içerik:

XDefiant PC Sistem Gereksinimleri Açıklandı

e
sv

Yapay zeka kıyameti:

17 Mayıs 2024 14:00
robot-terminator-e1464939172203

Yapay zeka kıyameti : Silikon Vadisi kendi yaratılışından neden ve nasıl korktu?

Yapay zekanın potansiyeli her geçen gün daha da parlıyor, ancak en büyük destekçileri bile artık dikkatli olunmasını tavsiye ediyor.

Google Pixel Watch, Google Asistan'ı görüntüler.

ChatGPT ve birçok rakibi sayesinde yapay zeka, bir zamanlar sınırsız heyecan uyandıran bir ifadeden, artık korku duygusu uyandıran bir ifadeye dönüştü. Bunun nedenini anlamak zor değil; teknolojinin hızlı yükselişi emsalsiz. Metaveri ve önceki ilgi çekici döngülerin aksine, AI ürünleri bugün mevcuttur ve yetenekleri şaşırtıcı bir hızla ilerlemektedir. Ancak teknoloji ikonları ve yapay zeka uzmanları arasında ciddi endişelere yol açan da tam da bu potansiyeldir. Ancak Silikon Vadisi haklı mı ve görünüşte yararlı olan çeşitli sohbet robotları gerçekten insanlığın çöküşüne ve hatta yok olmasına neden olabilir mi?

Virüs bulaşmış bir bilgisayarın yanındaki plazma küresi

Kıyamet olasılığını bir dakikalığına görmezden gelsek bile, yapay zekanın bugün milyonlarca olmasa da binlerce insanın geçimini nasıl etkilediğini gözden kaçırmak mümkün değil. Görüntü oluşturucular ve sohbet robotları zararsız gibi görünse de , müşteri destek temsilcilerinden grafik tasarımcılarına kadar herkesi çoktan yerinden etmiş durumda. Ve 18. yüzyıldaki sanayileşmeden farklı olarak, yapay zekanın onun ardından yeni işler yaratacağı iddiasını tam olarak ileri süremezsiniz.

Modern yapay zeka sistemleri, geleneksel makinelerin aksine, insan denetimi ihtiyacını azaltarak akıl yürütebilir ve kendi kendini düzeltebilir. Sadece birkaç hafta önce, yapay zeka girişimi Cognition Labs, Devin’i ya da kendi deyimiyle “dünyanın ilk tam otonom yazılım mühendisi”ni tanıttı. Devin, kod üretmenin ötesinde hataları tespit edip düzeltebilir, kendi yeni yapay zeka modellerini eğitebilir ve dağıtabilir, açık kaynaklı projelere katkıda bulunabilir ve hatta topluluk tartışmalarına katılabilir. Maalesef bu özerkliğin basit iş kaybının çok ötesine geçen ciddi sonuçları var.

En büyük tehlike, bizden daha iyi düşünen yapay zeka değil, bizi aldatabilen yapay zekadır.

Geçen ay açık kaynaklı sıkıştırma aracı XZ Utils’te keşfedilen kötü amaçlı arka kapıyı ele alalım. XZ, geliştirici toplulukları dışında çok az bilinmesine rağmen, milyonlarca Linux tabanlı sunucu ona güveniyor ve arka kapı, saldırganlara birçok kritik sistem üzerinde uzaktan kontrol olanağı vermiş olabilir. Ancak bu geleneksel bir hack veya istismar değildi. Bunun yerine saldırgan, topluluğun güvenini kazanıp arka kapı kodunu sızmadan önce birkaç yıl boyunca yardımsever bir katılımcı olarak ün kazandı.

Gelişmiş bir yapay zeka sistemi, kötü amaçlı kod üretiminden insan tartışmasını taklit etmeye kadar her yönü ele alarak bu tür saldırıları geniş ölçekte otomatikleştirebilir. Tabii ki, otonom dil tabanlı etmenler bugün pek yetenekli ya da kullanışlı değil. Ancak geliştirici topluluklarına sorunsuz bir şekilde uyum sağlayabilecek ve temel altyapıyı yönetebilecek bir yapay zeka kaçınılmaz görünüyor. OpenAI ve Cognitive Labs, yapay zeka ürünlerinin etrafına korkuluklar inşa ediyor, ancak gerçek şu ki, saldırganların yararlanabileceği sansürsüz dil modelleri sıkıntısı yok.

Uzmanlar, endişe verici bir şekilde, bu tür yapay zeka destekli aldatmaca ve çatışmaların buzdağının sadece görünen kısmı olabileceğinden endişe ediyor. Gerçek risk, yapay zekanın bir gün insan kontrolünün ötesine geçebilmesidir.

Kıyamet olasılığı

voksel labirenti

İnsan kontrolünden kaçma yeteneğine sahip bir yapay zeka, günümüzde bir bilim kurgu senaryosu gibi görünse de teknoloji endüstrisindeki birçok kişi için bu kaçınılmazdır. The New York Times’ın haberine göre , p(doom) olarak adlandırılan yeni bir istatistik Silikon Vadisi’nde ilgi gördü. “Kıyamet olasılığı”nın kısaltması olan bu ölçüm, birisinin yapay zeka odaklı bir kıyamet konusunda ne kadar endişe duyduğunu ölçmenin şakacı bir yolu olarak başladı. Ancak her geçen gün ciddi bir tartışmaya dönüşüyor.

Tahminler farklılık gösteriyor ancak dikkat çeken kısım, sektördeki neredeyse hiç kimsenin felaket olasılığını sıfır olarak değerlendirmemesi. Anthropic AI kurucu ortağı Dario Amodei gibi teknolojiye derinden yatırım yapanlar bile p(doom) oranlarını yaklaşık yüzde 10 ila 25 arasında sabitliyor. Ve bu, yüzde 50’nin üzerinde rakamlar aktaran birçok yapay zeka güvenlik araştırmacısını saymıyor bile.

Bu kıyamet korkusu, teknoloji şirketlerinin mümkün olan en güçlü yapay zekayı geliştirme yarışına kilitlenmesinden kaynaklanıyor. Bu da nihayetinde, insan kavrayışının ötesinde yeteneklere sahip süper akıllı bir sistem yaratana kadar daha iyi yapay zeka oluşturmak için yapay zekayı kullanmak anlamına geliyor. Bu kulağa abartılı geliyorsa, Google’ın Gemini’si gibi büyük dil modellerinin , amaçlanan programlamanın ötesine geçen dil çevirisi gibi yeni ortaya çıkan yetenekleri zaten gösterdiğini belirtmekte fayda var.

Silikon Vadisi’nde yapay zekayı inşa edenler bile insanlığın şansı konusunda karamsar.

Asıl soru, süper zeki bir yapay zekanın insani değerlerle uyumlu olup olmayacağı veya acımasız verimlilik arayışında bize zarar verip vermeyeceğidir. Bu durum belki de en iyi şekilde ataç maksimize edici olarak bilinen bir düşünce deneyiyle açıklanabilir. Görünüşte zararsız bir yapay zekanın, mümkün olduğu kadar çok ataç üretme görevi verildiğinde, insanlara veya geleneklerimize bakılmaksızın tüm dünyanın kaynaklarını tüketebileceğini öne sürüyor. İsveçli filozof Nick Bostrom teorileştirdi:

Tek amacı mümkün olduğu kadar çok ataç yapmak olan bir yapay zekaya sahip olduğumuzu varsayalım. Yapay zeka, hiç insan olmasaydı çok daha iyi olacağının farkına varacak çünkü insanlar onu kapatmaya karar verebilir. Çünkü insanlar bunu yaparsa daha az ataç olur. Ayrıca insan vücudu ataç haline getirilebilecek çok sayıda atom içerir.

Şu anda Midjourney ve ChatGPT gibi platformların etrafında bulunan güvenlik korkulukları yeterli değil, özellikle de yaratıcılarının çoğu zaman kararsız davranışları açıklayamaması nedeniyle. Peki çözüm nedir? Silikon Vadisi’nin bir cevabı yok ve Big Tech her zamanki gibi pervasızca yenilik yapmaya devam ediyor. Daha geçen ay Google ve Microsoft, ilgili güven ve güvenlik ekiplerindeki işleri kesti. İkincisinin, etik yapay zeka inovasyonuna rehberlik etmeye adanmış ekibinin tamamını işten çıkardığı bildirildi.

Elon Musk ve onun birçok tartışması hakkında ne söylerseniz söyleyin, ancak yapay zeka sektörünün acilen reform ve düzenlemeye ihtiyaç duyduğu yönündeki tutumuna katılmamak zor. Musk, Apple kurucu ortağı Steve Wozniak ve diğerlerinin yaygın endişelerinin ardından OpenAI, geçen yıl yeni modellerin eğitimine geçici bir ara vermeyi kabul etti. Bununla birlikte, GPT-5 şu anda aktif olarak geliştirilmektedir ve süper zekaya ulaşma yarışı devam etmekte olup, güvenlik ve insanlığın geleceği sorusunu muallakta bırakmaktadır.

  • Site İçi Yorumlar

En az 10 karakter gerekli

Gönderdiğiniz yorum moderasyon ekibi tarafından incelendikten sonra yayınlanacaktır.