Çok sayıda uzman bir araya gelerek önemli bir uyarıda bulundu. Buradaki mesaj açık: Yapay zeka insanlığın yok olmasına yol açabilir
Bir grup üst düzey yapay zeka araştırmacısı, alanda çalışmalar yapan tecrübeli mühendis ve büyük teknoloji şirketlerinin CEO’su, yapay zekanın insanlık için oluşturduğuna inandıkları varoluşsal tehdit hakkında yeni bir uyarı yayınladı. San Francisco merkezli kâr amacı gütmeyen bir kuruluş olan “Center for AI Safety” tarafından yayınlanan bu bildiri, Google ile bağlantılı DeepMind’ın CEO’su Demis Hassabis ve ChatGPT’yi geliştiren OpenAI CEO’su Sam Altman’ın yanı sıra, yapay zeka konusundaki çalışmalarıyla 2018 Turing Ödülü’nü kazanan üç yapay zeka araştırmacısından birisi olan Geoffrey Hinton (Onun son dönemdeki diğer açıklamaları burada yer alıyor) ve Youshua Bengio gibi isimler tarafından imzalandı. Burada yer alan bildiride, “Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçeğe sahip risklerle birlikte küresel bir öncelik olmalıdır” deniyor. Bu endişe elbette ilk defa gündeme gelmiyor. Bundan önce kâr amacı gütmeyen Future of Life Institute tarafından yayınlanan ve 1.000’in üzerinde kişi tarafından imzalanan bir müzakere metni kapsamında Elon Musk (Eski OpenAI yatırımcısı) ve çok sayıda yapay zekâ uzmanı ortak bir görüşte birleşmişti.
Teknoloji dünyasının öne çıkan isimleri, toplum ve insanlık için potansiyel riskleri düşünerek OpenAI’ın yeni piyasaya sürdüğü GPT-4’ten daha güçlü sistemlerin geliştirilmesine altı ay kadar ara verilmesi çağrısında bulundu. Peki neden? Süreçte altı ay beklemenin ne faydası olacak? Uzmanlar bu tarz yapay zekâ sistemleri ve gelişmiş dil modelleri için önümüzdeki 6 ayda ortak güvenlik protokolleri geliştirilmesini, bunların aktif olarak uygulanmasını ve sürecin bağımsız uzmanlar tarafından denetlenmesini istiyor. Görüş bildiren kişiler, “Güçlü yapay zekâ sistemleri ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” görüşünü masaya koyuyor.