Teknoloji dünyasının en önemli isimlerinden Microsoft, Google ve OpenAI, yapay zeka güvenliği için bir araya geliyor.
ABD başkanı Joe Biden, geçtiğimiz aylarda teknoloji devlerinin liderleriyle yaptığı toplandı kapsamında, yapay zekâ merkezli ürünlerin kullanıma sunulmadan önce güvenli olduğundan emin olunması istemişti. Yaklaşık iki saat süren toplantıya Google CEO’su Sundar Pichai, Microsoft CEO’su Satya Nadella, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei‘nin yanı sıra, Başkan Yardımcısı Kamala Harris, Biden’ın Özel Kalem Müdürü Jeff Zients, Ulusal Güvenlik Danışmanı Jake Sullivan, Ulusal Ekonomi Konseyi Direktörü Lael Brainard ve Ticaret Bakanı Gina Raimondo katılmıştı. O zaman Beyaz Saray’dan yapılan açıklamada, ChatGPT’yi kullanan ve son dönemde patlama yapan sistemle bazı denemeler yapan Joe Biden, yetkililere yapay zekanın bireyler, toplum ve ulusal güvenlik için oluşturduğu mevcut ve oluşturabileceği potansiyel riskleri azaltmaları gerektiğini söylemişti. Toplantıda, şirketlerin YZ sistemleri hakkında politika yapıcılara karşı daha şeffaf olmaları gerektiği konusunda yapıcı bir tartışma da gerçekleştirilmişti. Başkan Yardımcısı Kamala Harris ise yaptığı açıklamada teknolojinin insan yaşamını iyileştirme potansiyeline sahip olduğunu ancak güvenlik, mahremiyet ve sivil haklar konularında endişelere yol açtığını söylemişti. İşte bunun üstüne görüşmeler devam etti ve Microsoft, Google ve OpenAI, yapay zeka güvenliği için bir araya geldi.
Bloomberg tarafından görüntülenen bir taslak belgeye göre, üç dev isim yapay zeka güvenliği sağlamak adına sekiz farklı önlemi kabul etmeye hazırlanıyor. Bu önlemler arasında bağımsız uzmanların yapay zeka modellerini olası kötü davranışlara karşı test etmesine izin vermek, siber güvenliğe daha fazla yatırım yapmak ve üçüncü parti yani şirket dışındaki araştırmacıların güvenlik açıklarını tespit etmeye teşvik etmek (Büyük ödüller ile) yer alıyor. YZ güvenliği ile alakalı bilgileri diğer şirketler ve hükümetle paylaşarak sorumlu yapay zeka geliştirmeye yönelik işbirlikçi bir yaklaşım hedefleyen devler, kötüye kullanımı veya yanlış bilgilendirmeyi önlemek için YZ tarafından oluşturulan ses ve görsel içeriği filigranlar ile işaretlemeyi de planlıyor. Bunları nasıl etki edeceğini ise elbette zaman gösterecek ancak planlar kağıt üzerinde güzel ve gelecek için önemli görünüyor.
Hatırlarsınız yılın başında kâr amacı gütmeyen Future of Life Institute tarafından yayınlanan ve 1.000’in üzerinde kişi tarafından imzalanan bir müzakere metni kapsamında Elon Musk (Eski OpenAI yatırımcısı) ve çok sayıda yapay zekâ uzmanı ortak bir görüşte birleşmişti. Teknoloji dünyasının öne çıkan isimleri, toplum ve insanlık için potansiyel riskleri düşünerek OpenAI’ın yeni piyasaya sürdüğü GPT-4’ten daha güçlü sistemlerin geliştirilmesine altı ay kadar ara verilmesi çağrısında bulundu. Peki neden? Süreçte altı ay beklemenin ne faydası olacaktı? Uzmanlar bu tarz yapay zekâ sistemleri ve gelişmiş dil modelleri için önümüzdeki 6 ayda ortak güvenlik protokolleri geliştirilmesini, bunların aktif olarak uygulanmasını ve sürecin bağımsız uzmanlar tarafından denetlenmesini istiyor. Bu kişiler, “Güçlü yapay zekâ sistemleri ancak etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” görüşünü masaya koydu ancak geliştirme çalışmaları bu çağrı sonrasında kesinlikle son bulmadı.