Teknoloji dünyasının en önemli isimlerinden Anthropic, Google, Microsoft ve OpenAI, yapay zeka güvenliği için bir araya geldi.
ABD başkanı Joe Biden, geçtiğimiz aylarda teknoloji devlerinin liderleriyle yaptığı toplandı kapsamında, yapay zekâ merkezli ürünlerin kullanıma sunulmadan önce güvenli olduğundan emin olunması istemişti. Yaklaşık iki saat süren toplantıya Google CEO’su Sundar Pichai, Microsoft CEO’su Satya Nadella, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei‘nin yanı sıra, Başkan Yardımcısı Kamala Harris, Biden’ın Özel Kalem Müdürü Jeff Zients, Ulusal Güvenlik Danışmanı Jake Sullivan, Ulusal Ekonomi Konseyi Direktörü Lael Brainard ve Ticaret Bakanı Gina Raimondo katılmıştı. O zaman Beyaz Saray’dan yapılan açıklamada, ChatGPT’yi kullanan ve son dönemde patlama yapan sistemle bazı denemeler yapan Joe Biden, yetkililere yapay zekanın bireyler, toplum ve ulusal güvenlik için oluşturduğu mevcut ve oluşturabileceği potansiyel riskleri azaltmaları gerektiğini söylemişti. Toplantıda, şirketlerin YZ sistemleri hakkında politika yapıcılara karşı daha şeffaf olmaları gerektiği konusunda yapıcı bir tartışma da gerçekleştirilmişti. Başkan Yardımcısı Kamala Harris ise yaptığı açıklamada teknolojinin insan yaşamını iyileştirme potansiyeline sahip olduğunu ancak güvenlik, mahremiyet ve sivil haklar konularında endişelere yol açtığını söylemişti.
İşte bunun üstüne bugün Anthropic, Google, Microsoft ile OpenAI bir araya geldi ve yapay zeka güvenliği için Frontier Model Forum doğdu. Alanda çalışan dört dev, hayata geçirdikleri oluşum ile öncü yapay zeka modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamaya odaklanıyor. Yapılan açıklamaya göre Frontier Model Forum, üye şirketlerin teknik ve operasyonel uzmanlıklarından yararlanarak, teknik değerlendirmeler ve kıyaslamalar geliştirmek ve sektördeki en iyi uygulamaları ve standartları desteklemek için halka açık bir kütüphane hazırlamak gibi yollarla tüm yapay zeka ekosistemine fayda sağlamayı hedefliyor. Oluşumun temel hedefleri spesifik olarak şunlar:
–Öncü modellerin sorumlu bir şekilde geliştirilmesini teşvik etmek, riskleri en aza indirmek ve özellikler ile güvenliğin bağımsız ve standart yapıda değerlendirilmesini sağlamak.
–Üst seviye yapay zeka modellerinin sorumlu bir şekilde geliştirilmesi ve uygulanması için en iyi yöntemleri belirlemek, halkın teknolojinin doğasını, yeteneklerini, sınırlamalarını ve etkisini anlamasına yardımcı olmak.
–Güvenlik ve riskleri hakkındaki bilgileri paylaşmak için politikacılar, akademisyenler, sivil toplum ve şirketlerle iş birliği yapmak.
–İklim değişikliğinin azaltılması, kanserin erken teşhisi ve önlenmesi ile siber tehditlerle mücadele gibi toplumun en büyük zorluklarının üstesinden gelmeye yardımcı olabilecek uygulamalar geliştirmek.