Geçtiğimiz hafta bir sürpriz yaparak OpenAI’dan ayrılan önemli isimlerden Jan Leike, bugün rakip Anthropic’e geçti.
Önemli bir OpenAI araştırmacısı olan Jan Leike, aldığı ayrılma kararı ile değil, daha çok ayrılma sürecindeki açıklamasıyla ses getirmişti. İstifa kararı kapsamında bir paylaşımda bulunan Leike eski şirketi için, “Güvenlik kültürü ve süreçleri dikkat çekici yeni ürünler karşısında geri planda kaldı” demiş yani açık bir eleştiride bulunmuştu. Bu açıklama, OpenAI’ın uzun vadeli yapay zeka risklerini ele almaya adanmış “Superalignment” ekibini dağıtmasının üstüne geldi. Artık daha çok insanları etkileyen ürünlere odaklanan ve yapay zekanın olası risklerini geri plana itmeye başlamış gibi görünen OpenAI, şu an aktif olarak bir sonraki seviye olan yapay genel zeka (AGI) üzerinde de çalışıyor, o seviyenin mutlaka ama mutlaka çok güçlü koruma sistemleriyle devreye alınması gerekiyor. Bu konuda ise Jan Leike, “OpenAI, güvenlik öncelikli bir AGI şirketi haline gelmelidir” demişti. Bugün ise OpenAI’ın önemli rakiplerden olan Anthropic’e geçtiğini duyuran Leike, yeni şirketinde de “Superalignment” yani güvenlik/risk odaklı yapay zeka çalışmalarına devam edecek.
İLGİNİZİ ÇEKEBİLİR
Eğer kaçırdıysanız bugün OpenAI Yönetim Kurulu, Bret Taylor, Adam D’Angelo, Nicole Seligman ve şirket CEO’su Sam Altman liderliğinde bir “Güvenlik ve Emniyet” kurulu oluşturduklarını duyurdu. Bu ekip yapılan açıklamaya göre, OpenAI projelerinin/sistemlerinin güvenliği konusunda yönetim kurulu ile birlikte çalışacak ve önemli kararlara imza atacak.
Bu açıklama kapsamında firma yüksek ihtimalle GPT-5 olarak isimlendirilecek yeni LLM yani büyük dil modelini eğitmeye başladıklarını da duyurdu. Bu sistem ile şirket, en büyük hedef olan yapay genel zekaya bir adım daha yaklaşmayı hedefliyor. Yapay genel zeka, bir insanın yapabileceği herhangi bir zihinsel görevi başarıyla gerçekleştirebilecek makinenin zekası olarak özetleniyor.