ChatGPT’nin arkasında yer alan OpenAI, “GPT-4, biyolojik silah üretiminde internetten biraz daha fazlasını sunuyor” açıklamasını yaptı.
OpenAI, ticari olarak şu an çok sayıda rakibi olan ChatGPT’den başka neler sunacak? Burada yer alan habere göre firma üretken yapay zekayı kompleks görevlerin altından otomatik olarak kalkabilecek bir sistem haline getirmek adına çalışmalar yapıyor. Henüz aşırı detay yok ancak firmanın bu yeni planlar kapsamında iki farklı yapay zeka ajanı (Algılayan ve tepki verebilen sistemler) geliştirdiği belirtiliyor. İlk yapay zeka ajanının karmaşık görevleri otomatikleştirmek için yerel olarak bir bilgisayarda kullanılacağı aktarılıyor. Örneğin sistemin verileri bir belgeden alarak bir tabloya aktarabileceği veya gider raporlarını doldurup muhasebe yazılımına girebileceğinden bahsediliyor. Burada özel izinler sağlanarak tüm sistem / bilgisayar kontrolünün yapay zeka ajanına devredileceği söyleniyor. İkinci yapay zeka ajanının ise kamuya açık verileri toplamak, rotalar oluşturmak veya uçak bileti rezervasyonu yapmak gibi direkt olarak web tabanlı görevleri yerine getirmeye odaklanacağı söyleniyor. Bu çalışmaları ne zaman ticari hale getireceği bilinmeyen OpenAI, kısa süre önce yaptığı “GPT-4, biyolojik silah üretiminde internetten biraz daha fazlasını sunuyor” açıklaması ile gündeme gelmişti. OpenAI, kendi içinde yürüttüğü bir araştırma kapsamında önemli açıklamalarda bulundu.
Buna göre şirketin geliştirdiği ücretli ChatGPT’ye temel olan “GPT-4” isimli büyük dil modeli, biyolojik silahları araştırma ve üretme konusunda insanlara internette yer alan bilgiler karşısında yalnızca küçük bir avantaj sağlıyor. Yani ChatGPT kişilere biyolojik silah üretme söz konusu olduğunda Google sonuçlarına oranla aşırı fazla detay vermiyor ancak yine de bilgi alınabiliyor.
Bu konuda endişe edilmemesi gerektiğini söyleyen ancak süreçteki koruma sistemlerinin geliştirileceğini belirten çünkü halen bazı hayati riskler oluşturan firma, uzmanların sık sık dile getirdiği, “GPT-4 teröristlere, suçlulara ve diğer kötü niyetli kişilere önemli ölçüde yardımcı olabilir” endişesini paylaşmıyor ancak durum gerçekte tam olarak öyle görünmüyor. OpenAI, eğer kaçırdıysanız yakın bir zaman önce yapay zekanın risklerini değerlendirmek için özel bir ekip kurdu. Şirket elbette yapay zeka konusundaki endişeleri ve riskleri görüyor, bu alanda daha iyi olmak adına yeni bir ekip kuruyor.
Bu ekibin görevi, mevcut büyük dil modellerinden genel yapay zekaya kadar yüksek kapasiteli yapay zeka sistemlerinin risklerini değerlendirmek, yaklaşan riskleri önceden tespit etmek ve bunlara karşı korunmanın yollarını bulmak. Bunun için kurulan takıma “Preparedness” adını veren firma, ekibin başına MIT’den oldukça tecrübeli Aleksander Madry‘i geçirmiş durumda.
Yapay zeka etrafında oluşan potansiyel katastrofik riskleri çok iyi ve detaylı şekilde değerlendirmek isteyen OpenAI, kurulan takımın kimyasal, biyolojik ve radyolojik tehditlerin yanı sıra bir yapay zekanın kendi kendini çoğaltması durumları üzerinde de çalışmalar yapacağını belirtiyor. Hepsine ek olarak ekibin yapay zekanın insanları kandırma kabiliyeti ve yapay zekanın getirdiği siber güvenlik tehditlerini de analiz edeceği söyleniyor. Bu atılan adımlar elbette çok önemli görünüyor, birçok uzman yapay zekadan oldukça korkuyor çünkü kötü niyetli kişilerin yapay zeka ile gücünü / etkisini artırabileceği biliniyor.