ChatGPT için kısa süre önce veri güvenliğini artıran yeni imkânlar getirildi. Bu temelde Microsoft da şirketlere özel bir ChatGPT hizmeti sunmak istiyor.
Biliyorsunuz İtalya’nın veri koruma kurumu, OpenAI’ın veri işleme yöntemlerinin Avrupa Birliği’nin Genel Veri Koruma Yönetmeliğini (GDPR) ihlal ettiğini belirterek ChatGPT sistemini geçici olarak engelledi. Düzenleyici kurum, OpenAI’ın ChatGPT’nin temelinde yer alan GPT dil modelini eğitmek için kullanıcılardan toplu olarak veri toplamasının yasal bir dayanağa sahip olmadığını belirtti. Kurum ayrıca OpenAI’ın çocukları korumak için yeterince çaba göstermediğini de söyledi. OpenAI, ChatGPT’nin 13 yaşından büyüklere yönelik olduğunu açık olarak belirtiyor ancak yetkililere göre çocukların uygun olmayan cevapları görmesini engelleyecek herhangi bir yaş kontrol mekanizması bulunmuyor. İşte tüm bu suçlamalardan sonra önemli ve gerekli bir adım atan OpenAI, ChatGPT’de artık kişilerin sohbet geçmişlerini devre dışı bırakmasına imkân tanıyor. Sohbet geçmişini kapattığınız yani kayıt altına alınmasını engellediğiniz zaman, sohbet botu ile yaptığınız görüşmeden elde edilenlerin “GPT” dil modelinin eğitim sürecinde kullanımını da kapatmış oluyorsunuz. Bu sayede İtalya’da yeniden açılan sistem bugün bir kez daha gündeme geldi. The Information’da yer alan yeni bir habere göre Microsoft, ChatGPT sohbet botunun gizlilik odaklı bir versiyonunu bankalara, sağlık hizmeti sağlayıcılarına ve veri sızıntıları ile mevzuata uyum konularında ciddi endişe duyan diğer büyük kuruluşlara sunmayı planlıyor. Bu çeyreğin sonunda çıkacağı aktarılan sürüm, özel sunucularda çalışacak ve buradaki veriler GPT dil modelinin eğitim sürecine dahil edilmeyecek, yani tamamen gizli kalacak.
OpenAI, bundan önce bir “Hata Ödül Programı” başlatması ile gündeme gelmişti. Burada yer alan program kapsamında firma, sistemlerinin daha güvenli hale getirilmesi için çok önemli bir adım atıyor. Program kapsamında OpenAI’ın sistemlerindeki açıkları bulunan güvenlik uzmanları, 200 ila 20 bin dolar arasında para ödülü alabilecek. Bu konuda firmadan yapılan açıklamada, “OpenAI’ın misyonu, herkese fayda sağlayan yapay zekâ sistemleri oluşturmak. Bu amaçla, yapay zekâ sistemlerimizin güvenli ve emniyetli olmasını sağlamak için araştırma ve mühendislik tarafına büyük yatırımlar yapıyoruz. Bununla birlikte, her karmaşık teknolojide olduğu gibi, güvenlik açıklarının ve kusurların ortaya çıkabileceğinin farkındayız.
Şeffaflık ve iş birliğinin bu durumu ele alma konusunda çok önemli olduğuna inanıyoruz. Bu nedenle güvenlik araştırmacıları, etik hacker’lar ve teknoloji meraklılarından oluşan küresel toplulukları sistemlerimizdeki güvenlik açıklarını tespit etmemize ve düzeltmemize yardımcı olmaya davet ediyoruz.” denildi. Firma bu konuda gerçekten akılcı ve mantıklı bir yol izliyor. Çünkü teknolojik sistemler (Özellikle yapay zekâ) artık gerçekten çok kompleks yapıdalar, bu nedenle sistemi üretenler dahi farkında olmadan ancak başkalarının bulabileceği güvenlik açıkları ortaya çıkarabiliyor.