reklamı kapat

POPÜLER

ChatGPT LOG Tasarım

ChatGPT için kişisel veri güvenliğini artıran önemli bir imkân getirildi

ChatGPT için veri güvenliğini artıran yeni imkânlar getirildi. Bu adımlar Avrupa’daki yasaklama adımları sonrasında geldi.

Kaçıranlar için İtalya’nın veri koruma kurumu, OpenAI’ın veri işleme yöntemlerinin Avrupa Birliği’nin Genel Veri Koruma Yönetmeliğini (GDPR) ihlal ettiğini belirterek ChatGPT sistemini geçici olarak engelledi. Düzenleyici kurum, OpenAI’ın ChatGPT’nin temelinde yer alan GPT dil modelini eğitmek için kullanıcılardan toplu olarak veri toplamasının yasal bir dayanağa sahip olmadığını belirtiyor. Kurum ayrıca OpenAI’ın çocukları korumak için yeterince çaba göstermediğini de söylüyor. OpenAI, ChatGPT’nin 13 yaşından büyüklere yönelik olduğunu açık olarak belirtiyor ancak yetkililere göre çocukların uygun olmayan cevapları görmesini engelleyecek herhangi bir yaş kontrol mekanizması bulunmuyor. İşte tüm bu suçlamalardan sonra önemli ve gerekli bir adım atan OpenAI, ChatGPT’de artık kişilerin sohbet geçmişlerini devre dışı bırakmasına imkân tanıyor. Sohbet geçmişini kapattığınız yani kayıt altına alınmasını engellediğiniz zaman, sohbet botu ile yaptığınız görüşmeden elde edilenlerini “GPT” dil modelinin eğitim sürecinde kullanımını da kapatmış oluyorsunuz. Ayrıca, verileri üzerinde daha fazla kontrole ihtiyaç duyan profesyoneller için ChatGPT Business aboneliği üzerinde çalışıldığı da aktarılıyor. Önümüzdeki aylarda çıkacak bu kurumsal paket, kullanıcı verilerini GPT’yi eğitmek için kullanmayacak (Varsayılan olarak kapalı) bilgisi veriliyor.

OpenAI, bundan önce bir “Hata Ödül Programı” başlatması ile gündeme gelmişti. Burada yer alan program kapsamında firma, sistemlerinin daha güvenli hale getirilmesi için çok önemli bir adım atıyor. Program kapsamında OpenAI’ın sistemlerindeki açıkları bulunan güvenlik uzmanları, 200 ila 20 bin dolar arasında para ödülü alabilecek. Bu konuda firmadan yapılan açıklamada, “OpenAI’ın misyonu, herkese fayda sağlayan yapay zekâ sistemleri oluşturmak. Bu amaçla, yapay zekâ sistemlerimizin güvenli ve emniyetli olmasını sağlamak için araştırma ve mühendislik tarafına büyük yatırımlar yapıyoruz. Bununla birlikte, her karmaşık teknolojide olduğu gibi, güvenlik açıklarının ve kusurların ortaya çıkabileceğinin farkındayız.

Şeffaflık ve iş birliğinin bu durumu ele alma konusunda çok önemli olduğuna inanıyoruz. Bu nedenle güvenlik araştırmacıları, etik hacker’lar ve teknoloji meraklılarından oluşan küresel toplulukları sistemlerimizdeki güvenlik açıklarını tespit etmemize ve düzeltmemize yardımcı olmaya davet ediyoruz.” denildi. Firma bu konuda gerçekten akılcı ve mantıklı bir yol izliyor. Çünkü teknolojik sistemler (Özellikle yapay zekâ) artık gerçekten çok kompleks yapıdalar, bu nedenle sistemi üretenler dahi farkında olmadan ancak başkalarının bulabileceği güvenlik açıkları ortaya çıkarabiliyor.

ChatGPT odağı da bulunan Hata Ödül Programı yanında bu da ilginizi çekebilir: Xiaomi imzalı robot köpek CyberDog ile tanışın

İLGİLİ HABERLER