Teknoloji

ChatGPT’de Yeni Dönem: Kimlik Doğrulama ve Yaş Sınırlamaları Geliyor

Yapay zekâ teknolojilerinin hızla hayatımıza girdiği günümüzde, güvenlik ve yaş sınırlamaları giderek daha büyük önem taşıyor.

Abone Ol

OpenAI’den Güvenlik İçin Yeni Adımlar

Yapay zekâ teknolojilerinin hızla hayatımıza girdiği günümüzde, güvenlik ve yaş sınırlamaları giderek daha büyük önem taşıyor. OpenAI, popüler sohbet robotu ChatGPT’de çocukların güvenliği için önemli bir yeniliği hayata geçirmeye hazırlanıyor. Şirket, bazı ülkelerde kimlik doğrulama ve yaş tahmini sistemlerini devreye alacağını açıkladı. Bu adım, kullanıcıların yaşına göre daha güvenli ve uygun bir deneyim sunmayı hedefliyor.

Yaş Tahmini Teknolojisi Uygulanacak

OpenAI’nin geliştirdiği yeni sistem, kullanıcıların davranış biçimlerinden yaş tahmini yapacak. Eğer sistem bir kişinin 18 yaşın altında olduğunu tespit ederse, sohbet botu daha kısıtlı bir modda çalışacak. Bu modda yalnızca güvenli içerikler sunulacak, çocukların psikolojisini olumsuz etkileyebilecek ya da uygunsuz kabul edilen diyaloglara izin verilmeyecek. Şirketin CEO’su Sam Altman, yaş tahmininde şüphe oluşması durumunda sistemin varsayılan olarak “18 yaş altı” moduna geçeceğini belirtti.

Kimlik Doğrulaması Gündemde

Bazı ülkelerde veya özel durumlarda kimlik doğrulamasının da zorunlu hale getirileceği duyuruldu. Altman, bu uygulamanın yetişkin kullanıcılar için gizlilik açısından belirli ödünler anlamına gelebileceğini kabul etti. Ancak çocukların korunması ve olası risklerin engellenmesi adına bu ödünün verilmesinin gerekli olduğunu ifade etti. OpenAI’nin bu adımı, kullanıcı güvenliği ile kişisel mahremiyet arasında dengeli bir yaklaşım sergileme çabasının göstergesi olarak değerlendiriliyor.

18 Yaş Altı İçin Katı Kısıtlamalar

Yeni düzenlemeler kapsamında, 18 yaş altındaki kullanıcılar için ciddi kısıtlamalar getirilecek. Flört içerikli konuşmalar, intihara yönlendiren diyaloglar ya da hassas psikolojik konular genç kullanıcılar için tamamen engellenecek. Ayrıca bir çocuğun sohbet sırasında intihar düşüncesini dile getirmesi halinde sistem, ebeveynleri bilgilendirecek ve gerektiğinde yetkililere haber verecek. Böylece yapay zekânın riskli içerikler üretmesinin önüne geçilmesi hedefleniyor.

Arka Planda Dava Baskısı

Bu kararların alınmasında, OpenAI’ye karşı açılan yüksek profilli bir dava da etkili oldu. ABD’de bir aile, ChatGPT’nin “intihar koçu” gibi davranarak genç oğullarının yaşamına son vermesine yol açtığını iddia ederek şirkete dava açmıştı. Bu olay, kamuoyunda geniş yankı uyandırmış ve düzenleyici kurumların daha sıkı incelemeler yapmasına neden olmuştu. OpenAI’nin şimdi aldığı yeni güvenlik önlemleri, benzer durumların önüne geçmeyi amaçlıyor.