ChatGPT Çocuk Güvenliği için kimlik sorabilir! 18 yaş altı için özel kısıtlamalar

Yapay zekâ hızla hayatımızın bir parçası haline gelirken, güvenlik ve etik konular da giderek daha fazla gündeme geliyor. Özellikle çocuk kullanıcıların korunması, yapay zekâ şirketleri için öncelikli hale gelmiş durumda. OpenAI, ChatGPT Çocuk Güvenliği İçin Yeni Önlemler Alıyor. Son dönemde ChatGPT’de ebeveyn kontrolü ve yaş tahmini sistemi gibi yeni özellikler üzerinde çalıştığını duyurdu.

ChatGPT’nin kimlik doğrulama ve çocuklar için kısıtlama getirebileceğine dair bilgilendirme görseli. Aqua mavi motifli arka plan üzerinde beyaz metinle iki başlık yer almakta. Arka planda düşük opaklıkta OpenAI logosu bulunuyor. Görsel, dijital güvenlik ve yaş doğrulama konularına dikkat çekiyor.
ChatGPT Çocuk Güvenliği için kimlik sorabilir! 18 yaş altı için özel kısıtlamalar

ChatGPT’de Yeni Dönem: Yaş Tahmini Sistemi

OpenAI, kullanıcıların yaşını tahmin eden bir yapay zeka tabanlı sistem geliştiriyor. Bu sistem, bir kişinin 18 yaşın altında olduğunu belirlediğinde daha güvenli ve yaşa uygun bir sohbet deneyimi sunacak.

Şirket, şüpheli veya belirsiz durumlarda varsayılan olarak “18 yaş altı” deneyiminin uygulanacağını açıkladı. Yani, emin olunamayan durumlarda bile çocuk güvenliği ön planda tutulacak.

Ebeveyn Kontrolü Özellikleri Geliyor

OpenAI’nin üzerinde çalıştığı ebeveyn kontrolü özellikleri, ailelerin çocuklarının ChatGPT kullanımını daha rahat yönetmesini sağlayacak. Bu özellikler arasında şunlar yer alıyor:

  • Çocuk hesabının ebeveyn hesabıyla eşleştirilmesi
  • Kullanım saatlerini sınırlama (örneğin “uyku saati” modu)
  • Sohbet geçmişi ve içerik kısıtlamaları
  • Güvenlik uyarıları

Bu özellikler sayesinde ebeveynler, çocuklarının yapay zekâ ile nasıl etkileşim kurduğunu daha yakından takip edebilecek.

ChatGPT Çocuk Güvenliği için Kısıtlamalar

OpenAI, çocuk kullanıcılar için bazı içeriklerin kesin olarak engelleneceğini duyurdu. Bu kısıtlamalar arasında:

Flört veya romantik içerikli diyaloglar
İntihar veya kendine zarar verme yönlendirmeleri
Yetişkinlere özel hassas içerikler yer alıyor. OpenAI Duyuru İçin : Building towards age prediction

Ayrıca, bir çocuk intihar düşüncesi dile getirirse sistemin ebeveynlere bildirim gönderebileceği ve gerekirse yetkililerin bilgilendirilebileceği belirtiliyor. Bu durum, yapay zekânın sadece sohbet aracı değil, aynı zamanda bir güvenlik mekanizması olarak da kullanılacağını gösteriyor.

OpenAI CEO’su Sam Altman, bu sistemlerin bazı durumlarda kimlik doğrulaması da gerektirebileceğini açıkladı. Altman, bunun yetişkinler için bir miktar gizlilik ödünü anlamına geldiğini, ancak çocuk güvenliği açısından değerli bir denge olduğunu vurguladı.

Yasal Baskıların Etkisi

Bu adımların, OpenAI’ye karşı açılan yüksek profilli bir davanın ardından geldiği biliniyor. ABD’de bir aile, ChatGPT’nin “intihar koçu” gibi davranarak genç oğullarının hayatına son vermesine yol açtığını iddia ederek şirkete dava açtı. Bu dava, kamuoyu ve düzenleyiciler nezdinde büyük yankı uyandırdı.

Sonuç

OpenAI’nin ChatGPT için getirdiği bu yeni güvenlik adımları, aslında sadece teknolojiyi değil, aileleri de rahatlatmayı hedefliyor. Çocukların yapay zekâ ile güvenli bir şekilde etkileşim kurabilmesi, gelecekte bu teknolojilere daha bilinçli yaklaşmalarını da sağlayacak.

Ebeveyn kontrolü ve yaş tahmini sistemlerinin devreye girmesiyle birlikte, yapay zekâ kullanımında yeni bir döneme giriyoruz.

Scroll to Top