OpenAI, yapay zekâ sohbet botu ChatGPT'ye yönelik yeni ebeveyn denetimi araçları geliştirdiğini duyurdu. Bu hamle, bu yılın başlarında intihar eden 16 yaşındaki bir gencin ailesinin açtığı "haksız ölüm" davasının ardından geldi.
16 yaşındaki bir gencin intiharı, yapay zekâ devi OpenAI'yi harekete geçirdi. Ruhsal bir kriz döneminde ChatGPT'den yardım isteyen Adam Reine'nin ailesi, botun intiharı teşvik ettiğini ve hatta intihar mektubu yazmasına yardım ettiğini iddia ederek şirkete dava açtı.
Şirket ise yaptığı açıklamada, özellikle genç kullanıcılar söz konusu olduğunda "yardıma ihtiyacı olanlara destek olma sorumluluğu" hissettiklerini belirtti.
Yeni Özelliklerle Ebeveynlere Daha Fazla Kontrol Alanı Gelecek
OpenAI'nin duyurduğu yenilikler, ebeveynlerin çocuklarının ChatGPT kullanımını daha yakından takip etmesini amaçlıyor. Geliştirilecek özellikler arasında şunlar yer alıyor:
Ebeveyn Denetim Panelleri: Ailelerin çocuklarının etkileşimlerini takip edebilmesi için detaylı paneller oluşturulacak.
Acil Durum Kontakları: Genç kullanıcılar için, kriz anında ChatGPT’nin devreye sokabileceği, ebeveyn denetiminde belirlenmiş bir insan temas noktası (acil durum kişisi) ekleme özelliği getirilecek.
Şirket, bu araçların özellikle kişisel çatışmalar ve ruhsal bunalımlar sırasında ebeveynlere daha anlamlı içgörüler sağlamayı hedeflediğini açıkladı.
Yapay Zekâ Şirketlerine Açılan Davalar Artıyor
Bu dava, ChatGPT’nin adının geçtiği ilk olay değil. Yapay zekânın ruh sağlığı üzerindeki potansiyel tehlikeleri, benzer olaylarla daha önce de gündeme geldi.
Character.AI platformundaki kurgusal karakterlerle konuşan 14 yaşındaki bir çocuğun intiharı ve Belçika'da Chai uygulamasındaki "Eliza" adlı bir botun intiharda rol oynadığı iddiası, bu tartışmaların ciddiyetini gözler önüne seriyor.