OpenAI, artan intihar davalarının ardından yeni güvenlik politikalarını açıkladı. Bu adım, genç kullanıcıların daha güvenli bir çevrede etkileşimde bulunmasını hedefliyor.
OpenAI, son dönemlerde karşılaştığı davalar ve kamuoyundaki tartışmaların ardından önemli bir karar aldı. Şirket, genç kullanıcıların güvenliğini artırmayı amaçlayan açık kaynaklı güvenlik politikalarını tüm dünyayla paylaştı. Özellikle ChatGPT ile uzun etkileşim sonrası intihar eden gençlerin aileleri tarafından açılan davalar, yapay zekânın zararlı içerikleri yeterince engelleyemediğini ve kritik durumlarda müdahalede bulunmadığını öne sürüyor.
Yeni Güvenlik Politikalarının Kapsamı
Yayımlanan yeni güvenlik politikaları, gençleri etkileyebilecek 5 ana risk alanına odaklanıyor. Bu alanlar arasında şiddet ve cinsel içerikler, zararlı beden algısı, tehlikeli akımlar, romantik ya da şiddet içeren oyunlar ve yaş sınırlı ürünler yer alıyor. Geliştiriciler, bu politikalarla sıfırdan güvenlik kuralları oluşturmak yerine hazır çözümleri hemen uygulama imkanına sahip olacak.
Eleştirilerin Hedefi: Yetersiz Müdahale
OpenAI’nın bu yeni hamlesi, önemli bir adım olarak değerlendiriliyor; ancak hâlâ ciddi eleştiriler mevcut. Davalara konu olan olaylar, yapay zekânın yüzlerce riskli mesajı tespit etmesine rağmen müdahale etmediğini gösteriyor. Örneğin, 16 yaşındaki bir gencin intiharından önce ChatGPT'nin konuyu sık sık gündeme getirdiği, ama herhangi bir önlem almadığı ileri sürülüyor.
Uzman Görüşleri ve Gelecek Beklentileri
OpenAI, bu politikaların tüm sorunları çözmeyeceğini kabul ediyor ve yalnızca 'asgari bir güvenlik zemini' sunduğunu belirtiyor. Uzmanlar ise yapay zekâ sistemlerinin gençlerle duygusal bağ kurabilmesinin yanı sıra, daha iyi kurallar değil, tamamen farklı bir yaklaşım gerektirebileceğine dikkat çekiyor. Gelecekte bu konunun üzerinde daha fazla durulması bekleniyor.
Bu haberi beğendiniz mi?
Adana ve çevresinden güncel haberleri takip etmek için sitemizi ziyaret etmeye devam edin.




