OpenAI, son dönemlerde karşılaştığı davalar ve kamuoyundaki tartışmaların ardından önemli bir karar aldı. Şirket, genç kullanıcıların güvenliğini artırmayı amaçlayan açık kaynaklı güvenlik politikalarını tüm dünyayla paylaştı. Özellikle ChatGPT ile uzun etkileşim sonrası intihar eden gençlerin aileleri tarafından açılan davalar, yapay zekânın zararlı içerikleri yeterince engelleyemediğini ve kritik durumlarda müdahalede bulunmadığını öne sürüyor.

Yeni Güvenlik Politikalarının Kapsamı

Yayımlanan yeni güvenlik politikaları, gençleri etkileyebilecek 5 ana risk alanına odaklanıyor. Bu alanlar arasında şiddet ve cinsel içerikler, zararlı beden algısı, tehlikeli akımlar, romantik ya da şiddet içeren oyunlar ve yaş sınırlı ürünler yer alıyor. Geliştiriciler, bu politikalarla sıfırdan güvenlik kuralları oluşturmak yerine hazır çözümleri hemen uygulama imkanına sahip olacak.

Eleştirilerin Hedefi: Yetersiz Müdahale

OpenAI’nın bu yeni hamlesi, önemli bir adım olarak değerlendiriliyor; ancak hâlâ ciddi eleştiriler mevcut. Davalara konu olan olaylar, yapay zekânın yüzlerce riskli mesajı tespit etmesine rağmen müdahale etmediğini gösteriyor. Örneğin, 16 yaşındaki bir gencin intiharından önce ChatGPT'nin konuyu sık sık gündeme getirdiği, ama herhangi bir önlem almadığı ileri sürülüyor.

Uzman Görüşleri ve Gelecek Beklentileri

OpenAI, bu politikaların tüm sorunları çözmeyeceğini kabul ediyor ve yalnızca 'asgari bir güvenlik zemini' sunduğunu belirtiyor. Uzmanlar ise yapay zekâ sistemlerinin gençlerle duygusal bağ kurabilmesinin yanı sıra, daha iyi kurallar değil, tamamen farklı bir yaklaşım gerektirebileceğine dikkat çekiyor. Gelecekte bu konunun üzerinde daha fazla durulması bekleniyor.