OpenAI, ChatGPT’nin ücretli kullanıcıları arasında büyük bir tartışma konusu yaratan iddialar üzerine resmî açıklama yaptı. Pek çok abone, özellikle duygusal veya hukuki açıdan hassas konular konuşulduğunda, seçtikleri yapay zeka modelinin gizlice daha muhafazakar ve kısıtlayıcı bir modele yönlendirildiğini öne sürüyordu. Kullanıcılar, bu model geçişlerinin şeffaf olmamasından ve kontrol dışı gerçekleşmesinden şikayetçiydi.
Abonelerin Şikayetleri: “Sessizce Geçersiz Kılınan Ayarlar”
Reddit gibi platformlarda büyüyen tartışmalar, bu ay devreye giren yeni güvenlik önlemlerinin kullanıcı deneyimini olumsuz etkilediğini vurguluyor. Kullanıcılara göre, model seçici artık yalnızca bir “sahne dekoru” haline geldi. Bir Reddit kullanıcısı durumu şu sözlerle özetledi:
“Yetişkinler, iş akışlarına, bağlamlarına ve risk toleranslarına uygun modeli seçme hakkına sahiptir. Bunun yerine sessizce geçersiz kılınan ayarlar, gizli güvenlik yönlendirmeleri ve artık bir tür sahne dekoruna dönüşmüş model seçici ile karşı karşıyayız.”
Bu eleştiriler, OpenAI’nin bu gizli model geçişiyle kullanıcıların seçim haklarını kısıtladığı algısını yarattı. Bu durum, “çocukların bile olmadığı bir ortamda televizyonu sürekli ebeveyn denetimi açık şekilde izlemeye zorlanmaya” benzetildi.
OpenAI Yöneticisinden Savunma: “Geçici ve Mesaj Bazında Uygulanıyor”
Kullanıcılardan gelen tepkilerin artması üzerine, OpenAI yöneticisi Nick Turley sosyal medya üzerinden bir açıklama yapmak zorunda kaldı. Turley, model geçişlerinin sürekli değil, geçici olduğunu ve yalnızca “hassas ve duygusal içerikli konuşmalarda” devreye girdiğini belirtti. Bu güvenlik yönlendirmesi, mesaj bazında uygulanıyor.
Turley’nin açıklamasına göre bu uygulama, OpenAI’nin daha önce duyurduğu zihinsel ve duygusal sıkıntı içeren durumlara verilen yanıtları iyileştirme çalışmalarının bir parçası. Şirket, özellikle genç kullanıcıların ve savunmasız kişilerin korunmasının kendi sorumlulukları arasında olduğunu vurguluyor.
Öte yandan, OpenAI’nin rakibi Elon Musk’ın yapay zeka şirketi xAI, bu model değişiklikleri bağlamında olmasa bile, ChatGPT üreticisi OpenAI’yi “ticari sırların kötüye kullanılması”na karıştığını iddia ederek suçluyor.
Güvenlik ve Kontrol İkilemi
OpenAI’nin güvenlik odaklı bu yeni sistemi, teknoloji dünyasında önemli bir ikilemi gündeme getirdi: Yapay zeka güvenliği ve etik sorumluluk ile kullanıcı özerkliği ve şeffaflık arasındaki denge.
Şirket, savunmasız kişileri koruma sorumluluğunu yerine getirdiğini öne sürerken, ücretli kullanıcılar seçtikleri modelin yeteneklerinin kısıtlanmasını ve bu kısıtlamanın gizlenmesini eleştiriyor. Görünüşe göre, OpenAI’nin bu güvenlik yaklaşımı, önümüzdeki günlerde teknoloji ve etik çevrelerinde daha fazla tartışılmaya devam edecek.
