Kaspersky’nin gerçekleştirdiği anket, Türkiye’deki katılımcıların %40’ının yapay zekayı iş yerlerinde bir ekip üyesi olarak algılamaya başladığını ortaya koyuyor. Ancak, bu durum aynı zamanda kötü niyetli kullanıcıların üretken yapay zeka araçlarını daha etkili bir şekilde benimseyerek bireyleri hedef alan daha ikna edici sosyal mühendislik saldırıları düzenleme potansiyelini de beraberinde getiriyor. Örneğin, kişiselleştirilmiş kimlik avı e-postaları hazırlamak, insanları taklit eden gerçekçi ses, video veya metin içeriği içeren “deepfake”ler oluşturmak ve kamuoyunu etkileyebilecek ya da gerçeği gizleyebilecek dezenformasyon kampanyalarını yaymak gibi kötü niyetli eylemler söz konusu olabiliyor.
Kuruluşlar, üretken yapay zeka kullanımı açısından merkezi bir yaklaşım benimseyebilir. Bu yaklaşım, bulut sağlayıcısı aracılığıyla kurumsal bir hesap üzerinden hizmet almayı mümkün kılarak, gerekli güvenlik önlemlerinin alındığından emin olmayı sağlar. Kurumlar, mesajlardaki kişisel olarak tanımlanabilir bilgilerin izlenmesi ve gözetimi gibi önemli hususları da göz önünde bulundurmalıdır.
Uzmanlar, kuruluşların çalışanlarını üretken yapay zekanın kabul edilebilir kullanımı ve bunlara erişimin şirket tarafından yönetilen uygun yolları hakkında eğitmeleri gerektiğini vurguluyor. Bu eğitimin yanı sıra, kuruluşlar, üretken yapay zekanın sağladığı faydaları ve potansiyel riskleri anlayarak, olası tehlikeleri azaltmak için gerekli güvenlik önlemlerinin alınmasını sağlarsa, çalışan verimliliğini ve iş memnuniyetini önemli ölçüde artırabilirler.

- Çalışanlar için belirlenen genel kurallar arasında, gizli verilerin yapay zeka araçlarına ifşa edilmemesi gerekliliği,
- Herhangi bir kritik kullanım durumunda yapay zekanın tavsiyelerine güvenilmemesi,
- Bilgilerin mutlaka doğrulanması,
- Bir sohbet botuna sağlanan herhangi bir verinin dışarıya sızabileceği konusunda hatırlatma yapılması,
- Ve büyük dil modeli (LLM) tabanlı sistemleri çalıştıran tüm bilgisayar ve sunucuların güncel güvenlik araçlarıyla korunması gerekliliği yer almalıdır.
Üretken Yapay Zekanın Engellenmesi Gerekmiyor

Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Vladislav Tushkanov, üretken yapay zeka araçlarının, teknolojik veri analizi ve rutin görevlerde sağladığı destek sayesinde çalışanların daha üretken olmasına olanak tanıdığını belirtiyor. Ancak birçok çalışanın, işverenlerinden gerekli izni almadan yapay zekayı kullanmasının, kuruma önemli riskler doğurabileceği konusunda da uyarıyor.

Tushkanov, “Örneğin veri sızıntısı önemli bir endişe kaynağı haline gelebilir. Ayrıca, çalışanlar ‘halüsinasyon’ olarak adlandırılan durumlar sonucunda yanlış bilgiler alabilir ve bu bilgilerin doğruluğuna güvenerek hareket edebilirler. Bu durum, büyük dil modellerinin yanlış bilgileri kendinden emin bir şekilde sunmasından kaynaklanmaktadır. Özellikle üretken yapay zeka belirli iş işlevlerinin nasıl yerine getirileceği konusunda tavsiyelerde bulunduğunda bu halüsinasyonlar oldukça tehlikeli olabilir.” ifadelerini kullanıyor.
Tushkanov, bu durumun, kuruluşların üretken yapay zekayı tamamen engellemesi gerektiği anlamına gelmediğini vurguluyor. Karar vericilerin, günlük iş rutininin hangi bölümlerinin işletmenin karşı karşıya olduğu tehdit düzeyine olumsuz etki etmeden üretken yapay zeka araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapmaları gerektiğini kaydediyor. ChatGPT ve diğer çözümleri yasaklamanın, ideal bir seçenek olmayabileceğine dikkat çekiyor.
“Üretken yapay zeka, çok fazla ve çok az tedbir arasında bir denge bularak verimli bir şekilde kullanılabilir. Daha geniş anlamda, kamu ve özel sektör arasındaki işbirlikleri, üretken yapay zekanın iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır.” açıklamasında bulunuyor.