Yapay zeka araçları dezenformasyon krizini daha da büyüttü

Yapay zeka araçları dezenformasyon krizini daha da büyüttü - RayHaber
Yapay zeka araçları dezenformasyon krizini daha da büyüttü - RayHaber

Son dönemde hızla popülerlik kazanan Sora adlı video üretme aracı, kısa sürede yaklaşık beş milyon kullanıcıya ulaşmayı başardı. Ancak bu çabuk yükseliş, beraberinde ciddi endişeleri de getiriyor. OpenAI tarafından geliştirilen bu araç, sahte video üretiminde en sık tercih edilen platformlar arasına girdi. Üretilen videolara eklenen Sora filigranı olsa da, bu filigranın kolayca kaldırılabildiği ve aracın kullanımıyla ilgili çeşitli internet sitelerine ulaşmanın çok basit olduğu biliniyor. Bu durum, kötü niyetli kişiler tarafından dezenformasyon amaçlı sahte videoların üretimi için tehlike yaratıyor.

Sahte videoların sosyal medyada hızla yayılması ve kullanıcılara gerçekmiş gibi sunulması ciddi bilanço ortaya çıkarıyor. Örneğin, New York Times tarafından bildirilen, ABD’de hızla yayılan ve politik gerilimleri tırmandıran bir yapay zeka ürünü video, kısa sürede büyük yankı uyandırdı. Bu tip yapay zeka videolarının, sosyal medyada birçok kişinin yanlış inançlar edinmesine yol açtığı gözlemleniyor. Uzmanlar, özellikle küçük ve basit girişimlerle bile gerçeklikle ayırt edilmesi güç hale gelen bu içeriklerin, demokratik süreçlere ve toplum bilincine ciddi zararlar verdiğine dikkat çekiyor.

Berkeley Üniversitesi profesörü Hany Farid, bu konuda, “İnsanlar günümüzde sayısız sahte içerikle karşılaşıyor. Bu durum, sadece demokratik düzeni değil, ekonomi ve kurumlar için de ciddi bir tehdit oluşturuyor.” diyerek, endişeleri dile getiriyor. Giderek artan bu sahte içerik kirliliği, insanların doğru bilgiye güven duymasını zorlaştırıyor. Ayrıca, yapay zeka ile üretilmiş videoların hızla yayılması, toplumda bilgi kirliliğine ve güvenin erozyonuna neden oluyor. Pew Research verilerine göre, ABD’deki birçok insan, yapay zeka ile yapılmış videolar ve gerçek içerikler arasındaki farkı ayırt edemediği konusunda emin olmaktan uzak.

Sosyal Medya Platformlarının Mücadele Gücü Sınırlı Kalıyor

Meta, TikTok, YouTube ve X gibi sosyal medya devleri, kullanıcıların yapay zeka ile oluşturulan içerikleri açıkça belirtmesini zorunlu kılan kurallar koysa da, bu politikalar teknolojik gelişmeler karşısında yetersiz kalıyor. İnsan hakları örgütleri ve uzmanlar, şirketlerin bu konuda daha proaktif olması gerektiğine işaret ediyor. Sam Gregory gibi isimler, yerinde ve otomatik denetim sistemleri geliştirilerek sahte içeriklerin tespit edilmesi ve işaretlenmesinde ilerleme kaydedilebileceğine inanıyor. Ancak, uzun süredir devam eden denetim ve önleme çabalarının halen yeterli olmadığı, bu tip sahte videoların hızla yayılmaya devam ettiği görülüyor. Dezenformasyon amaçlı sahte videoların uzun süre dolaşımda kalması, hem kullanıcıların yanlış bilgilere ulaşma riskini artırıyor hem de bu içeriklerin haber değeri taşıyıp, yanlışlıkla gerçekmiş gibi paylaşıldığına şahit oluyoruz.

Sahte Videolar, Uluslararası Siyasi Manipülasyonlarda Kullanılabilir

Bu sahte içeriklerin tek amacı kötü niyetli kişiler değil, aynı zamanda ülkelerin başka ülkelerde karışıklık çıkarmak veya belli algılar yaratmak amacıyla da kullanılabildiği açık. Özellikle İsrail-İran veya Rusya-Ukrayna gibi krizlerde, sahte videoların dezenformasyon alanında etkin bir silah olarak kullanıldığı rapor ediliyor. Bu tarz devlet destekli ve koordineli manipülasyonlar, ulusal güvenliği tehdit edici boyutlara ulaşabilir. Bu nedenle, sadece platformların değil, devletlerin de bu konuda ciddi önlemler alması gerektiğinin fark edilmesi önem taşıyor.