
Güney Kore’de yaşanan çarpıcı bir olay, yapay zeka destekli teknolojilerin kötüye kullanımıyla ilgili endişeleri artırdı. Yonhap haberine göre, polis, bir zanlının kendi geliştirdiği yapay zeka tabanlı program aracılığıyla 72 ünlü kadının 4 bin 313 sahte cinsel içerikli görüntüsünü ürettiğini açıkladı. Bu kişi, ocak ile mart ayları arasında oluşturduğu “deepfake” görüntüleri satarak yaklaşık 3 bin dolar gelir elde etti.
Polis ayrıca, bu olayla bağlantılı olarak, “deepfake” görüntüleri yaydığı gerekçesiyle başka bir Çin vatandaşının da gözaltına alındığını belirtti. Bu zanlının, aralarında “deepfake” materyallerinin de bulunduğu toplam 14 bin 526 cinsel içerikli görüntü yaydığı ifade edildi.
Güney Kore’de, özellikle okul ve üniversitelerle bağlantılı sohbet gruplarında, çoğunluğunu kadın ve kız çocuklarının oluşturduğu birçok mağdurun, “deepfake” teknolojisiyle manipüle edilen ses ve görüntüleri içeren cinsel içerikli videoların hedefi olduğu tespit edildi. Bu durum, toplumda büyük bir infial yarattı.
Ulusal Soruşturma Ofisi Başkanı Woo Jong-soo, bu tür görüntülerin yayıldığı Telegram platformuna yönelik olarak “suça yataklık etme” gerekçesiyle ön soruşturma açıldığını bildirdi. Güney Kore İletişim Standartları Komisyonu (KCSC) yetkilileriyle bir araya gelen Telegram yetkilileri, bu sorunun ciddiyetinin farkında olduklarını vurguladı. Ayrıca, yasa dışı materyallere karşı sıkı önlemler alacaklarını ve “sıfır tolerans politikası” uygulayacaklarını taahhüt ettiler.