
Kaspersky’nin gerçekleştirdiği bir anket, Türkiye’deki katılımcıların %40’ının yapay zekayı iş yerinde bir ekip üyesi olarak görmeye başladığını gösteriyor. Ancak bu durum, kötü niyetli kullanıcıların üretken yapay zeka araçlarını kullanarak bireylere yönelik daha ikna edici sosyal mühendislik saldırıları oluşturmasıyla daha da karmaşık hale geliyor.
Örneğin, kişiselleştirilmiş kimlik avı e-postaları hazırlamak, insanları taklit eden gerçekçi ses, video veya metin içeriği içeren “deepfake”ler oluşturmak ve kamuoyunu etkileyecek ya da gerçeği gizleyecek dezenformasyon kampanyaları yaymak gibi tehditler ortaya çıkıyor.
Kuruluşlar, üretken yapay zekanın kullanımında merkezi bir yaklaşım benimseyerek bu tür riskleri azaltabilirler. Bu tür bir hizmet, bir bulut sağlayıcısı aracılığıyla kurumsal bir hesap üzerinden sunulabilir ve gerekli tüm güvenlik önlemlerinin alındığından emin olunabilir. Organizasyonlar, mesajlardaki kişisel bilgilerin izlenmesi ve gözetim süreçlerini de içerecek şekilde bir strateji geliştirebilirler.
Uzmanlar, kuruluşların çalışanlarını üretken yapay zekanın kabul edilebilir kullanımı hakkında eğitmesi ve bu araçlara erişimin şirket politikaları doğrultusunda yönetilmesi gerektiğini vurguluyor. Ayrıca, bu eğitimlerin yanı sıra, kuruluşlar üretken yapay zekanın faydalarını ve olası risklerini anlamak için gerekli güvenlik önlemlerini alarak çalışan verimliliğini ve iş memnuniyetini önemli ölçüde artırabilirler.
- Çalışanlar için genel kurallar arasında gizli verilerin yapay zeka araçlarına ifşa edilmemesi,
- Herhangi bir kritik kullanım durumu için yapay zekanın tavsiyelerine güvenilmemesi,
- Bilgilerin mutlaka doğrulanması ve
- Bir sohbet botuna sağlanan verilerin dışarıya sızabileceği hatırlatılması yer almalıdır.
Ayrıca, büyük dil modeli (LLM) tabanlı sistemlerin çalıştığı tüm bilgisayarların ve sunucuların güncel güvenlik araçlarıyla korunması büyük önem taşımaktadır.
Üretken Yapay Zeka: Tamamen Engellenmemeli
Kaspersky Makine Öğrenimi Teknolojisi Grup Müdürü Vladislav Tushkanov, üretken yapay zeka araçlarının, teknolojik veri analizi ve rutin görevlerde yardımcı olarak çalışanların daha verimli olmasını sağladığını belirtiyor. Ancak birçok çalışanın yapay zekayı işverenlerinden gerekli izni almadan kullandığını savunuyor. Bu durum, kurumlar için önemli riskler doğurabilir.
Tushkanov, “Örneğin, veri sızıntısı önemli bir endişe kaynağı haline gelebilir. Ayrıca, çalışanlar ‘halüsinasyonlar’ sonucunda yanlış bilgiler alabilir ve bunlara göre hareket edebilir. Bu, büyük dil modellerinin yanlış bilgileri kendinden emin bir şekilde sunmasından kaynaklanır. Bu halüsinasyonlar, üretken yapay zeka belirli iş işlevlerinin nasıl yerine getirileceği konusunda tavsiyelerde bulunmak için kullanıldığında özellikle tehlikeli olabilir.” ifadelerini kullanıyor.
Tushkanov, durumun kuruluşların üretken yapay zekayı tamamen engellemesi gerektiği anlamına gelmediğini vurgulayarak, karar vericilerin günlük iş rutininin hangi bölümlerinin işletmenin karşı karşıya olduğu tehdit düzeyine olumsuz etkide bulunmadan üretken yapay zeka araçlarıyla otomatikleştirilebileceğini anlamak için kapsamlı bir risk değerlendirmesi yapması gerektiğini kaydediyor.
ChatGPT ve benzeri çözümlerin yasaklanmasının ideal bir seçenek olmayabileceğine dikkat çeken Tushkanov, “Üretken yapay zeka, çok fazla ve çok az tedbir arasındaki dengeyi bularak verimli bir şekilde kullanılabilir. Daha geniş anlamda, kamu ve özel sektör arasındaki işbirlikleri, üretken yapay zekanın iş büyümesine yardımcı olmak, inovasyon için daha fazla kaynak ayrılmasını sağlamak ve riski yönetmek için kritik bir yardımcı haline gelmesine katkı sağlayacaktır.” şeklinde konuşuyor.