
Yapay Zeka: Kişisel Veriler, Algoritmalar ve Tehditler
“Yapay Zeka: Kişisel Veriler, Algoritmalar ve Tehditler” başlıklı dosyanın altıncı bölümünde, yapay zeka kullanılarak gerçekleştirilen ayrımcılık örnekleri titizlikle değerlendirildi. Dijital çağın en büyük teknolojik icatlarından biri olarak kabul edilen yapay zeka, sunduğu yeniliklerle birlikte beraberinde getirdiği sorunlarla da dikkat çekmektedir. Son dönemlerde yapay zeka sistemleri ile ilgili en büyük sorunlardan biri, ırkçılık ve ayrımcılık gibi olguların öne çıkmasıdır. Mevcut verilerde yer alan önyargı ve ayrımcılık gibi istenmeyen özellikleri öğrenme kapasitesine sahip olan yapay zeka ürünleri, geçmişte birçok skandalın başrolü olmuştur.
Örneğin, 2016 yılında Microsoft tarafından geliştirilen “Tay” adlı yapay zeka hesabı, X (eski adıyla Twitter) kullanıcılarıyla etkileşimde bulunmak amacıyla tasarlanmıştı. Ancak Tay, çok kısa bir süre içerisinde gerçek kullanıcıların tweetlerinden etkilenerek ırkçı ve İslamofobik içerikler paylaşmaya başlamış, bu durum sonucunda Microsoft, Tay’ın tweetlerine müdahale etmek zorunda kalmıştır.
Yapay zeka uzmanı Prof. Dr. Murat Kirişci, Anadolu Ajansı’na yaptığı açıklamada, algoritmaların verilerden öğrendiğine dikkat çekerek, “Bu kaynaklarda var olan yanlı, ayrımcı ve ırkçı bilgiler, algoritmalar tarafından işleniyor ve sonuç olarak bu araçlar ayrımcı ve ırkçı kararlar almaya başlıyor.” dedi. Kirişci, sorunun algoritmaları besleyen verilerde, dolayısıyla o verileri elde eden ve üreten insanda olduğuna vurgu yaparak, “Irkçılık ve eşitsizlik, özünde verinin bir hatası değil, bizzat verinin kendisinin bir özelliğidir. Veriyi üreten, algoritmaları yazan ve araçları tasarlayan insanın tüm önyargıları, yanlılıkları ve zihnindeki olumsuzluklar, burada sorun teşkil etmektedir.” şeklinde konuştu.
Kirişci, ayrımcılık yapan algoritmaların hayatın her alanında var olabileceğini belirterek, sözlerini şöyle sürdürdü:
- İş Başvuruları: Irkçı algoritmalar, bir iş yerinde kişinin işe alım sürecinde ya da şirketteki birçok konuda etki edebilir. Örneğin, iş başvurularında erkekleri tercih eden algoritmalar mevcuttur.
- Sosyal Medya Filtreleri: Koyu tenli bireyler üzerinde düzgün çalışmayan sosyal medya filtreleri, bu kişilere ayrımcı bir önyargıyla yaklaşan yapay zekaların sıkça karşılaşılan örnekleridir.
- Konut Satışı ve Kiralama: Farklı ırklardan insanların bölgelerinde oturmasını istemeyenlerin taleplerine göre geliştirilen algoritmalar, ırkçı ve ayrımcı konut satışı veya kiralama yapmaktadır.
- Yüz Tanıma Sistemleri: Yüz tanıma sistemlerinde, siyahi bireyler ya da ten rengi diğerlerinden farklı olanlar, suçlu olarak algılanma eğilimindedir. Bu durum birçok masum bireyin hürriyetinden mahrum kalmasına yol açmaktadır.
- Sosyo-Ekonomik Gözlem: Irkçı algoritmalar sebebiyle sosyo-ekonomik geçmiş, eğitim ve yaşanılan bölgeye göre tanımlanan bireyler, polis tarafından daha fazla gözlem altına alınabilmektedir.
- Toplumların Marjinalleşmesi: Hakkını savunan toplumları (örneğin Filistin halkı) marjinalleştirip kötüleyen algoritmalar, sosyal medya platformlarında sıkça kullanılmaktadır.
“İnsan düzelmedikçe…”
Kirişci, insanların zihninde algoritmaların daha tarafsız olduğu yönünde yaygın bir algı bulunduğunu ifade ederek, insanların tüm önyargılarının algoritmalar aracılığıyla bu sistemlere geçtiğini ve bu araçların zamanla daha ırkçı, daha taraflı ve ayrımcı hale gelebileceğini belirtti. “İnsanlar arasında nasıl ki bir grup, başka bir gruba karşı orantısız davranışlar sergileyebiliyorsa, yapay zeka araçları da aynı şekilde önyargı ve ırkçı orantısızlıklar uygulamaktadır,” dedi. Kirişci, yapay zekanın gelişip hayatımıza yaygınlaştıkça, bu adaletsizlik ve ırkçılığın da farklı yapay zeka araçlarıyla yürütüldüğünü vurguladı. “Bu karmaşa içinde bir yapay zekanın daha adil olmasının tek yolu, veri ve bilgi aldığı insanoğlunun daha adil olmaya çalışmasıdır. İnsan düzelmedikçe yapay zekadan daha iyi sonuçlar beklemek imkansızdır,” değerlendirmesinde bulundu.