Son yıllarda iş dünyasında giderek daha sık duyulan bir açıklama var: “Kararı biz vermedik, sistem verdi.” Sistem devredeyse kararın daha adil, daha nesnel ve daha tarafsız olduğu varsayılıyor. İnsan hatasının yerini matematiğin aldığı düşünülüyor.
Tam da bu nedenle şirketler yapay zekâ destekli araçları özellikle insan kaynakları süreçlerinde hızla benimsedi: CV eleme sistemleri, aday eşleştirme yazılımları, performans tahmin modelleri, çalışan bağlılığı analizleri ve terfi potansiyeli ölçümleri. Bu araçların ortak vaadi, kişisel değerlendirmelerin yerine veri temelli kararlar koymalarıdır. Ancak burada kritik bir yanlış varsayım var. Bu kararın insan tarafından verilmemesi, onun tarafsız olduğu anlamına gelmez.
Çeşitlilik ve kapsayıcılık politikaları uzun yıllar boyunca bireysel önyargıyı sınırlamaya çalıştı. Eğitimler verildi, farkındalık programları yapıldı, işe alım süreçleri standardize edildi. Ama bugün kararın kendisi değişiyor. Kararı veren kişi değil, karar mekanizması dönüşüyor. Ve yeni soru şu:
Ayrımcılık insan davranışından değil, sistem tasarımından kaynaklanıyorsa ne olacak?
Bu noktada tartışma teknolojik değil kurumsaldır. Çünkü artık mesele yalnızca yöneticinin kimi işe aldığı değil, şirketin hangi karar araçlarını kullandığıdır. Çeşitlilik ve kapsayıcılık politikaları ilk kez, insan davranışının ötesine geçerek karar altyapısını sorgulamak zorunda kalıyor.
Algoritma Neden Tarafsız Değildir?
Yapay zekâ çoğu zaman matematiksel olduğu için tarafsız kabul edilir. Oysa yapay zekâ karar vermez; örüntü tanır. Ve bu örüntüler yeni değildir. Geçmişe aittir. Bir algoritma geleceği öğrenmez, geçmişi genelleştirir.
İşe alım verileri üzerinden eğitilen bir sistem, geçmişte “başarılı” kabul edilmiş çalışanların özelliklerini model alır. Eğer kurum belirli üniversitelerden mezun adayları daha sık işe aldıysa, sistem bunu liyakat göstergesi olarak yorumlar. Eğer belirli kariyer kesintileri olan adaylar daha az terfi ettiyse, model bunu performans sinyali olarak algılar. Sistem kimseyi bilinçli olarak dışlamaz; yalnızca geçmiş tercihleri normal kabul eder. Bu nedenle algoritmik ayrımcılık çoğu zaman niyet içermez. Ancak etkisi sistematiktir.
Yapay zekâ sistemlerinde önyargı yalnızca sonuç aşamasında ortaya çıkmaz. Problemin nasıl tanımlandığı, hangi verinin seçildiği, hangi değişkenlerin önemli kabul edildiği ve modelin nasıl uygulandığı gibi kararların tamamı sonucu etkiler. Yapay zekâ yönetişimi çalışmalarında da haksız ayrımcılığın sistemin tasarım, geliştirme ve kullanım süreçlerinin herhangi bir aşamasında ortaya çıkabileceği kabul edilmektedir[1].
Bu noktada, algoritmanın bir kurumun değerlerinden bağımsız olmadığını hatırlamak gerekir. Sistemler, onları geliştiren ekiplerin dünyayı nasıl gördüğünü yansıtır. Algoritmalar teknik araçlar değildir; kaçınılmaz olarak değer yüklüdür[2]. Dolayısıyla problemin nasıl tanımlandığı bile sonucu belirler. Örneğin “iyi çalışan”ı tanımlarken hangi göstergelerin seçildiği — kesintisiz kariyer, uzun çalışma saatleri, belirli eğitim geçmişleri — aslında teknik bir tercih değil, normatif bir kabuldür.
NoBiasAI girişimi[3] de yapay zekâ sistemlerinin toplumsal önyargıları yeniden üretebileceğine ve temsil eksikliğinin sonuçları etkilediğine dikkat çekmektedir. NoBiasAI Kurucusu ve CEO’su Saniye Gülser Corat’ın aktardığına göre: birinci problem internetteki verilerin %51’i İngilizce konuşan veya bilen 20-55 yaş arası beyaz erkeklerden geliyor. Din, mezhep, sosyoekonomik statü, coğrafi konum gibi farklarla son derece önyargılı verilerden bahsediyoruz. İkinci problem ise algoritmaları kim yazdığıdır. Algoritmaları 18-25 yaş arası %90’ı beyaz olan ve çok büyük bir oranı ABD’li olan genç erkekler yazıyor. Şu an teknoloji sektöründeki firmaların verdiği rakamlara bakarsanız %20-25 arası kadın diyorlar, bu doğru değil, bu oran şirketteki tüm departmanları kapsıyor, sadece teknik elemanlar olarak bakarsanız kadınların oranı %9’un altında. Bir başka gerçek ise şudur; yapay zekâ sektöründe çalışan kadınların %70’i ilk 5 yıl içinde teknoloji şirketlerinden bir daha hiç girmemek üzere ayrılıyor. Bunun da sebebi teknoloji şirketindeki ataerkil kültürdür[4]”.
Bu nedenlerle bugün şirketler yalnızca yöneticilerin önyargısıyla değil, karar araçlarının gömülü varsayımlarıyla karşı karşıyadır. Çeşitlilik ve kapsayıcılık tartışması da tam bu noktada yeni bir boyut kazanır: sorun artık yalnızca kimin karar verdiği değil, kararın nasıl üretildiğidir.
İnsan Kaynaklarında Algoritmik Ayrımcılık Nasıl Ortaya Çıkar?
Yapay zekâ tartışmaları çoğu zaman otonom araçlar veya gelişmiş robotlar üzerinden yürütülüyor. İş dünyasında insan kaynakları uygulamalarında kullanılan teknolojilerin ne kadarının yapay zekâ, ne kadarının yalnızca otomasyon olduğu çoğu zaman belirsizdir. Buna rağmen etkileri ortaktır: karar, bir kişinin değerlendirmesi olmaktan çıkar ve bir sistemin çıktısına dönüşür.
Bugün pek çok kurum, aday başvurularını ön elemeden geçirmek, çalışanların performansını değerlendirmek, işten ayrılma riskini tahmin etmek veya terfi potansiyelini belirlemek için veri temelli araçlar kullanıyor. Bu sistemler çoğu zaman nihai kararı vermez; fakat kararın kimler hakkında verileceğini belirler. Bir başka deyişle, yöneticinin önüne hangi adayların geleceğini, hangi çalışanların “yüksek potansiyel” sayılacağını ve kimlerin risk grubunda görüleceğini filtreler.
Bu durum ilk bakışta daha adil görünebilir. Çünkü süreç kişisel değerlendirmelerden arındırılmıştır. Ancak sorun tam da burada başlar.
Bir işe alım algoritması, geçmişte başarılı kabul edilen çalışanların özelliklerini model alır. Eğer kurum yıllar boyunca belirli üniversitelerden mezun adayları daha çok işe aldıysa, model bunu başarı göstergesi olarak öğrenir. Eğer kesintisiz kariyer geçmişi olan çalışanlar daha sık terfi ettiyse, sistem kariyer ara veren adayları düşük potansiyel olarak değerlendirebilir. Eğer uzun çalışma saatleri yüksek performansla ilişkilendirildiyse, esnek çalışma tercih eden çalışanlar performans açısından riskli görülebilir.
Bu noktada sistem açıkça “kadınları işe alma” veya “belirli grupları dışla” gibi bir karar vermez. Ancak seçtiği göstergeler belirli grupları sistematik olarak dezavantajlı konuma getirir. Ayrımcılık doğrudan değil, dolaylıdır.
Klasik ayrımcılıkta bir kişi bir başkasını bilerek veya isteyerek farklı değerlendirir. Algoritmik ayrımcılıkta ise karar tarafsız görünür. Çünkü kimse bireysel bir tercih yapmamıştır. Ancak kullanılan kriterler, geçmişteki eşitsizlikleri yeniden üretir. Böylece eşitsizlik bireysel olmaktan çıkar, kurumsallaşır.
Örneğin çalışan bağlılığı veya işten ayrılma riskini tahmin eden modeller, geçmiş verilerde işten daha sık ayrılmış çalışanların özelliklerini risk göstergesi olarak kabul edebilir. Bu özellikler arasında ulaşım süresi, çocuk bakım sorumluluğu, çalışma saatlerine esneklik talebi veya belirli departmanlarda çalışma gibi değişkenler bulunabilir. Bu değişkenlerin hiçbiri tek başına ayrımcı değildir. Ancak birlikte değerlendirildiğinde belirli çalışan gruplarını sürekli “riskli” kategorisine yerleştirebilir.
Benzer şekilde performans değerlendirme araçları, ölçülmesi kolay olan davranışları ölçmeyi tercih eder: toplantı sayısı, platform içi etkileşim, e-posta yanıt hızı veya çevrim içi görünürlük. Oysa ekip içi destek, kriz çözme becerisi veya mentorluk gibi katkılar ölçülemediği için modelin dışında kalır. Sonuçta performans değil, görünürlük ödüllendirilir.
Buradaki kritik nokta şudur: Algoritma ayrımcılığı icat etmez; ölçülebilir olanı ödüllendirir. Ölçülemeyen katkı ise sistematik biçimde değersizleşir.
Algoritmalar yalnızca veriyle değil, varsayımlarla çalışır. “İyi çalışan”, “yüksek potansiyel”, “uygun aday” gibi kavramlar teknik değil normatif tanımlardır. Bu tanımlar çoğu zaman yazılı değildir; ancak modelin içine gömülür.
Böylece şirketler farkında olmadan yeni bir durumla karşılaşır: Karar artık yöneticinin bireysel önyargısından değil, kurumun geçmiş tercihlerini genelleştiren bir sistemden doğar.
Ve bu sistem, itiraz edilmesi en zor kararları üretir. Çünkü açıklaması yoktur. Aday reddedilir ama neden reddedildiği tam olarak söylenemez. Çalışan düşük potansiyel kategorisine girer ama hangi davranışı nedeniyle olduğu net değildir. Karar kişisel olmadığı için tartışma zemini de ortadan kalkar.
Bu nedenle algoritmik ayrımcılık çoğu zaman görünmezdir. Ama etkisi son derece somuttur: çeşitlilik azalır, benzer profiller çoğalır ve kurum zamanla kendine benzeyen insanları seçen kapalı bir yapıya dönüşür. Hatalı bir model tek bir kişiyi değil, çok sayıda insanı aynı şekilde etkiler.
Bu durum yalnızca teorik bir risk değildir. Amazon’un birkaç yıl önce geliştirdiği başvuru puanlama sistemi buna iyi bir örnek sunar: Amazon 2014–2017 arasında başvuruları puanlayan bir işe alım sistemi geliştirdi. Sistem geçmiş CV’lerle eğitildiği için erkek adayları tercih etmeyi “öğrendi”; “women’s” gibi ifadeleri içeren başvuruları düşük puanladı ve kadınların mezun olduğu bazı okulları dezavantajlı kabul etti. Proje daha sonra terk edildi[5].
Hukuki ve Etik Sorumluluk: “Sistem Verdi” Savunması Neden Yetmez?
Algoritmik kararların en dikkat çekici özelliği sorumluluğu belirsizleştirmesidir. Kararı bir yönetici vermemiştir. İK uzmanı vermemiştir. Hatta çoğu zaman sistemi kullanan kişi de kararın nasıl üretildiğini bilmez. Bu nedenle kurumlar doğal olarak şu sonuca yönelir: karar otomatikleştiyse sorumluluk da azalır.
Oysa gerçekte tam tersi söz konusudur.
Bir kurumun karar süreçlerinde kullandığı araçlar, o kurumun faaliyetinin parçasıdır. Bir yöneticinin yaptığı değerlendirme ile şirketin satın aldığı veya geliştirdiği bir yazılımın ürettiği sonuç arasında hukuki açıdan belirleyici bir fark yoktur. Karar şirket adına doğuruluyorsa, sonuçlarından da şirket sorumludur.
Üstelik algoritmik kararların yarattığı risk, klasik ayrımcılıktan daha karmaşıktır. Çünkü sorun tek bir hatalı karar değildir; tekrar eden bir örüntüdür. Bir adayın yanlış değerlendirilmesi tekil bir hata sayılabilir. Ancak aynı özelliklere sahip adayların sistematik biçimde elenmesi artık bireysel değil, yapısal bir sorundur.
Bu nedenle güncel yapay zekâ yönetişimi tartışmaları, sistemlerin yalnızca doğruluğunu değil etkisini sorgulamaya başlamıştır.
[1] Leslie, D., Rincón, C., Briggs, M., Perini, A., Jayadeva, S., Borda, A., Bennett, SJ. Burr, C., Aitken, M., Katell, M., Fischer, C., Wong, J., and Kherroubi Garcia, I. (2023). AI Fairness in Practice. The Alan Turing Institute., s. 10 ve 30–37.
[2] Mittelstadt et al., The Ethics of Algorithms: Mapping the Debate, 2016, (pre-print), s.1.
[4] Saniye Gülser Corat’ın 14. Galatasaray Ödülü ödül konuşması, 08.02.2026. https://www.youtube.com/watch?v=kx4cLKH6wQc
[5] https://incidentdatabase.ai/cite/37/
Yazı: Av. Filiz Toprak Esin, Karaduman & Esin Law Firm
Kaynak: INmagazine 41. Sayı
Diğer Sayıları İçin: INmagazine
Not: Makalelerdeki Görüş ve Yorumlar Yazar veya Yazarlara Ait Olup, Etik ve İtibar Derneği’nin Konu ile İlgili Düşüncelerini Yansıtmamaktadır.
