Yapay zeka destekli işe alım platformu Eightfold, iş başvurularını gizlice puanladığı iddiasıyla mahkemeye verildi. Şirket aleyhine açılan dava, teknoloji sektöründe işe alım süreçlerinde yapay zeka kullanımının etik boyutlarını gündeme getirdi. Reuters’ın haberine göre, şirketin algoritmaları potansiyel çalışanları şeffaf olmayan kriterlere göre değerlendiriyor.
Dava dilekçesinde Eightfold’un platformunun, iş başvurularını adayların bilgisi olmadan puanladığı belirtiliyor. Bu sistem şirketlerin, başvuru sahiplerini önceden belirlenmiş algoritmalara göre sıralamalarına olanak tanıyor. Davacılar, bu uygulamanın adil işe alım ilkelerine aykırı olduğunu savunuyor.
Gizli Puanlama Sistemi Nasıl Çalışıyor
Eightfold’un geliştirdiği sistem, iş başvurularını çeşitli kriterlere göre otomatik olarak değerlendiriyor. Platform, özgeçmişlerdeki bilgileri analiz ederek her aday için bir puan hesaplıyor. Bu puanlama sistemi, başvuru sahiplerinin farkında olmadığı parametreleri kullanıyor.
Şirketin yapay zeka algoritması, adayların eğitim geçmişi, iş deneyimi ve diğer kişisel bilgilerini işliyor. Sistem daha sonra bu verileri kullanarak, hangi adayların pozisyon için daha uygun olduğunu belirliyor. Ancak bu süreçte kullanılan kriterlerin şeffaf olmadığı iddia ediliyor.
Ayrımcılık Endişeleri Artıyor
Hukuk uzmanları, gizli puanlama sistemlerinin potansiyel ayrımcılık risklerine dikkat çekiyor. Bu tür algoritmalar, belirli demografik grupları kayırabileceği endişesi yaratıyor. Özellikle yaş, cinsiyet veya etnik köken gibi faktörlerin dolaylı olarak değerlendirmede rol oynayabileceği belirtiliyor.
Davacılar, Eightfold’un sisteminin adaylar arasında adaletsiz ayrım yaptığını öne sürüyor. Bu durum, işe alım süreçlerinde yapay zeka kullanımının daha sıkı düzenlenmesi gerektiği tartışmalarını alevlendiriyor. Uzmanlar, algoritmaların önyargıları pekiştirebileceği konusunda uyarıda bulunuyor.
Teknoloji Sektöründe Benzer Vakalar
Eightfold davası, teknoloji sektöründe işe alım süreçlerinde yapay zeka kullanımıyla ilgili artan endişelerin son örneği. Geçtiğimiz yıllarda Amazon, kendi işe alım algoritmasının kadın adayları kayırdığını keşfetmişti. Şirket bu sistemi kullanımdan kaldırmak zorunda kalmıştı.
Benzer şekilde, çeşitli teknoloji şirketleri yapay zeka destekli işe alım araçlarını gözden geçirmeye başladı. Bu araçların önyargılı sonuçlar üretebileceği konusundaki farkındalık artıyor. Sektör, daha adil ve şeffaf sistemler geliştirmek için çalışmalarını hızlandırıyor.
Yasal Düzenlemeler Gündemde
Amerika Birleşik Devletleri’nde işe alım süreçlerinde yapay zeka kullanımını düzenleyen yeni yasalar hazırlanıyor. New York City, işe alımda yapay zeka araçlarının kullanımını sınırlayan ilk büyük şehir oldu. Bu düzenlemeler, şirketlerin algoritmalarını daha şeffaf hale getirmesini gerektiriyor.
Avrupa Birliği de benzer adımlar atmaya hazırlanıyor. Yapay Zeka Yasası kapsamında, işe alım süreçlerinde kullanılan algoritmalar yüksek riskli kategoride değerlendiriliyor. Bu sistemler, sıkı denetim ve şeffaflık gereksinimlerine tabi tutuluyor.
Şirket Savunması ve Gelecek Planları
Eightfold yönetimi, sistemlerinin ayrımcılık yapmadığını ve eşit fırsatlar sunduğunu savunuyor. Şirket, algoritmalarının sürekli olarak iyileştirildiğini ve önyargıları önlemeye yönelik tedbirler aldığını belirtiyor. Platform, işverenlere daha iyi işe alım kararları vermede yardımcı olduğunu iddia ediyor.
Ancak eleştirmenler, bu savunmanın yeterli olmadığını düşünüyor. Şeffaflık eksikliğinin, sistemin güvenilirliğini sorgulandırdığını belirtiyorlar. Dava sonucunun, sektördeki diğer şirketler için emsal oluşturabileceği değerlendiriliyor.