Rehber 1 Mart 2026 11 dk okuma

EU AI Act'a Uyum Sağlamak: İşe Alım Ekiplerinin Ağustos 2026'dan Önce Bilmesi Gerekenler

SL

Dr. Sarah Liu

Araştırma Başkanı, Scovai

EU AI Act'a Uyum Sağlamak: İşe Alım Ekiplerinin Ağustos 2026'dan Önce Bilmesi Gerekenler

2 Ağustos 2026'da, EU AI Act'ın yüksek riskli gereksinimler tam anlamıyla yürürlüğe girecek. Adayların işe alınması, taranması veya değerlendirilmesi için kullanılan herhangi bir yapay zeka sistemi — özgeçmiş ayrıştırsın, değerlendirme puanlasın, mülakat yapsın ya da başvuru sahiplerini sıralasın — Kanun'un en sıkı düzenleyici kategorisine girer. Uyumsuzluk cezaları 35 milyon Euro veya küresel yıllık cirosun %7'si ile sınırlı, hangisi daha yüksekse.

Bu uzak bir gelecek meselesi değil. Beş ay uzakta. İşe alımda yapay zeka kullanan çoğu kuruluş için uyumluluk açığı sandıklarından çok daha büyük.

EU AI Act İşe Alım Hakkında Ne Diyor

EU AI Act (Regulation 2024/1689), tüm sektörlerde yapay zeka sistemleri için risk temelli bir çerçeve oluşturmaktadır. Article 6 ve Annex III, "gerçek kişilerin işe alınması veya seçimi, iş ilişkisinin koşullarını etkileyen kararların alınması veya bireysel davranışa dayalı görev dağılımı" amacıyla kullanılan yapay zeka sistemlerini açıkça yüksek riskli olarak sınıflandırmaktadır.

Bu sınıflandırma, modern işe alım yığınındaki hemen hemen her yapay zeka aracını kapsar:

  • Özgeçmiş tarama araçları — ATS anahtar kelime filtreleri ve yapay zeka destekli CV ayrıştırıcılar dahil
  • Değerlendirme platformları — bilişsel testler, kişilik değerlendirmeleri, beceri değerlendirmeleri
  • Yapay zeka mülakat sistemleri — video analizi, sohbet robotu mülakatları, otomatik puanlama
  • Aday sıralama motorları — kısa liste algoritmaları, eşleşme puanlaması, öneri sistemleri
  • Sohbet robotları ve yapay zeka asistanları — işe alım sürecinde adaylarla etkileşime giren herhangi bir yapay zeka
Bölge Dışı Uygulama Kapsamı

EU AI Act'ın bölge dışı uygulama kapsamı bulunmaktadır. Yapay zeka sisteminizin çıktısı AB içinde kullanılıyorsa — yani AB'de ikamet eden adayları değerlendiriyor ya da AB merkezli ofislerdeki işe alım kararlarını şekillendiriyorsa — şirketinizin merkezi nerede olursa olsun Kanun uygulanır. AB'de işe alım yapan ABD, İngiltere ve İsviçre şirketleri tam kapsam dahilindedir.

Zaman Çizelgesi: Halihazırda Yürürlükte Olanlar

EU AI Act, aşamalı bir uygulama takvimi ile 1 Ağustos 2024'te yürürlüğe girdi:

Feb 2025
İşe alım mülakatlarında duygu tanımaya yasak
Aug 2025
Şeffaflık ve veri yönetişimi kuralları aktif
Aug 2026
Tam yüksek riskli gereksinimler — büyük son tarih
€35M
Uyumsuzluk için azami ceza

Halihazırda Aktif: Duygu Tanıma Yasağı

2 Şubat 2025'ten itibaren, iş yeri ve işe alım bağlamlarında biyometrik verilerden (yüz ifadeleri, ses tonu, beden dili) duygu çıkaran yapay zeka sistemlerinin kullanılması yasadışı hale geldi. Bu, yüz analizi yoluyla "coşku," "özgüven" veya "kültürel uyum" değerlendirdiğini iddia eden video mülakat platformlarını doğrudan etkiliyor. İşe alım mülakatlarında duygu tespiti sunmaya devam eden herhangi bir satıcı Kanun'u ihlal ediyor.

Halihazırda Aktif: Şeffaflık Gereksinimleri

2 Ağustos 2025'ten itibaren, kuruluşların adaylara süreç başlamadan önce değerlendirmelerinde yapay zeka kullanıldığını bildirmesi zorunlu. Bu bir onay kutusu değil — şunların anlamlı biçimde açıklanmasını gerektiriyor:

  • Hangi yapay zeka sistemlerinin kullanıldığı
  • Hangi verilerin toplandığı ve işlendiği
  • Yapay zeka çıktılarının işe alım kararlarını nasıl etkilediği
  • Adayın insan incelemesi talep etme hakkı

Ağustos 2026'da Gelecek Olanlar: Tam Yüksek Riskli Uyumluluk

Ağustos 2026 son tarihi, yüksek riskli yapay zeka sistemlerine ilişkin kapsamlı gereksinimlerin yürürlüğe girdiği tarih. Çoğu kuruluşun henüz tırmanmadığı uyumluluk dağı bu.

Yüksek Riskli Uyumluluğun Yedi Sütunu

EU AI Act'ın Articles 8-15'i, yüksek riskli yapay zeka sistemleri için yedi gereksinim kategorisi tanımlıyor. Her birinin işe alım ekipleri için anlamı şöyle:

1. Risk Yönetim Sistemi (Article 9)

Yapay zeka sisteminin tüm yaşam döngüsü boyunca sürekli bir risk yönetimi süreci uygulamalısınız — tek seferlik bir değerlendirme değil, devam eden bir uygulama. Bu şunları kapsar:

  • Bilinen ve öngörülebilir risklerin belirlenmesi ve analiz edilmesi
  • Sağlık, güvenlik ve temel haklara yönelik risklerin tahmin edilmesi
  • Risk azaltma tedbirlerinin benimsenmesi
  • Sistemin bu tedbirlere karşı test edilmesi

İşe alım yapay zekası için bu, aday değerlendirmesindeki önyargı, ayrımcılık, belirsizlik ve hata risklerini belgelemek — ve bunlar hakkında ne yaptığınızı göstermek anlamına geliyor.

2. Veri Yönetişimi (Article 10)

Eğitim, doğrulama ve test verileri katı kalite kriterlerini karşılamalıdır. Kanun şunları gerektiriyor:

  • İlgili, temsili ve hatasız veriler
  • Eğitim veri kümelerinde olası önyargıların incelenmesi
  • Veri kaynaklarının, toplama yöntemlerinin ve işleme adımlarının belgelenmesi
  • Korunan özelliklere (cinsiyet, etnik köken, yaş, engellilik) özel dikkat

3. Teknik Belgeleme (Article 11)

Herhangi bir yapay zeka işe alım sistemi piyasaya sürülmeden veya dağıtılmadan önce kapsamlı teknik belgeleme hazırlanmalıdır. Bu; sistem mimarisini, tasarım özelliklerini, kullanılan algoritmaları, veri gereksinimlerini, performans metriklerini ve bilinen sınırlamaları kapsar.

4. Kayıt Tutma ve Günlükleme (Article 12)

Yüksek riskli yapay zeka sistemleri, çalışmaları boyunca otomatik olarak olayları günlüklemek zorundadır. İşe alım yapay zekası için bu şu anlama gelir:

  • Her yapay zeka tarafından üretilen puan, sıralama veya öneri izlenebilir olmalıdır
  • Günlükler girdi verilerini, model sürümünü ve çıktıyı tanımlamalıdır
  • Kayıtlar, yürürlükteki mevzuatın belirlediği süre boyunca saklanmalıdır (asgari: işe alım süreci + itiraz süresi)
  • Günlükler düzenleyici denetim için erişilebilir olmalıdır

5. Şeffaflık ve Bilgi (Article 13)

Yapay zeka işe alım sistemleri, dağıtıcıların (işverenlerin) çıktıları yorumlayabilmesi ve uygun şekilde kullanabilmesi için yeterince şeffaf olacak şekilde tasarlanmalıdır. Bu şunları kapsar:

  • İnsan operatörler için yapay zeka çıktılarının nasıl yorumlanacağına dair açık talimatlar
  • Sistemin yeteneklerinin ve sınırlamalarının belgelenmesi
  • Doğruluk düzeyi ve bilinen önyargılar hakkında bilgi
  • Sistemin hatalı sonuçlar üretebileceği koşullar

6. İnsan Gözetimi (Article 14)

Bu, yapay zekanın işe alımda nasıl kullanılabileceğini temelden şekillendiren gerekliliktir. Kanun, yüksek riskli yapay zeka sistemlerinin etkili insan gözetimine izin verecek şekilde tasarlanması gerektiğini zorunlu kılmaktadır. Özellikle:

  • Nitelikli bir insan, yapay zekanın çıktılarını anlayabilmeli
  • Bir insan, herhangi bir yapay zeka kararını geçersiz kılabilmeli veya geri alabilmeli
  • Sistem, insan operatörün anlamlı biçimde inceleyemeyeceği çıktılar üretmemelidir
  • İnsan incelemesi olmaksızın adayların otomatik olarak reddedilmesi açıkça uyumsuzluk oluşturur

"Article 14, yapay zekayı işe alımdan yasaklamıyor — yapay zekanın özerk biçimde işe almasını yasaklıyor. Her yapay zeka önerisi, onu anlayabilecek, sorgulayabilecek ve geçersiz kılabilecek bir insandan geçmek zorunda."

7. Doğruluk, Sağlamlık ve Siber Güvenlik (Article 15)

Yüksek riskli yapay zeka sistemleri, amaçlanan kullanım için uygun bir doğruluk düzeyine ulaşmalı, hatalara ve tutarsızlıklara karşı dirençli olmalı ve yetkisiz erişime ya da manipülasyona karşı korunmalıdır.

Önyargı İzleme Zorunluluğu

EU AI Act "dört beşte bir kuralı" (Amerikan hukuki standardı) terimini kullanmasa da, ayrımcılık yapmama gereksinimleri çok daha kapsamlıdır. Article 10(2)(f), eğitim verilerinin "kişilerin sağlık ve güvenliğini etkileyebilecek, temel haklara olumsuz etki yapabilecek olası önyargılar" açısından incelenmesini gerektiriyor. Recital 47 açıkça istihdamda "tarihi ayrımcılık kalıplarının sürdürülmesi" riskine atıfta bulunuyor.

Pratikte bu, kuruluşların şunları yapması gerektiği anlamına geliyor:

  • Cinsiyet, etnik köken, yaş ve engellilik durumuna göre seçim oranlarını izlemek
  • Herhangi bir orantısız etkiyi ve bunu gidermek için atılan adımları belgelemek
  • Yapay zeka tarafından üretilen sonuçların periyodik önyargı denetimlerini yapmak
  • Adaylara yapay zeka etkili kararlar için açıklama talep etme hakkı tanımak

"Uyumlu" Olmak Gerçekte Nasıl Görünür

Pek çok satıcı, ne kastettiklerini belirtmeksizin "EU AI Act uyumluluğu" iddiasında bulunuyor. İşe alım yapay zeka yığınınızın Ağustos 2026'ya gerçekten hazır olup olmadığını değerlendirmek için pratik bir kontrol listesi:

  • Aday bildirimi: Süreç başlamadan önce adaylar yapay zeka kullanıldığı konusunda bilgilendiriliyor mu?
  • İnsan gözetimi: Her yapay zeka önerisi, herhangi bir işe alım kararından önce bir insana ulaşıyor mu?
  • Açıklanabilirlik: Bir adaya neden o şekilde puan aldığını açıklayabilir misiniz?
  • Denetim izi: Her yapay zeka puanlama kararı, girdiler, model sürümü ve çıktılarla birlikte günlükleniyor mu?
  • Önyargı izleme: Korunan özellikler genelinde seçim oranlarını gerçek zamanlı olarak takip ediyor musunuz?
  • Duygu tanıma yok: Yığınınızdaki herhangi bir araç biyometrik verilerden duygu çıkarıyor mu?
  • İnceleme hakkı: Adaylar, yapay zeka etkili herhangi bir kararın insan tarafından incelenmesini talep edebilir mi?
  • Veri yönetişimi: Yapay zeka eğitim verilerinizin kaynağını ve kalitesini belgeleyebilir misiniz?
  • Teknik belgeleme: Yapay zeka sisteminizin mimarisi, performansı ve sınırlamaları belgelenmiş mi?
  • Olay raporlama: Yapay zeka sistemi arızalarını yetkililere bildirme süreciniz var mı?
Scovai'nin Uyumluluk Yaklaşımı

Scovai, EU AI Act uyumluluğunu sonradan eklenen bir özellik olarak değil, temel bir ilke olarak tasarlandı. Her yapay zeka önerisi, herhangi bir işe alım kararından önce insan bir işe alım uzmanına iletilir. Tüm puanlama, tam denetim izleriyle günlüklenir. Önyargı izleme, cinsiyet, yaş ve etnik köken genelinde dört beşte bir kuralını gerçek zamanlı olarak takip eder. Adaylara yapay zeka kullanımı önceden bildirilir, neyin ölçüldüğü konusunda şeffaflık sağlanır ve puanlarının açıklamasını talep edebilirler. Integrity Shield, duygu tanıma olmaksızın değerlendirme özgünlüğü doğrulaması sağlar — Şubat 2025 yasağıyla tam uyumlu. Platformun tamamı, yerleşik onay yönetimi, veri dışa aktarma ve silme hakkı desteğiyle GDPR uyumludur.

GDPR Bağlantısı

EU AI Act, GDPR'ın yerini almaz — onun üzerine katmanlanır. İşe alımda yapay zeka kullanan kuruluşların her ikisine de aynı anda uyması gerekir. Yapay zeka işe alım araçları için temel GDPR değerlendirmeleri:

  • Article 22 (otomatik karar alma): Adaylar, hukuki veya benzer şekilde önemli etkiler doğuran yalnızca otomatik işlemeye dayalı kararlara tabi olmama hakkına sahiptir. Bu, AI Yasası'nın insan gözetimi gerekliliğiyle örtüşmektedir.
  • Hukuki dayanak: Yapay zeka sistemleri aracılığıyla aday verilerinin işlenmesi, hukuki dayanak gerektirir — genellikle meşru menfaat veya açık rıza.
  • Veri minimizasyonu: Yalnızca işe alım kararı için gerekli olan verileri toplayın ve işleyin.
  • Silinme hakkı: Adaylar, yapay zeka tarafından üretilen puanlar ve profiller dahil olmak üzere verilerinin silinmesini talep edebilir.
  • Veri Koruma Etki Değerlendirmesi (DPIA): Yapay zeka işe alım sistemleri, GDPR Article 35 kapsamında DPIA yapılması gerekliliğini neredeyse kesinlikle tetikler.

Hazır Değilseniz Ne Olur

EU AI Act'ın ceza yapısı, uyumluluğun isteğe bağlı olmadığını güvence altına almak için tasarlanmıştır:

  • Yasaklanan uygulamalar (örn. işe alımda duygu tanıma): 35 milyon Euro veya küresel yıllık cirosun %7'sine kadar
  • Yüksek riskli uyumsuzluk (örn. eksik belgeleme, insan gözetimi yok): 15 milyon Euro veya küresel yıllık cirosun %3'üne kadar
  • Yetkililere yanlış bilgi verme: 7,5 milyon Euro veya küresel yıllık cirosun %1'ine kadar

Para cezalarının ötesinde, uyumsuzluk dava riski yaratır. Yapay zeka işe alım araçları tarafından ayrımcılığa uğradığına inanan adaylar artık bu kararları sorgulamak için net bir düzenleyici çerçeveye sahip. AB genelindeki iş mahkemelerinin, yapay zeka destekli işe alımda özen standardı olarak AI Yasası'na atıfta bulunması bekleniyor.

Hazır Olmak İçin Beş Adım

Tam uygulamaya beş ay kala, işe alım ekipleri için pratik bir yol haritası:

  • 1. Yapay zeka yığınınızı denetleyin. İşe alım sürecinize dokunan her yapay zeka aracını haritalandırın — ATS filtreleri, değerlendirme platformları, mülakat araçları, sıralama motorları, sohbet robotları. Hangilerinin yüksek riskli sınıflandırma kapsamına girdiğini belirleyin.
  • 2. Satıcılarınızı değerlendirin. Her satıcıdan EU AI Act uyumluluk belgelerini isteyin. Sağlayamazlarsa, hazır değiller — dolayısıyla siz de değilsiniz.
  • 3. İnsan gözetimini uygulayın. Hiçbir yapay zeka tarafından üretilen önerinin, insan incelemesi olmaksızın aday reddiyle sonuçlanmadığından emin olun. İnsan karar alma sürecini belgelendirin.
  • 4. Önyargı izlemeyi kurun. Korunan özellikler genelinde seçim oranlarını takip etmeye başlayın. Orantısız etki bulursanız, azaltma adımlarınızı belgelendirin.
  • 5. Belgelemeyi hazırlayın. İşe alım yığınınızdaki her yapay zeka sistemi için teknik belgeleme oluşturun veya talep edin. Risk değerlendirmeleri, veri yönetişimi prosedürleri ve olay müdahale planlarını dahil edin.

Sonuç

EU AI Act, yapay zeka destekli işe alıma bir engel değil — sorumlu biçimde yapılması için bir çerçeve. Uyumluluğu benimseyen kuruluşlar kendilerini daha güvenilir araçlar, daha savunulabilir kararlar ve daha iyi aday deneyimleriyle bulacak. Bunu görmezden gelenler mali cezalar, hukuki riskler ve itibar kaybıyla yüzleşmek zorunda kalacak.

Soru uyum sağlayıp sağlamayacağınız değil. Soru öncülük mi edeceksiniz yoksa panikle mi yetiştirmeye çalışacaksınız. Ağustos 2026 sandığınızdan çok daha yakın.

Ready to go beyond the CV?

Scovai's AI-powered Talent Passport reveals what resumes can't — personality, potential, and true job fit.