2 अगस्त 2026 को, EU AI Act की उच्च-जोखिम आवश्यकताएं पूर्ण रूप से प्रभावी होंगी। उम्मीदवारों की भर्ती, स्क्रीनिंग या मूल्यांकन के लिए उपयोग की जाने वाली कोई भी AI प्रणाली — चाहे वह रिज्यूमे पार्स करे, मूल्यांकन स्कोर करे, साक्षात्कार आयोजित करे, या आवेदकों की रैंकिंग करे — कानून की सबसे कड़ी नियामक श्रेणी के अंतर्गत आती है। गैर-अनुपालन के लिए जुर्माना €35 मिलियन या वैश्विक वार्षिक कारोबार का 7%, जो भी अधिक हो, तक पहुंचता है।
यह कोई भविष्य की चिंता नहीं है। यह पांच महीने दूर है। और भर्ती में AI का उपयोग करने वाले अधिकांश संगठनों के लिए, अनुपालन अंतराल उनकी सोच से कहीं अधिक चौड़ा है।
EU AI Act भर्ती के बारे में क्या कहता है
EU AI Act (Regulation 2024/1689) सभी क्षेत्रों में AI प्रणालियों के लिए एक जोखिम-आधारित ढांचा स्थापित करता है। Article 6 और Annex III स्पष्ट रूप से AI प्रणालियों को "प्राकृतिक व्यक्तियों की भर्ती या चयन, कार्य-संबंधी संबंध की शर्तों को प्रभावित करने वाले निर्णय लेने, या व्यक्तिगत व्यवहार के आधार पर कार्य आवंटन" में उपयोग के लिए उच्च-जोखिम के रूप में वर्गीकृत करते हैं।
यह वर्गीकरण आधुनिक भर्ती स्टैक में लगभग हर AI उपकरण पर लागू होता है:
- रिज्यूमे स्क्रीनिंग टूल — ATS कीवर्ड फ़िल्टर और AI-संचालित CV पार्सर सहित
- मूल्यांकन प्लेटफॉर्म — संज्ञानात्मक परीक्षण, व्यक्तित्व मूल्यांकन, कौशल मूल्यांकन
- AI साक्षात्कार प्रणालियां — वीडियो विश्लेषण, चैटबॉट साक्षात्कार, स्वचालित स्कोरिंग
- उम्मीदवार रैंकिंग इंजन — शॉर्टलिस्टिंग एल्गोरिदम, मैच स्कोरिंग, सिफारिश प्रणाली
- चैटबॉट और AI असिस्टेंट — भर्ती प्रक्रिया के दौरान उम्मीदवारों के साथ इंटरैक्ट करने वाला कोई भी AI
EU AI Act का अतिरिक्त-क्षेत्रीय दायरा है। यदि आपकी AI प्रणाली का आउटपुट EU के भीतर उपयोग किया जाता है — अर्थात यह EU निवासी उम्मीदवारों का मूल्यांकन करती है, या EU-आधारित कार्यालयों में भर्ती निर्णयों को सूचित करती है — तो कानून आपकी कंपनी के मुख्यालय की स्थान की परवाह किए बिना लागू होता है। EU में भर्ती करने वाली अमेरिकी, ब्रिटिश और स्विस कंपनियां पूरी तरह से कवर हैं।
समयरेखा: क्या पहले से प्रभावी है
EU AI Act 1 अगस्त 2024 को चरणबद्ध कार्यान्वयन अनुसूची के साथ लागू हुआ:
पहले से प्रभावी: भावना पहचान प्रतिबंध
2 फरवरी 2025 से, कार्यस्थल और भर्ती संदर्भों में बायोमेट्रिक डेटा (चेहरे के भाव, आवाज का स्वर, शरीर की भाषा) से भावनाओं का अनुमान लगाने वाली AI प्रणालियों का उपयोग करना अवैध है। यह उन वीडियो साक्षात्कार प्लेटफॉर्म को सीधे प्रभावित करता है जो चेहरे के विश्लेषण से "उत्साह," "आत्मविश्वास," या "सांस्कृतिक फिट" का मूल्यांकन करने का दावा करते थे। भर्ती साक्षात्कारों में भावना पहचान की पेशकश जारी रखने वाला कोई भी विक्रेता कानून का उल्लंघन कर रहा है।
पहले से प्रभावी: पारदर्शिता आवश्यकताएं
2 अगस्त 2025 से, संगठनों को उम्मीदवारों को प्रक्रिया शुरू होने से पहले सूचित करना होगा कि उनके मूल्यांकन में AI का उपयोग किया जा रहा है। यह सिर्फ एक चेकबॉक्स नहीं है — इसके लिए सार्थक प्रकटीकरण की आवश्यकता है:
- किन AI प्रणालियों का उपयोग किया जा रहा है
- कौन सा डेटा एकत्र और संसाधित किया जा रहा है
- AI आउटपुट भर्ती निर्णयों को कैसे प्रभावित करते हैं
- मानव समीक्षा के अनुरोध का उम्मीदवार का अधिकार
आगामी अगस्त 2026: पूर्ण उच्च-जोखिम अनुपालन
अगस्त 2026 की समयसीमा वह है जब उच्च-जोखिम AI प्रणालियों के लिए व्यापक आवश्यकताएं प्रभावी होंगी। यह अनुपालन पर्वत है जिस पर अधिकांश संगठनों ने अभी तक चढ़ना शुरू नहीं किया है।
उच्च-जोखिम अनुपालन के सात स्तंभ
EU AI Act के Articles 8-15 उच्च-जोखिम AI प्रणालियों के लिए सात श्रेणियों की आवश्यकताएं परिभाषित करते हैं। यहां बताया गया है कि प्रत्येक का भर्ती टीमों के लिए क्या अर्थ है:
1. जोखिम प्रबंधन प्रणाली (Article 9)
आपको AI प्रणाली के पूरे जीवनचक्र में निरंतर जोखिम प्रबंधन प्रक्रिया लागू करनी होगी — एक बार का मूल्यांकन नहीं, बल्कि एक चल रही प्रथा। इसमें शामिल हैं:
- ज्ञात और पूर्वानुमेय जोखिमों की पहचान और विश्लेषण
- स्वास्थ्य, सुरक्षा और मौलिक अधिकारों के लिए जोखिमों का अनुमान
- जोखिम न्यूनीकरण उपाय अपनाना
- उन उपायों के विरुद्ध प्रणाली का परीक्षण
भर्ती AI के लिए, इसका अर्थ है उम्मीदवार मूल्यांकन में पूर्वाग्रह, भेदभाव, अपारदर्शिता और त्रुटियों के जोखिमों का दस्तावेज़ीकरण करना — और यह दिखाना कि आप उनके बारे में क्या कर रहे हैं।
2. डेटा प्रशासन (Article 10)
प्रशिक्षण डेटा, सत्यापन डेटा और परीक्षण डेटा को कड़े गुणवत्ता मानदंडों को पूरा करना होगा। कानून के लिए आवश्यक है:
- डेटा जो प्रासंगिक, प्रतिनिधि और त्रुटि-मुक्त हो
- प्रशिक्षण डेटासेट में संभावित पूर्वाग्रहों की जांच
- डेटा स्रोतों, संग्रह विधियों और प्रसंस्करण चरणों का दस्तावेज़ीकरण
- संरक्षित विशेषताओं (लिंग, जातीयता, आयु, विकलांगता) पर विशेष ध्यान
3. तकनीकी दस्तावेज़ीकरण (Article 11)
किसी भी AI भर्ती प्रणाली को बाजार में रखने या तैनात करने से पहले, व्यापक तकनीकी दस्तावेज़ीकरण तैयार किया जाना चाहिए। इसमें सिस्टम आर्किटेक्चर, डिज़ाइन विनिर्देश, उपयोग किए गए एल्गोरिदम, डेटा आवश्यकताएं, प्रदर्शन मेट्रिक्स और ज्ञात सीमाएं शामिल हैं।
4. रिकॉर्ड-कीपिंग और लॉगिंग (Article 12)
उच्च-जोखिम AI प्रणालियों को अपने संचालन में स्वचालित रूप से घटनाओं को लॉग करना होगा। भर्ती AI के लिए, इसका अर्थ है:
- AI द्वारा उत्पन्न प्रत्येक स्कोर, रैंकिंग या अनुशंसा ट्रेसेबल होनी चाहिए
- लॉग को इनपुट डेटा, मॉडल संस्करण और आउटपुट की पहचान करनी चाहिए
- रिकॉर्ड लागू कानून द्वारा निर्दिष्ट अवधि के लिए रखे जाने चाहिए (न्यूनतम: भर्ती प्रक्रिया की अवधि + अपील अवधि)
- लॉग नियामक निरीक्षण के लिए सुलभ होने चाहिए
5. पारदर्शिता और सूचना (Article 13)
AI भर्ती प्रणालियों को पर्याप्त पारदर्शी होने के लिए डिज़ाइन किया जाना चाहिए ताकि तैनाती करने वाले (नियोक्ता) आउटपुट की व्याख्या कर सकें और उनका उचित उपयोग कर सकें। इसमें शामिल हैं:
- मानव ऑपरेटरों के लिए AI आउटपुट की व्याख्या कैसे करें, इसके स्पष्ट निर्देश
- सिस्टम की क्षमताओं और सीमाओं का दस्तावेज़ीकरण
- सटीकता के स्तर और ज्ञात पूर्वाग्रहों के बारे में जानकारी
- वे परिस्थितियां जिनके तहत सिस्टम गलत परिणाम दे सकता है
6. मानव निगरानी (Article 14)
यह वह आवश्यकता है जो मूल रूप से भर्ती में AI का उपयोग कैसे किया जा सकता है, इसे आकार देती है। कानून अनिवार्य करता है कि उच्च-जोखिम AI प्रणालियों को प्रभावी मानव निगरानी की अनुमति देने के लिए डिज़ाइन किया जाना चाहिए। विशेष रूप से:
- एक योग्य मानव को AI के आउटपुट समझने में सक्षम होना चाहिए
- एक मानव को किसी भी AI निर्णय को ओवरराइड या रिवर्स करने में सक्षम होना चाहिए
- सिस्टम को ऐसे आउटपुट नहीं देने चाहिए जिन्हें मानव ऑपरेटर सार्थक रूप से समीक्षा नहीं कर सकता
- मानव समीक्षा के बिना उम्मीदवारों की स्वचालित अस्वीकृति स्पष्ट रूप से गैर-अनुपालन है
"Article 14 AI को भर्ती से प्रतिबंधित नहीं करता — यह AI को स्वायत्त रूप से भर्ती करने से प्रतिबंधित करता है। हर AI अनुशंसा एक ऐसे मानव के माध्यम से प्रवाहित होनी चाहिए जो इसे समझ सके, प्रश्न कर सके और ओवररूल कर सके।"
7. सटीकता, मजबूती और साइबर सुरक्षा (Article 15)
उच्च-जोखिम AI प्रणालियों को अपने इच्छित उद्देश्य के लिए उचित स्तर की सटीकता प्राप्त करनी होगी, त्रुटियों और असंगतियों के प्रति लचीला होना होगा, और अनधिकृत पहुंच या हेरफेर से सुरक्षित होना होगा।
पूर्वाग्रह निगरानी आदेश
हालांकि EU AI Act "चार-पांचवें नियम" (एक अमेरिकी कानूनी मानक) शब्द का उपयोग नहीं करता, लेकिन गैर-भेदभाव के लिए इसकी आवश्यकताएं और भी व्यापक हैं। Article 10(2)(f) के लिए आवश्यक है कि प्रशिक्षण डेटा की "संभावित पूर्वाग्रहों के लिए जांच की जाए जो व्यक्तियों के स्वास्थ्य और सुरक्षा को प्रभावित करने, मौलिक अधिकारों पर नकारात्मक प्रभाव डालने की संभावना रखते हों।" Recital 47 रोजगार में "भेदभाव के ऐतिहासिक पैटर्न को बनाए रखने" के जोखिम को स्पष्ट रूप से संदर्भित करता है।
व्यवहार में, इसका अर्थ है कि संगठनों को:
- लिंग, जातीयता, आयु और विकलांगता स्थिति में चयन दरों की निगरानी करनी होगी
- किसी भी असमान प्रभाव और उसे संबोधित करने के लिए उठाए गए कदमों का दस्तावेज़ीकरण करना होगा
- AI-जनित परिणामों के आवधिक पूर्वाग्रह ऑडिट करने होंगे
- AI-प्रभावित निर्णयों के स्पष्टीकरण का अधिकार उम्मीदवारों को प्रदान करना होगा
"अनुपालन" वास्तव में कैसा दिखता है
कई विक्रेता यह निर्दिष्ट किए बिना "EU AI Act अनुपालन" का दावा करते हैं कि उनका क्या मतलब है। यहां यह मूल्यांकन करने के लिए एक व्यावहारिक चेकलिस्ट है कि क्या आपका भर्ती AI स्टैक वास्तव में अगस्त 2026 के लिए तैयार है:
- उम्मीदवार अधिसूचना: क्या उम्मीदवारों को प्रक्रिया से पहले सूचित किया जाता है कि AI का उपयोग किया जाता है?
- मानव निगरानी: क्या हर AI अनुशंसा किसी भी भर्ती निर्णय से पहले किसी मानव के पास जाती है?
- व्याख्यात्मकता: क्या आप किसी उम्मीदवार को क्यों समझा सकते हैं कि उन्होंने जिस तरह से स्कोर किया?
- ऑडिट ट्रेल: क्या हर AI स्कोरिंग निर्णय इनपुट, मॉडल संस्करण और आउटपुट के साथ लॉग किया गया है?
- पूर्वाग्रह निगरानी: क्या आप वास्तविक समय में संरक्षित विशेषताओं में चयन दरों को ट्रैक करते हैं?
- कोई भावना पहचान नहीं: क्या आपके स्टैक में कोई उपकरण बायोमेट्रिक डेटा से भावनाओं का अनुमान लगाता है?
- समीक्षा का अधिकार: क्या उम्मीदवार किसी AI-प्रभावित निर्णय की मानव समीक्षा का अनुरोध कर सकते हैं?
- डेटा प्रशासन: क्या आप अपने AI प्रशिक्षण डेटा की उत्पत्ति और गुणवत्ता का दस्तावेज़ीकरण कर सकते हैं?
- तकनीकी दस्तावेज़ीकरण: क्या आपकी AI प्रणाली की वास्तुकला, प्रदर्शन और सीमाएं दस्तावेज़ीकृत हैं?
- घटना रिपोर्टिंग: क्या आपके पास अधिकारियों को AI प्रणाली की खराबी की रिपोर्ट करने की प्रक्रिया है?
Scovai को EU AI Act अनुपालन को एक मूलभूत सिद्धांत के रूप में डिज़ाइन किया गया था, न कि बाद की सोच के रूप में। हर AI अनुशंसा किसी भी भर्ती निर्णय से पहले एक मानव भर्तीकर्ता के पास प्रवाहित होती है। सभी स्कोरिंग पूर्ण ऑडिट ट्रेल के साथ लॉग की जाती है। पूर्वाग्रह निगरानी वास्तविक समय में लिंग, आयु और जातीयता में चार-पांचवें नियम को ट्रैक करती है। उम्मीदवारों को AI उपयोग के बारे में पहले से सूचित किया जाता है, क्या मापा जा रहा है इसमें पारदर्शिता मिलती है, और वे अपने स्कोर के स्पष्टीकरण का अनुरोध कर सकते हैं। Integrity Shield भावना पहचान के बिना मूल्यांकन प्रामाणिकता सत्यापन प्रदान करता है — फरवरी 2025 प्रतिबंध के साथ पूरी तरह से अनुपालन में। और पूरा प्लेटफॉर्म अंतर्निहित सहमति प्रबंधन, डेटा निर्यात और मिटाने के अधिकार के समर्थन के साथ GDPR-अनुपालन है।
GDPR कनेक्शन
EU AI Act GDPR को प्रतिस्थापित नहीं करता — यह इसके ऊपर परतें चढ़ाता है। भर्ती में AI का उपयोग करने वाले संगठनों को एक साथ दोनों का पालन करना होगा। AI भर्ती उपकरणों के लिए प्रमुख GDPR विचार:
- Article 22 (स्वचालित निर्णय-निर्माण): उम्मीदवारों को केवल स्वचालित प्रसंस्करण पर आधारित निर्णयों के अधीन न होने का अधिकार है जो कानूनी या समान रूप से महत्वपूर्ण प्रभाव पैदा करते हैं। यह AI अधिनियम की मानव निगरानी आवश्यकता के साथ संरेखित है।
- वैध आधार: AI प्रणालियों के माध्यम से उम्मीदवार डेटा के प्रसंस्करण के लिए वैध आधार की आवश्यकता होती है — आम तौर पर वैध हित या स्पष्ट सहमति।
- डेटा न्यूनीकरण: केवल वह डेटा एकत्र और संसाधित करें जो भर्ती निर्णय के लिए आवश्यक है।
- मिटाने का अधिकार: उम्मीदवार अपने डेटा को हटाने का अनुरोध कर सकते हैं, जिसमें AI-जनित स्कोर और प्रोफाइल शामिल हैं।
- डेटा संरक्षण प्रभाव मूल्यांकन (DPIA): AI भर्ती प्रणालियां लगभग निश्चित रूप से GDPR Article 35 के तहत DPIA की आवश्यकता को ट्रिगर करती हैं।
यदि आप तैयार नहीं हैं तो क्या होगा
EU AI Act की जुर्माना संरचना यह सुनिश्चित करने के लिए डिज़ाइन की गई है कि अनुपालन वैकल्पिक नहीं है:
- निषिद्ध प्रथाएं (जैसे भर्ती में भावना पहचान): €35 मिलियन या वैश्विक वार्षिक कारोबार का 7% तक
- उच्च-जोखिम गैर-अनुपालन (जैसे लापता दस्तावेज़ीकरण, कोई मानव निगरानी नहीं): €15 मिलियन या वैश्विक वार्षिक कारोबार का 3% तक
- अधिकारियों को गलत जानकारी: €7.5 मिलियन या वैश्विक वार्षिक कारोबार का 1% तक
जुर्माने से परे, गैर-अनुपालन मुकदमेबाजी जोखिम पैदा करता है। जो उम्मीदवार मानते हैं कि AI भर्ती उपकरणों द्वारा उनके साथ भेदभाव किया गया था, उनके पास अब उन निर्णयों को चुनौती देने के लिए एक स्पष्ट नियामक ढांचा है। EU भर में रोजगार न्यायाधिकरणों से AI-सहायता प्राप्त भर्ती के लिए देखभाल के मानक के रूप में AI अधिनियम को संदर्भित करने की उम्मीद है।
तैयार होने के पांच कदम
पूर्ण प्रवर्तन तक पांच महीने बचे हैं, यहां भर्ती टीमों के लिए एक व्यावहारिक रोडमैप है:
- 1. अपने AI स्टैक का ऑडिट करें। अपनी भर्ती प्रक्रिया को छूने वाले प्रत्येक AI उपकरण का मानचित्र बनाएं — ATS फ़िल्टर, मूल्यांकन प्लेटफॉर्म, साक्षात्कार उपकरण, रैंकिंग इंजन, चैटबॉट। निर्धारित करें कि कौन से उच्च-जोखिम वर्गीकरण के अंतर्गत आते हैं।
- 2. अपने विक्रेताओं का मूल्यांकन करें। प्रत्येक विक्रेता से उनके EU AI Act अनुपालन दस्तावेज़ीकरण के लिए पूछें। यदि वे इसे प्रदान नहीं कर सकते, तो वे तैयार नहीं हैं — और एक्सटेंशन द्वारा, आप भी नहीं हैं।
- 3. मानव निगरानी लागू करें। सुनिश्चित करें कि कोई भी AI-जनित अनुशंसा मानव समीक्षा के बिना उम्मीदवार अस्वीकृति का नेतृत्व नहीं करती है। मानव निर्णय-निर्माण प्रक्रिया का दस्तावेज़ीकरण करें।
- 4. पूर्वाग्रह निगरानी स्थापित करें। संरक्षित विशेषताओं में चयन दरों को ट्रैक करना शुरू करें। यदि आपको असमान प्रभाव मिलता है, तो अपने शमन कदमों का दस्तावेज़ीकरण करें।
- 5. दस्तावेज़ीकरण तैयार करें। अपने भर्ती स्टैक में प्रत्येक AI प्रणाली के लिए तकनीकी दस्तावेज़ीकरण बनाएं या अनुरोध करें। जोखिम मूल्यांकन, डेटा प्रशासन प्रक्रियाएं और घटना प्रतिक्रिया योजनाएं शामिल करें।
निष्कर्ष
EU AI Act AI-संचालित भर्ती में बाधा नहीं है — यह इसे जिम्मेदारी से करने का एक ढांचा है। अनुपालन को अपनाने वाले संगठन खुद को अधिक भरोसेमंद उपकरण, अधिक रक्षा योग्य निर्णय और बेहतर उम्मीदवार अनुभव के साथ पाएंगे। जो इसे नजरअंदाज करते हैं उन्हें वित्तीय दंड, कानूनी जोखिम और प्रतिष्ठा जोखिम का सामना करना पड़ता है।
सवाल यह नहीं है कि अनुपालन करना है या नहीं। सवाल यह है कि नेतृत्व करना है या हाथापाई करनी है। अगस्त 2026 आपकी सोच से करीब है।