När AI rekryterar – effektivisering med risker
Artificiell intelligens (AI) har på kort tid gått från framtidsvision till vardag inom många HR-avdelningar. Rekryteringssystem med AI-driven screening, automatiserad annonsering och algoritmisk matchning säljs in med löften om effektivitet, precision och objektivitet. Men bakom effektiviteten döljer sig en rad problem – juridiska, etiska och mänskliga – som nu blir allt tydligare.
Från hjälpmedel till black box
Ett stort problem är bristen på transparens. Inom AI hänvisar man ibland till black boxes, vilket handlar om att AI-systemen fattar beslut utan att ge någon inblick i hur de kom fram till sina slutsatser; data kommer in, svar kommer ut, men processen däremellan förblir ett mysterium för användarna. Även inom rekrytering finns det AI-system som fungerar som så kallade black boxes – det är oklart hur algoritmen väger olika faktorer och varför vissa kandidater väljs bort.
EU:s nya AI-förordning, AI Act, klassar AI-verktyg som används i rekrytering som ”högrisk”, vilket innebär omfattande krav på både processer och dokumentation. Ett viktigt krav är informationskravet; att arbetsgivaren måste informera berörda om att ett AI-system med hög risk kommer att användas, och den informationen måste man lämna innan systemet tas i bruk. Arbetsgivaren måste även utse personer med rätt kompetens för att övervaka och kontrollera AI-systemet, och man måste kontrollera att den data som matas in i AI-systemet är relevant och tillräckligt representativt med tanke på det avsedda ändamålet med AI-systemet. I praktiken har få HR-avdelningar den tekniska eller juridiska kompetensen att utvärdera sådana verktyg – vilket riskerar att flytta makten över rekryteringen från HR till teknikleverantörer och algoritmer.
Diskriminering i ny tappning
AI sägs kunna eliminera människans eventuella fördomar. Men i verkligheten har flera studier visat att systemen ofta förstärker befintliga ojämlikheter. Diskrimineringsombudsmannen har i sin rapport om ”AI och risker för diskriminering i arbetslivet” konstaterat att risker för diskriminering kan uppkomma eftersom den data som AI-system tränas på återspeglar historiska och befintliga ojämlikheter och grupprelaterade skillnader i arbetslivet. När AI-system tränas på historiska data som innehåller skevheter – exempelvis överrepresentation av vissa grupper – finns risk att algoritmen lär sig att premiera kandidater som liknar dem som tidigare har valts eller varit framgångsrika. Om dessa data är skeva – till exempel om tidigare anställda övervägande varit män eller personer med en viss utbildningsbakgrund – kommer modellen sannolikt att fortsätta premiera just dessa grupper, och därmed indirekt utesluta andra kandidater. En studie från Lund University visade att AI-verktyg inom rekrytering ofta används utan att man är fullt medveten om konsekvenserna av indirekt diskriminering eller bristande transparens.
Integritet och dataskydd
AI-drivna verktyg samlar in och analyserar enorma mängder personliga data: CV, röstinspelningar, video, testresultat och till och med kroppsspråk. Det väcker integritets- och dataskyddsfrågor. Med tanke på att AI-verktyg för rekrytering klassas som högrisk inom AI Act så innebär det framför allt att leverantörer av systemen behöver följa vissa regler, men det gäller även till viss del för användarna. Om inte reglerna följs riskerar företag både juridiska sanktioner och förtroendeskador – särskilt i en tid då transparens är viktigt för både kandidater och anställda.
Den mänskliga dimensionen
Effektivitet har blivit rekryteringens heliga graal. Men när fokus bara blir att automatisera varje steg – från första kontakt till urval – riskerar det mänskliga mötet att försvinna. Kandidater beskriver i en studie att de känner sig bedömda av “systemet” snarare än av människor, vilket påverkar både upplevelsen och arbetsgivarvarumärket negativt. Rekrytering handlar inte bara om att hitta rätt kompetens – utan också om att skapa ett ömsesidigt möte mellan människor. När algoritmer och automatiserade verktyg tar över större delar av processen riskerar både arbetsgivaren och kandidaten att gå miste om något väsentligt.
För kandidaten handlar rekryteringsmötet om mycket mer än att visa sin erfarenhet. Det är ett tillfälle att känna in chefen och företagskulturen – att uppfatta stämningen, tonen och värderingarna. Den mänskliga kontakten bidrar till att avgöra om man skulle trivas, känna sig sedd och vilja stanna länge. På samma sätt får arbetsgivaren i det personliga mötet en känsla för personlighet, engagemang och värderingar – sådant som är svårt, om inte omöjligt, att fånga genom data. När mötet ersätts av automatiserad kommunikation riskerar rekryteringen att reduceras till ett urval av profiler snarare än möten mellan människor.
Konsekvensen blir att förtroendet och engagemanget riskerar att försvagas redan innan samarbetet ens börjat – vilket i förlängningen kan påverka både arbetsgivarvarumärket och lojaliteten hos framtida medarbetare.
Övertro på data
Rekrytering är en av de mest komplexa mänskliga bedömningarna. Trots det växer en kultur där “datadrivet” nästan blir synonymt med “rättvist”. Men det är en farlig förenkling. AI kan bara hantera det som går att kvantifiera – och mycket av det som gör människor framgångsrika på sitt arbete är inte mätbart. AI-modeller riskerar alltså att belöna mer av samma snarare än nytänkande eller mångfald – och kan därmed sätta käppar i hjulet för fortsatt utveckling.
Effektivitet kontra förtroende
Den kanske mest subtila risken är förtroendeförlusten. Rekrytering är i grund och botten ett möte mellan två parter – organisationen och individen. När AI blir mellanhand kan båda parter tappa förtroendet:
-
Kandidaten känner sig som “data” snarare än människa.
-
Rekryteraren förlitar sig blint på systemet och tappar egen kvalitet.
-
Organisationen tror sig fatta rationella beslut – men fattar dem på opålitliga modeller.
När förtroendet för processen sviktar blir inte bara urvalet sämre – utan även långsiktigt engagemang och retention, alltså företagets förmåga att behålla sina anställda.
Det finns såklart fördelar…
Såklart finns det även en stor potential – AI kan analysera stora mängder data snabbt, vilket gör det möjligt att hantera stora kandidatdatabaser på kort tid. AI kan också tränas att prioritera objektiva faktorer som kompetens och prestation snarare än sociala och demografiska faktorer. Men det gäller att vara medveten och ta ansvar. För varje fördel i form av snabbare urval och bättre matchning finns en baksida: risker för diskriminering, integritetsbrott, förlorad mänsklig kontakt och underminerat förtroende.
Framtidens vinnare blir de organisationer som vågar kombinera teknisk precision med etiskt ledarskap – där HR och chefer inte bara frågar ”vad kan AI göra?” utan ”vad bör AI få göra?”.
