Hoe Kandidaat Identiteit in een Remote Interview Verifiëren Zonder Biometrie Op te Slaan
Het probleem, eerlijk gesteld
Twee verschillende zorgen verbergen zich binnen "remote interview identiteit":
- Substitutie fraude. De persoon die de beoordeling nam is niet de persoon op het interview gesprek. Of erger, de persoon die bij onboarding dag opdaagt is een derde persoon.
- Naleving houding. Sommige platforms lossen (1) op door een gezichtsherkennings model op het gezicht van de kandidaat te trainen en een sjabloon op te slaan. Dat lost het fraudeprobleem op en creëert een GDPR / BIPA / Illinois biometrisch-informatie probleem tegelijk.
Het goede nieuws: je kunt (1) oplossen zonder (2) te doen. Het patroon is ouder dan gezichtsherkenning en werkt nog steeds.
Wat "biometrisch" betekent onder GDPR en BIPA
Onder GDPR Artikel 4(14), biometrische gegevens zijn "persoongegevens voortvloeiend uit specifieke technische verwerking met betrekking tot fysieke, fysiologische of gedragskarakteristieken van een natuurlijk persoon, welke het stellen of bevestigen van unieke identificatie van die natuurlijke persoon."
De sleutelzin is "toestellen of bevestigen van unieke identificatie". Een gezichtsherkennings sjabloon dat je match kandidaat-X-op-stadium-2 naar kandidaat-X-op-stadium-5 stelt is biometrisch. Een live foto gepost naast een overheids ID en beoordeeld door mens is niet biometrische gegevens in technische zin — het's documentaire identificatie.
Hetzelfde voor toetsaanslagen. Een statistische profiel die deze kandidaat's typende ritme leert en hen later identificeert is biometrisch. Een gelogde reeks toetsaanslag evenementen met timestamps is niet — het's gedragstelemetrie. Het verschil is of je bouw een sjabloon. Zie de GDPR-in-aanwerving overzicht voor de bredere houding.
Het patroon dat werkt
1. ID + live foto aan het begin van de beoordeling. Kandidaat uploadt een overheids fotokaart en een webcam selfie. Een menselijke beoordelaar vergelijkt ze. Geen model getraind, geen sjabloon opgeslagen. De artefacten worden in het kandidaatverslag onder je normale retentiebeleid gehouden en gewist op verzoek zoals enig ander PII.
2. Hetzelfde-stroom live foto aan het begin van het interview. Als de kandidaat het interview intrekt, het platform een tweede webcam nog. Beoordelaar vergelijkt dit nog naar het origineel ID. Mismatch → onderzoeken. Match → doorgaan. Opnieuw, geen sjabloon.
3. Gedragswaarkracht, niet biometrische waarkracht. Over de trechter, log wat de kandidaat deed en wanneer. Dit beoordeling sessie en dit interview sessie dezelfde e-mail gebruikten, dezelfde apparaat vingerafdruk, dezelfde plausibel IP regio? Anomalies zijn vlaggen, niet auto-afwezen. De aggregaat geeft je "dit lijkt op dezelfde persoon" zonder ooit te berekenen "dit is dezelfde persoon" waarschijnlijkheid.
4. Document de keten. Je retentiebeleid moet zeggen wat je houdt (de foto's), voor hoe lang (bijvoorbeeld 90 dagen post-beslissing), en wat's gewist op verzoek. Zonder het beleid, de artefacten worden een aansprakelijkheid.
Wat dit vangt en wat niet
Dit patroon vangt:
- Een kandidaat stuurt een vervanger naar het live interview (de live foto matcht niet ID).
- Een kandidaat met gestolen identiteit op beoordeling stadium (de foto en ID matchen elkaar niet; of het document faalt standaard geldigheid checks).
- De meeste grootschalige fraude (het apparaat / IP / gedragsanomalies oppervlak).
Het vangt niet:
- Een bepaald, goed-hulpbron substitutie waar dezelfde persoon beoordeling en interview intrekt, maar is niet de persoon die job doet. (Bijna niets vangt dit; je zou nodig hebben tegen gekende referentie te vergelijken, dat's opgeslagen biometrisch.)
- Identiteitsdiefstal tegen werkelijke persoon die hun eigen documenten heeft.
Voor de meeste aanwervingstrechters buiten hoog-vertrouwen gereglementeerde rollen, dit is juiste trade-off: het verhoogt bedriegingskosten veel boven cheatwaarde, zonder je aan verkeerde kant privacy regelgever zet.
Hoe ClarityHire dit implementeert
Elke beoordeling met Strikte integriteit vangt ID-foto upload + live webcam nog op sessie start. Het interview kamer vangt een tweede webcam nog op join tijd. Beide surfacen in het integriteit rapport tijdlijn als visuele artefacten voor menselijke beoordeling.
Wat ClarityHire niet doet: train gezichtsherkennings model op kandidaat. Geen biometrische sjablonen berekend, opgeslagen of gematcht. Geen voiceprints. Geen toetsaanslag biometrische profiel tegen opgeslagen sjabloon. Dat's doelbewuste product houding — zie code-coherentie schijnendetectie noot voor hetzelfde houding toegepast op codeer signalen.
TL;DR
Je kunt identiteit bij remote interviews verifiëren met fotokaart ID + live nog + menselijke beoordeling + gedragswaarkracht logging — geen biometrische sjablonen vereist. Het vangt bedriegraken aanwervingsteams werkelijk tegenkomen en houdt je uit GDPR / BIPA grondgebied. Het patroon is ouder dan gezichtsherkenning, minder aansprakelijkheid-bezwaard, en gelijk effectief bij zaken dat zaken betreffen.