Compliance

So überprüfen Sie die Identität von Kandidaten in Remote-Interviews ohne Speicherung von Biometrie

ClarityHire Team(Editorial)4 min read

Das Problem, ehrlich ausgesprochen

Zwei unterschiedliche Bedenken verbergen sich hinter „Identität in Remote-Interviews":

  1. Identitätswechsel-Betrug. Die Person, die die Bewertung durchgeführt hat, ist nicht die Person im Interview-Gespräch. Oder schlimmer: die Person, die am Einarbeitungstag erscheint, ist eine dritte Person.
  2. Compliance-Position. Einige Plattformen lösen (1), indem sie ein Gesichtserkennungsmodell auf dem Gesicht des Kandidaten trainieren und eine Vorlage speichern. Das löst das Betrugsproblem und schafft gleichzeitig ein GDPR- / BIPA- / Illinois-Biometrie-Datenproblem.

Die gute Nachricht: Sie können (1) lösen, ohne (2) zu tun. Das Muster ist älter als Gesichtserkennung und funktioniert immer noch.

Was „biometrisch" nach GDPR und BIPA bedeutet

Nach GDPR Artikel 4(14) sind Biometriedaten „personenbezogene Daten, die sich aus der spezifischen technischen Verarbeitung der physikalischen, physiologischen oder Verhaltensmerkmale einer natürlichen Person ergeben und die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen".

Der Schlüsselsatz ist „ermöglichen oder bestätigen die eindeutige Identifizierung". Eine Gesichtserkennungsvorlage, die es Ihnen erlaubt, Kandidat-X-in-Phase-2 mit Kandidat-X-in-Phase-5 abzugleichen, ist biometrisch. Ein Live-Foto neben einem amtlichen Dokument, das von einem Menschen überprüft wird, sind keine Biometriedaten im technischen Sinne — es ist dokumentarische Identifizierung.

Gleiches für Tastenanschläge. Ein statistisches Profil, das den Tipprhythmus dieses Kandidaten lernt und ihn später identifiziert, ist biometrisch. Eine protokollierte Sequenz von Tastenanschlag-Ereignissen mit Zeitstempeln ist nicht — es ist Verhaltenstelemetrie. Der Unterschied liegt darin, ob Sie eine Vorlage erstellen. Lesen Sie die GDPR-Übersicht in der Einstellung für die breitere Haltung.

Das Muster, das funktioniert

1. Ausweisdokument + Live-Foto zu Beginn der Bewertung. Der Kandidat lädt einen amtlichen Lichtbildausweis und ein Webcam-Selfie hoch. Ein menschlicher Reviewer vergleicht sie. Kein trainiertes Modell, keine gespeicherte Vorlage. Die Artefakte werden in der Kandidatendatei unter Ihrer normalen Aufbewahrungsrichtlinie aufbewahrt und auf Anfrage wie alle anderen personenbezogenen Daten gelöscht.

2. Live-Foto im gleichen Ablauf zu Beginn des Interviews. Wenn der Kandidat zum Interview hinzutritt, nimmt die Plattform einen zweiten Webcam-Screenshot auf. Der Reviewer vergleicht diesen Screenshot mit der ursprünglichen Identifizierung. Keine Übereinstimmung → untersuchen. Übereinstimmung → fortfahren. Wieder keine Vorlage.

3. Verhaltenskontinuität, keine biometrische Kontinuität. Im gesamten Prozess protokollieren Sie, was der Kandidat getan hat und wann. Haben diese Bewertungssession und diese Interview-Session die gleiche E-Mail, denselben Geräte-Fingerprint, dieselbe ungefähre IP-Region verwendet? Anomalien sind Flaggen, keine automatischen Ablehnungen. Das Aggregat gibt Ihnen „das sieht wie dieselbe Person aus", ohne jemals eine „das ist dieselbe Person"-Wahrscheinlichkeit zu berechnen.

4. Dokumentieren Sie die Kette. Ihre Aufbewahrungsrichtlinie sollte sagen, was Sie behalten (die Fotos), wie lange (z. B. 90 Tage nach der Entscheidung) und was auf Anfrage gelöscht wird. Ohne die Richtlinie werden die Artefakte zu einer Verbindlichkeit.

Was dies erfasst und was nicht

Dieses Muster erfasst:

  • Ein Kandidat, der einen Ersatz zum Live-Interview sendet (das Live-Foto stimmt nicht mit der Identifizierung überein).
  • Ein Kandidat, der eine gestohlene Identität in der Bewertungsphase verwendet (das Foto und die Identifizierung stimmen nicht überein; oder das Dokument besteht die Standard-Gültigkeitsprüfungen nicht).
  • Die meisten großflächigen Betrügereien (die Geräte- / IP- / Verhaltensanomalien entstehen).

Es erfasst nicht:

  • Einen entschlossenen, gut finanzierten Identitätswechsel, bei dem die gleiche Person die Bewertung durchführt und zum Interview erscheint, aber nicht die Person ist, die die Arbeit ausführen wird. (Fast nichts erfasst dies; Sie müssten mit einer bekannten Referenz vergleichen, die eine gespeicherte Biometrie ist).
  • Identitätsdiebstahl gegen eine echte Person, die ihre eigenen Dokumente hat.

Für die meisten Einstellungsabläufe außerhalb von hochzuverlässigen regulierten Rollen ist dies der richtige Kompromiss: Er erhöht die Kosten für Betrug weit über den Wert des Betrugs hinaus, ohne Sie auf der falschen Seite eines Datenschutzregulators zu positionieren.

So wird das bei ClarityHire umgesetzt

Jede Bewertung mit strikter Integrität erfasst einen Ausweisfoto-Upload + Live-Webcam-Screenshot zu Beginn der Sitzung. Der Interview-Raum erfasst einen zweiten Webcam-Screenshot bei Beitrittszeitpunkt. Beide werden in der Zeitleiste des Integritätsberichts als visuelle Artefakte zur menschlichen Überprüfung angezeigt.

Das tut ClarityHire nicht: ein Gesichtserkennungsmodell auf dem Kandidaten trainieren. Es werden keine biometrischen Vorlagen berechnet, gespeichert oder abgeglichen. Keine Sprachprofile. Kein Tastenanschlag-Biometrie-Profil gegen eine gespeicherte Vorlage. Das ist eine absichtliche Produktpositionierung — lesen Sie die Code-Kohärenz-Betrugserkennung-Anmerkung für die gleiche Positionierung bei den Code-Signalen.

Kurz gesagt

Sie können die Identität bei Remote-Interviews mit Ausweisdokument + Live-Screenshot + menschliche Überprüfung + Verhaltenskontinuitätsverfolgung überprüfen — ohne erforderliche biometrische Vorlagen. Es erfasst die Betrugsfälle, denen Einstellungsteams tatsächlich begegnen, und hält Sie außerhalb des GDPR- / BIPA-Gebiets. Das Muster ist älter als Gesichtserkennung, weniger haftungsanfällig und genauso wirksam bei den Fällen, die zählen.

bewerberinnen-identität remote-interviewgdpr identitätsverifikationbipa einstellungkeine biometrische vorlageremote einstellungscompliance

Verwandte Artikel