コーディング面接でChatGPT使用を検出する方法
新しいベースライン:すべての候補者がChatGPTを開いています
2026年までに、質問はもはや候補者がインタビューで AI を使用しているかではなく、どのくらいで、彼らはそれなしで同じ仕事を生成することができるかどうかです。スクリーニングを調整しない場合、AI のスキルが、彼ら自身ではなく人々を雇います。
このポストは、私たちの整合性エンジンが表面化する信号から引き出される、ライブおよび非同期コーディング面接で AI -アシストされた回答を検出するためのフィールドガイドです。
信号1:人間の作成者と一致しないキーストロークリズム
人がコードを書くとき、彼らは考えるために一時停止し、バックスペース、変数名をリファクタリング、行の途中で伸びます。人がペーストコードを使うとき、あなたは単一のキーストロークバースト — しばしば秒未満で数百文字 — 沈黙が続く場合を参照してください。
ClarityHireのキーストロークバイオメトリクスモデルは2つのパターンにフラグを立てます:
- バーストペーストイベント。 ~700文字/分を超える継続的なタイピングレート、特に10~60秒の沈黙が先行する場合(古典的な「ChatGPTへのalt-tab」予告)。
- 作成者のドリフト。 候補者のタイピング指紋はタスク全体で変わります。最初の10分は1人のように見えます;30分は別の人のように見えます。
単独では、どちらも決定的ではありません。一緒に、彼らはほぼ常にいます。
信号2:コード整合性のブレイク
LLM生成コードは流暢ですが、しばしばあり過ぎて流暢です。本物のエンジニアは工芸品を残します:削除するのを忘れた TODO、名前を変更するつもりが変数x、20分前に書いた2つの関数の間のわずかに矛盾するスタイル。
最終的なサブミッションに対して LLM-ジャッジパスを実行して、1つの質問をします:これは1人が最初から最後まで書いたように見えますか? 一般的なレッドフラグ:
- 軽微なコードを教科書文体で説明するコメント
- 表現の急激なアップグレード(1つの関数で生のループ、次で優雅な内包表記)
- 候補者がテストしたことがないケースのための防御的エラーハンドリング
信号3:質問からキーストロークレイテンシー
候補者が問題を読んで8秒以内に動作するソリューションのタイピングを開始する場合、彼らは考えていません — 彼らは転写です。意味のあるキーストロークへの時間を測定し、問題の難易度に対して不可能なほど速い何かにフラグを立てます。
それについて何をするか
検出は答えの半分です。もう半分は AI 使用がより多くの使用不可になるインタビュー設計です:
- フォローアップの質問をライブで尋ねてください。 「なぜここでハッシュマップを選びましたか?入力が並べ替えられている場合はどうなりますか?」 LLMペーストされたソリューションに答えてはいけない所有者がいます。
- 新しい制約を持つ問題を使用してください。 標準LeetCodeは訓練セットにあります。小さなひねり — カスタムデータ形状、異常なコスト関数 — 実際の考えを強制します。
- 非同期をライブと組み合わせてください。 テイクホーム提出の30分ライブフォローアップは、ほとんどのチームが実行していない単一の最高信号インタビューです。
現代的採用は反 AI ではなく、反フェイクです。AIをうまく、透明に使用する候補者は、あなたが雇いたいと思う正確な人です。目標は彼らも彼らが表示されるようになっています。