Code Coherentie Analyse: AI-Geplakte Inzendingen Opvangen
Hoe "coherente" code eruit ziet
Echte ingenieurs hebben gewoontes. Ze noemen booleans op dezelfde manier over functies (isReady vs is_ready vs ready, maar consistent). Ze prefereren één error-handling patroon. Ze grijpen naar dezelfde standaardbibliotheek tools herhaaldelijk. Hun TODO's en comments delen een stem.
Zelfs goede ingenieurs zijn rommelig — maar ze zijn rommelig op een consistente manier. Die consistentie is wat we bedoelen met coherentie.
Hoe incoherente code eruit ziet
LLM-geplakte inzendingen, vooral wanneer samengevoegd van meerdere prompts, falen consistentie op voorspelbare manieren:
- Één functie gebruikt
try/except, de volgende gebruikt optional chaining, de derde slikt fouten stil in. - Variabelenaming stijl flipt:
userId,user_id,uid, allemaal in hetzelfde bestand. - Comments wisselen af tussen "verklaart het voor de hand liggend" (LLM tell) en "helemaal niet" (menselijk tell).
- Idioom niveau schommelt: schoolboek generiek-getypeerde oplossingen naast copy-geplakte Stack Overflow snippets.
Ieder alleen zou een vermoeide kandidaat kunnen zijn. Alle vier samen is ander verhaal.
Hoe de analyse draait
ClarityHire's coherentie pass beoordeelt de finale inzending van de kandidaat met één prompt naar een LLM judge: ziet dit eruit als het werk van één auteur, of samengevoegd? De judge geeft een score, de specifieke inconsistenties die het opmerkte en een betrouwbaarheidsniveau.
Cruciaal, de judge ziet de kandidaat's identiteit nooit. Het ziet alleen de code.
Waarom dit beter werkt dan "AI-detector" tools
Meeste "is dit AI" detectors zijn onbetrouwbaar, vooral op code (LLM's en mensen schrijven soortgelijke Python). Coherentieanalyse ontwijkt de vraag geheel: we geven niet om of AI het schreef; we geven om of het werd geschreven als één uniforme oplossing door één geest. Dat framing is veel beter beantwoordbaar en veel beter afgestemd op wat hiring managers werkelijk willen weten.
Wat je doet met een coherentie vlag
Behandel het als een prompt om de kandidaat te vragen om door hun code te lopen in een 20-minuten live vervolgstap. Eerlijke kandidaten leggen het makkelijk uit. Oneerlijke kunnen het niet. Hoe dan ook, je hebt iets geleerd.