Integriteit

Hoe AI-Gegenereerde Code in een Take-Home Indiening Te Detecteren

ClarityHire Team(Editorial)3 min read

Waarom "AI detectoren" vooral niet werken

Hulpmiddelen die beweren of een codenindiening AI-gegenereerd was, hebben consistent zwakke nauwkeurigheid. Ze produceren veel false positives (bestraffen kandidaten die toevallig in een schone stijl schrijven) en veel false negatives (moderne LLMs kunnen idiosyncratische-uitziende code op aanvraag produceren). Optreden op hun output is riskant.

Betrouwbare detectie komt uit een ander hoek: het probeert niet het artefact te classificeren. Het vergelijkt het artefact met het proces dat het produceerde.

Wat werkelijk mens van AI-indieringen onderscheidt

Drie signalen, geen van hen gebaseerd op classificatie van de eindcode:

1. Procesvoetafdruk

Hoe werd de code geschreven? Mensen schrijven iteratief — een functie verschijnt, krijgt gewijzigd, krijgt hernoemd, krijgt een bugfix. AI-geplakte code verschijnt in grote stukken, vaak compleet op eerste verschijning. Leg het toetsenbord- en edit-tijdlijn van de indiening en het verschil is zichtbaar.

ClarityHire registreert dit tijdlijn voor neem-huis indieningenin oppervlak "plak-rente" en "edit-iteratie" signalen die procespeculationpatronen vlag inconsistent met hand-geschreven code. Het beschuldigt de kandidaat niet — het oppervlak het signaal voor de reviewer om te probe.

2. Coherentie tussen code en verklaring

Een kandidaat die de code schreef kan het specifiek uitleggen. Een kandidaat die het geplakt heeft kan het niet. De doorloop interview aan het einde van elke neem-huis is de single meest betrouwbare detector van AI-geplakte indieningenin omdat de kandidaat hun keuzes in werkelijk moment moet verdedigen.

Probe specifiek: "Waarom koos je deze benadering over het alternatief?" "Wat zou veranderen als X anders waren?" "Loop me door wat gebeurt wanneer deze functie oproep krijgt met [randgeval]." Kandidaten die het schreef antwoord vloeiend. Kandidaten die het geplakt hebben improviseren vaag.

3. Stijlconsistentie

Over meerdere indieningenin of over verschillende onderdelen van een enige indiening, bleef stijl coherent? Benaming, commentairstijl, foutafhandelingpatronen. AI-indieningenin hebben vaak verdachte interne consistentie en verdachte externe inconsistentie: uniformer dan een mens zou schrijven binnen een project, variabel dan de kandidaat's andere artefacten.

Wat te doen met het signaal

Nooit auto-reject. De signalen zijn probabilistisch, en de kost van een false positief is hoog — zowel ethisch als voor de pijplijn.

Gebruik ze als triage: een gevlaagde indiening krijgt een meer rigoureus doorloop. De doorloop lost het schoon in bijna elk geval op. Vloeide de kandidaat hun code verdedigen, de score staat. Kunnen ze niet, de score weerspiegelt wat zij kunnen verdedigen.

Dit is menselijker dan een zwart-doos-classifier die een vonnis geeft, en het produceert betere einstellingsresultaten.

Wat aan kandidaten te communiceren

Zeg hen tevoren: "Deze neem-huis is gevolgd door een 30-minuten doorloop waar je je code verklaart. Gebruik welk hulpmiddel helpen jou je beste werk doet, maar wees klaar je keuzen verdedigen."

Kandidaten die AI hulpmiddelen effectief kunnen gebruiken als hulpmiddel en hun eigen werk vloeiend verklaren zijn niet de mensen je wil filteren — dat is hoe engineers in 2026 werken. De filter is voor mensen die plakken zonder te begrijpen. De doorloop is het juiste instrument.

Waar dit heen gaat

Detectie-gebaseerde benaderingen zullen verder verliezen tegen verbeterende LLMs. Procesvoetafdruk en doorloop benaderingen zullen doorgaan werken omdat zij niet afhankelijk van het artefact anders eruitzien — zij hangen af van de kandidaat's relatie aan hun eigen werk zijnde verdedigbaar. Deze relatie is wat je aanstelt voor sowieso.

ai detectieneem-huisllmcode coherentie

Gerelateerde artikelen