Guías de contratación

Cómo construir el loop de contratación con la mayor validez posible

ClarityHire Team(Editorial)6 min read

La premisa

Si te tomas en serio la investigación sobre validez predictiva, el problema de diseñar un loop de contratación se vuelve sorprendentemente concreto: apila los métodos de mayor validez, descarta los de baja validez y mantente por debajo del presupuesto humano que hayas decidido para el tiempo total del candidato.

Este post es el playbook. Es opinado. Puedes adaptar las piezas específicas del puesto, pero la forma del loop es la que hace el trabajo de validez.

Validez, ranqueada

A partir de las correcciones de Sackett et al. (2022) al clásico metaanálisis de Schmidt y Hunter de 1998 (la fuente autorizada del campo sobre validez de métodos de selección):

  • Entrevistas estructuradas: r ≈ 0,42
  • Tests de conocimiento del puesto: r ≈ 0,40
  • Pruebas de muestra de trabajo: r ≈ 0,33
  • Tests de capacidad cognitiva: r ≈ 0,31
  • Tests de integridad: r ≈ 0,31
  • Concienciación: r ≈ 0,19
  • Entrevistas no estructuradas: r ≈ 0,19
  • Verificación de referencias: r ≈ 0,13
  • Años de experiencia: r ≈ 0,09

La regla de diseño se escribe sola: construye el loop desde la parte alta del ranking, no desde el medio.

La plantilla de cuatro etapas

Un loop construido sobre esta plantilla corre en cuatro horas de candidato y tres semanas de calendario. Está diseñado para puestos de IC donde el oficio importa. Ajusta dimensiones para puestos de liderazgo (más conductual estructurado, menos muestra de trabajo) sin cambiar la lógica subyacente.

Etapa 1 — Candidatura + auto-screen (5 minutos de candidato)

Un formulario de candidatura corto con tres a cinco preguntas eliminatorias vinculadas a requisitos no negociables (autorización legal, rango de ubicación, claim duro de habilidad verificable en 30 segundos).

Lo que no es: una solicitud genérica de 40 campos que vuelve a pedir el contenido del CV. El auto-screen debe ser barato para el candidato y barato para ti.

Etapa 2 — Entrevista screen estructurada (30 minutos)

Una ronda, tres o cuatro preguntas predeterminadas, todo candidato recibe el mismo set de prompts, cada respuesta se puntúa con la misma rúbrica anclada. El output es un scorecard con puntuaciones numéricas y una cita específica de evidencia por dimensión.

Validez del método: r ≈ 0,42, la apuesta única más alta que puedes hacer en la etapa screen.

Etapa 3 — Muestra de trabajo (90 minutos)

Una tarea representativa extraída del puesto real. Autocontenida. Evaluada por rúbrica. Mira nuestra guía de diseño de muestras de trabajo para las restricciones que las hacen útiles.

La muestra de trabajo es el diferenciador frente a un loop construido solo sobre entrevistas. Muestrea desempeño directamente y añade validez incremental sobre la entrevista estructurada.

Empareja el take-home con señales de integridadbiometría de pulsaciones, coherencia de código, seguimiento de cambios de pestaña — para que la muestra de trabajo de la era IA siga siendo señal real del trabajo del propio candidato.

Etapa 4 — Revisión + conductual estructurada (60 minutos)

Una sola ronda onsite o en vídeo en vivo dividida en dos mitades:

  • 30 minutos repasando la muestra de trabajo. Preguntas específicas de sondeo sobre las decisiones del candidato. Este paso duplica el valor de la muestra: confirma autoría y sondea la lógica de diseño.
  • 30 minutos conductual estructurada. Tres o cuatro preguntas conductuales ancladas sobre colaboración, ownership, conflicto. Mismo formato de rúbrica que la Etapa 2.

Tiempo total del candidato: 5 + 30 + 90 + 60 ≈ 3 horas, 5 minutos. Añade la sobrecarga de scheduling y sigues dentro de las cuatro horas de candidato.

Lo que se recorta

Igual de importante: qué no hay en el loop.

  • Rondas no estructuradas de "encaje cultural". r ≈ 0,19. Sustituidas por la mitad conductual estructurada de la Etapa 4.
  • Take-home obligatorio además de muestra de trabajo onsite. Elige uno. Tener los dos duplica coste sin mucha validez marginal.
  • Verificación de referencias como gate go/no-go. Mantenla, pero úsala como capa de sanity en la fase de oferta, no como input de decisión de contratación.
  • Filtros de años de experiencia en etapas tempranas. Una validez de ≈ 0,09 no justifica restringir el pool.
  • Evaluaciones de personalidad como input de decisión en puestos de IC. Útiles para conversaciones de desarrollo, no para selección.

Las dos disciplinas no obvias

1. Recoge las puntuaciones antes de las recomendaciones

En el scorecard, cada entrevistador rellena puntuaciones numéricas en cada dimensión de la rúbrica primero, y después escribe una recomendación (strong hire / hire / no hire / strong no hire). Invierte ese orden y las recomendaciones contaminan las puntuaciones. Mira nuestra plantilla de scorecard para el formato exacto que sobrevive al contacto con entrevistadores reales.

2. Calibra a cada entrevistador al menos trimestralmente

Una rúbrica de 4 dimensiones solo sirve si los entrevistadores acuerdan qué significa cada ancla. Corre sesiones de calibración sobre entregas pasadas o entrevistas grabadas. Que dos entrevistadores difieran en dos puntos completos sobre el mismo artefacto es un fallo de calibración, no una señal del candidato.

Qué predice este loop frente al loop típico

Loop típico: cuatro entrevistas no estructuradas + un take-home evaluado informalmente. Validez combinada realista r ≈ 0,25–0,30.

El loop de arriba: screen estructurado + muestra de trabajo estructurada + revisión + conductual estructurada. Validez combinada realista r ≈ 0,50–0,60.

La diferencia se acumula en cada contratación que haces a lo largo de un año. Es, silenciosamente, la cosa de mayor palanca que la mayoría de equipos puede hacer por sus resultados de contratación — mucho mayor palanca que cualquier inversión individual en sourcing o branding.

Dónde encaja ClarityHire

ClarityHire está construido para exactamente este loop:

La plataforma existe porque queríamos enviar este loop nosotros mismos y descubrimos que los stacks existentes nos peleaban en cada paso. Elige los métodos por validez. Deja que el tooling imponga la disciplina.

loop de contrataciónentrevistas estructuradasmuestra de trabajovalidez predictiva

Artículos relacionados