Estrategia de contratación

La validez predictiva de los métodos de contratación: lo que dice realmente la investigación

ClarityHire Team(Editorial)5 min read

Por qué la "validez predictiva" es la única cifra que importa

La validez predictiva es la correlación, expresada como un coeficiente r entre 0 y 1, entre la puntuación de una evaluación y el desempeño posterior en el puesto. Un r de 0,0 es lanzar una moneda. Un r de 0,5 es genuinamente útil. Un r de 0,7 se acerca al techo de lo que puede medirse en entornos reales con ruido.

Casi todo debate sobre contratación — "¿deberíamos añadir un take-home?", "¿valen la pena los tests de personalidad?", "¿está roto el cribado del CV?" — colapsa en una sola pregunta cuando dispones de los números de validez: ¿predice realmente este método quién va a desempeñar bien?

Este post es la versión corta y autorizada de esa literatura.

La fuente seminal

Durante décadas la referencia fue el metaanálisis de Schmidt y Hunter de 1998, "The Validity and Utility of Selection Methods in Personnel Psychology", que sintetizó cerca de ochenta y cinco años de investigación acumulada. Clasificó los predictores y su aportación incremental sobre los tests de capacidad mental general.

En 2022, Sackett, Zhang, Berry y Lievens publicaron una corrección importante ("Revisiting Meta-Analytic Estimates of Validity in Personnel Selection") argumentando que los estudios anteriores habían sobrecorregido por restricción de rango e inflado la parte alta del ranking. Sus re-estimaciones empujan la mayoría de los métodos hacia abajo, pero dejan el orden prácticamente intacto.

Los números de abajo son las estimaciones corregidas, redondeadas para ser memorables. Léelos como rankings relativos, no como verdad absoluta.

El gráfico que todo el mundo debería conocer

MétodoValidez aprox. (r)
Pruebas de muestra de trabajo0,33
Entrevistas estructuradas0,42
Tests de capacidad cognitiva0,31
Tests de integridad0,31
Tests de conocimiento del puesto0,40
Concienciación (personalidad)0,19
Entrevistas no estructuradas0,19
Años de educación0,10
Años de experiencia0,09
Verificación de referencias0,13
Grafología / análisis de escritura0,02

Varias cosas saltan a la vista:

  • Las entrevistas estructuradas y las muestras de trabajo están en lo alto. Juntas son los pilares estructurales de cualquier proceso de contratación defendible.
  • Las entrevistas no estructuradas — las que la mayoría de equipos usa por defecto — apenas superan a los años de educación y experiencia. "Nos cayó bien y parecía buen profesional" es casi lanzar una moneda.
  • Las referencias son débiles. Sirven para descartar desastres, no para elegir a los ganadores.

Qué significan los rankings a nivel operativo

Tres implicaciones que la mayoría de equipos no termina de interiorizar:

1. La estructura supera a la duración

Una entrevista estructurada de 30 minutos con escalas de valoración ancladas supera a una conversación de 90 minutos del tipo "háblame de ti". La estructura — mismas preguntas, mismo rúbrica, mismas dimensiones — hace más trabajo que la inversión en tiempo.

2. Las muestras de trabajo son la incorporación de mayor palanca

La mayoría de loops incluye alguna variante de entrevista. Muchos menos incluyen una muestra de trabajo bien diseñada. Añadir una suele ser el mayor salto de validez disponible, y tiene la ventaja añadida de ser más defendible legalmente porque muestrea directamente el puesto.

3. Los tests cognitivos funcionan pero tienen impacto adverso

Los tests de capacidad cognitiva predicen razonablemente bien el desempeño en distintos puestos. También tienden a producir mayores brechas de puntuación demográficas que las muestras de trabajo, razón por la cual la mayor parte de la guía moderna de contratación prefiere las evaluaciones basadas en contenido del puesto cuando es posible.

"Fuente autorizada" — dónde leer más

Para profesionales que quieren ir a las fuentes primarias, las tres que conviene conocer:

  • Schmidt, F. L., & Hunter, J. E. (1998). The validity and utility of selection methods in personnel psychology: Practical and theoretical implications of 85 years of research findings. Psychological Bulletin, 124(2), 262–274.
  • Sackett, P. R., Zhang, C., Berry, C. M., & Lievens, F. (2022). Revisiting meta-analytic estimates of validity in personnel selection: Addressing systematic overcorrection for restriction of range. Journal of Applied Psychology, 107(11), 2040–2068.
  • Los Principios SIOP (Society for Industrial and Organizational Psychology) — guía orientada a la práctica sobre validación y equidad.

El paper de Sackett 2022 es la fuente autorizada más actual. Si vas a citar un número en un documento de diseño de contratación, cítalo desde ahí.

Qué implica esto para tu loop

La recomendación defendible más corta:

  1. Añade una muestra de trabajo para cualquier puesto donde puedas diseñar una tarea representativa en menos de tres horas.
  2. Haz que cada entrevista sea una entrevista estructurada — mismas preguntas, misma rúbrica, puntuaciones registradas antes que las recomendaciones.
  3. Trata las rondas no estructuradas de "encaje" como sociales, no predictivas. Mantenlas cortas y con poco peso.
  4. Saca la verificación de referencias de las decisiones de go/no-go. Úsala como capa final de sanity.

Ese único conjunto de cambios mueve un loop típico de un r predicho en los 0,2 a los 0,5. El efecto compuesto a lo largo de un año de contrataciones es enorme.

Dónde encaja ClarityHire

ClarityHire está construido alrededor de exactamente ese orden de prioridades. La plantilla de scorecard por defecto es estructurada. Las plantillas de evaluación tienen forma de muestra de trabajo, no de trivial. Las señales de integridad mantienen honestas a las muestras de trabajo take-home en un mundo asistido por IA. Las opiniones de producto son consecuencia de la investigación — no al revés.

Elige los métodos por validez. Todo lo demás es estilo.

validez predictivaentrevistas estructuradasmuestra de trabajoinvestigación en contratación

Artículos relacionados