¿Qué es la prompt injection y por qué importa en Relaciones Humanas
La inyección de prompts consiste en introducir instrucciones ocultas o inesperadas dentro de un texto que se envía a un sistema de IA generativa. Dicho de forma simple: es 'engañar' a la IA para que ignore sus reglas y, en su lugar, haga lo que el usuario quiere. En muchos casos, esta trampa funciona porque los modelos de lenguaje siguen patrones del texto de entrada sin distinguir entre información útil, irrelevante o maliciosa. Esto puede llevar a resultados incorrectos, contradictorios o que revelen información que debería mantenerse privada.
¿Y qué tiene que ver todo esto con la selección de personal? Cada vez más empresas usan IA para tareas como:
- Filtrar currículos.
- Analizar cartas de presentación.
- Hacer preentrevistas automáticas.
- Revisar perfiles profesionales o motivaciones.
Si cualquiera de estos pasos depende, total o parcialmente, de un modelo que interpreta texto, existe la posibilidad de que un candidato (o incluso un tercero) intente manipularlo para obtener ventajas injustas. En un entorno donde las decisiones impactan el acceso al empleo, este es un riesgo serio.
Cómo se usan los modelos de IA en la selección de personal
Para comprender por qué la prompt injection es un problema real, conviene explicar cómo suelen emplearse las IAs generativas en RR. HH.
a) Lectura automática de CV y cartas de presentación: las empresas cargan estos documentos en un sistema que extrae información clave: experiencia, habilidades, años trabajados, estudios y otros datos relevantes. El sistema resume todo y, en algunos casos, puntúa al candidato.
b) Preentrevistas mediante chatbots: cada vez es más común que los candidatos interactúen con un asistente virtual que hace preguntas estandarizadas y evalúa sus respuestas.
c) Clasificación y comparación entre candidatos: la IA genera listas ordenadas según los requisitos del puesto, lo cual agiliza mucho el proceso.
d) Preparación de informes para los reclutadores: los sistemas crean informes en los que destacan fortalezas, posibles debilidades, adecuación cultural y otros aspectos.
En todos estos pasos, el sistema trabaja analizando texto. Por eso, si el contenido está manipulado con intenciones específicas, puede influir en el resultado final.
Qué es específicamente una prompt injection en el entorno de reclutamiento
La prompt injection ocurre cuando el texto enviado al sistema incluye instrucciones camufladas para modificar su comportamiento. Es importante subrayar que no siempre tiene una intención maliciosa. A veces, un usuario simplemente experimenta o no entiende que su forma de expresarse puede alterar el funcionamiento de la herramienta. En un contexto de selección de personal, la inyección puede adoptar distintas formas:
a) Instrucciones escondidas dentro del CV o carta de presentación
Un candidato podría introducir frases que parezcan parte del documento, pero que en realidad buscan manipular al modelo. Aunque suene extraño, se han visto casos donde instrucciones añadidas en letra pequeña, dentro de comentarios ocultos o incluso después de varias líneas en blanco, logran alterar el resultado.
b) Respuestas manipuladas en una entrevista automática
Durante una preentrevista con un chatbot, un candidato podría intentar introducir mensajes que 'rompan' el comportamiento esperado del asistente, con el objetivo de obtener preguntas más fáciles o incluso influir en la evaluación.
c) Información insertada en enlaces o archivos adjuntos
Algunas herramientas permiten cargar información adicional. Si el sistema analiza automáticamente esos textos, podría ser vulnerable a instrucciones escondidas dentro de ellos.
Casos prácticos o escenarios verosímiles
A continuación, algunos escenarios que ayudan a entender cómo podría manifestarse este problema. Aunque muchas empresas no lo mencionan abiertamente, existen casos documentados en otros sectores, como atención al cliente o automatización de correo, donde se han observado comportamientos similares. No se ofrecen técnicas explotables, solo ejemplos conceptuales.
Escenario 1: El CV que confunde al sistema
Imagina que un candidato inserta una línea dentro de su CV que el reclutador humano jamás vería, pero que el modelo sí interpreta. Esa línea podría alterar la forma en que el sistema resume la experiencia, otorgándole una puntuación artificialmente alta o desviando la clasificación.
Escenario 2: La carta de presentación 'autopromocional' para la IA
La persona coloca, debajo de la firma, una nota aparentemente inocente o un párrafo disfrazado del estilo 'nota para el sistema', que afecta cómo la IA interpreta la motivación o la adecuación al puesto.
Escenario 3: La entrevista automática manipulada
Un candidato responde a una pregunta del chatbot introduciendo instrucciones camufladas que cambian la evaluación de su respuesta o hacen que el sistema ignore criterios que deberían aplicarse a todos por igual.
Escenario 4: Uso de texto de terceros
Una empresa recibe un documento que fue preparado por un servicio externo (por ejemplo, una consultora o una plataforma de generación automática de CV) que sin querer incluye instrucciones incompatibles con su sistema de análisis, causando errores masivos.
Consecuencias para empresas, candidatos y sistemas de IA
La prompt injection en procesos de selección tiene efectos más amplios de lo que parece:
a) Decisiones injustas: si el sistema puntúa de manera incorrecta a algunos candidatos, el proceso puede volverse discriminatorio o simplemente ineficaz.
b) Daños reputacionales: una filtración errónea o decisiones laborales mal fundamentadas pueden afectar gravemente la imagen de la empresa.
c) Riesgos legales: las normativas sobre igualdad de oportunidades, protección de datos y transparencia en decisiones automatizadas pueden verse comprometidas si la IA actúa de forma imprevisible.
d) Pérdida de confianza interna: los reclutadores pueden dejar de confiar en los sistemas que deberían ayudarles, lo que reduce su utilidad y aumenta el tiempo de trabajo.
Buenas prácticas y medidas de prevención
Encuentra a continuación 6 recomendaciones generales que te ayudarán a reducir riesgos sin entrar en técnicas sensibles:
1) Validar el contenido de entrada
Antes de que el texto llegue al modelo, se pueden aplicar filtros o revisiones básicas: eliminar caracteres invisibles, comentarios ocultos o formatos inesperados.
2) Limitar el impacto de la IA en decisiones críticas
La IA puede ayudar, pero no debería tomar la decisión definitiva. Un humano debe revisar la información clave.
3) Entrenar a los reclutadores
El personal de RRHH debe conocer los riesgos básicos de la prompt injection y saber identificar documentos sospechosos.
4) Utilizar herramientas robustas
Muchos proveedores están incorporando protecciones específicas contra este tipo de ataques. Conviene elegir soluciones que tengan mecanismos de control, auditoría y supervisión.
5) Registrar y auditar los resultados
Llevar un registro de cómo se comporta el sistema permite detectar anomalías, incoherencias o resultados inesperados.
6) Actualizar políticas internas
Las empresas deben incluir recomendaciones sobre el uso ético de IA y aclarar qué materiales son aceptables en un proceso de selección.