En los últimos tres meses, tres señales provenientes de fuentes distintas -Gartner, Business Insider y People Matters- han empezado a dibujar un escenario inquietante y fascinante a la vez: la inteligencia artificial ya no es una herramienta de apoyo en el trabajo; comienza a operar como un agente con criterio propio, capaz de ejecutar y resolver sin pedir permiso.
Ese desplazamiento, todavía silencioso, está obligando a empresas, legisladores y líderes de talento en todo el mundo a replantearse algo que durante décadas dimos por sentado:
¿Quién toma realmente las decisiones en una organización?
La primera alerta llegó desde Bruselas. Legisladores europeos, impulsados por las discusiones que acompañan la implementación del AI Act, han comenzado a debatir en foros privados y seminarios técnicos una idea inesperada: establecer “cuotas humanas” obligatorias en procesos donde la IA ya puede decidir sin intervención, especialmente en áreas como:
contratación
evaluación de desempeño
asignación de bonos
acciones disciplinarias
promociones internas y movilidad
El razonamiento detrás del debate es simple y brutal: Si una decisión afecta la vida de una persona, debe haber un humano responsable detrás.
Expertos legales consultados por Business Insider han advertido que, conforme los modelos se vuelven más autónomos, se vuelve más difícil trazar una línea clara de responsabilidad.
Un CHRO europeo citado en los reportes lo resumió así:
“El problema ya no es qué puede hacer la IA. Es quién responde cuando algo sale mal.”
La noción de “cuotas humanas” -un porcentaje mínimo de decisiones críticas revisadas por personas- podría convertirse en un estándar global en los próximos años.
Y si eso ocurre, impactará directamente el trabajo de RRHH: mayor trazabilidad, más gobernanza, más auditorías y un nuevo nivel de responsabilidad ética.
Mientras Europa discute cómo limitar el alcance de la IA, otro reporte -esta vez de People Matters- pone el foco en un punto débil que siempre supimos que existía, pero nadie quería enfrentar: los managers no están preparados para dirigir equipos potenciados por IA.
Según el estudio, solo el 8% de los líderes de talento cree que sus managers poseen las habilidades necesarias para:
interpretar outputs de IA
cuestionar modelos
detectar sesgos
corregir decisiones automatizadas
y, sobre todo, intervenir con criterio humano
Es decir, la IA está lista… pero los humanos no.
El hallazgo sugiere una brecha cultural más que técnica. Porque no se trata de aprender a usar nuevas herramientas; se trata de aprender a pensar con ellas, a navegar la tensión entre eficiencia algorítmica y sensibilidad humana.
Un CHRO citado en la investigación lo explica así:
“No necesitamos managers que sepan programar. Necesitamos managers que sepan decir ‘no’ a la IA cuando hace falta.”
La tercera señal viene de los eventos de HR Tech en Las Vegas, Berlín y Singapur. Allí, el término más repetido no fue “generative AI”, sino “agentic AI”: sistemas capaces de actuar sin instrucciones directas, con autonomía operativa.
Durante las demostraciones se vieron agentes capaces de:
programar entrevistas
enviar retroalimentación automática
analizar engagement en tiempo real
redactar y ejecutar acciones de desarrollo
asignar tareas
monitorear productividad
identificar riesgos culturales
Ni recomendaciones.
Ni sugerencias.
Acciones.
Las empresas que ya están probando estos sistemas reportan un aumento significativo en eficiencia, pero también una preocupación latente:
¿Cuándo termina la asistencia… y cuándo empieza la sustitución de criterio humano?
Lo que une estas tres señales —cuotas humanas, managers sin brújula digital y agentic AI- es el nacimiento de un dilema ético y operativo de primer orden:
La IA puede decidir cada vez más. Pero la responsabilidad sigue siendo humana.
Las organizaciones que no logren equilibrar ese binomio verán consecuencias profundas:
decisiones opacas
pérdida de confianza interna
sesgos amplificados por automatización
delegación excesiva
erosión de accountability
deshumanización del trabajo
Por eso Gartner, en sus reportes Q3 y Q4, ya introduce un término clave: “Human Governance Layer” -una capa de gobernanza humana necesaria para supervisar decisiones algorítmicas.
A diferencia de Europa y EE.UU., donde la discusión es regulatoria y técnica, en LATAM el reto es distinto: las empresas están implementando IA más rápido que lo que el liderazgo organizacional puede absorber.
Sumemos a esto factores estructurales:
alta informalidad laboral
debilidades en cumplimiento
escasa formación en ética digital
managers orientados a operación, no análisis
culturas donde se “aceptan” decisiones sin cuestionarlas
El resultado es un riesgo ampliado: delegar demasiado a la IA sin el músculo crítico para supervisarla.
Pero no todo es riesgo. Los expertos coinciden en que estamos ante un momento fundacional: RRHH puede convertirse en el área que define la ética, los límites y el criterio en la adopción de IA.
Las empresas que prosperen serán aquellas que:
Definan políticas claras de intervención humana
Capaciten a managers en juicio, criterio y pensamiento sistémico
Instalen procesos de auditoría y trazabilidad algorítmica
Eviten la delegación ciega
Establezcan nuevas competencias: gobernanza, ética, IA aplicada, diseño de trabajo
La pregunta ya no es “¿cómo usamos IA en RRHH?”. Es cómo construimos organizaciones que mantengan la dignidad humana mientras la IA se vuelve cada vez más autónoma.
Todo indica que 2025 será recordado como el año en que el mundo laboral se dio cuenta de que la IA ya no es un ayudante; es un actor con poder. Y en esa transición, RRHH tiene un rol histórico: garantizar que la tecnología ELEVE - y que no sustituya el criterio y la consciencia humana.
Gabriel Mata
I aim to bridge the gap between achieving company goals and nurturing employee well-being, creating environments where success and satisfaction thrive in harmony.