Mientras las empresas discuten estrategias y lineamientos, miles de profesionales en América Latina ya usan inteligencia artificial todos los días sin reglas claras. Esta brecha está redefiniendo cómo se diseña —y se gobierna— el trabajo cotidiano.
Durante los últimos años, la conversación sobre inteligencia artificial en el trabajo ha estado dominada por anuncios, pilotos y promesas de transformación. Sin embargo, lejos de comunicados oficiales y planes estratégicos, una dinámica distinta ya se instaló dentro de las organizaciones en América Latina: la IA se utiliza de forma cotidiana, aunque muchas empresas no lo hayan decidido formalmente.
Este fenómeno, conocido como Shadow AI, describe el uso habitual de herramientas de inteligencia artificial por parte de empleados y managers sin aprobación explícita, sin políticas compartidas y, en muchos casos, sin visibilidad para áreas como TI o Recursos Humanos.
No se trata de una práctica marginal. En países como México, Brasil y Colombia, los datos muestran que la adopción informal de IA avanza más rápido que cualquier esfuerzo institucional por gobernarla.
De acuerdo con el estudio Work: InProgress, desarrollado por Google Workspace, IDC y Provokers, 67% de los profesionales en México ya utiliza herramientas de IA en su trabajo diario, mientras que solo una minoría de las organizaciones ha definido políticas claras, herramientas oficiales o criterios compartidos para su uso.
Esta brecha no responde a resistencia cultural ni a falta de interés tecnológico. Al contrario: los trabajadores recurren a la IA porque resuelve fricciones reales del día a día. Desde resumir información y estructurar documentos hasta investigar temas o preparar presentaciones, la IA se ha integrado como una capa informal de apoyo operativo.
El problema es que esta adopción ocurre de manera individual, no como parte de un sistema de trabajo diseñado colectivamente.
Los mismos estudios identifican patrones consistentes en las razones detrás del uso no autorizado de IA:
Acceso inmediato, sin procesos internos ni aprobaciones.
Percepción de mayor eficacia, frente a herramientas corporativas limitadas o inexistentes.
Ausencia de reglas visibles, que deja a cada persona decidir por su cuenta.
Lejos de una actitud rebelde, el uso de Shadow AI surge como respuesta a vacíos operativos. Donde no hay criterios claros, emergen soluciones improvisadas.
Desde la perspectiva de seguridad y cumplimiento, el uso no supervisado de IA ha comenzado a generar alertas. Firmas especializadas en ciberseguridad y gobierno de datos advierten riesgos asociados a:
Exposición involuntaria de información sensible
Falta de trazabilidad en decisiones
Inconsistencia en la aplicación de criterios
Dependencia de herramientas no auditadas
Sin embargo, reducir el fenómeno a un problema de riesgo sería una lectura incompleta. El crecimiento de Shadow AI también revela algo más profundo: el trabajo cotidiano no está diseñado para la velocidad, complejidad y volumen de decisiones actuales.
Cuando las personas usan IA para responder preguntas repetidas, interpretar políticas o estructurar información, están intentando —con los medios disponibles— rediseñar su propio trabajo.
El problema es que este rediseño ocurre de forma fragmentada. Cada persona optimiza su tarea, pero la organización no construye un marco común que asegure continuidad, coherencia y criterio compartido.
El resultado es una operación que funciona, pero de manera desigual y difícil de gobernar.
Este contexto está empujando a Recursos Humanos a una responsabilidad distinta a la tradicional. No se trata solo de adoptar nuevas herramientas, sino de definir cómo se gobiernan las decisiones pequeñas y repetidas que hoy están siendo mediadas por IA, incluso sin una estrategia formal.
Las preguntas que empiezan a emerger son concretas:
¿Qué decisiones requieren criterio humano?
¿Qué reglas deben ser visibles y compartidas?
¿Cómo se asegura consistencia sin frenar el flujo de trabajo?
Responderlas implica pasar de políticas abstractas a diseño operativo real
En América Latina, donde la presión por eficiencia convive con estructuras operativas frágiles, esta transición ocurre de forma especialmente acelerada. La adopción informal de IA funciona como una señal temprana de lo que vendrá: organizaciones obligadas a repensar no solo qué tecnología usan, sino cómo está diseñado su trabajo diario.
Las empresas que entiendan este fenómeno no como una amenaza, sino como una evidencia, estarán mejor posicionadas para construir sistemas de trabajo donde la IA actúe como infraestructura silenciosa, reduciendo fricción y liberando capacidad humana.
La adopción informal de inteligencia artificial no es un problema tecnológico.
Es una consecuencia directa de cómo está diseñado —o no— el trabajo cotidiano.
Y es en ese espacio invisible, lejos de dashboards y anuncios, donde se está definiendo gran parte del impacto real de la IA en las organizaciones.
Orlando Solís
I aim to bridge the gap between achieving company goals and nurturing employee well-being, creating environments where success and satisfaction thrive in harmony.