IA Tóxica Vol. 2: pongamos nombre a lo que hacemos
- Claudia Salas Bozich

- hace 4 días
- 5 Min. de lectura
En el primer artículo estuvimos hablando de algo que está ocurriendo y cada vez se observa más: la IA no cura una cultura tóxica, la amplifica.
Si nuestras organizaciones tienen patrones disfuncionales arraigados, implementar inteligencia artificial sin trabajar activamente esos patrones es como tapar el sol con un dedo.
En este artículo vamos más allá y, además de reconocer patrones y vivencias, vamos a poner nombres de esos fenómenos. Y así, una vez conscientes no podemos ser indiferentes.
¡Lo invisible es difícil de transformar! Pero una vez nuestro cerebro lo reconoce y lo nombra, es todo más sencillo.
Algunos de los patrones más destacados que tenemos son:
1. Expertise Hoarding con IA: quien tiene información tiene poder

El Expertise Hoarding es ese comportamiento de guardar información intencionalmente, para ser indispensable. . "Si yo soy el único que sabe cómo funciona esto, así que son imprescindible aquí."
Si una persona o un grupo de ellas, ya hace este tipo de comportamiento, la IA solamente lo va a amplificiar: ahora la persona no solo retiene lo que sabe, sino que usa la IA para producir más, más rápido, reteniendo información más que nunca. Genera informes, análisis y respuestas con una velocidad impresionante... y los guarda para sí. Tampoco comparte know how de la IA o los promps.
Así, la caja fuerte se vuelve digital; trayendo como resultado equipos con acceso a más información que nunca pero con menos conocimiento compartido real. La IA viene actuando como amplificador del silo individual.
Para mitigar esta disfunción, experimenta con:
Crear espacios de "prompt sharing", donde el equipo comparte cómo usa la IA.
Reconoce públicamente a quien comparte conocimiento, no solo a quien produce.
Diseña el flujo de trabajo con acceso a datos más transparente y flexible, evitando que un rol tenga que guardar información solo por tu título.
2. Cover Your A** con IA: el escudo ideal

El Cover Your Ass (cubrirse las espaldas, por decirlo bonito), es una práctica tan antigua como los seres humanos. Consiste en respaldarnos de otros, de datos o situaciones para poder protegernos y cuidar de nosotros. Vamos, ejemplos típicos cuando poner a todo el mundo en copia o contratas un consultor Big 4 para que te diga lo que ya sabes y así "por si acaso" quedas cubierto.
Ahora surge una nueva variable: la IA lo recomienda.
Y esto es particularmente perverso porque sí, la IA es MUY inteligente. Sabemos lo brutal que está evolucionando cada día y lo que es capaz de hacer. Por lo que sí, es muy probable que tu IA tenga bastante razón. Sin embargo, latentemente sigue operando el mismo miedo: cubrirse el cu**. ¿Y qué mejor que delegar la responsabilidad en algo tan inteligente?
Mi predicción: veremos mucho más CYA basado en defender de que la IA propuso X.
Si lo reflexionamos, el problema no es usar IA para tomar mejores decisiones: el problema es usarla para no tener que tomar ninguna. Para diluir la responsabilidad en un sistema que no puede ser cuestionado, que no tiene emociones y que convenientemente nunca va a discutir contigo en una reunión.
Cuando la IA se convierte en escudo en lugar de herramienta, algo en la cultura está fallando. Y en mi experiencia, ese algo probablemente tiene que ver con el miedo: a equivocarse, a ser señalado o a asumir consecuencias.
Para mitigar esto, prueba con:
Cuando uses IA para tomar una decisión, escribe explícitamente tu propio criterio antes de consultar la herramienta, así la IA complementa tu juicio, no lo reemplaza
En tu equipo, normaliza decir "esto lo decidí yo, con apoyo de IA". La autoría importa
Crea cultura de "decisiones valientes": reconoce cuando alguien asume responsabilidad, aunque se equivoque
A nivel personal, identifica cuando estés reificando.
3. Función Panóptica: todos bajo vigilancia, aunque no hay vigilante

Foucault describió la función panóptica como una estructura de vigilancia donde los presos se comportan como si siempre fueran observados,¡aunque nadie los esté mirando en ese momento! en sentir que te observan aunque no sea así. El efecto es bastante impresionante: la vigilancia se interioriza... por lo que no necesitas vigilar a alguien si esa persona se vigila sola.
La IA está creando panópticos corporativos.
Dashboards que miden cada movimiento. Sistemas que registran tiempos de respuesta, actividad en pantalla, patrones de trabajo. Y la gran pregunta que flota en el ambiente sin que nadie la haga en voz alta: ¿nos están viendo?
Cuando las personas sienten que son observadas constantemente, dejan de tomar riesgos. Se empieza a deteriorar la seguridad psicológica. Dejan de proponer. Dejan de equivocarse, Se comportan para la métrica, no para el resultado real.
Con el micromanegement al menos hay alguien allí atento de ti, pero en este caso es hasta más perturbante: tal vez nadie te está "mirando", pero tú crees que sí. Un mecanismo de control perverso aunque efectivo.
Una organización que vigila en lugar de confiar no necesita IA. Necesita una conversación honesta sobre qué tipo de cultura quiere ser.
Para reducir esta disfunción experimenta con:
Sustituir al menos una métrica de actividad por una métrica de outcome, no cuántas horas, sino qué resultado.
Habilita espacios de escucha y vulnerabilidad para explorar qué miedos tienen las personas.
Sé honesto sobre el uso de los datos que se recopilan. Las personas somos buenísimas creándonos historias en la mente y, el saber de forma explícita para qué se usan los datos puede ser un alivio.
4. Zombie Productivo: hacer mucho, pensar poco

Este es quizás el patrón más silencioso y el más extendido.
El Zombie Productivo no está agotado ni desmotivado: ejecuta, produce y entrega. Pero lo hace en piloto automático, delegando cada vez más en una maquina. Invirtiéndose los roles: ahora la máquina eres tú y el inteligente que piensa la IA.
Esto también viene del hacer más, sin parar, con menos: sí, hacemos muchas más tareas con más velocidad. Sin descanso, sin pausa. Nos quemamos más rápido también.
Es especialmente perverso porque estamos en una cultura que valora mucho el "hacer".
El resultado es una productividad que impresiona en los dashboards pero que esconde un vaciamiento silencioso del pensamiento crítico. Personas que producen más que nunca pero que, paradójicamente, están perdiendo el propósito y la conexión con lo que hacen.
Y también, más enfermos que nunca, tanto física como mentalmente.
La IA debería liberar tiempo para pensar mejor. Cuando lo que libera es la necesidad de pensar, algo está muy mal.
Para minimizar el zombie, intenta:
Pregunta frecuentemente "¿qué estamos haciendo y para qué?"
Usa la IA para hacer menos cosas, no más. Define primero qué vas a dejar de hacer gracias a ella
Una vez a la semana, haz algo sin IA. Solo para mantener el músculo del criterio propio
Diseña un modelo de trabajo que no solo recompense resultados, sino comportamientos.
El patrón detrás de los patrones
Estos cuatro comportamientos tienen algo en común: no son problemas de herramientas y tecnología. Son problemas de cultura organizacional que encuentran en la IA un nuevo canal de expresión.
El Expertise Hoarding existía antes de ChatGPT. El miedo a ser vigilado existía antes de los dashboards. Cubrirse las espaldas existía antes de los algoritmos. Y el piloto automático existía antes de la automatización.
La IA no los creó: los amplificó. Pero también los está haciendo más difíciles de ver, y por tanto, más difíciles de transformar.
La pregunta que me hago, y que te invito a hacerte, no es si tu organización usa IA. Es para qué la usa, ¿para crecer o para no cambiar?
Porque hay una diferencia enorme entre una organización que se potencia con IA y una organización que se esconde detrás de ella.
¿Reconoces alguno de estos patrones en tu organización? Escríbeme. Me interesa saber qué estás viendo.
Claudia Salas Bozich



