@Titonet Pills

@Titonet Pills

Share this post

@Titonet Pills
@Titonet Pills
Mi empresa no me deja usar ChatGPT
Inteligencia Artificial

Mi empresa no me deja usar ChatGPT

Si tus empleados ya usan ChatGPT a escondidas, quizá el problema no sea la herramienta, sino cómo estás liderando la transformación de la IA.

abr 05, 2025
∙ De pago
9

Share this post

@Titonet Pills
@Titonet Pills
Mi empresa no me deja usar ChatGPT
2
Compartir
Minimalist corporate-style illustration with a bright and optimistic tone. On the left, a clean desk with a laptop showing a friendly 'Access Restricted' ChatGPT message. On the right, a single employee sitting at another desk, smiling while learning from a screen with AI best practices. Between them, a glowing lightbulb icon above a subtle balance scale, symbolizing ideas and responsibility. Use soft blues, warm yellows, and pastel greens. Flat design, simple, modern, and uncluttered. Horizontal HD format, suitable for a corporate blog or newsletter.

En plena revolución de la IA, muchas empresas han optado por prohibir ChatGPT. Sí, como lo oyes. Lo que ocurre es que, a pesar de las restricciones, muchos empleados lo siguen usando por su cuenta.

Esta situación nos obliga a detenernos un momento. No se trata solo de si ChatGPT está o no permitido. El verdadero debate está en cómo gestionar su uso de forma responsable, equilibrando los riesgos con las oportunidades.

Me recuerda mucho a la situación que vivo con mis hijos adolescentes. Les puedo prohibir que usen el móvil, con la presión que esto supone, o les puedo dar un móvil y que aprendan a usarlo, ya que es y será una herramienta fundamental en su vida y en su trabajo. Restringir vs. enseñar. Ese es el gran debate de la enseñanza de la tecnología, y es el mismo que se nos plantea con el uso de la IA.

En este artículo voy a revisar los distintos puntos de vista implicados, tanto el de la empresa como el de los profesionales. Y al final, te propongo un protocolo práctico de buenos usos que puede servir como punto de partida para cualquier organización.

1. El punto de vista de la empresa

Imagen generada

Antes de armar la revolución interna, vale la pena entender por qué algunas empresas prohíben el uso de ChatGPT. Y no, no es porque estén en contra de la innovación, sino por algo más básico. He agrupado cinco razones:

  • Miedo a que se use mal: como cualquier herramienta poderosa, ChatGPT no es peligrosa por sí sola. El problema es quién la usa… y cómo.

  • Riesgos de confidencialidad: subir precios internos, estrategias de negocio, planes de lanzamiento o datos de clientes a una plataforma externa puede convertir un descuido en una filtración masiva.

  • El fantasma del entrenamiento: aunque OpenAI afirma que con ciertos planes los datos no se usan para entrenar modelos, muchas empresas siguen viendo esto con recelo.

  • Compliance legal: hay que tener en cuenta el riesgo legal de la filtración de datos de carácter personal o la casuística específica de algunos sectores hiperregulados (salud, defensa, tecnología...), donde la fuga de información puede acarrear sanciones muy elevadas.

  • Control y centralización: en muchas empresas se prioriza el control sobre la innovación. No se trata solo de proteger datos, sino de mantener el poder de decidir qué herramientas se usan, quién las aprueba y cómo se despliegan. Esto genera una tensión natural entre departamentos de IT y áreas de negocio.

2. Lo que piensan algunos empleados

Los empleados (sobre todo los más inquietos) ven la situación de otra manera:

  • Sensación de estar atado con cuerdas: cuando tienes mejores herramientas en casa que en el trabajo, empiezas a cuestionar qué tan seria es tu empresa con la innovación y cómo esto te hace perder competitividad personal.

  • El déjà vu de WhatsApp: primero lo prohibieron. Después todos lo usaban. Ahora está institucionalizado. Si con WhatsApp ha pasado, pasará lo mismo con ChatGPT, así que lo seguiré usando, pero con cuidado.

  • La utilidad instantánea: muchos empleados ya están sacándole partido; lo usan en dispositivos personales y después lo pasan al ordenador del trabajo, que tiene capado el acceso. Puedes pensar que no ocurre, pero lo hacen.

  • Comparativa frente a herramientas internas: muchos empleados lo usan porque no hay IA en la empresa o porque la alternativa es Copilot básico. Otro día hablamos de Copilot... pero te hago un spoiler: es como usar una IA de hace un año; funciona, pero no es ninguna maravilla.

  • Falta de percepción de riesgo: hay personas que han enviado un Excel con contactos personales de clientes en un correo sin cifrar y sin contraseña. Si lo hacen por e-mail, ¿por qué no lo harían con IA?

3. Evaluación de riesgos y oportunidades

Como en muchas empresas manda la seguridad y la minimización de riesgos, no hay debate.

Imagen generada

Pero si realmente entiendes lo que está pasando, si entiendes que esto es un cambio de los grandes, entonces seguro que no lo harás de esta forma. Si entiendes que esto va de gestión del cambio, ya sabes que no todos los empleados son iguales.

En una empresa pequeña puede haber un 20 % de motivados (los primeros que abrazan las novedades), un 30 % que no quiere cambios y se resistirá al uso de nuevas herramientas, y un grupo intermedio, los “depende”, cuyo comportamiento se definirá por las condiciones, beneficios personales o profesionales.

Así que cuando lo ves de esta forma, toca añadir un riesgo a la prohibición de usar ChatGPT:

  • ¿Qué pasa si los motivados se frustran?

  • ¿Qué pasa si se adaptan a herramientas internas, descubren que son malas y no les ayudan en su día a día?

  • ¿Qué pasa si les dicen al resto que no hay para tanto?

  • ¿Qué pasa si los "depende" asumen que esto es otro hype más como lo fue el metaverso, el big data o el blockchain?

Ante esta situación, déjame que te diga cuál creo que es uno de los mayores riesgos que corren las empresas: que los empleados piensen que no hay para tanto, que se genere una corriente de opinión tipo "lo he probado y para lo mío, no sirve", y que esto se extienda como un virus dentro de la organización.

Este tipo de percepción colectiva es muy costosa de revertir. Una vez que la herramienta se etiqueta como inútil o ineficaz, cuesta mucho volver a despertar el interés, incluso aunque la tecnología evolucione o se adapte mejor al trabajo cotidiano. En ese punto, ya no basta con formación o campañas internas: hace falta reconstruir la confianza desde cero. Por eso, la gestión del relato interno es tan importante como la gestión de la herramienta en sí.

El verdadero dilema es el siguiente: ¿cuánto podrías perder por una posible filtración de información sensible versus cuánto te costará reposicionar la IA si ya se ha generado desconfianza en su utilidad?

Toca elegir dónde poner el foco: ¿en los riesgos o en los beneficios?

Y desde mi experiencia, se construye una narrativa mucho más efectiva desde el beneficio que desde el miedo al riesgo.

Para construir este relato toca ser claros, la empresa tiene que adquirir unos compromisos y el empleado otros. He preparado un borrador de estos compromisos para que los podáis adaptar a la lógica de vuestra empresa.

4. Compromisos Frente a la IA

Vamos ahora con los 8 compromisos de la empresa y los 8 compromisos de los empleados.

4.1 Compromiso de la empresa

Esta publicación es para suscriptores de pago.

Already a paid subscriber? Iniciar sesión
© 2025 Titonet
Privacidad ∙ Términos ∙ Aviso de recolección
Empieza a escribirDescargar la app
Substack es el hogar de la gran cultura

Compartir