IA, con cuidado: ganar tiempo sin perder la voz
- Rosalía Ortiz Luquis

- 10 ene
- 5 Min. de lectura
Actualizado: 13 ene
En el museo, el equipo de comunicaciones trabaja con una contradicción diaria: necesita aumentar alcance “orgánico” y, al mismo tiempo, proteger el tono de la institución en su conversación pública. Publican, miden, responden, ajustan formatos. La presión no descansa: la cultura también compite por atención, como si el cuidado de lo que tiene sentido fuera un lujo que solo se permiten quienes tienen recursos.
En algún momento aparece la solución práctica: usar inteligencia artificial para redactar copys y diseñar la estrategia. “Solo para ahorrar tiempo”. Nadie lo propone por frivolidad; lo propone por supervivencia.
El primer resultado llega rápido, pulcro, casi impecable. Y llega extraño. Suena a museo, sí, pero podría sonar igual en cualquier museo, en cualquier lugar. Es correcto, pero no tiene temperatura. No comete errores visibles, pero diluye una diferencia fundamental: esa manera particular de hablarle a un público desde un lugar, con su historia, sus matices y sus silencios.

Ahí se revela algo que muchas veces pasa desapercibido: la IA no solo produce texto. También actúa como espejo. Al compararnos con un lenguaje que parece “bien escrito” y, sin embargo, vacío de vida, la voz humana se vuelve cada vez más evidente. La herramienta no borra la voz: más bien la pone a prueba.
En otra oficina —una organización sin fines de lucro con poco personal— la escena cambia, pero la lógica es la misma. Hay que preparar una solicitud de grant, sostener el día a día de las operaciones, entregar informes, documentar impacto, cumplir fechas. Alguien abre una herramienta de IA y pide apoyo: dame estructura, define narrativa, usa lenguaje “convincente”. La respuesta llega con impresionante fluidez.
Y entonces surgen preguntas incómodas, que no son tecnológicas, sino éticas: ¿esto describe de verdad lo que hacemos? ¿qué se está simplificando para que la historia “funcione”? ¿qué queda fuera cuando el lenguaje convierte la complejidad en una promesa redonda, casi perfecta? ¿quién responde si lo que se escribe convence, pero no corresponde a quienes somos?
La inteligencia artificial está entrando en el trabajo cultural con una mezcla rara de promesa y prisa. A veces se presenta como una solución mágica; otras, como una exigencia: “hay que usarla”. Sin embargo, la pregunta no es si la usamos, sino para qué, con qué límites y qué parte del trabajo no podemos delegarle.
El tiempo no es neutral
Decimos “ahorrar tiempo” como si el tiempo fuera una cosa que se guarda en un frasco. Pero el tiempo, en la vida institucional, rara vez se ahorra. El tiempo suele redistribuirse. Cuando una herramienta promete eficiencia, el sistema suele responder con otra demanda: más producción, más visibilidad, más informes, más resultados. Lo que se “ahorra” se convierte en lo que se exige.
En el sector cultural y educativo esta dinámica pesa doble: presupuestos limitados, equipos pequeños, temporadas intensas, múltiples públicos, responsabilidades de cuidado. La urgencia aquí no es una metáfora; es el ambiente que se vive. Por eso la promesa de la IA puede ser un alivio real, y también una trampa: una aceleración de algo que ya venía acelera'o.
La pregunta entonces se afina: ¿para qué queremos ganar tiempo? Si es para producir más y más rápido, vamos tarde. Si es para sostener mejor el trabajo —pensar, escuchar, cuidar el lenguaje, fortalecer nuestra comunidad—, entonces sí: vale la pena.
La gran paradoja
Hay otra paradoja que conviene mirar de frente: cuanto más se extiende el uso de la IA, más visible se vuelve lo humano. No como un eslogan romántico, sino como una realidad práctica: el matiz, el contexto, la responsabilidad, la capacidad de nombrar aquello que importa sin borrar lo difícil.
Entre textos que se parecen demasiado, la voz propia deja de ser un recurso estético y se vuelve una decisión. En cultura, la voz no es solo “cómo suena”: es desde dónde se habla, para quién se habla, qué se asume cuando se habla. La voz es vínculo. Y el vínculo no se puede automatizar.
Esto importa aún más en lugares como Puerto Rico, donde tanto trabajo cultural se sostiene a pulmón. Aquí el lenguaje no es un accesorio: es territorio, es historia, es relación, es sobrevivencia. La neutralidad, muchas veces, es una forma de borrarnos.
Una herramienta, no una autoridad
En ROL Marketing Studio partimos de una idea simple: la IA es una herramienta. Puede aliviar tareas, abrir caminos de investigación, ordenar información, acelerar borradores. Pero no debe sustituir la voz del proyecto, la responsabilidad institucional ni la relación con sus públicos. La confianza se construye con decisiones, no con atajos.
Decidir, aquí, no significa “usar o no usar”. Significa gobernar la herramienta. Definir qué se le pide y qué no. Qué se delega y qué se conserva. Qué se verifica y cómo. Y, sobre todo, qué se considera sensible: la vida comunitaria, los datos, las historias, los nombres.
¿Para qué sí?
La IA puede ayudar cuando apoya el proceso sin decidir por él.
Puede servir para investigar y ordenar: reunir fuentes, detectar patrones, proponer comparables, estructurar lecturas. Puede apoyar en la planificación: calendarios editoriales, rundowns de eventos, rutas de campaña, listas de tareas. Puede facilitar borradores: primeras versiones que luego se editan con criterio, estilo propio y verificación de datos. Y puede aportar en accesibilidad: traducciones, transcripciones, subtítulos, resúmenes o adaptaciones, siempre con revisión.
El criterio es sencillo: si la herramienta reduce la carga de trabajo y libera tiempo para lo importante, suma. Si convierte la comunicación en producción automática, resta.
¿Para qué no? ¿O no sin condiciones?
Hay decisiones que no conviene delegar.
No conviene sustituir autoría, criterio y responsabilidad en la comunicación pública. No conviene publicar sin edición, sin verificación de datos y sin contexto. Tampoco conviene convertir la “optimización” en pérdida de sensibilidad: lo que funciona en una marca comercial no siempre funciona en una comunidad. Y no se debe trabajar con información confidencial o datos personales sin protocolos claros.
El problema no es solo que la IA se equivoque. El problema es que puede hacerlo con una seguridad pasmosa y esa seguridad puede contagiarse.
Preguntas antes de usarla
No para asustarnos, sino para gobernar la herramienta:
¿Qué queremos ganar (tiempo, claridad, organización) y qué no queremos perder (voz, matices, vínculos)?
¿Qué datos estamos compartiendo? ¿Son necesarios? ¿Podemos minimizarlos o proteger las identidades?
¿Cómo verificamos lo que produce la herramienta de IA y qué fuentes sostienen ese resultado?
¿Qué sesgos puede reproducir (clase, raza, género, territorio, lengua) y cómo los detectamos?
¿Cuándo conviene ser transparentes con nuestros públicos sobre su uso?
Prácticas de cuidado, muy concretas
Definir guías internas de voz, tono y valores para que la herramienta no decida por el proyecto.
No subir información sensible; trabajar con ejemplos, resúmenes o datos despersonalizados.
Verificar hechos y fuentes: la IA puede equivocarse con mucha seguridad.
Editar siempre: devolverle humanidad, contexto y responsabilidad a lo que se va a publicar.
Usar la herramienta para liberar tiempo para lo importante: pensar, escuchar, relacionar, sostener comunidad.
En ROL Marketing Studio, este año preparamos espacios de aprendizaje y experimentación en comunidad para explorar estas herramientas de IA con calma, ética y sentido práctico. Pronto los compartiremos en este blog.
En Puerto Rico —donde mucho trabajo cultural se sostiene a pulso— la promesa de “ahorrar tiempo” puede ser un alivio real, pero conviene decidir qué hacemos con ese tiempo. Mi propuesta es sencilla: que la tecnología nos devuelva a lo humano. A una voz con matices, a una escucha real, a un vínculo que no se puede automatizar.
En cultura, cultivar nuestra propia voz no es un estilo o una tendencia: es nuestra responsabilidad.