30 abr. 2026
La inteligencia artificial dejó de ser una promesa para transformarse en una capa estructural de la creatividad y los negocios. Su adopción acelerada está redefiniendo procesos, modelos de trabajo y la forma en que las marcas se relacionan con las personas. Sin embargo, este avance también ha abierto una pregunta crítica: ¿cómo se construye confianza en un entorno donde los sistemas son cada vez más autónomos, opacos y complejos?
El debate ya no se centra en si usar o no inteligencia artificial, sino en cómo hacerlo de manera responsable. Conceptos como transparencia, explicabilidad y rendición de cuentas están pasando de ser buenas intenciones a exigencias concretas por parte de consumidores, empresas y reguladores.
Distintos análisis recientes coinciden en que existe una brecha de confianza relevante. Las personas interactúan diariamente con sistemas basados en IA, desde recomendaciones hasta automatización de contenidos, sin necesariamente entender cómo funcionan ni bajo qué criterios toman decisiones. Este escenario obliga a las organizaciones a avanzar hacia modelos donde no solo se implementa tecnología, sino que también se comunica y justifica su uso.
En paralelo, la industria está entrando en una fase más exigente. La hiperpersonalización, el uso intensivo de datos y la automatización a gran escala están elevando el estándar de responsabilidad. Ya no basta con lograr eficiencia o resultados; hoy se espera que las marcas sean capaces de demostrar cómo utilizan la información, cómo entrenan sus modelos y qué resguardos aplican para evitar sesgos o malas prácticas.
En este contexto, la autorregulación comienza a jugar un rol clave. Durante el reciente eCommerce Day Chile 2026, la Cámara de Comercio de Santiago (CCS) anunció el desarrollo de un código de autorregulación para el uso de inteligencia artificial en el comercio digital. La iniciativa busca establecer lineamientos claros para promover un uso ético, transparente y responsable de estas tecnologías en la industria.
Este tipo de esfuerzos marcan un punto de inflexión. Frente a un escenario donde la regulación formal suele avanzar más lento que la innovación tecnológica, los acuerdos sectoriales y códigos de buenas prácticas como los que promueve y desarrolla la Cámara de Empresas Creativas, permiten generar estándares comunes, reducir riesgos y, sobre todo, fortalecer la confianza del ecosistema.
La industria creativa está en el centro de esta transformación: es aquí donde la inteligencia artificial se cruza con la generación de contenidos, la construcción de marcas y la conexión emocional con las audiencias. En ese escenario, distintas empresas ya están avanzando hacia modelos propios de adopción responsable como es el caso de Urban Grupo de Comunicación Chile:
“En URBAN apostamos por una tecnología humanizada: entendemos la IA como un habilitador estratégico que potencia el talento humano, nunca como su reemplazo. La integramos para ampliar nuestra capacidad de análisis y exploración de escenarios, permitiéndonos tomar decisiones más informadas y creativas. El criterio y la responsabilidad final son siempre de las personas”, comenta Sol Revelant, Gerente General y Socia.
Entendemos la IA como un habilitador estratégico que potencia el talento humano, nunca como su reemplazo. La integramos para ampliar nuestra capacidad de análisis y exploración de escenarios, permitiéndonos tomar decisiones más informadas y creativas. El criterio y la responsabilidad final son siempre de las personas.
Una mirada complementaria surge desde CBR Comunicación de la mano de su Director General, Claudio Bustos: “En CBR incorporamos la IA como un verdadero cambio cultural desarrollando un modelo conductual simple y memorable a partir de nuestras propias iniciales de marca: Capturar, Bajar y Resguardar. Primero detecta señales y abre posibilidades; luego el equipo las baja a tierra con mirada estratégica, contexto y criterio editorial; y al final, un check resguarda trazabilidad, sesgos, datos, propiedad intelectual y riesgo reputacional”.
El desafío no es menor. Incorporar IA en procesos creativos abre oportunidades inéditas en términos de escala, eficiencia y exploración, pero también exige nuevas responsabilidades. ¿Quién responde por un contenido generado por IA? ¿Cómo se resguardan los derechos de autor? ¿De qué manera se evita replicar sesgos en campañas o narrativas?
La experiencia práctica demuestra que la integración responsable no depende solo de herramientas, sino también de cultura organizacional. Para Sol Revelant, uno de los principales desafíos ha sido evolucionar al ritmo de la tecnología sin perder la esencia estratégica del negocio.
“El reto no es usar la herramienta, sino evitar el sesgo de confianza. Hemos impulsado una cultura de aprendizaje permanente donde el equipo no solo domina la técnica, sino que cuestiona y valida cada resultado, asegurando que la IA sea un soporte y no el autor de la estrategia”, comenta la Gerente General y Socia de Urban Grupo de Comunicación Chile.
Desde CBR Comunicación, Claudio Bustos coincide en que el riesgo está en sobrevalorar la rapidez por sobre el juicio profesional, especialmente en un entorno donde las decisiones impactan marcas y reputaciones: “La IA acelera mucho, pero también nos exige ser más rigurosos con las fuentes, el tono, los sesgos y la responsabilidad final de cada entrega. Más que un reto tecnológico, ha sido un aprendizaje cultural: entender que la última palabra no la puede tener la herramienta, sino el equipo”.
La IA acelera mucho, pero también nos exige ser más rigurosos con las fuentes, el tono, los sesgos y la responsabilidad final de cada entrega. Más que un reto tecnológico, ha sido un aprendizaje cultural: entender que la última palabra no la puede tener la herramienta, sino el equipo.
En este escenario, avanzar hacia una cultura de buenas prácticas no es solo una cuestión ética, sino también estratégica. Las empresas que logren integrar inteligencia artificial con criterios claros de transparencia y responsabilidad tendrán una ventaja competitiva sostenida, especialmente en mercados donde la confianza es un activo cada vez más escaso.
La explicabilidad, entendida como la capacidad de comprender y comunicar cómo funciona un sistema de IA, se posiciona como uno de los pilares centrales. No se trata de que todos los usuarios comprendan la complejidad técnica, sino de que las organizaciones sean capaces de entregar claridad suficiente sobre los procesos y decisiones que afectan a las personas.
Asimismo, la rendición de cuentas comienza a instalarse como un estándar ineludible. Esto implica definir responsables, establecer mecanismos de control y monitorear de forma constante el impacto de estas tecnologías.
Desde la industria, también surge la necesidad de construir estándares compartidos que den certezas a clientes, equipos y consumidores. Para Sol, la transparencia debe ser la base de cualquier marco de acción futuro: “Es clave establecer criterios compartidos de trazabilidad donde la supervisión humana sea central, asegurando que la tecnología respete siempre la propiedad intelectual y la ética de datos. La confianza seguirá siendo un activo profundamente humano”.
Una visión alineada comparte Claudio, quien plantea que la madurez del ecosistema dependerá menos del volumen de adopción y más de la calidad con que se implemente: “Primero, transparencia: poder explicar cuándo y para qué se usa IA. Segundo, supervisión humana real, porque la responsabilidad no se delega. Y tercero, reglas claras sobre datos, propiedad intelectual, sesgos y trazabilidad. La confianza no va a venir de usar más IA, sino de usarla mejor y con criterios compartidos”.
En un entorno donde la velocidad de cambio seguirá acelerándose, la pregunta no es sólo qué tan rápido adoptamos inteligencia artificial, sino qué tan bien lo hacemos. Porque en esta nueva etapa, la verdadera innovación no estará únicamente en la tecnología, sino en la capacidad de usarla con criterio, responsabilidad y una mirada de largo plazo.
Otras noticias