En resumen: los consumidores 2026 desconfían abiertamente de los productos comunicados como "creados por IA". El Edelman Trust Barometer mide una brecha de confianza de dos dígitos entre quienes ven la IA como oportunidad y quienes como amenaza; Pew Research documenta que la mayoría de los adultos está más preocupada que entusiasmada; Kantar BrandZ señala un impacto negativo en awareness y preferencia cuando el framing IA sustituye al humano. Transparencia estructurada + posicionamiento "human+AI" reducen la brecha.
- Edelman Trust Barometer 2025 — confianza en la IA: brecha de dos dígitos entre países desarrollados y emergentes
- Pew Research Center — el 51% de los adultos EE.UU. más preocupados que entusiasmados por la IA
- Kantar BrandZ — impacto de la IA en awareness y preferencia de marca
En 2026 comunicar que un producto ha sido "creado por IA" ya no es un atajo de marketing innovation: es una elección de posicionamiento arriesgada, con impactos medibles en ventas, confianza y reputación. Los datos de Edelman, Pew Research y Kantar convergen en el mismo punto: los consumidores no rechazan la tecnología IA en sí, sino el framing que elimina al humano del proceso creativo.
Esta guía sintetiza evidencias 2024-2026, casos concretos (Mattel Barbie, Coca-Cola Christmas, Dove "AI-free"), obligaciones de la EU AI Act y un marco operativo para elegir entre disclosure total, hiding o posicionamiento híbrido. Para la otra cara de la moneda sobre la originalidad de los contenidos IA lee también content marketing IA: todo igual.
Los datos: IA-made = ventas y confianza en caída
Las tres encuestas de referencia 2025-26 convergen. El Edelman Trust Barometer en su edición 2025 mide una confianza en las empresas que desarrollan IA estancada en torno al 52% global, con los países desarrollados por debajo del 40% y una brecha de más de 30 puntos porcentuales con los países emergentes. Pew Research en el informe "How the US Public and AI Experts View AI" (abril 2025) documenta que el 51% de los adultos estadounidenses está más preocupado que entusiasmado, frente a apenas el 11% en la dirección opuesta; entre los expertos IA la proporción se invierte.
Kantar, en la serie de estudios BrandZ y Media Reactions, señala que los anuncios generados íntegramente por IA registran puntuaciones de calidad percibida y diferenciación de marca inferiores a los human-led, con un efecto particularmente marcado en las categorías de alto componente emocional (moda, food, beauty, lujo). No es, por tanto, una percepción de nicho: es la base con la que habla hoy cualquier marca que declare "AI-made".
Por qué los consumidores desconfían: autenticidad, job loss, uncanny valley
Tres mecanismos psicológicos explican el efecto.
Autenticidad percibida. Cuando un producto se etiqueta como creado por IA, los consumidores atribuyen menos esfuerzo humano al proceso. Menos esfuerzo significa menos autenticidad, y menos autenticidad significa menor disposición a pagar. Esta cadena causal está documentada en estudios publicados en el British Food Journal y el Journal of Retailing and Consumer Services y es particularmente relevante en categorías donde la artesanía forma parte del valor.
Miedo por el trabajo. Pew Research informa que más del 60% de los adultos EE.UU. temen un impacto negativo de la IA en el empleo en los próximos veinte años. Cuando una marca exhibe la IA como "creadora", amplifica un miedo social ya presente: el consumidor no solo compra un producto, participa en un sistema que percibe como hostil a su propio grupo.
Uncanny valley narrativo. Los contenidos IA-generated demasiado perfectos, demasiado uniformes o con microerrores anatómicos activan un malestar estético medible. Kantar en 2025 mostró que las imágenes publicitarias IA-generated obtienen puntuaciones de "distinctiveness" inferiores en un 20-30% respecto a la fotografía tradicional, incluso cuando el consumidor no identifica explícitamente el origen.
Casos de estudio 2024-26: Mattel, Coca-Cola, Dove
Mattel & Barbie AI. En 2025 Mattel anunció una alianza con OpenAI para integrar IA en los productos Barbie. El framing inicial, centrado en la tecnología más que en el valor educativo para niñas y padres, generó cobertura mixta y una oleada de críticas sobre riesgos de privacidad y pérdida del "juego humano". La comunicación posterior reequilibró el mensaje hacia "IA como herramienta bajo supervisión educativa".
Coca-Cola Christmas 2024. El spot navideño realizado con IA generativa dividió al público: parte de la prensa lo calificó de "soulless", los consumidores se quejaron de la pérdida de autenticidad respecto a la tradición de los spots Coca-Cola. La exposición generó brand awareness igualmente, pero a un coste reputacional que Kantar estima en puntos de "brand love" perdidos en el target boomer y gen X.
Dove "The Code" (2024). En dirección opuesta, Dove publicó una campaña con compromiso explícito de no usar nunca imágenes generadas por IA para representar la belleza real. La campaña reforzó el posicionamiento "Real Beauty" y obtuvo earned media significativo, demostrando que "AI-free" es hoy una palanca diferenciadora en categorías identitarias.
Disclose, hide o híbrido: comparación con impacto en la confianza
La decisión estratégica se reduce a cuatro escenarios. Ninguno es universalmente mejor: la elección depende de la categoría, del target y del contexto regulatorio.
Cómo comunicar IA sin perder confianza
Desde el punto de vista operativo, las empresas que mejor están navegando el tema adoptan cinco prácticas convergentes.
1. La IA es siempre la herramienta, nunca el creador. La construcción lingüística cuenta. "Nuestro equipo ha utilizado la IA para optimizar X" produce reacciones radicalmente distintas a "creado por IA". La fórmula ganadora mantiene siempre un sujeto humano como protagonista.
2. Human-in-the-loop explícito. No basta con decir "hemos usado IA". El consumidor debe percibir que un humano ha guiado, verificado y controlado. Para los productos sensibles (salud, finanzas, contenidos editoriales) esto se convierte en requisito casi regulatorio además de reputacional.
3. Disclosure estructurada. Una página "cómo trabajamos" o una sección dedicada en las FAQ que explique cuándo y cómo se usa la IA construye confianza sin transformar la IA en el claim principal. La información está disponible para quien la busca, pero no domina la comunicación comercial.
4. Coherencia con la marca. Una marca tech-first (SaaS, fintech, martech) puede permitirse un framing IA más prominente que una marca artesanal o identitaria. La clave es la alineación entre el posicionamiento histórico y el uso declarado de la IA.
5. Prueba social como contrapeso. Cuando por razones estratégicas la IA debe ser comunicada, acompáñala siempre con reseñas, case studies y datos de satisfacción. La prueba social es una de las pocas palancas que pueden compensar el sesgo de aversión a la etiqueta IA.
EU AI Act: obligaciones de transparencia desde 2025-26
La EU AI Act (Reglamento 2024/1689), en vigor desde el 1 de agosto de 2024, aplica obligaciones progresivas hasta 2027. Para el marketing y la comunicación son relevantes sobre todo tres artículos.
Art. 50: obligación de informar a los usuarios cuando interactúan con un sistema IA (ej. chatbot) y de etiquetar los contenidos sintéticos audio, vídeo y de texto que constituyen deepfake. Para los textos generados por IA que informan al público sobre cuestiones de interés general el etiquetado es obligatorio salvo revisión editorial humana documentada.
Prohibiciones (Art. 5), aplicables desde febrero 2025: prohibidas prácticas de manipulación subliminal, explotación de vulnerabilidades, social scoring y algunas formas de categorización biométrica. Las campañas de marketing que exploten vulnerabilidades específicas (edad, discapacidad, situación socioeconómica) vía IA entran en las prohibiciones.
Sistemas GPAI (General Purpose AI): desde el 2 de agosto de 2025 obligaciones para proveedores de modelos fundacionales y, en cascada, obligaciones de documentación para quienes los integran. Para las marcas: pide al proveedor IA la documentación de conformidad antes de usarla en comunicación comercial.
Una estrategia de disclosure bien diseñada no es solo una elección reputacional: es un activo de compliance. Sobre la gestión de las crisis reputacionales relacionadas con uso inadecuado de la IA, mira crisis communication: 5 desastres 2025; sobre el impacto de la IA en la publicidad consultiva mira ChatGPT y la publicidad.
¿Necesitas PR y comunicación AI-friendly?
Deep Marketing acompaña a marcas y empresas en el diseño de estrategias de comunicación que integran la IA sin perder confianza: disclosure estructurada, framing human+AI, gestión de crisis reputacionales ligadas a contenidos generativos, compliance EU AI Act. Solicita una consultoría o descubre nuestro servicio de oficina de prensa y gestión de eventos.
Preguntas Frecuentes (FAQ)
¿Los consumidores quieren saber si un producto está hecho con IA?
Sí, la mayoría quiere saberlo, pero no quiere que la IA sea el claim principal. Pew Research 2025 documenta que más del 70% de los adultos EE.UU. considera importante ser informado cuando una empresa usa IA en sus productos o servicios; al mismo tiempo, Edelman muestra que la confianza se desploma cuando la IA se comunica como creador autónomo. La solución es disclosure estructurada: información disponible y clara para quien la busca, sin transformar la IA en protagonista del posicionamiento comercial.
¿Por qué los productos IA-made venden menos?
Por tres mecanismos combinados: menor autenticidad percibida (menos esfuerzo humano = menos valor), miedo social por el impacto de la IA en el trabajo y uncanny valley estético que reduce la distintividad percibida de los assets creativos. Los efectos se suman en las categorías identitarias (moda, beauty, food, lujo) y se atenúan en las categorías utilitarias y B2B, donde la IA se lee como competencia técnica positiva.
¿Cómo comunicar el uso de IA en los productos?
Tres reglas operativas: usar siempre un sujeto humano en la frase ("el equipo ha usado la IA para" en lugar de "creado por IA"), explicitar el control humano sobre el proceso (human-in-the-loop) y estructurar la disclosure en secciones dedicadas (página "cómo trabajamos", FAQ, documentación técnica) en lugar de hacer de ello el claim principal de campaña. Acompañar con prueba social (reseñas, certificaciones, case studies) para compensar el sesgo de aversión.
EU AI Act: ¿qué debo comunicar?
Según el Art. 50 del Reglamento UE 2024/1689, hay que informar a los usuarios cuando interactúan con un sistema IA (chatbot, asistentes virtuales) y etiquetar los contenidos sintéticos deepfake audio/vídeo. Los textos generados por IA sobre temas de interés público deben etiquetarse salvo revisión editorial humana documentada. Desde febrero 2025 se prohíben además las prácticas de manipulación subliminal y explotación de vulnerabilidades vía IA. Las sanciones llegan hasta el 7% de la facturación global por las infracciones más graves.
¿Es obligatoria la disclosure IA en marketing?
Parcialmente. En UE, la AI Act requiere disclosure para chatbots, deepfakes y contenidos sintéticos de interés público sin revisión humana. Fuera de estos casos, no existe hoy una obligación general de etiquetar cada asset de marketing que haya usado IA. Sin embargo, la dirección regulatoria global es clara: FTC en EE.UU., códigos deontológicos publicitarios (IAP en Italia, ASA en UK) y directrices sectoriales están convergiendo hacia una disclosure proactiva como buena práctica, en protección del consumidor y de la propia marca.
¿"AI-free" es un posicionamiento sostenible?
Sí, en las categorías identitarias y premium, como demuestra la campaña Dove "The Code" y las marcas artesanales de moda y food. Requiere sin embargo verificabilidad real: un claim AI-free desmentido por investigaciones de terceros genera crisis reputacionales severas. El posicionamiento es menos adecuado para categorías donde la eficiencia productiva y la optimización técnica son parte del valor percibido (software, logística, servicios financieros).
Fuentes y Referencias
- Edelman Trust Barometer 2025 — Trust and the AI revolution
- Pew Research Center (2025) — How the US Public and AI Experts View Artificial Intelligence
- Kantar BrandZ — Global Brand Valuation and AI Perception reports
- EU AI Act — Reglamento (UE) 2024/1689 (EUR-Lex, texto oficial)
- Harvard Business Review — Customers Don't Want AI to Create Their Products (research insight)
- Yang, H. & Tian, Y. (2025) — AI aversion in product design, Journal of Retailing and Consumer Services
- Cicek, M., Gursoy, D. & Lu, L. (2024) — AI mentions in product descriptions, Journal of Hospitality Marketing & Management
- European Commission — Regulatory framework proposal on AI (applicability timeline)