Home Servizi Casi Studio DeepCMS Recensioni Blog FAQ Contattaci English Español
Prodotti creati dall'AI: vendite in calo, come comunicarlo
Comunicazione

Prodotti creati dall'AI: vendite in calo, come comunicarlo

26 marzo 2026Aggiornato il 18 aprile 202610 min lettura

In sintesi: i consumatori 2026 diffidano apertamente dei prodotti comunicati come "creati dall'AI". L'Edelman Trust Barometer misura un gap di fiducia a doppia cifra tra chi vede l'AI come opportunità e chi come minaccia; Pew Research documenta che la maggioranza degli adulti è più preoccupata che entusiasta; Kantar BrandZ segnala un impatto negativo su awareness e preferenza quando il framing AI sostituisce quello umano. Trasparenza strutturata + posizionamento "human+AI" riducono il gap.

Nel 2026 comunicare che un prodotto è stato "creato dall'AI" non è più una scorciatoia di marketing innovation: è una scelta di posizionamento rischiosa, con impatti misurabili su vendite, trust e reputazione. I dati di Edelman, Pew Research e Kantar convergono verso lo stesso punto: i consumatori non rifiutano la tecnologia AI in sé, ma rifiutano il framing che rimuove l'umano dal processo creativo.

Questa guida sintetizza evidenze 2024-2026, casi concreti (Mattel Barbie, Coca-Cola Christmas, Dove "AI-free"), obblighi dell'EU AI Act e un framework operativo per scegliere tra disclosure totale, hiding o posizionamento ibrido. Per il rovescio della medaglia sull'originalità dei contenuti AI leggi anche content marketing AI: tutto uguale.

Mano umana e componente robotico collaborano nella produzione di un prodotto — metafora human+AI

I dati: AI-made = vendite e trust in calo

Le tre survey di riferimento 2025-26 convergono. L'Edelman Trust Barometer nell'edizione 2025 misura una fiducia nelle aziende che sviluppano AI ferma attorno al 52% globale, con i paesi sviluppati sotto al 40% e un gap di oltre 30 punti percentuali con i paesi emergenti. Pew Research nel report "How the US Public and AI Experts View AI" (aprile 2025) documenta che il 51% degli adulti statunitensi è più preoccupato che entusiasta, contro appena l'11% della direzione opposta; fra gli esperti AI la proporzione si ribalta.

Kantar, nella serie di studi BrandZ e Media Reactions, segnala che gli annunci generati interamente da AI registrano punteggi di qualità percepita e differenziazione di marca inferiori a quelli human-led, con un effetto particolarmente marcato nelle categorie ad alta componente emotiva (moda, food, beauty, lusso). Non è quindi una percezione di nicchia: è il baseline con cui parla oggi qualsiasi brand che dichiari "AI-made".

Perché i consumatori diffidano: autenticità, job loss, uncanny valley

Tre meccanismi psicologici spiegano l'effetto.

Autenticità percepita. Quando un prodotto è etichettato come creato dall'AI, i consumatori attribuiscono meno sforzo umano al processo. Meno sforzo significa meno autenticità, e meno autenticità significa minore disponibilità a pagare. Questa catena causale è documentata in studi pubblicati su British Food Journal e Journal of Retailing and Consumer Services ed è particolarmente rilevante in categorie dove l'artigianato è parte del valore.

Paura per il lavoro. Pew Research riporta che oltre il 60% degli adulti USA teme un impatto negativo dell'AI sull'occupazione nei prossimi vent'anni. Quando un brand mette in vetrina l'AI come "creatore", amplifica una paura sociale già presente: il consumatore non compra solo un prodotto, partecipa a un sistema che percepisce come ostile al proprio gruppo.

Uncanny valley narrativo. I contenuti AI-generated troppo perfetti, troppo uniformi o con micro-errori anatomici attivano un disagio estetico misurabile. Kantar nel 2025 ha mostrato che le immagini pubblicitarie AI-generated ottengono punteggi di "distinctiveness" inferiori del 20-30% rispetto alla fotografia tradizionale, anche quando il consumatore non identifica esplicitamente l'origine.

Casi studio 2024-26: Mattel, Coca-Cola, Dove

Mattel & Barbie AI. Nel 2025 Mattel ha annunciato una partnership con OpenAI per integrare AI nei prodotti Barbie. Il framing iniziale, centrato sulla tecnologia più che sul valore educativo per bambine e genitori, ha generato coverage mista e un'ondata di critiche su rischi privacy e perdita di "gioco umano". La comunicazione successiva ha riequilibrato il messaggio verso "AI come strumento sotto supervisione educativa".

Coca-Cola Christmas 2024. Lo spot natalizio realizzato con AI generativa ha diviso il pubblico: parte della stampa l'ha definito "soulless", consumatori hanno lamentato perdita di autenticità rispetto alla tradizione degli spot Coca-Cola. L'esposizione ha comunque generato brand awareness, ma a un costo reputazionale che Kantar stima in punti di "brand love" persi su target boomer e gen X.

Dove "The Code" (2024). In direzione opposta, Dove ha pubblicato una campagna con impegno esplicito a non usare mai immagini generate da AI per rappresentare la bellezza reale. La campagna ha rafforzato il posizionamento "Real Beauty" e ha ottenuto earned media significativo, dimostrando che "AI-free" è oggi una leva differenziante in categorie identitarie.

Disclose, hide o ibrido: confronto con impact sul trust

La decisione strategica si riduce a quattro scenari. Nessuno è universalmente migliore: la scelta dipende dalla categoria, dal target e dal contesto regolatorio.

Strategia Willingness to buy Trust impact Rischio reputazionale Fonte di riferimento
Disclose AI full Bassa in categorie identitarie, media in utility/B2B Negativo su autenticità, positivo su trasparenza Basso se coerente con brand tech Pew Research 2025
Hide AI involvement Alta finché non emerge Collasso se scoperto (breach of trust) Alto: multa EU AI Act + backlash EU AI Act Art. 50
Hybrid (human+AI) Superiore a solo umano in molti test Positivo se c'è controllo umano esplicito Basso Reith & Grohs 2025
AI-free claim Alta in categorie identitarie (beauty, food) Molto positivo, differenziante Basso se verificabile Dove "The Code" 2024

Come comunicare AI senza perdere trust

Dal punto di vista operativo, le aziende che stanno meglio navigando il tema adottano cinque pratiche convergenti.

1. L'AI è sempre lo strumento, mai il creatore. La costruzione linguistica conta. "Il nostro team ha utilizzato l'AI per ottimizzare X" produce reazioni radicalmente diverse da "creato dall'AI". La formula vincente mantiene sempre un soggetto umano come protagonista.

2. Human-in-the-loop esplicito. Non basta dire "abbiamo usato l'AI". Il consumatore deve percepire che un umano ha guidato, verificato e controllato. Per i prodotti sensibili (salute, finanza, contenuti editoriali) questo diventa requisito quasi regolatorio oltre che reputazionale.

3. Disclosure strutturata. Una pagina "come lavoriamo" o una sezione dedicata nelle FAQ che spiega quando e come l'AI viene usata costruisce trust senza trasformare l'AI nel claim principale. L'informazione è disponibile per chi la cerca, ma non domina la comunicazione commerciale.

4. Coerenza con il brand. Un brand tech-first (SaaS, fintech, martech) può permettersi un framing AI più prominente rispetto a un brand artigianale o identitario. La chiave è l'allineamento tra posizionamento storico e uso dichiarato dell'AI.

5. Riprova sociale come contrappeso. Quando per ragioni strategiche l'AI deve essere comunicata, accompagnarla sempre con recensioni, case study e dati di soddisfazione. La riprova sociale è una delle poche leve che può compensare il bias di avversione all'etichetta AI.

EU AI Act: obblighi di trasparenza dal 2025-26

L'EU AI Act (Regolamento 2024/1689), entrato in vigore il 1 agosto 2024, applica obblighi progressivi fino al 2027. Per il marketing e la comunicazione rilevano soprattutto tre articoli.

Art. 50: obbligo di informare gli utenti quando interagiscono con un sistema AI (es. chatbot) e di etichettare i contenuti sintetici audio, video e di testo che costituiscono deepfake. Per i testi generati da AI che informano il pubblico su questioni di interesse generale l'etichettatura è richiesta salvo revisione editoriale umana documentata.

Divieti (Art. 5), applicabili da febbraio 2025: bandite pratiche di manipolazione subliminale, sfruttamento di vulnerabilità, social scoring e alcune forme di categorizzazione biometrica. Campagne marketing che sfruttino vulnerabilità specifiche (età, disabilità, situazione socio-economica) tramite AI rientrano nei divieti.

Sistemi GPAI (General Purpose AI): dal 2 agosto 2025 obblighi per fornitori di modelli fondazione e, a cascata, obblighi di documentazione per chi li integra. Per i brand: chiedere al fornitore AI la documentazione di conformità prima di usarla in comunicazione commerciale.

Una strategia di disclosure ben progettata non è solo una scelta reputazionale: è un asset di compliance. Sul fronte della gestione delle crisi reputazionali connesse a uso improprio dell'AI, vedi crisis communication: 5 disastri 2025; per l'impatto dell'AI sulla pubblicità consulenziale vedi ChatGPT e la pubblicità.

Hai bisogno di PR e comunicazione AI-friendly?

Deep Marketing affianca brand e aziende nel progettare strategie di comunicazione che integrano l'AI senza perdere trust: disclosure strutturata, framing human+AI, gestione delle crisi reputazionali legate a contenuti generativi, compliance EU AI Act. Richiedi una consulenza oppure scopri il nostro servizio di ufficio stampa e gestione eventi.

Domande Frequenti

I consumatori vogliono sapere se un prodotto è fatto da AI?

Sì, la maggioranza vuole saperlo, ma non vuole che l'AI sia il claim principale. Pew Research 2025 documenta che oltre il 70% degli adulti USA considera importante essere informato quando un'azienda usa AI nei propri prodotti o servizi; allo stesso tempo, Edelman mostra che la fiducia crolla quando l'AI è comunicata come creatore autonomo. La soluzione è disclosure strutturata: informazione disponibile e chiara per chi la cerca, senza trasformare l'AI nel protagonista del posizionamento commerciale.

Perché i prodotti AI-made vendono meno?

Per tre meccanismi combinati: minore autenticità percepita (meno sforzo umano = meno valore), paura sociale per l'impatto AI sul lavoro e uncanny valley estetico che riduce la distintività percepita degli asset creativi. Gli effetti si sommano nelle categorie identitarie (moda, beauty, food, lusso) e si attenuano nelle categorie utilitarie e B2B, dove l'AI viene letta come competenza tecnica positiva.

Come comunicare l'uso di AI nei prodotti?

Tre regole operative: usare sempre un soggetto umano nella frase ("il team ha usato l'AI per" invece di "creato dall'AI"), esplicitare il controllo umano sul processo (human-in-the-loop) e strutturare la disclosure in sezioni dedicate (pagina "come lavoriamo", FAQ, documentazione tecnica) anziché farne il claim principale di campagna. Accompagnare con riprova sociale (recensioni, certificazioni, case study) per compensare il bias di avversione.

EU AI Act: cosa devo comunicare?

Secondo l'Art. 50 del Regolamento UE 2024/1689, bisogna informare gli utenti quando interagiscono con un sistema AI (chatbot, assistenti virtuali) ed etichettare i contenuti sintetici deepfake audio/video. I testi generati da AI su temi di interesse pubblico vanno etichettati salvo revisione editoriale umana documentata. Dal febbraio 2025 sono inoltre vietate pratiche di manipolazione subliminale e sfruttamento di vulnerabilità via AI. Le sanzioni arrivano fino al 7% del fatturato globale per le violazioni più gravi.

AI disclosure è obbligatoria nel marketing?

Parzialmente. In UE, l'AI Act richiede disclosure per chatbot, deepfake e contenuti sintetici di interesse pubblico senza revisione umana. Al di fuori di questi casi, non esiste oggi un obbligo generale di etichettare ogni asset di marketing che abbia usato AI. Tuttavia la direzione regolatoria globale è chiara: FTC negli USA, codici deontologici pubblicitari (IAP in Italia, ASA in UK) e linee guida settoriali stanno convergendo verso una disclosure proattiva come buona pratica, a tutela del consumatore e del brand stesso.

"AI-free" è un posizionamento sostenibile?

Sì, nelle categorie identitarie e premium, come dimostrato dalla campagna Dove "The Code" e da brand artigianali di moda e food. Richiede però verificabilità reale: un claim AI-free smentito da indagini terze genera crisi reputazionali severe. Il posizionamento è meno adatto a categorie dove l'efficienza produttiva e l'ottimizzazione tecnica sono parte del valore percepito (software, logistica, servizi finanziari).

Fonti e Riferimenti

Condividi

Pronto a crescere.

Parliamo del tuo progetto. Trasformeremo insieme i dati in risultati concreti per il tuo business.