N. 01 — Marzo 2026
IT EN DE
Il magazine europeo sull'AI privata
Normativa

Contenuti generati con l'AI: dal 2 agosto 2026 vanno etichettati. Cosa cambia per le aziende

La Commissione Europea ha pubblicato il secondo draft del Code of Practice sull'etichettatura dei contenuti AI. Dal 2 agosto 2026, watermark, metadati e icone diventano obbligatori. Ecco cosa devono fare le aziende che producono contenuti con l'AI.

AI ActCode of Practiceetichettatura AIdeepfakewatermarkCommissione Europea

Il secondo draft: cosa è successo il 5 marzo 2026

Il 5 marzo 2026 la Commissione Europea ha pubblicato il secondo draft del Code of Practice sull’etichettatura e la marcatura dei contenuti generati con l’intelligenza artificiale.

Non è una bozza accademica: è il documento che definirà come le aziende dovranno marcare testi, immagini, audio e video prodotti con AI generativa. La versione finale arriva a giugno 2026. L’obbligo scatta il 2 agosto 2026.

Cosa dice l’AI Act (articolo 50)

L’articolo 50 dell’AI Act impone due obblighi distinti:

Per i provider di sistemi AI generativi (articolo 50, comma 2):

  • I contenuti generati devono essere marcati in modo leggibile dalle macchine
  • Servono watermark, metadati protetti e, opzionalmente, fingerprinting
  • Il sistema deve essere progettato per includere la marcatura by default

Per chi usa (deployer) sistemi AI generativi (articolo 50, comma 4):

  • I deepfake (audio, video, immagini che simulano persone reali) devono essere etichettati in modo visibile
  • I testi generati con AI su questioni di interesse pubblico devono avere un’etichetta chiara

Il Code of Practice: i dettagli tecnici

Il Code of Practice traduce questi obblighi in specifiche tecniche. Due sezioni principali:

Sezione 1 — Per i provider (chi sviluppa strumenti AI)

Un approccio a due livelli di marcatura:

Livello Cosa Come
Metadati protetti Informazioni sulla generazione AI incorporate nel file Standard aperti, metadati non rimovibili
Watermark Segnale invisibile nel contenuto stesso Resistente a manipolazione, verificabile

In aggiunta: logging delle generazioni, protocolli di verifica, e la proposta di un’icona EU standardizzata per l’etichettatura uniforme in tutta l’Unione.

Sezione 2 — Per i deployer (chi usa strumenti AI per produrre contenuti)

Tipo di contenuto Obbligo
Deepfake (video, audio, immagini di persone) Etichetta visibile obbligatoria
Testi AI su questioni di interesse pubblico Disclaimer chiaro
Opere artistiche, creative, satiriche, di finzione Regime semplificato
Contenuti sotto controllo editoriale umano Regime semplificato

Le date da segnare

Data Evento
5 marzo 2026 Pubblicazione secondo draft
30 marzo 2026 Deadline per i feedback
Giugno 2026 Versione finale del Code of Practice
2 agosto 2026 Entrata in vigore degli obblighi art. 50 AI Act

Cosa significa concretamente per le aziende

Se produci contenuti con AI generativa

A partire dal 2 agosto 2026, se la tua azienda usa ChatGPT, Claude, Midjourney o qualsiasi strumento AI per produrre contenuti pubblicati esternamente, devi valutare se rientri negli obblighi:

  • Testi per il sito web, blog, comunicati stampa → se toccano questioni di interesse pubblico, servono disclaimer
  • Immagini generate con AI per marketing → devono contenere watermark e metadati
  • Video o audio sintetici → etichettatura obbligatoria, specialmente se mostrano persone reali
  • Documenti interni → non rientrano nell’obbligo

Se sviluppi strumenti AI

Se la tua azienda sviluppa software che genera contenuti (testi, immagini, codice), devi implementare:

  • Watermarking automatico dei contenuti generati
  • Metadati protetti incorporati nei file
  • Meccanismi di logging
  • Supporto per la verifica

L’esenzione per il controllo editoriale

Un punto importante: i contenuti prodotti con AI ma sotto controllo editoriale umano hanno un regime semplificato. Questo significa che se un redattore rivede e approva un testo generato con AI, l’obbligo è meno stringente — ma non assente.

Il problema della privacy nei contenuti AI

C’è un aspetto che molte aziende sottovalutano: per produrre contenuti con ChatGPT o altri strumenti cloud, invii dati aziendali ai server del provider. Briefing, strategie, dati di mercato, informazioni sui clienti — tutto transita su server esterni.

Con soluzioni AI on-premise come ORCA di HT-X, i contenuti vengono generati nell’infrastruttura aziendale. Nessun dato esce. E la marcatura può essere implementata direttamente nel workflow interno, con pieno controllo su metadati e watermark.

Come prepararsi

  1. Inventario: identifica tutti i processi aziendali che usano AI generativa per produrre contenuti esterni
  2. Classificazione: determina quali contenuti rientrano negli obblighi (interesse pubblico, deepfake, immagini sintetiche)
  3. Strumenti: verifica che i tool AI in uso supportino watermarking e metadati (o pianifica la migrazione a tool conformi)
  4. Policy interna: definisci una policy aziendale sull’uso dell’AI per la produzione di contenuti
  5. Formazione: assicurati che chi produce contenuti conosca gli obblighi

La deadline è il 2 agosto 2026. Cinque mesi non sono molti per adeguare processi e strumenti.

Domande frequenti

Dipende dal contesto. Se la tua azienda pubblica testi generati con AI su questioni di interesse pubblico (comunicati stampa, report, contenuti editoriali), dal 2 agosto 2026 dovranno essere etichettati secondo l'articolo 50(4) dell'AI Act. Contenuti interni, email e documenti di lavoro non rientrano nell'obbligo. Immagini, audio e video generati con AI richiedono sempre watermark e metadati.

È un codice di condotta volontario sviluppato dalla Commissione Europea con esperti indipendenti per facilitare la conformità all'articolo 50 dell'AI Act. Definisce gli standard tecnici per marcare i contenuti generati con AI: watermark, metadati protetti, icone visibili e protocolli di verifica. La versione finale è attesa per giugno 2026, con applicazione dal 2 agosto 2026.

L'AI Act prevede sanzioni fino a 15 milioni di euro o il 3% del fatturato globale annuo per le violazioni degli obblighi di trasparenza (articolo 50). Il Code of Practice è volontario, ma aderirvi dimostra conformità e riduce il rischio sanzionatorio. Chi non aderisce dovrà comunque rispettare gli obblighi dell'AI Act con mezzi propri.

Cerchi un ChatGPT privato per la tua azienda?

ORCA è la piattaforma AI on-premise di HT-X (Human Technology eXcellence): i tuoi dati restano tuoi, conforme GDPR e AI Act.

Scopri ORCA