Il secondo draft: cosa è successo il 5 marzo 2026
Il 5 marzo 2026 la Commissione Europea ha pubblicato il secondo draft del Code of Practice sull’etichettatura e la marcatura dei contenuti generati con l’intelligenza artificiale.
Non è una bozza accademica: è il documento che definirà come le aziende dovranno marcare testi, immagini, audio e video prodotti con AI generativa. La versione finale arriva a giugno 2026. L’obbligo scatta il 2 agosto 2026.
Cosa dice l’AI Act (articolo 50)
L’articolo 50 dell’AI Act impone due obblighi distinti:
Per i provider di sistemi AI generativi (articolo 50, comma 2):
- I contenuti generati devono essere marcati in modo leggibile dalle macchine
- Servono watermark, metadati protetti e, opzionalmente, fingerprinting
- Il sistema deve essere progettato per includere la marcatura by default
Per chi usa (deployer) sistemi AI generativi (articolo 50, comma 4):
- I deepfake (audio, video, immagini che simulano persone reali) devono essere etichettati in modo visibile
- I testi generati con AI su questioni di interesse pubblico devono avere un’etichetta chiara
Il Code of Practice: i dettagli tecnici
Il Code of Practice traduce questi obblighi in specifiche tecniche. Due sezioni principali:
Sezione 1 — Per i provider (chi sviluppa strumenti AI)
Un approccio a due livelli di marcatura:
| Livello | Cosa | Come |
|---|---|---|
| Metadati protetti | Informazioni sulla generazione AI incorporate nel file | Standard aperti, metadati non rimovibili |
| Watermark | Segnale invisibile nel contenuto stesso | Resistente a manipolazione, verificabile |
In aggiunta: logging delle generazioni, protocolli di verifica, e la proposta di un’icona EU standardizzata per l’etichettatura uniforme in tutta l’Unione.
Sezione 2 — Per i deployer (chi usa strumenti AI per produrre contenuti)
| Tipo di contenuto | Obbligo |
|---|---|
| Deepfake (video, audio, immagini di persone) | Etichetta visibile obbligatoria |
| Testi AI su questioni di interesse pubblico | Disclaimer chiaro |
| Opere artistiche, creative, satiriche, di finzione | Regime semplificato |
| Contenuti sotto controllo editoriale umano | Regime semplificato |
Le date da segnare
| Data | Evento |
|---|---|
| 5 marzo 2026 | Pubblicazione secondo draft |
| 30 marzo 2026 | Deadline per i feedback |
| Giugno 2026 | Versione finale del Code of Practice |
| 2 agosto 2026 | Entrata in vigore degli obblighi art. 50 AI Act |
Cosa significa concretamente per le aziende
Se produci contenuti con AI generativa
A partire dal 2 agosto 2026, se la tua azienda usa ChatGPT, Claude, Midjourney o qualsiasi strumento AI per produrre contenuti pubblicati esternamente, devi valutare se rientri negli obblighi:
- Testi per il sito web, blog, comunicati stampa → se toccano questioni di interesse pubblico, servono disclaimer
- Immagini generate con AI per marketing → devono contenere watermark e metadati
- Video o audio sintetici → etichettatura obbligatoria, specialmente se mostrano persone reali
- Documenti interni → non rientrano nell’obbligo
Se sviluppi strumenti AI
Se la tua azienda sviluppa software che genera contenuti (testi, immagini, codice), devi implementare:
- Watermarking automatico dei contenuti generati
- Metadati protetti incorporati nei file
- Meccanismi di logging
- Supporto per la verifica
L’esenzione per il controllo editoriale
Un punto importante: i contenuti prodotti con AI ma sotto controllo editoriale umano hanno un regime semplificato. Questo significa che se un redattore rivede e approva un testo generato con AI, l’obbligo è meno stringente — ma non assente.
Il problema della privacy nei contenuti AI
C’è un aspetto che molte aziende sottovalutano: per produrre contenuti con ChatGPT o altri strumenti cloud, invii dati aziendali ai server del provider. Briefing, strategie, dati di mercato, informazioni sui clienti — tutto transita su server esterni.
Con soluzioni AI on-premise come ORCA di HT-X, i contenuti vengono generati nell’infrastruttura aziendale. Nessun dato esce. E la marcatura può essere implementata direttamente nel workflow interno, con pieno controllo su metadati e watermark.
Come prepararsi
- Inventario: identifica tutti i processi aziendali che usano AI generativa per produrre contenuti esterni
- Classificazione: determina quali contenuti rientrano negli obblighi (interesse pubblico, deepfake, immagini sintetiche)
- Strumenti: verifica che i tool AI in uso supportino watermarking e metadati (o pianifica la migrazione a tool conformi)
- Policy interna: definisci una policy aziendale sull’uso dell’AI per la produzione di contenuti
- Formazione: assicurati che chi produce contenuti conosca gli obblighi
La deadline è il 2 agosto 2026. Cinque mesi non sono molti per adeguare processi e strumenti.
Domande frequenti
Dipende dal contesto. Se la tua azienda pubblica testi generati con AI su questioni di interesse pubblico (comunicati stampa, report, contenuti editoriali), dal 2 agosto 2026 dovranno essere etichettati secondo l'articolo 50(4) dell'AI Act. Contenuti interni, email e documenti di lavoro non rientrano nell'obbligo. Immagini, audio e video generati con AI richiedono sempre watermark e metadati.
È un codice di condotta volontario sviluppato dalla Commissione Europea con esperti indipendenti per facilitare la conformità all'articolo 50 dell'AI Act. Definisce gli standard tecnici per marcare i contenuti generati con AI: watermark, metadati protetti, icone visibili e protocolli di verifica. La versione finale è attesa per giugno 2026, con applicazione dal 2 agosto 2026.
L'AI Act prevede sanzioni fino a 15 milioni di euro o il 3% del fatturato globale annuo per le violazioni degli obblighi di trasparenza (articolo 50). Il Code of Practice è volontario, ma aderirvi dimostra conformità e riduce il rischio sanzionatorio. Chi non aderisce dovrà comunque rispettare gli obblighi dell'AI Act con mezzi propri.
Cerchi un ChatGPT privato per la tua azienda?
ORCA è la piattaforma AI on-premise di HT-X (Human Technology eXcellence): i tuoi dati restano tuoi, conforme GDPR e AI Act.
Scopri ORCA