Art. 4 AI Act: l'obbligo di AI literacy e' gia' in vigore
Cosa prevede l'obbligo di AI literacy, chi riguarda, quali sanzioni rischia chi non si adegua e come adempiere entro la scadenza.
Caricamento...
Guida pratica al Regolamento UE 2024/1689 e alla Legge 132/2025 per studi professionali. Obblighi, scadenze e come prepararsi.
L'AI Act (Regolamento UE 2024/1689) impone obblighi concreti a tutti gli studi professionali che utilizzano intelligenza artificiale, anche solo ChatGPT per redigere pareri o analizzare bilanci. La Legge 132/2025 ha recepito il regolamento in Italia, designando AgID e ACN come autorita' competenti.
Se sei un commercialista, un consulente del lavoro o un avvocato, questa guida ti spiega cosa cambia, entro quando devi adeguarti e quali sono i passi concreti.
Molti professionisti pensano che l'AI Act sia rilevante solo per le big tech. Non e' cosi'. Il regolamento si applica a tre categorie di soggetti:
Il tuo studio, nel momento in cui utilizza ChatGPT, Microsoft Copilot, software di analisi predittiva dei bilanci o strumenti di automazione basati su AI, rientra nella categoria deployer. E come deployer, hai obblighi specifici.
| Data | Cosa entra in vigore |
|---|---|
| 2 febbraio 2025 | Divieto pratiche AI inaccettabili (Art. 5) |
| 2 agosto 2025 | Obbligo AI literacy (Art. 4) |
| 2 agosto 2026 | Obblighi per sistemi AI ad alto rischio |
| 2 agosto 2027 | Obblighi per sistemi AI integrati in prodotti regolamentati |
La scadenza piu' urgente per gli studi professionali e' agosto 2025: entro quella data, tutto il personale che utilizza AI deve avere una formazione adeguata sull'AI literacy.
L'Art. 4 richiede che chiunque utilizzi sistemi AI abbia un livello sufficiente di alfabetizzazione in materia di AI. Non si tratta di diventare esperti di machine learning, ma di comprendere:
Per gli studi professionali, questo significa organizzare sessioni formative per tutti i collaboratori che usano strumenti AI. Il nostro AI Literacy Workshop e' progettato specificamente per questo.
Se il tuo studio utilizza chatbot o sistemi che generano contenuti per i clienti, devi informare che stanno interagendo con un'AI. Questo vale anche per email automatizzate, report generati con AI o analisi predittive.
Per ogni output generato dall'AI che viene utilizzato in ambito professionale, deve esserci una revisione umana qualificata. Un parere fiscale redatto con l'aiuto di ChatGPT deve essere sempre verificato da un professionista abilitato.
Devi classificare ogni sistema AI in uso secondo le categorie di rischio dell'AI Act:
Per i sistemi AI ad alto rischio, devi mantenere un registro delle operazioni effettuate, inclusi input, output e decisioni prese sulla base dei risultati AI.
Passo 1: Inventario AI. Elenca tutti gli strumenti AI utilizzati nello studio: ChatGPT, Copilot, software gestionali con funzionalita' AI, tool di analisi. Per ognuno, identifica chi lo usa, per cosa e con quale frequenza.
Passo 2: Formazione. Organizza una sessione di AI literacy per tutto il team entro agosto 2025. Non serve un corso universitario: serve capire come funziona, i limiti e le best practice.
Passo 3: Governance framework. Definisci una policy interna sull'uso dell'AI: cosa si puo' fare, cosa no, chi approva, come si documentano le decisioni. Il nostro AI Governance Setup fornisce un framework completo.
Per capire a che punto e' il tuo studio, puoi iniziare con il nostro AI Readiness Assessment gratuito: in 5 minuti ottieni un quadro chiaro della tua maturita' AI e delle priorita' d'intervento.
La Legge 132/2025 recepisce l'AI Act in Italia e designa:
Introduce anche disposizioni specifiche per le professioni regolamentate e stabilisce il quadro sanzionatorio nazionale.
L'AI Act (Regolamento UE 2024/1689) e' la prima legge al mondo che regola l'intelligenza artificiale. E' stato pubblicato in Gazzetta Ufficiale UE il 12 luglio 2024. L'applicazione e' graduale: dal 2 febbraio 2025 per le pratiche vietate, dal 2 agosto 2025 per l'AI literacy (Art. 4), e dal 2 agosto 2026 per la maggior parte degli obblighi.
Si'. L'AI Act si applica a chiunque utilizzi sistemi di AI nell'UE, indipendentemente dalla dimensione. Se il tuo studio usa ChatGPT, copilot, software di analisi predittiva o qualsiasi altro strumento basato su AI, sei un 'deployer' ai sensi del regolamento e hai obblighi specifici.
Le sanzioni sono significative: fino a 35 milioni di euro o il 7% del fatturato globale per le violazioni piu' gravi (pratiche vietate), fino a 15 milioni o il 3% per violazioni degli obblighi degli operatori, fino a 7,5 milioni o l'1,5% per informazioni inesatte. Per le PMI le sanzioni sono proporzionate.
Tre passi immediati: (1) inventario di tutti gli strumenti AI in uso nello studio, (2) formazione AI literacy per tutto il personale entro agosto 2025, (3) valutazione del rischio per ogni sistema AI utilizzato. Per i sistemi ad alto rischio servono anche DPIA, audit trail e supervisione umana.
Ogni settimana: guide pratiche, novità normative e casi d'uso per studi professionali. Niente spam.
Cosa prevede l'obbligo di AI literacy, chi riguarda, quali sanzioni rischia chi non si adegua e come adempiere entro la scadenza.