# Governo dell’Intelligenza Artificiale (AI) nelle Imprese: Le Normative Italiane e Europee
In Italia, l’adozione aziendale dell’AI e degli agenti AI ha raddoppiato in un anno, con una crescita accompagnata da normative italiane mirate. Questa notevole accelerazione è stata evidenziata da Giorgio Spina, CEO di Execus, nel suo intervento.
Il 16,4% delle imprese italiane con almeno 10 addetti oggi dichiara l’utilizzo di almeno una tecnologia di intelligenza artificiale, una cifra che era dell’8,2% nel 2024 e del 5% nel 2023. Gli agenti AI sono all’avanguardia della trasformazione dell’intelligenza artificiale applicata alle imprese, poiché in contrario ai modelli generativi tradizionali, posseggono l’abilità di perseguire obiettivi complessi in autonomia.
Il loro sviluppo “vorticoso” si sta trovando nelle funzioni commerciali e del rapporto con il cliente. Gli agenti AI sono utilizzati per creare interfacce operative che incidono direttamente su conversioni, fidelizzazione e qualità del servizio, come ad esempio avatar conversazionali integrati nei siti aziendali e negli e-commerce, assistenti virtuali capaci di rispondere a domande tecniche mantenendo coerenza di tono e qualità, o ancora sistemi che attivano contatti proattivi per ricordare scadenze, proporre servizi o accompagnare il cliente lungo il ciclo di acquisto.
Le loro capacità decisionali e l’impatto diretto sui risultati rendono necessario inquadrarli all’interno di regolamentazioni precise. La Banca Centrale Europea ha rilevato come la crescita della produttività del lavoro nell’area euro nel 2025 sia stata superiore alle attese, ed è stato stimato l’incremento dei ricavi nelle funzioni commerciali e strategiche, e le riduzioni significative dei costi nell’ingegneria del software, nel manifatturiero e nell’IT.
Il Regolamento (UE) 2024/1689, noto come il cosiddetto AI Act, è entrato in vigore a partire dal 1° agosto 2024. È il primo quadro giuridico uniforme al mondo in materia di intelligenza artificiale e classifica i sistemi di AI per livello di rischio stabilendo obblighi proporzionali. Vieta categoricamente le pratiche incompatibili con i valori democratici, come i sistemi di social scoring o le tecniche subliminali di manipolazione. Impone requisiti stringenti in termini di trasparenza, qualità dei dati e supervisione umana per i sistemi ad ‘alto rischio’ impiegati in settori critici: infrastrutture, istruzione, giustizia.
La Legge 23 settembre 2025, n. 132, entrata in vigore il 10 ottobre 2025, costruisce il primo quadro normativo nazionale organico dedicato all’AI in Italia. Non si sovrappone all’AI Act: lo integra. Riempiendo così gli spazi lasciati alla discrezionalità degli Stati membri e aggiungendo strumenti che il diritto europeo non poteva prevedere.
Le imprese devono prestare massima attenzione alle normative italiane ed europee perché molti agenti AI impiegati in contesti aziendali _ selezione del personale, valutazione delle performance, gestione delle decisioni operative _ ricadono in questa categoria ad alto rischio. La loro autonomia decisionale li espone ai requisiti più stringenti del regolamento, con implicazioni dirette e concrete sulle scelte di adozione e governance.
Le normative italiane ed europee vanno oltre la “semplice” burocrazia. Ad esempio, l’Articolo 11 dell’Legge 23 settembre 2025 introduce obblighi informativi precisi per le imprese che impiegano strumenti di intelligenza artificiale nei rapporti con i lavoratori. A tal proposito, il datore di lavoro è obbligato a informare preventivamente i dipendenti, secondo le modalità del D.Lgs. n. 152/1997. Gli stessi requisiti dell’AI Act – dalla qualità dei dati alla supervisione umana – presuppongono sistemi sicuri e affidabili.
Garantire la conformità significa quindi prevenire accessi impropri, attacchi, manipolazioni degli output o utilizzi distorti. È anche su questa integrazione tra diritto e cybersecurity che si giocherà, sempre più, la reale tenuta dei modelli di governance dell’intelligenza artificiale.