10
ottobre 2025: l’Italia prova a mettere in riga l’Intelligenza Artificiale
Se n’è parlato tanto, se n’è parlato troppo di Intelligenza Artificiale. Con un ritmo martellante e un vocabolario fatto di promesse e di apocalissi, ogni giorno si annuncia un futuro che avanza e che, senza chiedere il permesso, pretende entrare nella quotidianità delle persone, ma anche di imprese, studi professionali e organizzazioni di ogni genere. Eppure, dopo tutto il rumore, qualcuno ha messo nero su bianco delle regole. Quel qualcuno è il legislatore italiano, che con la Legge 23 settembre 2025, n.132, ha inaugurato un nuovo capitolo della storia industriale, culturale e giuridica del Paese. Una legge che entrerà in vigore fra pochissimo, esattamente il 10 ottobre 2025, e che, a pochi giorni dall’impatto, lascia ancora aperte più domande che risposte.
Ma una cosa mi è sicura, da qui non si torna indietro!
Il testo, letto nella sua interezza, non è solo un compendio di definizioni, vincoli, divieti e linee guida, ma pretende essere, a mio parere, un atto di responsabilità normativa, un tentativo più o meno riuscito di restituire all’essere umano un ruolo attivo e consapevole nel rapporto con l’Intelligenza artificiale. Perché è inutile girarci attorno, l’IA è già ovunque: negli studi professionali, negli uffici pubblici, nelle microimprese e nelle multinazionali. C’è chi la usa per generare contenuti, chi per valutare CV, chi per gestire progetti e clienti; ma in questo uso diffuso e spesso disordinato si annida anche un rischio concreto, ossia quello di trasformare uno strumento potentissimo in un’arma di inefficienza, confusione, dati fake o peggio ancora, di disuguaglianza.
Tra gli aspetti che emergono in modo implicito nella nuova legge, vi è il riferimento al contesto europeo e in particolare alla cornice del Regolamento AI Act. Anche se il testo italiano non riprende formalmente la classificazione europea dei sistemi di intelligenza artificiale per livelli di rischio, il riferimento è chiaramente sottinteso nella premessa e nelle finalità della norma. È proprio questa connessione con il diritto comunitario che fa emergere, dal punto di vista organizzativo, una riflessione operativa sulle tecnologie utilizzate, sugli impatti che possono generare e sulle responsabilità connesse.
Ogni impresa, ogni studio, ogni datore di lavoro dovrà fare i conti con una nuova realtà e dovrà chiedersi: il mio software di CRM che integra IA generativa rientra tra i sistemi a rischio? E il sistema di screening dei candidati che abbiamo adottato, può essere considerato trasparente? E chi lo stabilisce e come lo dimostriamo?
Sono domande che dovrebbero iniziare ora a rimbalzare tra le scrivanie, soprattutto tra quelle di attività più piccole, dove non c’è un reparto legale o un team IT dedicato che può aiutare a dare una risposta. Perché, ed è qui uno dei nodi centrali della questione, questa legge non parla solo ai giganti tecnologici, ma a tutti e quindi anche ai professionisti e agli imprenditori. Chiunque usi un sistema di IA per prendere decisioni che coinvolgano persone, clienti, collaboratori o fornitori, è direttamente coinvolto.
Ma c’è di più: la legge introduce il principio del “controllo umano significativo”, ovvero la necessità che quando si usa un sistema di IA ci sia sempre una supervisione umana che sia in grado di comprenderne il funzionamento, valutarne gli effetti e, se necessario, intervenire. E qui si apre un altro scenario problematico: quanti, tra i titolari di studi e piccole imprese, sono davvero in grado di comprendere come funziona un algoritmo? E non solo: quanti hanno oggi le competenze per distinguere un output ragionevole da un errore sistemico generato dall’IA?
In questo senso, la legge non impone solo obblighi tecnici, ma impone una rivoluzione culturale, perché stabilisce che il vero nodo dell’innovazione non è nel codice, ma nella consapevolezza. L’articolo 11 della legge, per esempio, interviene direttamente sul modo in cui l’intelligenza artificiale può essere impiegata nell’ambiente di lavoro. Lo fa con parole nette, che meritano attenzione: non è ammesso alcun impiego che sia opaco, lesivo della dignità o della privacy individuale. Il datore di lavoro è infatti obbligato a informare i lavoratori sull’uso di sistemi di intelligenza artificiale, nei casi previsti dalla normativa vigente, con le modalità già specificate dal decreto legislativo 152 del 1997, ora integrate. Ma la novità non è solo formale: l’intelligenza artificiale deve diventare strumento di miglioramento delle condizioni lavorative, di tutela dell’integrità psicofisica, di crescita qualitativa e produttiva, non un mezzo di controllo mascherato o discriminazione algoritmica. La trasparenza e l’affidabilità diventano parametri obbligatori. È qui che si compie un passaggio epocale, un cambio di paradigma che non riguarda solo la compliance giuridica, ma impone un salto culturale profondo.
Ecco allora che ogni impresa o professionista che utilizza IA per lavorare dovrà integrare questa informativa nei propri Contratti di prestazione, nei mansionari dei propri collaboratori, nei processi di onboarding delle new entry; dovrà formare i dipendenti all’uso di questi strumenti e soprattutto dovrà formare sé stessa, perché è diventato obbligatorio comprendere, saper valutare e poter spiegare. E questa è una sfida enorme per un tessuto produttivo come quello italiano, fatto in larga scala di realtà con meno di 10 dipendenti, basicamente senza un reparto HR o IT e con procedure organizzative ancora molto “artigianali o fai da te”.
È quindi qui che si inserisce la parte più interessante del dibattito. Secondo diversi esperti giuridici, tra cui alcuni professori della Scuola Superiore Sant’Anna di Pisa e ricercatori del Politecnico di Milano, la legge ha il merito di avviare una transizione verso un uso più etico e responsabile dell’IA, ma rischia di restare inefficace e di diventare un onere per le imprese, se non accompagnata da un vero piano di formazione nazionale. In altre parole, non basta dire cosa si può e cosa non si può fare, bisogna anche insegnare come farlo.
E qui arriva un altro punto delicato: chi forma chi? con quali risorse? con quale linguaggio? Perché la maggior parte dei professionisti e imprenditori non ha oggi né il tempo né le competenze per decifrare i tecnicismi della legge e della tecnologia. Servirebbe un’opera di traduzione organizzativa, costruire percorsi di apprendimento interni alle imprese, che non siano un fronzolo da check-list GDPR, ma veri e propri processi di consapevolezza diffusa.
La legge nel suo complesso sembra ben strutturata ma come ogni normativa che tocca aspetti etici, sociali e tecnologici contemporaneamente, rischia di generare un cortocircuito tra ciò che è scritto e ciò che è realmente applicabile. In più, rischia di creare disparità tra le aziende strutturate, che possono permettersi consulenze e audit, e le realtà più piccole che navigano a vista e che da ora in poi rischiano sanzioni solo per non aver capito di essere soggette alla norma.
Uno degli aspetti più critici, secondo quanto emerso anche da alcune riflessioni pubblicate su riviste di settore come “Agenda Digitale” e “Nova24 Tech”, riguarda la definizione dei ruoli interni nelle organizzazioni. Chi è il responsabile dell’IA in azienda? Chi ha il compito di vigilare sul corretto uso degli strumenti? È il titolare o il responsabile IT o l’HR Manager? La legge, per ora, non lo dice con chiarezza ed è proprio questo uno dei punti su cui sarà necessario intervenire con linee guida attuative, altrimenti si rischia un gioco di scaricabarile dannoso.
C’è poi un altro fronte, meno visibile, ma altrettanto importante: l’effetto sulla cultura organizzativa. Quando si introduce un controllo sull’IA, si introduce anche una nuova postura nel modo di lavorare. Non è più possibile delegare alle macchine decisioni complesse senza domandarsi se lo stiamo facendo nel modo giusto, e questo, nei fatti, obbliga le aziende a rivedere processi, flussi, logiche di responsabilità, costringe a un salto di maturità e come ogni salto, può fare paura.
Molti titolari di micro e piccole imprese dovrebbero iniziare ora a prendere coscienza di ciò che comporta questa legge. Chissà alcuni si stanno già muovendo per aggiornare i propri contratti di collaborazione o stanno formando il personale o stanno evitando di adottare sistemi IA troppo sofisticati per non complicarsi la vita. Ma la verità è che il tempo per decidere è praticamente finito: dal 10 ottobre non si potrà più ignorare il tema.
Ed è proprio questo che dovrebbe farci riflettere: siamo realmente pronti? Le aziende sono pronte? Gli studi professionali che trattano dati sensibili ogni giorno lo sono? La digitalizzazione spinta che ha invaso ogni ambito della produttività è stata accompagnata da una riflessione etica e giuridica sufficiente o ci si è limitati ad “adottare” strumenti per moda o per comodità, senza domandarsi cosa ci fosse dietro?
Il rischio più grande non è l’IA in sé, ma l’illusione che basti installare un software per essere innovativi. Questa legge ci spinge chiaramente a capire che non è così, che innovare significa anche prendersi la responsabilità delle scelte, garantire trasparenza, rendere le decisioni spiegabili, umane e accessibili, in una parola etiche.
Infine, una nota importante: la legge impone agli studi e alle imprese che offrono servizi di informare i clienti qualora le loro richieste vengano trattate da sistemi di IA. Un obbligo di trasparenza che, se ben gestito, può diventare anche un’occasione per distinguersi sul mercato, e chi oggi sa raccontare non solo cosa fa, ma anche come lo fa, ha sempre un vantaggio competitivo.
Ma questa è solo una delle tante conseguenze. La verità è che, da ora in poi, ogni impresa italiana dovrà fare i conti con il proprio rapporto con l’intelligenza artificiale, dovrà valutare gli strumenti usati, aggiornare la documentazione legale, formare il personale, ripensare i processi, dovrà guardarsi dentro con attenzione.
Secondo me la vera sfida dell’IA non è tecnologica, ma culturale! È capire che ogni innovazione richiede consapevolezza, responsabilità, presenza e che le “macchine” possono fare molto, ma non possono e non devono sostituire il pensiero critico, l’empatia, il senso del limite, tutte cose che restano profondamente umane.
E allora la domanda da porsi è: siamo disposti ad affrontare questa transizione con coraggio, o preferiamo continuare a usare l’intelligenza artificiale come una scorciatoia inconsapevole?
Vuoi ricevere articoli come questo ogni mese?
Iscriviti alla mia newsletter su LinkedIn, già seguita da oltre 800 professionisti.