XIX LEGISLATURA
Senato della Repubblica

N. 1146

DISEGNO DI LEGGE
presentato dal Presidente del Consiglio dei Ministri (MELONI) e dal Ministro della giustizia (NORDIO)

COMUNICATO ALLA PRESIDENZA IL 20 MAGGIO 2024
Disposizioni e delega al Governo in materia di intelligenza artificiale
 

Disegno di legge collegato alla manovra di finanza pubblica, ai sensi dell’articolo 126-bis del Regolamento
 

INDICE

Relazione
Relazione tecnica
Analisi tecnico-normativa
Disegno di legge

ONOREVOLI SENATORI. – Come ogni strumento umano, l’intelligenza artificiale presenta un lato oscuro che contiene semi di ogni specie, ma anche germi di ogni vita. Ed è, perciò, cruciale individuare criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie ed i rischi inevitabilmente legati al loro uso improprio, al loro sotto utilizzo o al loro impiego dannoso.
Il presente disegno di legge ha l’obiettivo di operare un bilanciamento tra opportunità e rischi, prevedendo norme di principio e disposizioni di settore che, da un lato, promuovano l’utilizzo delle nuove tecnologie per il miglioramento delle condizioni di vita dei cittadini e della coesione sociale e, dall’altro, forniscano soluzioni per la gestione del rischio fondate su una visione antropocentrica.
In quest’ottica, il disegno di legge che qui si illustra non si sovrappone all’emanando regolamento europeo sull’intelligenza artificiale («AI ACT», approvato lo scorso 13 marzo dal Parlamento europeo), ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno, tenuto conto che il regolamento è impostato su un'architettura di rischi connessi all’uso dell’intelligenza artificiale (IA) (inaccettabili, alti, limitati e minimi) per cui maggiore è il rischio, maggiori le responsabilità e i divieti per chi sviluppa o adopera sistemi di intelligenza artificiale.
Come per il regolamento, anche il presente disegno di legge ha l’obiettivo di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale sulla base dei possibili rischi e del livello d'impatto, promuovendo nel contempo l'innovazione per il benessere dei cittadini
1.
Lo schema di disegno di legge si compone di sei capi contenenti ventisei articoli.
Per agevolare la lettura del disegno di legge e coglierne la ratio, la presente relazione illustrativa è suddivisa per aree tematiche di intervento. Si compone di sei parti, corrispondenti alla suddivisione in capi, dedicate, rispettivamente, alla normativa di principio (parte prima), alle disposizioni di settore (parte seconda), alla governance, alle autorità nazionali e alle azioni di promozione (parte terza), alla tutela del diritto di autore (parte quarta), alle sanzioni penali (parte quinta) e alle disposizioni finanziarie (parte sesta).
 

PARTE PRIMA
NORME DI PRINCIPIO SULL’INTELLIGENZA ARTIFICIALE
CAPO I - PRINCIPI E FINALITÀ (artt. 1-6)

La finalità del presente disegno di legge è di porre al centro di ogni attività che riguardi lo sviluppo e l’utilizzo dei sistemi e dei modelli di intelligenza artificiale l’autodeterminazione umana.
Porre al centro dello sviluppo e della concreta applicazione dei sistemi e dei modelli di IA il rispetto della autonomia e del potere decisionale dell’uomo consente di adottare scelte consapevoli su come delegare le decisioni ai sistemi di IA. In tutto il ciclo di vita dei sistemi e dei modelli di IA occorre che sia l’essere umano a stabilire quali decisioni prendere e come realizzare un risultato vantaggioso per la società.
Consapevolezza, responsabilità e affidabilità quali espressione del diritto fondamentale della persona di autodeterminarsi, con coscienza e pensiero critico, in ogni ambito in cui è coinvolta dalle tecnologie digitali.
Di qui, la scelta di prevedere una serie di norme di principio collegate alle finalità e all’ambito di applicazione dell’intero disegno di legge e che si innestano, in modo differenziato, a seconda dei singoli settori, nelle diverse fasi del ciclo di vita dell’intelligenza artificiale, dalla ricerca fino all’adozione e al concreto utilizzo dei sistemi e dei modelli di intelligenza artificiale.
L’effettività di tale normativa di principio è sancita non solo dalla loro stessa enucleazione in fonte primaria ma dall’espressa previsione (art. 1, comma 2) secondo cui tutte le disposizioni del disegno di legge “devono essere interpretate e applicate conformemente al diritto dell’Unione europea"
2, in ossequio, peraltro, all’art. 117, comma 1, della Costituzione.
Le norme di principio sono contenute negli articoli da 1 a 6.

L’articolo 1 riguarda le “Finalità e ambito di applicazione’" del disegno di legge; con tale disposizione si chiarisce il duplice approccio che caratterizza il disegno di legge:
- da una parte, la promozione di un utilizzo corretto trasparente e responsabile dell’intelligenza artificiale, in una dimensione antropocentrica, per cogliere pienamente le enormi opportunità (art. 1, comma 1, secondo periodo);
- dall’altra, la necessaria vigilanza sui potenziali rischi economici e sociali e sull’impatto sui diritti fondamentali, con gli strumenti propri dell’ordinamento nazionale (art. 1, comma 1, terzo periodo).

L’articolo 2 contiene le “Definizioni” dei termini utilizzati all’interno del provvedimento (sistema di intelligenza artificiale, dati, modelli di intelligenza artificiale). Vengono utilizzate definizioni in linea con il diritto dell’Unione europea, contribuendo così al completo allineamento con il diritto dell’Unione. In particolare, per il “Sistema di intelligenza artificiale” viene utilizzata la definizione recata dal progetto di regolamento europeo approvato all’esito del trilogo e in attesa di promulgazione. Per quanto riguarda la definizione di dato, viene utilizzata la definizione del Data governance act (regolamento (UE) 2022/868 del Parlamento europeo e del Consiglio, del 30 maggio 2022).

L’articolo 3 detta “Principi generali” che sono i capisaldi di tutto il disegno di legge in quanto esplicano efficacia interpretativa ed applicativa per tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale e rappresentano il fondamento delle ulteriori disposizioni di dettaglio.
Tali principi fanno proprie, tra l’altro, le elaborazioni del “Gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale” istituito dalla Commissione europea nel giugno 2018 che definisce come principi radicati nei diritti fondamentali i seguenti: i) rispetto dell'autonomia umana, ii) prevenzione dei danni, iii) equità, iv) esplicabilità. Quest’ultimo termine, esplicabilità, diffuso nella letteratura specializzata sull’intelligenza artificiale, è un requisito fondamentale per la fiducia dei cittadini e degli utenti dei sistemi di IA: i processi e gli esiti degli stessi devono essere trasparenti, comunicabili e spiegabili all’utente. Il medesimo Gruppo indipendente ha individuato come “requisiti” dedotti dai quattro principi menzionati i seguenti: 1) Intervento e sorveglianza umani; 2) Robustezza tecnica e sicurezza; 3) Riservatezza e governance dei dati; 4) Trasparenza; 5) Diversità, non discriminazione ed equità; 6) Benessere sociale e ambientale; 7) Accountability.
La previsione dei “Principi generali” di cui all’art. 3 risponde almeno a tre interessi perseguiti con il disegno di legge, quali l’interesse al trattamento algoritmico equo e corretto, l’interesse alla protezione dei dati, l’interesse alla sostenibilità digitale.
L’interesse al trattamento algoritmico equo e corretto è realizzato stabilendosi che la ricerca, la sperimentazione, lo sviluppo, l’adozione e l’applicazione dei sistemi di intelligenza artificiale avvenga nel rispetto dei diritti fondamentali e delle libertà della persona quali riconosciute dall’ordinamento italiano e europeo, nonché nel rispetto dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità (art. 3, comma 1). Pertanto, la stessa norma garantisce l’accessibilità a tutti e inclusività massima, vietando qualsiasi forma di discriminazione (in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche, delle condizioni personali, sociali ed economiche). In quest’ottica, la norma assurge a principio il pieno accesso delle persone con disabilità ai sistemi di intelligenza artificiale e alle relative funzionalità o estensioni e promuove lo sviluppo, lo studio e la diffusione di sistemi di intelligenza artificiale che migliorano le condizioni di vita delle persone con disabilità (art. 3, comma 6).
L’interesse alla protezione dei dati è assicurato attraverso la previsione del fondamentale principio generale in base al quale lo sviluppo dei sistemi e dei modelli deve avvenire su dati e processi che rispettino il principio di proporzionalità, in relazione ai settori nei quali sono utilizzati, e per i quali deve essere garantita e vigilata la correttezza, la attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza del dato (art. 3, comma 2). La protezione dei dati riguarda anche la necessità del rispetto della cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale, anche grazie all’adozione di specifici controlli di sicurezza (art. 3, comma 5).
L’interesse alla c.d. sostenibilità digitale è assicurato stabilendosi in norma che lo sviluppo e la concreta applicazione dei sistemi e dei modelli di intelligenza artificiale devono avvenire nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità (art. 3, comma 3). A presidio della sostenibilità digitale essenziale è il principio di cui all’articolo 3, comma 4, in base al quale l’utilizzo dell’intelligenza artificiale non deve pregiudicare la vita democratica del Paese e delle istituzioni, in riferimento anche al metodo democratico con cui i cittadini devono concorrere a determinare la politica nazionale (art. 49 della Costituzione).
I principi generali di cui all’articolo 3, si innestano nei successivi articoli 4, 5 e 6 con riguardo ad ambiti particolarmente delicati e maggiormente esposti allo sviluppo dell’intelligenza artificiale.

In tale guisa, l’articolo 4 detta "Principi in materia di informazione e di riservatezza dei dati personali” stabilendo che l’utilizzo dei sistemi di IA nei mezzi di comunicazione avvenga senza pregiudizio ai principi di libertà e pluralismo, alla libertà di espressione e del diritto all’obiettività, completezza, imparzialità e lealtà dell’informazione. Inoltre, i commi 2, 3 e 4 applicano i principi in materia di riservatezza dei dati personali all’utilizzo dei sistemi di intelligenza artificiale, garantendo che il trattamento dei dati personali avvenga in conformità con il diritto dell’Unione europea e sia lecito, corretto, trasparente e compatibile con le finalità con le quali i dati sono raccolti. A questo fine, data anche la forte innovatività dei sistemi di IA, è previsto che il linguaggio con cui sono date comunicazioni in materia di trattamento di dati connesse a IA sia chiaro e semplice. Inoltre, il consenso al trattamento dei minori di anni 18 è valido solo per i maggiori di 14 anni che siano stati correttamente informati, analogamente a quanto previsto dalla disciplina nazionale in materia di privacy.

L’articolo 5 detta “Principi in materia di sviluppo economico” specificando le grandi opportunità che possono scaturire dall’introduzione di sistemi di IA con la promozione nei settori produttivi da parte dello Stato e delle pubbliche autorità, per migliorare la produttività e avviare nuove attività economiche per il benessere sociale. Viene posto come principio generale la concorrenza nel mercato dell’intelligenza artificiale, unita a innovatività ed equità. Si prevede, inoltre, che lo Stato faciliti le imprese e le comunità scientifiche nell’utilizzo e nella disponibilità di dati ad alta qualità. Sempre in un’ottica di promozione delle opportunità, si prevede che lo Stato e le altre pubbliche autorità indirizzino le piattaforme di e-procurement delle amministrazioni pubbliche di cui all'articolo 1, comma 2, del decreto legislativo 30 marzo 2001, n. 165 in modo che, nella scelta dei fornitori di sistemi e applicazioni di intelligenza artificiale generativa, vengano privilegiate quelle soluzioni che garantiscono la localizzazione ed elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli fondativi in grado di assicurare elevati standard in termini di trasparenza nel rispetto della normativa sulla concorrenza e del principio di non discriminazione.

L’articolo 6 detta “Disposizioni in materia di sicurezza e difesa nazionale”. Con tale norma si chiarisce che sono escluse dall’ambito di applicazione del provvedimento le attività svolte per scopi di sicurezza nazionale dagli organismi di cui alla legge n. 124 del 2007 (artt. 4, 6 e 7) quelle di cybersicurezza e di resilienza di cui all’articolo 1, comma 1, lettere a) e b), del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109 svolte dall’Agenzia per la cybersicurezza nazionale, limitatamente ad esigenze di tutela della sicurezza nazionale in ambito cibernetico, nonché quelle svolte per scopi di difesa e sicurezza nazionale dalle forze armate, prevedendo che l’applicazione delle disposizioni per la sicurezza nazionale siano disciplinate con apposito regolamento ai sensi dell’articolo 43 della legge n. 124 del 2007. Per i trattamenti di dati personali mediante l’utilizzo di sistemi di intelligenza artificiale effettuati dagli organismi di cui agli articoli 4, 6 e 7 della legge n. 124 del 2007 si applica quanto previsto dall’articolo 58, commi 1 e 3, del decreto legislativo 30 giugno 2003, n. 196. Per gli analoghi trattamenti svolti dall’Agenzia per la cybersicurezza nazionale si applicano le disposizioni di cui all’articolo 13 del decreto-legge n. 82 del 2021 (comma 2). Si prevede, infine, che con regolamento adottato ai sensi dell’articolo 43 della legge n. 124 del 2007 sono definite le modalità per attività effettuate dagli organismi di cui agli articoli 4, 6 e 7 della legge n. 124 del 2007, nonché alle medesime attività attinenti a sistemi di intelligenza artificiale, funzionali all’attività degli stessi organismi, nonché alle medesime attività svolte da altri soggetti pubblici e da soggetti privati esclusivamente per scopi di sicurezza nazionale. Analogamente, anche per l’Agenzia per la cybersicurezza nazionale si prevede l’emanazione di un regolamento adottato secondo le modalità di cui all’articolo 11, comma 4, del decreto-legge n. 82 del 2021.
 

PARTE SECONDA
CAPO II - DISPOSIZIONI DI SETTORE (artt. 7-16)

Settori strategici per lo sviluppo del Paese come la sanità, il lavoro, la giustizia, le professioni intellettuali, la disabilità, la pubblica amministrazione, sono oggetto di disposizioni specifiche proprio per garantire che in tali settori l’utilizzo dell’intelligenza artificiale sia praticato non solo per sfruttare tutte le opportunità legate alle nuove tecnologie, ma anche sulla base di criteri che assicurino la gestione e la soluzione dei rischi connessi allo svolgimento di tali attività strategiche.

Sanità e disabilità
L’articolo 7 (Uso dell’intelligenza artificiale in ambito sanitario e di disabilità) detta disposizioni che evidenziano l’importanza dell’utilizzo dell’intelligenza artificiale per il miglioramento del sistema sanitario e per la prevenzione delle malattie e che, nello stesso tempo, precisano che l’utilizzo dell’intelligenza artificiale non può in alcun modo selezionare con criteri discriminatori condizionando e restringendo l’accesso alle prestazioni sanitarie (commi 1 e 2). Prioritario, in ogni caso, è il diritto dell’interessato ad essere informato circa l’utilizzo di tali tecnologie (comma 3).
Al comma 4, si completano i principi in materia di disabilità introdotti all’articolo 3, comma 6, promuovendo la diffusione dei sistemi di IA finalizzati all’inclusione, per il miglioramento delle condizioni di vita e per l’accessibilità delle persone con disabilità.
Al comma 5, si prevede che l’utilizzo dei sistemi di IA in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi e cura e che, pertanto, devono lasciare impregiudicata la spettanza della decisione alla professione medica.
Al comma 6, si specifica quanto disposto in linea generale nell’articolo 3 e che cioè i sistemi di intelligenza artificiale utilizzati nell’ambito sanitario e i relativi dati impiegati devono essere affidabili e periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori.

L’articolo 8 (Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario) detta disposizioni a sostegno della ricerca medico scientifica pubblica e no profit (tipicamente, condotta dai centri di ricerca delle associazioni dei pazienti) che semplifica gli adempimenti relativi alla protezione dei dati personali in materia di consenso e informativa. In particolare, fermi restando i poteri del Garante per la protezione dei dati personali, rende possibile il trattamento di dati anche sanitari nell’interesse pubblico senza dover raccogliere il consenso per ogni tipo di ricerca che si dovesse decidere di attivare usando gli stessi dati già nella disponibilità degli scienziati. La norma non si applica alle attività imprenditoriali o comunque poste in essere con finalità lucrative che rimangono sottoposte al regime ordinario. La norma è di rilevante interesse per la ricerca scientifica in ambito sanitario. Nello specifico, (comma 1) prevede che i trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità terapeutica e farmacologica, in quanto necessari ai fini della realizzazione e dell’utilizzazione di banche dati e modelli di base, sono dichiarati di rilevante interesse pubblico (in attuazione dell'articolo 32 della Costituzione e nel rispetto di quanto previsto nell'articolo 9, paragrafo 1, lettera g), del regolamento (UE) 2016/679). Alla ritenuta rilevanza pubblica dell’interesse per finalità terapeutica e farmacologica, consegue sempre (comma 2), l’autorizzazione ex lege all’uso secondario dei dati personali privi degli elementi identificativi diretti anche appartenenti alle categorie indicate all’articolo 9 del regolamento (UE) 2016/679. La norma si rende necessaria per chiarire che la finalità di ricerca medico scientifica di pubblico interesse non richiede di replicare il consenso dell’interessato (ove richiesto) se cambia l’ambito della ricerca stessa. In altri termini, se è stato prestato un consenso al trattamento di dati per la ricerca di una cura di una determinata patologia, gli stessi dati devono poter essere utilizzati senza ulteriori adempimenti salva la comunicazione al Garante per la protezione dei dati personali.
Inoltre, anche per il trattamento secondario rimane fermo l'obbligo di informativa dell'interessato che può essere assolto tramite le modalità semplificate che il Garante per la protezione dei dati personali dovrà emanare ai sensi dell’articolo 13, comma 3, del decreto legislativo n. 196 del 2003. A ulteriore tutela dei pazienti e delle persone la norma prevede, altresì, che tali trattamenti di dati debbano essere oggetto di approvazione da parte dei comitati etici interessati e comunicati al Garante per la protezione dei dati personali insieme a precise informazioni sulle modalità e sulla sicurezza dei trattamenti (comma 3) e che rimangano fermi i poteri ispettivi, interdittivi e sanzionatori del Garante per la protezione dei dati personali (comma 4).

Sempre in ambito sanitario, l’articolo 9 (Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale) disciplina, fermo restando quanto previsto sull'attribuzione delle funzioni di notifica e vigilanza alle Autorità designate, l’utilizzo dei sistemi di intelligenza artificiale nel settore sanitario, tramite uno o più decreti del Ministro della salute, di concerto con l’Autorità politica delegata in materia di innovazione tecnologica e transizione digitale e con l'Autorità delegata per la sicurezza della Repubblica e sentita la Conferenza permanente per i rapporti tra lo Stato, le regioni e le province autonome di Trento e di Bolzano; prevede l’istituzione, ad opera dell’AGENAS, di una piattaforma di intelligenza artificiale per il supporto alle finalità di cura e, in particolare, per l'assistenza territoriale.

Lavoro
Le disposizioni del presente disegno di legge in materia di lavoro hanno la finalità sia di assicurare il vantaggio di una strategia di opportunità, consentendo di sfruttare il valore sociale delle tecnologie digitali, sia di fornire soluzioni basate sui diritti per la gestione del rischio, evitando ai lavoratori di subirne le conseguenze non volute e comunque dannose.

L’articolo 10 (Disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro) applica il principio antropocentrico all’utilizzo dell’IA nel mondo del lavoro, chiarendo che l’intelligenza artificiale può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea (comma 1). Ciò comporta che ogni utilizzo dell’intelligenza artificiale in ambito lavorativo debba essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali e che il datore di lavoro o il committente è tenuto a informare il lavoratore dell'utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152 (comma 2). Viene ribadito il principio di equità e non discriminazione di cui all’articolo 3, stabilendosi che l’utilizzo dei sistemi di IA per l’organizzazione o la gestione del rapporto di lavoro non può in nessun caso essere discriminatorio (comma 3).
Nel precipuo fine di consentire l’elaborazione strategica e monitorare l’impatto sul mercato del lavoro, l’articolo 11 (Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro) istituisce presso il Ministero del lavoro e delle politiche sociali un Osservatorio sull’adozione dei sistemi di IA. L’Osservatorio è presieduto dal Ministro del lavoro e delle politiche sociali o da un suo rappresentante; i componenti e le modalità di funzionamento e ulteriori compiti dell’osservatorio sono stabiliti con decreto del Ministro del lavoro e delle politiche sociali. Ai componenti dell’Osservatorio non spettano compensi, gettoni di presenza, rimborsi di spese o altri emolumenti comunque denominati

Peculiare rilievo, per la rilevanza che assume nell’economia e nel tessuto sociale italiano, è dato alle professioni intellettuali, la cui disciplina generale è contenuta nel codice civile al capo secondo “delle professioni intellettuali”, del titolo terzo “del lavoro autonomo”, del libro quinto “del lavoro”, del codice civile, dall’articolo 2229 all’articolo 223 8. Per esse, l’articolo 12 (Disposizioni in materia di professioni intellettuali) detta disposizioni di principio volte a preservare le professioni intellettuali da un utilizzo dell’intelligenza artificiale che ne snaturi la funzione (che consiste nel mettere a disposizione le proprie competenze e risorse intellettuali specifiche) e mini il rapporto di fiducia tra cliente e professionista. Pertanto, si stabilisce che nelle professioni intellettuali il pensiero critico umano debba sempre risultare prevalente rispetto all’uso degli strumenti di intelligenza artificiale che può riguardare solo le attività di supporto all’attività professionale. Per assicurare il rapporto fiduciario tra professionista e cliente si è stabilito, inoltre, che le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista debbano essere comunicate al cliente con linguaggio chiaro, semplice ed esaustivo.

Pubblica Amministrazione
È innegabile che l’uso dell’IA possa essere strumento che, se correttamente usato, è leva per lo sviluppo di un IA che renda effettivi i principi di buon andamento, imparzialità ed efficienza della pubblica amministrazione (art. 97 Cost.). L’articolo 13 regola l’utilizzo dell’IA nel settore dell’attività della pubblica amministrazione (Uso dell’intelligenza artificiale nella pubblica amministrazione) prevedendo, in primo luogo, la promozione dell’utilizzo dell’IA nella pubblica amministrazione per garantire il buon andamento e l’efficienza dell’attività amministrativa; inoltre, introduce la centralità del principio dell’autodeterminazione e della responsabilità umana, stabilendo che l’utilizzo in funzione strumentale all’attività provvedimentale non fa venire meno la responsabilità e il potere decisionale della persona. Si prevede che le pubbliche amministrazioni sono tenute a garantire autonomia decisionale responsabilità favorendo anche la formazione dei dipendenti pubblici. Infine, si ribadisce che le pubbliche amministrazioni provvedono agli adempimenti previsti dal presente articolo con le risorse finanziarie, umane e strumentali disponibili a legislazione vigente.

Attività giudiziaria
L’attività giudiziaria è, in generale, settore strategico assai delicato. Se da un lato è innegabile l’enorme potenziale dell’IA in termini di riduzione del carico lavoro degli uffici giudiziari e di velocità dei tempi della giustizia, d’altro canto enormi sono i rischi, a partire da quello di affidarsi ad una tecnologia priva di una coscienza critica, che è l’essenza del pensiero umano e, quindi, dell’argomentazione giuridica posta alla base della decisione che, per sua funzione, riguarda beni giuridici costituzionalmente rilevanti.
L’importanza dei temi connessi all’attività giudiziaria spiega perché, con il presente disegno di legge si è data centralità al valore umano stabilendo, all’articolo 14 {Uso dell’intelligenza artificiale nell’attività giudiziaria), che nell’amministrazione della giustizia l’utilizzo dell’IA è consentito esclusivamente per finalità strumentali e di supporto, ovvero per l’organizzazione e la semplificazione del lavoro giudiziario nonché per la ricerca giurisprudenziale e dottrinale.
Il comma 1 prevede che i sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario e per la ricerca giurisprudenziale e dottrinale. Viene demandato al Ministero della giustizia il compito di disciplinare l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari, mentre per le altre giurisdizioni si prevede che l’impiego è disciplinato in conformità ai rispettivi ordinamenti.
Il comma 2 contiene una norma di principio finalizzata a specificare espressamente che la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento è sempre riservata al magistrato.
Tale disciplina è in linea con il regolamento, approvato dal Parlamento europeo il 13 marzo 2024 e non ancora in vigore (AI ACT), ove sono stati classificati ad alto rischio i sistemi di IA destinati all'amministrazione della giustizia considerandosi il loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali nonché sul diritto a un ricorso effettivo e a un giusto processo.
La Commissione Europea per l’Efficienza della Giustizia (CEPEJ), ha elaborato la Carta etica per l’uso delfintelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata nel corso della sua 3 la Riunione plenaria (Strasburgo, 3-4 dicembre 2018), anch’essa in linea con la norma di principio prevista dal presente disegno di legge.
Considerata la peculiarità delle controversie che riguardano i sistemi di intelligenza artificiale e le competenze che riguardano gli accertamenti tecnici connessi alle controversie, l’articolo 15 (Modifiche al codice di procedura civile) introduce un modifica al codice di procedura civile, all’art. 9 comma secondo, prevedendo un’ipotesi di competenza esclusiva del tribunale civile le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale (si esclude la competenza del Giudice di pace in tali materie).

Cybersicurezza nazionale

Visione antropocentrica quali fattore di prevenzione e di eliminazione del rischio riguardano anche il rilevantissimo settore strategico della cybersicurezza. L’articolo 16 ( Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale) apporta modifiche all’articolo 7, comma 1, del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, aggiungendo, dopo la lettera m-ter), la lettera m-quater), al fine di stabilire che l’ACN promuove e sviluppa ogni iniziativa, anche di partenariato pubblico-privato, volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale.
 

PARTE TERZA
CAPO III - STRATEGIA NAZIONALE, AUTORITÀ’ NAZIONALI E AZIONI DI PROMOZIONE (artt. 17-22)

Dopo le norme di principio, il disegno di legge introduce una serie di norme (artt. 17-22) che disegnano la governance italiana e le azioni di promozione sull’intelligenza artificiale.
A tal fine, si regola la Strategia italiana sull’intelligenza artificiale, si istituiscono le Autorità Nazionali deputate alla promozione e allo sviluppo dell’IA, alla vigilanza, alla tutela della cybersicurezza, alla istituzione di spazi di sperimentazione (sand box); nel contempo si introducono disposizioni su specifiche azioni di promozione.
Nello stesso Capo, e per completare l’azione strategica e legislativa italiana, è prevista la delega al Governo sia per l’adeguamento della normativa nazionale al regolamento europeo sia per definire organicamente la disciplina penale in caso di uso illecito di sistemi di intelligenza artificiale, in parte già avviata dal Capo V, articolo 25 del presente disegno di legge.

Governance
L’articolo 17 (Strategia nazionale per l’intelligenza artificiale) introduce la Strategia nazionale per l’intelligenza artificiale, il documento che garantisce la collaborazione tra pubblico e privato, coordinando le azioni della PA in materia e le misure e gli incentivi economici rivolti allo sviluppo imprenditoriale ed industriale. La Strategia è predisposta e aggiornata dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri, ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione digitale (CITD). La stessa struttura provvede al coordinamento e al monitoraggio dell’attuazione della strategia, avvalendosi dell’Agenzia per l’Italia digitale, d’intesa, per gli aspetti di competenza, con l’Agenzia nazionale per la cybersicurezza nazionale sentito il Ministro delle imprese e del made in Italy. I risultati del monitoraggio vengono trasmessi annualmente alle Camere. Si apportano modifiche all’articolo 8, comma 3, primo periodo del decreto-legge 1° marzo 2021, n. 22, convertito, con modificazioni, dalla legge 22 aprile 2021, n. 55, al fine di aggiungere, tra i componenti del Comitato interministeriale per la transizione digitale, il Ministero dell’università e della ricerca (comma 4).

L’articolo 18 (Autorità nazionali per l’intelligenza artificiale) istituisce le Autorità nazionali per l’intelligenza artificiale, disponendo l’affidamento all’Agenzia per l’Italia digitale (AglD) e all’Agenzia per la cybersicurezza nazionale (ACN) del compito di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di AI come Autorità nazionali per l’intelligenza artificiale. In particolare, l’AglD è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale, di definire le procedure ed esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale (comma 1, lett. a). L’ACN, anche ai fini di assicurare la tutela per la cybersicurezza, è responsabile per la vigilanza, incluse le attività ispettive e sanzionatone, dei sistemi di intelligenza artificiale, e per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza (comma 1, lett. b). AglD e ACN, ciascuna per quanto di rispettiva competenza, assicurano l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea; nella realizzazione di tali spazi normativi, viene sentito il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale (comma 1, lett. c).
Le Autorità nazionali assicurano il coordinamento e la collaborazione con le altre pubbliche amministrazioni e autorità indipendenti, nonché ogni opportuno raccordo tra loro per l’esercizio delle funzioni di cui al presente articolo. Ai componenti del Comitato di coordinamento, all’uopo costituito, composto dai direttori generali delle due Agenzie e dal Capo del Dipartimento per la trasformazione digitale della stessa Presidenza del Consiglio dei ministri non spettano compensi, gettoni di presenza, rimborsi di spese o altri emolumenti comunque denominati (comma 2).
I compiti delle Autorità nazionali non fanno venire meno le competenze, i compiti, i poteri e l’indipendenza del Garante per la protezione dei dati personali istituita dalla legge.

Azioni di promozione
L’articolo 19 (Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale) autorizza la spesa di 300.000 euro annui per ciascuno degli anni 2025 e 2026 per la realizzazione di progetti sperimentali volti all’applicazione dell’intelligenza artificiale ai servizi forniti a cittadini e a imprese dal Ministero degli affari esteri e della cooperazione internazionale. Tra gli ambiti di competenza del predetto dicastero risultano particolarmente adatti all’applicazione sperimentale dell’intelligenza artificiale quelli dell’erogazione dei servizi a favore di cittadini e imprese all’estero, come i servizi consolari, le attività di promozione internazionale delle imprese italiane, la messa a disposizione di scenari predittivi delle condizioni politiche, economiche e di sicurezza, nonché la fornitura di informazioni personalizzate all’utenza.

L’articolo 20 (Misure di sostegno ai giovani e allo sport) prevede che rientri tra i requisiti per beneficiare del regime agevolativo a favore dei lavoratori rimpatriati l’aver svolto un’attività di ricerca anche applicata nell’ambito delle tecnologie di intelligenza artificiale (comma 1). Tale misura agevolativa ha la finalità di incentivare il rientro in Italia dei giovani che lavorano all’estero sulla ricerca anche applicata delle tecnologie che riguardano i sistemi di intelligenza artificiale, favorendo così l’implementazione del capitale umano italiano per lo sviluppo sociale, culturale ed economico del Paese.
Sempre per favorire la formazione dei giovani in tali tecnologie, la norma prevede nel piano didattico personalizzato (PDP) dell’istituzione scolastica secondaria di secondo grado adottato per le studentesse e gli studenti ad alto potenziale cognitivo possano essere inserite attività volte alla acquisizione di ulteriori competenze attraverso esperienze di apprendimento presso le istituzioni della formazione superiore, in coerenza con il profilo in uscita dell’indirizzo di studio (comma 2).
Infine, sono inserite misure di sostegno per lo sport. L’intelligenza artificiale ha un’indubbia capacità di migliorare la consapevolezza e le conoscenze, indispensabili per agevolare l’accesso allo sport per le persone con disabilità, nonché l’organizzazione delle relative attività sportive, per tutti. Pertanto, la misura consente l’accesso ai sistemi di intelligenza artificiale per il benessere psico-fisico attraverso l’attività sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo delle persone con disabilità e per l’organizzazione delle attività sportive (comma 3).

L’articolo 21 (Investimenti nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico) dispone ingenti investimenti nei settori cruciali delle tecnologie digitali ovvero nei settori di intelligenza artificiale, della cybersicurezza e del calcolo quantistico (quantum computing).
Il comma 1 prevede investimenti, per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico, delle telecomunicazioni e delle tecnologie per queste abilitanti, al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese, aventi sede legale e operativa in Italia, operanti in tali settori.
La mobilizzazione degli investimenti avviene sulla base di una strategia che si fonda su tre pilastri: la creazione di poli di trasferimento tecnologico specializzati in intelligenza artificiale, cybersicurezza e quantum computing; in vestimenti in startup in diverse fasi di vita (early e late stage); iniziative relative alla creazione e allo sviluppo di campioni nazionali.
I poli tecnologici nazionali (tech transfer) costituiscono dei veicoli che federano realtà accademiche, partner tecnici e co-investitori, con l’obiettivo di investire nelle imprese operanti nelle tecnologie dell’intelligenza artificiale, della cybersicurezza, del quantum computing e delle tecnologie per queste abilitanti, contribuendo a supportare la creazione di nuove realtà nel settore dell’intelligenza artificiale a partire dalla ricerca. Gli investimenti si incentrano su poli verticali specializzati, accompagnati da investimenti in fondi venture capitai dedicati.
Il secondo pilastro prevede in vestimenti diretti in startup in fase di avvio dell’attività (early stage) e in fase avanzata (late stage), attraverso tre diverse modalità: coordinamento con fondi settoriali che si concentrano su specifici settori o industrie al fine di rafforzare le applicazioni verticali degli investimenti; investimenti autonomi in startup che operano in un ambito settoriale non ben definito o specifico; investimenti in fondi di venture capitai che focalizzano la propria attività di investimento su startup che operano in ambiti specifici.
Il terzo pilastro è finalizzato alla creazione e allo sviluppo di campioni nazionali o “unicorni” dell’intelligenza artificiale mediante l’implementazione di processi di supporto alla creazione di nuove startup, partendo dunque dalla ricerca, e l’individuazione di una o più startup già esistenti in cui investire per supportarle nei processi di crescita.
Il comma 2 specifica che tali investimenti sono effettuati mediante l’istituzione di uno o più fondi appositamente dedicati ai settori dell’intelligenza artificiale, della cybersicurezza e del quantum computing, nonché mediante coinvestimenti di altri fondi gestiti da CDP Venture Capital Sgr, da utilizzarsi secondo le modalità di investimento definite dal decreto del Ministro dello sviluppo economico del 27 giugno 2019, la cui normativa di attuazione è aggiornata, al fine di definire criteri e modalità di applicazione delle disposizioni di cui all’articolo in commento.
Il comma 3 dispone che, oltre al Ministero delle imprese e del made in Italy in qualità di investitore, partecipano con propri rappresentanti agli organi di governo dei fondi di venture capitai, in ragione delle proprie competenze, la struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale e l’Agenzia per la cybersicurezza nazionale.

Delega al Governo in materia di intelligenza artificiale
L’articolo 22 (Deleghe al Governo in materia di intelligenza artificiale) prevede, al comma 1, che il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, acquisito il parere delle competenti Commissioni parlamentari e del Garante per la protezione dei dati personali, uno o più decreti legislativi per l’adeguamento della normativa nazionale al regolamento europeo sull’intelligenza artificiale prevedendo, tra l’altro, la designazione delle autorità nazionali competenti (lettera a), di percorsi di formazione e alfabetizzazione per la corretta applicazione dei sistemi di intelligenza artificiale (lettera b), anche con specifico riferimento agli ordini professionali, nonché all’interno dei curricoli scolastici e universitari (lettere d), e) ed f).
Per gli ordini professionali la delega prevede, quali criteri direttivi specifici, la previsione, da parte degli ordini professionali, di percorsi di alfabetizzazione e formazione, per i professionisti e per gli operatori dello specifico settore, all’uso dei sistemi di intelligenza artificiale. Inoltre, la previsione della possibilità di un riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di intelligenza artificiale (comma 2, lettera c).
Il principio di delega di cui al comma 2, lettera d) prevede il potenziamento, all’interno dei curricoli scolastici, di competenze scientifiche, tecnologiche, ingegneristiche, artistiche e matematiche legate alle discipline STEM, al fine di promuovere la scelta da parte delle studentesse e degli studenti, anche attraverso mirate attività di orientamento personalizzato, di percorsi della formazione superiore relativi a tali discipline.
Il principio di delega di cui al comma 2, lettera e) intende accelerare il processo di accrescimento delle competenze in ambito tecnologico, anche con riferimento ai sistemi di intelligenza artificiale, nell’ottica di favorire l’inserimento nel mondo del lavoro dei laureati, diplomati AFAM e diplomati presso ITS Academy, attraverso un’opportuna integrazione dei rispettivi corsi con attività formative orientate alla comprensione tecnica, alla conoscenza dei profili etici e giuridici, ed alla corretta interpretazione degli output dei sistemi IA. La realizzazione di tale integrazione potrebbe essere utile anche per “formare” i “formatori”, tenuto conto che l’alfabetizzazione in materia di IA è un obiettivo fondamentale del quadro regolamentare europeo in fase di definizione (Proposta di regolamento sull’intelligenza artificiale COM(2021) 206 final, nel testo approvato dal Parlamento europeo del 13 marzo 2024, cfr. considerando n.20 e articolo 3, n. 1 e articolo 4). Si rimette ai decreti legislativi attuativi della delega la definizione puntuale delle attività formative, i cui moduli di apprendimento possono essere integrati nei corsi universitari non STEM e nei corsi AFAM, relativamente ai profili tecnologici (a titolo esemplificativo, fondamenti di logica proposizionale, pensiero computazionale, algebra, statistica, data Science, calcolo delle probabilità, programmazione), e nei corsi universitari STEM e in quelli offerti dagli ITS Academy, con riguardo ai principi etici ed alla disciplina giuridica applicabile ai sistemi di intelligenza artificiale, in particolare quelli ad alto rischio e a rischio sistemico.
I principi di delega di cui comma 2, lettera f) intendono valorizzare il contributo del sistema della formazione superiore e della ricerca in materia di intelligenza artificiale, attraverso strumenti di cooperazione con il mondo produttivo e le autorità nazionali e promuovendo il ruolo delle Università, degli enti pubblici di ricerca, delle istituzioni AFAM e degli Istituti tecnologici superiori (ITS Academy), al fine di consentire l’efficace conseguimento degli obiettivi e delle misure a sostegno dell’innovazione presenti nel capo VI del Regolamento UE sull’intelligenza artificiale in corso di definizione (Proposta di regolamento sull’intelligenza artificiale COM(2021) 206 final, nel testo approvato dal Parlamento europeo del 13 marzo 2024). In particolare con i principi di delega di cui al numero 1) si intende favorire l’utilizzo delle competenze di eccellenza e delle infrastrutture del sistema dell’istruzione superiore e della ricerca, che possono contribuire alla realizzazione di sistemi e modelli di intelligenza artificiale affidabile, tenuto conto dell’elevato livello di qualità in termini di accuratezza, robustezza e sicurezza che può essere offerta nella realizzazione degli spazi di sperimentazione normativa in collaborazione con il mondo produttivo. I principi di delega di cui al numero 2), nel quadro complesso di governance europea e nazionale, hanno lo scopo di valorizzare i percorsi formativi e di ricerca, nonché le infrastrutture e le competenze dei ricercatori del sistema pubblico, introducendo semplificazioni negli strumenti di collaborazione per il sostegno le Autorità nazionali nei complessi compiti loro affidati.
Il comma 1 specifica che i decreti legislativi attuativi sono adottati, secondo le procedure di cui all’articolo 31 della legge 24 dicembre 2012, n. 234, acquisito il parere delle Commissioni parlamentari competenti e del Garante per la protezione dei dati personali.

Delega in materia penale (articolo 22, commi 3 e ss.)
L’approccio all’intelligenza artificiale nella prospettiva del diritto penale muove dalla considerazione della neutralità dello strumento, che è suscettibile di impiego in ogni campo e con le proiezioni più disparate.
In questo senso, nel testo del regolamento recentemente approvato dal Parlamento europeo (c.d. legge sull’intelligenza artificiale
3) l’intelligenza artificiale è stata definita come "un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall'input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fìsici o virtuali".
Lo spettro delle applicazioni dell’intelligenza artificiale è tanto ampio da essere stato oggetto di un approfondito lavoro studio svolto dal Gruppo di Esperti ad alto livello sull’intelligenza artificiale nominato dalla Commissione europea, che ha preceduto l’adozione del citato regolamento, ed è tuttora oggetto di approfondimento in sede politica, come emerge dalle indagini conoscitive svolte in Parlamento italiano sull’impatto dell’intelligenza artificiale nei diversi settori (mondo del lavoro, giustizia, etc.) e sulle sue possibilità di utilizzo
4.
Il disegno di legge, dunque, cercando di contemperare la promozione dell’intelligenza artificiale con un elevato livello di protezione dei diritti fondamentali, sviluppa un approccio alla criminalizzazione che è limitato alle condotte di maggior allarme, scongiurando così il rischio di una stigmatizzazione dello strumento in quanto tale, ed intervenendo esclusivamente sugli impieghi illeciti dei sistemi di intelligenza artificiale, ovvero quelli che determinano la lesione o messa in pericolo di beni giuridici anche costituzionalmente rilevanti.
L’intervento, in particolare, si sviluppa lungo due linee direttrici: la formulazione di principi e criteri di delega e l’introduzione di un limitato apparato di norme immediatamente precettive.
L’articolo 22 regola, ai commi 3 e seguenti, l’architettura della delega ed i principi e criteri direttivi tesi a orientare l’attività del legislatore delegato, chiamato a prevedere:
a. strumenti tesi ad inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, supportati da un adeguato sistema di sanzioni;
b. una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, nonché ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale e che non siano adeguatamente tutelabili mediante interventi su fattispecie già esistenti;
c. una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa al bene giuridico tutelato, includendovi i casi di offesa ai beni attinenti alla persona e allo Stato;
d. una revisione della normativa sostanziale e processuale vigente, anche a fini di razionalizzazione complessiva del sistema.
La delega realizza un intervento complementare a quello contenuto nell’articolo 25 del disegno di legge, che contempla invece l’introduzione di una fattispecie di reato, di una circostanza aggravante comune e di limitate circostanze aggravanti speciali ad effetto speciale per alcuni reati.
La proposta normativa al comma 3 contiene la delega al Governo ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite.
Il comma 4 reca indicazioni procedurali relative alle modalità di adozione dei provvedimenti normativi delegati, adottati su proposta della Presidenza del Consiglio dei ministri e del Ministro della giustizia e successivamente trasmessi alle Camere per il parere delle Commissioni parlamentari competenti. Si prevede che i decreti possano essere emanati anche in mancanza dei pareri se, decorsi sessanta giorni dalla data della trasmissione, questi non siano resi. Qualora detto termine venga a scadere nei trenta giorni antecedenti alla scadenza del termine previsto per l’esercizio della delega o successivamente, quest’ultimo è prorogato di sessanta giorni.
Al comma 5 sono elencati i principi e criteri direttivi relativi all’esercizio della delega. Il decreto o i decreti legislativi delegati dovranno contenere strumenti, anche cautelari, in ambito civile, amministrativo e penale, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, con correlata previsione di un sistema di sanzioni effettive, proporzionate e dissuasive; l’introduzione di una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, nonché ulteriori fattispecie di reato, punite esclusivamente a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale; l’introduzione di una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa al bene giuridico tutelato, inclusi i casi di offesa ai beni attinenti alla persona e allo Stato; la revisione, anche a fini di razionalizzazione complessiva del sistema, della normativa sostanziale e processuale vigente, in conformità ai principi e ai criteri enunciati nel comma esaminato.
 

PARTE QUARTA
CAPO IV - DISPOSIZIONI A TUTELA DEGLI UTENTI E IN MATERIA DI DIRITTO D’AUTORE (artt 23 - 24).

In considerazione del crescente utilizzo dei sistemi di intelligenza artificiale in settori che coinvolgono il riconoscimento da parte dell’utente di contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale, il Capo IV introduce procedure per consentire agli utenti di riconoscere i contenuti generati da IA (art. 23), nonché detta una disciplina ad hoc sul diritto di autore (art. 24).
L’articolo 23 (Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale) prevede una serie di misure, nell’ambito del “Testo unico per la fornitura di servizi di media audiovisivi” (d.lgs. n. 208/2021), volte a favorire l’identificazione e il riconoscimento dei sistemi di intelligenza artificiale nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici da parte dei fornitori dei relativi servizi, predisponendo le conseguenti misure di tutela. La norma prevede che “qualunque contenuto informativo” che sia diffuso, da fornitori di servizi audiovisivi e radiofonici, tramite qualsiasi piattaforma, in qualsiasi modalità incluso il video on demand e lo streaming e che sia stato completamente generato ovvero, anche parzialmente, modificato o alterato dai sistemi di intelligenza artificiale, in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, deve contenere un elemento o segno identificativo, anche in filigrana o marcatura incorporata con l’acronimo “IA” ovvero, nel caso di audio, attraverso annunci audio ovvero con tecnologie adatte a consentire il riconoscimento. Tale identificazione deve essere presente sia all’inizio della trasmissione e all’inizio del contenuto, sia alla fine della trasmissione e alla fine del contenuto, nonché ad ogni ripresa del programma a seguito di interruzione pubblicitaria.
Fanno eccezione a tale marchiatura l’opera o un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi.
Misure attuative saranno definite con specifico regolamento dell’AGCOM.
La disposizione modifica, per coerenza sistematica, l’articolo 42, comma 1, del Testo unico per la fornitura di servizi di media audiovisivi (d.lgs. n. 208/2201) aggiungendo dopo la lettera c) la lettera c-bis); l’articolo 42, comma 7, inserendo, dopo la lettera c) la lettera c-bis); l’articolo 67, comma 1, aggiungendo, dopo la lettera r) la lettera r-bis) ed infine al comma 2 lettera a), sostituendo le parole “e p” con le seguenti “, p e r-bis”.

L’articolo 24 (Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale) introduce una specifica disciplina, nell’ambito della legge sul diritto d’autore (legge n. 633/1941), per le opere create con l’ausilio di sistemi di intelligenza artificiale, assicurando l’identificazione delle opere e degli altri materiali il cui utilizzo non sia espressamente riservato dai titolari del diritto d’autore. La necessità dell’intervento normativo si spiega in considerazione del fatto che la crescente produzione di opere attraverso l'intelligenza artificiale (IA) generativa sta facendo emergere profili di violazione dei diritti di proprietà intellettuale. Ed infatti, i sistemi di IA per produrre output hanno bisogno di un continuo addestramento e, per farlo, devono continuamente acquisire ed elaborare una enorme mole di dati e contenuti che vengono, per la maggior parte, acquisiti dal web. Ciò spiega come i cd. training datasets contengano le creazioni di migliaia di autori che hanno reso il proprio lavoro accessibile al pubblico ma non per questo hanno rinunciato ai diritti su di esso.
L’articolo 24, pertanto, modifica l’articolo 1 della legge sul diritto di autore (legge 22 aprile 1941, n. 633), inserendo modifiche coerenti al caso di opere create con l’ausilio di algoritmi di intelligenza artificiale, che prevedono che sono protette dalla legge sul diritto di autore “le opere dell’ingegno umano di carattere creativo che appartengono alla letteratura, alla musica, alle arti figurative, all’architettura, al teatro ed alla cinematografia, qualunque ne sia il modo o la forma di espressione” specificandosi che trattasi di opere dell’ingegno “anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell'autore.”
Inoltre, si inserisce, dopo l’articolo 70-sexies, l’articolo 70-septies che dispone che la riproduzione e l’estrazione di opere o altri materiali attraverso modelli e sistemi di intelligenza artificiale, anche generativa, sono consentite in conformità con gli articoli 70-ter e 70-quater della legge sul diritto di autore come modificate dall’articolo 1, comma 1, lett. i), del decreto legislativo n. 177 del 2021.
 

PARTE QUINTA
CAPO V - DISPOSIZIONI PENALI (art. 25).

La disposizione, traducendo l’approccio integrato all’intelligenza artificiale proposto dal Governo nel settore penale, completa l’intervento intrapreso con la previsione di una delega legislativa all’articolo 22, introducendo, all’articolo 25, norme precettive riguardanti: 1) l’introduzione di una circostanza aggravante comune, 2) la previsione di una nuova fattispecie di reato, 3) l’inserimento nel codice penale e in alcune leggi di settore di circostanze speciali ad effetto speciale.
Con riguardo all’introduzione della circostanza aggravante comune (1), viene inserito all’articolo 61, primo comma, il numero 11-decies), che prevede un aumento della pena ove il fatto sia stato commesso mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato (lett. a).
L’aggravante è incentrata sull’insidiosità del mezzo e sulla sua capacità di mistificazione della realtà, in grado di impedire ogni forma di difesa, per le enormi potenzialità decettive connesse all’impiego dell’intelligenza generativa.
La nuova fattispecie incriminatrice (lett. d) ha trovato collocazione in un nuovo articolo del codice penale (6V2-quater), che punisce l’illecita diffusione di contenuti generati o manipolati artificialmente (2).
Il disegno di legge ambisce, in tal modo, ad offrire una tutela rafforzata della persona, incentrando l’offensività della condotta sul pregiudizio all’autodeterminazione ed al pieno svolgimento della personalità derivante dalla diffusione di immagini, video, voci falsificati o alterati mediante sistemi di intelligenza artificiale.
La collocazione sistematica, fra i delitti contro la persona e, segnatamente, contro la libertà morale, conferma l’obbiettivo di protezione prefigurato, il cui nucleo di offensività, si incentra sull’evento di danno, secondo una costruzione classica della fattispecie incriminatrice, aderente ai principi del diritto penale liberale.
La centralità del consenso, in uno alla previsione della procedibilità a querela, esprimono la cautela della proposta di legge rispetto al tema dell’utilizzo dei sistemi di intelligenza artificiale, non penalizzati in quanto tali, ma nella proiezione offensiva derivante da impieghi che pregiudicano la libertà di autodeterminazione della persona e la sua proiezione nel mondo reale.
Il delitto è punito con la reclusione da uno a cinque anni, salvi i casi di procedibilità d’ufficio ricorrenti ove fatto sia connesso con altro delitto per il quale si deve procedere d’ufficio ovvero nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate. In ultimo, sono state introdotte circostanze aggravanti speciali, ad effetto speciale, per alcuni reati nei quali è risultato evidente come l’utilizzo di sistemi di intelligenza artificiale abbia una straordinaria capacità di propagazione dell’offesa (3).
In particolare, l’aggravante, integrata dall’aver commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, è stata prevista per i seguenti reati:
- art. 294 c.p., Attentati contro i diritti politici del cittadino (lett. b);
- art. 494 c.p., Sostituzione di persona (lett. c);
- art. 501 c.p., Rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio (lett. d);
- art. 640 c.p. Truffa (lett. e);
- art. 640-ler, Frode informatica (lett. f);
- art. 64S-bis, Riciclaggio (lett. g);
- art. 648-fór, Impiego di denaro, beni o utilità di provenienza illecita (lett. h);
- art. 648-ter.l, Autoriciclaggio (lett. i);
- art. 2637 c.c., Aggiotaggio (comma 2);
- art. 171, comma 1, della legge 22 aprile 1941, n. 633, Protezione del diritto d'autore e di altri diritti connessi al suo esercizio (comma 3)
- art. 185 del decreto legislativo 24 febbraio 1998, n. 58, Manipolazione del mercato (comma 4).
 

PARTE SESTA
CAPO VI - DISPOSIZIONI FINANZIARIE (art. 26)
 

DISPOSIZIONI FINANZIARIE
L’articolo 26 (Clausola di invarianza finanziaria) prevede che dal presente disegno di legge non debbano derivare, ad esclusione dell’articolo 19, nuovi o maggiori oneri a carico della finanza pubblica e che le amministrazioni interessate provvedano ai relativi adempimenti con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.

____

1 L’Unione europea, tenuto conto della pervasività nel mercato della 1A generativa, ha proposto (o adottato) una serie di regolamenti che formano un vero e proprio “pacchetto”: il Digital Service Act (DSA) - Regolamento UE 2022/2065 che si concentra sulla regolamentazione delle piattaforme online, stabilendo regole chiare per garantire la sicurezza e la trasparenza delle attività online; il Digital Market Act (DMA) - Regolamento del 14 settembre 2022: stabilisce regole per prevenire comportamenti anticoncorrenziali da parte delle grandi piattaforme che svolgono un ruolo cruciale nei mercati digitali; il Digital Governance Act (DGA) Regolamento EU 2022/868 del 30 maggio 2022: riguarda promozione dell'utilizzo dei dati nel settore pubblico, l’interoperabilità dei dati tra enti pubblici e tra settore pubblico e privato e del loro riutilizzo; Data Act del 13 dicembre 2023 n. 2854/2023, che si propone di regolamentare il flusso di dati alfinterno dell’UE e tra questa e altri paesi. Inoltre, per quanto riguarda la materia della responsabilità e danni l’Unione Europea ha adottato, sin dal 2017, una serie di iniziative: Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica; in essa viene suggerito un sistema di assicurazione obbligatoria, accompagnato da un fondo di risarcimento, viene altresì proposta l’individuazione di una sorta di status giuridico dei robot avanzati nonché l'adozione di un codice etico per ingegneri e comitati di ricerca in robotica; la Risoluzione del Parlamento Europeo del 20 ottobre 2020 recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale (2020/2014)”, centrata sull’importanza di un quadro giuridico che tenga conto della sicurezza, affidabilità e coerenza dei prodotti e servizi tecnologici, inclusi quelli basati sull’IA, sottolineando la necessità di un approccio equilibrato che protegga le potenziali vittime dei danni ed allo stesso tempo non costituisca un freno per lo sviluppo delle nuove tecnologie; la Proposta di direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extracontrattuale all’intelligenza artificiale del 28/09/2022 - COM/2022/496 final che, nel perseguire l’obiettivo di alleggerire l’onere della prova in caso al danneggiato, introduce i principi della divulgazione degli elementi di prova e della presunzione del nesso di causalità in caso di colpa; l’AI Act - proposta di Regolamento recante norme armonizzate sull’intelligenza artificiale, che rappresenta il primo tentativo a livello globale di regolamentare questa tecnologia emergente. La normativa si caratterizza per essere risk-based, vale a dire che essa disciplina la materia con una classificazione dei sistemi di IA in base al livello di rischio associato al loro uso. Viene stabilita una distinzione tra sistemi a rischio "inaccettabile"(sistemi di IA che violano i diritti fondamentali o sono utilizzati in modi che sono considerati manipolativi o ingiusti, es. software di sorveglianza di massa o sistemi di IA che impiegano tecniche di social scoring da parte dei governi), "elevato" (vi rientrano sistemi di IA utilizzati in ambiti critici come la sanità, i trasporti, la giustizia e taluni aspetti del governo; tali sistemi devono soddisfare requisiti rigorosi in termini di trasparenza, explainability, sicurezza e supervisione), "limitato" (per questa categoria è enfatizzato il requisito della trasparenza e vi rientrano, ad esempio i chatbot, per i quali gli utenti dovrebbero essere informati che stanno interagendo con un sistema di IA) o "minimo”(IA utilizzate in giochi, o per creare playlist musicali personalizzate; software che automatizza compiti ripetitivi e di routine in contesti aziendali, come la gestione di fatture o la programmazione di appuntamenti; sistemi che analizzano grandi set di dati per identificare tendenze di mercato o preferenze dei consumatori, senza prendere decisioni automatiche che hanno un impatto significativo sugli individui).
Con PAI ACT, approvato dal Parlamento europeo lo scorso 13 marzo, pur lasciandosi invariata la base giuridica di cui all’art. 114 TFUE (mercato unico), sono stati introdotti una serie di principi etici che hanno dato all’AI ACT un’impostazione antroprocentrica
3 Il regolamento, approvato dal Parlamento europeo il 13 marzo 2024 e non ancora in vigore, stabilisce regole armonizzate sull'intelligenza artificiale e modifica i regolamenti (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (legge sull'intelligenza artificiale).
4 Per quanto riguarda la giustizia, la Commissione Europea per l'Efficienza della Giustizia, (CEPEJ), ha elaborato la Carta etica per l’uso dell'intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata nel corso della sua 31a Riunione plenaria (Strasburgo, 3-4 dicembre 2018).

 

RELAZIONE TECNICA


Le disposizioni del Capo I (Principi e finalità), da art. 1 ad art. 6, sono di carattere ordinamentale in quanto norme di principio e non sono suscettibili di comportare nuovi o maggiori oneri a carico della finanza pubblica.

Per quanto riguarda le disposizioni del Capo II (Disposizioni di settore), l’articolo 7 (Uso dell 'intelligenza artificiale in ambito sanitario e di disabilità) non comporta nuovi o maggiori oneri a carico dello Stato. I commi da 1 a 3 contengono disposizioni di principio non suscettibili di nuove spese; al comma 4, si precisa che le azioni di promozione dello sviluppo, studio e diffusione di sistemi di intelligenza artificiale avvengono nell’ambito delle risorse disponibili a legislazione vigente, in particolare delle risorse del budget dei progetti di vita delle persone con disabilità, di cui all’art. 28 del decreto legislativo recante: «definizione della condizione di disabilità, della valutazione di base, di accomodamento ragionevole, della valutazione multidimensionale per l’elaborazione e attuazione del progetto di vita individuale personalizzato e partecipato».
Al comma 5, si precisa che si tratta di disposizione di principio non suscettibile di generare nuovi o maggiori oneri a carico della finanza pubblica.
Al comma 6, si precisa che i controlli finalizzati alla verifica dei requisiti di affidabilità e all’ aggiornamento dei sistemi di IA al fine di minimizzare gli errori vengono svolti nell’ambito dell’ordinaria attività di controllo già effettuata dalle competenti strutture che appartengono al Servizio sanitario nazionale.

Relativamente all’articolo 8 (Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario), si rileva che l’articolo contiene disposizioni di carattere ordinamentale e non comporta nuovi o maggiori oneri a carico della finanza pubblica, considerato che le disposizioni prevedono il rispetto di una disciplina già in vigore. La norma si rende necessaria per chiarire che la finalità di ricerca medico scientifica di pubblico interesse non richiede di replicare il consenso dell’interessato (ove richiesto) se cambia l’ambito della ricerca stessa. In altri termini, se è stato prestato un consenso al trattamento di dati per la ricerca di una cura di una determinata patologia, gli stessi dati devono poter essere utilizzati senza ulteriori adempimenti salva la comunicazione al Garante per la protezione dei dati personali.

La disposizione di cui all’articolo 9 (Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale) introduce l’articolo 12-bis al DL 179/2012 “Ulteriori misure urgenti per la crescita del Paese”. Tale intervento, come specificato dal comma 2 dell’articolo, non comporta nuovi e ulteriori oneri a carico della finanza pubblica, in quanto rientra tra le misure già finanziate con il Piano Nazionale di Ripresa e Resilienza (PNRR), approvato dal Consiglio dell’Economia e delle Finanze dell’Unione Europea in data 13 luglio 2021. Nello specifico il Sub-investimento 1.2.2.4 “COT- Progetto pilota di intelligenza artificiale”, ai sensi del decreto del Ministro della Salute del 1° aprile 2022 recante “Ripartizione degli interventi e sub-interventi di investimento del Piano Nazionale di Ripresa e Resilienza (PNRR)", è finanziato con un importo complessivo di euro 50.000.000,00. Il decreto del Ministero dell’Economia e Finanze del 6 agosto 2021 recante “Assegnazione delle risorse finanziarie previste per l'attuazione degli interventi del Piano nazionale di ripresa e resilienza (PNRR) e ripartizione di traguardi e obiettivi per scadenze semestrali di rendicontazione" (pubblicato in G.U. Serie Generale n. 229 del 24-09-2021), così come modificato dal Decreto del Ministero dell’economia e finanze del 23 novembre 2021 recante “Modifiche alla tabella A del decreto 6 agosto 2021 di assegnazione delle risorse finanziarie previste per l'attuazione degli interventi del Piano nazionale di ripresa e resilienza (PNRR) e ripartizione di traguardi e obiettivi per scadenze semestrali di rendicontazione per la trasformazione digitale" (pubblicato in GU Serie Generale n.3 09 del 3 0-12-2021), assegna al “Ministero della Salute con l’Agenzia nazionale per i servizi sanitari regionali come soggetto attuatore per alcune sub-misure e per il tramite dell'Agenzia nazionale per i servizi sanitari regionali per le restanti sub-misure" l’importo complessivo di euro 280.000.000,00 per realizzare tutti i sub-in vestimenti rientranti nel Sub-investimento 1.2.2 “Implementazione delle Centrali operative territoriali (COT)". L’AGENAS provvede alle attività di cui al presente articolo con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
In particolare, si segnala che l'Accordo tra Ministero della Salute, Agenas e Dipartimento per la trasformazione digitale del 31/12/2021, tra l'altro, attribuisce ad Agenas la gestione dell'intero processo di sviluppo del progetto, dalla progettazione alla realizzazione e messa in servizio della piattaforma. Si conferma altresì che per l'attuazione del progetto pilota di IA i 50 milioni di euro RRF risultano effettivamente già impegnati, e il presente articolo, nel regolare alcuni aspetti della piattaforma (rapporto con FSE, servizi supportati, privacy, ecc.), non genera ulteriori oneri a carico della finanza pubblica, appunto perché la piattaforma è già in corso di realizzazione sulla base del richiamato Accordo e del relativo Piano Operativo.

L’articolo 10 (Disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro) applica il principio antropocentrico all’utilizzo dell’IA nel mondo del lavoro, chiarendo che l’intelligenza artificiale può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea (comma 1). Tale principio comporta che ogni utilizzo dell’intelligenza artificiale in ambito lavorativo debba essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali e che il datore di lavoro o il committente è tenuto a informare il lavoratore dell'utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152 (comma 2). Viene ribadito il principio di equità e non discriminazione di cui all’articolo 3, stabilendosi che l’utilizzo dei sistemi di IA per l’organizzazione o la gestione del rapporto di lavoro non può in nessun caso essere discriminatorio (comma 3). Si tratta pertanto di una disposizione di carattere ordinamentale e non comporta nuovi o maggiori oneri a carico della finanza pubblica.

L’articolo 11 (Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro) al comma 3 reca la clausola di invarianza finanziaria, precisando così che le attività dell’istituendo Osservatorio sono assicurate con le risorse finanziarie, umane e strumentali previste a legislazione vigente per il Ministero del Lavoro e delle Politiche Sociali.
L’attuazione della disposizione non è suscettibile di determinare nuovi o maggiori oneri a carico della finanza pubblica in quanto, come espressamente indicato nella norma in parola, l’istituzione e il funzionamento dell’Osservatorio sono assicurati con le risorse finanziarie, umane e strumentali disponibili a legislazione vigente: le disposizioni di dettaglio necessarie al suo concreto operare sono rimesse al decreto del Ministro del lavoro e delle politiche sociali, la cui adozione è prevista entro novanta giorni dall’entrata in vigore del provvedimento.
Si evidenzia ai fini che interessano che la disposizione in esame conferisce all’Osservatorio meri compiti di indirizzo e monitoraggio, restando escluso lo svolgimento di attività di progettazione, produzione e manutenzione correttiva o evolutiva dei sistemi di intelligenza artificiale. Proprio in virtù delle superiori considerazioni è previsto che “ai componenti dell’Osservatorio non spettano compensi, gettoni di presenza, rimborsi di spese o altri emolumenti comunque denominati”.

Relativamente all’art. 12 (Disposizioni in materia di professioni intellettuali), deve escludersi che la disposizione in parola sia suscettibile di generare oneri a carico della finanza pubblica in quanto essa regola l’impiego dell’intelligenza artificiale nell’ambito dell’attività libero-professionale, conseguendone che ogni eventuale onere rimane a carico del libero professionista che intenda avvalersene nell’esercizio del suo lavoro.

Con riferimento all’art. 13 (Uso dell’intelligenza artificiale nella pubblica amministrazione), la disposizione prevede l’utilizzo dell’intelligenza artificiale allo scopo di incrementare l’efficienza dell’attività delle pubbliche amministrazioni, ridurre i tempi dei procedimenti ed aumentare la quantità e la qualità dei servizi erogati in funzione strumentale e di supporto a quella umana. In particolare, il comma 3, prevede l’adozione da parte delle amministrazioni di misure tecnico-organizzative e formative finalizzate a garantire un utilizzo dell’intelligenza artificiale etico, responsabile, in particolare sviluppando le capacità trasversali dell’utilizzatore, che ne resta protagonista e responsabile come previsto dal comma 2. Queste ultime non introducono nuovi o maggiori oneri a carico della finanza pubblica, essendo assolte mediante l’utilizzo delle risorse finanziarie, umane e strumentali disponibili a legislazione vigente, come peraltro espressamente disposto dal comma 4. Si tratta, quindi, di indirizzare le risorse che le amministrazioni hanno già appostato sui pertinenti capitoli di spesa, alla formazione in materia di intelligenza artificiale. A tal proposito si precisa che il Dipartimento della funzione pubblica della Presidenza del Consiglio dei ministri già eroga gratuitamente a tutte le pubbliche amministrazioni che ne fanno richiesta, attraverso la piattaforma digitale Syllabus, materiale formativo e didattica da remoto, anche attraverso risorse finanziate con il PNRR proprio in prospettiva di riforma e digitalizzazione della PA. Con specifico riguardo alle “misure tecniche”, queste saranno realizzate - come previsto dal comma 4 - comunque nei limiti delle risorse finanziarie disponibili a legislazione vigente.

In relazione all’art. 14 (Uso dell’intelligenza artificiale nell’attività giudiziaria), la disposizione si occupa di definire l’ambito di impiego dell’intelligenza artificiale nell’attività giudiziaria, al fine di delimitarne il perimetro di utilizzabilità in relazione alle specifiche caratteristiche di tale funzione. Viene, pertanto, specificato, al comma 1 che i sistemi di intelligenza artificiale siano utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario e per la ricerca giurisprudenziale e dottrinale con il fine di individuare gli orientamenti interpretativi che sono da supporto per la risoluzione della problematica. Viene demandato al Ministero della giustizia il compito di disciplinare l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari, mentre per le altre giurisdizioni si prevede che l’impiego è disciplinato in conformità ai rispettivi ordinamenti delle rispettive magistrature. Dopo aver chiarito la strumentalità dell’utilizzo dell’intelligenza artificiale che non può comunque sostituire la libera determinazione e le conoscenze ed esperienze del giudice, il comma 2 contiene la norma che esplicita tale principio puntualizzando in maniera espressa che la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento è sempre riservata al magistrato.
Sotto il profilo finanziario si evidenzia che la presente proposta normativa introduce norme di principio, le quali sono dirette a riaffermare l’indipendenza e terzietà del giudice nell’esame e valutazione della causa e il suo libero convincimento nell’adottare le decisioni giudiziarie. Come già avviene attualmente per le banche dati e la consultazione di sistemi informatici a supporto dell’attività del magistrato, anche le forme di intelligenza artificiale che saranno di volta in volta sviluppate con le risorse strumentali e finanziarie a disposizione dell’amministrazione a legislazione vigente, verranno programmate per finalità simulative delle casistiche prospettate e per consultazione dottrinale e giurisprudenziale, senza intaccare l’autonomia e la capacità di pensiero e di deliberazione del magistrato. In particolare, si evidenzia che alcune attività progettuali in materia di intelligenza artificiale nel settore giustizia sono state già avviate in quanto ricomprese all’interno dell’investimento 1.6.2 “Digitalizzazione delle grandi amministrazioni centrali” del PNRR (Data Lake), parte dell’iniziativa “Digitalizzazione del Ministero della Giustizia”. Nel 2024 è previsto di avviare ulteriori attività su questa linea progettuale nell’ambito delle risorse disponibili a legislazione vigente, previa riprogrammazione della spesa informatica. Pertanto, si assicura che le stesse non sono suscettibili di determinare nuovi o maggiori oneri per la finanza pubblica.

In ordine all’articolo 15 (Modifiche al codice di procedura civile), si rappresenta che la norma introduce una modifica all’articolo 9 comma secondo del codice di procedura civile, prevedendo un’ipotesi di competenza esclusiva del tribunale per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale. Al riguardo si osserva che la competenza del tribunale è generale e viene individuata, per volontà del legislatore, per esclusione, in relazione alle cause che non sono di competenza di altro giudice e ad alcune cause che vertono su diritti specifici di cui è necessario tutelare la natura e che sono espressamente citati nel medesimo articolo 9, co. 2 c.p.c. Tra gli stessi viene ricompresa anche la materia avente ad oggetto sistemi di intelligenza artificiale proprio per la delicatezza della materia che ben può riguardare diritti della persona o controversie di valore indeterminabile, tra l’altro già ricomprese nella competenza del tribunale, in quanto ben può trattarsi di cause che si caratterizzano per la mancanza di elementi precisi per la stima dell'oggetto della domanda principale e che difficilmente sono idonee ad essere inquadrate in termini pecuniari. Considerato, comunque, che i magistrati di tribunale si avvalgono di conoscenze e di esperienze conclamate e comprovate e che già da tempo la magistratura ordinaria ha intrapreso un percorso formativo inerente la materia qui devoluta al suo giudizio, si rappresenta che la presente proposta normativa, che inserisce le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale nel perimetro della competenza esclusiva del tribunale, non è suscettibile di determinare nuovi o maggiori oneri a carico della finanza pubblica. Ai relativi adempimenti, che rientrano nell’ambito di attività ordinaria dell’amministrazione giudiziaria, si provvede avvalendosi delle ordinarie risorse umane, strumentali e finanziarie disponibili a legislazione vigente anche attraverso riorganizzazione e ripartizione programmata dei carichi di lavoro.

Con riferimento, inoltre, alle previsioni dell’articolo 16 (Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale), in ordine alla sostenibilità delle attività ivi previste, va precisato che si provvederà nell’ambito delle risorse disponibili a legislazione vigente. L’Agenzia per la cybersicurezza nazionale, del resto, ha già strutture organizzative competenti in materia, e i compiti attribuiti risultano coerenti con le funzioni già attribuite e regolarmente svolte con le risorse umane, strumentali e finanziarie attualmente previste.

Per quanto riguarda le disposizioni del Capo III (Strategia nazionale, autorità nazionali e azioni di promozione), l’articolo 17 (Strategia nazionale per l’intelligenza artificiale) reca disposizioni che non comportano nuovi o maggiori oneri a carico della finanza pubblica, poiché gli adempimenti previsti rientrano nei compiti e nelle funzioni istituzionali delle amministrazioni coinvolte, le quali, pertanto, vi provvedono con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.

Relativamente all’articolo 18 (Autorità nazionali per l’intelligenza artificiale) l’Agenzia per la cybersicurezza nazionale e AGID provvederanno nell’ambito delle risorse umane, strumentali e finanziarie disponibili a legislazione vigente, come previsto dalla clausola di invarianza finanziaria di cui all’articolo 26. Si rappresenta che le due agenzie hanno già strutture organizzative competenti in materia, e i compiti attribuiti risultano coerenti con le funzioni già attribuite e regolarmente svolte dalle medesime, ai sensi dell’articolo 7 del decreto-legge 14 giugno 2021, n. 82, e, in particolare, del comma 1, lettera r), per quanto attiene alle competenze attribuite all’ACN, e dell’articolo 14-bis del decreto legislativo 7 marzo 2005, n. 82, con riferimento all’AGID.

La disposizione di cui all’articolo 19 (Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale) autorizza la spesa di 3 00.000 euro annui per ciascuno degli anni 2025 e 2026 per la realizzazione di progetti sperimentali volti all’applicazione dell’intelligenza artificiale ai servizi forniti a cittadini e a imprese dal Ministero degli affari esteri e della cooperazione internazionale.
Per la quantificazione dello stanziamento, in assenza di una serie storica di dati derivante dalla novità del settore dell’intelligenza artificiale, si è tenuto conto di progetti sperimentali per l’uso dell’intelligenza artificiale già avviati dal MAECI e di altre organizzazioni pubbliche e private anche simili con esigenze analoghe a quelle del predetto Ministero, il cui valore medio è stato di circa 75.000 euro per un anno. Nel biennio considerato si è pertanto considerata la possibilità di avviare quattro iniziative (di durata biennale) di valore medio comparabile a quello del progetto sperimentale già avviato. La disposizione è espressamente redatta come un tetto di spesa e non è quindi suscettibile di comportare nuovi o maggiori oneri per la finanza pubblica superiori a quelli espressamente quantificati nel testo normativo. Agli oneri si provvede mediante corrispondente riduzione delle disponibilità della Tabella A, voce Ministero degli affari esteri e della cooperazione internazionale, che presenta le necessarie disponibilità. Si precisa che la riduzione non compromette l’attività di ratifica dei trattati internazionali e il connesso adempimento degli obblighi internazionali.

L’articolo 20 (Misure di sostegno ai giovani e allo sport), al comma 1, chiarisce che anche i soggetti che hanno svolto un’attività di ricerca nell’ambito delle tecnologie di intelligenza artificiale sono tra coloro che possono rientrare nel già vigente regime agevolativo a favore dei lavoratori impatriati, di cui all’art. 5 del d.lgs. 27 dicembre 2023, n.209, senza pertanto comportare nuovi o maggiori oneri a carico della finanza pubblica, poiché sicuramente in possesso dei requisiti di elevata qualificazione o specializzazione come definiti dal d.lgs. 108/2012, richiesto dall’art.5, comma 1, lettera d), del d.lgs. 209/2023, in quanto rientrano nei livelli 1, 2 e 3 della classificazione ISTAT delle professioni CP 2011. In riferimento alla predetta classificazione si rammenta che l’ISTAT, con la nomenclatura e la classificazione delle unità professionali di cui al livello 2.1.1.3.2 (statistici e analisti dei dati), include anche gli esperti di intelligenza artificiale e dell’apprendimento automatico e profondo (big data, machine e deep learning).
Al comma 2 si consente alle scuole secondarie di secondo grado di inserire nei piani didattici personalizzati per le studentesse e gli studenti ad alto potenziale cognitivo l’anticipazione di segmenti di percorsi universitari (le cc.dd. microcredenziali). All’attuazione della disposizione, di natura facoltativa, si provvede con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente, senza determinare, pertanto, nuovi o maggiori oneri a carico della finanza pubblica.
Il comma 3, in materia di accessibilità ai sistemi di IA per il miglioramento del benessere psicofisico attraverso lo sport, reca una disposizione di principio non suscettibile di comportare nuovi o maggiori oneri a carico della finanza pubblica.

Per quanto riguarda la disposizione di cui all’articolo 21 (Investimenti nei settori di intelligenza artificiale, della cybersicurezza e calcolo quantistico), gli oneri sono coperti mediante utilizzo delle risorse del fondo di sostegno al venture capitai di cui all’art. 1, comma 209, della legge 30 dicembre 2018, n. 145, secondo le disposizioni di cui al decreto del Ministro dello sviluppo economico del 27 giugno 2019, che è aggiornato al fine di definire criteri e modalità di applicazione delle disposizioni recate dall’articolo in commento. Si precisa che la copertura della verticale d’investimento si trova nell’ambito delle risorse del fondo nel suo complesso, già interamente sottoscritte e trasferite a CDPVC; inoltre, il conto di tesoreria in questione (n. 25095) per la gestione degli interventi del fondo venture capitai, autorizzato dall’articolo 10, c. 7-sexies, ultimo periodo, del DL n. 121/2021, ha attualmente una consistenza di cassa di 1.770.826.854,97 euro e risulta pertanto capiente.

L’articolo 22 (Delega al Governo in materia di intelligenza artificiale) delega il Governo ad adottare uno o più decreti legislativi per l’adeguamento della normativa nazionale al regolamento europeo sull’intelligenza artificiale.
Al comma 2, la lett. a) prevede di designare come autorità nazionali competenti ai fini dell'attuazione del regolamento, un'autorità di vigilanza del mercato, un'autorità di notifica, nonché del punto di contatto con le istituzioni dell’Unione europea. La norma non comporta nuovi o maggiori oneri per la finanza pubblica in quanto tali designazioni avverranno anche in coerenza con quanto previsto dall’articolo 18, nell’ambito di istituzioni già esistenti e competenti in materia, che svolgeranno le attività nell’ambito dei propri compiti istituzionali.
Con particolare riferimento alla lett. b) le attività di alfabetizzazione in tema di intelligenza artificiale ivi indicate sono da ricondursi, tra le altre, a quelle ordinariamente svolte dai CPIA in ambito informatico, i quali, nell’ambito della loro autonomia, già in base alla legislazione vigente possono erogare all’interno del sistema nazionale di istruzione percorsi, volti a insegnare le competenze fondamentali relative all’uso di computer e tecnologie digitali nel quadro di riferimento al DigiComp 2.2, che è il Quadro Europeo delle Competenze Digitali per i Cittadini. Questo quadro definisce le competenze digitali richieste e suddivide l’alfabetizzazione digitale in diverse aree, tra cui informazione, comunicazione e creazione.
Si rappresenta, riguardo alla lettera c) che per gli ordini professionali sono previsti percorsi di alfabetizzazione e formazione per i professionisti e per gli operatori dello specifico settore, all’uso dei sistemi di intelligenza artificiale e la previsione del riconoscimento di un equo compenso, modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di intelligenza artificiale. Sotto il profilo finanziario si assicura che la presente previsione non determina effetti negativi per la finanza pubblica, atteso che l’acquisizione delle competenze necessarie al corretto utilizzo dell’intelligenza artificiale da parte dei professionisti è onere posto a carico dei medesimi che, pertanto, provvederanno alla specifica alfabetizzazione e formazione attraverso corsi mirati e di livello adeguato alle necessità rappresentate dalla loro clientela, eventualmente comprovando il loro aggiornamento all’ordine professionale cui appartengono, ma senza interferenze da parte dello Stato e aggravio di oneri per la finanza pubblica. Ne viene da sé che la formazione specifica, l’aggiornamento in materia di sistemi di intelligenza artificiale, ciascuno per il settore di riferimento e competenza, dovrà essere equamente compensata nei corrispettivi spettanti al professionista incaricato e poste a carico dell’utente finale che si avvarrà delle prestazioni rese, senza in ciò determinare riflessi sulla finanza pubblica.
Inoltre, alla lettera d) si prevede il potenziamento dello sviluppo di competenze scientifiche, tecnologiche, ingegneristiche, artistiche e matematiche legate alle discipline STEM, all’interno dei curricoli scolastici. Si intende, in questo modo, promuovere la scelta da parte delle studentesse e degli studenti, anche attraverso mirate attività di orientamento personalizzato, di percorsi della formazione superiore relativi alle menzionate discipline. La lettera e) prevede anche nei percorsi di istruzione tecnologica superiore offerti dagli ITS Academy, attività formative per la comprensione tecnica e l’utilizzo consapevole sotto il profilo etico e giuridico delle tecnologie, anche con riferimento ai sistemi di intelligenza artificiale così come definiti dalla disciplina europea, nonché per la corretta interpretazione della produzione di tali sistemi in termini di previsioni, contenuti, raccomandazioni o decisioni, coerentemente con i rispettivi profili culturali e professionali. Con la lettera f) si valorizzano le attività di ricerca e trasferimento tecnologico in materia di intelligenza artificiale svolte dagli ITS Academy. Le disposizioni di cui alle lett. d), e) e f) introducono disposizioni di carattere ordinamentale, prevedendo interventi sull’ordinamento didattico vigente al fine di valorizzare le competenze erogate nei corsi di studio e il contributo che il sistema della formazione superiore e della ricerca pubblica è in grado di offrire in materia di intelligenza artificiale, attraverso il complesso di risorse umane già a disposizione e le dotazioni strumentali attualmente in uso, nonché introducendo strumenti semplificati di collaborazione tra il sistema della formazione superiore e della ricerca pubblica ed il mondo produttivo.
Nello specifico, con riferimento alla lettera d), si precisa che tali percorsi sono da ricomprendersi nel novero delle attività che le istituzioni scolastiche, nell’ambito della loro autonomia didattica, organizzativa e finanziaria, inseriscono all’interno del Piano triennale dell’offerta formativa (PTOF). Con riguardo agli ITS Academy, lettere e) e f), si specifica che ai sensi dell’articolo 4 della legge 15 luglio 2022, n. 99, ciascuna fondazione ITS Academy è dotata di un proprio patrimonio, composto da un fondo di dotazione costituito dai conferimenti, in proprietà, uso o possesso, a qualsiasi titolo, di denaro, beni mobili e immobili o altre utilità impiegabili per il perseguimento dei compiti istituzionali, effettuati dai fondatori all’atto della costituzione e dai partecipanti. A tale fondo si aggiungono i beni mobili e immobili che pervengono a qualsiasi titolo alla fondazione, gli atti di liberalità destinati all’incremento del patrimonio e i contributi provenienti dall’Unione europea, dallo Stato, da enti territoriali o altri enti pubblici. Inoltre, ai sensi dell’articolo 11 della medesima legge n. 99 del 2022, allo scopo di promuovere, consolidare e sviluppare il Sistema terziario di istruzione tecnologica superiore è istituito, nello stato di previsione del Ministero dell'istruzione e del merito, il Fondo per l'istruzione tecnologica superiore, destinato a finanziare, prioritariamente, la realizzazione dei percorsi negli ITS Academy accreditati, al fine di incrementarne l'offerta formativa in tutto il territorio nazionale.
Pertanto, i principi di delega proposti, non comportano nuovi oneri a carico della finanza pubblica.
La proposta normativa di cui al comma 3 contiene la delega al Governo ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite.
Il comma 4 reca indicazioni procedurali relative alle modalità di adozione dei provvedimenti normativi delegati, adottati su proposta della Presidenza del Consiglio dei ministri e del Ministro della giustizia e successivamente trasmessi alle Camere per il parere delle Commissioni parlamentari competenti. Si prevede che i decreti possano essere emanati anche in mancanza dei pareri se, decorsi sessanta giorni dalla data della trasmissione, questi non siano resi. Qualora detto termine venga a scadere nei trenta giorni antecedenti alla scadenza del termine previsto per l’esercizio della delega o successivamente, quest’ultimo è prorogato di sessanta giorni.
Al comma 5 sono elencati i principi e criteri direttivi relativi all’esercizio della delega. Il decreto o i decreti legislativi delegati dovranno contenere strumenti, anche cautelari, in ambito civile, amministrativo e penale, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, con correlata previsione di un sistema di sanzioni effettive, proporzionate e dissuasive; l’introduzione di una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circolazione e l’utilizzo professionale di sistemi di intelligenza artificiale, nonché ulteriori fattispecie di reato, punite esclusivamente a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale; l’introduzione di una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa al bene giuridico tutelato, inclusi i casi di offesa ai beni attinenti alla persona e allo Stato; la revisione, anche a fini di razionalizzazione complessiva del sistema, della normativa sostanziale e processuale vigente, in conformità ai principi e ai criteri enunciati nel comma esaminato.
Dal punto di vista finanziario, si evidenzia che i commi 3, 4 e 5, contenenti la delega all’emanazione di uno o più decreti legislativi atti a definire la disciplina relativa all’uso di sistemi di intelligenza artificiale per finalità illecite, le correlate indicazioni procedurali e i principi e criteri direttivi per l’esercizio della delega, sono diretti a razionalizzare la materia prevedendo le misure per reprimere e per prevenire un utilizzo improprio e dannoso dell’intelligenza artificiale in ambito penale, anche con misure cautelari e sanzioni dissuasive di comportamenti lesivi di beni giuridici già protetti da altre norme, ma che richiedono una tutela rafforzata. Trattandosi di norme che delegano a decreti attuativi emanati successivamente l’intera organizzazione della materia sotto il profilo penale, si rappresenta che nei medesimi decreti delegati verranno eventualmente dettate anche le norme che prevederanno la copertura finanziaria per adempimenti o attività che si individuino onerosi.
Pertanto, allo stato attuale, si conferma la natura ordinamentale delle disposizioni contenute nei commi 3, 4 e 5 dell’articolo in esame, le quali non sono suscettibili di determinare nuovi o maggiori oneri a carico della finanza pubblica.

Al capo IV (Disposizioni a tutela degli utenti e in materia di diritto d’autore), l’articolo 23 (Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale) affida ad AGCOM compiti di regolamentazione e co-regolamentazione, nonché di vigilanza, controllo e sanzionatori coerenti con le funzioni già svolte ed eseguibili con le risorse umane, strumentali e finanziarie attualmente previste, sena generare nuovi o ulteriori oneri a carico dello Stato. Si rappresenta inoltre che non sono previsti ulteriori oneri a carico delle imprese e del mercato di riferimento.

L’articolo 24 (Tutela del diritto d’autore delle opere generate con l’ausilio dell’Intelligenza artificiale) contiene disposizioni di carattere ordinamentale e non comporta nuovi o maggiori oneri a carico della finanza pubblica.

Per quanto riguarda il Capo V (Disposizioni penali), l’articolo 25 (Modifiche al codice penale e ad altre disposizioni penali), la disposizione contiene modifiche al codice penale e ad altre disposizioni penali in materia di intelligenza artificiale.
Dal punto di vista finanziario si rappresenta che la presente proposta normativa, finalizzata a modificare il codice penale e altre norme penali in senso di prevedere ipotesi aggravate per alcune fattispecie di reato, quando il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale, ha natura ordinamentale e precettiva e non è suscettibile di determinare nuovi o maggiori oneri a carico della finanza pubblica.

Il Capo VI, con l’articolo 26 (Disposizioni finanziarie), reca la clausola di invarianza finanziaria dell’intero provvedimento, ad esclusione dell’articolo 19, specificando che le amministrazioni pubbliche interessate adempiono alla presente legge nell’ambito delle risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
 

ANALISI TECNICO-NORMATIVA (ATN)

PARTE I. ASPETTI TECNICO-NORMATIVI DI DIRITTO INTERNO
1) Obiettivi e necessità dell’Intervento normativo. Coerenza con il programma di governo.

L’atto normativo individua criteri regolatori nell’ambito della intelligenza artificiale (d’ora in poi, IA), prevedendo norme di principio e disposizioni di settore che hanno il duplice scopo di promuovere l’utilizzo delle nuove tecnologie e di fornire soluzioni per la gestione dei rischi. Il disegno di legge intende proteggere i diritti fondamentali dell’individuo, promuovendo allo stesso tempo l'innovazione e mettendo al centro l’autodeterminazione umana.
L’intervento si è reso necessario per l’assenza di una normativa nazionale organica e di efficaci strumenti di tutela a favore di cittadini e imprese.

2) Analisi del quadro normativo nazionale.
L’utilizzo dell’IA è menzionato in vari atti normativi adottati a partire dal 2018, ma sempre in maniera frammentaria. Con l’art. 1, comma 226, della legge 3 0 dicembre 2018, n. 145, ad esempio, si istituiva presso il MISE, nell’ambito del programma industria 4.0, un apposito “Fondo per interventi volti a favorire lo sviluppo delle tecnologie e delle applicazioni di intelligenza artificiale”.
La normativa successiva ha previsto la possibilità di utilizzare ITA in alcuni settori, ma senza dettare norme di principio a garanzia dei cittadini, né approntare idonei strumenti di tutela.

3) Incidenza delle norme proposte sulle leggi e i regolamenti vigenti.
Gli artt. 1-6 del ddl individuano alcune norme di principio applicabili all’IA, mentre gli articoli successivi intervengono, anche con la tecnica della novella legislativa, introducendo norme di dettaglio.
Gli artt. 7-9 dettano norme in materia di utilizzo dell’IA nel settore sanitario.
L’art. 10 detta norme volte a garantire l’utilizzo consapevole dell’IA nel mondo del lavoro.
L’art. 11 istituisce un osservatorio sull’adozione dei sistemi di IA nel mondo del lavoro.
L’art. 12 detta norme in materia di professioni intellettuali.
Gli artt. 13 e 14 regolano l’utilizzo dell’IA, rispettivamente, nella PA e nell’attività giudiziaria.
L’art. 15 modifica il c.p.c. e stabilisce che le controversie avente ad oggetto il funzionamento di un sistema di intelligenza artificiale sono di competenza del Tribunale.
L’art. 16 attribuisce all’ACN la competenza in merito alla promozione e allo sviluppo dell’intelligenza artificiale come “risorsa per il rafforzamento della cybersicurezza nazionale”.
L’art. 17 introduce norme sulla strategia nazionale per ITA.
L’art. 18 attribuisce ad AgID e ACN nuovi compiti in relazione all’IA.
L’art. 19 autorizza la spesa di 3 00.000 euro, per ciascuno degli anni 2025 e 2026, per la realizzazione di progetti sperimentali relativi ai servizi forniti dal MAECI.
L’art. 20 prevede norme volte ad incentivare ITA nell’istruzione e nello sport.
L’art. 21 dispone ingenti investimenti nei settori cruciali delle tecnologie digitali, ovvero nei settori di intelligenza artificiale, della cybersicurezza e del calcolo quantistico (quantum computing). Il comma 1 prevede investimenti, per un ammontare complessivo di 1 miliardo di euro, nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico, delle telecomunicazioni e delle tecnologie per queste abilitanti, al fine di favorire lo sviluppo, la crescita e il consolidamento delle imprese operanti in tali settori.
L’art. 22 contiene due deleghe, in materia di intelligenza artificiale e in materia penale.
Gli artt. 23 e 24 contengono norme a tutela del diritto d’autore, volte a favorire l’identificazione e il riconoscimento dei sistemi di intelligenza artificiale nella creazione di contenuti testuali, fotografici, audiovisivi e radiofonici.
L’art. 25 contiene norme penali volte a sanzionare l’utilizzo illecito dell’IA.

4) Analisi della compatibilità dell’intervento con i principi costituzionali.
L’intervento è compatibile con i principi costituzionali, quanto ha lo scopo di regolare ITA in maniera da evitarne un uso improprio. Il testo intende quindi garantire che l’utilizzo dell’IA non si traduca in una lesione dei diritti fondamentali dell’individuo (2 Cost.).

5) Analisi delle compatibilità dell’intervento con le competenze e le funzioni delle regioni ordinarie e a statuto speciale nonché degli enti locali.
L’intervento è compatibile con le funzioni delle regioni e degli enti locali, in quanto rientra nelle materie di competenza legislativa esclusiva dello Stato, quali:
- “ordine pubblico e sicurezza” (art, 117, comma 1, lett. h)
- “ordinamento civile e penale” (art, 117, comma 1, lett. 1)
- “determinazione dei livelli essenziali delle prestazioni concernenti i diritti civili e sociali” (art, 117, comma 1, lett. m)

6) Verifica della compatibilità con i principi di sussidiarietà, differenziazione ed adeguatezza sanciti dall’articolo 118, primo comma, della Costituzione.
L’intervento rispetta i principi di sussidiarietà, differenziazione e adeguatezza, in quanto la natura transnazionale del fenomeno dell’IA richiede che le funzioni amministrative siano esercitate a livello centrale, in maniera da consentire interventi uniformi su tutto il territorio nazionale.
In materia di salute, tenendo conto delle prerogative delle regioni, è comunque previsto che i decreti attuativi relativi al fascicolo sanitario elettronico vengano adottati “sentita la Conferenza permanente per i rapporti tra lo Stato, le regioni e le province autonome di Trento e di Bolzano” (art. 9).

7) Verifica dell’assenza di rilegificazioni e della piena utilizzazione delle possibilità di delegificazione e degli strumenti di semplificazione normativa.
L’intervento non effettua rilegificazioni. L’assenza di una normativa di rango primario in materia di IA non ha reso possibili interventi di delegificazione.

8) Verifica dell’esistenza di progetti di legge vertenti su materia analoga all’esame del Parlamento e relativo stato dell’iter.
Nel corso della 19a legislatura sono stati presentati 14 progetti di legge aventi come obiettivo quello di regolamentare uno o più aspetti dell’IA.
In particolare, si tratta:
S.917 - 19
a Legislatura
Sen. Antonio Nicita (PD-IDP) e altri
Misure sulla trasparenza dei contenuti generati da intelligenza artificiale
19 ottobre 2023: Presentato al Senato
20 novembre 2023: Assegnato (non ancora iniziato l'esame)
C.1695 - 19
a Legislatura
On. Paolo Emilio Russo (FI-PPE)
Disposizioni per assicurare la riconoscibilità dei contenuti prodotti o modificati mediante sistemi di intelligenza artificiale
7 febbraio 2024: Presentato alla Camera
Da assegnare
01783 - 19
a Legislatura
On. Paria Cavo (NM(N-C-U-I)-M)
Disposizioni per assicurare la riconoscibilità dei contenuti prodotti o modificati mediante sistemi di intelligenza artificiale
14 marzo 2024: Presentato alla Camera
Da assegnare
S.1066 - 19
a Legislatura
Sen. Lorenzo Basso (PD-IDP) e altri
Norme per lo sviluppo e l'adozione di tecnologie di intelligenza artificiale
12 marzo 2024: Presentato al Senato
23 aprile 2024: In corso di esame in commissione
01444 - 19
a Legislatura
On. Giovanni Luca Cannata (FDI) e altri
Disposizioni concernenti la fornitura e l'impiego dei sistemi di intelligenza artificiale
2 ottobre 2023: Presentato alla Camera
9 novembre 2023: Assegnato (non ancora iniziato l'esame)
C.1631 - 19
a Legislatura
On. Rosaria Tassinari (FI-PPE)
Delega al Governo per la disciplina della fornitura e dell'impiego dei sistemi di intelligenza artificiale
29 dicembre 2023: Presentato alla Camera
Da assegnare
C.1514 - 19
a Legislatura
On. Anna Ascani (PD-IDP) e altri
Disposizioni per assicurare la trasparenza nella pubblicazione e diffusione di contenuti prodotti mediante sistemi di intelligenza artificiale
25 ottobre 2023: Presentato alla Camera
28 dicembre 2023: Assegnato (non ancora iniziato l'esame)
S.1116 - 19
a Legislatura
Sen. Giorgio Maria Bergesio (LSP-PSd'Az) e altri
Disposizioni concernenti l'adozione di una disciplina temporanea per la sperimentazione delfimpiego di sistemi di intelligenza artificiale
23 aprile 2024: Presentato al Senato
7 maggio 2024: Assegnato (non ancora iniziato l'esame)
C.1084 - 19
a Legislatura
On. Giulio Centemero (LEGA) e altri
Disposizioni concernenti l'adozione di una disciplina temporanea per la sperimentazione dell'impiego di sistemi di intelligenza artificiale
11 aprile 2023: Presentato alla Camera
15 maggio 2023: Assegnato (non ancora iniziato l'esame)
C.1534 - 19
a Legislatura
On. Mauro Malaguti (FDI) e altri
Disposizioni in materia di diffusione di immagini o voci di persone reali prodotte o modificate mediante sistemi di intelligenza artificiale
9 novembre 2023: Presentato alla Camera
13 febbraio 2024: Assegnato (non ancora iniziato l'esame)
C.1832 - 19
a Legislatura
On. Chiara Tenermi (FI-PPE)
Introduzione dell'insegnamento delle nozioni di base dei processi che governano l'intelligenza artificiale nei corsi della scuola secondaria di primo e di secondo grado
19 aprile 2024: Presentato alla Camera
Da assegnare
C.1751 - 19
a Legislatura
On. Chiara Tenermi (FI-PPE)
Istituzione di una Commissione parlamentare per lo studio, la vigilanza e il controllo degli effetti della diffusione dell'intelligenza artificiale nel lavoro e nella società
1 marzo 2024: Presentato alla Camera
Da assegnare
C.1577 - 19
a Legislatura
On. Valentina Grippo (A-PER-RE)
Norme per il coordinamento e la programmazione della politica nazionale in materia di intelligenza artificiale e innovazione digitale e istituzione di un Comitato interministeriale 29 novembre 2023: Presentato alla Camera
3 aprile 2024: Assegnato (non ancora iniziato l'esame)
C.1650 - 19
a Legislatura
On. Anna Ascani (PD-IDP) e altri
Istituzione del Ministero dell'innovazione e dello sviluppo tecnologico e disposizioni per il coordinamento delle politiche nazionali, lo sviluppo e la sostenibilità dell'innovazione tecnologica e digitale nonché per la disciplina dell'uso dei contenuti generati dall’intelligenza artificiale
16 gennaio 2024: Presentato alla Camera
23 aprile 2024: Assegnato (non ancora iniziato l’esame)

9) Indicazioni delle linee prevalenti della giurisprudenza ovvero della pendenza di giudizi di costituzionalità sul medesimo o analogo oggetto.
Non si segnalano pronunce costituzionale in materia di IA.
Il GA si è invece occupato, anche in tempi recenti, del tema affine relativo alle procedure “automatizzate” per l’adozione di provvedimenti amministrativi. L’utilizzo delle procedure automatizzate è stato ritenuto legittimo, a due condizioni. L’algoritmo utilizzato dalla PA deve essere “conoscibile” e “sindacabile” (Cons. St., VI, sentenza 8 aprile 2019, n. 2270).
Riguardo alla prima condizione, secondo il Consiglio di Stato, la conoscibilità dell’algoritmo “deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare - e conseguentemente sindacabili - le modalità e le regole in base alle quali esso è stato impostato”. Circa la seconda condizione, si deve garantire la possibilità al Giudice di “poter sindacare la stessa logicità e ragionevolezza della decisione amministrativa robotizzata”, attraverso l’accessibilità ai dati utilizzati per rendere operativo l’algoritmo.

PARTE IL CONTESTO NORMATIVO COMUNITARIO E INTERNAZIONALE
10) Analisi della compatibilità dell’intervento con l’ordinamento comunitario.
L’intervento è compatibile con l’ordinamento europeo. Non si sovrappone all’emanando regolamento europeo sull’intelligenza artificiale («AI ACT», approvato lo scorso 13 marzo dal Parlamento europeo), ma ne accompagna il quadro regolatorio in quegli spazi propri del diritto interno. In ogni caso l’art. 1, paragrafo 2, del ddl ribadisce che le disposizioni dell’atto dovranno essere interpretate e applicate conformemente al diritto dell’UE.

11) Verifica dell’esistenza di procedure di infrazione da parte della Commissione Europea sul medesimo o analogo oggetto.
Non sono presenti procedure di infrazione sulla materia.

12) Analisi della compatibilità dell’intervento con gli obblighi internazionali.
L’intervento è compatibile con gli obblighi internazionali.

13) Indicazioni delle linee prevalenti della giurisprudenza ovvero della pendenza di giudizi innanzi alla Corte di Giustizia delle Comunità Europee sul medesimo o analogo oggetto.
Non si segnalano pronunce o giudizi pendenti su medesimo o analogo oggetto.

14) Indicazioni delle linee prevalenti della giurisprudenza ovvero della pendenza di giudizi innanzi alla Corte Europea dei Diritti dell’uomo sul medesimo o analogo oggetto.
Non si segnalano pronunce o giudizi pendenti su medesimo o analogo oggetto.

15) Eventuali indicazioni sulle linee prevalenti della regolamentazione sul medesimo oggetto da parte di altri Stati membri dell’Unione Europea.
La novità del fenomeno non consente di individuare le linee prevalenti da parte degli altri Stati membri dell’UE.

PARTE III. ELEMENTI DI QUALITÀ’ SISTEMATICA E REDAZIONALE DEL TESTO
1) Individuazione delle nuove definizioni normative introdotte dal testo, della loro necessità, della coerenza con quelle già in uso.
L’art. 2 del ddl individua 3 definizioni che chiariscono l’ambito applicativo dell’intervento - “sistema di intelligenza artificiale”, “dato” e “modelli di intelligenza artificiale” - in coerenza con la normativa europea. In particolare, la definizione di “sistema di intelligenza artificiale” è la stessa di quella contenuta nel regolamento «AI ACT».

2) Verifica della correttezza dei riferimenti normativi contenuti nel progetto, con particolare riguardo alle successive modificazioni ed integrazioni subite dai medesimi.
I riferimenti normativi sono stati verificati.

3) Ricorso alla tecnica della novella legislativa per introdurre modificazioni ed integrazioni a disposizioni vigenti.
Il ddl ricorre alla tecnica della novella legislativa per modificare la normativa di settore.
In particolare, si vedano gli articoli:
9 - Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale; 15 - Modifiche al codice di procedura civile; 16 - Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale; 17 - Strategia nazionale per l’intelligenza artificiale; 20 - Misure di sostegno ai giovani e allo sport; 23 - Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale; 24 - Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale; 25 - Modifiche al codice penale e ad ulteriori disposizioni penali.

4) Individuazione di effetti abrogativi impliciti di disposizioni dell’atto normativo e loro traduzione in norme abrogative espresse nel testo normativo.
Il ddl non ha effetti abrogativi impliciti.

5) Individuazione di disposizioni dell’atto normativo aventi effetto retroattivo o di reviviscenza di norme precedentemente abrogate o di interpretazione autentica o derogatorie rispetto alla normativa vigente.
Le disposizioni non hanno effetto retroattivo e non determinano la reviviscenza di norme precedentemente abrogate. Non sono presenti norme di interpretazione autentica.

6) Verifica della presenza di deleghe aperte sul medesimo oggetto, anche a carattere integrativo o correttivo.

Non sono presente deleghe aperte sul medesimo oggetto.

7) Indicazione degli eventuali atti successivi attuativi; verifica della congruenza dei termini previsti per la loro adozione.
È prevista l’adozione dei seguenti atti attuativi:
a) l’art. 6, comma 3, prevede la futura adozione di appositi Dpcm (ex art. 43 della 1. n. 124 del 2007) contenenti le modalità di applicazione dei principi in materia di IA al DIS, all’AISE e all’AISI;
b) l’art. 9, comma 1, prevede l’adozione di uno o più decreti del Ministro della salute per disciplinare ITA nella gestione del fascicolo sanitario;
c) l’art. 11, comma 2, prevede che l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro venga istituito con apposito decreto del Ministro del lavoro, da adottare entro 90 giorni dall’entrata in vigore della legge, termine congruo in relazione alla non eccessiva complessità dell’atto.

8) Verifica della piena utilizzazione e dell’aggiornamento di dati e di riferimenti statistici attinenti alla materia oggetto del provvedimento, ovvero indicazione della necessità di commissionare all’istituto nazionale di statistica apposite elaborazioni statistiche con correlata indicazione nella relazione economico-finanziaria della sostenibilità dei relativi costi.
Per la redazione dell’atto normativo sono stati utilizzati dati già in possesso dell’Amministrazione e non è stato necessario commissionare elaborazioni statistiche.
 

DISEGNO DI LEGGE

CAPO I
PRINCIPI E FINALITÀ

Art. 1.
(Finalità e ambito di applicazione)

1. La presente legge reca princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale.
2. Le disposizioni della presente legge si interpretano e si applicano conformemente al diritto dell’Unione europea.
 

Art. 2.
(Definizioni)

1. Ai fini della presente legge, si intendono per:
a) sistema di intelligenza artificiale: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;
b) dato: qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva;
c) modelli di intelligenza artificiale: modelli che identificano strutture ricorrenti attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni.
 

Art. 3.
(Princìpi generali)

1. La ricerca, la sperimentazione, lo sviluppo, l’adozione, l’applicazione e l’utilizzo di sistemi e di modelli di intelligenza artificiale avvengono nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione europea e dei princìpi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
2. Lo sviluppo di sistemi e di modelli di intelligenza artificiale avviene su dati e tramite processi di cui deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati.
3. I sistemi e i modelli di intelligenza artificiale devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità e dei princìpi di cui al comma 1.
4. L’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica.
5. Al fine di garantire il rispetto dei diritti e dei princìpi di cui al presente articolo deve essere assicurata, quale precondizione essenziale, la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale, secondo un approccio proporzionale e basato sul rischio, nonché l’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza.
6. La presente legge garantisce alle persone con disabilità il pieno accesso ai sistemi di intelligenza artificiale e alle relative funzionalità o estensioni, su base di uguaglianza e senza alcuna forma di discrimina-zione e di pregiudizio, in conformità alle disposizioni della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e resa esecutiva in Italia ai sensi della legge 3 marzo 2009, n. 18.
 

Art. 4.
(Principi in materia di informazione e di riservatezza dei dati personali)

1. L’utilizzo di sistemi di intelligenza artificiale nell’informazione avviene senza recare pregiudizio alla libertà e al pluralismo dei mezzi di comunicazione, alla libertà di espressione e all’obiettività, completezza, imparzialità e lealtà dell’informazione.
2. L’utilizzo di sistemi di intelligenza artificiale garantisce il trattamento lecito, corretto e trasparente dei dati personali e la compatibilità con le finalità per le quali sono stati raccolti, in conformità con il diritto dell’Unione europea in materia di dati personali e di tutela della riservatezza.
3. Le informazioni e le comunicazioni relative al trattamento dei dati connesse all’utilizzo di sistemi di intelligenza artificiale avvengono con linguaggio chiaro e semplice, in modo da garantire all’utente la piena conoscibilità e la facoltà di opporsi ai trattamenti non corretti dei propri dati personali.
4. L’accesso alle tecnologie di intelligenza artificiale dei minori di anni quattordici richiede il consenso di chi esercita la responsabilità genitoriale. Il minore degli anni diciotto, che abbia compiuto quattordici anni, può esprimere il proprio consenso per il trattamento dei dati personali connessi all’utilizzo di sistemi di intelligenza artificiale, purché le informazioni e le comunicazioni di cui al comma 3 siano facilmente accessibili e comprensibili.
 

Art. 5.
(Princìpi in materia di sviluppo economico)

1. Lo Stato e le altre autorità pubbliche:
a) promuovono l’utilizzo dell’intelligenza artificiale come strumento per migliorare l’interazione uomo-macchina nei settori produttivi, la produttività in tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile all’avvio di nuove attività economiche, al fine di accrescere la competitività del sistema economico nazionale e la sovranità tecnologica della Nazione nel quadro della strategia europea;
b) favoriscono la creazione di un mercato dell’intelligenza artificiale innovativo, equo, aperto e concorrenziale e di ecosistemi innovativi;
c) facilitano la disponibilità e l’accesso a dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale e per la comunità scientifica e dell’innovazione;
d) indirizzano le piattaforme di e-procurement delle amministrazioni pubbliche di cui all’articolo 1, comma 2, del decreto legislativo 30 marzo 2001, n. 165, in modo
che, nella scelta dei fornitori di sistemi e di modelli di intelligenza artificiale, siano privilegiate quelle soluzioni che garantiscono la localizzazione e l’elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate sull’intelligenza artificiale generativa, nel rispetto della normativa sulla concorrenza e dei princìpi di non discriminazione e proporzionalità.
 

Art. 6.
(Disposizioni in materia di sicurezza e difesa nazionale)

1. Le attività di cui all’articolo 3, comma 1, svolte per scopi di sicurezza nazionale con le finalità e le modalità di cui alla legge 3 agosto 2007, n. 124, dagli organismi di cui agli articoli 4, 6 e 7 della medesima legge, quelle di cybersicurezza e di resilienza di cui all’articolo 1, comma 1, lettere a) e b), del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, svolte dall’Agenzia per la cybersicurezza nazionale a tutela della sicurezza nazionale nello spazio cibernetico, nonché quelle svolte per scopi di difesa nazionale dalle Forze armate, sono escluse dall’ambito applicativo della presente legge. Le medesime attività sono, comunque, effettuate nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione e di quanto disposto dall’articolo 3, comma 4.
2. Lo sviluppo di sistemi e di modelli di intelligenza artificiale avviene nel rispetto delle condizioni e delle finalità di cui all’articolo 3, comma 2. Ai trattamenti di dati personali mediante l’utilizzo di sistemi di intelligenza artificiale effettuati dagli organismi di cui agli articoli 4, 6 e 7 della legge n. 124 del 2007 si applica quanto previsto dall’articolo 58, commi 1 e 3, del codice in
materia di protezione dei dati personali, di cui al decreto legislativo 30 giugno 2003, n. 196. Ai trattamenti di dati personali mediante l’utilizzo di sistemi di intelligenza artificiale effettuati dall’Agenzia per la cyber- sicurezza nazionale si applicano le disposizioni di cui all’articolo 13 del citato decreto-legge n. 82 del 2021.
3. Con regolamento adottato ai sensi dell’articolo 43 della legge n. 124 del 2007, sono definite le modalità di applicazione dei princìpi e delle disposizioni di cui al presente articolo alle attività di cui all’articolo 3, comma 1, effettuate dagli organismi di cui agli articoli 4, 6 e 7 della legge n. 124 del 2007, nonché alle medesime attività attinenti a sistemi di intelligenza artificiale, funzionali all’attività degli organismi stessi e alle medesime attività svolte da altri soggetti pubblici e da soggetti privati esclusivamente per scopi di sicurezza nazionale. Analogamente, per l’Agenzia per la cybersicurezza nazionale si procede con regolamento adottato secondo le modalità di cui all’articolo 11, comma 4, del decreto-legge n. 82 del 2021.
 

CAPO II
DISPOSIZIONI DI SETTORE

Art. 7.
(Uso dell’intelligenza artificiale in ambito sanitario e di disabilità)

1. L’utilizzo di sistemi di intelligenza artificiale contribuisce al miglioramento del sistema sanitario, alla prevenzione e alla cura delle malattie, nel rispetto dei diritti, delle libertà e degli interessi della persona, anche in materia di protezione dei dati personali.
2. L’introduzione di sistemi di intelligenza artificiale nel sistema sanitario non può selezionare e condizionare l’accesso alle prestazioni sanitarie secondo criteri discriminatori.
3. L’interessato ha diritto di essere informato circa l’utilizzo di tecnologie di intelligenza artificiale e sui vantaggi, in termini diagnostici e terapeutici, derivanti dall’utilizzo delle nuove tecnologie, nonché di ricevere informazioni sulla logica decisionale utilizzata.
4. La presente legge promuove lo sviluppo, lo studio e la diffusione di sistemi di intelligenza artificiale che migliorano le condizioni di vita delle persone con disabilità, agevolano l’accessibilità, l’autonomia, la sicurezza e i processi di inclusione sociale delle medesime persone anche ai fini dell’elaborazione del progetto di vita di cui all’articolo 2, comma 2, lettera c), della legge 22 dicembre 2021, n. 227.
5. I sistemi di intelligenza artificiale in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica.
6. I sistemi di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati devono essere affidabili, periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori.
 

Art. 8.
(Ricerca e sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale in ambito sanitario)

1. I trattamenti di dati, anche personali, eseguiti da soggetti pubblici e privati senza scopo di lucro per la ricerca e la sperimentazione scientifica nella realizzazione di sistemi di intelligenza artificiale per finalità di prevenzione, diagnosi e cura di malattie, sviluppo di farmaci, terapie e tecnologie riabilitative, realizzazione di apparati medicali, incluse protesi e interfacce fra il corpo e strumenti di sostegno alle condizioni del paziente, salute pubblica, incolumità della persona, salute e sicurezza sanitaria, in quanto necessari ai fini della realizzazione e dell’utilizzazione di banche dati e modelli di base, sono dichiarati di rilevante interesse pubblico in attuazione dell’articolo 32 della Costituzione e nel rispetto di quanto previsto dall’articolo 9, paragrafo 2, lettera g), del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016.
2. Ai medesimi fini, fermo restando l’obbligo di informativa in favore dell’interessato, che può essere assolto anche mediante un’informativa generale messa a disposizione sul sito web del titolare del trattamento e senza ulteriore consenso dell’interessato ove inizialmente previsto dalla legge, è sempre autorizzato l’uso secondario di dati personali privi degli elementi identificativi diretti, anche appartenenti alle categorie indicate all’articolo 9 del citato regolamento (UE) 2016/679, da parte dei soggetti di cui al comma 1.
3. I trattamenti di dati di cui ai commi 1 e 2 devono essere oggetto di approvazione da parte dei comitati etici interessati e devono essere comunicati al Garante per la protezione dei dati personali con l’indicazione di tutte le informazioni previste dagli articoli 24, 25, 32 e 35 del citato regolamento (UE) 2016/679, nonché con l’indicazione espressa, ove presenti, dei soggetti individuati ai sensi dell’articolo 28 del medesimo regolamento (UE) 2016/679, e possono essere avviati decorsi trenta giorni dalla predetta comunicazione se non sono stati oggetto di provvedimento di blocco disposto dal Garante per la protezione dei dati personali.
4. Restano fermi i poteri ispettivi, interdittivi e sanzionatori del Garante per la protezione dei dati personali.
 

Art. 9.
(Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore sanitario e governo della sanità digitale)

1. Al decreto-legge 18 ottobre 2012, n. 179, convertito, con modificazioni, dalla legge 17 dicembre 2012, n. 221, dopo l’articolo 12 è inserito il seguente:
« Art. 12-bis. – (Intelligenza artificiale nel settore sanitario) – 1. Al fine di garantire strumenti e tecnologie avanzate nel settore sanitario, con uno o più decreti del Ministro della salute, di concerto con l’Autorità politica delegata in materia di innovazione tecnologica e transizione digitale e con l’Autorità delegata per la sicurezza della Repubblica e per la cybersicurezza e sentita la Conferenza permanente per i rapporti tra lo Stato, le regioni e le province autonome di Trento e di Bolzano, sono disciplinate le soluzioni di intelligenza artificiale aventi funzione di supporto alle finalità di cui all’articolo 12, comma 2. Con i decreti di cui al primo periodo sono individuati i soggetti che, nell’esercizio delle proprie funzioni, accedono alle soluzioni di intelligenza artificiale secondo le modalità ivi definite.
2. Per il supporto alle finalità di cura, e in particolare per l’assistenza territoriale, è istituita una piattaforma di intelligenza artificiale. La progettazione, la realizzazione, la messa in servizio e la titolarità della piattaforma di cui al primo periodo sono attribuite all’Agenzia nazionale per i servizi sanitari regionali (AGENAS) in qualità di Agenzia nazionale per la sanità digitale. La piattaforma di cui al primo periodo eroga servizi di supporto:
a) ai professionisti sanitari per la presa in carico della popolazione assistita;
b) ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti;
c) agli utenti per l’accesso ai servizi sanitari delle Case della comunità.
3. La piattaforma di cui al comma 2 è alimentata con i dati strettamente necessari per l’erogazione dei servizi di cui al medesimo comma 2, trasmessi dai relativi titolari del trattamento. L’AGENAS è titolare del trattamento dei dati raccolti e generati all’interno della piattaforma.
4. Previo parere del Ministero della salute, del Garante per la protezione dei dati personali e dell’Agenzia per la cybersicurezza nazionale, l’AGENAS, con proprio provvedimento, valutato l’impatto del trattamento, specifica i tipi di dati trattati e le operazioni eseguite all’interno della piattaforma, nonché le misure tecniche e organizzative per garantire un livello di sicurezza adeguato al rischio e per tutelare i diritti fondamentali e gli interessi dell’interessato, in coerenza con le disposizioni del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016 ».
2. Dall’attuazione del presente articolo non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. L’Agenzia nazionale per i servizi sanitari regionali (AGENAS) provvede alle attività di cui al presente articolo con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
 

Art. 10.
(Disposizioni sull’uso dell’intelligenza artificiale in materia di lavoro)

1. L’intelligenza artificiale è impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea.
2. L’utilizzo dell’intelligenza artificiale in ambito lavorativo deve essere sicuro, affidabile, trasparente e non può svolgersi in contrasto con la dignità umana né violare la riservatezza dei dati personali. Il datore di lavoro o il committente è tenuto a informare il lavoratore dell’utilizzo dell’intelligenza artificiale nei casi e con le modalità di cui all’articolo 1-bis del decreto legislativo 26 maggio 1997, n. 152.
3. L’intelligenza artificiale nell’organizzazione e nella gestione del rapporto di lavoro garantisce l’osservanza dei diritti inviolabili del lavoratore senza discriminazioni in funzione del sesso, dell’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e delle condizioni personali, sociali ed economiche, in conformità con il diritto dell’Unione europea.
 

Art. 11.
(Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro)

1. Al fine di massimizzare i benefici e contenere i rischi derivanti dall’impiego di sistemi di intelligenza artificiale in ambito lavorativo, è istituito presso il Ministero del lavoro e delle politiche sociali l’Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con il compito di definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito lavorativo, monitorare l’impatto sul mercato del lavoro, identificare i settori lavorativi maggiormente interessati dall’avvento dell’intelligenza artificiale. L’Osservatorio promuove la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale.
2. L’Osservatorio è presieduto dal Ministro del lavoro e delle politiche sociali o da un suo rappresentante. Con decreto del Ministro del lavoro e delle politiche sociali, da adottare entro novanta giorni dalla data di entrata in vigore della presente legge, sono stabiliti i componenti, le modalità di funzionamento, nonché gli ulteriori compiti e funzioni dell’Osservatorio di cui al comma 1. Ai componenti dell’Osservatorio non spettano compensi, gettoni di presenza, rimborsi di spese o altri emolumenti comunque denominati.
3. L’istituzione e il funzionamento dell’Osservatorio non comportano nuovi o maggiori oneri a carico della finanza pubblica e sono assicurati con le risorse finanziarie, umane e strumentali disponibili a legislazione vigente.
 

Art. 12.
(Disposizioni in materia di professioni intellettuali)

1. L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
2. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.
 

Art. 13.
(Uso dell’intelligenza artificiale nella pubblica amministrazione)

1. Le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo.
2. L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale.
3. Le pubbliche amministrazioni adottano misure tecniche, organizzative e formative finalizzate a garantire un utilizzo dell’intelligenza artificiale responsabile e a sviluppare le capacità trasversali degli utilizzatori.
4. Le pubbliche amministrazioni provvedono agli adempimenti previsti dal presente articolo con le risorse finanziarie, umane e strumentali disponibili a legislazione vigente.
 

Art. 14.
(Uso dell’intelligenza artificiale nell’attività giudiziaria)

1. I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale. Il Ministero della giustizia disciplina l’impiego dei sistemi di intelligenza artificiale da parte degli uffici giudiziari ordinari. Per le altre giurisdizioni l’impiego è disciplinato in conformità ai rispettivi ordinamenti.
2. È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento.
 

Art. 15.
(Modifiche al codice di procedura civile)

1. All’articolo 9, secondo comma, del codice di procedura civile, dopo le parole: « esecuzione forzata » sono inserite le seguenti: « , per le cause che hanno ad oggetto il funzionamento di un sistema di intelligenza artificiale ».
 

Art. 16.
(Uso dell’intelligenza artificiale per il rafforzamento della cybersicurezza nazionale)

1. All’articolo 7, comma 1, del decreto- legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, dopo la lettera m-ter), è inserita la seguente:
« m-quater) promuove e sviluppa ogni iniziativa, anche di partenariato pubblico-privato, volta a valorizzare l’intelligenza artificiale come risorsa per il rafforzamento della cybersicurezza nazionale ».
 

CAPO III
STRATEGIA NAZIONALE, AUTORITÀ NAZIONALI E AZIONI DI PROMOZIONE

Art. 17.
(Strategia nazionale per l’intelligenza artificiale)

1. La strategia nazionale per l’intelligenza artificiale è predisposta e aggiornata dalla struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale, d’intesa con le Autorità nazionali per l’intelligenza artificiale di cui all’articolo 18, sentito il Ministro delle imprese e del made in Italy per i profili di politica industriale e di incentivazione e il Ministro della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale, ed è approvata con cadenza almeno biennale dal Comitato interministeriale per la transizione
digitale (CITD) di cui all’articolo 8, comma 2, del decreto-legge 1° marzo 2021, n. 22, convertito, con modificazioni, dalla legge 22 aprile 2021, n. 55.
2. La strategia di cui al comma 1 favorisce la collaborazione tra le amministrazioni pubbliche e i soggetti privati relativamente allo sviluppo e all’adozione di sistemi di intelligenza artificiale, coordina l’attività della pubblica amministrazione in materia, promuove la ricerca e la diffusione della conoscenza in materia di intelligenza artificiale, indirizza le misure e gli incentivi finalizzati allo sviluppo imprenditoriale e industriale dell’intelligenza artificiale.
3. La struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale provvede al coordinamento e al monitoraggio dell’attuazione della strategia di cui al comma 1, avvalendosi dell’Agenzia per l’Italia digitale, d’intesa, per gli aspetti di competenza, con l’Agenzia per la cybersicurezza nazionale. I risultati del monitoraggio sono trasmessi annualmente alle Camere.
4. All’articolo 8, comma 3, primo periodo, del decreto-legge 1° marzo 2021, n. 22, convertito, con modificazioni, dalla legge 22 aprile 2021, n. 55, dopo le parole: « delle imprese e del made in Italy » sono inserite le seguenti: « , dell’università e della ricerca ».
 

Art. 18.
(Autorità nazionali per l’intelligenza artificiale)

1. Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di intelligenza artificiale, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) sono designate quali Autorità nazionali per l’intelligenza artificiale. Conseguentemente, nel rispetto dei princìpi di cui alla presente legge e ferme restando le funzioni già rispettivamente attribuite:
a) l’AgID è responsabile di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale, fatto salvo quanto previsto dalla lettera b). L’AgID provvede, altresì, a definire le procedure e a esercitare le funzioni e i compiti in materia di notifica, valutazione, accreditamento e monitoraggio dei soggetti incaricati di verificare la conformità dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea;
b) l’ACN, anche ai fini di assicurare la tutela della cybersicurezza, come definita dall’articolo 1, comma 1, del decreto-legge 14 giugno 2021, n. 82, convertito, con modificazioni, dalla legge 4 agosto 2021, n. 109, è responsabile per la vigilanza, ivi incluse le attività ispettive e sanzionatorie, dei sistemi di intelligenza artificiale, secondo quanto previsto dalla normativa nazionale e dell’Unione europea. L’ACN è, altresì, responsabile per la promozione e lo sviluppo dell’intelligenza artificiale relativamente ai profili di cybersicurezza;
c) l’AgID e l’ACN, ciascuna per quanto di rispettiva competenza, assicurano l’istituzione e la gestione congiunta di spazi di sperimentazione finalizzati alla realizzazione di sistemi di intelligenza artificiale conformi alla normativa nazionale e dell’Unione europea, sentito il Ministero della difesa per gli aspetti relativi ai sistemi di intelligenza artificiale impiegabili in chiave duale.
2. Le Autorità nazionali per l’intelligenza artificiale di cui al comma 1 assicurano il coordinamento e la collaborazione con le altre pubbliche amministrazioni e le autorità indipendenti, nonché ogni opportuno raccordo tra loro per l’esercizio delle funzioni di cui al presente articolo. A quest’ultimo fine, presso la Presidenza del Consiglio dei ministri è istituito un Comitato di coordinamento, composto dai direttori generali delle due citate Agenzie e dal capo del Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri medesima. Ai componenti del Comitato non spettano compensi, gettoni di presenza, rimborsi di spese o altri emolumenti comunque denominati.
3. Restano ferme le competenze, i compiti e i poteri del Garante per la protezione dei dati personali.
 

Art. 19.
(Applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale)

1. È autorizzata la spesa di euro 300.000 annui per ciascuno degli anni 2025 e 2026 per la realizzazione di progetti sperimentali volti all’applicazione dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale a cittadini e imprese.
2. Agli oneri derivanti dal comma 1, pari a euro 300.000 annui per ciascuno degli anni 2025 e 2026, si provvede mediante corrispondente riduzione delle proiezioni dello stanziamento del fondo speciale di parte corrente iscritto, ai fini del bilancio triennale 2024-2026, nell’ambito del programma « Fondi di riserva e speciali » della missione « Fondi da ripartire » dello stato di previsione del Ministero dell’economia e delle finanze per l’anno 2024, allo scopo parzialmente utilizzando l’accantonamento relativo al Ministero degli affari esteri e della cooperazione internazionale.
 

Art. 20.
(Misure di sostegno ai giovani e allo sport)

1. All’articolo 5, comma 1, lettera d), del decreto legislativo 27 dicembre 2023, n. 209,
sono aggiunte, infine, le seguenti parole: « oppure hanno svolto un’attività di ricerca anche applicata nell’ambito delle tecnologie di intelligenza artificiale ».
2. Nel piano didattico personalizzato (PDP) adottato dall’istituzione scolastica secondaria di secondo grado nell’ambito della propria autonomia, per le studentesse e gli studenti ad alto potenziale cognitivo possono essere inserite attività volte all’acquisizione di ulteriori competenze attraverso esperienze di apprendimento presso le istituzioni della formazione superiore, in deroga a quanto previsto dall’articolo 11 del decreto del Presidente della Repubblica 15 marzo 2010, n. 89, in materia di previo possesso del titolo, in coerenza con il profilo in uscita dell’indirizzo di studio. I crediti formativi acquisiti nell’ambito delle attività di cui al primo periodo sono valutati nell’ambito dei percorsi formativi della formazione superiore intrapresi dopo il conseguimento del titolo di cui al medesimo primo periodo.
3. Lo Stato favorisce l’accessibilità ai sistemi di intelligenza artificiale per il miglioramento del benessere psicofisico attraverso l’attività sportiva, anche ai fini dello sviluppo di soluzioni innovative finalizzate a una maggiore inclusione in ambito sportivo delle persone con disabilità. Nel rispetto dei princìpi generali di cui alla presente legge, i sistemi di intelligenza artificiale possono essere utilizzati anche per l’organizzazione delle attività sportive.
 

Art. 21.
(Investimenti nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico)

1. In linea con la strategia nazionale di cui all’articolo 17, al fine di supportare lo sviluppo di imprese operanti nei settori dell’intelligenza artificiale, della cybersicurezza, del calcolo quantistico, delle telecomunicazioni e delle tecnologie per questa abilitanti, anche tramite la creazione di poli di trasferimento tecnologico e programmi di accelerazione operanti nei medesimi settori, avvalendosi dell’operatività della società di gestione del risparmio di cui all’articolo 1, comma 116, della legge 30 dicembre 2018, n. 145, è autorizzata, fino all’ammontare complessivo di un miliardo di euro, l’assunzione di partecipazioni nel capitale di rischio direttamente o indirettamente, di:
a) piccole e medie imprese (PMI) con elevato potenziale di sviluppo e innovative, aventi sede legale e operativa in Italia, che operano nei settori dell’intelligenza artificiale, della cybersicurezza e del calcolo quantistico e delle tecnologie per queste abilitanti, nonché nel settore delle telecomunicazioni con particolare riferimento al 5G e alle sue evoluzioni, al mobile edge computing, alle architetture aperte basate su soluzioni software, al Web 3, all’elaborazione del segnale, anche in relazione ai profili di sicurezza e integrità delle reti di comunicazione elettroniche, e che si trovano in fase di sperimentazione (seed financing), di costituzione (start up financing), di avvio dell’attività (early-stage financing) o di sviluppo del prodotto (expansion, scale up financing);
b) imprese, con sede legale e operativa in Italia, anche diverse da quelle di cui alla lettera a), operanti nei settori e nelle tecnologie di cui alla lettera a), con elevato potenziale di sviluppo e altamente innovative, al fine di promuoverne lo sviluppo come campioni tecnologici nazionali.
2. Gli investimenti di cui al comma 1 sono effettuati mediante utilizzo delle risorse del Fondo di sostegno al venture capital di cui all’articolo 1, comma 209, della legge 30 dicembre 2018, n. 145, secondo le disposizioni di cui al decreto del Ministro dello sviluppo economico 27 giugno 2019, pubblicato nella Gazzetta Ufficiale n. 176 del 29 luglio 2019, sia mediante la sottoscrizione,
direttamente o indirettamente, di quote o azioni di uno o più fondi per il venture capital appositamente istituiti e gestiti dalla società di gestione del risparmio di cui al comma 1, sia mediante coinvestimento da parte di altri fondi per il venture capital istituiti e gestiti dalla medesima società di gestione del risparmio. La normativa di attuazione di cui al citato decreto del Ministro dello sviluppo economico 27 giugno 2019 è aggiornata, al fine di definire criteri e modalità di applicazione delle disposizioni di cui al presente articolo.
3. Oltre al Ministero delle imprese e del made in Italy in qualità di investitore, partecipano con propri rappresentanti agli organi di governo dei fondi di venture capital di cui al presente articolo, in ragione delle proprie competenze, la struttura della Presidenza del Consiglio dei ministri competente in materia di innovazione tecnologica e transizione digitale e l’Agenzia per la cybersicurezza nazionale, in ogni caso senza compensi o indennità.
 

Art. 22.
(Deleghe al Governo in materia di intelligenza artificiale)

1. Il Governo è delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, con le procedure di cui all’articolo 31 della legge 24 dicembre 2012, n. 234, acquisito il parere delle competenti Commissioni parlamentari e del Garante per la protezione dei dati personali, uno o più decreti legislativi per l’adeguamento della normativa nazionale al regolamento del Parlamento europeo e del Consiglio sull’intelligenza artificiale, adottato dal Parlamento europeo nella seduta del 13 marzo 2024.
2. Nell’esercizio della delega di cui al comma 1 il Governo si attiene, oltre che ai princìpi e criteri direttivi generali di cui al-
l’articolo 32 della legge 24 dicembre 2012, n. 234, ai seguenti principi e criteri direttivi specifici:
a) designazione, in coerenza con quanto previsto dall’articolo 18 della presente legge, come autorità nazionali competenti ai fini dell’attuazione del regolamento di cui al comma 1, di un’autorità di vigilanza del mercato, di un’autorità di notifica, nonché del punto di contatto con le istituzioni dell’Unione europea;
b) previsione di percorsi di alfabetizzazione e formazione in materia di utilizzo dei sistemi di intelligenza artificiale;
c) previsione, da parte degli ordini professionali, di percorsi di alfabetizzazione e formazione, per i professionisti e per gli operatori dello specifico settore, all’uso dei sistemi di intelligenza artificiale; previsione della possibilità di riconoscimento di un equo compenso modulabile sulla base delle responsabilità e dei rischi connessi all’uso dei sistemi di intelligenza artificiale;
d) potenziamento, all’interno dei curricoli scolastici, dello sviluppo di competenze scientifiche, tecnologiche, ingegneristiche e matematiche legate alle discipline STEM, nonché artistiche, al fine di promuovere la scelta da parte delle studentesse e degli studenti, anche attraverso mirate attività di orientamento personalizzato, di percorsi di formazione superiore relativi alle menzionate discipline;
e) previsione, nei corsi universitari e delle istituzioni di alta formazione artistica, musicale e coreutica (AFAM), nonché nei percorsi di istruzione tecnologica superiore offerti dagli istituti tecnologici superiori (ITS Academy), coerentemente con i rispettivi profili culturali e professionali, di attività formative per la comprensione tecnica e l’utilizzo consapevole anche sotto il profilo giuridico delle tecnologie, anche con riferimento ai sistemi di intelligenza artificiale
così come definiti dalla disciplina europea, nonché per la corretta interpretazione della produzione di tali sistemi in termini di previsioni, contenuti, raccomandazioni o decisioni;
f) valorizzazione delle attività di ricerca e di trasferimento tecnologico in materia di intelligenza artificiale svolte da università, istituzioni dell’AFAM, ITS Academy ed enti pubblici di ricerca, mediante disposizioni finalizzate al perseguimento dei seguenti obiettivi:
1) agevolare il coinvolgimento del sistema dell’università e della ricerca nella promozione, nella realizzazione e nell’utilizzo di spazi di sperimentazione normativa in collaborazione con il mondo produttivo;
2) incentivare le attività di supporto e semplificare gli strumenti di collaborazione tra il sistema dell’università e della ricerca, degli ITS Academy e le Autorità nazionali di cui all’articolo 18.
3. Il Governo è, altresì, delegato ad adottare, entro dodici mesi dalla data di entrata in vigore della presente legge, uno o più decreti legislativi per definire organicamente la disciplina nei casi di uso di sistemi di intelligenza artificiale per finalità illecite.
4. Gli schemi dei decreti legislativi di cui al comma 3 sono adottati su proposta del Presidente del Consiglio dei ministri e del Ministro della giustizia, di concerto con il Ministro dell’interno, e sono successiva-mente trasmessi alle Camere per il parere delle Commissioni parlamentari competenti. Decorsi sessanta giorni dalla data della trasmissione, i decreti possono essere emanati anche in mancanza dei pareri. Qualora detto termine venga a scadere nei trenta giorni antecedenti alla scadenza del termine previsto per l’esercizio della delega o successivamente, quest’ultimo è prorogato di sessanta giorni.
5. Nell’esercizio della delega di cui al comma 3, il decreto o i decreti legislativi sono adottati nel rispetto dei seguenti princìpi e criteri direttivi:
a) previsione di strumenti, anche cautelari, in ambito civile, amministrativo e penale, finalizzati a inibire la diffusione e a rimuovere contenuti generati illecitamente anche con sistemi di intelligenza artificiale, assistiti da un sistema di sanzioni effettive, proporzionate e dissuasive;
b) introduzione di una o più autonome fattispecie di reato, punite a titolo di dolo o di colpa, incentrate sulla omessa adozione o l’omesso adeguamento di misure di sicurezza per la produzione, la messa in circo-lazione e l’utilizzo professionale di sistemi di intelligenza artificiale, nonché introduzione di ulteriori fattispecie di reato, punite a titolo di dolo, dirette a tutelare specifici beni giuridici esposti a rischio di compromissione per effetto dell’utilizzazione di sistemi di intelligenza artificiale e che non siano adeguatamente tutelabili mediante interventi su fattispecie già esistenti;
c) introduzione di una circostanza aggravante speciale per i delitti dolosi puniti con pena diversa dall’ergastolo nei quali l’impiego dei sistemi di intelligenza artificiale incida in termini di rilevante gravità sull’offesa al bene giuridico tutelato, includendovi i casi di offesa ai beni attinenti alla persona e allo Stato;
d) revisione, anche a fini di razionalizzazione complessiva del sistema, della normativa sostanziale e processuale vigente, in conformità ai principi e ai criteri enunciati nelle lettere a), b) e c) del presente comma.
6. Dall’attuazione del presente articolo non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. Le amministrazioni competenti provvedono ai relativi adempimenti con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.
 

CAPO IV
DISPOSIZIONI A TUTELA DEGLI UTENTI E IN MATERIA DI DIRITTO D’AUTORE

Art. 23.
(Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di intelligenza artificiale)

1. Al decreto legislativo 8 novembre 2021, n. 208, sono apportate le seguenti modificazioni:
a) all’articolo 6, comma 2, lettera e), dopo la parola: « tecniche » sono inserite le seguenti: « , anche attraverso l’utilizzo di sistemi di intelligenza artificiale, »;
b) dopo l’articolo 40, è inserito il seguente:
« Art. 40-bis. – (Contenuti testuali, fotografici, audiovisivi e radiofonici che utilizzano sistemi di intelligenza artificiale) – 1. Qualunque contenuto informativo diffuso da fornitori di servizi audiovisivi e radiofonici tramite qualsiasi piattaforma in qualsiasi modalità, incluso il video on demand e lo streaming, che, previa acquisizione del consenso dei titolari dei diritti, sia stato, attraverso l’utilizzo di sistemi di intelligenza artificiale, completamente generato ovvero, anche parzialmente, modificato o alterato in modo tale da presentare come reali dati, fatti e informazioni che non lo sono, deve essere reso, a cura dell’autore o del titolare dei diritti di sfruttamento economico, se diverso dall’autore, chiaramente visibile e riconoscibile da parte degli utenti mediante inserimento di un elemento o segno identificativo, anche in filigrana o marcatura incorporata purché chiaramente visibile e riconoscibile, con l’acronimo “IA” ovvero, nel caso di contenuti audio, attraverso annunci audio
ovvero con tecnologie adatte a consentire il riconoscimento. Tale identificazione deve essere presente sia all’inizio della trasmissione e all’inizio del contenuto, sia alla fine della trasmissione e alla fine del contenuto, nonché ad ogni ripresa del programma a seguito di interruzione pubblicitaria. L’inserimento del segno identificativo è escluso quando il contenuto fa parte di un’opera o di un programma manifestamente creativo, satirico, artistico o fittizio, fatte salve le tutele per i diritti e le libertà dei terzi. Fermo restando quanto previsto dall’articolo 41, per le finalità di cui al presente articolo nonché all’articolo 42, commi 1, lettera c-bis), e 7, lettera c-bis), l’Autorità promuove forme di co- regolamentazione e di autoregolamentazione tramite codici di condotta sia con i fornitori di servizi di media audiovisivi e radiofonici sia con i fornitori di piattaforme per la condivisione di video »;
c) all’articolo 42:
1) al comma 1, dopo la lettera c), è aggiunta la seguente:
« c-bis) il grande pubblico da contenuti informativi che siano stati, attraverso l’utilizzo di sistemi di intelligenza artificiale, completamente generati ovvero, anche parzialmente, modificati o alterati in modo da presentare come reali dati, fatti e informazioni che non lo sono »;
2) al comma 7, dopo la lettera c), è inserita la seguente:
« c-bis) avere una funzionalità che consenta agli utenti che caricano contenuti video generati dagli utenti di dichiarare se tali contenuti video contengono contenuti generati, modificati o alterati, anche parzialmente, in qualsiasi forma e modo, attraverso l’utilizzo di sistemi di intelligenza artificiale di cui sono a conoscenza o di cui si possa ragionevolmente presumere che siano a conoscenza »;
d) all’articolo 67:
1) al comma 1, dopo la lettera r) è aggiunta la seguente:
« r-bis) in materia di violazione degli obblighi di cui all’articolo 40-bis »;
2) al comma 2, lettera a), le parole: « e p) » sono sostituite dalle seguenti: « , p) e r-bis) ».
 

Art. 24.
(Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale)

1. Alla legge 22 aprile 1941, n. 633, sono apportate le seguenti modificazioni:
a) all’articolo 1, primo comma, dopo le parole: « opere dell’ingegno » è inserita la seguente: « umano » e dopo le parole: « forma di espressione » sono aggiunte, in fine, le seguenti: « , anche laddove create con l’ausilio di strumenti di intelligenza artificiale, purché costituenti risultato del lavoro intellettuale dell’autore »;
b) dopo l’articolo 70-sexies, è inserito il seguente:
« Art. 70-septies. – 1. La riproduzione e l’estrazione di opere o altri materiali attraverso modelli e sistemi di intelligenza artificiale anche generativa sono consentite in conformità alle disposizioni di cui agli articoli 70-ter e 70-quater ».
 

CAPO V
DISPOSIZIONI PENALI

Art. 25.
(Modifiche al codice penale e ad ulteriori disposizioni penali)

1. Al codice penale sono apportate le seguenti modificazioni:
a) all’articolo 61, primo comma, dopo il numero 11-novies) è aggiunto il seguente:
« 11-decies) l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato »;
b) all’articolo 294, dopo il primo comma è aggiunto il seguente:
« La pena è aumentata se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale »;
c) all’articolo 494, dopo il primo comma è aggiunto il seguente:
« La pena è della reclusione da uno a tre anni se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale »;
d) all’articolo 501, terzo comma, dopo il numero 2) è aggiunto il seguente:
« 2-bis) se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale »;
e) dopo l’articolo 612-ter è inserito il seguente:
« Art. 612-quater. – (Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale) – Chiunque cagiona
un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a in-durre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.
Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate. »;
f) all’articolo 640, secondo comma, dopo il numero 2-bis è aggiunto il seguente:
« 2-ter. se il fatto è commesso mediante l’impiego di sistemi di intelligenza artificiale »;
g) all’articolo 640-ter, terzo comma, dopo le parole: « è commesso » sono inserite le seguenti: « mediante l’impiego di sistemi di intelligenza artificiale o »;
h) all’articolo 648-bis, terzo comma, dopo le parole: « un’attività professionale » sono aggiunte le seguenti: « ovvero mediante l’impiego di sistemi di intelligenza artificiale »;
i) all’articolo 648-ter, terzo comma, dopo le parole: « un’attività professionale » sono aggiunte le seguenti: « ovvero mediante l’impiego di sistemi di intelligenza artificiale »;
l) all’articolo 648-ter.1, sesto comma, dopo le parole: « altra attività professionale » sono aggiunte le seguenti: « ovvero mediante l’impiego di sistemi di intelligenza artificiale ».
2. All’articolo 2637, primo comma, del codice civile, è aggiunto, in fine, il seguente periodo: « La pena è della reclusione da due a sette anni se il fatto è commesso mediante
l’impiego di sistemi di intelligenza artificiale ».
3. All’articolo 171, primo comma, della legge 22 aprile 1941, n. 633, dopo la lettera a-bis) è inserita la seguente:
« a-ter) riproduce o estrae testo o dati da opere o altri materiali disponibili in rete o in banche di dati in violazione degli articoli 70-ter e 70-quater, anche attraverso sistemi di intelligenza artificiale ».
4. All’articolo 185, comma 1, del testo unico delle disposizioni in materia di intermediazione finanziaria, di cui al decreto legislativo 24 febbraio 1998, n. 58, è aggiunto, in fine, il seguente periodo: « Se i fatti sono commessi mediante l’impiego di sistemi di intelligenza artificiale, la pena è aumentata ».
 

CAPO VI
DISPOSIZIONI FINANZIARIE

Art. 26.
(Clausola di invarianza finanziaria)

1. Dall’attuazione della presente legge, ad esclusione dell’articolo 19, non devono derivare nuovi o maggiori oneri a carico della finanza pubblica. Le amministrazioni pubbliche interessate provvedono all’adempimento delle disposizioni della presente legge con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.


fonte: senato.it