L’applicazione pratica dell’AI act in azienda

Gli impatti organizzativi, contrattuali, tecnici ed HR del Regolamento UE 2024/1689 sull’Intelligenza Artificiale

Destinatari

Il corso è rivolto ai Responsabili della Compliance e degli Affari Legali, Direttori ICT, ai Responsabili per l’approvvigionamento di beni e servizi ICT, ai Responsabili della Gestione e dello Sviluppo del Personale, ai Responsabili della Privacy, DPO, Avvocati e consulenti in materia ICT.

Finalità

Il corso intende fornire un quadro completo per prepararsi ai numerosi adempimenti organizzativi e tecnici cui saranno chiamati sviluppatori, distributori, deployer e utenti dei sistemi di IA (con particolare riferimento a quelli definiti “ad alto rischio”) e dei modelli di IA. Saranno analizzate, in una prospettiva pratica, le norme rilevanti del Regolamento UE 2024/1689 sull'Intelligenza Artificiale (EU AI Act). Dal momento che in caso di impiego di sistemi IA "ad alto rischio" anche le aziende che acquistano e fanno utilizzare sotto la loro autorità tali sistemi (i “deployer”) sono chiamati a implementare obblighi e politiche organizzative e tecniche, il workshop fornisce un quadro pratico di tali obblighi, onde consentire agli operatori di farsi trovare pronti non appena le norme rilevanti saranno applicabili (tra il 2 febbraio 2025 e il 2 agosto 2026). 
Obiettivo dell'incontro è fornire ai partecipanti un quadro dettagliato e completo degli adempimenti in materia di impiego, utilizzo e gestione dei sistemi di Intelligenza Artificiale, fornendo indicazioni pratiche e immediatamente applicabili alle diverse realtà aziendali.
 

Contenuti

Entrata in vigore e termini di applicabilità del Regolamento UE 2024/1689 sull’Intelligenza Artificiale.
L’oggetto e le finalità del nuovo Regolamento 2024/1689 sull’Intelligenza Artificiale.

Le diverse tipologie di IA e le modalità con cui l’IA viene addestrata: gli scenari attuali e le prospettive future. Modelli e sistemi di IA: le principali differenze.

Ambito di applicazione soggettivo ed efficacia delle nuove regole.

Le principali definizioni giuridiche, tecnologiche, commerciali (ed etiche).
Le definizioni relative alla tecnologia IA, alla progettazione, utilizzo e operatività.
Le definizioni relative ai soggetti a vario titolo implicati dalla operatività dei sistemi IA.
Le definizioni pertinenti alle attività commerciali aventi a oggetto i sistemi IA.
Le definizioni relative a particolari sistemi di IA che utilizzano la biometria.

L’approccio risk based come scelta legislativa per la regolamentazione dei sistemi IA.

Le pratiche di Intelligenza Artificiale vietate.

Classificazione dei sistemi di Intelligenza Artificiale ad alto rischio: l’articolo 6 e l’Allegato III del Regolamento UE 2024/1689.

I requisiti di conformità di un sistema di IA ad alto rischio quale presupposto per la sua immissione sul mercato e messa in servizio: strutturare, attuare, documentare e manutenere un sistema di risk assessment.
Risk assessment e data governance: gli adempimenti pratici.
Risk assessment e documentazione tecnica da predisporre prima della immissione sul mercato o messa in uso di sistemi IA ad alto rischio.

L’obbligo di implementazione di un sistema di tracciamento, registrazione e conservazione dei logs/eventi generati da sistemi IA alto rischio.

La trasparenza verso gli utenti: le informazioni da fornire su tutti gli aspetti progettuali, operativi, tecnici e di sicurezza dei sistemi IA ad alto rischio.

Gli aspetti cybersecurity: gli obblighi di accuratezza, robustezza e resilienza dei sistemi IA ad alto rischio.

Applicare in pratica la supervisione umana dei sistemi IA ad alto rischio: l’approccio antropocentrico all’Intelligenza Artificiale.

Gli obblighi orizzontali per i fornitori di sistemi di IA ad alto rischio: implementazione del “sistema di gestione della qualità dei sistemi IA ad alto rischio” quale forma di accountability dell’Intelligenza Artificiale.
Gli altri obblighi dei fornitori di sistemi di IA ad alto rischio: attuazione delle procedure di valutazione della conformità dei sistemi IA.

Gli obblighi in capo agli altri soggetti coinvolti nella catena del valore dei sistemi di IA ad alto rischio.
Il caso particolare degli obblighi imposti agli utenti di sistemi di IA ad alto rischio.
Gli obblighi gestionali e informativi e l’impatto sui contratti di fornitura.

Redigere e documentare la Valutazione d'impatto sui diritti fondamentali per i sistemi di IA ad alto rischio.
I modelli IA a scopi generali o GPAI: gli obblighi gestionali e tecnici. Modelli GPAI e ri-schi sistemici.

La governance europea dell’IA: Ufficio per l’IA, il Comitato Europeo per l’Intelligenza Artificiale, il ruolo degli esperti e del forume per l’IA e delle Autorità nazionali.

Il sistema sanzionatorio per la violazione del Regolamento IA.
 

Docenti

Alessandro Del Ninno
titolare della Cattedre di Intelligenza Artificiale, Machine Learning e Diritto LABGP4 e di Informatica Giuridica LABGP2 presso la LUISS Guido Carli di Roma. Avvocato esperto di ICT, AI, Data Protection, Partner di FIVERS Studio Legale e Tributa-rio. Presidente del Comitato Scientifico dell’Associazione Nazionale per la Protezione dei Dati Personali. Membro del Comitato Scientifico dell’Istituto Italiano Privacy. Appointed member del Pool of Experts europei di supporto e consulenza al Comitato Europeo per la Protezione dei Dati Personali. Relatore nell’ambito dei più importanti convegni nazionali e internazionali ove viene frequentemente invitato in qualità di esperto su tematiche legate all’Information& Communication Technology, all’IP e alla Data Protection. Nelle stesse materie è autore di oltre 150 tra libri, trattati, monografie, saggi e articoli. Per Key Editore è Direttore delle due collane editoriali “GDPR: casi pratici risolti” e “Le Leggi del Decennio Digitale 2020-2030 della

Dettagli corso

Cerca nel sito


Link convenzioni
Link virtual Tour

Prossimi convegni