(Adnkronos) – PRESENTATO L’OSSERVATORIO ACCREDIA
– L’AI Act pone l’accento sulla necessità di organismi notificati per la gestione delle problematiche legate ad alcune tipologie di sistemi ad alto rischio
– Presentate alcune applicazioni di sistemi di IA in ambito medico, tra cui due casi studio su pazienti affetti da melanoma e sclerosi multipla che evidenziano il ruolo della valutazione della conformità accreditata nel mitigare il rischio derivante da pregiudizi impliciti nei dati (bias)
Roma, 16 ottobre 2024 – È stato presentato oggi nel corso del Convegno “Intelligenza Artificiale tra valutazione del rischio e certificazione accreditata” l’Osservatorio realizzato da Accredia, Ente unico di accreditamento, e CINI, Consorzio Interuniversitario Nazionale per l’Informatica, nel quale sono emersi alcuni fattori critici sull’utilizzo dell’IA e la loro rischiosità per i cittadini.
In particolare, nell’ambito medico, attraverso lo sviluppo di due casi di studio, è stato approfondito il potenziale beneficio derivante dalla valutazione di conformità accreditata alle norme tecniche sviluppate da ISO, per garantire i consumatori e tutelare le imprese da eventuali responsabilità.
Il punto di partenza dell’Osservatorio è l’AI Act che pone l’accento sulla necessità di organismi notificati per la gestione delle problematiche legate ai sistemi IA ad alto rischio. Infatti, se da una parte l’IA offre possibilità senza precedenti per l’innovazione e il miglioramento della qualità della vita, dall’altra solleva anche questioni significative relative alla sicurezza, alla privacy, all’equità e all’etica. In questo contesto, l’Osservatorio evidenzia come l’accreditamento potrebbe supportare lo sviluppo di sistemi di IA affidabili e sicuri che tutelino i diritti fondamentali dei cittadini.
Il ruolo di Accredia, l’Ente italiano di accreditamento, sarà quello di supportare le Autorità, che rappresenteranno la governance in questo settore, nel garantire la competenza degli organismi e dei laboratori che saranno chiamati a valutare la conformità dei sistemi di IA alle norme tecniche; tali norme saranno sviluppate dagli Enti di Normazione europei, rendendo più chiare ed efficaci le procedure necessarie all’adeguamento all’AI Act.
Solo nel caso in cui la procedura di valutazione della conformità abbia esito positivo, potrà essere apposta la marcatura CE, che testimonierà il rispetto della normativa. I sistemi di IA ad alto rischio dovranno dunque essere conformi a una serie di requisiti volti a minimizzare i potenziali danni legati al loro utilizzo, tra i quali ci sono misure di cybersicurezza, qualità del data set e requisiti di supervisione umana.
In ambito medico l’applicazione di sistemi di IA rientra tra gli utilizzi che prevedono l’intervento di un organismo notificato. L’Osservatorio, in tale ambito, sviluppa due casi di studio – uno sulla detection del melanoma e uno per la stratificazione dei pazienti con sclerosi multipla simulando una verifica della conformità alla linea guida ISO/IEC TR 24027:2021 per la gestione dei bias. La simulazione dei controlli di conformità nello sviluppo dei sistemi di IA e prima del loro rilascio, ha evidenziato l’importanza di un approccio sistematico e tecnico volto a minimizzare il rischio di pregiudizi nei dati con un impatto sull’efficacia dei sistemi di IA.
Parallelamente, nel settore della Pubblica Amministrazione, il caso di studio con l’INAIL contenuto nell’Osservatorio evidenzia l’importanza della norma ISO 42001:2023 sul Quality Management per i sistemi di IA: l’adeguamento a tale norma assicura che ogni processo decisionale automatizzato sia sottoposto a controlli rigorosi prima di essere implementato, approccio particolarmente pertinente nell’ottica dell’AI Act, che pone in risalto l’importanza di una gestione adeguata del rischio e della qualità nell’IA.
“Come in altri regolamenti europei, anche l’AI Act richiama il ruolo delle autorità di notifica e degli organismi notificati nei casi in cui le esigenze di tutela dei cittadini europei richiedano particolare attenzione – spiega Massimo De Felice, Presidente di Accredia. – La formazione riveste un ruolo cruciale, perché per garantire che l’implementazione dei sistemi IA sia conforme agli standard etici e normativi, è essenziale che professionisti, sviluppatori e organizzazioni acquisiscano una solida comprensione delle tecnologie emergenti e dei relativi impatti. In questo contesto – conclude – le iniziative educative proposte da Accredia Academy offrono un approccio strutturato per sviluppare competenze specializzate, promuovendo l’uso tecnicamente adeguato e sicuro dell’IA nelle aziende e nelle istituzioni”.
“La definizione di standard e norme tecniche ha un ruolo cruciale nell’applicazione dell’AI Act – spiega il Prof. Daniele Nardi, responsabile del progetto per il CINI-AIIS. – Il Laboratorio Artificial Intelligence and Intelligent Systems del CINI contribuisce attivamente a questo percorso, interagendo con diversi attori istituzionali ed in particolare con Accredia, con l’obiettivo di fornire il supporto tecnico-scientifico necessario. Nel progetto con Accredia, ha rivestito particolare importanza lo sviluppo di cosiddetti Proof-of-concept, ossia esempi concreti di applicazione di standard: solo attraverso una sperimentazione dedicata si riescono a definire i passi di un processo che rappresenta la controparte operativa dell’azione volta a rendere l’utilizzo dei sistemi di IA sicuro e rispettoso dei diritti fondamentali”.
Chi è Accredia
Accredia è l’Ente unico nazionale di accreditamento designato dal Governo italiano. Il suo compito è attestare la competenza dei laboratori e degli organismi che verificano la conformità di prodotti, servizi e professionisti agli standard di riferimento, facilitandone la circolazione a livello internazionale.
Accredia è un’associazione privata senza scopo di lucro che opera sotto la vigilanza del Ministero delle Imprese e del Made in Italy e svolge un’attività di interesse pubblico, a garanzia delle istituzioni, delle imprese e dei consumatori.
Ufficio stampa ACCREDIA Ente Italiano di Accreditamento
Francesca Nizzero – f.nizzero@accredia.it – 338 5611639
Sara Molteni – sara.molteni@axel-comm.it – 347 8489228