Ce ne parla la professoressa Michela Milano, direttrice del Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence (Alma AI): «A Bologna si sta costruendo un ecosistema spettacolare per la ricerca e l’innovazione che non ha competitor in Italia e neanche in Europa»
di Francesca Manicardi, giornalista
Si parla spesso di intelligenza artificiale: dai benefici in ambito sanitario e quello nei trasporti, fino alla sostenibilità. Si parla spesso però anche dei rischi, soprattutto per quanto riguarda i posti di lavoro. Recentemente il Parlamento europeo ha dato il via alla sua prima regolamentazione (Artificial Intelligence Act) proponendo che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. Una volta approvate, queste saranno le prime regole al mondo sull’intelligenza artificiale.
Ne abbiamo parlato con la professoressa Michela Milano, direttrice del Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence (Alma AI) dell’Università di Bologna, nato nel 2020 proprio poco prima che scoppiasse la pandemia da Sars Cov-2, che si occupa di intelligenza artificiale non solo dal punto di vista tecnologico e scientifico, ma anche giuridico, economico, sociale, etico, psicologico e che vede coinvolti 27 Dipartimenti (a luglio 28 con l’ingresso di quello di Chimica).
«Nel Centro ci sono docenti, ricercatori e ricercatrici che si occupano di applicazione, cioè dove l’intelligenza artificiale può essere applicata – spiega la professoressa Milano – quindi docenti di medicina (sia per la parte preclinica che clinica), di agraria, economia, ingegneria meccanica, etc. Abbiamo più di 420 strutturati, a cui bisogna aggiungere dottorandi e assegnisti che lavorano su queste tematiche. Il Centro è organizzato in otto unità scientifiche: due sono fondazionali, quindi legate alla ricerca di base (informatica, matematica e fisica); una riguarda la connessione tra intelligenza artificiale e high performance computing; una l’industria e quattro sono legate all’aspetto sociale (salute e benessere; ambito legale ed etico; scienze umanistiche e istruzione)».
In quale ambito l’intelligenza artificiale è più utile?
«Nell’industria e nella medicina ci sono applicazioni sviluppate in modo più approfondito e che esistono già sul mercato. Ad esempio, nell’industria, esiste la manutenzione predittiva, cioè l’utilizzazione di dati che provengono da sensori di macchine di un’azienda per prevedere quando ci sarà un guasto. In medicina ci sono le applicazioni come le analisi delle immagini mediche (tac, risonanza magnetica, radiografie), ma anche applicazioni di studio di dati clinici per prevedere patologie a 5 o 10 anni, per capire quali sono i fattori di rischio e creare modelli decisionali che siano in grado di fornire suggerimenti per minimizzare questi fattori di rischio. Poi c’è l’aspetto ambientale: la sostenibilità è un ambito in cui l’intelligenza artificiale può dare un contributo perché è in grado di costruire modelli a partire dai dati e legarli con conoscenze degli esperti, come la gestione delle smart city, della mobilità, degli ecosistemi».
Quali sono i rischi dell’utilizzo dell’intelligenza artificiale?
«Non è un processo arrestabile in nessun modo. Ci sono dei rischi, ma bisogna esserne consci e imparare a gestirli. Uno dei rischi è relativo all’intelligenza artificiale generativa che è in grado di costruire immagini/video/testi totalmente simili a quelli prodotti dall’essere umano, ed è difficile comprendere se siano veri o un fake. Questo potrebbe essere in grado di polarizzare l’opinione pubblica. Un altro rischio è legato al large language model, cioè strumenti che non conoscono la semantica di quello che dicono, ma indovinano la parola più probabile che può seguire in una conversazione. Qui si può creare l’effetto oracolo, specialmente sui ragazzini che non hanno grande senso critico, che potrebbero ritenere questi strumenti onniscienti. Altro rischio è quello del bias: i l modelli dell’intelligenza artificiale vengono appresi dai dati, che possono essere polarizzati e quindi anche i modelli sono polarizzati. Questo può portare a discriminazioni di genere, di età, di razza, che influiscono sulla equità di questi modelli. Noi abbiamo un progetto che si chiama Equitas, che sta studiando come rendere questi sistemi equi. Altri rischi sono legati alla privacy dei dati: questi sistemi devono essere privacy preserving, devono essere robusti e non essere in grado di causare danni intenzionali e se li causano ci deve essere una chiara responsabilità».
Il Parlamento europeo ha dato il via libera alla prima regolamentazione al mondo sull’intelligenza artificiale, cosa ne pensa?
«La regolamentazione è assolutamente necessaria. Ci sono alcuni usi vietati, come la polarizzazione dell’opinione pubblica. Ci sono dei settori ad alto rischio, in cui le applicazioni possono essere usate, ma controllate, come quelle relativi ai dispositivi medici che potrebbe ledere la salute di una persona. E poi ci sono delle applicazioni a medio e basso rischio in cui tutta questa attenzione non è necessaria».
Dove stiamo andando?
«Verso un impatto fondamentale sul mondo del lavoro, così come tutte le altre rivoluzioni passate. Non si tratta di sostituire solo le mansioni di tipo fisico, ma anche mentali. Si perderanno molti posti di lavoro, ma se ne genereranno molti altri. Queste tecnologie entrano nelle aziende e nella vita quotidiana. Diventerà fondamentale la formazione fin dalla prime classi della scuola primarie. All’università sarà necessario fare in modo che l’intelligenza artificiale sia insegnata in tutti i corsi, non solo a ingegneria, matematica e fisica. Noi stiamo facendo una sperimentazione, con piccoli corsi di 10 ore erogati a docenti universitari che non abbiano background in questo ambito. Poi c’è la questione della formazione sul lavoro: le persone che lavorano adesso devono necessariamente formarsi per essere pronti ad attutire l’impatto e saper gestire, comprendere e utilizzare questi strumenti. Si costruiranno delle nuove figure professionali. Si dice che i nostri figli faranno lavori che adesso non esistono ancora».
Al Tecnopolo di Bologna sorgerà la nuova Università dell’Onu su Big data e intelligenza artificiale, qual è il ruolo di Unibo e del Centro?
«Unibo ha avuto un grande ruolo a portarla qua, adesso è importante costruire sinergie tra il nostro Centro, l’Ateneo e questa università perché si aprono tantissime opportunità. Con il Tecnopolo, il Centro meteo e l’università dell’Onu si sta costruendo un ecosistema spettacolare a Bologna per la ricerca e l’innovazione che non ha competitor in Italia e neanche in Europa».
L’articolo è stato scritto per la rivista di CUbo – Circolo Università di Bologna, diretta da Massimiliano Cordeddu