Secondo incontro 2022 del CIRCOLaw del DSG (Isadora Neroni Rezende)

Si tratta di una iniziativa animata prevalentemente dai dottorandi ed assegnisti del DSG per favorire occasioni di riflessione scientifica in prospettiva interdisciplinare.

  • Data: 26 aprile 2022 dalle 17:30 alle 19:00

  • Luogo: ONLINE tramite piattaforma TEAMS

  • Modalità d'accesso: Ingresso libero fino ad esaurimento dei posti disponibili

Incontro 2 del 2022: mercoledì 26 aprile 2022, ore 17:30-19:00

RICONOSCIMENTO FACCIALE DELLE EMOZIONI E INDAGINI PREVENTIVE: QUALI IMPLICAZIONI PER I DIRITTI FONDAMENTALI?

Isadora Neroni Rezende (Dottoranda in Law, Science and Technology e Procedura Penale)

L’incontro si terrà tramite la Piattaforma Microsoft Teams:
Fai clic qui per partecipare alla riunione

Il CIRCOLaw nasce con l’intento di promuovere incontri periodici animati dalla comunità degli assegnisti e dei dottorandi del Dipartimento di Scienze Giuridiche dell’Università di Bologna per la discussione – in un clima conviviale e informale – di casi, elementi di prassi e papers.

La partecipazione è libera e aperta a tutti gli afferenti al DSG!

ABSTRACT

RICONOSCIMENTO FACCIALE DELLE EMOZIONI E INDAGINI PREVENTIVE: QUALI IMPLICAZIONI PER I DIRITTI FONDAMENTALI?

Isadora Neroni Rezende (Dottoranda in Law, Science and Technology e Procedura Penale) - isadora.neroni2@unibo.it

Il riconoscimento facciale costituisce ad oggi uno dei più importanti impieghi dell’intelligenza artificiale (IA), e il suo utilizzo negli spazi pubblici è da tempo al centro di un intenso dibattito in Europa. Un’ulteriore, e non altrettanto discussa, applicazione in questo campo è invece costituita dal cd. ‘riconoscimento facciale delle emozioni’ (RFE, in inglese emotion facial recognition), che unisce il trattamento automatizzato dei dati biometrici con l’affective computing, una branca dell’IA studiata per rilevare ed interagire con le emozioni umane.

Attraverso l’analisi automatizzata di tratti fisiologici come le espressioni facciali, le tecnologie di RFE hanno l’obiettivo di ottenere inferenze sullo stato emozionale degli individui monitorati. Software di RFE sono in fase di sperimentazione negli ambiti più diversi, ma è probabilmente in quello penale che tale tecnologia pone rischi più elevati per i diritti fondamentali consacrati nelle Carte europee.

Alla luce di ciò, nell’incontro proposto si analizzerà se e in quale misura l’uso preventivo del RFE negli spazi pubblici possa ritenersi rispettoso dei diritti fondamentali alla privacy, alla protezione dei dati, alla libertà di espressione del pensiero e alla presunzione di innocenza. In primo luogo, si illustrerà come l’utilizzo di tali software potrebbe essere regolamentato in futuro alla luce della Proposta di regolamento sull’IA (Artificial Intelligence Act) pubblicata dalla Commissione europea lo scorso anno. In secondo luogo, i possibili impieghi del RFE verranno sottoposti ad un test di compatibilità con i diritti fondamentali sopramenzionati, secondo il meccanismo delineato all’Art. 52 della Carta di Nizza.

Nell’analisi si tenterà di adottare una prospettiva multidisciplinare, mettendo in evidenza elementi di connessione tra diritti fondamentali come la privacy e la protezione dei dati, nonché la libertà di pensiero, e salvaguardie di carattere più strettamente penalistico come la presunzione di innocenza.