La ricerca affronta il tema della responsabilità penale dei sistemi di Intelligenza Artificiale (IA),concentrandosi sulla sua necessità e fattibilità. Per dare fondamento all’analisi, la ricerca affronta innanzitutto la questione della mancanza di una definizione universalmente accettata di IA e adotta la definizione fornita dall’AI-HLEG quale definizione operativa per la ricerca. Tale definizione viene poi testata nei capitoli successivi e la sua adeguatezza viene valutata nel capitolo conclusivo. Dopodiché, viene fornita un’ampia rassegna della dottrina in materia di IA e diritto penale. Gli autori vengono suddivisi in tre categorie: espansionisti, moderati e scettici. Tale analisi dottrinale si conclude con l’individuazione di dieci domande ricorrenti e sette lacune, che fungeranno da guida per il resto dell’analisi. Il cuore della ricerca si trova ai capitoli quattro, cinque e sei. Difatti, l’IA pare entrare in conflitto con le nozioni tradizionali di diritto penale: capire come affrontare questo (forse apparente) conflitto è uno dei punti cardine della tesi. Per fare ciò, l’indagine si concentra innanzitutto sull’imputabilità dei sistemi di IA, ossia se questi possiedano le caratteristiche necessarie affinché vengano trattati quali “plausibili destinatari” di una sanzione penale. Successivamente la tesi esamina se il comportamento dell’IA possa soddisfare il requisito dell’elemento soggettivo di un reato, ossia se un sistema IA possa essere considerato “colpevole”. Nel fare ciò, viene posta attenzione anche ai c.d. “humans-behind-the-machine”. In seguito la tesi si sofferma sull’elemento oggettivo del reato, ponendo particolare attenzione all’accertamento del nesso causale. In particolare, vengono individuati tre ostacoli principali a tale operazione: il “problem of many hands”, il problema della “black box” e il problema delle “scorciatoie”. Successivamente vengono analizzate, con taglio critico, le differenze e le affinità tra la responsabilità penale dell’IA e la responsabilità penale delle persone giuridiche. Il settimo capitolo fornisce una panoramica dello stato dell’arte relativo all’adozione di strumenti di hard e/o soft law volti a regolamentare l’IA e la responsabilità penale. Il capitolo conclusivo ripercorre le domande e le conclusioni intermedie poste nel corso della tesi e identifica percorsi per future indagini. Suggerisce di scambiare i due elementi su cui si articola la domanda di ricerca principale, ossia di analizzare prima la fattibilità di un meccanismo di imputazione di responsabilità penale diretta in capo ai sistemi di IA, e interrogarsi dopo sulla sua necessità. Nel complesso, la tesi si presenta come una lettura profondamente introspettiva, poiché pone domande che trovano risposta nelle proprie convinzioni su ciò che è umano e ciò che non lo è e, in ultima analisi, su ciò che è giusto e ciò che è sbagliato. The research deals with the subject of criminal responsibility of Artificial Intelligence (AI) systems, focusing on whether such a legal framework is needed and feasible. Chapter 1 presents the main RQ (to what extent is a theoretical framework of criminal liability for non-human agents needed and feasible?) and the issues that that will be discussed throughout the research, together with a structure of the corresponding sub-questions. It then outlines the methodology of the study and provides a set of examples of “AIs going bad”. Chapter 2 tackles the issue of defining AI and adopts the AI-HLEG definition as working definition for the study. This provides foundation to the analysis. Chapter 3 delivers an extensive literature review, which is used to situate the study amongst other scholarly outputs. Chapter 4 introduces the heart of the study: an analysis which mirrors, in structure, the classical construct of criminal offenses. Indeed, AI seems to clash with traditional notions of criminal law, and understanding how to do deal with this (apparent) conflict is one of the research’s tenets. Chapter 5 focuses on whether AI systems could display the prerequisites of criminal liability, i.e., the characteristics that are needed in order for a subject to be a plausible addressee of a criminal norm. Chapter 6 considers whether AI behavior could fulfil the mens rea requirement of a criminal offense, i.e., whether an AI system could be deemed “guilty”. When doing so, it also looks at humans-behind-the-machine. Specifically, it addresses situations in which the classical building blocks of negligence, i.e., risk taking, foreseeability, and awareness, struggle to identify a liable human being to whom we can attribute AI-caused harm. Then, the chapter shifts its focus to whether AI behavior could fulfil the actus reus requirement. In particular, it identifies three main issues which obstruct the identification of a clear causal nexus between an AI act and the realization of harm. Subsequently, it analyzes with a critical eye the differences and similarities between AI criminal liability and corporate criminal liability. Chapter 7 provides an outline of the state of the art regarding the adoption of hard and/or soft law instruments directed at regulating AI and criminal liability. Chapter 8 retraces the questions, and the interim conclusions, posed throughout the thesis, and identifies avenues for further inquiry.

Criminal behavior and accountability of artificial intelligence systems / Alice Giannini. - (2023).

Criminal behavior and accountability of artificial intelligence systems

Alice Giannini
2023

Abstract

La ricerca affronta il tema della responsabilità penale dei sistemi di Intelligenza Artificiale (IA),concentrandosi sulla sua necessità e fattibilità. Per dare fondamento all’analisi, la ricerca affronta innanzitutto la questione della mancanza di una definizione universalmente accettata di IA e adotta la definizione fornita dall’AI-HLEG quale definizione operativa per la ricerca. Tale definizione viene poi testata nei capitoli successivi e la sua adeguatezza viene valutata nel capitolo conclusivo. Dopodiché, viene fornita un’ampia rassegna della dottrina in materia di IA e diritto penale. Gli autori vengono suddivisi in tre categorie: espansionisti, moderati e scettici. Tale analisi dottrinale si conclude con l’individuazione di dieci domande ricorrenti e sette lacune, che fungeranno da guida per il resto dell’analisi. Il cuore della ricerca si trova ai capitoli quattro, cinque e sei. Difatti, l’IA pare entrare in conflitto con le nozioni tradizionali di diritto penale: capire come affrontare questo (forse apparente) conflitto è uno dei punti cardine della tesi. Per fare ciò, l’indagine si concentra innanzitutto sull’imputabilità dei sistemi di IA, ossia se questi possiedano le caratteristiche necessarie affinché vengano trattati quali “plausibili destinatari” di una sanzione penale. Successivamente la tesi esamina se il comportamento dell’IA possa soddisfare il requisito dell’elemento soggettivo di un reato, ossia se un sistema IA possa essere considerato “colpevole”. Nel fare ciò, viene posta attenzione anche ai c.d. “humans-behind-the-machine”. In seguito la tesi si sofferma sull’elemento oggettivo del reato, ponendo particolare attenzione all’accertamento del nesso causale. In particolare, vengono individuati tre ostacoli principali a tale operazione: il “problem of many hands”, il problema della “black box” e il problema delle “scorciatoie”. Successivamente vengono analizzate, con taglio critico, le differenze e le affinità tra la responsabilità penale dell’IA e la responsabilità penale delle persone giuridiche. Il settimo capitolo fornisce una panoramica dello stato dell’arte relativo all’adozione di strumenti di hard e/o soft law volti a regolamentare l’IA e la responsabilità penale. Il capitolo conclusivo ripercorre le domande e le conclusioni intermedie poste nel corso della tesi e identifica percorsi per future indagini. Suggerisce di scambiare i due elementi su cui si articola la domanda di ricerca principale, ossia di analizzare prima la fattibilità di un meccanismo di imputazione di responsabilità penale diretta in capo ai sistemi di IA, e interrogarsi dopo sulla sua necessità. Nel complesso, la tesi si presenta come una lettura profondamente introspettiva, poiché pone domande che trovano risposta nelle proprie convinzioni su ciò che è umano e ciò che non lo è e, in ultima analisi, su ciò che è giusto e ciò che è sbagliato. The research deals with the subject of criminal responsibility of Artificial Intelligence (AI) systems, focusing on whether such a legal framework is needed and feasible. Chapter 1 presents the main RQ (to what extent is a theoretical framework of criminal liability for non-human agents needed and feasible?) and the issues that that will be discussed throughout the research, together with a structure of the corresponding sub-questions. It then outlines the methodology of the study and provides a set of examples of “AIs going bad”. Chapter 2 tackles the issue of defining AI and adopts the AI-HLEG definition as working definition for the study. This provides foundation to the analysis. Chapter 3 delivers an extensive literature review, which is used to situate the study amongst other scholarly outputs. Chapter 4 introduces the heart of the study: an analysis which mirrors, in structure, the classical construct of criminal offenses. Indeed, AI seems to clash with traditional notions of criminal law, and understanding how to do deal with this (apparent) conflict is one of the research’s tenets. Chapter 5 focuses on whether AI systems could display the prerequisites of criminal liability, i.e., the characteristics that are needed in order for a subject to be a plausible addressee of a criminal norm. Chapter 6 considers whether AI behavior could fulfil the mens rea requirement of a criminal offense, i.e., whether an AI system could be deemed “guilty”. When doing so, it also looks at humans-behind-the-machine. Specifically, it addresses situations in which the classical building blocks of negligence, i.e., risk taking, foreseeability, and awareness, struggle to identify a liable human being to whom we can attribute AI-caused harm. Then, the chapter shifts its focus to whether AI behavior could fulfil the actus reus requirement. In particular, it identifies three main issues which obstruct the identification of a clear causal nexus between an AI act and the realization of harm. Subsequently, it analyzes with a critical eye the differences and similarities between AI criminal liability and corporate criminal liability. Chapter 7 provides an outline of the state of the art regarding the adoption of hard and/or soft law instruments directed at regulating AI and criminal liability. Chapter 8 retraces the questions, and the interim conclusions, posed throughout the thesis, and identifies avenues for further inquiry.
2023
Michele Papa, Andre' Klip
ITALIA
Goal 4: Quality education
Alice Giannini
File in questo prodotto:
File Dimensione Formato  
A. Giannini-Criminal Behavior and Accountability of Artificial Intelligence Systems.pdf

embargo fino al 24/05/2024

Tipologia: Pdf editoriale (Version of record)
Licenza: DRM non definito
Dimensione 4.82 MB
Formato Adobe PDF
4.82 MB Adobe PDF   Richiedi una copia

I documenti in FLORE sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificatore per citare o creare un link a questa risorsa: https://hdl.handle.net/2158/1345544
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact