Al momento stai visualizzando LA DECISIONE COME ALGORITMO? L’ibridazione in ambito giuridico

Alfreda Manzi[1]

Abstract

Nuovi algoritmi concludono contratti, prendono decisioni, elaborano raccomandazioni, consigli. Si pensi agli assistenti digitali Siri, Google Assistant, Alexa o Cortana.
In diritto, i settori coinvolti sono la privacy, la prevenzione danni, la cyber giustizia, in cui la legge viene applicata automaticamente. È in gioco non solo la libertà di scelta degli utenti, la loro identità e la loro capacità di relazioni umane. Soprattutto, è a rischio il fondamento umano dell’ordinamento positivo con sanzioni e il dover essere della norma giuridica.
Allo scopo di approfondire questo tema, intendo analizzarlo in modo interdisciplinare con la sociologia relazionale di P. Donati.

Introduzione: Le decisioni dell’algoritmo nel diritto

Una nuova generazione di algoritmi sta producendo decisioni in tutti i campi.[2] Nascono negli anni novanta in economia. Successivamente, si sono estesi al diritto. J. R. Reidenberg[3] e L. Lessig interpretarono questo fenomeno con la famosa espressione «code as law».[4] Cioè, il regolatore del comportamento è il codice informatico, il quale opera per mezzo del design. La tecnologia è, dunque, utilizzata in modo normativo, generando nuovi comportamenti senza ricorrere alle sanzioni. Gli utenti non vengono penalizzati. Al contrario, essi sono al centro dell’attenzione mediante strumenti di profilazione diretti a conoscere i loro gusti, i loro interessi e i loro comportamenti. Questi dati, prodotti dal sistema economico, sono adoperati dal marketing per suddividere i clienti in gruppi omogenei per compiere le opportune scelte di mercato.
La sua raccolta ha interessato il sistema giuridico, con l’emanazione della legislazione sulla privacy. La formula «privacy by design», creata alla fine degli anni novanta, dal Commissario per la privacy dell’Ontario, in Canada, Ann Cavoukian,[5] sintetizza questo interesse dei giuristi e del legislatore.
Nella privacy, l’oggetto dell’ordinamento giuridico, il diritto positivo che si avvale di sanzioni, è sostituito, in parte, con una nuova struttura: l’ordine ex ante impresso dal tecnico, attraverso l’architettura del cyberspazio. È il diritto automatico in forma automatica,[6] il quale si è esteso, successivamente, anche al settore penale e giudiziario. Le forze di polizia sono dotate di sistemi esperti capaci di predizioni per rendere efficace il sistema di prevenzione e repressione della criminalità per strada. Vi sono anche i sistemi di giustizia predittiva diretti a formulare previsioni sull’esito dei processi. Si sta progettando un giudice e un avvocato artificiale.[7] È, perciò, forte la tentazione di estendere l’applicazione automatica del diritto fino a farla diventare «perfetta», nonostante il parere contrario di gran parte dei giuristi e, soprattutto dei politici in ambito europeo. Desta vivo interesse, infatti, la prospettiva di risolvere problemi di efficacia della legge, di competenza e di rispetto del diritto, nel web, senza affidarsi alla libertà dei singoli o alle legislazioni dei singoli Stati e, questo, malgrado, il rischio di «controllo totale» tramite il design.[8]
In campo giuridico, l’automatismo della decisione sta, perciò, coinvolgendo ampi settori quali i giudici, i poliziotti, i singoli cittadini chiamati ad esercitare i loro diritti e la sovranità politica.  Anche, il settore della cultura: scuola, famiglia e la stessa religione sono direttamente coinvolti.
In sintesi, il comportamento degli uomini è sempre più governato dai regolatori della tecnologia, per cui la decisione umana è ridotta ad una procedura generata dall’algoritmo, il quale sta trascinando tutta la società umana in un vero e proprio sistema sociale, con le sue regole, con la sua «politica del codice»,[9] separato dalla società degli uomini. Non è, quindi, in gioco soltanto un settore del diritto o la sostituzione del giudice, dell’avvocato e del poliziotto con un robot. È a rischio il dissolversi del sociale umano in un noi inesistente tra uomo e macchina e, di conseguenza, il venire meno della coscienza e della volontà giuridica del singolo cittadino come dell’esperto del diritto nell’agire sociale. Quest’ultimo sostituito con un dinamismo di tipo meccanico e sistemico.
In questo scenario, le opinioni dei politici e degli esperti sono divise. Attraverso le furbizie del design, si deve rendere efficace il quadro normativo esistente, oppure, come sostiene la Cavoukian, è opportuno sostituire le norme con gli automatismi dell’algoritmo?[10] Attualmente, ci si sta orientando per la politica dei limiti al diritto in forma automatica.
L’approccio di osservazione relazionale, nello studio sull’ibridazione della società, Impact of AI/Robotics on Human Relation: Co-evolution Though Hybridisation[11] di P. Donati, mette in evidenza che la socialità affidata ad algoritmi cambia il contesto e le relazioni tra soggetti umani e la forma di organizzazione della società. In questa prospettiva, risulta essenziale la creazione di regole miranti ad evitare il rischio di mali relazionali, come la possibilità di generare beni relazionali. Il punto su cui soffermarsi, in questa ottica, non sarebbe tanto quello di porre limiti all’automatismo. Infatti, quale confine si può opporre all’incapacità di agire, come accade nel contesto della decisione assunta artificialmente? Ed è su questa, poco discussa, questione che concentrerò il mio articolo. Specificamente avanzerò l’ipotesi che, nel contesto di un sistema positivo con sanzioni ibridato, si può creare il male relazionale di una «lacuna» non colmabile in un sistema informativo autoreferenziabile, che elimina il dover essere della norma giuridica e il venire meno delle premesse nei sillogismi dei giuristi
Tratterò, dunque, il tema della decisione giuridica consegnata agli algoritmi anziché alle «parole pronunciate e scritte», a cui, nella seconda edizione della Dottrina pura, H. Kelsen aveva affidato l’apparire del diritto,[12] applicando il suddetto approccio relazionale.[13] Risponderò alle domande quali mali e quali beni relazionali si possono concretizzare in questa socialità umana e non. L’articolo sarà suddiviso in due paragrafi. Nel primo, esaminerò i presupposti teorici e metodologici del saggio di Donati, riassumendo i suoi principali risultati in merito ai beni e ai mali relazionali che possono derivare nei macro-sistemi sociali attraverso il funzionamento di un algoritmo, rappresentato dall’inserimento di un nuovo robot. Nel secondo, descriverò alcune sue ricadute nella socialità giuridica dell’ordinamento positivo con sanzioni, esempio di macro-sistema sociale. 

1. L’algoritmo che decide di licenziare. Analisi secondo la sociologia relazionale di P. Donati

Il contesto culturale del saggio di Donati è quello dell’Enciclica di Papa Francesco, Laudato si’, sulla cura della casa comune, del 24 maggio 2015, in cui viene proposta un’«ecologia integrale».[14] Permea la convinzione che, all’assolutizzazione del potere, non si può rispondere soltanto con l’economia e con la tecnologia. Questo principio era presente anche nella Lettera Enciclica Fides et ratio, n. 47, in cui Papa Giovanni Paolo II affermò che l’«assolutizzazione» della «ragione strumentale» è causa della paura dell’uomo contemporaneo.[15]
Tale contesto inquadra quello che per Donati è il problema essenziale, cioè il funzionamento della Matrice Tecnologica Digitale: DMT. Ovvero, un codice culturale che supporta l’intelligenza artificiale e le tecnologie, in una visione del mondo avente carattere  equivalente a quello della religione, in quanto esprime i «valori ultimi» di quella società, un sostituto dell’ontologia e della teologia del passato.[16] Ne è prova la definizione di L. Floridi dell’essere umano: «una eccezione non prescritta» della natura.[17] La  DMT costruisce, pertanto, il proprio sistema su quellopoliticoed economico,[18] ponendo in pericolo la stessa dignità umana.
Tuttavia, l’osservazione relazionale dimostra che l’ibridazione della società per mezzo della DMT, non è un processo irreversibile, ma è il frutto, talvolta, di una relazione problematica, la quale può essere modificata con i sistemi ODG.[19] A questo scopo, Donati analizza due livelli sociali: micro e macro. Nel primo, sono indagati i rapporti personali con la tecnologia; nel secondo, gli aspetti istituzionali e processi di ibridazione organizzativa. Sia al livello micro che macro, la DMT opera in modo da rendere facilmente attraversabili i confini tra sociale umano e non. Ma, è nel livello macro che si manifesta con forza il carattere indeterminato dell’ibridazione, che consente al rapporto uomo-macchina di assumere l’aspetto della cooperazione. Le organizzazioni e istituzioni ibride sono, infatti, quelle che hanno una configurazione sociale in cui alle tecnologie digitali avanzate è conferito un certo grado di autonomia decisionale e operativa. La tecnologia assume un ruolo autonomo e determinante nella gestione dell’organizzazione dei ruoli e dei rapporti tra gli stessi componenti dell’organizzazione. La logica digitale con cui operano le organizzazioni ibride è quella di aumentare le opportunità, non però nell’ambito delle loro implicazioni relazionali, ma secondo la massima variabilità utile in termini di efficienza del sistema.[20] Perciò, vi è il rischio di un conflitto con gli esseri umani.
L’approccio relazionale alle organizzazioni sociali è in grado di dimostrare perché e come l’intelligenza artificiale e i robot non possono sostituire gli esseri umani e lo specifico carattere generativo delle loro relazioni. L’efficienza concerne i rapporti con le cose e non con le persone umane, le quali, a differenza degli algoritmi, danno vita a soluzioni meta-riflessive.[21]
Donati diagnostica la distinzione tra ibridismo patologico e non, con la rappresentazione di tre contesti: morfogenesi adattativa, morfogenesi turbolenta e stabilità relazionale. La prima morfogenesi procede per tentativi ed errori; la seconda favorisce le mutazioni; soltanto la terza mira a configurare le tecnologie per favorire i beni relazionali di una vita buona,[22] non solo a limitare i danni.
Se il fenomeno dell’ibridismo segue, dunque, un processo morfogenetico secondo l’approccio relazionale dei sistemi c’è la valutazione del modo in cui un’organizzazione utilizza l’AI/robot ai fini di migliorare le relazioni umane, riducendo i mali relazionali della disoccupazione e dell’eliminazione del dualismo tra sistema tecnologico e mondo della vita.
Il sociologo lo illustra anche mediante un caso di licenziamento avvenuto mediante l’inserimento di un nuovo robot all’Ikea, in cui la tecnologia (intelligenza artificiale/robotica) ha un ruolo autonomo e determinante nella gestione dell’organizzazione dei ruoli e dei rapporti tra gli stessi componenti dell’organizzazione.[23]
Il 21 novembre 2017, in un piccolo paese vicino Milano, una lavoratrice-madre, Marica, fu licenziata. Mamma di 39 anni, separata dal marito, con due figli piccoli, di cui uno era disabile, viene mandata via perché non osservava il nuovo turno di lavoro assegnatole dall’algoritmo. Quest’ultimo le ordinò di presentarsi alle 7 del mattino e, invece, arrivò alle 9, secondo il vecchio turno di lavoro, in quanto doveva occuparsi dei bambini e, in particolare, doveva portare quello disabile in terapia.
In precedenza, la donna aveva spiegato al direttore che non poteva lavorare in quel turno e il manager ha detto che avrebbe preso in considerazione la sua situazione; ma l’algoritmo ha funzionato da solo e si è attivato per suo conto. La società non ha rivisto la propria decisione, continuando a licenziare altri lavoratori perché non rispettavano le indicazioni dell’algoritmo.[24] Come si evince, la difficoltà non è l’algoritmo in sé, ma la sua applicazione automatica. La «personalità elettronica» dell’algoritmo non è, infatti, in grado di cogliere l’imprevedibilità.[25] I singoli casi problematici, la complessità di diverse contingenze, richiedono che l’algoritmo sia indirizzato. Non è sufficiente il controllo.
In sintesi, l’osservazione relazionale di Donati prova che si possono evitare i mali relazionali e creare i beni relazionali,[26] cioè relazioni che emergono da soggetti riflessivamente orientati e dal loro essere insieme, a condizione che vi sia riflessività negli utenti. Per raggiungere questo scopo è, dunque, essenziale avere presente la profondità di azione di inconsapevolezza operata dalla DMT sugli esseri umani. Questa azione è spesso sottovalutata anche in critici come G. Teubner[27] o autori come N. Luhmann.[28]
Il tramutarsi del rischio di mali relazionali in generazione di beni relazionali è possibile a condizione che si modifichino le istruzioni fornite dall’algoritmo.[29]

2. Gli automatismi dell’algoritmo nel sistema positivo con sanzioni

In campo giuridico, introdurre l’analisi relazionale di Donati sull’ibridazione, può sembrare “sovversivo” rispetto alla Dottrina pura del diritto di Kelsen. La sociologia non è il diritto. Anche se molti sono i legami. Facile sarebbe l’osservazione secondo la quale internet è una scoperta recente, non ipotizzabile ai tempi della carta stampata. A leggere con attenzione la Dottrina pura del diritto, seconda edizione del 1960, si resta sorpresi della presenza di un argomento non tematizzato: la comunicazione della conoscenza.[30] In diversi contesti, il filosofo del diritto asserisce che le proposizioni giuridiche, addirittura lo stesso atto giuridico, quando appare in «parole pronunciate e scritte»,[31] non è la semplice ripetizione delle norme poste dal legislatore. Viene, così, enunciato il principio fondamentale dell’ermeneutica, per la quale, gli esperti e i cittadini interpretando le regole capiscono diversamente da come l’autore del testo abbia inteso sé stesso. Ed è proprio questo aspetto nascosto dell’impossibile ripetizione nella comunicazione della conoscenza a presentarsi in tutta la sua importanza nello stesso ordinamento positivo con sanzioni, grazie alla teoria relazionale e ai sistemi ODG di Donati sull’ibridazione della società.
L’aspetto della comunicazione illumina l’oggetto del diritto, composto da regole ma anche di relazioni. Quest’ultime celate e quindi inattese nel contesto creato dalla tecnologia. In termini giuridici, la norma è astratta quindi necessita di tempo per essere applicata. Questo tempo è negato qualora la si restringa allo spazio del codice informatico e della DMT. Soltanto la relazione, nel nostro caso, l’essere in relazione con il Legislatore, quali soggetti distinti, può realizzare quel contesto in cui il decidente riconosce la continuità di un disposto legislativo con l’oggi e il caso concreto. Il giudice umano, l’avvocato e i cittadini, a differenza dell’intelligenza artificiale e del robot, sono degli interpreti. Perciò, nel loro stesso atto di comprensione, attribuiscono quel carattere di concretezza e di novità, mancante alla norma emanata dal Parlamento. In termini ermeneutici, essi sono il discorso che, da sola, la fattualità della regola non può produrre.
Nell’affidarsi all’algoritmo, si verifica, perciò, il male relazionale di una «lacuna»,[32] dovuto al mancato feedback della comunicazione umana. In termini antropologici, l’atto di interpretazione di una norma è la risposta ad un discorso: la regola, che esige un’azione, quindi un cominciare qualcosa di nuovo e di spontaneo.[33] Se non si colma la lacuna tra produzione della norma e sua applicazione si causa il male relazionale di una norma giuridica ridotta a fatto sociale, poiché priva del suo dover essere.
La mancata riflessività e l’adattamento all’algoritmo «revocano i presupposti della ricostruzione geometrica dell’ordinamento, tanto nella sua tradizionale versione “atomica”, quanto in quella del lifting digitale. Appunto perché la tecnica non è neutra, essa comporta tutta una serie di side-effects, “effetti collaterali” o contraffatti, che, disvelando quanto evidentemente appartiene alla natura del genere umano, mettono in scacco le consuete categorie con le quali i giuristi, negli ultimi secoli, sono venuti pensando alle “premesse” del proprio ragionamento».[34]
L’automatismo in sé non costituisce, tuttavia, un male relazionale. Lo diventa nel preciso contesto di una scelta per l’efficienza anziché per la riflessività dell’utente. Quest’ultima deve fondarsi in un sociale umano distinto da quello artificiale, in cui la centralità è assegnata alle relazioni e non alle cose. Infatti, in diritto, si decide perché vi sono interessi che possono o sono entrati in conflitto, ma più fondamentalmente come «esigenza umana di regolare la pacifica convivenza intersoggettiva»[35] o «pluralità umana».[36] Il decidere dei propri interessi costituisce, pertanto, il diritto non quale fatto estrinseco, ma come «esigenza umana di regolare la pacifica convivenza intersoggettiva».[37]                                                              
Si comprende, dunque, la ragione per la quale è sul decidere quale atto della volontà, vista in sé e nella persona umana, che Il diritto positivo ha posto uno dei sui fondamenti. Allo scopo di realizzare «sicurezza, cooperazione con gli altri, durata per mezzo degli altri»,[38] gli Stati democratici prevedono procedure per la libera elezione dei rappresentanti politici; la volontà dei singoli può concludere contratti e amministrare i propri interessi. In ogni caso, il riconoscimento della volontà sia del singolo concreto individuo, sia degli enti che istituisce, rappresenta uno dei pilastri della democrazia diretto a stabilire un ordine di uomini «agenti e riflettenti».[39]

Conclusione

Il fenomeno che da alcuni anni, sta generando decisioni in tutti i campi per mezzo di algoritmi, di fatto, pur nella limitazione degli automatismi, sta imponendo una trasformazione sociale mediante la procedura delle decisioni.
Ho analizzato questo problema, in ambito giuridico, attraverso l’approccio relazionale di Donati, così come risulta dallo studio sull’ibridazione della società, Impact of AI/Robotics on Human Relation: Co-evolution Though Hybridisation. Ho riflettuto sul funzionamento di un algoritmo, rappresentato dall’inserimento di un nuovo robot nel macro-sistema sociale dell’Ikea, posto ad esempio di ibridazione dallo stesso autore. L’obiettivo era evidenziare i mali e i beni relazionali che possono generarsi nel rapporto utente e IA/robot nei macro-sistemi sociali come il sistema positivo con sanzioni.
La mia ipotesi è che, nel contesto di un sistema positivo con sanzioni ibridato, si può creare il male relazionale di una «lacuna» non colmabile in un sistema informativo autoreferenziabile, che elimina il dover essere della norma giuridica e il venire meno delle premesse nei sillogismi dei giuristi. Questo rischio è causato dall’incomunicabilità tra utente uomo e intelligenza artificiale/robot.
La giusta esigenza di limitare il fenomeno dell’automatismo asserita da più parti, come sostiene Pagallo, dimentica la differenza tra il sociale umano e non e la conseguente generazione delle relazioni. Il tempo del mondo digitale non ha durata, perché puramente spaziale. Come scrive, perciò, H. Bergson, la confusione tra aspetto quantitativo e qualitativo è incapace di metterci di fronte a noi stessi e ai nostri stati interni,[40] che non sono mai automatici. Infatti, sulla formazione delle istituzioni, A. Gehelen definisce le abitudini un «quasi automatismo»,[41] in quanto il loro ripetersi non è continuo, come quello della macchina. In termini di filosofia dell’informazione, la natura qualitativa del tempo non è considerata in una definizione puramente ingegneristica di informazione[42] e, di conseguenza, le relazioni umane.
Per produrre beni relazionali è, dunque, necessario la creazione di «spazi politici»,[43] in cui il confronto tra persone umane, non di istituzioni, possa indirizzare l’algoritmo, in un contesto di «ecologia integrale»,[44] anziché di profitto e di efficienza.
Concludo, mettendo in risalto i limiti del mio articolo. Sarebbe necessaria una verifica della mia ipotesi con i sistemi ODG; l’approfondimento sia della categoria giuridica di riflessività[45] sia del concetto di «spazio politico» nell’orizzonte di Arendt, cioè di pluralità degli uomini, di stupore per la natalità, di spontaneità, di azione. Si richiede, perciò, uno studio ulteriore su questi aspetti inesplorati del mio contributo. Allo stato attuale, il mio breve articolo è un’ipotesi sui beni e mali relazionali che possono derivare in seguito all’applicazione dell’algoritmo nella decisione in un sistema positivo con sanzioni, fondata sulla teoria relazionale di Donati applicata all’ibridazione della società.


[1] Docente di Diritto ed Economia presso l’Istituto Giordano Bruno, Budrio (BO). Laureata in Giurisprudenza all’Università di Bologna, ha poi conseguito il dottorato in Sociologia presso l’Università di Parma, il Baccalaureato in filosofia presso Studio Teologico Accademico bolognese e il diploma in Scienze Religiose, ad Assisi (Perugia). Autrice di un libro: La paura dell’uomo contemporaneo. Ragione, ragione strumentale, cultura in Fides et ratio 47, ESD, Bologna 2011, di diversi articoli e saggi in volumi collettanei.

[2] Cfr. L. Ammannati, Verso un diritto delle piattaforme digitali? In Federalismi.it, Rivista di diritto pubblico comparato europeo, 7 (2019) 5.

[3] Cfr. J. R. Reidemberg, Lex Informatica: The Formulationof Information Policy Rules through Technology (Lex informatica: la formulazione delle regole di politica dell’informazione attraverso la tecnologia), (1997),  https://ir.lawnet.fordham.edu/faculty_scholarship/42.

[4] L. Lessig, Code and Other Laws of Cyberspace, Basic Books, New York 1999, 90-98.

[5] Cfr. A. Cavoukian, Privacy by Design, IPC Publications, Ottawa 2009.

[6] Cfr. U. Pagallo, Il diritto nell’età dell’informazione. Il riposizionamento tecnologico degli ordinamenti giuridici tra complessità sociale, lotta per il potere e tutela dei diritti, Torino, Giappichelli Editore, 2014. A. Manzi, «L’utilità del diritto in forma automatica», in F. Tedesco (a cura di), L’informazione ordinatrice. Mappe transdisciplinari della società cibernetica, Veritatis Splendor, Poland by Amazon 2023, 252.

[7] Cfr. A. Guidi, Il giudice automatico. Giudizio penale ed intelligenza artificiale, https://www.4clegal.com (2018).

[8] Cfr. Pagallo, Il diritto nell’età dell’informazione, cit., 151.

[9]  L. Lessig, «The Law of the Horse. What Cyberlaw Might Teach», in Harvard Law Review, 113, 1999, 501-549; tr. it. «Il diritto del cavallo», in L. Lessig et al., I diritti nell’era digitale. Proprietà intellettuale e libertà di espressione, a cura di V. Colomba, Diabasis, Reggio Emilia, 2006. (ristampa).

[10] Cfr. Pagallo, «Privacy e design», in Informatica e diritto, XXXV, XVIII, (2009),1,128-129.

[11] P. Donati, «Impact of AI/Robotics on Human Relations: Co-evoluzion Trough Hybridisation», in J. von Braun – M. S. Archer – G. M. Reichberg – M. S. Sorondo, Editors, Robotics, AI, and Humanity. Science, Ethics, and Policy, Springer 2021, 219.   

[12] Cfr. H. Kelsen, La dottrina pura del diritto, (Reine Rechtslehre), Einaudi, Torino 1966, 91.

[13] Cfr. V. Frosini, Informatica, diritto e società, Giuffré, Milano 1988, 169.

[14] Donati, «Impact of AI/Robotics on Human Relations», cit., 214. 

[15] A. Manzi, La paura dell’uomo contemporaneo, cit., 58-59.

[16] Ivi 215. Cfr.  Donati, La matrice teologica, Rubbettino, Soveria Mannelli, 2010.

[17] L. Floridi, The Logic of Information. A Theory of Philosophy as Conceptual Design, Oxford University Press, Oxford 2019, 98.

[18] Cfr. Donati, «Impact of AI/Robotics on Human Relations», cit., 216.

[19] Cfr. Id., Teoria relazionale della società, Franco Angeli, Milano, 1991, 346–356.

[20] Cfr. ivi, 222.

[21] Cfr. Donati, Teoria relazionale della società, cit., 222.

[22] Cfr. ivi, 224.

[23] Cfr. ivi, 222.

[24] Cfr. ivi, 222.

[25] Cfr. ivi 223.

[26] Cfr. P. Donati – R. Solci, I beni relazionali. Che cosa sono e quali effetti producono, Bollati Boringhieri, Torino, 2011.

[27] G. Teubner, Rights of non-humans? Electronic agents and animals as new actors in politics and law., Journal of Law and Society, 2006, 33(4), 497–521.

[28] N. Luhmann, Social systems, Palo Alto, CA: Stanford University Press, 1995.

[29] Cfr. Donati, Teoria relazionale della società, cit., 224.

[30] Cfr. Manzi, «Il diritto senza l’uomo? La scienza del diritto e i suoi fondamenti nel cap.3 della Dottrina pura del diritto (seconda edizione, 1960) di Hans Kelsen», in L. Maugeri, La dinamica della ricerca. Mozioni e rimozioni nella scienza, Pardes Edizioni, Bologna, 2014, 102.

[31] Kelsen, La dottrina pura del diritto, cit., 91.

[32] L. Goriup, Il rischio è bello. La sfida educativa tra ragione, fede e testimonianza della verità, ESD, Bologna 2010, 53. Cfr. Donati, «Impact of AI/Robotics on Human Relations», cit, 19.

[33] Cfr. H. Arendt, Vita activa. La condizione umana, Bompiani, Milano, 2005, 139.

[34] Pagallo, Prolegomeni d’informatica giuridica, https://lircocervo.it, 1, (2003),18. Cfr. A. Manzi, La paura dell’uomo contemporaneo, cit., 28.

[35] S. Cotta, Il diritto nell’esistenza. Linee di ontofenomenologia giuridica, Giuffré Editore, Milano 1991, 64.

[36] H. Arendt, Vita activa. La condizione umana, Bompiani, Milano 1997, 127.

[37] Cotta, Il diritto nell’esistenza, cit, 64.

[38] Ivi, 69.

[39] Ivi, 64.

[40] Cfr. H. Bergson, Saggio sui dati immediati della coscienza, Raffaello Cortina 2021, 49.

[41] A. Gehelen, L’uomo. La sua natura e il suo posto nel mondo, Feltrinelli, Milano 1983,107. 

[42] Cfr. Manzi,«Il diritto senza l’uomo?» cit., 267.

[43] Goriup (a cura di), Homo vivens, cit., 149.

[44] Donati, «Impact of AI/Robotics on Human Relations», cit., 214. 

[45] Cfr. F. Scarmardella, «La riflessività giuridica come categoria di mediazione tra individuo e diritto», in 
Rivista quadrimestrale, on-line: www.i-lex.it, 13-14 (2011), 199.