"I popoli non dovrebbero temere i propri governi: sono i governi che dovrebbero temere i propri popoli." V (da John Basil Barnhill) |
Gli interventi
Ammissibilità dei mezzi di prova digitali ed automatizzati⇧
Contratti, transazioni e le relative scritture assumono un ruolo fondamentale nel sistema economico di ogni Stato: un contratto identifica le parti e ne regola il rapporto contrattuale. Se sorge una controversia sull’esecuzione delle prestazioni previste nel contratto, la parte interessata produrrà in giudizio le prove a supporto della propria domanda giudiziale.
Tuttavia, l’area del diritto civile e la complessità della società contemporanea richiedono strumenti giuridici innovativi: i mezzi tradizionali, posti a disposizione del cittadino per esercitare un proprio diritto, dimostrano i propri limiti ed in parte la loro insufficienza nell’affrontare le sfide della società contemporanea. Queste sfide sono acuite dalle nuove tecnologie e dall’utilizzo di algoritmi. Difatti tali tecnologie creano delle registrazioni: ma sono ammissibili come mezzo di prova documentale? Per esempio un messaggio whatsapp è un testo scritto che potrebbe essere prodotto in giudizio come una registrazione scritta. Eppure le registrazioni digitali e quelle prodotte da algoritmi sono soggette alle stesse disposizioni sull’ammissibilità delle prove previste dal codice civile per i mezzi di prova cartacei.
Per evidenziare le problematiche nascenti dalle registrazioni prodotte dalle nuove tecnologie, è utile ricorrere alla scienza archivista, la quale ha elaborato una serie di criteri utilizzati per verificare se un documento possa essere affidabile o meno. E alla luce di tali criteri emerge in maniera evidente che questioni inerenti l’integrità e l’autenticità della registrazione digitale o della registrazione automatica non sono così chiare. Tali questioni hanno un impatto sul diritto di agire in giudizio e di difesa del singolo cittadino.
Aspetti legali dell'Intelligenza Artificiale⇧
Filippo Bianchini (Studio Legale Bianchini)
L'intervento vuole offrire una panoramica sui vari aspetti legali derivanti dall'uso dell'IA in quelle aree che riguardano più direttamente la professione legale. Si vuole identificare e spiegare le sfide imminenti e stabilire una serie di principi di alto livello che riflettono i valori della democrazia e dello stato di diritto, e rispetto ai quali l'uso dell'IA può essere ulteriormente valutato tenendo conto di specifiche applicazioni e circostanze. L'uso dell'IA, per certi aspetti, rappresenta una minaccia significativa per la qualità dei nostri sistemi giudiziari, la protezione dei diritti fondamentali e lo stato di diritto. Queste minacce sono particolarmente gravi se si considera il possibile ruolo futuro degli strumenti decisionali basati sull'IA nel campo della giustizia e dell'applicazione della legge. I diritti fondamentali che sono alla base dello stato di diritto non possono essere subordinati a meri guadagni di efficienza o a vantaggi in termini di risparmio di costi, sia per gli utenti dei tribunali che per le autorità giudiziarie. Per gestire efficacemente questo cambiamento, è necessario stabilire principi e regole concrete e, allo stesso tempo, individuare un luogo e un ruolo adeguato per i sistemi di IA in tali ambiti giudiziari. Trasparenza, equità, responsabilità e regole etiche devono essere aree di attenzione distinte. Affinché i sistemi di IA possano essere utilizzati come elemento integrante di una società democratica, non è sufficiente affidarsi semplicemente alla fiducia nella competenza degli specialisti tecnici che operano nel campo dei sistemi informatici: è necessario costruire nuovi ponti di fiducia tra gli specialisti del settore, coloro che lavorano nelle nostre istituzioni democratiche e coloro che sono impegnati in tutti i settori in cui lo stato di diritto è impegnato. Tale integrazione deve tener conto delle competenze e dei ruoli specifici degli attori e degli specialisti nei diversi settori e professioni.
Processi decisionali algoritmici e intelligenza artificiale: come rafforzare la tutela giuridica contro il rischio di discriminazione⇧
Possiamo trarre enormi vantaggi dal processo decisionale algoritmico. Tuttavia, è noto che questo possa minacciare i diritti umani, come il diritto alla non discriminazione: molto spesso, infatti, le decisioni algoritmiche sono errate per un singolo individuo in quanto il processo decisionale prevede l'applicazione di un modello predittivo agli individui. L’intervento si propone di valutare l'attuale protezione giuridica in Europa contro decisioni algoritmiche discriminatorie, suggerendo come migliorare l'applicazione delle norme vigenti e delineando un approccio per regolare il processo decisionale algoritmico.
Il trattamento dei dati sanitari dei lavoratori all’epoca dell’emergenza COVID-19: una casistica pratica tra norme emergenziali e applicazione del Regolamento 679/2016 sulla protezione dei dati personali.⇧
Il Prof. Avv. Alessandro del Ninno illustra le norme emergenziali sul trattamento dei dati personali nell'ambito dell'emergenza COVID-19, in rapporto alla ordinaria disciplina prevista dal Regolamento 679/2016 e dal Codice della privacy. Particolare attenzione è posta alla tematica del trattamento dei dati sanitari dei lavoratori e al rapporto tra esigenza di tutela della privacy del lavoratore affetto e tutela della salute della collettività. E' possibile comunicare a colleghi di un lavoratore infetto i suoi dati onde allertare la catena dei contatti? Che rapporto c'è tra diritto alla riservatezza e tutela costituzionale della salute in termini di prevalenza ed equilibrio tra due diritti ugualmente costituzionali? Come si applica il Regolamento 679/2016 in questi casi e quale è la legittima base di liceità dei trattamenti, soprattutto dei dati sanitari dei cittadini? l'intervento fornisce una serie di risposte operative a questi delicati quesiti, nella prospettiva di bilanciamento di tutti i diritti e gli interessi in gioco.
Droni per il monitoraggio COVID: quali tutele?⇧
Giovanni Battista Gallus (Circolo dei Giuristi Telematici - Nexa Center)
Quasi tutti i film distopici prevedono dei droni che volano in città, alla caccia di cittadini riottosi. Ora, però, anche questo è diventato realtà: la situazione eccezionale ha convinto l’Enac ad ampliare in modo consistente l'ambito di utilizzo dei droni per “garantire il contenimento dell'emergenza epidemiologica coronavirus”. Contemporaneamente, la normativa emergenziale (tra cui l'art. 14 del DL 14/2020) ha introdotto una disciplina speciale in tema di trattamento dei dati personali, per i soggetti chiamati a monitorare e garantire l'esecuzione delle misure di contenimento, tra cui anche la polizia locale. Ci dobbiamo dimenticare delle regole in tema di data protection? Assolutamente no, in quanto è sempre previsto il rispetto dei principi generali del Regolamento europeo sulla protezione dei dati personali. Vedremo quindi quali siano le cautele da porre in essere per gestire correttamente i dati personali correlati al monitoraggio a mezzo drone, e quali le difese possibili dei nostri diritti e libertà fondamentali.
La digitalizzazione della giustizia ai tempi del Corona Virus. Il PCT del presente e l’intelligenza artificiale del futuro sono serviti e serviranno a non fermare la giustizia?⇧
Nicola Gargano (Ordine degli Avvocati di Bari) e Enrica Priolo (Ordine degli Avvocati di Cagliari)
La pandemia di Covid-19 ha causato una situazione emergenziale anche nel settore giustizia, paralizzato in quelle attività che richiedono inevitabilmente la presenza fisica degli operatori all’interno di un Palazzo di Giustizia. Ma allora la progressiva digitalizzazione della giustizia, culminata nel 2014 con l’obbligatorietà del processo civile telematico, non ha consentito il superamento della necessità di presenza fisica? Le criticità di una digitalizzazione a macchia di leopardo (da cui rimangono esclusi i Giudici di Pace, la Suprema Corte di Cassazione e tutta la giustizia penale) sono emerse nella organizzazione (ancora troppo) analogica dei procedimenti giurisdizionali, la cui punta dell’iceberg è un processo fatto sì di bit, ma la cui gestione sottostante rischia di paralizzarsi se manca l'uomo -negli uffici di cancelleria o negli studi legali-. L’intervento vuole ripercorrere lo stato dell'arte del "sistema giustizia" durante la fase emergenziale degli ultimi mesi e tentare di ipotizzare quale apporto concreto ed efficace avrebbero potuto fornire l'Intelligenza Artificiale e la Giustizia c.d. Predittiva in un momento storico in cui l'automazione sembra l'unica dimensione capace di rispettare l'isolamento e il distanziamento sociale richiesti dal governo.
Il giudice automata nell'attuale democrazia⇧
Antonio Anselmo Martino (Academia de Derecho de Cordoba)
Nell’attuale situazione l’uso dell’Intelligenza Artificiale per aiutare le decisioni giudiziarie è, da una parte in forte crescita e dall’altra sconsigliata, anzi temuta per vecchie paure che vengono dalla tradizione biblica del Golem (salmo 139, versicolo 16). Il governo estone ha assunto Velsberg lo scorso agosto per dirigere un nuovo progetto d’implementazione dell'intelligenza artificiale in diversi ministeri per semplificare i servizi offerti alla popolazione. L'Estonia stava già lavorando all'implementazione dell'intelligenza artificiale prima dell'assunzione di Velsberg. Siim Sikkut, direttore dell'informazione dell'Estonia, ha avviato diversi progetti pilota in materia nel 2017. Oggi l'Estonia ha già attuato 13 misure di AI in cui i funzionari vengono sostituiti per essere più efficienti. Ci sono già robot che vengono utilizzati per diversi servizi che ho visto nella Scuola normale Sant'Anna di Pisa, nel laboratorio di biorobotica di Pontedera nel febbraio 2020. Non tende tanto all'aspetto esteriore, ma è un compagno perfetto per le persone anziane o con difficoltà visive o acustiche. In Michigan, il governatore John Engler vuole istituire un "cybercourt" indipendente per i casi che coinvolgono aziende high-tech, dove in sostanza tutto può essere risolto via computer piuttosto che di persona in tribunale. Le relazioni potrebbero essere depositate online, le prove potrebbero essere visionate in video, le argomentazioni orali potrebbero essere ascoltate in teleconferenza e si potrebbe chiedere al tribunale di decidere sul caso. C'è un software Ross altamente sviluppato che è in grado di ascoltare il linguaggio umano, di tracciare oltre 10 mila pagine al secondo e di formulare una risposta molto più veloce di qualsiasi avvocato umano. Ross utilizza un programma molto sofisticato della IBM: Watson Le risposte di Ross includono citazioni legali, suggeriscono più articoli da studiare e persino calcolano un tasso di fiducia per aiutare gli avvocati a preparare i casi. Inoltre, poiché si tratta di un'intelligenza artificiale (IA), più indagini riceve, più impara e più diventa efficace. Ross impara dalla sua interazione con gli umani. Una cosa che ha a che fare con il ragionamento giuridico è il desiderio di convincere. . Il ragionamento giuridico è più simile alla retorica che alla logica. Sarebbe conveniente per avvocati e giudici praticare una vecchia materia delle università medievali: l'oratorio. C'è un programma che si occupa di questo: Project Debater la cui base di conoscenza è costituita da circa 10 miliardi di frasi, tratte da giornali e riviste. Non solo ci sono prodotti in funzione, ma la ricerca continua ai massimi livelli. Tra le tante esperienze ce ne sono due: MIREL - MIning e REasoning with Legal texts, che è un'indagine dell'Unione Europea Il progetto MIREL creerà una rete internazionale e intersettoriale per definire un quadro formale con l'obiettivo di tradurre questi testi legali in rappresentazioni formali che possano essere utilizzate per la consultazione degli standard, la verifica della conformità e il supporto al processo decisionale e Prometea che è un programma creato da un team multidisciplinare della Procura della Città di Buenos Aires (CABA) in Argentina, per assistere la giustizia. Per raggiungere quest’obiettivo, insieme a specialisti in intelligenza artificiale hanno sviluppato un sistema progettato per prevedere la soluzione di semplici casi legali. La democrazia attuale, col fallimento dei sistemi rappresentativi (fallimento dei partiti politici) aiuta le voglie di populismo che la pandemia del coronavirus spinge verso soluzioni autoritarie più efficienti. Ma l’efficienza degli autoritarismi si fa a spesa della separazione dei poteri e la trasparenza. L’intelligenza artificiale è un mezzo, un metodo, dipende come venga impiegata per soddisfare i valori democratici. E qui torna, come il solito, l’etica. La direttiva europea del maggio di quest'anno sulle transazioni informatiche, dopo tre anni di discussioni e trattative, riempie un orizzonte non solo europeo ma anche globale, poiché è presa sul serio l'organizzazione delle transazioni in molti paesi. Va ricordato che quest’'anno è stato firmato in Vaticano un accordo europeo per porre limiti etici all'intelligenza artificiale.
Giustizia "predittiva": il caso genovese⇧
Nel settembre 2019 il Tribunale di Genova ha sottoscritto una convenzione con la Scuola Superiore Sant'Anna per l'"elaborazione" delle decisioni in campo civile, prevedendo anche forme di machine learning per lo studio delle decisoni, in una forma dichiarata di Intelligenza Artificiale. Quali le ripercussioni - anche impreviste e imprevedibili - sui diritti dei singoli? Un'attenda disamina della Convenzione - non pubblicata, ma che sarà resa pubblica - consentirà di comprendere meglio benefici e pericoli di un trattamento esterno all'Autorità Giudiziaria.
LA DISTANZA TRA PRIVACY E CONTROLLO: TELEDIDATTICA ALLA "PROVA DI MATURITA'"⇧
Giorgio Pedrazzi (Università degli studi di Brescia)
La situazione attuale ha realizzato in pochi giorni quello che per anni non era riuscito ai fautori della teledidattica. L’emergenza ha permesso di superare i preconcetti e le preoccupazioni d’un balzo, pur restando rilevante il c.d. digital divide. La tecnologia è stata chiamata ad annullare la distanza sociale imposta dalle misure di contenimento sanitario: in tale contesto il 26 marzo il Garante italiano ha fornito le prime indicazioni, tra le quali spicca l’importanza delle limitazioni alle finalità ulteriori. Nel 2013 lo scandalo InBloom negli Stati Uniti fece emergere una consapevolezza nuova, portando all’emanazione di oltre 400 provvedimenti legislativi nei diversi Stati. Oggi , una tra le piattaforme di videoconferenza più usate, a seguito di una rinnovata attenzione, ha modificato le policy in materia di protezione dei dati, tutelando maggiormente i diritti degli interessati in tema di condivisione dei dati personali con società terze, in particolare l’onnipresente Facebook. Le scelte basate sulla funzionalità devono considerare anche la tutela della privacy come indice di prestazione, in particolar modo quando tecnologie promiscue vengono introdotte nel settore dell’istruzione. Le imponenti masse di dati ora in pasto ai sistemi di Learning analytics, l’impatto prossimo venturo di Blockchain e AI (intelligenza artificiale), rendono necessaria una vigilanza costante e un’applicazione dei principi e delle regole del GDPR-“by design”.
Intelligenza Artificiale e Diritto: imparare dai precedenti⇧
Valentino Spataro (IusOnDemand srl)
Big Data, Open Data, Intelligenza artificiale e analisi della documentazione giuridica già pubblica. Le modalità sono sostanza, i risultati devono essere contestabili. Nel mondo si sono già sperimentate varie tecniche, oggi le chiameremmo legal design, sviluppate attorno a studi sul valore del precedente giurisprudenziale. Ma la domanda che vogliamo affrontare è in che misura servirci di risultati probabilistici. Oltre alla rassegna dei tentativi già svolti nel mondo anglosassone e nei settori più propensi a queste tecniche ci avventureremo nell'ipotizzare finalità morali e immorali delle tecniche esistenti.
DATI, FONTI, DECISIONI. ⇧
Giovambattista Vieri (Ent srl)
DATI, FONTI, DECISIONI.
Viviamo in un mondo pieno di dati che, vengono collezionati e serviti da diverse fonti con svariati fini. Il fine piu' comune e' il lucro o il mero guadagno monetario. Vi son fini tesi a influenzare le coscienze tramite le sensazioni prodotte da semplici tecniche di presentazioni. La presentazione prendera' spunto dai dati pubblicati da varie fonti relative all'attuale pandemia. E mostrera' come fonti diversi possano portare a raffigurazioni diverse. Raffigurazioni che possono essere influenzate da semplici modi in cui si raffigurano i dati stessi. Per ultimo si mostrera' come lo stesso 'algoritmo' sia influenzabile a compiere predizioni (decisioni) diverse da semplici cambiamenti dei dati. Questo al fine di render chiaro come il dato e la fonte regnino rispetto al modo in cui vengono processati.
Giustizia predittiva e modelli matematici⇧
La relazione vuole spiegare il tema della giustizia predittiva, analizzando alcuni modelli che permettono la prevedibilità delle sentenze: modello induttivo e modello deduttivo. Si dimostrerà la preferibilità del modello deduttivo perchè idoneo ad evitare vizi logici; diversamente, quello induttivo - oltre ad essere fallace - rischia addirittura di essere pericoloso. Tuttavia, quest'ultimo è il più diffuso. Si esporrà una critica all'approccio sostitutivo dell'intelligenza umana con quella artificiale; si darà un taglio giurimetrico.
Ground Control to Major Tom⇧
Efrem Zugnaz (the Webprepping Initiative)
Come è possibile che nell'era tecnologica, oltre che ai vantaggi ci sia un evidente furto. Furto di dati, furto di identità ma sopratutto furto di tempo. L'intelligenza artificiale un po' ci frega, è una scusa per non usare il cervello. Inglesismi vuoti nella bocca di gente che a vanvera parla, usa, consuma. Con il classico approccio, filo-tecnologico dell'esperienza del webprepping, si racconterà la triste storia di quanto la tecnologia e gli algoritmi, passando di mano degli informatici alla persona comune ed ai giornalisti è diventata main stream. Oggi piu' che mai in un periodo di telelavoro forse è necessario soffermarsi sul tempo piu' che sulla tecnologia. Gli informatici ancora una volta raccontano storie perchè parlare di informatica oggi c'è nè troppa, nei posti sbagliati.