ANDIG

La fiducia dell’essere umano verso le macchine intelligenti e l’inversione di paradigma del rapporto uomo-macchina (l’essere umano al servizio della macchina)

Scritto da Paola Spiga

L’affidabilità dell’IA

Una delle maggiori difficoltà nel valutare l'intelligenza artificiale e nell’analizzarne il suo impatto etico, è costituita dalla tendenza delle persone ad antropomorfizzarla.

E questo aspetto diventa particolarmente problematico quando le attribuiamo attività morali umane. I media ci presentano quotidianamente immagini di macchine che possono fare quello che noi possiamo fare e che fanno, spesso, molto meglio di noi [1].

Siamo bombardati da film, romanzi e spettacoli televisivi che ritraggono robot senzienti, quindi ci viene quasi naturale associare, categorizzare e definire queste macchine in termini umani.

E mentre associamo attività e abilità umane alle macchine, sorge un importante problema quando questa antropomorfizzazione è collegata ad attività morali umane, come la fiducia.

L’AI HLEG (High-Level Expert Group on Artificial Intelligence), il gruppo di esperti di alto livello della Commissione europea sull'IA, nel suo “HLEG AI - Ethics guidelines for trustworthy AI, 2019”[2], ha adottato la posizione secondo cui dovremmo stabilire un rapporto di fiducia con l'IA e dovremmo considerarla di base degna di fiducia.

Come si descriverà in seguito, la fiducia è una delle attività più importanti e definenti nelle relazioni umane [3], quindi proporre che l'IA dovrebbe essere considerata di base come degna di fiducia, è un'affermazione molto seria.

Si proverà a ragionare sul fatto che l'IA, non possedendo stati emotivi e non potendo quindi essere responsabile delle proprie azioni (requisito insito sia nel valore affettivo che in quello normativo della fiducia), non possa essere considerata di base come degna di fiducia.

Mentre l'IA soddisfa tutti i requisiti del valore razionale della fiducia, si proverà a dimostrare che questo non è affatto un tipo di fiducia, ma che è invece una forma di affidamento.

In definitiva, anche le macchine complesse come l'IA non dovrebbero essere viste come degne di fiducia, poiché ciò mina il valore della fiducia interpersonale, antropomorfizza l'IA (valore affettivo della fiducia) e distoglie la responsabilità da coloro che la sviluppano e la utilizzano (valore normativo della fiducia).

Le organizzazioni che sperimentano e costruiscono intelligenza artificiale, così come il gruppo di esperti AI HLEG, adottano la posizione per la quale l'IA è qualcosa di cui possiamo, e dovremmo, fidarci. Tuttavia, questa posizione dovrebbe tener conto che, in un’ottica sistemica, anche tutti gli attori e i processi che fanno parte del contesto tecnico-scientifico del sistema (compresa la stessa tecnologia AI), debbano essere degni di quella stessa fiducia.

L'affidabilità non è una proprietà che si possa tipicamente attribuire alle macchine, ma l’AI HLEG vorrebbe attribuirla all'IA.

Il gruppo di esperti asserisce infatti che l’IA sia affidabile in quanto la tecnologia che la sostiene è affidabile di per sé. Così come lo sono anche i progettisti e le organizzazioni che la sviluppano, la sostengono e la diffondono.

Le Intelligenze Artificiali

 

Finora si è parlato di Intelligenza Artificiale…ma cos’è realmente? Per sua definizione, è un’intelligenza che si differenzia da quella naturale: è un’intelligenza costruita, artificiale, allocata in un dispositivo elettronico. Il suo concetto è altamente contestato, poiché spesso si riferisce a tecnologie che dimostrano livelli di intelligenza indipendenti dagli umani.

Le IA sono sistemi progettati da esseri umani che possono facilitare compiti e possono elaborare informazioni in modo simile a noi.

E’ un campo dell’informatica che si concentra sui processi informatici che spesso possono funzionare e reagire in modo simile a quello umano.

L'IA viene utilizzata nel settore medico-sanitario per prevedere l'insorgenza di malattie, per curare quelle già diagnosticate e per effettuare interventi chirurgici, per individuare le frodi nei vari settori commerciali, per prevedere il crimine nelle forze dell'ordine, in agricoltura per pianificare, controllare e aumentare i raccolti, nelle città per ridurre inquinamento e congestione, e in una miriade di altri campi di cui nemmeno abbiamo contezza.

Non solo l'IA viene utilizzata per l'elaborazione e la previsione dei dati grezzi, ma si sta sempre più incarnando in costrutti fisici come robot, dispositivi specializzati, droni e auto a guida autonoma (IoT Internet of Things – Internet delle cose – gli Smart Objects, ossia tutti quegli oggetti intelligenti che ci circondano all'interno delle nostre case, al lavoro, nelle città, nella vita di tutti i giorni e che vengono rielaborati in ottica digitale). Tuttavia, non tutti i robot e i droni sono dotati di IA.

L'IA incarnata è un'importante area di ricerca, in continua e veloce evoluzione, e spesso domina i dibattiti perché è una delle aree più tangibili e affascinanti per il grande pubblico.

Un'altra questione importante è la differenziazione tra IA stretta (ANI: Artificial Narrow Inteligence) e IA generale (AGI: Artificial General Intelligence).

Ne esisterebbe anche una terza, l’IA Superiore (ASI: Artificial Super Intelligence), che al momento viene sono fantasticata.

Secondo la definizione, l’IA stretta è molto brava a svolgere un singolo compito o una gamma limitata di compiti e, a volte, può superare gli esseri umani.

Ma il problema con l’intelligenza artificiale stretta è che non appena viene posta in una diversa impostazione o viene applicata per eseguire un’attività diversa da quella in cui eccelle, fallisce. Le ANI non sono in grado di trasferire il loro apprendimento da un campo all’altro.

Si concentrano quindi su un singolo sottoinsieme di abilità cognitive e progressi in quel dominio.

Per poterle differenziare al meglio è doveroso ribadire che, alla prima esplorazione dell’IA, i ricercatori avevano in mente di creare un sistema in grado di apprendere compiti e risolvere problemi senza essere esplicitamente istruito su ogni singolo dettaglio.

Questo sistema avrebbe dovuto anche essere in grado di svolgere questi compiti con ragionamento, astrazione e avrebbe anche dovuto essere in grado di trasferire conoscenze da un dominio all’altro.  E gli scienziati si sono impegnati per creare un’intelligenza artificiale in grado di soddisfare tutti questi requisiti.

L’idea primigenia di AI, con il passare degli anni e l’evoluzione della tecnologia, quella in cui il sistema era necessario per imitare il cervello umano e il suo processo di pensiero, si è trovata completamente in una nuova categoria, un diverso tipo di AI chiamato General AI o Artificial General Intelligence (AGI).

Quando gli viene presentato un compito non familiare, un sistema AGI è in grado di trovare una soluzione senza l'intervento umano (l’algoritmo che lo governa cataloga gli errori, al pari dell’intelligenza umana, per non commetterli di nuovo e trovare una soluzione alternativa più funzionale).

I ricercatori prevedono che per sviluppare completamente la tecnologia AGI, ci vorranno ancora diversi decenni. Tale previsione deriva dal fatto che i sistemi di IA di oggi non sono nemmeno in grado di svolgere compiti che un bambino umano può fare.

Quindi, nel tentativo di creare un sistema di intelligenza artificiale in grado di imitare gli esseri umani, ricercatori e scienziati hanno sviluppato e creato diverse tecnologie utili. E l’intelligenza artificiale stretta è qualcosa che comprende tutte queste tecnologie utili.

Nel pensiero filosofico di John Searle, le macchine potranno ragionare a livello umano solo quando saremo in grado di fornire loro una configurazione materiale di complessità equivalente a quella del nostro cervello.

Una meta che non solo è ancora lontanissima, ma che inficia qualunque possibilità di creare una macchina superiore all’uomo.

E a quel punto, addio sogni di singolarità tecnologica e sistema ASI.

A questo punto, siamo ancora sicuri che l'IA debba essere considerata di base come degna di fiducia?

Il concetto psicologico di fiducia: formulazioni teoriche recenti.

Nella letteratura psicologica, la maggioranza degli autori è concorde nell’analizzare il concetto di fiducia scomponendolo e definendolo in tre parti principali: una cognitiva, una affettiva e una comportamentale. Secondo altri autori tale concetto è da considerarsi in modo multidimensionale, tenendo conto di tutte e tre le parti contemporaneamente [19].

Rotter (1954) considera che lo sviluppo della fiducia in senso cognitivo avvenga nelle prime fasi di vita attraverso le esperienze con le figure d’attaccamento; la fiducia è considerata come l’aspettativa di un individuo (o di un gruppo) di poter fare affidamento sulle parole, sulle promesse, sulle affermazioni espresse da un altro individuo (o gruppo)[7].

Rotenberg (1991) definisce la fiducia interpersonale come “la sicurezza che le comunicazioni e i comportamenti di una persona rappresentino ai suoi reali stati interni” e sostiene che sia composta da tre dimennsioni quali la fedeltà, il rispetto delle confidenze e l’onestà.

Per l’autore, la fiducia colpisce due target relazionali quali la Familiarità (che è massima nei confronti dei genitori e minima nei confronti degli estranei), e la Specificità (per una figura generalizzata come “un compagno”, e per una figura specifica come “quel compagno”).

Il concetto di fiducia in senso affettivo affonda le sue radici nella teoria dell’attaccamento sviluppata da Bowlby (1938)[19]: è la funzione genitoriale, in particolare quella materna, che garantisce attraverso le cure, le attenzioni, e l’assistenza la sopravvivenza del bambino, assicurata solo tramite lo sviluppo di questa funzione. Erickson [4/5/19], riprendendo in esame la fiducia in senso affettivo, e lo sviluppo psicosociale dalla nascita all’anno di vita, ci descrive come il bambino impari a fidarsi o meno nella prevedibilità dell’ambiente, attraverso il comportamento dei caregivers, se soddisferanno o meno i suoi bisogni, in una lotta interiore tra “Fiducia fondamentale vs Sfiducia”.

La fiducia in Sé stessi non è quindi una qualità individuale, bensì il frutto della relazione bimbo-caregiver (ne è il miglior indicatore, il comportamento del bambino in seguito alla separazione dalla madre).

In ultima analisi, Rotenberg (1994) ritiene che la fiducia sia in relazione con il comportamento di fiducia (se un individuo ha credenze di fiducia basse, ha poca fiducia negli altri, e tale comportamento è rafforzato dagli esempi comportamentali che osserva negli altri significativi). E’ possibile analizzare il comportamento di fiducia, attraverso l’osservazione dei comportamenti diretti o indiretti esplicati nell’interazione coi pari e con gli altri individui.

E’ grazie alle inferenze che un individuo elabora (pensieri, credenze, scopi e intenzioni) che ci si affida all’altro [6]. Secondo Bernath e Feshbach (1995) [1/7] “la fiducia è esperita primariamente a livello conscio e relazionale, i sentimenti di fiducia e le decisioni sono influenzati dalla percezione e dalla valutazione sia di indizi legati al presente, sia di passate interazioni connesse alla fiducia negli altri”.

La decisione di fidarsi o meno delle scelte del partner è di natura consequenzialista considerando che, fino a prova contraria, il partner è sempre preciso nelle sue scelte [19].

Cioè, la fiducia si costruisce progressivamente attraverso l'approvazione costante dell'affidabilità dei partner nel fornire risposte corrette.

Da questa prospettiva, la conformazione alle scelte dell'altro riflette i livelli di acquisizione della fiducia così come l'accettazione dell'altro come potenziale partner [19].

In tutti i casi, la fiducia può essere considerata un processo dinamico basato su esperienze relazionali passate e, come tale, è soggetta a fluttuazioni continue riconducibili a tre fasi ben distinte: acquisizione, perdita e ripristino [8].

La fiducia è alla base di molti aspetti della nostra vita ed è indispensabile per alcune delle relazioni più fondamentali nella durata della vita umana.

Senza almeno un minimo di fiducia negli altri, diventeremmo paranoici e isolazionisti per paura di inganni e danni [9].

Esiste una sostanziale differenza tra il riporre fiducia in qualcuno (o qualcosa…), e la convinzione sulla sua affidabilità: i pazienti possono riporre male la fiducia in medici o istituzioni che non sono meritevoli, o possono non fidarsi di quelli che lo sono.

Fidarsi di qualcuno significa riporre fiducia in lui per compiere una particolare azione.

Essere degno di fiducia aiuta ad ottenere la fiducia, ma non è né necessario né sufficiente. Interagiamo quasi quotidianamente con  persone in malafede che attirano la nostra fiducia, quindi la fiducia mal riposta è abbastanza comune. I soggetti degni di fiducia sono quelli che hanno la competenza per soddisfare effettivamente la fiducia che viene loro accordata, che ci si fidi o meno di loro.

La domanda quindi è la seguente: se l'IA è qualcosa di cui ci si può fidare, e degna della nostra fiducia?

Mark Coeckelbergh [10] sostiene che mentre gli artefatti, come le IA, non soddisfano i criteri specifici per la fiducia, possiamo comunque fidarci di loro perché "possono comunque contribuire alla creazione di una 'fiducia virtuale' o 'quasi fiducia' nella misura in cui appaiono come quasi-altri o altri sociali".

È irrilevante se l'IA ha la capacità di essere fidata, dipende semplicemente dal fatto che chi si fida ci creda. Certo, si può dire che ci si fida degli artefatti, come l'IA, ma questo tipo di "quasi fiducia" è in realtà una fiducia mal riposta.

Questo tipo di fiducia mal riposta ha il potenziale di ingannare gli individui sulle capacità dell'IA e di offuscare la responsabilità delle aziende che sviluppano, producono e distribuiscono l’IA .

E’ necessario specificare che questo tipo di quasi-fiducia si riferisce solo al valore razionale della fiducia. A questo punto, dovremmo analizzare l’IA secondo i tre paradigmi di fiducia dominanti (valore affettivo, razionale e normativo), per stabilire se l'IA può essere qualcosa che ha la capacità di essere fidata. Il valore affettivo della fiducia afferma che il fiduciante ripone fiducia e convinzione nella buona volontà del fiduciario. Esiste un’aspettativa che la persona fidata sarà direttamente e favorevolmente mossa dal pensiero che stiamo contando su di lei" [11].

In definitiva, la caratteristica che definisce il valore affettivo della fiducia è che la motivazione di Caio a fare Y è basata su una buona volontà verso Tizio (requisito non soddisfatto in caso di fiducia accordata all’IA).

La fiducia basata sul valore normativo implica che le azioni del fiduciario saranno basate su ciò che dovrebbe fare. L'aspettativa posta sul fiduciario non è solo ciò che farà, ma ciò che dovrebbe fare. In altre parole, abbiamo aspettative normative, piuttosto che meramente predittive, nei loro confronti: allora essere degni di fiducia significa essere all'altezza di queste aspettative, e un fallimento nel farlo può risultare un tradimento [12].

Ricapitolando: Tizio ha fiducia in Caio per fare Y; Tizio crede che Caio sia competente per fare Y; Tizio è vulnerabile alle azioni di Caio. A questo punto entrano in gioco le esperienze passate, la teoria della mente, il background culturale, le emozioni e tutto il correlato psicologico che caratterizza l’Essere umano: i valori affettivi e normativi affermano che se Caio non fa Y allora Tizio può sentirsi tradito, mentre questo non è incluso nel valore razionale.

Inoltre, tutte e tre le definizioni variano nei loro punti di vista sulla motivazione di Caio, con il valore razionale che non richiede un motivo, il valore affettivo che si basa su una buona volontà verso Tizio, e il valore normativo che si basa su un impegno normativo alla loro relazione con Tizio.

Secondo i valori affettivi e normativi, se Caio non fa Y allora Tizio può sentirsi tradito, mentre questo aspetto non è incluso nel valore razionale.

L'IA soddisferebbe quindi solo i requisiti del valore razionale (a causa della sua mancanza di preoccupazione per la motivazione dell’azione del fiduciario),  che non è affatto un tipo di fiducia, ma di fatto una forma di affidamento.

Tuttavia, questo non significa che dovremmo diffidare dell'IA: "tra la fiducia e la diffidenza si trovano varie forme di affidarsi e dare per scontato"[11].

Mentre ci possono essere tipi di IA di cui abbiamo minor fiducia, questo non significa necessariamente che siamo in generale pessimisti sull'IA.

Quando saliamo su un veicolo a guida autonoma, possiamo essere fiduciosi che i sistemi di IA utilizzati in esso ci porteranno in modo sicuro a destinazione; quando permettiamo ai robot dotati di IA, di lavorare nelle case di cura e negli ospedali, siamo fiduciosi che saranno utili per la cura dei pazienti; e quando usiamo l’IA nelle aziende per identificare i potenziali clienti (profilazione psicografica), siamo fiduciosi che i risultati siano in qualche modo accurati. Tuttavia, possiamo anche immaginare che sia vero il contrario.

Le persone possono avere paura di entrare nelle auto a guida autonoma, rifiutare i robot AI negli ospedali e nelle strutture assistenziali, o temere di incorporare l'AI nel proprio modello di business.

Le relazioni di fiducia sono quelle tra parti fidate, mentre l'IA è un gruppo sistematico di tecniche che permettono alle macchine di svolgere particolari compiti informatici: "L'IA non è una cosa di cui fidarsi. È un insieme di tecniche di sviluppo del software con cui dovremmo aumentare l'affidabilità delle nostre istituzioni e di noi stessi" [13].

Pertanto, si dovrebbe cambiare il paradigma da "IA degna di fiducia", a "IA affidabile", o non definirla affatto su quel piano.

Il valore razionale dell'affidabilità non richiede che l'IA abbia emozioni verso il fiduciario (valore affettivo) o sia responsabile delle sue azioni (valore normativo).

Si può fare affidamento su un altro sulla base di abitudini affidabili, ma dare fiducia a qualcuno richiede che questo agisca per buona volontà verso il fiduciante.

Questa è la ragione principale per cui gli Smart Things e i sistemi creati dall'uomo, come le IA, possono essere affidabili, ma non degni di fiducia, secondo il valore affettivo.

Nel valore normativo, il fiduciario deve essere ritenuto responsabile delle sue azioni, cosa che l'IA non può fare. Invece, l'IA affidabile pone l'onere della responsabilità su coloro che sviluppano, distribuiscono e usano queste tecnologie.

Ma anche se ora c'è una bassa fiducia nell'IA, questo non significa che non possa essere implementata in futuro.

Una delle ragioni principali per la promozione dell'IA è che può, e sarà in grado di svolgere compiti molto più velocemente e più efficacemente degli umani. Mentre ora alcune applicazioni dell'IA sono insufficienti, non c'è motivo di pensare che lo saranno anche in futuro.

Perché questo è fondamentalmente un problema di robustezza tecnologica dell'IA, piuttosto che un problema filosofico profondamente radicato.

La fiducia ci permette di affrontare l'incertezza e il rischio, e facendo questo non ignoriamo l'incertezza, ma piuttosto superiamo alcune delle paure che la circondano. “La fiducia riduce la complessità; non la toglie" [14].

 

 

Fiducia e vulnerabilità

Fidarsi di qualcuno significa essere vulnerabili e dipendenti dall'azione di un fiduciario che a sua volta può approfittare di questa situazione di vulnerabilità e tradire il fiduciante [14].

Non si cerca di evitare o superare la propria vulnerabilità, ma c'è invece un'accettazione positiva di essa. La fiducia negli altri è usata come un modo per pianificare il futuro come se fosse certo, pur essendo consapevoli che non lo è [15].

Tuttavia, è il "come se" che definisce veramente la fiducia perché diventa "ridondante quando l'azione o i risultati sono garantiti"[i]. La fiducia è l'aspettativa positiva che una certa realtà si materializzerà, cioè che il fiduciario non violerà la nostra fiducia [14].

Essenzialmente, "la fiducia è inseparabile dalla vulnerabilità, in quanto non c'è bisogno di fiducia in assenza di vulnerabilità" (Hall et al. ,2001).

L'IA viene utilizzata nella maggior parte dei campi e delle industrie e la sua adozione diffusa è destinata ad aumentare. Saremo fisicamente vulnerabili ai veicoli autonomi che ci guidano al nostro posto, emotivamente vulnerabili ai robot in ambito sanitario, e finanziariamente vulnerabili all'IA nei settori assicurativo e bancario.

Se non altro, la nostra vulnerabilità all'IA è uno dei fattori trainanti della necessità di assicurare che sia sviluppata, distribuita e usata in modo etico.

Siamo vulnerabili agli effetti dell'IA a causa dei compiti che le vengono delegati, ma anche gli individui che non scelgono di delegare compiti all'IA saranno vulnerabili (poiché si troveranno comunque immersi in un sistema che ne fa ampio uso).

Esiste un rischio concreto che la nostra fiducia venga violata, con un conseguente costo per chi si fida: il tradimento della sua fiducia; e Il tradimento è strettamente legato alla fiducia riposta nel fiduciario e alla sua competenza.

La mancanza di empatia e coscienza nell’AI

L'IA può essere programmata per avere stati motivazionali, ma non ha la capacità di sentire coscientemente disposizioni emotive, come la soddisfazione o la sofferenza, derivanti dalla cura, che è una componente essenziale della fiducia affettiva.

Un agente deve essere in grado di sentire le disposizioni risultanti dai suoi agiti; deve avere gli stati mentali che sono necessari per la cura [16].

Se un agente non può sentire coscientemente qualcosa, allora diventa difficile dire che qualcosa importa a quell'agente, anche se può compiere azioni simili alle nostre. L'IA potrebbe essere in grado di agire come noi e avere l'intelligenza per compiere azioni, pur non possedendo la capacità di essere mossa da quelle azioni.

Possiamo essere in grado di costruire l'IA per ricevere input e stimoli ambientali, per rilevare le risposte appropriate e programmarla per selezionare un risultato appropriato, ma questo non significa che le sue risposte siano mosse dalla fiducia riposta in essa.

Anche se possiamo essere in grado di programmare l'IA per replicare le reazioni emotive, si tratta semplicemente di una risposta predefinita e programmata che non possiede la capacità di provare qualcosa verso il fiduciario.

Gli agenti artificiali non hanno coscienza, emozioni o atteggiamenti psicologici per le loro motivazioni, ma agiscono invece in base ai criteri inseriti nel loro progetto o alle regole delineate durante il loro sviluppo [17].

Le decisioni prese dall'IA non hanno importanza per essa. Non ha la capacità di preoccuparsi o essere commossa dalla fiducia riposta in essa.

Sebbene possa adempiere a ciò che il fiduciario le sta affidando, non lo farebbe certo per una qualsiasi reazione affettiva nei confronti del fiduciante. Senza questo, le azioni compiute dall'IA non possono essere fondate sulla fiducia, ma sono invece atti basati sulla fiducia o sulla prevedibilità. Nel valore affettivo della fiducia, il fiduciario deve agire liberamente ed essere motivato da un senso di buona volontà verso il fiduciante.

Essere mossi dalla fiducia che viene riposta in qualcuno, è una componente integrale del valore affettivo della fiducia, ma l'IA stretta non ha questa capacità, e quindi non può essere intesa come qualcosa che ha la capacità di essere fidata.

I valori normativi della fiducia richiedono che gli agenti morali siano ritenuti responsabili delle loro azioni, sia che svolgano l'attività di cui si fidano, sia che violino questa fiducia.

Affinché l'IA sia classificata come qualcosa di cui possiamo fidarci, richiederebbe una capacità esplicita di essere moralmente responsabile delle sue azioni, in particolare dell'atto che le viene affidato. E l'IA non ha la capacità di essere affidabile secondo il valore normativo della fiducia.

Riferirsi all'IA come affidabile significherebbe elevare impropriamente l'IA, disconoscendo al contempo la responsabilità di coloro che la sviluppano, la implementano e la distribuiscono: assegnare la responsabilità all'artefatto per le azioni che lo abbiamo progettato per eseguire, significherebbe disconoscere deliberatamente la nostra responsabilità per quel progetto [18].

Le aziende dovrebbero essere ritenute responsabili degli impatti della loro IA e dovrebbero instillare misure per evitare impatti dannosi (HLEG).

La responsabilità dovrebbe essere anche dei governi, dei leader dell'industria, degli istituti di ricerca e dei professionisti dell'IA.

[1a] I pionieri dell’intelligenza artificiale sono concordi che l’avvento di una Agi – un’intelligenza artificiale dalle caratteristiche simili, pari o superiori a quelle umane – sia oggi fantascienza https://www.wired.it/attualita/tech/2021/01/25/a-che-punto-siamo-con-lintelligenza-artificiale-generale/?refresh_ce=

[2b] L'8 aprile 2019 il gruppo di esperti di alto livello sull'IA ha presentato le linee guida etiche per un'intelligenza artificiale affidabile. Ciò ha fatto seguito alla pubblicazione della prima bozza delle linee guida nel dicembre 2018, sulla quale sono stati ricevuti oltre 500 commenti attraverso una consultazione aperta.

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

[3c] Questo articolo passa in rassegna la letteratura esistente sulla fiducia dei bambini. Dopo aver riassunto le prospettive teoriche storiche, rilevando in particolare l'influenza di Rotter sul campo, offre un modello teorico di fiducia che sintetizza i modelli precedenti, descrivendo vari metodi per valutare la fiducia e sostenere un approccio multimetodo

https://www.sciencedirect.com/science/article/abs/pii/S0962184905800484

[4d]  I cicli della vita. Continuità e mutamenti - E. H. Erikson, Joan M. Erikson  - Armando Editore, 2009

[5e]  L’identità tra individuo e società. Erik H. Erikson e gli studi sull’io, sé e identità - Fabio D. G. Fiorelli – Armando, 2007

[6f]  In questo studio gli autori hanno valutato il comportamento di fiducia di 63 bambini di quarta e quinta elementare, coinvolgendoli nel gioco del Dilemma del Prigioniero (fiducia reciproca) e considerando le valutazioni degli insegnanti. Gli autori hanno riscontrato che, a parità di genere, la solitudine era correlata negativamente con ogni misura delle credenze di fiducia e del comportamento fiducioso.

https://pubmed.ncbi.nlm.nih.gov/15382815/

[7g]  Fiducia e coping nelle relazioni interpersonali – A.Marchetti, E.Di Terlizzi, S.Petrocchi- Carocci, 2008.

[8h] In questo studio, vengono analizzati processi di acquisizione, perdita e ripristino della fiducia su un campione significativo di bambini in età prescolare e scolare che giocano con un robot umano o umanoide dal vivo. È stata inoltre analizzata la relazione tra la fiducia e la rappresentazione della qualità delle relazioni di attaccamento, della Teoria della mente e delle abilità esecutive.

https://www.frontiersin.org/articles/10.3389/fpsyg.2020.00469/full

[9i] Una questione di fiducia – O. O'Neill - Vita e pensiero,2003

[10l] The Capability Approach, technology and design – M. Coeckelbergh, 2012

[11m] Trust as an affective attitude – K. Jones, 1996

[12n] Self-Trust and reproductive autonomy – C. McLeod, 2002

[13o] L'IA è un insieme di tecniche di sviluppo di sistemi che consentono alle macchine di calcolare azioni e/o conoscenze a partire da un insieme di dati. Solo altre tecniche di sviluppo del software possono essere paragonate all'IA e, poiché queste non "si fidano" dell’IA, nessuno può effettivamente fidarsi dell'IA.

https://joanna-bryson.blogspot.com/2018/12/no-one-should-trust-ai-and-presenting.html

[14p] Questo articolo parte da un'approfondita analisi concettuale della fiducia, attingendo a spunti di riflessione provenienti, tra l'altro, dalla filosofia e dalla sociologia, per affinare la nostra comprensione dell'argomento. L’articolo spiega come l'arrivo di grandi sistemi - come Internet - abbia cambiato il carattere della fiducia, che oggi non si basa più sulle interazioni interpersonali ma è diventata completamente mediata dalle tecnologie.

https://research.tilburguniversity.edu/en/publications/trust-on-the-line-a-philosophical-exploration-of-trust-in-the-net

[15q] Trust and power – N. Luhmann – J. Wiley & Sons, 1979

[16r] L’assistenza sanitaria dovrebbe impegnarsi nello sviluppo di principi e di strutture normative e di governance che rendano la transizione verso un sistema sanitario compatibile con l’intelligenza artificiale il più sicuro ed efficace possibile in termini di attenzione alla cura psicofisica del paziente

https://www.researchgate.net/publication/227985022_Free_Will_Moral_Responsibility_and_Mechanism_Experiments_on_Folk_Intuitions

[17s] Nel luglio 2017, il Consiglio di Stato cinese ha pubblicato la strategia del Paese per lo sviluppo dell'intelligenza artificiale (AI), intitolata "Piano di sviluppo dell'intelligenza artificiale di nuova generazione" . Questa strategia ha delineato gli obiettivi della Cina per diventare il leader mondiale dell'IA entro il 2030, di monetizzare l'IA in un'industria da circa 150 miliardi di dollari e di emergere come forza trainante nella definizione di norme e standard etici per l'IA.

https://link.springer.com/article/10.1007/s00146-020-00992-2

[18t] In questo articolo si fornisce una panoramica della natura e delle implicazioni dell'intelligenza artificiale (IA), con particolare attenzione a come questa impatti sulle possibili applicazioni al e del diritto. Qualsiasi artefatto che trasformi la percezione in informazioni più rilevanti, compresa l'azione, è IA. Non c'è dubbio che l'IA, e le tecnologie digitali in generale, stiano introducendo enormi trasformazioni nella società. Tuttavia, questi impatti dovrebbero essere governabili con modifiche legislative meno trasformative.

https://www.oxfordhandbooks.com/view/10.1093/oxfordhb/9780190067397.001.0001/oxfordhb-9780190067397-e-1

[19u] Psicologia generale . Dal cervello alla mente – P. Legrenzi, c. Umiltà, c. Papagno – Il Mulino, 2012