Una macchina può scegliere sulla vita?

Possiamo affidare a una macchina la selezione di chi deve nascere e chi no?

Per rispondere a questa domanda diciamo intanto cosa intendiamo per “macchina”, o algoritmo, pensando in particolare a quelli che facciamo rientrare nel termine intelligenza artificiale.

Con macchina indichiamo generalmente un insieme di regole, schemi, sequenze di operazioni che automatizzano una decisione. 

Essendo però il quesito di natura etica e non tecnica, alla definizione manca un attributo. Le macchine sono morali o amorali?

Possono essere entrambe le cose a seconda di come le costruiamo. Se costruiamo una macchina “amorale” allora questa sarò istruita per prendere le sue decisioni sulla base di criteri quali l’utilità, l’economicità, o altri che noi definiamo, ma senza coinvolgere il paradigma del bene e del male.

Per decidere, discernendo il bene o il male, una macchina può essere (deve essere) etica o morale. Una macchina che fosse etica sarebbe in grado di definire, a seconda del contesto e del tempo, un diverso paradigma attraverso cui definire il bene e il male. Per il momento non siamo in grado di progettare una macchina così, né tanto meno di costruirla veramente. Abbiamo invece gli strumenti per costruire una macchina che sia morale, ovvero una macchina che distingue il bene dal male sulla base di ciò che le abbiamo insegnato.

Su questo facciamo una precisazione: anche le intelligenze artificiali ad apprendimento continuo o ad autoapprendimento, apprendono dai dati che noi gli forniamo o sulla base di regole che noi definiamo, quindi siamo comunque noi gli artefici, le guide, di questo apprendimento.

Abbiamo quindi le competenze tecniche per insegnare a una macchina a distinguere in un dato contesto il bene dal male, ovvero per costruire una macchina morale.

Dal punto di vista etico condividiamo la morale da insegnarle?

L’aberrazione non sta tanto che rimandiamo una scelta sulla vita umana a una macchina, ma nel fatto che la morale che le abbiamo insegnato non è universale, condivisa, assoluta.

Per costruire una macchina morale dobbiamo condividere completamente una morale e accettarne l’universalità (che significa che tutti sono soggetti alla medesima morale senza il riconoscimento della propria unicità). 

Per il momento è quindi meglio costruire macchine che sanno individuare lo scenario più utile, quello più efficace, quello più economico, ma non si sbilanciano anche sul fatto che sia più buono.

PSD2, intelligenza artificiale e identità

Il 14 settembre è entrata in vigore la normativa PSD2 che inserisce cambiamenti significativi nella gestione delle operazioni di internet banking. In particolare introduce un nuovo standard di autenticazione SCA (Strong Customer Authentication), volto ad aumentare i livelli di sicurezza. l’SCA porta alla sostituzione delle le vecchie “chiavette” che siamo soliti utilizzare, con lo smartphone. Il cambiamento del mezzo (oltre a sancire, di fatto, l’obbligatorietà al possesso di uno smartphone evoluto) è interessante non tanto per il cambio dello strumento in se, quanto per quella che implica in termini di riconoscimento della identità personale. Alla base dei nuovi metodi di riconoscimento ci saranno: il riconoscimento dell’impronta digitale o del volto, entrambi basati sull’utilizzo dell’intelligenza artificiale.

Se da un lato questo sancisce e ufficializza la maturità tecnologica di questi strumenti, dall’altro apre interrogativi sulla gestione della identità digitale (intesa come una certificazione che siamo noi a operare quando siamo nel web).

Proviamo a capire. Io inserisco sul mio smartphone (a prescindere dal fatto che userò l’APP del conto corrente) la mia impronta digitale o l’immagine del mio volto. Questo permette allo smartphone di riconoscermi e di sancire che lo sto usando proprio io.

Poi apro la APP della mia Banca. Al posto di inserire un codice che la mia banca mi ha fornito (tramite la chiavetta), la APP chiede allo smartphone se sono proprio io che sto usando la APP. Il sistema è molto comodo e veloce, oggi si direbbe “user friendly”.

Chi certifica la mia identità? Non la banca, ma il produttore del telefono.

Quindi la verifica iniziale dell’identità del soggetto (per impronta digitale o visiva) viene effettuata dal dispositivo. Si tratta del riconoscimento dell’utilizzatore del dispositivo, in modo disgiunto rispetto al riconoscimento della titolarità (o delega a operare sul conto corrente).

La consegna delle informazioni digitalizzate delle impronte digitali e dei tratti del viso non viene più nei confronti dell’operatore bancario, bensì all’operatore privato che gestisce l’hardware e che detiene l’onere del riconoscimento. Questo operatore potrebbe decidere di impedire l’accesso, sospenderlo, essere vittima di attacchi informatici o malfunzionamenti, portando a sospensioni anche importanti della operatività bancaria.

Questa separazione fra l’operatore bancario e il produttore del dispositivo dovrà essere risolta (e non dal punto di vista della tecnologia, ma del processo). Manca il concetto di identità digitale on-line e della definizione di una entità (nazionale, sovranazionale, privata) che la certifichi.

La SCA, di fatto, indica in chi produce smartphone (e il relativo software) come soggetto emettitore (privato) di un di “passaporto digitale” accettato dagli operatori bancari e non univoco.

E’ quindi necessario chiarire una zona d’ombra, definendo la identità di una persona nello spazio digitale e chi è titolato a farlo. Su questo tema manca ancora a livello politico una riflessione che, inevitabilmente, dovrà superare la competenza della identità ora detenuta dagli stati nazionali.