Una macchina può scegliere sulla vita?

Possiamo affidare a una macchina la selezione di chi deve nascere e chi no?

Per rispondere a questa domanda diciamo intanto cosa intendiamo per “macchina”, o algoritmo, pensando in particolare a quelli che facciamo rientrare nel termine intelligenza artificiale.

Con macchina indichiamo generalmente un insieme di regole, schemi, sequenze di operazioni che automatizzano una decisione. 

Essendo però il quesito di natura etica e non tecnica, alla definizione manca un attributo. Le macchine sono morali o amorali?

Possono essere entrambe le cose a seconda di come le costruiamo. Se costruiamo una macchina “amorale” allora questa sarò istruita per prendere le sue decisioni sulla base di criteri quali l’utilità, l’economicità, o altri che noi definiamo, ma senza coinvolgere il paradigma del bene e del male.

Per decidere, discernendo il bene o il male, una macchina può essere (deve essere) etica o morale. Una macchina che fosse etica sarebbe in grado di definire, a seconda del contesto e del tempo, un diverso paradigma attraverso cui definire il bene e il male. Per il momento non siamo in grado di progettare una macchina così, né tanto meno di costruirla veramente. Abbiamo invece gli strumenti per costruire una macchina che sia morale, ovvero una macchina che distingue il bene dal male sulla base di ciò che le abbiamo insegnato.

Su questo facciamo una precisazione: anche le intelligenze artificiali ad apprendimento continuo o ad autoapprendimento, apprendono dai dati che noi gli forniamo o sulla base di regole che noi definiamo, quindi siamo comunque noi gli artefici, le guide, di questo apprendimento.

Abbiamo quindi le competenze tecniche per insegnare a una macchina a distinguere in un dato contesto il bene dal male, ovvero per costruire una macchina morale.

Dal punto di vista etico condividiamo la morale da insegnarle?

L’aberrazione non sta tanto che rimandiamo una scelta sulla vita umana a una macchina, ma nel fatto che la morale che le abbiamo insegnato non è universale, condivisa, assoluta.

Per costruire una macchina morale dobbiamo condividere completamente una morale e accettarne l’universalità (che significa che tutti sono soggetti alla medesima morale senza il riconoscimento della propria unicità). 

Per il momento è quindi meglio costruire macchine che sanno individuare lo scenario più utile, quello più efficace, quello più economico, ma non si sbilanciano anche sul fatto che sia più buono.