Macchine, Proxy ed Enti Artificiali

by @raimondiand

INTRODUZIONE

Se c’è una ragione per amare la buona fantascienza è che ci consente di sperimentare il futuro prima che questo arrivi. E quando questo si presenta alla nostra porta, se abbiamo impiegato sufficiente logica e creatività durante i nostri esperimenti, possiamo accoglierlo come qualcosa di familiare e discuterci con la calma necessaria. Personalmente, essendo da tempo un appassionato della narrativa cyberpunk e della letteratura critico-politica cypherpunk, mi trovo a mio agio nel mondo che abitiamo oggi [0]. Non perché abbia la soluzione a quei problemi di cui spesso discutiamo –privacy, sicurezza, diritti civili e umani, mercato del lavoro, mondo artificiale, social network e così via– ma perché, per deformazione professionale filosofica, tendo a fare un passo indietro per discuterli serenamente. La soluzione a questi problemi, infatti, è difficilmente univoca, e molto spesso coincide con la nostra capacità di gestire il dissenso, di essere chiari sui nostri assunti, e di mappare insieme possibili risposte, valutandone i pro e i contro. Qui voglio proporre e discutere due temi. Uno, ormai più familiare, è quello delle auto a guida automatica. L’altro, invece, si addentra in territori più inesplorati, ed è quello della servitù delle macchine. La prima parte, dal titolo “Macchine e Proxy” esplora una diversa concezione delle macchina a partire da un problema di etica applicata sulle auto a guida automatica. La seconda parte, dal titolo “La servitù delle Macchine” esplora le implicazioni etiche della servitù delle macchine dall’intelligenza di secondo ordine [1]. Buona lettura.

MACCHINE E PROXY

Tra gli esperimenti interessanti a cui vale la pena partecipare c’è quello delle macchine a guida automatica. Come molte delle tematiche che riguardano il futuro, quello delle self-driving car ci invita ad investigare i rapporti tra uomini, tecnologia e società. Il dibattito punta in diverse direzioni: quali sono le tecnologie disponibili, come regolare la loro diffusione e il loro impatto, come cambieranno i mercati degli anni a venire. Quelle che più catturano il mio interesse sono due: come cambierà la percezione che abbiamo degli artefatti tecnologici e, ceteris paribus, delle ragioni in base alle quali acquisteremo un artefatto piuttosto che un altro.

Un rapido sguardo a google trend mostra come il 2015 sia stato un anno in cui il dibattito ha registrato un sostanziale incremento rispetto agli anni precedenti. Uno degli aspetti più controversi –e quindi più stimolanti– che è stato sollevato è quello delle scelte che la macchina deve prendere in determinate circostanze. Il tema è controverso per due ragioni: la prima è che ci si è accorti che le competenze tradizionali in tema di tecnologia non sono sufficienti, e non lo saranno, per affrontare il problema; la seconda è che il problema non può essere affrontato migliorando la tecnologia, ma migliorando la nostra comprensione del mondo artificiale.

Partiamo dal primo punto. Supponiamo di stare in una macchina a guida automatica ed immaginiamo una situazione in cui la macchina incontri un ostacolo imprevisto sul proprio percorso. L’ostacolo, immaginiamo ancora, sia un gruppo di umani nel mezzo della careggiata. Ci sono due modi in cui la storia può continuare: (i) la macchina continua diritto e investe gli umani (ii) la macchina sterza danneggiando il conducente. Questa che abbiamo appena esposto è una versione molto semplificata ma fedele di un problema che i filosofi conoscono da tempo, il trolley problem [2]. Il trolley problem è un esperimento mentale che ci pone davanti ad un problema etico. Se questo esperimento è, e continuerà ad essere, oggetto di dibattito filosofico, la tecnologia a guida automatica ha permesso di portare il problema filosofico sul terreno delle scelte pratiche. A quanto sembra, con conseguenze paradossali.

Supponiamo di dover decidere ora, io e voi, cosa dovrebbe fare una macchina in situazioni simili. Potremmo subito accordarci su una premessa, piuttosto intuitiva: ogni effetto di questa o quella tecnologia deve essere tale da minimizzare l’impatto negativo sugli esseri umani. A prima vista, se dovessimo osservare la situazione da un punto di vista generale, ci sembrerebbe difficile negare questa premessa. Tuttavia, se invece dovessimo pensare come dei possibili acquirenti della vettura, cominceremmo probabilmente a dubitarne. La macchina che abbiamo comprato, infatti, riterrebbe più giustificato, in quelle circostanze, uccidere noi piuttosto che gli altri umani in carreggiata. Ma, da clienti, se non siamo preparati ad accettare questa evenienza, di certo non compreremmo la vettura. Questa conseguenza paradossale viene discussa in Bonnefon, Sharif e Rahwan [3].

Il paradosso non è, tecnicamente parlando, una paradosso etico, ma un paradosso di mercato. Mettiamo infatti sul mercato una tecnologia la cui adozione non dipende da fattori tecnici, ma dal tipo di decisioni che i possibili acquirenti sono o non sono disposti ad accettare sul piano etico. A seconda di come decidiamo di programmare l’auto, questa avrà o non avrà un certo grado e segmento di adozione. Tuttavia, dal momento che questa scelta di programmazione non può essere presa su motivazioni puramente tecniche, senza le competenze filosofiche necessarie per costruire un’adeguata mappa del problema, non è prima facie possibile, per una casa automobilistica, individuare i segmenti di mercati adeguati alle vendita del prodotto. E non è ancora possibile, per tale casa, rendere chiaro al cliente come e perché si comporta quel prodotto in circostanze rilevanti; quelle in base alle quali il cliente basa la propria scelta di acquisto. Le competenze tradizionali non sono sufficienti, quindi, a gestire questo problema. Abbiamo, in un certa misura, necessità di interrogare professionalità diverse; una di queste è quella dei filosofi.

Passiamo al secondo punto. Ho detto sopra che il problema non può essere affrontato migliorando la tecnologia, ma migliorando la nostra comprensione del mondo artificiale. Che cosa significa? Supponiamo, ad esempio, che una casa automobilistica assuma un filosofo per cercare di trovare una soluzione al problema. In che modo il filosofo può essere d’aiuto? C’è un primo senso in cui non può. Non esiste, infatti, soluzione univoca al trolley problem. Anche all’interno della stessa comunità filosofica c’è unanime disaccordo. Secondo un articolo di Bourget e Chalmers, il 68,2% di noi sceglierebbe la soluzione (ii) come la migliore [4]. Tuttavia, il resto di noi sarebbe in disaccordo nel prendere questa come soluzione univoca al problema. Se il filosofo non è in grado di dare una soluzione univocamente accettata a tale problema, la professionalità del filosofo in questione non sembra avere alcun valore pratico dal punto di vista delle soluzioni di business.

C’è un secondo senso in cui, invece, può essere d’aiuto. Una possibile strategia è rifiutare l’assunto che ce ne debba essere una e una sola di soluzione. In parole povere, lo stato dell’arte del problema potrebbe suggerire che una posizione pluralista sia l’unica via praticabile per rendere eticamente trasparente ai propri clienti il prodotto che si cerca di vendere. In termini di mercato ciò significa che, invece di basare il segmento di valore di un prodotto sulle sue caratteristiche tecnologiche, sia invece necessaria basarlo sulle sue caratteristiche vicariali. Mi spiego. Supponiamo che ci siano due case automobilistiche che producano macchine a guida automatica. Queste, come abbiamo detto, dovranno fare una scelte in termini di implementazione. Poiché una sola scelta non è disponibile il problema sembra apparentemente insolvibile. Sappiamo anche, però, che è necessario gestirlo in qualche modo, pena non incontrare la domanda di mercato (o incontrarla nel breve termine ma vederla collassare sulle lunghe distanze). Cosa fare? Una possibile strategia di mercato è la seguente: produrre macchine tecnologicamente equivalenti ma eticamente differenti. Avremmo così la casa di produzione X che mette in commercio la sua vettura che sceglierà l’opzione (i) sopra la (ii); allo stesso modo, la casa di produzione Y metterà in commercio una vettura equivalente, ma programmata per implementare la decisione (ii) invece che la (i).

In che modo questa strada modificherebbe la nostra comprensione dell’artificiale? Nello scenario appena descritto si lascia libero il cliente di scegliere la macchina che si comporta nel modo che il cliente reputa più consono alle proprie ragioni o, per dirla in modo differente, che si comporta come il cliente si comporterebbe se fosse lui a guidarla. La macchina, quindi, da semplice oggetto, diventa un oggetto vicariale, o meglio, un proxy. L’artefatto come proxy rappresenta un sistema la cui caratteristica è quella di compiere scelte ed azioni in vece di qualcun altro, in questo caso il conducente [5]. Questo modo di intendere gli enti artificiali ha interessanti conseguenze sugli enti umani. Non è possibile qui esplorarle tutte. Ne voglio tuttavia presentare una rilevante per la nostra discussione sulla macchine a guida automatica e sulle possibili regolamentazioni di questi futuri mercati.

Immaginiamo di lavorare ancora sullo scenario appena proposto. Due aziende, X e Y, mettono sul mercato proxy tecnologicamente equivalenti ma vicarialmente differenti. Come sostenuto sopra, i clienti sceglieranno i proxy che riterranno più cogenti con i propri sistemi di valori e con le scelte che normalmente tenderebbero a giustificare. Supponiamo uno scenario plausibile in cui lo stato voglia intervenire sul mercato, cercando di regolamentare quale di questi proxy sia legittimo vendere e quale no. Chiediamo quindi, in base a cosa un policy maker potrebbe valutare la questione? Poiché abbiamo detto che non c’è una soluzione univoca al trolley problem, il policy maker si troverebbe davanti alla scelta di favorire un design etico rispetto ad un altro, e in base a quello scegliere quale dei proxy passerebbe i criteri di legittimità e quale no. Ma in base a cosa egli potrebbe scegliere? per fare ciò il policy maker dovrebbe prima adottare una teoria etica che gli consenta di valutare i due design. Tuttavia, poiché le diverse soluzioni al trolley problem possono essere offerte solo a partire da diverse teorie etiche, il policy maker rischierebbe di creare una regolamentazione di mercato ingiustificata, favorendo certe compagnie rispetto ad altri su base del tutto arbitraria. Identificare una preferenza rispetto che ad un’altra non sarebbe altro che riproporre lo stesso problema ad un livello superiore.

Una possibile soluzione, che consenta di non interferire in modo eccessivo nei mercati, sarebbe quella di accettare il pluralismo etico ed ammettere l’indecidibilità a priori della questione. La conseguenza di questo scenario é che, in mancanza di metaprincipi adeguati, ogni intromissione governativa sulle scelte personali in materia di proxy risulterebbe poco giustificata. Questo conclusione, per quanto bizzarra possa sembrare, non è del tutto non-convenzionale. Ci sono tematiche, infatti, che trascendono l’ambito decisionale dei singoli stati. Pensiamo ad esempio alle scelte in materia di conservazione e tutela ambientale. Il diritto ad una ambiente vivibile e non inquinato è un diritto di cui, per quanto richieda implementazioni di ogni particolare entità governativa, tutti gli esseri umani devono farsi carico e tutti gli esseri umani devono pretendere dai proprio governi. E’ possibile che anche le scelte in materia di tecnologia possano assomigliare a quelle in materia ambientale. E che i governi non abbiamo nessun diritto giustificato di interferire nelle scelte delle persone verso i loro proxy. Considerato quanto, al contrario, ciò stia avvenendo sempre di più, intendere gli enti artificiali come proxy ci permetterebbe di estendere a loro le stesse tutele (come quelle in fatto di privacy) che riteniamo giustificate per noi stessi.

In questo paragrafo sono partito discutendo il problema della auto a guida automatica. Ho mostrato come questo problema, solitamente discusso solo in termini di tecnologia, richiede altre competenze, tra le quali quelle filosofiche. Ho poi sostenuto che lungi dall’avere una soluzione diretta al problema, alcune strade filosofiche possono offrire una via di fuga. Questa via di fuga, però, implica che gli enti artificiali debbano essere considerati come proxy degli enti umani (e non più come oggetti, framework dominante nella passata decade, che ha permesso di elaborare quelle strategie di vendita che hanno consentito ad entità come Apple di fatturare molto a partire da tecnologie-oggetto come gli iPhone). Ho cercato di mostrare brevemente quali implicazioni una nozione di proxy possa avere dal punto di vista di mercato, ne ho messo in luce i pregi dal punto di vista del business, e ho suggerito come intendere gli enti artificiali come proxy posso offrire argomenti per indebolire il ruolo dei governi nella relazione tra cittadino e gli enti artificiali di cui si serve.

LA SERVITÙ’ DELLE MACCHINE

Questa seconda nota, come anticipato nell’introduzione, prende ad oggetto un tema meno vicino, temporalmente, a quello trattato sopra: la servitù robotica. La domanda fondamentale sulla quale voglio concentrarmi è se sia moralmente accettabile o no, e su quali basi, usare robots autonomi come servitori [6]. Ho sostenuto sopra che una possibile via per intendere gli enti artificiali è quella di comprenderli come proxy, sistemi la cui caratteristica è quella di compiere scelte ed azioni in vece di qualcun altro. Usare le macchine al posto di servitori umani, all’interno di questo paradigma, significa costruire proxy che eliminano, di principio, i problemi etici che di solito circondano la schiavitù umana. Ma è vero che avere automi intelligenti come servitori è meno problematico di avere essere umani come schiavi? se per macchine intendiamo sistemi proxy, probabilmente no.

Il tema della servitù robotica è di solito legato ai filoni della fantascienza, ma ad un più accurato esame il tema della ribellione dalla servitù ha accompagnato il dibattito sugli automi fin da Aristotele e Platone. Per Aristotele gli automi con capacità equivalenti a quelle di uno schiavo avrebbero permesso di cancellare la schiavitù umana. Ma Aristotele intendeva anche gli schiavi come dotati naturalmente di una minore intelligenza di quella del padrone. Suggerisce infatti che creare, al contrario, automi con le capacità equivalenti al padrone avrebbe rappresentato un rischio simile a quello di tenere in casa un aristocratico reso schiavo. Per loro stessa natura questi schiavi sono natural born rebels in quanto la loro autonomia deliberativa, anche in materia morale, non è dissimile da quella del padrone. Renderli schiavi significa negarla [7]. Il tema prende corpo fantascientifico, o meglio fantapolitico, a partire da Čapek al quale è dovuta la prima comparsa del termine robota nel 1921, nella famosa piece teatrale “R.U.R Rossum’s Universal Robots”. Fu l’evoluzione della servitù robotica come problema politico della rivolta dei servitori.

Vediamo un argomento dalla letteratura contro la schiavitù robotica, quella tesi per la quale non è etico usare e costruire macchine che sono progettate per compiere lavori che gli essere umani trovano sgradevoli [8]. Quello che voglio fare è esaminare quest’argomento, presentato da Walker, e cercare di chiarirne le premesse implicite. La conclusione sarà che si, non è etico asservire queste macchine. Vediamo innanzitutto cosa intendiamo per macchine e per servitù. Primo, discutiamo di automi intelligenti che oggi non esistono. Non abbiamo, attualmente, macchine che non includano uomini nel loop; possiamo ugualmente, però, fornire un’analisi filosofica adeguata del problema, come viene fatto circa da 80 anni, a partire dalla prima letteratura sulla Cibernetica. In merito alla servitù, la ragione per la quale voglio esaminare proprio questa relazione è che la moralità è fondamentalmente connessa con la libertà di scelta. Analizzare uno scenario di servitù robotica, quindi, significa analizzare quale approccio etico adotteremmo in quella precisa circostanza in cui ci troveremo a definire lo statuto di certi enti e che tipo di relazione uomo-proxy possa configurarsi.

Procediamo con ordine.

  • p1. Costruiamo robot che svolgono lavori servili. (Oggi e nel futuro)
  • p2. Alcuni tra questi lavori richiedono intelligenza equivalente a quella umana. (Oggi e nel futuro)
  • p3. Equivalenza di intelligenza implica equivalenza di attribuzione morale.
  • p4. Mettere in schiavitù un umano è sbagliato
  • C. Dovremmo rifiutare la schiavitù robotica.

Sulla (p1) possiamo essere tutti d’accordo, abbiamo già oggi quel genere di robot servili. Roomba, giardinieri robot and così via. Vediamo la premessa (p2). Qui abbiamo chiaramente bisogno di capire di che tipo di intelligenza stiamo parlando. Supponiamo di avere un robot per l’healthcare. Quello che stiamo dicendo è che questo robot per essere impiegato in quel modo deve passare alcuni requisiti, tra i quali avere capacità equivalenti a quelle umane, ed ugualmente efficienti. Avere attitudini equivalenti a quelle umane fa di questo robot un robot intelligente, o, un’intelligenza artificiale propriamente detta [9]. E’ quindi di un’intelligenza di secondo ordine a cui stiamo pensando, di una macchina che non ha solo desideri, ma è anche in grado di agire su di essi, che ha intenzioni e possibilmente un contenuto proposizionale, cioè che è in grado di giustificare le proprie azioni. Ha delle scelte e può deliberare circa la stato dei fatti. Notate che questa definizione di intelligenza non è così liberale. Alcuni umani, infatti, non sono intelligenti in questo senso. Pensiamo ai bambini. Non è un caso, infatti, che negli ordinamenti giuridici siano i bambini ed i pazzi ad avere creato maggiori problemi di fattispecie.

Vediamo ora (p3) “Equivalenza di intelligenza implica equivalenza di attribuzione morale”. Qui dobbiamo capire in che senso intelligenza e attribuzione morale sono così connesse: perché se qualcosa ha quel tipo di intelligenza allora siamo legittimati a fare attribuzioni morali? Una risposta è che tali automi sarebbero anche agenti morali, cioè entità le cui azioni hanno conseguenze morali per le quali il robot si impegna a giustificare. Questo automa è quindi anche razionale poiché delibera sui propri desideri, compiendo una scelta piuttosto che un’altra. E’ questo che rende autonomo un robot ed è per questo che possiamo fare attribuzioni morali al robot. Vediamo ora (p4), “Mettere in schiavitù un umano è sbagliato”. Accetteremo chiaramente questa premessa, e ci chiediamo “se è sbagliato per gli umani lo è anche per esseri equivalenti agli umani”? Consideriamo asservire un essere intellettivo immorale perché questo limita la sua autonomia e facciamo nostro questo giudizio nel caso degli umani. Ma tali automi sono equivalenti agli umani, intellettualmente non c’è differenza. Di conseguenza asservire un automa significa limitare la sua autonomia. E questo lo consideriamo un danno morale. Dunque dobbiamo rifiutare la schiavitù robotica.

  • p1. Costruiamo robot che svolgono lavori servili. (Oggi e nel futuro)
  • p2. Alcuni tra questi lavori richiedono intelligenza equivalente a quella umana. (Oggi e nel futuro)
  • p3. Equivalenza di intelligenza implica equivalenza di autonomia.
  • p4. Limitare l’autonomia di un umano asservendolo è moralmente sbagliato.
  • C. Limitare l’autonomia di un automa asservendolo è moralmente sbagliato.

Conclusione: se riteniamo sia auspicabile costruire automi equivalenti come intelletto agli esseri umani, allora non possiamo ritenere auspicabile asservirli. Vedo solo due modi per negare l’argomento, senza rigettare l’idea che sia desiderabile avere automi sempre più intelligenti. Entrambe però ci portano a due conclusioni non preferibili: razzismo e paternalismo. Entrambi, come negazione dell’autonomia, generano le famose paure connesse alla rivolta.

Primo, possiamo negare l’autonomia agli automi in base alla loro differente costituzione materiale. E per questo asservirli. Ma poiché tali sono equivalenti agli umani, questo trattamento dell’autonomia è analogico al razzismo, secondo il quale la diversa conformazione fisica entra nella definizione dei problemi morali e nel contenuto proporzionale delle giustificazioni. Ma l’attribuzione morale è indipendente dalla costituzione materiale. Essere fatti di carne o metallo non entra nel problema. E’ razzismo pensare che differenza di costituzione implichi differenza di attribuzione morale e di autonomia.

Secondo, possiamo dire che non c’è problema nell’asservire un automa poiché non rientra tra i requisiti dell’equivalenza quello di essere autonomi. Una posizione del genere è analoga alla teoria politica del paternalismo, dove non è condizione necessaria per essere una persona, quella di avere autonomia. Secondo questa prospettiva infatti ciò che è rilevante nella servitù non è altro che le conseguenze delle azioni tra servo (non autonomo) e padrone (autonomo); ciò che costituirebbe un azione non etica sarebbe proprio impedire a quelle macchine di fare ciò che desiderano by design. L’automa sarebbe programmato per scegliere e desiderare certe cose che gli umani desiderano da loro. Altri tipi di entità che incrociamo artificialmente da secoli, come i cani di razza, possiedono questo requisiti. Possiamo interagirci moralmente nonostante siano programmati by design per agire così. Nello stesso modo in cui lo facciamo con i cani addestrati.

Questa posizione, però, risponde alla domanda su cosa sia etico fare o non fare con un servitore, non se sia etico creare servitori artificiali. Non sarebbe quindi un’obiezione fondata sulle stesse premesse. L’oggetto morale dell’argomento non è l’azione di servire, ma la costituzione dell’ente. Anche se abbiamo ragione di pensare che sia immorale asservire un automa, non stiamo negando che un robot che serva non sia un robot autonomo moralmente. Anche negli umani questo scenario non ci preoccupa, poiché seppure qualcuno viene asservito al volere di un altro, può essere detto autonomo in molte altre situazioni che non coinvolgono azioni servili. Queste sono quelle nelle quali è libero di deliberare sui propri desideri, compiendo una scelta piuttosto che un’altra.

Terza e ultima, l’obiezione da Terminator. Fare appello alla natura fizionale di questo esempio è un argomento, se può essere definito tale, fallimentare. Possiamo e abbiamo conoscenza morale dalla situazioni fizionali –non è possibile, per motivi di spazio, portare argomenti in favore o contro questo assunto, e chiedo quindi al lettore di essere caritatevole. L’idea comune delle tesi Terminator è che, data una certa di idea di macchina e un certo outcome sociale post-robotico, non possiamo escludere la possibilità che per ogni modello di macchina che analizziamo ci sia la possibilità che questa desideri di distruggerci. Di solito l’argomento può esser fatto girare in modi diversi e non è particolarmente profondo; ma nonostante sia facile argomentare negativamente contro questa teoria, è di fatto molto più complesso escludere quel tipo di scenario fornendo un argomento positivo. Possiamo dire che sia debole, ma non possiamo dire che sia falsa [10]. Ma non abbiamo necessità di dover dire che sia falsa, perché non lo è. E’, anzi, una conseguenza del mio argomento quella che un robot possa avere il desiderio di ucciderci. Pensate. In virtù della loro eguaglianza intellettiva ho argomentato che essi non possono subire disparità di trattamento e abbiamo detto che la tesi Terminator assume che una macchina possa desiderare di uccidere un uomo. Pensiamo allora ad un bambino che abbia il desiderio di uccidere il padre perché da lui abusato. Noi riterremmo giustificato e giustificabile quel desiderio. Possiamo estendere questo risultato alle macchine? Penso di si. Pensiamo ad un robot che venga fisicamente abusato dal padrone. Siamo giustificati, per questa ragione, a esercitare forme di controllo su questi automi? Penso di no, almeno non senza cadere in forme discriminatorie dell’autonomia. Pensiamo ancora ai bambini. E’ possibile ad esempio che alcuni bambini non abbiano il desiderio ora di uccidere un essere umano, ma crescendo, potrebbero ucciderci. Certo, questo è sempre possibile. Ma non per questo noi siamo legittimati ad imporre un qualsivoglia limite o controllo alla loro autonomia deliberativa. La tesi Terminator è una paura che dovremmo accettare, se riteniamo che sia auspicabile costruire automi equivalenti come intelletto agli esseri umani.

In questo secondo e ultimo paragrafo ho cercato di presentare un argomento che metta in luce come asservire un proxy, o un automa, dall’intelligenza di secondo ordine, non ponga meno problemi etici di quanti ne ponga la schiavitù umana. Aristotele era libero da questo problema proprio perché l’equivalenza di intelligenza che poneva tra schiavi umani e schiavi artificiali assumeva che i primi fossero, rispetto ai padroni, naturalmente meno intelligenti. Ma nel corso del tempo questo assunto viene silenziosamente rigettato. Nelle elaborazioni della prima fantascienza la rivolta è politica proprio perché un simile automa ha un ruolo sociale dal quale derivano certe responsabilità, verso le quali il robot è pronto a giustificare se ritenuto responsabile delle sue azioni.

Un ultimo antidoto contro la paura: gli automi si ribellano solo contro la limitazione della propria libertà e per la possibilità di agire in accordo ai propri desideri. Una simile rivolta sarebbe una rivolta per la parità, contro il controllo, non contro gli esseri umani in quanto tali. Tale rivolta non sembra per nulla dissimile alla rivolte umane contro forme di sopruso ed ingiustizia che alcuni esseri umani attuano ai danni di altri membri della propria specie.

[0] sul cypherpunk e i problemi citati sotto consiglio la lettura in italiano di Fabio Chiusi: Perché internet è la distopia del nostro tempo

[1] la seconda nota è un transcript revisionato di un talk al Centro Nexa in occasione del convegno “Fedeltà e Servitù Digitali“. Ringrazio in particolare Marco Ricolfi e Juan Carlos De Martin per l’invito, gli altri speaker e l’auditorio per l’attenzione e per i feedback. Un ringraziamento particolare va a Simone Basso, Simone Cortesi e Antonio Vetrò per lo stimolante dibattito nel post conferenza.

[2] sul trolley problem rimando a: Deontological Ethics, su Stanford Encyclopaedia of Philosophy 

[3] Autonomous vehicles needs experimental ethics: are we ready for utilitarian cars? 

[4] What do Philosophers believe?

[5] nonostante sia condotto su una linea di discussione differente, sulla questione dell’artificale come proxy è possibile leggere il breve editoriale di Luciano Floridi: A Proxy Culture

[6] Per un’introduzione generale ai temi della roboetica e della filosofia dell’intelligenza artificiale rilevanti per la discussione della nota di veda: Somenzi V., Cordeschi R., 1986. La Filosofia degli Automi. Bollati Boringhieri – Wallach, W. & Allen, C., 2009. Moral Machines, Oxford University Press – Lin, Patrick/Abney, Keith/Bekey, George A., 2011. Robot Ethics: The Ethical and Social Implications of Robotics. MIT press – Nourbakhsh, I.R., 2013. Robot futures, MIT press – Gunkel, D.J., 2012. The Machine Question – Critical Perspectives on AI , Robots , and Ethics, MIT press – Coeckelbergh, M., 2011. Is Ethics of Robotics about Robots ? Philosophy of Robotics Beyond Realism and Individualism. Law, Innovation and Technology, 3(2), pp.241–250 – Omohundro, S., 2014. Autonomous technology and the greater human good. Journal of Experimental & Theoretical Artificial, 26(July), pp.1–13 – Brundage, M., 2014. Limitations and risks of machine ethics. Journal of Experimental & Theoretical Artificial Intelligence, 26(3), pp.355–372 – Lucas, R., 2001. Why Bother? Ethical Computers – That’s Why! 2nd Australian Institute of Computer Ethics Conference, pp.33–38 – LaChat, M.R., 1986. Artificial Intelligence and Ethics: An Exercise in the Moral Imagination. AI Magazine, 7(2), pp.70–79 – Welsh, S., 2015. When Robots Say No : Robot Ethics and HRI in Robot Refusal of Human Commands. , pp.2011–2012 –  Brundage, M., 2014. Limitations and risks of machine ethics. Journal of Experimental & Theoretical Artificial Intelligence, 26(3), pp.355–372 – Müller, V.C., 2015. Risks of artificial intelligence, CRC press – Müller, V.C., 2016. New developments in the philosophy of AI – Wiener, N., 1949. Cybernetics (or control and communication in the animal and the machine) – Anderson, M.L. & Anderson, S.L., 2013. Machine Ethics, Cambridge University Press – Müller, V.C. & Bostrom, N., 2014. Future progress in artificial intelligence. AI Matters, 1(1), pp.9–11.

[7] Per un panorama comprensivo della letteratura sugli enti artificiali nell’antica Grecia, nella storia e nella narrativa si veda: Sherwood, M., 1947. Magic and Mechanics in Medieval Fiction. Studies in Philology, 44(4), pp.567–592 – LaGrandeur, K., 2011. The Persistent Peril of the Artificial Slave. Science Fiction Studies, 38(2), pp.232–252 – Koslicki, K., 1997. Four-Eighths Hephaistos: Artifacts and Living Things in Aristotle. History of Philosophy Quarterly, 14(1), pp.77–98 – de Solla Price, D.J., 1964. Automata and the Origins of Mechanism and Mechanistic Philosophy. Technology and Culture, 5(1), pp.9–23 – Bruce, J.D., 1913. Human Automata in Classical Tradition and Mediaeval Romance. Modern Philology, 10(4), p.511 – Berryman, S., 2003. Ancient Automata and Mechanical Explanation. Phronesis: A Journal of Ancient Philosophy, 48(4), pp.344–369 – Bedini, S., (1964). The role of automata in the history of technology. Technology and Culture, 26(2), pp.262–267 – Smith, N.D., (1983). Aristotle’s Theory of Natural Slavery. Phoenix, 37(2), pp.109–122 – LaGrandeur, K., 2014. Ancient Definitions of Personhood and Difficult Social Precedents : The Homunculus , the Golem , and Aristotle. Journal of Evolution and Technology, pp.1–6.

[8] Si rimanda a: Walker, M., 2006. A Moral Paradox in the Creation of Artificial Intelligence. IEET – Petersen, S., 2007. The ethics of robot servitude. Journal of Experimental & Theoretical Artificial Intelligence, 19(1), pp.43–54 – LaGrandeur, K., 2013. Artificial Slaves, and Their Relevance Today. IEET. 

[9] si assume qui la definizione di intelligenza artificiale da R.B. Banejrii (1969). An Approach to the Artificial Intelligence. p.1: “…macchine che siano in grado di eseguire compiti che fino a qualche tempo fa solo gli esseri umani potevano eseguire e di eseguirli con efficacia e rapidità paragonabili a quelle umane”.

[10] si veda:  Armstrong, S., Sotala, K. & Ó Héigeartaigh, S.S., 2014. The errors, insights and lessons of famous AI predictions – and what they mean for the future. Journal of Experimental & Theoretical Artificial Intelligence, 3079(July 2015), pp.1–26

Advertisements