Se già si parlava di etica delle self driving car, oggi più che mai (dopo il primo incidente mortale di una selfdriving car) è un argomento di attualità.
Ma c’è un problema di fondo nel dibattito pubblico italiano: continuando a parlare di etica la questione diventa sterile e poco costruttiva.
L’etica della robotica non esiste, le tre leggi della robotica sono impraticabili e Asimov stesso fu il primo a dircelo in Liar!, che più che preso come un racconto andrebbe preso come un vero e proprio studio di INfattibilità.

L’etica non riguarda nessuna scienza, e questo deve essere chiaro a tutti, prima di introdursi in un dibattito di tale importanza. L’etica non è propria della tecnologia. Nessuno ha mai parlato di etica della teoria della forza di gravità, nonostante i morti a causa della forza di gravità potrebbero essere più di quanti immaginiamo. Creare una nuova tecnologia non deve essere diverso dal teorizzare una legge fisica, per il semplice motivo che la scienza e la pratica tecnologica, la ricerca in genere, non devono MAI porsi questioni etiche sulle conseguenze. E’ lecito parlare di etica della sperimentazione animale (e non entro in merito alla questione, dico solo che è una questione etica valida, una questione che vale la pena discutere e analizzare), mentre non è lecito parlare di etica sui risultati derivati da una ricerca attuata con la sperimentazione animale. Si cadrebbe in un consequenzialismo distruttivo per la ricerca: se giudichiamo le self driving car in base al risultato ottenuto (che ad oggi è nella mente di tutti come la morte di un uomo), per par condicio ci si dovrebbe porre la domanda “E’ giusto usare le mani?” in conseguenza a quante persone sono state uccise a mani nude. Ed estremizzare le analogie in questo caso è dovuto, in quanto la questione è talmente sottile che nella convinzione pubblica esiste davvero un’etica della robotica, e ciò rischia di diventare dannoso quando a fare ricerca sulla robotica sono aziende del ventunesimo secolo, che hanno bisogno di finanziamenti che molto spesso dipendono anche dall’opinione pubblica. 

Sarebbe lecito parlare di etica della robotica se ci si riferisse allo studio deontologico dei doveri da mantenere DURANTE lo sviluppo di robot: ad esempio fare in modo che non muoia nessuno durante la programmazione dell’intelligenza artificiale di un robot. Cosa che mi sembra non sia mai accaduta.

Ma quindi quali sono le questioni?

La questione, in quest’ottica diventa semplice: se l’etica della robotica non esiste e non deve esistere, dove sono le regole? le leggi che ci danno tanta sicurezza? dov’è il diritto del consumatore?

La protezione del consumatore non è legata alla robotica ma a chi vende il prodotto robot. Come la protezione dalla forza di gravità non dipende da chi teorizza le leggi di gravità ma da chi realizza ponti e grattacieli.
E la questione etica e deontologica risiede quindi nella commercializzazione di prodotti robotici efficienti e non pericolosi.

E quindi, ancora, la questione diventa molto semplice (come d’altronde lo è sempre stata per tutti i prodotti commercializzati): quando si vendono sigarette si avvisa il consumatore dei rischi, quando si vendono self driving car si avviserà dei rischi.
In quest’ottica, il dibattito (tutto italiano, in realtà) sull’etica della robotica non è altro che una campagna propagandistica contro la robotica come lo sono le campagne contro il fumo o contro la legalizzazione delle droghe leggere. E forse, questi dibattiti sterili servono anche a sensibilizzare, ma d’altra parte, per la robotica sorge un problema che già ho espresso prima: si rischia di danneggiare e rallentare tutta la ricerca sulla robotica.

Cosa, invece, fa bene alla ricerca?

Se da una parte, come analizzato qui sopra, questo dibattito sterile sull'<etica della robotica> non può che danneggiare la ricerca, dall’altra anche la commercializzazione di prodotti che non abbiano un'<etica del prodotto> è dannosa alla ricerca.
E ancora, se da una parte l’etica della robotica così come affrontata oggi è infondata, dall’altra manca un’etica del prodotto, che se studiata bene andrebbe a produrre benefici sia ai consumatori, sia ai produttori.
La questione etica delle self driving car è quindi una questione deontologica del prodotto non come conseguenza di una ricerca robotica ma come conseguenza di una commercializzazione di esso. E’ nella deontologia del commercio che si deve sollevare la questione. Ci si deve domandare: quali prodotti sono eticamente accettabili per essere commercializzati e quali no?

La domanda da porsi oggi è: una self driving car che potrebbe essere coinvolta in un incidente mortale è eticamente accettabile in un mondo dove le automobili guidate dall’uomo sono anch’esse coinvolte in incidenti mortali molto più facilmente? La risposta vien da sè: sì, se si riducono gli incidenti mortali, sì.
E se proprio non si accetta questa risposta alla VERA domanda etica, l’importante, per quanto mi riguarda, è che si cerchi di rispondere alla VERA domanda etica, e non si ritorni al dibattito sterile già analizzato prima.

12 COMMENTI

  1. L’ingegneria non è una scienza, e questo deve essere chiaro a tutti, prima di introdursi in un dibattito di tale importanza. Nessuno ha mai parlato di etica della scienza in quanto la scienza si occupa di osservare il mondo per quello che è. I suoi risultati sono detti scoperte. Di questa fan parte la chimica, la fisica, la biologia, etc.
    Tutto il resto è scienza applicata e i suoi risultati si chiamano invenzioni (la famosa tecnologia). Il pagerank è stato inventato non è stato scoperto, la mano robitica è stata inventata non è stata scoperta, la bomba atomica è stata inventata non è stata scoperta, nonostante ognuna queste invenzioni derivi da una o più scoperte.
    Per farla breve, quando si crea qualcosa è giusto confrontarsi con l’etica e quindi è un bene che vi sia un dibattito sull’etica delle macchine selfdriving.

    • Salve maddai@see.it,
      Che l’ingegneria non fosse una scienza penso sia chiaro a tutti, non vedo dove stia il punto. (?) E penso che anche la differenza tra scoperta e invenzione sia chiara a tutti, la necessità di scriverla un po’ mi impaurisce e confonde.
      La robotica, in italiano non significa ingegneria, significa l’ambito robotico.
      L’ingegnere ha una sua deontologia a cui deve rispondere, come il produttore, il venditore ecc.. Se rilegge l’articolo non troverà scritto da nessuna parte “l’ingegnere non deve avere un’etica”. Anzi, troverà proprio scritto che la questione riguarda la deontologia delle parti implicate, in un certo senso anche quella dell’ingegnere, ma ancora più importante è il produttore, e la questione è semplice: un’ingegnere non ha neanche minimamente la responsabilità del prodotto finito, in quanto spesso non sa neanche quale sarà il prodotto finito. Un’ingegnere che sviluppa un braccio meccanico non deve occuparsi di come esso verrà utilizzato, in quanto è la deontologia del produttore ad accertarsi che quel braccio non venga utilizzato a danni del consumatore. Il discorso è semplice, non dico niente di nuovo (almeno a chi abbia mai letto un libro di etica o deontologia).

      • Giusto per fare il pignolo, la deontologia e l’etica non sono la stessa cosa: la deontologia rimanda ai doveri, ciò che si deve o non si deve fare; l’etica è la ricerca e l’individuazione di principi, di valenza universale, che puntano al “bene”.
        Inoltre, mi sono rifatto alla differenza tra scienza e tecnologia perchè ho avuto la sensazione che le paragonassi per giustificare la non necessarietà di un’etica riguardante le varie tecnologie.

        Detto questo, provo a spiegare cosa ho saltato con “per farla breve”. Demandare il dibattito etico alla fase di vendita di un prodotto lo trovo sbagliato, un esempio lampante è la produzione di armi: qui non si tratta di verificare che i diritti del consumatore siano rispettati (deontologia del produttore come dici) ma discutere se è un bene o un male che esistano oggetti il cui utilizzo finale sia quello di ferire o uccidere una persona osservando l’utilizzo concreto che ne viene fatto, e nel caso, determinare quali principi di utilizzo puntino al bene comune (etica). Ancora più lampante è ovviamente tale discorso riportato alle armi di distruzione di massa.

        Parlare di etica significa aprire un dibattito che mira a individuare valori e principi che definiscono la nostra morale (ciò che noi riteniamo bene), significa aprire un confronto. E questo confronto ha ragione di esistere anche nella ricerca. Vedi le sperimentazioni sugli animali: la sensibilità di molte persone è cresciuta e ora per tanti è inaccettabile fare sperimentazioni su animali. Puoi essere d’accordo oppure no ma è nata la necessità di un dibattito.

        Io credo che rifiutare il confronto perchè si ha paura che il risultato finale possa limitare il proprio operato non sia un modo onesto di approcciarsi alla ricerca, la quale non esiste fine a se stessa ma che acquisisce senso in base alla sua utilità nei nostri (di tutta l’umanità) confronti.

        • Giusto per fare i pignoli, la deontologia IMPLICA l’etica.

          Comunque non riesco a spiegarmi, e mi dispiace.
          Ci provo l’ultima volta: Non si demanda l’etica alla fase di vendita del prodotto, ma al PRODOTTO. Ciò include produzione e vendita, rivendita, certificazioni ecc.. tutto ciò che riguarda un PRODOTTO.
          D’altra parte, il robot non è un prodotto di per sè, e come tale non è soggetto a un’etica.
          Il confronto ha ragione di esistere, si DEVE parlare di etica, ma di quella che esiste, dell’etica che è necessaria.

          Inoltre, la deontologia per DEFINIZIONE si contrappone al consequenzialismo, e questo è il fulcro principale dell’articolo. E allora le chiedo: Sono le conseguenze ad essere un fattore rilevante per un buon giudizio etico?
          Non esisterebbe il progresso se così fosse, o meglio, esisterebbe solo metà del progresso.

          • la deontologia è l’espressione dell’etica, dunque, la deontologia implica l’etica significa che per parlare di deontologia prima deve esistere un’etica (intesa come riflessione filosofica).
            Inoltre, la deontologia si contrappone al consequenzialismo in quanto la deontologia, alla fine della fiera, dice come uno si deve comportare al di là di quello che può sembrare giusto sul momento. Per un insieme di norme create a priori è di vitale importanza che tali norme non siano valutate caso per caso ma che abbiano valenza riconosciuta sempre. Anche se in alcuni casi può risultare sconveniente, di solito funziona bene.
            Questo discorso andrebbe ampliato, e rigurda con quale metodo di ricerca etica si vuole svolgere la riflessione:
            -le etiche che definiscono il giusto e lo sbagliato a partire dalle conseguenze di un’azione (definizione dell’agire, partendo dal presupposto che tendiamo al bene)
            -le etiche che vedono il giusto e lo sbagliato come proprietà che definiscono un’azione, indipendentemente dalle motivazioni o intenzioni che portano a compiere tale azione.
            E sottolineo che si parla di etica, non di deontologia, quella nel caso verrà dopo.

            Comunque, per me la questione è che il risultato del lavoro di ricerca e tutte le fasi che permettono di raggiungere quel risultato devono tener presente principi etici. Non bisogna aspettare che tali risultati diventino prodotti commerciali, anche perchè non tutti diventano prodotti commerciali.

            Questa cosa limita il progesso? chissene frega. Siamo tutti noi a scegliere cosa è meglio per noi, non lo fa il progresso.
            Te, ingegnere, mi dirai che invece è l’efficacia del progresso stesso (i vantaggi che l’umanità ne trae) a dirci se è giusto o meno che l’etica limiti il progresso (tipo “dove ha portato il dibattito sulla fissione nucleare”), ma questa è una visione della comunità che non rispecchia la realtà attuale, dove tutti insieme prendiamo decisioni rigurdanti ogni tema della nostra vita (con le dovute sfumature es. regola di maggioranza, parlamenti rappresentativi, etc) e la ricerca non dovrebbe fare eccezioni (a meno che tutti insieme non si stabilisca questo), altrimenti verrebbe meno il principio delle regole prese da tutti condivise da tutti. E comunque non è detto che da un dibattito sull’etica debbano per forza derivare limitazioni.

            Il succo: la cosa più importante è cosa vogliamo noi, anche quando non è la scelta più conviente o efficace o efficiente.
            Es. quando gli inglesi hanno votato per la brexit, un giornalista ha chiesto a tremonti (ebbene si, mi tocca citarlo) se la scelta degli inglesi fosse giusta; lui ha risposto che si, ovvio che era giusta, in quanto le decisioni prese dal popolo sono sempre giuste (essendo il popolo a stabilire cosa è giusto e cosa no).

          • Sono d’accordo con alcune cose che dici, e non sono affatto in conflitto con l’articolo!
            Per il resto:
            1) CERTO che la deontologia implica l’etica come ho già detto, ma la deontologia della ricerca è ben altra rispetto a quella che si pensa, e non c’entra nulla con il dibattito. Un esempio? ecco le norme deontologiche dell’ingegnere:
            http://www.ording.gr.it/wp-content/uploads/2007/02/Circolare-n.-375-del-14-maggio-2014-2.pdf
            E’ ovvio che un ricercatore o un ingegnere debbano rispondere ad una deontologia, ma non è quella di cui si parla e di cui si deve parlare quando si parla di robotica o intelligenza artificiale che è rischiosa, non è l’etica a cui ci si riferisce quando succedono incidenti come quello della Tesla.
            2) “alla fine della fiera” la deontologia non si occupa affatto di dire come uno si deve comportare al di là di quello che può sembrare giusto sul momento, ANZI il contrario, la deontologia si occupa di stabilire i doveri in base a ciò che è giusto proprio nel momento in cui lo si compie, passo per passo, mentre il consequenzialismo giudica un’azione giusta o sbagliata in base agli effetti che produce, generando però un problema: negli effetti che produce qualcosa bisogna includere anche ciò che qualcun altro ricaverà da quella cosa. Per questo in ricerca il consenquenzialismo non è mai un bene: non si potrebbe creare nulla, pensando a ciò che gli altri faranno con ciò che si crea.
            Al di là del titolo dell’articolo, al di là del significato delle parole, si riesce ancora a cogliere il SENSO di ciò che scrive una persona? è ovvio che una deontologia ci deve essere anche nella ricerca. Semplicemente, non è ciò che intende il senso comune e non è ciò che riguarda il dibattito, e in tal senso, l’etica della robotica non esiste, cioè ciò che il senso comune ritiene essere l’etica della robotica.

            3) Questa cosa limita il progresso, e chissenefrega? Non direi che sia un ragionamento tanto lungimirante. Inoltre, questo dibattito sterile non rallenta solo il progresso, ma anche la ricerca, che sono due cose ben separate.
            E la ricerca non deve rispondere degli errori del commercio, è questo il fatto importante.

            4) Il succo quindi è lasciare le redini del mondo in mano ad un dibattito sterile e a chi non comprende determinati meccanismi? Non sono affatto d’accordo.
            Non è proprio il popolo a tirare le fila dell’etica, non confondiamo l’etica con la MORALE.
            L’etica è ben altro e come tale non spetta al dibattito sterile. Se tutti dicessero che è “amorale” ciò che è successo con la Tesla, nessuno si dovrebbe preoccupare: la morale è del popolo e del dibattito di questo genere. L’etica è una disciplina filosofica, e come tale andrebbe lasciata in mano a chi ha le idee chiare, che sia Bentham, Kant, Schopenhauer o se proprio vogliamo metterci una consequenzialista Elizabeth Anscombe.
            Queste persone hanno ben definito l’etica, e il dibattito attuale dell’/ non fa che demolire tutta la filosofia che si è occupata di Etica, quella vera.

            5) ancora una volta, ripropongo quella che sarebbe la strada da intraprendere per un dibattito davvero costruttivo: bisogna parlare di etica del prodotto e dei produttori e dei commercianti.
            Il problema non è della robotica, non è dell’intelligenza artificiale.

  2. Io opero in questo campo e, oltre alla passione che mi spinge ad alzarmi dal letto ogni mattina, ho anche il senso critico di assicurarmi che tutto il mio operato non abbia risvolti spiacevoli rispetto la mia etica.
    Prendendo il Suo esempio del self-driving: attualmente si sta cercando di lavorare su un fronte della tecnologia che impone l’autoapprendimento della macchina come conseguenza delle interazioni precedenti della macchina stessa rispetto il mondo esterno. Ebbene, cosa dovrebbe evitare alla macchina la malaugurata adozione di un atteggiamento ostile nei confronti del genere umano se eticamente non vengono posti dei paletti più che ragionevoli e non vengono tradotti in codice ad alta priorità di esecuzione? Alla fine il lavoro di un ingegnere è quello di prevedere tutto in maniera più critica rispetto alle condizioni ottimali rispetto al quale quel prodotto deve lavorare, bisogna prevedere casi nel quale tutto potrebbe andare storto e garantire ugualmente la sicurezza e incolumità dell’utente che usufruisce di quella tecnologia. Cosa succederebbe se un virus dovesse infettare il sistema di elaborazione della macchina e dovesse intraprendere delle azioni deleterie nei confronti del suo universo arrivando a danneggiare direttamente o indirettamente l’umanità? Sia io che Lei sappiamo benissimo che il problema dei virus non ha soluzioni perché la logica della sicurezza informatica impone che prima il virus deve comparire, deve essere isolato e riconosciuto e poi si può lavorare alla sua disinfezione e in tutto questo processo trascorre del tempo che possiamo benissimo definire come latenza naturale del fenomeno. Però, a differenza dei virus biologici per i quali la loro pericolosità viene commisurata in funzione del loro grado di virulenza (facilità a diffondersi attraverso una comunità di individui) e del grado di mortalità, i virus informatici, viaggiando su internet, hanno la massima virulenza disponibile e il grado di mortalità tenta sempre di aumentare proporzionalmente con il trascorrere del tempo. Date queste premesse, Lei sarebbe ancora d’accordo con il fatto che l’etica della robotica non esiste e non deve esistere? Io posso capire che magari Lei abbia esasperato un po’ il Suo pensiero cercando di convincere la massa della bontà della ricerca nel campo della robotica, visto che sarà la tecnologia dei prossimi 50 anni; però non Le sembra di sottovalutare troppo i lettori del Suo articolo come se fossero così ottusi da non poter capire che la fiducia nelle odierne tecnologie non deve essere nè cieca, nè nulla e che quindi deve coesistere un mix adeguato e proficuo? A mio parere il troppo stona sempre, sia nel bene che nel male. Anzi, a dispetto delle Sue buone intenzioni l’eccessiva fiducia e sicurezza delle tecnologie spesso porta a disastri epici e su vasta scala (basta ricordare il Titanic o il disastro di Chernobyl).

    • Salve Alessio,
      La propria etica non coincide però con l’etica del proprio lavoro. O meglio, la propria etica influisce sul lavoro che si scegli e come lo si svolge, ma non per questo deve coincidere con l’etica del lavoro.
      Io stesso non collaborerei mai alla creazione di armi, ma non per questo la ricerca sulle armi non è etica.
      Non ritengo di aver sottovalutato l’intelligenza di nessuno in quanto l’articolo non è rivolto a chi già comprende la tematica ampiamente: sarebbe un po’ come chiedersi se chi scrive testi per bambini non stia prendendo in giro gli adulti.
      D’altra parte il problema in Italia è che questa tematica è affrontata davvero superficialmente, è un “l’intelligenza artificiale è giusta l’intelligenza artificiale è sbagliata”, ed è questo il punto dell’articolo: l’etica (per definizione eh, non sono io a dirlo) non riguarda la robotica, e neanche la deontologia (intesa come è intesa nel dibattito pubblico degli ultimi giorni) riguarda la robotica.
      Riguardano invece i produttori, i venditori. Ed questo è l’argomento di cui si deve parlare, ed è questa una questione non sterile.

  3. Fare ricerca è sempre giustissimo.. L’etica deve esserci nella commercializzazione. Un po’ come per le armi..

    A mio parere riguardo a questo argomento la vera domanda è una:
    In un mondo dove ogni sistema informatico è hackerabile, dove il virus viene sempre prima dell’antivirus, è giusto affidare la vita di una o più persone ad un sistema informatico?

    Finchè il computer è un contenitore ed elaboratore di informazioni, se vogliamo, è innoquo.. Quando ha facoltà di guidare un auto però.. Diventa potenzialmente pericoloso. (E’ per questo esistono patente di guida e Codice della Strada)

    Personalmente se la mia auto deve uccidere me o qualcun’altro.. Preferisco lo faccia con me al volante.
    Con un uomo che si possa prendere la responsabilità civile e penale di quello che sta facendo.

    • Sono d’accordissimo con il tuo punto di vista, UN ALTRO dei tanti aspetti da tenere in considerazione è la sicurezza informatica stessa.
      Ma anche questo aspetto, rimane inerente al prodotto e quindi alla deontologia dei produttori, dei venditori.

    • Allora, io non sono un ingegnere (sono alla Magistrale di Scienze Cognitive, e miro a fare ricerca in questo campo), tuttavia vorrei portarti davanti un punto interessante che hai citato, ovvero questo:

      “In un mondo dove ogni sistema informatico è hackerabile, dove il virus viene sempre prima dell’antivirus, è giusto affidare la vita di una o più persone ad un sistema informatico?”

      Questo concetto è invero applicabile allo stesso essere umano, dato che, in fondo, non è altro che una macchina il cui centro dati centrale è ancora poco scoperto, ma perfettamente hackerabile a sua volta (e la ricerca ne ha già trovata a centinaia di modi). Considerato inoltre che, in certi campi, il computer ci annienta completamente (come la velocità di reazione a uno stimolo), perché in campi in cui la creatività umana è un fattore che, nella stragrande maggioranza dei casi, è un valore aggiunto ma non necessario (come la guida abitudinaria), dobbiamo preferire la presenza di un entità biologica ad avere il controllo? Una persona che fa la stessa strada da dieci anni è inevitabile che, ormai, seguirà il percorso in via automatica, andando inevitabilmente a essere meno reattivo nel tempo: una macchina questo problema non l’ha assolutamente. Oppure mettiamo caso che appaia un evento imprevisto (la macchina scivola sul ghiaccio): un umano viene controllato dalle euristiche (processi mentali attuati per avere risposte immediate con poca spesa cognitiva, che tuttavia sono molto propense a causare scelte illogiche), magari pigiando troppo il freno, perdendo ancora di più il controllo. Un computer, d’altro canto, attuerebbe migliaia di calcoli in un secondo per regolare la frenata e l’inclinazione del volante per ridurre significativamente la possibilità di procurare danni alla vettura (o agli altri).

      Non mi trovo invece d’accordo sull’ultima parte del tuo discorso:
      “Personalmente se la mia auto deve uccidere me o qualcun’altro.. Preferisco lo faccia con me al volante.
      Con un uomo che si possa prendere la responsabilità civile e penale di quello che sta facendo.”
      Tu preferisci avere qualcuno da punire nel caso avvenga il fattaccio, oppure preferisci non avere nessuno da incolpare ma ridurre drasticamente le possibilità che avvenga suddetto fattaccio?

LASCIA UN COMMENTO