L’intelligenza dell’intelligenza artificiale (e il dubbio).
In un episodio di “M*A*S*H”, una vecchia serie televisiva americana, c’è questa scena: un gruppo di persone, in fuga da un commando che li vuole ammazzare, si ripara dentro un autobus. Sanno di dover fare assoluto silenzio. Ma tra di loro c’è una donna, una madre, con un neonato che piange senza sosta. Che fare? impedire il pianto con ogni mezzo, a costo di far soffocare il bambino? oppure rischiare di venir scoperti?
In “Frankenstein” di Mary Shelley, il mostro chiede al dottor Frankenstein, suo creatore e padre, di dargli una compagna:
«Ti giuro, sulla terra che abito, e su di te che mi hai fatto, che con la compagna che mi darai, io lascerò la compagnia degli uomini e abiterò, come capiterà, nei luoghi più selvaggi. Le mie passioni malvagie se ne andranno, perché troverò simpatia! La mia vita scorrerà tranquilla, e in punto di morte non maledirò il mio creatore».
Se non lo farà, lo minaccia il mostro, tutte le persone che gli sono più care verranno perseguitate e uccise.
Ma il dottor Frankenstein, benché commosso dalla sua malvagia ma disgraziata creatura (malvagia proprio perché disgraziata), esita: « Tu proponi di fuggire dalle abitazioni dell’uomo, di vivere in quelle regioni selvagge, dove le bestie del luogo saranno i tuoi soli compagni. Come potrai tu, che tanto desideri l’amore e la simpatia degli uomini, perseverare in questo esilio? Tu ritornerai e cercherai ancora la loro gentilezza, e incontrerai il loro disprezzo; le tue passioni malvagie si ridesteranno, e inoltre avrai una compagna ad aiutarti nel tuo compito di distruzione.»
In “Antigone” di Sofocle, Antigone si confida con la sorella Ismene: vuole dare degna sepoltura al fratello Polinice, e chiede il suo aiuto. Ma seppellire Polinice significa sfidare Creonte e le leggi della città.
Dice Ismene: «Perciò io chiedo agli spiriti dei morti di perdonarmi in quanto subisco violenza; ma obbedirò a chi detiene il potere. Agire al di là dei propri limiti è assolutamente insensato.»
Di diversa opinione è Antigone:
«Resta pure quale vuoi essere: è bello per me morire in quest’impresa. Cara a lui che mi è caro giacerò, per un santo crimine: perché ben più a lungo dovrò essere cara ai morti che ai vivi. Laggiù infatti riposerò per sempre; ma, se credi, disonora ciò che fra gli dèi ha onore.»
Queste tre opere di finzione presentano un dilemma molto reale: un conflitto estremo – quello fra etica personale ed etica collettiva. C’è l’etica personale della madre, che desidera salvare il figlio; del dottor Frankenstein, che non vuole mettere a rischio la vita di coloro che ama; di Antigone, che vuole assecondare la pietas verso il fratello Polinice (e, in esteso, violare una legge umana per assecondare una legge divina). E poi c’è l’etica collettiva: la salvaguardia dell’intero gruppo di fuggiaschi; la tutela dell’intero genere umano; il rispetto delle norme che regolano il vivere civile.
Esiste una risposta incontrovertibilmente corretta a questo dilemma? No, non esiste.
Un dilemma di questa natura è territorio privilegiato del sentire individuale e – a livello speculativo – della filosofia. Bertrand Russell definisce la filosofia quel qualcosa che si colloca fra la teologia e la scienza: una “Terra di Nessuno, esposta agli attacchi di entrambe le parti”. Ed è una “Terra di Nessuno” in costante divenire:
«Da quando gli uomini divennero capaci di libero pensiero, le loro azioni, sotto innumerevoli aspetti, sono dipese dalle loro teorie sul mondo e sulla vita umana, su ciò che è bene e ciò che è male. […] C’è una reciproca causalità: le condizioni di vita degli uomini influiscono molto sulla loro filosofia, ma d’altra parte la loro filosofia influisce molto sulle loro condizioni.»
Dunque la filosofia è una cosa degli uomini e per gli uomini. È espressione del loro libero pensiero e ha un rapporto di reciprocità con le loro azioni: influenzandole ed essendone influenzata. La filosofia è un modo che l’intelligenza umana ha di agire nel mondo. Ma cosa succede, quando il mondo comincia a essere popolato non solo da intelligenze umane, ma anche da intelligenze artificiali?
Su questo, futurologia e fantascienza riflettono da quasi un secolo.
Nelle sue “tre leggi della robotica”, Isaac Asimov ha chiarito che l’intelligenza artificiale deve porsi sempre e comunque al servizio dell’intelligenza umana:
«1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.»
Ma si tratta di speculazioni figlie di un contesto finzionale e di un mondo assai più arretrato di quello odierno, dal punto di vista tecnologico.
E oggi?
In un trafiletto per il “Corriere” del 24 febbraio, Eva Cantarella scrive sui danni causati da robot. Cita un articolo del “Financial Times”, che indaga la questione rifacendosi nientemeno che al diritto romano:
«Ci hanno già pensato i giuristi romani» scrive la Cantarella, «se i robot — come i droids in Star Wars — diventano intelligenti come essere umani perché non ricorrere, adattandole, alle regole del diritto romano, appunto, secondo il quale i padroni rispondevano dei danni causati dagli schiavi?»
Il tono dell’articolo è un poco serio, un poco no: «Come scrive il giurista Gaio nelle sue Istituzioni (Inst. 4, 75) se uno schiavo causava dei danni al suo padrone, a questi si consentiva una scelta: poteva pagare il danno, ma poteva anche, in alternativa, dare lo schiavo «a nossa» al danneggiato, vale a dire cederglielo in condizione di fatto di schiavitù. […] Applicando la regola romana alla lettera, vien fatto di pensare, potrebbero nascere non pochi problemi: cosa direbbero i creditori di somme enormi vedendosi recapitare dei vecchi robot usati, di poco valore, e di cui non avevano alcun bisogno?»
Eppure la questione va ben al di là di un robot che maldestramente rompe il vetro di una finestra altrui. Consideriamo un programma per il self driving che dispensa il guidatore da qualunque scelta trasformandolo, de facto, in “guidato”. Non si tratta di uno scenario futuribile, ma di qualcosa già esistente. Ora immaginiamo di dover elaborare un’etica e delle norme di comportamento per questa intelligenza artificiale: certamente la programmeremo perché tuteli al massimo grado l’incolumità del passeggero, a discapito della sua stessa incolumità. Ma supponiamo che l’auto (dunque l’intelligenza artificiale che la conduce) si trovi di fronte a due sole scelte: proteggere la vita dei suoi occupanti, oppure proteggere la vita del pedone che sta attraversando la strada. Quale sarà la scelta corretta? Colpire il pedone per salvare l’occupante? Sterzare salvando il pedone e mettere a rischio la vita di chi è dentro l’abitacolo? E poi: chi salirebbe su di un’automobile sapendo che è stata programmata per uccidere?
Non si tratta di sofismi.
Stephen Hawking si è spesso interrogato sulle possibili derive delle intelligenze artificiali, arrivando alla conclusione che: «Lo sviluppo di una piena intelligenza artificiale potrebbe significare la fine della razza umana.»
E che il suo non sia puro e semplice catastrofismo, lo testimonia la decisione di cinque giganti dell’IT – Google, IBM, Microsoft, Amazon e Facebook – di siglare un accordo (“Partnership on Artificial Intelligence to Benefit People and Society”) per condividere una lista di “buone pratiche” sul piano etico. Ne parla il “Guardian”.
Ma dalle buone pratiche a una filosofia morale che regoli le scelte dei programmatori la strada è ancora lunga (e in salita, mi vien da dire).
Di solito, scrivo un testo di tipo argomentativo per arrivare a una qualche chiarità di pensiero. Non in questo caso: sono partita con un dubbio – un conflitto estremo – e termino con ancora più dubbi. L’unica cosa certa è questa: un qualche punto di contatto fra nuove tecnologie e scienze umanistiche – nella vita reale, non solo in mondi funzionali – mi sembra, a questo punto, se non imperativo, almeno scelta di buonsenso.