...

L`intelligenza artificiale

by user

on
Category: Documents
40

views

Report

Comments

Transcript

L`intelligenza artificiale
Capitolo 6
L’intelligenza artificiale
L’ultimo capitolo del volume è dedicato al più affascinante e controverso tra i temi dell’informatica, l’intelligenza artificiale, cioè il tentativo di creare sistemi artificiali dotati
di intelligenza.264 Si presenterà dapprima una breve introduzione alla storia delle ricerche di intelligenza artificiale, in modo che il lettore possa cogliere le linee evolutive e le
prospettive di sviluppo di questa disciplina. Poi si esamineranno i due principali modelli
impiegati nello sviluppo dei sistemi di intelligenza artificiale, il modello fondato sulla
rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragionamento, e il modello fondato sulla rappresentazione implicita della conoscenza, in reti
neurali, e sulla sua elaborazione mediante l’attivazione di tali reti. Ci si soffermerà infine su un’applicazione dell’intelligenza artificiale che già oggi appare matura e capace di
fornire utili risultati al giurista, il modello del sistema basato su regole. Si proporranno
infine alcune considerazioni sulle ricerche in corso e in particolare sulla possibilità di
riprodurre la dialettica giuridica.
6.1
L’intelligenza
Come è noto, manca una definizione univoca e condivisa di intelligenza. Uno dei più autorevoli testi introduttivi in materia, l’Oxford Companion to the Mind, apre la trattazione
della voce “intelligence” dicendo che “sono disponibili innumerevoli test per misurare
l’intelligenza, ma nessuno sa con sicurezza che cosa sia l’intelligenza, e addirittura nessuno sa con sicurezza che cosa misurino i test disponibili”.265 Si suole peraltro convenire
che l’intelligenza si rivela nella capacità di svolgere funzioni come le seguenti: adattamento all’ambiente (o a nuove situazioni), apprendimento dall’esperienza, pensiero
astratto, utilizzo efficiente di risorse limitate, comunicazione, ecc.
Tuttavia, manca l’accordo sulla caratterizzazione della supposta competenza unitaria
(l’intelligenza) cui ineriscono le diverse abilità ricondotte nel concetto di intelligenza.
L’intelligenza è infatti un fenomeno complesso, oggetto di diverse discipline,266 tra cui
possiamo ricordare brevemente le seguenti:
269
270
6.1. L’INTELLIGENZA
• la filosofia, che fin da Platone e Aristotele ha individuato nell’intelligenza o ra-
•
•
•
•
•
zionalità una caratteristica fondamentale dell’uomo e uno dei temi della propria
ricerca,267 e ha studiato i procedimenti del pensiero (logica), i metodi della conoscenza e della scienza (gnoseologia ed epistemologia), e le strutture concettuali
(ontologia);
la matematica, che ha formalizzato i metodi del pensiero nei linguaggi e nelle
tecniche della logica formale e della teoria della probabilità, e ha altresı̀ studiato i
problemi della computabilità;
l’economia, che ha elaborato tecniche per l’uso efficiente di risorse limitate, anche
in contesti nei quali la determinazione e la valutazione delle conseguenze delle
azioni è difficile (teoria delle decisioni) o nei quali il singolo agente deve tener
conto delle scelte altrui (teoria dei giochi);
la medicina, che ha studiato l’elaborazione delle informazioni nel cervello e il
rapporto tra stimoli sensoriali e loro elaborazione neurale (neurologia);
la psicologia, che ha studiato il funzionamento della mente umana, in particolare
nell’apprendimento (psicologia cognitiva), rappresentandola come un processo di
elaborazione di informazioni (scienza cognitiva);
la linguistica, che ha studiato i procedimenti che danno luogo alla formulazione e
alla comprensione del linguaggio, traducendoli talvolta in programmi informatici
(linguistica computazionale).
L’intelligenza artificiale ha tratto ispirazione da tutte le ricerche appena menzionate, ma
ha aggiunto a esse un aspetto ingegneristico: essa non vuole solo studiare l’intelligenza,
ma si propone di costruirla, di dar vita ad artefatti intelligenti. L’obiettivo ingegneristico dell’intelligenza artificiale non esclude che essa possa contribuire alla conoscenza
dell’intelligenza umana. Come osservava Gian Battista Vico [1668-1744] verum esse
ipsum factum (il vero è ciò che è fatto), o verum et factum convertuntur (il vero e il fatto si convertono l’uno nell’altro): come dallo studio dell’intelligenza umana si possono
trarre utili indicazioni al fine della costruzione dell’intelligenza artificiale, cosı̀ la costruzione dell’intelligenza artificiale (il fatto) ci aiuta a cogliere la natura dell’intelligenza
(il vero) e in particolare possiamo trarne ipotesi (da verificare empiricamente) circa il
funzionamento dell’intelligenza umana.268 Infatti, poiché le facoltà conoscitive da realizzare nei sistemi di intelligenza artificiale corrispondono alle facoltà in cui si esplica
l’intelligenza naturale (umana o animale), non dobbiamo stupirci se l’intelligenza artificiale trae ispirazione dall’intelligenza naturale, trovando in essa soluzioni appropriate
alle proprie esigenze di elaborazione dell’informazione, né dobbiamo stupirci se ritroviamo nell’intelligenza naturale (nelle strutture cerebrali o nei processi mentali) alcune
soluzioni ingegneristiche elaborate dall’intelligenza artificiale. Ciò non comporta tuttavia una completa identità, soprattutto perché l’intelligenza umana si realizza mediante
un hardware (le cellule cerebrali) profondamente diverso dall’hardware dell’intelligenza
artificiale (chip di silicio). Pertanto, talune forme di elaborazione dell’informazione (co-
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
271
me l’effettuazione rapida di calcoli aritmetici, con grandi numeri, o il concatenamento
di numerose regole) possono essere più adatte all’intelligenza artificiale che all’intelligenza umana. All’opposto, altre forme di elaborazione dell’informazione (come quelle
attinenti alla connessione di dati percettivi o mnemonici secondo analogie non predeterminate) “naturali” per l’uomo, allo stato dell’arte non sono riproducibili facilmente in
sistemi informatici.
6.1.1
Modelli di intelligenza artificiale
Stuart Russell e Peter Norvig distinguono i diversi modi di accostarsi all’intelligenza
secondo due diverse dimensioni:269
• l’idea che l’intelligenza consista esclusivamente nel pensiero (rappresentazione
della conoscenza e ragionamento) si contrappone all’idea che essa includa altresı̀
l’interazione con l’ambiente (percezione e azione);
• l’obiettivo di riprodurre fedelmente le capacità intellettive dell’uomo (con tutti i
loro limiti) si contrappone all’obiettivo di realizzare sistemi capaci di razionalità
(cioè di elaborare informazioni in modo ottimale) prescindendo dai limiti della
razionalità umana.
Conseguentemente, gli stessi autori propongono lo schema della Figura 6.1, che riporta
diverse autorevoli definizioni di intelligenza artificiale distinguendole a seconda di come si collocano rispetto alle due dimensioni appena indicate. Non posso qui esaminare
approfonditamente queste distinzioni, e ci limiteremo pertanto ad alcune brevi considerazioni. Per quanto attiene alla distinzione tra pensiero e azione, ricordo come anche il
pensiero non possa essere astratto dall’azione. Vi è infatti nel ragionamento di un agente
intelligente un continuo collegamento tra il momento epistemico (volto a determinare
come stanno le cose, come è fatto il contesto nel quale l’agente si trova e quali dinamiche lo caratterizzano) e il momento pratico (volto a determinare il comportamento più
appropriato rispetto agli interessi dell’agente e al contesto della sua azione): i nostri interessi epistemici (quali cose desideriamo conoscere) sono determinati anche dai nostri
obiettivi pratici, e i modi del perseguimento dei nostri obiettivi pratici (e il giudizio preliminare sulla possibilità di raggiungere tali obiettivi) dipendono dalle nostre conoscenze
epistemiche.270
L’attenzione per l’aspetto pratico è cresciuta negli anni più recenti quando—in parallelo con sviluppi tecnologici di cui parleremo nelle pagine seguenti, come in particolare
la creazione di robot fisici ed elettronici e l’emergere dell’intelligenza ambientale—si
sono sviluppate indagini volte a cogliere il comportamento razionale nella relazione tra
l’agente e il suo ambiente. Tali ricerche hanno enfatizzato aspetti dell’intelligenza non
riducibili al ragionamento in senso stretto, come la percezione, la capacità di esplorare
attivamente l’ambiente, e la comunicazione.271
272
6.1. L’INTELLIGENZA
Sistemi che pensano come esseri
umani
Sistemi che pensano razionalmente
“Il nuovo eccitante tentativo di fare in
modo che i calcolatori pensino [. . . ]
di costruire macchine dotate di menti, nel senso pieno e letterale”272
“[L’automazione delle] attività che
associamo con il pensiero umano, attività quali prendere decisioni,
risolvere problemi, imparare”273
“Lo studio di facoltà mentali mediante l’uso di modelli computazionali”274
“Lo studio delle elaborazioni che
rendono possibile percepire, ragionare, e agire”275
Sistemi che agiscono come esseri umani
Sistemi che agiscono razionalmente
“L’arte di creare macchine che svolgono funzioni che richiederebbero
intelligenza quando svolte da persone”276
“Lo studio di come far fare ai calcolatori cose nelle quali, al momento,
le persone sono migliori”277
“L’intelligenza computazionale è lo
studio della progettazione di agenti
intelligenti”278
“L’IA [. . . ] si occupa del comportamento intelligente negli artefatti”279
Figura 6.1: Definizioni dell’intelligenza artificiale (IA)
Per quanto attiene alla distinzione tra l’obiettivo di riprodurre pienamente il pensiero
umano (comprese le sue irrazionalità) e quello di sviluppare invece procedure cognitive
pienamente razionali, molto dipende dall’obiettivo di un’applicazione di intelligenza artificiale: simulare l’uomo o affrontare nel modo migliore certi problemi. Bisogna però di
ricordare che la conoscenza dei procedimenti cognitivi e deliberativi è ancora assai limitata: vi sono molte cose che l’uomo riesce a fare in modo appropriato spontaneamente,
senza sapere in che modo riesca a raggiungere tale risultato. La natura ci ha dotato di
capacità adatte ad affrontare in modo adeguato il mondo in cui ci troviamo280 e siamo in
grado di utilizzare tali facoltà pur senza conoscere le modalità del loro funzionamento, e
quindi, a maggior ragione, senza conoscere le ragioni a sostegno di tali modalità. Ciò vale non solo per capacità specifiche (come quella di riconoscere le facce delle persone che
incontriamo) ma anche per le nostre generali capacità linguistiche, logico-matematiche,
e in generale per le competenze richieste nella soluzione di problemi.
A questo riguardo è opportuno ricordare il concetto di razionalità limitata, elaborato
dallo studioso di intelligenza artificiale (e premio Nobel per l’economia) Herbert Simon.
Scelte che appaiono irrazionali con riferimento a un concetto ideale di razionalità (non
assicurando un risultato ottimale, cioè il migliore risultato possibile) possono invece
apparire appropriate (razionali nella misura in cui ci è possibile esserlo) quando si con-
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
273
siderino i limiti delle nostre capacità conoscitive e la complessità dell’ambiente.281 La
nostra stessa ragione ci vieta di sprecare le nostre energie nell’impossibile ricerca della
scelta ottimale, e ci richiede invece di seguire procedure cognitive fallibili, ma rapide
ed economiche (richiedenti un impegno limitato delle nostre risorse mentali) che conducano a risultati sufficientemente buoni (anche se non ottimi) nella maggior parte dei
casi.282 Queste procedure fallibili tese a economizzare le energie richieste dall’impiego
della ragione sono chiamate euristiche.
In conclusione, ciò che può apparire un difetto della razionalità umana (una forma
di irrazionalità), può invece rivelarsi una procedura cognitiva appropriata per una razionalità limitata: emulare (copiare) l’intelligenza umana, anche in aspetti apparentemente
irrazionali (o solo limitatamente razionali) può talvolta condurre a soluzioni efficaci.
6.1.2
Intelligenza artificiale forte e intelligenza artificiale debole
Una distinzione importante, che si sovrappone a quelle appena tracciate, è quella tra intelligenza artificiale forte (strong artificial intelligence) e intelligenza artificiale debole
(weak artificial intelligence). Secondo la caratterizzazione che ne dà John Searle, illustre
studioso del linguaggio e della mente, l’intelligenza artificiale forte muove dall’assunto
che anche i calcolatori siano capaci di stati cognitivi e di pensiero (nel modo in cui ne
è dotato un essere umano) e conseguentemente si propone di costruire menti artificiali.283 Per questo indirizzo “il calcolatore appropriatamente programmato è realmente
una mente, si può cioè dire letteralmente che i calcolatori dotati dei programmi giusti
capiscono e hanno stati cognitivi”.284 L’intelligenza artificiale debole invece si propone
di realizzare sistemi artificiali capaci di svolgere compiti complessi, sistemi che possono
mimare (simulare) aspetti dei processi cognitivi umani, ma che non possono riprodurre
quegli stessi processi (non sono in grado di pensare, non possiedono una mente).
Il dibattito circa la possibilità di sviluppare, mediante elaboratori elettronici, forme di intelligenza artificiale forte, cioè vere menti artificiali, può essere fatto risalire al
fondamentale contributo di Alan Turing, che già nel 1936 si interrogava non solo sulla
possibilità di sviluppare macchine intelligenti, ma anche su come verificare quando e in
quale misura questo risultato potesse considerarsi raggiunto. A tale fine egli proponeva
un test ispirato a un gioco di società. il “gioco dell’imitazione”, nel quale una persona
interroga due interlocutori di sesso diverso, al fine di determinare chi di questi sia l’uomo
e chi la donna (senza avere contatto diretto con gli stessi). Nel gioco di Turing lo scopo
dell’interrogante è invece quello di distinguere l’interlocutore umano e l’interlocutore
elettronico, il calcolatore (Figura 6.2).285 Si avrà la prova che l’intelligenza artificiale è
stata realizzata quando un sistema informatico riuscirà a ingannare l’interrogante, facendogli credere di essere una persona (quando l’interrogante, nel gioco dell’imitazione,
attribuirà l’identità umana con la stessa probabilità all’interlocutore umano e a quello
elettronico).286 Nessun sistema ha ancora superato il test di Turing, e anzi nessun siste-
274
6.1. L’INTELLIGENZA
Figura 6.2: Il test di Turing
ma si è avvicinato a questo risultato.287 Se ne può trarre la conclusione rassicurante che
l’intelligenza artificiale è ancora ben lontana dal raggiungere l’intelligenza umana, nel
campo della comunicazione non ristretta.288
Tuttavia, il test di Turing solleva un importante problema teorico, che ci possiamo
porre in astratto, indipendentemente dalla possibilità concreta di realizzare oggi, o nel
prossimo futuro, un sistema che superi il test. Ci possiamo cioè chiedere se un sistema
che, in ipotesi, riuscisse a superare il test sarebbe una vera intelligenza artificiale, o invece sarebbe solo un mero “idiota sapiente”, che si limita a fingere di essere intelligente,
che simula una mente senza possederla veramente. Infatti, il test di Turing è puramente
comportamentale: per superarlo è sufficiente che la macchina si comporti come un essere umano, non è necessario che esso abbia veramente una mente, dei pensieri. Vi è stato
pertanto chi ha affermato l’impossibilità teorica di realizzare sistemi informatici capaci
di attività mentale (di pensiero in senso proprio), quali che siano le prestazioni offer-
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
275
te dagli stessi (anche se tali prestazioni comportino il superamento del test di Turing).
Di conseguenza, l’intelligenza artificiale forte sarebbe impossibile in linea di principio,
indipendentemente da futuri sviluppi tecnologici.
In particolare questa tesi è stata sostenuta da John Searle. Per criticare le pretese
dell’intelligenza artificiale forte Searle ha sviluppato un celebre esperimento mentale,
il cosiddetto “argomento della stanza cinese”. Searle ci invita a immaginare che una
persona capace di parlare solo la lingua inglese (non il cinese) sia chiusa in una stanza
dotata di una fenditura verso l’esterno. La stanza contiene dei fogli di carta e un enorme
volume. Il volume è un manuale di istruzioni che specifica come, una volta ricevuto
un input consistente in una sequenza di caratteri cinesi, si debba produrre un output
consistente in un’altra sequenza degli stessi caratteri. Le regole collegano a ogni input
l’output appropriato (la risposta che giudicheremmo appropriata in una conversazione tra
persone che conoscono il cinese), ma sono formali, nel senso che fanno riferimento solo
alla forma della comunicazione, cioè alla sequenza con la quale i caratteri di input sono
presentati (per applicare le regole non bisogna conoscere il significato dei simboli). Ecco
come funziona la stanza cinese (come opera la persona al suo interno). Dalla fenditura
viene immesso un foglio di carta che riporta caratteri cinesi (incomprensibili a chi non
conosca questa lingua). Seguendo esattamente le istruzioni del manuale, la persona nella
stanza scrive su un foglio bianco la risposta (i caratteri cinesi) che le regole del manuale
collegano ai caratteri indicati nei fogli di input, e spinge il foglio attraverso la fenditura.
Le risposte che escono dalla camera cinese, in ipotesi, sono indistinguibili da quelle
che potrebbero essere fornite da una persona capace di parlare il cinese. Di conseguenza,
(tralasciando il problema dei tempi di risposta) la camera cinese riuscirebbe a superare
il test di Turing (l’interrogante non sarebbe in grado di stabilire se sta dialogando con
la stanza o con un cinese). Searle sostiene però che la persona all’interno della stanza
cinese si è limitata a manipolare simboli a lei incomprensibili: anche se quella persona
risponde come un parlante cinese, le è precluso l’accesso al significato dei simboli cinesi.
Ora, uscendo dalla metafora, la persona nella stanza cinese è il calcolatore, guidato da un
software (il manuale di istruzioni). Pertanto, Searle conclude che anche un calcolatore
capace di conversare come un essere umano non è capace di pensieri, non ha una mente,
si limita alla cieca manipolazione di simboli.
Numerosi studiosi di intelligenza artificiale hanno raccolto la sfida di Searle, e hanno contestato il suo argomento. Alcuni hanno obiettato che, anche se l’uomo all’interno
della stanza cinese non capisce il cinese, l’intero sistema consistente nella stanza, la persona, e il manuale di regole è in grado di capire il cinese, consistendo la comprensione
di una lingua nella capacità di rispondere a input in quella lingua producendo output
appropriati nella stessa. L’errore di Searle consisterebbe nell’astrarre da tale sistema una
sola componente (l’elemento che effettua le trasformazioni simboliche, corrispondente
alla persona nella stanza). Sarebbe come chiedersi se la funzione mentale umana consistente nell’effettuazione di operazioni di ragionamento sia sufficiente a comprendere una
276
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
lingua, una volta separata dalla memoria, dalle conoscenze, dai sensi, ecc. Un’ulteriore
critica attiene al fatto che tanto la mente umana quanto il calcolatore elaborano informazioni con velocità ed efficienza enormemente superiori rispetto all’operatore della
stanza cinese. L’impressione che la stanza non capisca il cinese si basa su questa circostanza, non applicabile all’elaborazione informatica. Pertanto, non sarebbe giustificato
estendere al calcolatore le conclusioni concernenti la camera cinese.
Altri hanno osservato che la conclusione che la persona nella stanza (o la stanza nel
suo insieme) non comprenda il cinese è determinata dal fatto che la comprensione di
un linguaggio richiede la capacità di connettere le parole ai loro referenti reali, il che
presuppone l’esperienza degli oggetti di cui parla il linguaggio (o almeno di alcuni di
essi). Questo limite di un calcolatore isolato non si applica però ai sistemi automatici che
uniscano capacità percettive (e possibilmente motorie) a quelle attinenti all’elaborazione
e alla registrazione delle informazioni. Di conseguenza, i limiti della camera cinese non
sono limiti dell’intelligenza artificiale: essi possono essere superati estendendo il sistema
con dispositivi capaci di movimento e dotati di appropriati sensori.
Altri infine hanno osservato che l’intelligenza è un fenomeno emergente da comportamenti meccanici anche nel caso del cervello umano: anche l’intelligenza umana nasce
da processi non intelligenti, le operazioni “meccaniche” (i processi chimici e fisici) che
hanno luogo all’interno dei singoli neuroni del cervello umano e nei contatti (sinapsi)
tra gli stessi. Allo stesso modo le operazioni meccaniche che avvengono all’interno del
calcolatore programmato possono dare origine all’intelligenza.289
6.2
Breve storia dell’intelligenza artificiale
Da secoli l’uomo è affascinato e al tempo stesso impaurito dalla possibilità di realizzare
entità intelligenti artificiali. Nell’antica Grecia ricordiamo il mito di Pigmalione, che
scolpı̀ Galatea, una statua vivente (seppure grazie all’intervento divino), e il mito del
dio Efesto, capace di costruire esseri animati di bronzo, come Talos, il guardiano di
Creta. Passando dal mito all’ingegneria meccanica, possiamo menzionare nell’antichità
gli automi costruiti da Erone di Alessandria (vissuto nel primo secolo, e inventore, tra
l’altro, del motore a vapore), usati per animare le divinità nei templi. In epoche più
vicine possiamo ricordare, nel mito, il Golem di Praga, creato per difendere il ghetto da
attacchi antisemiti, che sfuggi però al controllo del suo creatore.
Il termine robot—oggi utilizzato per designare le entità intelligenti artificiali capaci
di azione e interazione, nel mondo fisico o in quello virtuale—trae origine dall’opera
teatrale R.U.R. (sigla che sta per “Rossumovi univerzálnı́ roboti”, cioè “i robot universali
di Rossum”), dello scrittore cecoslovacco Karel Capek [1890-1938], che diede questo
nome agli esseri artificiali cui è dedicata tale opera. I robot di Capek sono andoidi
costruiti per servire gli uomini, ma si ribelleranno ai loro padroni e ciò causerà la fine
dell’umanità.290
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
277
Il tema del rapporto tra intelligenza artificiale e intelligenza umana troverà sviluppo
in numerose opere di fantascienza. Mi limito a ricordare l’opera di due autori, Arthur C.
Clarke e Isaac Asimov. Clarke291 immaginò il calcolatore HAL (Heuristically programmed ALgorithmic computer), reso famoso dal film “2001 Odissea nello Spazio”, diretto
da Stanley Kubrick. HAL—capace non solo di ragionare, ma anche di comprendere il
linguaggio umano (non solo tramite il suono, ma anche “leggendo le labbra”), di avere
emozioni e di cogliere le emozioni altrui—acquista una psicologia umana, anzi troppo
umana: prima per impedire che si vengano a conoscere i suoi errori e poi per proteggere
se stesso, si rivolge contro gli astronauti al cui viaggio avrebbe dovuto sovrintendere.
Asimov analizza il problema del rapporto tra gli uomini e l’intelligenza artificiale (i
robot) in numerosi volumi e racconti, superando lo schema dell’artefatto che si ribella
al suo creatore. Nei racconti di Asimov i robot sono di regola esseri benevoli, il cui
funzionamento si ispira alle tre leggi della robotica:
1. Un robot non può nuocere a un essere umano o consentire, mediante la propria
omissione, che un essere umano subisca danno.
2. Un robot deve obbedire agli ordini impartitigli da esseri umani, eccetto che quando
questi ordini confliggano con la prima legge.
3. Un robot deve proteggere la propria esistenza fintantoché tale protezione non
confligga con la prima o la seconda legge.292
Tuttavia, nell’opera di Asimov, la benevolenza dei robot non esclude un aspetto problematico: la disponibilità di servitori robotici, con capacità superiori per molti aspetti
a quelle umane, può indurre chi se ne serve a diventare dipendente dai propri schiavi
meccanici, ad adagiarsi nella comodità, rinunciando all’iniziativa, rifiutando ogni rischio. Il tema della dipendenza dell’uomo dai propri servitori meccanici ripropone cosı̀
il tema della dipendenza del padrone dai propri schiavi, illustrato da Hegel nella sua
Fenomenologia dello spirito.293 . Delegheremo tanta parte della nostra vita ai nostri aiutanti elettronici da perdere la capacità di pensare e agire autonomamente? Interporremo
in tale misura i nostri schiavi elettronici tra noi e la soddisfazione dei nostri desideri (come direbbe Hegel) da divenire completamente passivi, ci trasformeremo in capricciose
e inutili “macchine desideranti”, avendo trasferito ai nostri schiavi elettronici tutte le attività produttive e comunicative necessarie per soddisfare le nostre voglie, cosı̀ come le
competenze e le conoscenze richieste a tal fine?
6.2.1
Gli entusiasmi dei pionieri e il paradigma dell’intelligenza
artificiale simbolica
La ricerca scientifica e tecnologica nel campo dell’intelligenza iniziò tra gli anni ’40 e gli
anni ’50. Già nel 1943 Walter Pitts and Warren Sturgis McCulloch (due collaboratori di
Norbert Wiener, l’inventore della cibernetica) mostrarono come reti di neuroni artificiali
278
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
potessero elaborare informazioni, dando avvio al tentativo di riprodurre il funzionamento dei neuroni del cervello umano, benché essi non utilizzassero calcolatori digitali (i
neuroni erano realizzati mediante circuiti analogici).294
La nascita dell’intelligenza artificiale viene tuttavia solitamente ricondotta a una celebre conferenza tenutasi a Dartmouth (New Hampshire, USA), che riunı̀ per un mese
alcuni tra i principali pionieri della materia. Lo scopo esplicito della riunione era lo
studio dell’intelligenza automatica, partendo dall’ipotesi che “ogni aspetto dell’apprendimento e ogni altra caratteristica dell’intelligenza possa in principio essere descritto con
tale precisione che si possa costruire una macchina capace di simularlo.295
La tesi fondamentale che ispirava gli studiosi riuniti a Dartmouth era infatti espressa dalla famosa ipotesi del sistema simbolico fisico (physical system hypothesis), cioè
dall’ipotesi che l’intelligenza possa risultare dal funzionamento di un sistema che manipola strutture simboliche (per esempio, sequenze di parole o numeri) producendo altre
sequenze simboliche, secondo determinati processi. Ecco come Alan Newell e Simon
caratterizzano un tale sistema:
Un sistema di simboli fisici consiste di un insieme di entità, chiamate simboli, che
sono schemi fisici che possono presentarsi come componenti di un altro tipo di
entità, chiamata espressione (o struttura simbolica). Pertanto una struttura simbolica è composta di un numero di istanze (o occorrenze) di simboli correlati in
qualche modo fisico (ad esempio, un simbolo può essere adiacente a un altro simbolo). In ogni istante di tempo il sistema conterrà una collezione di queste strutture
simboliche. Oltre a queste strutture, il sistema contiene anche una collezione di
processi che operano sulle espressioni per produrre altre espressioni: processi di
creazione, modificazione, riproduzione e distruzione. Un sistema simbolico fisico
è una macchina che produce nel tempo una collezione di strutture simboliche in
evoluzione.296
Secondo gli stessi autori “un sistema simbolico fisico ha i mezzi necessari e sufficienti
per l’azione intelligente generale”.297 Dato che ogni sistema di simboli fisici può essere
realizzato mediante una macchina universale (come la macchina di Turing) e dato che
i moderni calcolatori sono macchine universali (Figura 2.1.3), l’ipotesi che un sistema
di simboli fisici sia capace di intelligenza, implica che un calcolatore potrebbe dar vita all’intelligenza (una volta che fosse dotato di un software adeguato e di sufficiente
memoria e capacità di calcolo). Come affermano Newell e Simon
L’ipotesi del sistema di simboli fisici implica una teoria computazionale dell’intelligenza [. . . ] Pertanto l’ipotesi del sistema simbolico implica che l’intelligenza
sarà realizzata da un calcolatore universale.298
Seguendo questa linea di pensiero non vi sono limiti assoluti o “filosofici” allo sviluppo
dell’intelligenza automatica, si tratta solo di sviluppare tecnologie hardware, e soprattutto software, adeguate. In entrambe le direzioni vi furono notevoli progressi. Circa
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
279
le tecnologie hardware, furono inizialmente sviluppati calcolatori specificamente dedicati all’intelligenza artificiale, le cosiddette “macchine per il Lisp” (Lisp machine), ma
la disponibilità di calcolatori “a scopo generale” (general purpose) sempre più potenti
ed economici consentı̀ di usare questi ultimi anche per le applicazioni di intelligenza
artificiale.299 Nel campo del software le ricerche si svilupparono in due direzioni complementari: tecniche per la rappresentazione della conoscenza in strutture simboliche,
e tecniche per l’elaborazione di tali conoscenze, cioè per il ragionamento automatico.
Ciò corrispondeva al paradigma dell’intelligenza artificiale “simbolica”, cioè all’assunto
che un sistema capace di risolvere problemi in modo intelligente (intelligent problem
solving) debba unire due aspetti: una rappresentazione simbolica (in un linguaggio appropriato) delle conoscenze rilevanti, e la capacità di trarre conclusioni fondate su tali
conoscenze. Questa idea è espressa con chiarezza da John McCarthy e Paul Hayes (anche quest’ultimo fu tra i fondatori dell’intelligenza artificiale), che danno la seguente
definizione di intelligenza.
Un’entità è intelligente se ha un modello adeguato del mondo (inclusi il mondo
intellettuale della matematica, la comprensione dei propri scopi e altri processi
mentali), se è capace di rispondere a un’ampia varietà di domande sulla base di quel
modello, se può trarre informazioni ulteriori dal mondo esterno quando necessario,
e può effettuare nel mondo esterno i compiti richiesti dai suoi scopi e consentiti
dalle sue capacità fisiche.300
La nozione di intelligenza, per gli stessi autori, comprende due parti: una parte
epistemologica e una parte euristica.301
La parte epistemologica è una rappresentazione del mondo in una forma tale che
la soluzione dei problemi derivi dai fatti espressi nella rappresentazione. La parte
euristica è il meccanismo che sulla base dell’informazione risolve il problema e
decide che cosa fare.302
Un’importante estensione del paradigma appena prospettato è il tentativo di affiancare
alle teorie che descrivono i diversi domini dell’azione intelligente, meta-teorie intese a
indicare come le prime teorie debbano essere usate, estese, e aggiornate. In questo modo,
funzioni come l’apprendimento dall’esperienza o l’effettuazione di inferenze analogiche
possono essere rese compatibili, almeno in una certa misura, con una concezione tendenzialmente statica della conoscenza (la conoscenza come rappresentazione del mondo
all’interno del sistema intelligente).
6.2.2
Sviluppo e crisi delle ricerche di intelligenza artificiale
Negli anni seguenti, il programma di ricerca dell’intelligenza artificiale (e in particolare,
il paradigma “simbolico” appena tratteggiato) diede origine a numerosi risultati. Da un
lato furono sviluppati numerosi sistemi “intelligenti”, cioè capaci di affrontare compiti
280
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
apparentemente tali da richiedere intelligenza (il gioco degli scacchi, la derivazione di
teoremi matematici, la soluzione di problemi matematici o fisici, la traduzione automatica dall’una all’altra lingua, la visione meccanica, ecc.). Dall’altro lato furono realizzati
alcuni strumenti che facilitavano grandemente la realizzazione di sistemi “intelligenti”,
come in particolare il linguaggio Lisp.
Questi successi condussero a previsioni esageratamente ottimistiche. Studiosi molto
autorevoli si spinsero ad affermare che entro un prossimo futuro (uno o due decenni) sarebbero state disponibili macchine capaci di raggiungere l’intelligenza umana, di “svolgere ogni lavoro possa essere compiuto da un essere umano” (cosı̀ Simon, nel 1965) e
di “avere l’intelligenza generale di un essere umano medio” (cosı̀ Minsky nel 1970). Il
lento sviluppo delle applicazioni di intelligenza artificiale smentı̀ però queste previsioni: passare dai semplici esempi usati nelle applicazioni pionieristiche a sistemi utili per
affrontare problemi reali si rivelò molto difficile. In particolare l’intelligenza artificiale
non riuscı̀ ad affrontare in modo soddisfacente i compiti cognitivi (come la comprensione
del linguaggio, o l’identificazione di oggetti nello spazio) che l’uomo compie spontaneamente e apparentemente senza sforzo. Si tratta delle funzioni comprese nella dotazione
naturale della nostra specie, che vengono effettuati utilizzando le conoscenze attinenti al
“senso comune”, appartenenti a ogni persona normale (in parte innate, in parte acquisite
nel corso della normale socializzazione).
Negli anni seguenti l’accento passò pertanto al tentativo di risolvere problemi riguardanti invece ambiti specialistici, nei quali la soluzione potesse essere ottenuta derivandola da un’ampia base di conoscenze concernenti un particolare settore. Si trattava
quindi di realizzare sistemi esperti capaci di risolvere in modo intelligente (utilizzando
un’ampia base di conoscenze) problemi che richiedessero una particolare competenza
(expertise), come quella di cui è dotato un esperto umano. Si elaborarono conseguentemente tecniche per la rappresentazione della conoscenza in forme tali da renderla elaborabile automaticamente, e procedure per utilizzare ampie basi di conoscenza nella
soluzione di problemi. Tra tali tecniche ebbe importanza crescente l’uso di metodi per il
ragionamento automatico ispirati alla logica: se le procedure inferenziali di un sistema
esperto potevano essere ricondotte alla logica, intesa in senso ampio come l’insieme dei
metodi del ragionamento corretto, allora si poteva fare affidamento nel funzionamento
del sistema stesso. La logica computazionale (l’effettuazione automatica di inferenze
logicamente corrette) conobbe infatti un rapido sviluppo. In particolare, all’inizio degli
anni ’70 fu inventato il Prolog, un linguaggio logico semplice e intuitivo, basato su una
parte della logica predicativa, per il quale furono definite procedure di inferenza molto
efficienti.
Tra gli anni ’70 e ’80 furono sviluppati numerosi sistemi esperti, e alcuni di essi
conseguirono risultati significativi in diversi campi, come la diagnosi medica, l’analisi
delle strutture molecolari o la progettazione di sistemi informatici.303
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
281
In questi anni iniziarono anche i primi studi in materia di intelligenza artificiale e diritto e, come vedremo nel seguito, non mancarono i tentativi di realizzare sistemi esperti
di diritto.
Anche nell’ambito dei sistemi esperti ai primi entusiasmi fece seguito una profonda
delusione. Si dovette costatare che i sistemi realizzati non erano in grado di sostituire la
prestazione di un professionista esperto, ma semmai di integrarne la competenza. L’attività di un esperto non si limita infatti all’applicazione di conoscenze preesistenti, ma
richiede attività ulteriori, come l’esame del caso concreto, la ricerca delle informazioni
rilevanti, la considerazione delle analogie con casi precedenti, la formulazione e la valutazione di ipotesi, la percezione di coerenze e incoerenze in un insieme di informazioni
e dei modi di ripristinare la coerenza, capacità che oggi nessun sistema informatico può
offrire (benché non manchino teorie computazionali della coerenza e dell’evoluzione
della conoscenza).304 Pertanto, nello svolgimento di un compito complesso un sistema
esperto può integrarsi con le competenze umane, ma non le può, di regola, sostituire.
Per risultare veramente utile, un sistema esperto avrebbe dovuto essere superiore
sia ai sistemi che elaborano informazioni senza usare a tal fine una specifica competenza o conoscenza (limitandosi ad applicare precise procedure predefinite), sia ai sistemi
che forniscono informazioni all’esperto umano senza elaborare tali informazioni (come
i sistemi documentari o gli ipertesti). Rispetto ai sistemi non-esperti che applicano procedure predefinite (ad esempio, un sistema che calcola le imposte, usando un diverso
algoritmo per ogni imposta), un sistema esperto doveva offrire vantaggi nella capacità di
affrontare compiti non riducibili ad algoritmi specificabili in anticipo e inoltre nella facilità di sviluppo, controllo, e aggiornamento, mantenendo al tempo stesso una sufficiente
efficienza (rapidità di esecuzione). Rispetto ai sistemi che forniscono informazioni senza
elaborarle (ogni elaborazione restando affidata all’intelligenza umana), il sistema esperto doveva provare la sua superiorità nel collegare le informazioni e applicarle ai casi
concreti, garantendo al tempo stesso il controllo umano sui contenuti del sistema e sulle
modalità dell’elaborazione.
Inoltre emersero alcune difficoltà inerenti allo sviluppo e la manutenzione dei sistemi esperti. In particolare, si constatava che era difficile e costoso rappresentare la
conoscenza nella forma richiesta da un sistema esperto (assai più rigida e limitata rispetto al linguaggio umano) e mantenerla aggiornata, ma anche che non tutte le informazioni
potevano essere espresse in questo modo e che, una volta ridotte in tale forma, le informazioni non potevano essere impiegate con la flessibilità di cui è capace l’intelligenza
umana.
Se da un lato i sistemi esperti erano criticati a causa delle loro limitazioni, dall’altro
lato la prospettiva di un loro successo suscitava opposte inquietudini. Si temeva, cioè,
che l’uomo, nel consegnare l’uso delle proprie conoscenze a un sistema informatico (superiore all’uomo per memoria e rapidità di elaborazione) venisse a rinunciare al possesso
di tali conoscenze, delegando le proprie attività intellettuali allo strumento elettronico.
282
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
È vero che lo sviluppo della nostra specie si basa anche sulla nostra capacità di trasferire
all’esterno, realizzando appositi artefatti, sia i contenuti della nostra mente (dai disegni sulle caverne all’uso della scrittura), sia i processi mediante i quali quei contenuti
sono elaborati (dal pallottoliere ai calcolatori elettronici).305 Possiamo cosı̀ delegare a
tali artefatti una parte delle nostre funzioni cognitive (delegare all’agenda il compito di
ricordare le scadenze, al pallottoliere il compito di effettuare calcoli, ecc.). Ogni delega, però, può rappresentare una perdita nella competenza del delegante, sia per quanto
riguarda direttamente il compito delegato, sia per quanto riguarda le ulteriori capacità
cognitive acquisibili mediante l’esecuzione di quel compito. Ricordiamo la celebre critica di Platone all’uso della scrittura. Il dio Theuth—racconta Platone nel Fedro, uno
dei suoi più celebri dialoghi—espose al faraone Talos i vantaggi della sua invenzione, la
scrittura:
Questa scienza, o re - disse Theuth - renderà gli Egiziani più sapienti e arricchirà la loro memoria perché questa scoperta è una medicina per la sapienza e
la memoria.306
Il faraone Talos però rispose:
O ingegnosissimo Theuth, una cosa è la potenza creatrice di arti nuove, altra cosa è giudicare qual grado di danno e di utilità esse posseggano per coloro che le
useranno. E cosı̀ ora tu, per benevolenza verso l’alfabeto di cui sei inventore, hai
esposto il contrario del suo vero effetto. Perché esso ingenererà oblio nelle anime
di chi lo imparerà: essi cesseranno di esercitarsi nella memoria perché fidandosi
dello scritto richiameranno le cose alla mente non più dall’interno di se stessi, ma
dal di fuori, attraverso segni estranei.307
Talos pecca senz’altro di eccessivo conservatorismo: la scrittura si è rivelata strumento
decisivo dello sviluppo individuale e sociale, passaggio fondamentale nella civiltà umana. Tuttavia l’idea che la delega delle nostre funzioni mentali a enti materiali possa
avere effetti pregiudizievoli per lo sviluppo umano merita considerazione, specialmente
con riferimento ai sistemi informatici intelligenti. Infatti, nel caso della scrittura i nostri
dubbi possono essere superati dalla considerazione che lo scritto non è in grado di applicarsi da solo: è necessario che la mente umana si riappropri del contenuto trasferito
nelle strutture simboliche (nella sequenza di caratteri alfabetici che costituisce il testo
scritto) affinché quel contenuto possa tradursi in azione.
Nel caso del sistema esperto invece la struttura simbolica (la sequenza di caratteri
che forma la base di conoscenza del sistema) diventa autonoma, potendo essere applicata
mediante processi automatici. Diventa quindi necessario, come osserveremo in seguito
stabilire opportune modalità per l’integrazione (la simbiosi, vedi Sezione 6.4.3), tra intelligenza umana e intelligenza automatica, cosicché, anche nell’ambito delle funzioni
in cui si utilizzino sistemi esperti, da un lato l’uomo continui a fornire le competenze
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
283
cognitive di cui la macchina è priva (competenze necessarie in molte applicazioni del diritto), e che dall’altro egli mantenga il controllo sulla conoscenza trasferita alla macchina
e sul processo della sua applicazione.
6.2.3
Dalla crisi ai primi successi
Nei primi anni ’90 vi fu quindi una profonda crisi delle ricerche di intelligenza artificiale,
il cosiddetto “inverno dell’intelligenza artificiale” (AI winter), un clima di generale sfiducia nei confronti delle prospettive di questa disciplina. Lo stesso termine “intelligenza
artificiale” cadde in discredito, e gli studiosi che continuavano a occuparsi dei temi dell’intelligenza automatica preferivano spesso qualificare la propria ricerca in altro modo
(logica o linguistica computazionale, database deduttivi, sistemi probabilistici, supporto
alle decisioni, ecc.). La crisi dell’intelligenza artificiale simbolica determinò un’intensa
attività di ricerca in direzioni diverse. Qui mi limito a ricordarne tre: la ripresa degli studi
sui modelli computazionali dell’attività neurale, la creazione di nuovi modelli computazionali simbolici ispirati alle discipline matematiche ed economiche, l’attenzione per le
dimensioni dell’azione e della comunicazione.
I modelli ispirati all’attività neurale mirano a riprodurre l’aspetto reattivo dell’intelligenza (comune a tutti gli animali evoluti), cioè la capacità di rispondere agli input forniti
dall’esperienza e di adattare tale risposta in modo appropriato (di apprendere), pur senza
il tramite del ragionamento e della rappresentazione esplicita della conoscenza. Le reti
neurali (e in generale i modelli connessionistici) hanno offerto una nuova tecnologia (e
una nuova prospettiva) per affrontare compiti del senso comune (come il riconoscimento
di immagini o di volti) per i quali mancano modelli teorici precisi, ma anche per compiti
specialistici attinenti al riconoscimento, alla luce di esperienze precedenti, di caratteristiche non definibili con precisione (come la rischiosità di un’operazione finanziaria, la
probabilità che un soggetto incorra in un sinistro, ecc.).
I modelli simbolici, d’altro canto, hanno potuto essere grandemente potenziati dall’uso di metodiche formali tratte non solo dalla logica matematica (cui l’intelligenza
artificiale si era ispirata fin dai propri inizi) ma anche dalle logiche filosofiche (logica
dell’azione, della possibilità, di obblighi e permessi) e da discipline quali il calcolo delle
probabilità, la teoria della decisione, la teoria dei giochi, le teorie dell’argomentazione.
È divenuto cosı̀ possibile utilizzare in misura crescente strumenti di intelligenza artificiale per il supporto alla decisione, anche in contesti caratterizzati da incertezza (come
nelle previsioni atmosferiche o finanziarie) o opinabilità (come nell’ambito giuridico).
L’attenzione per gli aspetti dinamici e relazionali (l’azione, l’interazione, la comunicazione) ha consentito di superare l’idea del sistema intelligente quale mero intelletto,
privo di iniziativa, che si limita a rispondere alle domande dell’utilizzatore sulla base
delle conoscenze registrate al suo interno. Le ricerche si sono indirizzate invece verso
la realizzazione di agenti intelligenti, capaci non solo di elaborare informazioni, ma an-
284
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
che di ricercare le informazioni rilevanti, di percepirle esaminando l’ambiente e di agire
sulla base degli obiettivi a essi assegnati, possibilmente interagendo con altri agenti dello stesso tipo o con interlocutori umani. È stato cosı̀ enfatizzato l’aspetto “robotico”
dell’intelligenza artificiale, cioè la realizzazione di robot quali entità capaci di azione
autonoma, sia nello spazio fisico (come le sonde spaziali capaci di movimento autonomo o gli aerei senza pilota) sia nello spazio virtuale di Internet (come gli agenti software
utilizzabili nella ricerca di informazioni o per fare acquisti on-line).
Nei primi anni ’90 le ricerche di intelligenza artificiale hanno incontrato Internet, che
da un lato richiedeva applicazioni informatiche intelligenti, dall’altro offriva un’enorme
quantità di informazione in formato digitale alla quale applicare tecniche di intelligenza
artificiale. Le tecniche di intelligenza artificiale hanno trovato impiego in diversi strumenti per la rete: motori di ricerca, sistemi che forniscono raccomandazioni agli utenti,
sistemi per la costruzione di siti Web, agenti software per la ricerca di informazione e
l’effettuazione di transazioni commerciali, ecc.
Gli sviluppi appena indicati hanno determinato la fine dell’“inverno dell’intelligenza
artificiale”. Dalla fine degli anni ’90 la ricerca è ripresa con rinnovato vigore e non sono
mancati significativi risultati (anche operativi) in numerosi settori, tra i quali si possono
ricordare, senza pretese di completezza, i seguenti:
• l’estrazione di informazioni da grandi masse di dati (data mining), oggi ampia-
•
•
•
•
•
•
•
•
mente utilizzata per ricerche commerciali, per individuare comportamenti fraudolenti (ad esempio nell’uso di carte di credito) o anche per finalità attinenti alla
sicurezza (indagini anti-terrorismo);
la selezione di informazioni rilevanti o l’eliminazione di quelle irrilevanti con
tecniche intelligenti (utilizzate per esempio, nei filtri antispamming);
l’interpretazione degli esami medici e la consulenza medica;
la traduzione automatica, che oggi fornisce risultati molto utili, anche se limitati;
i giochi, per i quali sono stati realizzati sistemi automatici capaci di raggiungere
alti livelli di competenza e prodotti commerciali di notevole successo;308
la gestione e la logistica (ad esempio, la pianificazione di attività imprenditoriali
o di operazioni militari);
il riconoscimento di immagini e movimenti (ad esempio, nei sistemi per la
vigilanza automatica);
i robot fisici, utilizzati nell’esplorazione di regioni inospitali della terra (come
l’Antartide) o dello spazio (ad esempio, Marte), ma anche nelle attività industriali,
nelle pulizie domestiche, nel gioco (i robot pet, nuovo tipo di animali domestici);
gli agenti software, ai quali l’utilizzatore può delegare compiti da eseguire con
autonomia negli spazi virtuali (dalla ricerca di informazioni, all’effettuazione di
transazioni commerciali).
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
285
Non si deve dimenticare il lato oscuro dell’intelligenza artificiale: molte applicazioni
sono state costruite anche per scopi militari, come per i bombardieri senza pilota o le
“bombe intelligenti”. In questo ambito è necessario un controllo sociale e politico sulle
tecnologie per evitare sviluppi potenzialmente distruttivi.309
Tra i profili emergenti dell’intelligenza artificiale va ricordata l’intelligenza ambientale (ambient intelligence). Si tratta dell’inserimento nell’ambiente fisico di dispositivi
automatici dotati della capacità di elaborare informazioni e, anzi, intelligenza. Tali dispositivi possono assorbire informazioni sia dall’ambiente fisico sia dalla rete informatica, e di operare in entrambi gli ambiti. Essi sono destinati a inserirsi nell’ambiente in
modo ubiquo e invisibile, governando macchine di vario genere, e facendo sı̀ che l’ambiente stesso si adatti automaticamente alle esigenze dell’uomo. Possono comunicare tra
loro—sviluppando l’Internet delle cose, vedi Sezione 5.5.10)—ma anche di percepire i
mutamenti dell’ambiente e di reagire agli stessi. Si immagini una casa nella quale la
porta si apra automaticamente ogni qualvolta la telecamera riconosca uno degli abitanti,
la cucina si attivi per riscaldare la cena al momento opportuno, il frigorifero proceda
automaticamente a ordinare i prodotti mancanti, la combinazione ottimale di umidità e
temperatura sia mantenuta costante (tenendo conto, altresı̀ del costo del riscaldamento),
l’armadietto sanitario si occupi di indicarci le medicine da prendere, secondo il piano
stabilito dal medico, l’impianto stereo proponga brani musicali, tenendo conto dei nostri
gusti e addirittura del nostro stato d’animo, ecc. Si immagini altresı̀ che sia possibile
dialogare con la casa stessa e con i vari dispositivi che ne fanno parte (per esempio,
chiedendo al forno di attivarsi per cucinare l’arrosto e allo stereo di proporci un brano di
Brahms o dei Rolling Stones).310
L’Unione Europea ha fatto propria la prospettiva dell’intelligenza ambientale, dedicando a essa un ampio spazio nell’ambito dei propri progetti di ricerca. Si tratta di
una prospettiva che, accanto agli aspetti positivi, manifesta diversi profili problematici,
rispetto ai quali si rendono necessarie garanzie giuridiche, profili che vanno dalla tutela
dei dati personali, alle responsabilità per i danni causati dalle apparecchiature intelligenti, alla protezione dell’interessato rispetto alle possibilità di sfruttamento e manipolazione ottenibili influenzando il comportamento delle macchine intelligenti e tramite esse
il comportamento del loro utilizzatore (ad esempio, rispetto a scelte di consumo o di
acquisto), e cosı̀ via.
Lo sviluppo delle scienze fisiche e delle tecnologie per l’elaborazione della materia
ci ha consegnato un mondo materiale “disincantato”,311 nel quale ci rapportiamo agli oggetti assumendo che il loro comportamento sia esclusivamente e pienamente accessibile
secondo le leggi fisiche, obbedendo alle quali gli oggetti svolgono la funzione loro assegnata. Oggi lo sviluppo dell’intelligenza artificiale ambientale sembra ricreare un mondo
“incantato” nel quale ci accosteremo agli oggetti in modo analogo a quello con cui interagiamo con le persone, riproducendo quindi schemi del pensiero animistico, proprie del
mondo del mito e della fiaba. In un vicino futuro potremo capire il funzionamento de-
286
6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE
gli oggetti più comuni (dalla cucina, al frigorifero, all’automobile) solo assumendo che
l’oggetto in questione persegua certi obiettivi (attinenti alle nostre esigenze, cosı̀ come
l’oggetto stesso riesce a coglierle) scegliendo i mezzi che ritiene più adatti al loro conseguimento. Interagiremo con gli oggetti intelligenti adottando uno stile comunicativo,
cioè interrogandoli sulle iniziative che stanno adottando, e indicando a essi i risultati da
realizzare o i modi per raggiungerli (cosı̀ come faremmo con un collaboratore domestico).312 Immaginiamo per esempio di rientrare in casa e di chiedere alla cucina che cosa
possa prepararci per cena (dopo aver interrogato il frigorifero sulle sue disponibilità),
che questa si informi sulle nostre preferenze, e conseguentemente suggerisca particolari
menu, ci indichi i tempi di cottura (o quelli necessari per approvvigionarsi di materie
prime non disponibili in casa), e cosı̀ via. Il mondo incantato dell’intelligenza ambientale può però diventare un mondo stregato, nel quale gli oggetti (o chi li governa) ci
manipolano, ci sfruttano, operano a nostro danno.
Il tema dell’intelligenza ambientale si incontra con un altro modello tecnologico,
anch’esso di notevole interesse per il giurista: gli agenti software, cioè i sistemi informatici in grado di agire con autonomia, senza il controllo diretto del loro utilizzatore.
Questa tecnologia trova impiego nelle aree più diverse dell’informatica: nello sviluppo
di sistemi informativi, nel coordinamento di applicazioni distribuite, nella realizzazione
di interfacce, nella gestione di attività complesse e di situazioni critiche (ad esempio, nel
governo del traffico marittimo o aeroportuale).
Per il giurista presentano particolare interesse gli agenti software che non esauriscono la propria attività nella sfera del loro utilizzatore (come avviene per quelli cui sia
affidata la gestione decentrata della logistica aziendale), ma entrano in contatto con altri
soggetti. Ciò accade soprattutto su Internet, dove operatori e utenti possono ricorrere ad
agenti software per cogliere e sfruttare l’enorme varietà di possibilità offerte dallo sconfinato, diversificato e dinamico ambiente virtuale del ciberspazio. Gli agenti software
possono essere usati in particolare nella raccolta di informazioni (ricerca di dati, di offerte concernenti beni e servizi, di possibili partner commerciali) e nell’attività contrattuale
(trattativa, formulazione di proposte, valutazione della loro convenienza, conclusione di
contratti). Essi possono utilizzare tecniche di intelligenza artificiale per accedere alle informazioni utili (ad esempio, le opportunità offerte dal mercato), accertare le circostanze
rilevanti per le loro azioni (per esempio, la convenienza comparativa delle diverse offerte
recuperate), e agire conseguentemente (effettuando l’acquisto più conveniente).
Un profilo giuridico particolarmente interessante è quello della qualificazione dell’attività realizzata dall’agente nell’interesse del suo utilizzatore, adempiendo con autonomia il mandato affidatogli dall’utilizzatore stesso. A mio parere, qualora l’utilizzatore
deleghi al suo aiutante elettronico lo svolgimento di un compito da realizzare con autonomia (compito che includa attività cognitive, come quelle necessarie per individuare la
controparte di un contratto e determinare il contenuto del contratto stesso), si dovrebbero
applicare per analogia le norme sulla rappresentanza. Conseguentemente, già in base al
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
287
diritto vigente, gli effetti giuridici ricadrebbero sull’utilizzatore, ma gli stati psicologici rilevanti (la volontà, la conoscenza, l’errore, ecc.) sarebbero quelli dell’agente (per
quanto riguarda gli elementi del contratto determinati dall’agente stesso).313
6.3
Il modello connessionistico: le reti neurali
Come abbiamo osservato sopra (Sezione 3.5.4), la ricerca sulle reti neurali è ispirata
all’idea che l’intelligenza possa ottenersi riproducendo l’hardware cerebrale (i neuroni)
piuttosto che riproducendo le funzioni più astratte svolte da quell’hardware (il ragionamento). Conseguentemente, tale ricerca assume che il comportamento intelligente risulti
innanzitutto dall’adattamento flessibile all’ambiente (di cui sono capaci tutti gli animali dotati di un sistema nervoso), piuttosto che dal pensiero consapevole.314 L’ipotesi,
quindi, è che possiamo apprendere non solo acquisendo consapevolmente contenuti formulati in un linguaggio (ed elaborati grazie al ragionamento), ma anche in modo del
tutto inconsapevole, mediante la modificazione delle connessioni tra i nostri neuroni: il
fatto che in certe condizioni si sia data la risposta “giusta” conduce a una modifica di tali
connessioni tale da far sı̀ che la stessa risposta sia data in futuro nelle stesse condizioni o
in condizioni analoghe; il fatto che in certe condizioni si sia data una risposta sbagliata
conduce a un modifica delle connessioni neuronali tale evitare la ripetizione dell’errore
in futuro.
6.3.1
La struttura delle reti neurali
La struttura informatica utilizzata per riprodurre questo tipo di apprendimento è la rete
neurale, una struttura software composta da unità chiamate neuroni, e da determinati
collegamenti tra le stesse unità.315 I neuroni artificiali riproducono informaticamente
la struttura dei neuroni presenti nel nostro cervello, come risulta dal confronto tra la
Figura 6.3 e la Figura 6.4, che rappresentano, rispettivamente un neurone biologico e un
neurone informatico. Ogni neurone riceve segnali dai neuroni a esso connessi, segnali
che viaggiano seguendo determinati collegamenti. Ai collegamenti sono assegnati pesi,
cioè coefficienti secondo i quali i segnali passanti attraverso i collegamenti stessi sono
amplificati o ridotti.
Il funzionamento di ogni neurone è stabilito da funzioni logico-matematiche. Il neurone, quando riceve determinati segnali, verifica se quei segnali abbiano raggiunto il
livello (la soglia) richiesta per la propria attivazione. Se il livello non è stato raggiunto,
il neurone rimane inerte; se invece il livello è stato raggiunto, il neurone si attiva, inviando a sua volta segnali ai neuroni con esso connessi. Per esempio, nell’immagine riportata
nella Figura 6.4 al neurone sono inviati stimoli di valore 2, 3, 2 e 3. I pesi applicati a tali
stimoli sono rispettivamente 2, 1, 3, e 1. Moltiplicando gli stimoli inviati al neurone per
i relativi pesi, si ottengono gli input forniti al neurone: 2 ⇤ 2 = 4; 3 ⇤ 1 = 3; 2 ⇤ 3 = 6;
288
6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI
assone da altro neurone
sinapsi
assone
dendrite
nucleo
Figura 6.3: Neurone naturale
Input provenienti
dall'esterno o
da altri neuroni
Output diretti
all'esterno o ad
altri neuroni
I1 = 2
P1 = 2
I2 = 3
I1 = 2
P2 = 1
P3 = 3
Soglia = 15
I2 = 2
I3 = 2
I3 = 2
P4 = 1
I4 = 3
Figura 6.4: Neurone artificiale
3 ⇤ 1 = 3. Il valore ottenuto sommando gli input (4 + 3 + 6 + 3), cioè 16, è al disopra
della soglia (15) del neurone, che conseguentemente si attiverà, inviando messaggi di
valore 2 ai neuroni a esso collegati.
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
289
Unità di output
Unità nascoste
Unità di Input
Figura 6.5: Rete neurale
Combinando i neuroni otteniamo una rete neurale. Come risulta dalla Figura 6.5,
alcuni neuroni della rete ricevono input dall’esterno (ad esempio da una base di dati,
da una telecamera che riceve immagini dall’ambiente, da una tavoletta sulla quale si
tracciano disegni o caratteri); alcuni neuroni, i cosiddetti neuroni nascosti, sono collegati
solo con altri neuroni; alcuni neuroni, infine, inviano il loro output all’esterno della rete.
La tecnica più comune per addestrare una rete neurale consiste nel proporre alla rete
una serie di esempi corretti, cioè un serie di coppie < input, output >, dove l’output
indica il risultato corretto per l’input corrispondente. Per esempio, se sogliamo addestrare una rete nel riconoscimento dei caratteri alfabetici ogni esempio consisterà di un
segno grafico unito al carattere corrispondente.
L’elaborazione degli esempi avviene nel modo seguente. Il sistema determina la propria risposta rispetto all’input indicato nell’esempio. Se la risposta differisce dall’output
nell’esempio, la rete si riorganizza, cambiando la propria configurazione (i collegamenti
o i pesi associati a essi) in modo da poter dare la risposta corretta (la stessa indicata
nell’esempio) di fronte alla riproposizione dello stesso input. Dopo un conveniente addestramento, la rete acquista l’abilità di dare risposte corrette non solo nei casi contenuti
nell’insieme degli esempi, ma anche in casi analoghi.
290
6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI
In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giudiziari. Assumendo che le risposte dei giudici siano corrette (o almeno coerenti tra di
loro), l’obiettivo è allenare la rete neurale in modo che essa possa riprodurre le risposte
date dai giudici nei precedenti, e rispondere analogamente nei casi simili.
6.3.2
Le reti neurali e il diritto
Tra le non molte applicazioni del modello della rete neurale in ambito giuridico,316 si
può ricordare il sistema Split-up, cui è stato affidato il compito di ripartire il patrimonio
tra gli ex coniugi in seguito a un divorzio.317 Gli autori del sistema furono indotti a
utilizzare la tecnica delle reti neurali in quanto, dall’analisi della legislazione e delle
sentenze, non avevano rinvenuto regole precise la cui applicazione logica ai fatti dei casi
potesse condurre alle soluzioni adottate dai giudici. In materie di questo tipo i giudici
sembrano infatti operare in base a un’“intuizione allenata” piuttosto che secondo regole
precise: si tratta di un’intuizione informata dalla conoscenza di casi precedenti e dalle
esperienze dello stesso decisore, che ha acquisito adeguate capacità di discriminazione
e valutazione pur senza esserne necessariamente e completamente consapevole.
Nella rete di Split-up, i neuroni di input rappresentano i fattori rilevanti nella decisione dei casi in questione, e i neuroni di output indicano le possibili divisioni del
patrimonio. Come risulta dalla Figura 6.6, i soli dati di input accolti dalla rete (quindi
i soli fattori rilevanti nel determinare la ripartizione) sono il contributo dei coniugi alla formazione del patrimonio e l’ammontare del patrimonio stesso (livelli inferiori del
patrimonio conducendo a ripartizioni maggiormente egualitarie). Secondo gli autori del
sistema, tale semplice rete, dopo essere stata “allenata” sottoponendole alcune centinaia
di casi precedenti, sarebbe divenuta capace di riprodurre le decisioni dei casi passati e
avrebbe acquistato la capacità di prevedere con sufficiente precisione le decisioni di casi
futuri.
L’uso delle reti neurali nell’applicazione del diritto è stato finora assai limitato.
Un’importante ragione di ciò sta nel fatto che le reti neurali, anche quando indicano soluzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel senso
che non indicano quali premesse conducano al particolare risultato proposto dalla rete.
Ciò è dovuto al fatto che la conoscenza utilizzata da una rete neurale è implicita nella
struttura della rete (nelle connessioni neurali e nei pesi associati a esse), non è formulata
in proposizioni esplicite. Pertanto, la rete si comporta come un “oracolo” che indica una
soluzione giuridica senza motivarne l’adozione.
Questo fatto è suscettibile di essere differentemente valutato da diverse teorie del
diritto. Chi segua un orientamento irrazionalistico, vedrà nelle reti neurali (nel loro uso
per riprodurre e anticipare il comportamento del giurista) la possibilità di smascherare l’illusione logicistica secondo cui le decisioni giuridiche seguirebbero logicamente
dall’applicazione delle norme ai fatti del caso.
291
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
Husband needs much more
''
more
''
same
10%
''
less
20%
''
much less
30%
Husband contributed much more
35%
''
more
40%
''
same
45%
''
less
50%
''
much less
55%
Marriage is very wealthy
60%
''
wealthy
65%
''
confortable
70%
''
average
80%
asset poor
very few assets
90%
''
''
Figura 6.6: Rete neurale per la divisione del patrimonio tra coniugi
Chi invece segue un orientamento logicistico, e assume che ogni decisione giuridica
sia raggiunta (e debba esserlo) applicando regole preesistenti a fatti dati, riterrà aberrante
ogni applicazione delle reti neurali.
Chi infine, adotta una prospettiva intermedia, secondo la quale nella decisione umana
l’aspetto adattivo proprio delle rete neurali (l’intuizione della correttezza di un certo
risultato, alla luce delle esperienze precedenti) si unisce alla ricerca e all’applicazione di
premesse atte a fondare la decisione, riterrà il modello delle rete neurali suscettibile di
qualche applicazione, pur entro confini ristretti.
A mio parere, le reti neurali artificiali oggi disponibili hanno una capacità molto limitata nel ricevere e nell’elaborare le esperienze (esse sono assai semplici se comparate
alla complessità delle strutture neurali del cervello umano), e non sono in grado di collegare conoscenze adattive e premesse esplicite del ragionamento (come invece accade
quando riflettiamo sulle nostre reazioni intuitive e sviluppiamo modelli logici in grado di razionalizzarle). Questi limiti consigliano una grande cautela nell’impiego di reti
neurali, ma non ne escludono il possibile utilizzo per problemi circoscritti.318
Un interessante uso delle reti neurali (come più in generale, delle analisi statistiche,
cui le reti neurali possono in parte essere ricondotte) consiste peraltro nello smascherare
false giustificazioni, cioè giustificazioni che pongono a fondamento di decisioni giuri-
292
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
diche fattori diversi da quelli che hanno realmente motivato tali decisioni. Se una rete
neurale capace di riprodurre un certo insieme di decisioni (ad esempio, condanne penali) non può essere costruita sulla base dei fattori indicati nelle motivazioni dei giudici
(fattispecie del reato, gravità, precedenti, ecc.), ma può essere invece costruita tenendo
conto di altri fattori (caratteristiche etniche, sesso, età, condizione economica, ecc.), cui
si connettono pregiudizi non apertamente dichiarabili, allora è probabile che la spiegazione delle decisioni giudiziarie possa ravvisarsi in quei pregiudizi piuttosto che nelle
ragioni espressamente addotte.319
6.4
Conoscenza esplicita e ragionamento
Nonostante l’interesse suscitato dalle ricerche sulle reti neurali, il modello prevalente
nell’intelligenza artificiale rimane quello dell’utilizzo esplicito della conoscenza, mediante metodi per il ragionamento automatico (secondo l’idea che abbiamo illustrato nella Sezione 3.5.3). A questo fine bisogna che il sistema informatico disponga di due componenti: una rappresentazione della conoscenza rilevante, e metodi per il ragionamento
automatico applicabili a tale rappresentazione.
Ricordiamo che il ragionamento consiste in generale nel passaggio da certe ragioni
(premesse, obiettivi, ecc.), a conclusioni giustificate da tali ragioni. Tale passaggio avviene in generale secondo modelli generali o schemi di ragionamento, che sono forniti
dalla logica (intesa in senso ampio). Il ragionamento che consiste nel passaggio da
certe premesse a certe conclusioni, secondo un determinato schema, può essere detto
inferenza. Per esempio, le premesse A e “SE A ALLORA B” giustificano l’inferenza
della conclusione B, quali che siano i particolari contenuti espressi dalle proposizioni
A e B: in ogni caso il fatto che un ragionatore comprenda tra le sue premesse A e “SE
A ALLORA B” giustifica l’inferenza della conclusione B (almeno quando non ci siano
indicazioni in contrario). La correttezza di un’inferenza, ovviamente, non garantisce la
verità/validità320 della sua conclusione. Per esempio, entrambi i seguenti ragionamenti
sono corretti, ma non sono vere/valide entrambe le conclusioni che ne discendono.
• Premesse
1.
SE
[x è il datore di lavoro di y]
ALLORA
[x può accedere alla
casella di posta aziendale usata da y];
2.
[Lucia è il datore di lavoro di Renzo]
• Conclusione
3.
[Lucia può accedere alla casella di posta aziendale usata da
Renzo]
• Premesse
1.
SE
[x è il datore di lavoro di y]
ALLORA
[x
NON
può accedere
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
293
alla casella di posta aziendale usata da y]
2.
[Lucia è il datore di lavoro di Renzo]
• Conclusione
3.
[Lucia
NON
può accedere alla casella di posta aziendale usata
da Renzo]
Le conclusioni di tali ragionamenti sono infatti incompatibili (o Lucia può accedere alla casella di posta, o non può farlo) e quindi non possono essere entrambe vere/valide.
Tuttavia l’inferenza di ciascuna conclusione è giustificata dalle corrispondenti premesse. Il problema è che non sono vere/valide le premesse di entrambe le decisioni: o è
vera/valida la premessa che il datore di lavoro può accedere alla posta del dipendente, o
è vera/valida la premessa che lo stesso non vi può accedere.
La verità/validità della conclusione tratta da un certo insieme di premesse mediante
un’inferenza, è, in generale, garantita solo dalla compresenza delle seguenti condizioni:
• la verità/validità delle premesse;
• la correttezza dell’inferenza;
• l’assenza di inferenze prevalenti contro l’impiego delle premesse o contro
l’esecuzione dell’inferenza
Le prime due condizioni sono sufficienti a garantire conclusioni tratte secondo il ragionamento deduttivo (che presuppone, che premesse e inferenze non ammettano eccezioni),
mentre la terza condizione si richiede qualora si ricorra al ragionamento defeasible (vedi
Sezione 6.4.6).
6.4.1
Ragionamento e applicazione di regole
Non è possibile illustrare in questa sede i metodi del ragionamento logico (o, meglio,
dei diversi ragionamenti autorizzati da diversi modelli logici), né il modo in cui quei
metodi possono essere applicati da sistemi informatici. Ai nostri fini è sufficiente illustrare il tipo di ragionamento più frequente in ambito giuridico, cioè l’applicazione di
regole. Per “regola”, nel contesto qui considerato, non si intende un enunciato deontico
(un enunciato che qualifichi come obbligatorio, vietato o permesso un certo comportamento, come per esempio “è vietato fumare”), ma piuttosto un enunciato condizionale,
che collega un antecedente e un conseguente consentendo di inferire il secondo dal primo. Il concetto di regola come condizionale (piuttosto che come obbligo o prescrizione)
corrisponde all’idea diffusa che le regole giuridiche—come quelle degli esempi appena
riportate—colleghino una fattispecie e una conseguenza giuridica: la fattispecie astratta
è l’antecedente della regola e la conseguenza giuridica astratta ne è il conseguente. L’antecedente può consistere di un solo elemento, o invece di una congiunzione di elementi.
294
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
Quali esempi di regola, cosı̀ intesa, si considerino, gli enunciati seguenti: “se una persona causa colpevolmente un danno ingiusto, allora lo deve risarcire”, o “se una persona è
nata da un cittadino italiano, allora quella persona è cittadino italiano”.
Il ragionamento che sarà qui esaminato consiste semplicemente nella derivazione di
un’istanza specifica (concreta) del conseguente di una regola, data una corrispondente
istanza dell’antecedente della stessa. Ecco un semplice esempio:
• Premesse:
1.
SE
ALLORA
2.
[x ha intenzionalmente causato a y un danno ingiusto]
[x deve risarcire il danno a y]
[Lucia ha intenzionalmente causato a Renzo un danno ingiusto]
• Conclusione:
3.
[Lucia deve risarcire il danno a Renzo]321(m)
Si possono ricondurre al ragionamento mediante regole anche inferenze espresse in altro
modo. Consideriamo per esempio il sillogismo che combina una premessa universale e
una premessa individuale:
• Premesse:
1.
[Tutti gli A sono B]
2.
[↵ è un A]
• Conclusione:
3.
[↵ è un B]
che possiamo esemplificare come segue:
• Premesse:
1.
[Tutti gli uomini sono mortali]
2.
[Socrate è un uomo]
• Conclusione:
3.
[Socrate è mortale]
Allo stesso schema corrisponde il seguente esempio giuridico.
• Premesse:
1.
[Tutte le compravendite sono contratti]
2.
[L’atto tra Lucia e Renzo è una compravendita]
• Conclusione:
3.
[L’atto tra Lucia e Renzo è un contratto]
Questi sillogismi si possono ricondurre all’applicazione di regole riformulandone la premessa universale “Tutti gli A sono B” nel condizionale “P E R O G N I (x) S E
[x è un A] A L L O R A [x è un B]. Ne risulta il seguente schema di inferenza
(nella quale le formule con variabile sono da intendersi implicitamente quantificate, cioè
precedute da P E R O G N I )
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
295
• Premesse:
1.
SE
2.
[↵ è un A]
[x è un A]
ALLORA
[x è un B]
• Conclusione:
3.
[↵ è un B]
che possiamo esemplificare come segue:
• Premesse:
1.
SE
2.
[Socrate è un uomo]
[x è un uomo]
ALLORA
[x è mortale]
• Conclusione:
3.
[Socrate è mortale]
• Premesse:
1.
SE
[x è una compravendita]
2.
[L’atto tra Lucia e Renzo è una compravendita]
ALLORA
[x è un contratto]
• Conclusione:
3.
[L’atto tra Lucia e Renzo è un contratto]
Il modello delle regole può essere impiegato per rappresentare conoscenze di diverso tipo. Per esempio, il funzionamento di un sistema destinato alla diagnosi medica potrebbe
comprendere regole del tipo seguente:322
[x ha il morbillo] S E
[x ha la febbre] E
[la pelle di x è cosparsa di punti rossi]
[x ha l’influenza] S E
[x ha la febbre] E
[x N O N presenta sintomi specifici]
Dati particolari fatti concreti:
[Marco ha la febbre].
[la pelle di Marco è cosparsa di punti rossi].
il sistema può concludere, utilizzando le regole, che Marco ha il morbillo. Allo stesso
modo un sistema che si occupi della concessione di borse di studio potrebbe contenere
regole del tipo seguente
[x ha diritto alla borsa di
[x possiede i requisiti
[x possiede i requisiti
[x possiede i requisiti
studio] S E
soggettivi] E
di merito] E
di reddito].
296
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
[x possiede i requisiti soggettivi] S E
[x è cittadino comunitario] E
[l’età di x è inferiore a 30 anni].
[x possiede i requisiti di merito] S E
[x ha sostenuto il numero di esami richiesto] E
[la media dei voti di x è superiore al 28].
[x è cittadino comunitario] S E
[x è cittadino dello stato y] E
[y appartiene all’Unione Europea].
Dati i fatti seguenti:
[l’età di Elena è inferiore a 30 anni].
[Elena ha sostenuto il numero di esami richiesto].
[la media di voti di Elena è superiore al 28].
[Elena è cittadino dello stato Romania].
[Romania appartiene all’Unione Europea].
l’applicazione delle regole sopra indicate condurrà alla conclusione che
[Elena ha diritto alla borsa di studio].
Infine, possiamo utilizzare regole per rappresentare conoscenze giuridiche. In questo
caso solitamente si usano regole per rappresentare la conoscenza normativa, e asserti incondizionati (fatti) per rappresentare le fattispecie concrete. Per esempio, date le regole
seguenti
[x è cittadino italiano] S E
[x è nato in Italia].
[x è cittadino italiano] S E
[x è figlio di un cittadino italiano].
[x è figlio di un cittadino italiano] S E
[y è genitore di x] E
[y è un cittadino italiano].
e dati i fatti seguenti
[Giovanni è genitore di Benedetta].
[Giovanni è nato in Italia].
un sistema informatico capace di applicare regole potrà concludere che
[Benedetta è cittadino italiano].
In particolare, il sistema potrà raggiungere tale conclusione compiendo il seguente ragionamento: Benedetta è cittadina italiana essendo nata da genitore italiano, ed è nata
da genitore italiano essendo suo genitore Giovanni, il quale è cittadino italiano essendo
nato in Italia.323
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
6.4.2
297
I sistemi basati su regole nel diritto
I sistemi basati su regole (rule-based system) costituiscono il tipo più semplice e diffuso
di sistema basato sulla conoscenza (knowledge-based system). Tali sistemi contengono
una base di conoscenza costituita da regole, e un motore di inferenza, che applica tali
regole ai dati di fatto attinenti a casi concreti. Le informazioni attinenti ai casi possono
essere fornite dall’utilizzatore umano del sistema o estratte da archivi informatici.
Il modello del sistema basato su regole ha trovato applicazione in numerosi ambiti:
la diagnosi dei guasti di apparecchiature informatiche, la concessione di crediti, la determinazione di polizze assicurative, il controllo di varie funzioni all’interno di strutture
organizzative pubbliche e private, ecc. In quest’ultimo caso, le regole depositate nel sistema vengono anche chiamate “regole d’affari” (business-rules), termine con il quale si
indicano in generale le regole che governano il funzionamento di un’organizzazione, regole che possono riflettere direttamente o indirettamente requisiti giuridici (ad esempio,
in un sistema che gestisce il commercio elettronico, la regola che prescrive di applicare
l’imposta sul valore aggiunto, al tasso corrispondente al tipo di bene venduto) o invece
determinazioni interne all’organizzazione in questione (ad esempio, la regola che applica lo sconto del 10% ai clienti che abbiamo già fatto acquisti in precedenza, e spendano
per il nuovo acquisto più di C100).
I primi studi sui sistemi basati su regole risalgono ormai agli anni ’60, quando furono realizzati i primi prototipi (come il già ricordato Mycin, utilizzato nelle diagnosi
mediche).
Anche in ambito giuridico si realizzarono alcuni sistemi prototipali già negli anni
’70, ma la ricerca che ha maggiormente influenzato il dibattito teorico e le soluzioni applicative fu realizzata presso l’Imperial College di Londra tra la fine degli anni ’70 e l’inizio degli anni ’80. Un gruppo di studiosi di formazione informatica—coordinato da Robert Kowalski e Marek Sergot, due tra i massimi esperti nella logica computazionale—
applicò le nuove tecniche della programmazione logica alla rappresentazione di norme
giuridiche e all’esecuzione di inferenze corrispondenti.324 La ricerca dell’Imperial College mostrò come le norme giuridiche potessero essere rappresentate in forma di regole,
e potessero essere applicate secondo modelli logici efficienti, intuitivi e rigorosi.325
Per illustrare lo stile di rappresentazione adottato nel prototipo in questione, si
consideri il seguente esempio:
[x acquista la cittadinanza britannica alla data y,
secondo la sezione 1.1] S E
[x è nato nel Regno Unito] E
[x è nato nella data y] E
[x ha un genitore che possiede i requisiti
di cui alla sezione sezione 1.1, alla data y].
298
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
[x ha un genitore che possiede i requisiti di cui alla
sezione 1.1, alla data y] S E
[z è genitore di x] E
[z è cittadino britannico alla data y].
Negli anni successivi accanto a ricerche sperimentali volte a cogliere ulteriori aspetti del
ragionamento giuridico (come il ragionamento basato sui casi, l’argomentazione, ecc.)
non mancarono i tentativi di realizzare sistemi basati su regole che trovassero immediato
impiego nell’ambito delle attività giuridiche, uscendo dallo stadio prototipale.326 Per
esemplificare la forma nella quale le norme giuridiche si rappresentano nei sistemi basati
su regole riporto un breve esempio tratto da un’applicazione australiana (pensioni di
guerra).327 Come il lettore può osservare la regola è formulata in un linguaggio non
elegante (in particolare si evitano pronomi e si esplicita tutta la sintassi), ma tuttavia
comprensibile anche al lettore privo di conoscenze logiche o informatiche:
[il Cap 6 Parte 1 si applica al membro (delle
forze armate australiane)] se;
(a) entrambe;
[il membro è stato inviato per obbligo di
servizio in una località rilevante]; e
[il membro vive nella località rilevante]
oppure
(b) [il membro ha svolto il proprio servizio per
obbligo temporaneo in una località rilevante
per un periodo continuo di più di 21 giorni];
oppure
(c) [il membro è inviato per servizio su una nave
sul mare, la cui base si trova in una
località rilevante].
La semplicità di questo esempio non deve far pensare che un sistema basato su regole
giuridiche sia necessariamente semplice o comunque utile solo nei casi semplici (cosı̀
da dare all’utilizzatore un aiuto non diverso da quello che potrebbe essere fornito da un
manuale di istruzioni). L’importanza di tali sistemi deriva dalla possibilità di applicare
un numero elevato di regole (vi sono sistemi che ne contengono decine di migliaia),
tenendo conto dei collegamenti tra le stesse (come quando il conseguente di una regola
rappresenti la precondizione per l’applicazione di altre regole o indichi un’eccezione ad
altre regole). Essi possono cosı̀ supplire ai limiti della memoria, dell’attenzione, e della
capacità combinatoria dell’uomo.
6.4.3
Sistemi basati sulla conoscenza e sistemi esperti
Come osservavamo sopra, la caratteristica essenziale dei sistemi basati sulla conoscenza
consiste nel fatto che il loro funzionamento, cioè il modo in cui affrontano i problemi
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
299
loro affidati, si basa sull’utilizzo di una “base di conoscenza”. Tale base di conoscenza
consiste in un insieme di informazioni (conoscenze) specialistiche, attinenti all’ambito
(il dominio) particolare in cui tali sistemi debbono operare, e alle tecniche utilizzabili
per la soluzione dei problemi che possano emergere in quell’ambito.
I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemi
esperti, cioè, i sistemi intesi a fornire funzionalità che richiedono una specifica competenza professionale (expertise). Un sistema basato sulla conoscenza è indubbiamente un
sistema esperto nel senso che esso svolge funzioni basate su conoscenze specialistiche,
che solo un esperto possiede. Ciò non significa però che esso sia un vero esperto, cioè
che possa svolgere da solo un’intera prestazione professionale, comprensiva di tutte le
funzioni che si affiderebbero all’esperto umano. Questo obiettivo non è realizzabile con
le tecnologie disponibili oggi o anche nel vicino futuro. Anche in un futuro più lontano
un esperto automatico rimarrà privo delle capacità cognitive legate alla condizione umana (come la capacità di immedesimarsi nella posizione dell’altro, di coglierne gli stati
psicologici, i ragionamenti, i bisogni, e quindi di apprezzare pienamente gli interessi e
i valori in gioco). L’idea di un esperto automatico pone non solo ostacoli tecnologici
ma anche problemi giuridici ed etici.328 Si considerino le ipotesi estreme di un automa
professionista nella medicina e nel diritto.
Un automa esperto nella medicina dovrebbe contenere informazioni attenenti all’anatomia umana, alla fisiologia alle diverse patologie, alle cure disponibili per ciascuna
di esse. Il sistema dovrebbe usare conoscenze anatomiche, fisiologiche e patologiche per
determinare la patologia da cui il paziente è affetto, e quindi, sulla base di conoscenze
attenenti ai metodi terapeutici, suggerire la terapia migliore per il particolare caso clinico. Inoltre il sistema non dovrebbe limitarsi all’elaborazione delle informazioni a esso
fornite in forma linguistica. Al contrario, dovrebbe essere dotato di capacità percettive tali da consentirgli di estrarre informazioni dall’ambiente (ad esempio, dalla visione
delle parti malate o delle radiografie) e di interagire con l’ambiente, utilizzando altresı̀
la comunicazione umana, al fine di ottenere informazioni utili mediante il dialogo (ad
esempio, interrogando il malato, o chiedendogli di sottoporsi agli esami del caso).
Allo stesso modo, un automa esperto nel diritto dovrebbe contenere informazioni
concernenti le norme giuridiche, le loro interpretazioni dottrinali, i precedenti giurisprudenziali, i valori e le finalità che caratterizzano l’ordinamento, i fenomeni sociali
disciplinati dal diritto. Il sistema inoltre dovrebbe possedere la capacità di ricavare informazioni dall’ispezione delle prove fisiche e di interagire con le parti e i terzi.Grazie
a queste informazioni, l’automa dovrebbe determinare le soluzione giuridiche di casi
concreti (come farebbe un giudice o un funzionario pubblico).
Non è questa la prospettiva nella quale possiamo sperare di ottenere risultati utili
nella realizzazione di sistemi informatici, almeno nel futuro a noi vicino. Si potranno invece affidare all’elaborazione automatica particolari fasi o momenti delle attività
giuridiche che si affiancano e integrano a quelli affidati all’uomo, cioè all’avvocato, al
300
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
giudice, al funzionario amministrativo o allo stesso destinatario di un servizio pubblico. La prospettiva nella quale collocare l’interazione tra uomo e sistema informatico è
quella della simbiosi uomo-macchina, già concepita all’inizio degli anni ’60 da J. C. R.
Licklider (tra gli iniziatori delle ricerche che hanno portato alla realizzazione di Internet,
vedi Sezione 5.2.1), che caratterizzava nel modo seguente le prospettive dell’interazione
tra uomo e macchina:
La simbiosi tra uomo e calcolatore è uno sviluppo atteso nell’interazione cooperativa tra uomini e calcolatori elettronici. Essa implica uno stretto accoppiamento tra
le componenti umane e quelle elettroniche dell’associazione. Gli scopi principali
sono (1) far sı̀ che i calcolatori facilitino la formulazione dei problemi cosı̀ come
ora essi aiutano nella soluzione di problemi già formulati e (2) consentire agli uomini e ai calcolatori di cooperare nel prendere decisioni e nel controllare situazioni
complesse senza la dipendenza inflessibile da programmi predeterminati. Nell’associazione simbiotica prevista, gli uomini indicheranno gli scopi, formuleranno le
ipotesi, determineranno i criteri ed effettueranno le valutazioni. Le macchine calcolatrici faranno il lavoro di routine che deve essere compiuto per preparare la strada
per nuove idee e decisioni nel pensiero tecnico e scientifico. Le analisi preliminari
indicano che l’associazione simbiotica eseguirà operazioni intellettuali molto più
efficacemente di come possa eseguirle l’uomo da solo.329
Per capire possibilità presenti e prospettive future dell’informatica nelle attività giuridiche dobbiamo interrogarsi sull’integrazione simbiotica tra uomo e macchina, e individuare gli ambiti nei quali i sistemi informatici, e in particolare sistemi basati sulla
conoscenza, possano affiancarsi all’attività dell’uomo.
6.4.4
L’uso dei sistemi basati sulla conoscenza giuridica
I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenza
furono inizialmente inferiori alle attese. I prototipi realizzati non condussero allo sviluppo di sistemi funzionanti, furono rifiutati fin dall’inizio dai funzionari destinati ad
applicarli, furono abbandonati dopo una breve sperimentazione, o non si ritenne di procedere al loro aggiornamento quando le loro basi di conoscenza diventarono obsolete in
seguito a modifiche normative.
Negli ultimi anni tuttavia, queste iniziali delusioni sono state seguite da alcuni importanti successi, in particolare nell’ambito della pubblica amministrazione. La ragione
fondamentale di tale cambiamento è da ritrovarsi innanzitutto nell’avvento di Internet,
che ha modificato completamente l’uso delle applicazioni informatiche e in particolare
dei sistemi basati sulla conoscenza. Internet rappresenta, infatti, un mondo aperto dove un sistema può essere utilizzato da un numero illimitato di utenti, e le funzioni di
un sistema possono essere integrate con quelle offerte da altri sistemi nell’ambito di architetture distribuite. Ciò significa che il sistema finalizzato a una particolare funzione
(per esempio, destinato a determinare il diritto a ricevere certe prestazioni) può essere
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
301
utilizzato (possibilmente con modalità diverse) sia da parte dei cittadini, sia da parte
dei funzionari pubblici competenti, nei diversi uffici che gestiscono la normativa corrispondente. Inoltre il sistema può essere integrato con altri sistemi informatici (come per
esempio, banche di dati, archivi di documenti e formulari, ecc.) in modo tale che le funzioni svolte da ciascuno di tali sistemi siano “orchestrate” per realizzare una funzionalità
complessiva. Si tratta del modello informatico dei servizi di rete (Web service, vedi Sezione 3.5.2): molteplici funzioni informatiche sono rese disponibili on-line e possono
essere integrate in un sistemi virtuali.
Le pubbliche amministrazioni e, più in generale, i soggetti che forniscono servizi
pubblici hanno iniziato a usare Internet per fornire informazioni ai cittadini. Normalmente si tratta di materiale di presentazione dell’ente e delle sue funzioni, cui si accompagna la possibilità di “scaricare” documenti di vario genere (testi normativi, manuali
di istruzioni, moduli e formulari). Talvolta l’utente è abilitato a estrarre dagli archivi
elettronici della pubblica amministrazione i dati che lo riguardano e a effettuare l’aggiornamento degli stessi. Tuttavia, Internet rimane un mero deposito di informazioni, la
cui elaborazione e utilizzazione sono affidate per intero allo sforzo del lettore umano.
I sistemi basati sulla conoscenza possono apportare un importante progresso nell’uso di Internet da parte della Pubblica Amministrazione: essi non si limitano a fornire
documenti, ma impiegano le regole associate ai documenti per agevolare lo svolgimento
delle relative attività amministrative. Tali sistemi sono particolarmente utili nei processi
decisionali “determinativi”, cioè a quelli volti a stabilire quali obblighi e diritti spettino
ai cittadini in base alla legge, e in particolare nei processi volti a stabilire se il cittadino
possegga i requisiti per accedere a un certo servizio pubblico e a quali condizioni possa
avervi accesso.330
I sistemi basati sulla conoscenza non sono quindi esperti automatici in grado di sostituirsi al funzionario pubblico, ma piuttosto strumenti che forniscono un aiuto intelligente
al richiedente del servizio o al funzionario che lo gestisce. Si tratta di un aiuto che può
integrarsi con funzionalità informatiche ulteriori (la ricerca di documenti, la fornitura
di moduli, la loro predisposizione automatica) e soprattutto con le attività dell’utente
e del funzionario stesso.331 L’esperienza delle pubbliche amministrazioni che più ampiamente hanno utilizzato sistemi basati sulla conoscenza (quella australiana, inglese e
olandese) indicano come questa tecnologia possa avere un impatto positivo non solo sull’applicazione amministrativa di norme giuridiche, ma anche sulla formulazione delle
norme stesse. Al fine di predisporre una base di conoscenza bisogna infatti tradurre i
testi giuridici in regole tanto precise da essere automaticamente applicabili. Emergono
cosı̀ le incoerenze e le lacune della normativa da applicare (e le possibilità di riformularne i contenuti con maggiore precisione e chiarezza), e da ciò si possono trarre utili
indicazioni per il legislatore, che può essere invitato a porre rimedio ai difetti delle sue
statuizioni.
302
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
Non deve essere sottovalutato il rischio che l’uso di sistemi basati sulla conoscenza nella pubblica amministrazione conduca a un’applicazione rigida e iniqua del diritto,
sorda alle esigenze del caso concreto, a una forma estrema di legalismo che vincolerebbe
l’attuazione del diritto non solo al testo legislativo ma anche alla particolare interpretazione dello stesso che si è deciso di inserire nel sistema informatico. Queste critiche
possono però trovare risposta non tanto nel richiamarsi a superiori esigenze di certezza
ed efficienza (che renderebbero sopportabili rigidità e iniquità), ma piuttosto nel ribadire
che i sistemi basati sulla conoscenza non sminuiscono necessariamente né il ruolo del richiedente un servizio pubblico né quello del funzionario competente. Al contrario l’uso
di tali sistemi può accrescere le sfere di iniziativa e di autonomia informata del cittadino
e del pubblico funzionario incaricato di provvedere a un’attività regolata dal diritto. Ciò
può avvenire quando l’uso del sistema sia agevole e controllabile, esistano procedure
aperte ed efficaci per rivedere la base conoscenza quando essa conduca a conclusioni
inaccettabili, siano rispettati gli ambiti nei quali l’apprezzamento non predeterminato (o
predeterminato solo in parte) delle caratteristiche del caso concreto possa dare risultati
migliori dell’applicazione di regole predefinite. Nella prospettiva simbiotica sopra prospettata si tratta di progettare modalità di accesso e gestione che consentano di integrare
nel modo migliore attività umana ed elaborazione (e memoria) informatica, in modo che
la valorizzazione dell’iniziativa del cittadino e della competenza dell’amministrazione si
combini con i vantaggi che l’informatica può dare sotto i profili dell’informazione, dell’efficienza e della certezza. I sistemi basati sulla conoscenza giuridica possono essere
utilmente impiegati nei processi determinativi solo grazie all’integrazione delle seguenti
attività:
• l’attività dell’esperto informatico-giuridico che si occupa non solo dell’inseri-
mento, ma anche della correzione e revisione delle regole (nel caso di errori o
della necessità di tener conto di nuove informazioni), assicurando che la base di
conoscenza non contenga errori di diritto;
• l’attività del cittadino o del funzionario che inseriscono i dati sui casi concreti,
sulla base dell’esame delle circostanze di fatto e dell’interpretazione delle regole
da applicare;332
• l’attività del sistema, che si occupa della derivazione delle conseguenze deducibili
dalle regole in esso comprese e dei dati di fatto a esso forniti o cui abbia accesso.
6.4.5
I limiti dell’applicazione deduttiva di regole
I sistemi che applicano automaticamente, in modo puramente deduttivo, regole preesistenti nella loro base di conoscenza, trovano le maggiori applicazioni, come abbiamo
visto, nell’ambito della Pubblica Amministrazione. Essi non sono in grado di affiancare
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
303
il giurista nelle attività che formano la parte centrale del suo pensiero, che consiste nell’affrontare casi controversi, nell’identificare e valutare diversi argomenti, nel contribuire
alla formazione (o concretizzazione) del diritto.
Tali sistemi potrebbero svolgere per intero il ragionamento giuridico (e in particolare
il ragionamento giudiziario) solo se risultasse vera, presa alla lettera, la famosa frase di
Charles Montesquieu [1689-1755]:
I giudici della nazione non sono [. . . ] che la bocca che pronuncia le parole della
legge; esseri inanimati che non ne possono moderare né la forza né il rigore.333
Il pensiero giuridico si ridurrebbe allora al classico modello del cosiddetto sillogismo
giudiziale:
• le soluzioni giuridicamente corrette di ogni caso concreto sarebbero derivabili
da un insieme di premesse comprendente norme giuridiche generali (la legge) e
asserti fattuali specifici (i fatti del caso concreto), e
• tale derivazione consisterebbe in una deduzione (qualora le premesse normative e
fattuali fossero vere/valide saremmo assolutamente sicuri che anche le conclusioni
sarebbero vere/valide).334
Alla riduzione del ragionamento giuridico al modello sillogistico, come è noto, si oppongono però alcune fondamentali caratteristiche del diritto e, conseguentemente, alcuni
aspetti essenziali del ragionamento del giurista: le fonti del diritto spesso non forniscono
norme sufficienti a disciplinare tutti gli aspetti del caso (vi sono lacune), comprendono
norme che si contraddicono (vi sono antinomie) o il cui contenuto rimane indeterminato (vi sono ambiguità e vaghezze), includono casi particolari (precedenti), da cui si
possano trarre indicazioni solo mediante analogie o prospettando spiegazioni e generalizzazioni.335 Inoltre, in certi casi può essere necessario andare al di là dell’applicazione
di regole e precedenti, e considerare i valori individuali e sociali perseguiti dal diritto, e
i modi in cui massimizzarne la realizzazione, nel rispetto delle aspettative dei cittadini e
delle funzioni che competono alle diverse istituzioni giuridiche e politiche.336
Secondo alcuni, l’uso di sistemi basati su regole in abito giuridico presupporrebbe
l’accettazione del modello sillogistico del ragionamento giuridico, l’idea che il diritto si
riduca a un insieme di regole e che il ragionamento giuridico consista nell’applicazione
“meccanica” (deduttiva) di tali regole.337 Questo errore teorico determinerebbe l’inutilità pratica di tali sistemi: non rappresentando fedelmente il diritto e il ragionamento
giuridico, essi sarebbero inutili o anzi dannosi, conducendo necessariamente a risultati
scorretti o ingannevoli.
A mio parere è vero che i sistemi basati sull’applicazione deduttiva del diritto si
limitano a cogliere un aspetto limitato del ragionamento giuridico, ma ciò non postula un
errore teorico e non ne determina l’inutilità pratica. Infatti, le limitazioni di questi sistemi
non ne escludono l’utile impiego, nella piena consapevolezza di tali limitazioni. In un
304
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
modello simbiotico di interazione uomo-macchina è possibile affidare alla macchina la
registrazione delle regole, la loro l’applicazione deduttiva e il prelievo dei dati fattuali già
disponibili in forma elettronica, e affidare invece all’uomo la formulazione delle regole,
il controllo sul funzionamento del sistema e l’inserimento e la qualificazione giuridica
di nuovi dati fattuali.338
6.4.6
Intelligenza artificiale e dialettica giuridica: il ragionamento
defeasible
Le ricerche degli ultimi anni hanno evidenziato come l’informatica giuridica possa andare al di là dei limitati risultati conseguibili nell’ambito del modello deduttivo, operando
in due direzioni complementari:
• la costruzione di precisi modelli dei ragionamenti giuridici non-deduttivi, la crea-
zione, cioè, di una nuova logica giuridica formale, più estesa dei tradizionali
modelli deduttivi;339
• lo sviluppo, sulla base di tali modelli, di software che possano agevolare la ricerca
e l’elaborazione di informazioni giuridiche.
Non è possibile presentare qui la vasta gamma delle ricerche innovative che, nel corso
degli ultimi decenni, hanno contribuito alla crescita degli studi di intelligenza artificiale
e diritto, ricerche che vertono su aspetti come l’analogia sulla base dei precedenti,340
lo sviluppo di teorie giuridiche basate su regole e casi, 341 la logica dei concetti normativi,342 la ricerca delle informazioni sulla base dei concetti, 343 la generazione di
documenti, 344 ecc.
Qui mi limiterò a illustrare brevemente una particolare direzione di ricerca, che ritengo particolarmente significativa, il tentativo di sviluppare nuovi modelli formali dell’argomentazione giuridica. L’idea fondamentale è che sia possibile e utile predisporre
strumenti logici e informatici capaci di affrontare la dialettica del ragionamento giuridico, superando i limiti del ragionamento sillogistico. Infatti, quando la soluzione a un
problema giuridico controverso è presentata quale risultato di una deduzione da regole
giuridiche date, la spiegazione risulta monca: non indica perché i testi sono stati interpretati in un certo modo, perché altri testi non sono stati presi in considerazione, quali
principi sono stati attuati e quali tralasciati, quali eccezioni si sono accolte o respinte,
quali obiettivi sono stati perseguiti e quali sono rimasti insoddisfatti. Chi intenda giustificare una decisione giudiziale o una soluzione dottrinale solo mediante un sillogismo,
è costretto a tacitare, a rimuovere (in quanto inesprimibile nel mezzo logico scelto),
proprio il nucleo del proprio processo raziocinativo-argomentativo, che rimane inarticolato, se non inconsapevole. Di conseguenza, la giustificazione stessa risulta monca e
insufficiente.345
A questo riguardo dobbiamo distinguere due diversi tipi di schema di ragionamento (e di corrispondenti inferenze): schemi conclusivi e schemi defeasible (vincibili).346
305
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
La differenza tra uno schema conclusivo e uno schema defeasibile è la seguente: se si
accettano le premesse di un’inferenza conclusiva se ne debbono necessariamente accettare anche le conclusioni; invece, è possibile respingere le conclusioni di un’inferenza
defeasible pur accettandone le premesse. Normalmente ricorriamo al ragionamento defeasible quando le nostre premesse sono generalizzazioni empiriche o norme suscettibili
di eccezione, come negli esempi seguenti.
• Premesse:
1.
SE
2.
[Tweety è un uccello];
[x è un uccello]
ALLORA
[x vola]
• Conclusione:
3.
[Tweety vola]
• Premesse:
SE
[x ha colpevolmente causato a y un danno ingiusto],
ALLORA
[x
deve risarcire il danno]
[Lucia ha colpevolmente causato a Renzo un danno ingiusto]
• Conclusione:
[Lucia deve risarcire il danno].
Possiamo continuare ad accogliere le premesse delle inferenze defeasible, anche quando informazioni ulteriori ci conducono ad abbandonarne le conclusioni. Per esempio,
se venissimo a sapere che [Tweety è un pinguino], non abbandoneremmo le
premesse già accolte (la convinzione che gli uccelli normalmente volano, e che Tweety
è un uccello), ma riterremmo di trovarci di fronte a un’eccezione a tale regola. Allo stesso modo, se venissimo a sapere che [Lucia ha agito per legittima
difesa], non abbandoneremmo l’idea che chi causa colpevolmente un danno ingiusto lo debba risarcire, ma riterremmo di trovarci di fronte a un’eccezione a tale regola
(l’esonero da responsabilità per legittima difesa).
Come abbiamo visto, un’inferenza defeasible è un argomento che si impone alla
nostra ragione, ma solo in modo provvisorio, cioè solo a condizione che non emergano eccezioni, contro-esempi, argomenti contrari di importanza preminente. Pertanto, il fatto che si accolgano le premesse dell’argomento che conduce a una certa conclusione può essere insufficiente a giustificare tale conclusione: un argomento dotato
di premesse valide perde la propria forza se viene sconfitto (defeated) da un controargomento. Per illustrare la dialettica di argomenti contrapposti dobbiamo considerare
brevemente la struttura degli argomenti e i modi in cui essi possono essere attaccati da
contro-argomenti.
La struttura fondamentale degli argomenti basati su regole è rappresenta in forma
generale nei grafi proposti dal Stephen Toulmin,347 nei quali si distinguono i dati di
partenza dell’argomento (data) e la regola generale (warrant), che consente di passare
306
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
Rossi ha causato un
danno ingiusto a Verdi
Argomento A
Rossi ha l'obbligo
risarcire il danno a Verdi
Rossi ha agito con
colpa
Chi causa ad altri un danno
ingiusto con dolo o colpa, ha
l'obbligo di risarcire il danno
Argomento B
Rossi non è responsabile
(non ha l'obbligo di
risarcire il danno)
Rossi ha agito in stato
di incapacità
Chi è incapace non è
responsabile (non ha
l'obbligo di risarcire il danno)
Argomento C
La regola dell'esonero da
responsabilità in caso di
incapacità non si applica
a Rossi
Rossi è divenuto incapace
per sua colpa
La regola dell'esonero da
responsabilità in caso di incapacità
non si applica a chi sia divenuto
incapace per sua colpa
Figura 6.7: Dialettica di argomenti: responsabilità civile
dai dati alla conclusione che si vuole sostenere (claim). Per esempio, nell’argomento A
della Figura 6.7, i dati sono costituiti dal fatto che Rossi ha causato un danno ingiusto a
Verdi agendo con colpa, la conclusione è rappresentata dall’obbligo risarcitorio a carico
di Rossi, e il nesso tra fatti e conclusione è fornito dalla regola generale che ogni fatto
doloso o colposo che causi ad altri un danno ingiusto obbliga l’autore al risarcimento.
Possiamo distinguere due modi in cui un argomento defeasible ↵ può essere contrastato. Il primo è detto rebutting,348 termine che forse possiamo tradurre con “contraddire”, e consiste nell’opporre ad ↵ un contro-argomento che contraddice la conclusione
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
307
di ↵: la conclusione di nega, o comunque è incompatible con la conclusione di ↵.
Il secondo è detto undercutting,349 che forse possiamo tradurre con recidere, e consiste
nell’opporre ad ↵ un contro-argomento che nega la forza argomentativa di ↵: afferma che le premesse di A sono inidonee a fondarne la conclusione (in particolare, può
contestare l’applicabilità della regola su cui si fonda, in ↵, il passaggio da premesse a
conclusioni).
Per esempio, l’argomento A della Figura 6.7 è contraddetto (rebutted) dall’argomento B secondo il quale Rossi non è responsabile essendosi stato incapace di intendere e
di volere nel momento dell’incidente.350
L’argomento B della Figura 6.7 (Rossi non è responsabile, in forza della sua incapacità) viene reciso (undercut) dall’argomento C secondo il quale l’incapacità di Rossi non
è rilevante (non lo scusa) poiché Rossi provocò colpevolmente il suo stato di incapacità,
per esempio, assumendo bevande alcoliche. Il fatto che Rossi abbia bevuto troppo non
è un’autonoma ragione per la quale egli debba essere ritenuto responsabile (si è responsabili per aver causato ad altri un danno ingiusto, non per la propria ubriachezza). Si
tratta invece di una ragione per disapplicare la regola secondo la quale chi è incapace
non è responsabile o, detto in altro modo, per escludere la rilevanza dell’incapacità, per
impedire (recidere) il passaggio dall’incapacità alla non-colpevolezza.
L’accoglimento delle premesse (i dati e la regola) di un argomento defeasible non
è sufficiente a garantire l’accettabilità della sua conclusione. A tal fine dobbiamo altresı̀ considerare se esistano contro-argomenti che contraddicano o recidano il nostro
argomento. Solo se tutti i contro-argomenti possono essere superati alla luce di considerazioni ulteriori, la conclusione dell’argomento risulta giustificata. Da ciò discendono
due aspetti importanti dell’interazione dialettica tra argomenti contrapposti.
Il primo aspetto consiste nella possibilità di ristabilire (reinstate) un argomento, attaccando gli argomenti che potrebbero sconfiggerlo. Un argomento può essere difeso
non solo producendo argomenti ulteriori che vanno nella stessa direzione (che ne ribadiscono la conclusione) ma anche, e soprattutto cercando di demolire i contro-argomenti
che a esso si oppongono (in modo da recuperare l’argomento stesso). Per esempio, l’argomento A appena presentato (Rossi è responsabile avendo danneggiato colpevolmente
Verdi) può essere difeso contro l’attacco del contro-argomento B (Rossi non è responsabile essendosi trovato in stato di incapacità), attaccando B con il nuovo contro-controargomento C (l’incapacità di Rossi è irrilevante, essendosela procurata Rossi stesso,
ingerendo sostanze alcoliche). C nell’invalidare B, fa in modo che A riacquisti la propria forza (C ristabisce A).351 Nel diagramma della Figura 6.7 lo stato dialettico di un
argomento è indicato dal colore dello stesso: gli argomenti in (validi, alla luce dell’informazione riportata nel diagramma) sono in chiaro, gli argomenti out (invalidi, alla luce
dell’informazione disponibile) sono ombreggiati. Il diagramma evidenza come l’argomento A, che sarebbe stato out sulla base del contro-argomento B, torna in una volta
che B diventi out, essendo invalidato dal suo contro-argomento C.
308
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
A.
La foto di Maria non può
essere pubblicata poiché ciò
viola la sua privacy
B.
La pubblicazione della foto
di Maria non viola la sua
privacy poiché Maria è
ritratta in un luogo pubblico
C.
La pubblicazione della foto
di Maria viola la sua privacy
anche se la ritrae in un
luogo pubblico, poiché Maria
è riconoscibile dalla foto
D.
La foto di Maria può essere
pubblicata poiché ciò
corrisponde all'altrui diritto
all'informazione
F.
Il divieto di pubblicare la foto
di Maria (quale violazione
della sua privacy) non si
applica perché Maria ha
consentito alla pubblicazione
della foto
E.
Il diritto alla privacy di Maria
prevale sull'altrui diritto
all'informazione poiché la
foto non attiene ad attività di
Maria aventi interesse
pubblico
Figura 6.8: Dialettica di argomenti: la privacy
Il secondo aspetto, invece, consiste nella possibilità di sostenere un argomento A,
contraddetto (rebutted) da un contro-argomento B, adducendo ulteriori argomenti che
indichino perché A debba prevalere su B. Per esempio, assumiamo che nella causa di
divorzio tra Rossi e Verdi, Rossi affermi (argomento A) il proprio diritto all’uso dell’abitazione della famiglia, essendo affidatario dei figli, e che Verdi (argomento B) opponga
il proprio diritto a possedere tale abitazione, in quanto proprietaria della stessa. A questo
punto, il contrasto tra i due argomenti può forse essere risolto affermando (argomento C)
la prevalenza dell’argomento di Rossi, poiché tale argomento corrisponde al preminente
interesse dei figli. L’esito del conflitto tra A e B è indeterminato quanto si considerino solo A e B. Esso acquista determinatezza alla luce della valutazione comparativa
motivata dall’ulteriore argomento C.352
Una dialettica argomentativa più complessa è illustrata nella Figura 6.8. Ripercorriamo brevemente questo esempio. S’immagini che la foto di una persona, chiamiamola
Maria, sia stata pubblicata in un giornale e che Maria chieda lumi al suo avvocato sui
possibili rimedi giuridici (l’esempio non intende essere giuridicamente accurato, ma si
limita a illustrare, nel modo più semplice, la logica qui proposta).
Il primo argomento considerato dal legale è il seguente:
A : La foto di Maria non può essere pubblicata, poiché ciò viola la sua privacy.
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
309
Da A, considerato isolatamente, possiamo trarre la conclusione che la foto di Maria
non poteva essere resa pubblica (la sua pubblicazione viola i diritti di Maria). Tuttavia,
l’avvocato deve considerare anche i possibili contro-argomenti, come B:
B : La pubblicazione della foto di Maria non viola la sua privacy, poiché la ritrae in
un luogo pubblico
Dinanzi ad argomenti in conflitto (come A e B nel nostro esempio) ci si trova in uno
stato di incertezza o perplessità: vi sono più argomenti in competizione ma, per quanto
è emerso finora, nessuno di essi prevale sugli altri, tutti tali argomenti sono difendibili,
ma nessuno è giustificato.
In generale, per determinare se un argomento giuridico sia giustificato, non basta
guardare a quell’argomento isolatamente. Al contrario bisogna collocare l’argomento
nel contesto di tutti gli argomenti rilevanti, cioè nel contesto argomentativo (argumentation framework) del caso. Come vedremo, al mutare del contesto argomentativo in cui un
argomento viene collocato può mutare lo status dell’argomento: argomenti che apparivano giustificati possono cessare di esserlo, mentre argomenti che apparivano sopraffatti
da argomenti in contrario, possono riacquistare forza.
Per esempio, se A fosse stato l’unico argomento rilevante nel caso di Maria, e nessuna obiezione (contro-argomento) si fosse potuta sollevare contro di esso, avremmo
dovuto accettare la sua conclusione. Invece nella cornice argomentativa che unisce A
e il controargomento B, A non è più giustificato (Maria non riesce a dimostrare che la
foto non poteva essere pubblicata).
Tuttavia l’avvocato di Maria, riflettendo ancora sulla causa, trova un argomento
contro B:
C : La foto di Maria viola la sua privacy, anche se la ritrae in un luogo pubblico,
poiché Maria è riconoscibile nella foto.
L’argomento C prevale contro B (essendo più specifico) e quindi priva B di rilevanza nel
caso in esame. Di conseguenza, nel contesto argomentativo costituito degli argomenti
A, B e C (dove A è attaccato da B, ma dove C attacca B e prevale su di esso) risulta
che A è giustificato (Maria dimostra che la sua foto non poteva essere pubblicata).
Vi è però un altro possibile argomento a favore della pubblicazione della foto: essa
realizza l’interesse del pubblico (assumiamo che Maria rivesta un ruolo pubblico).
D : La foto di Maria può essere pubblicata poiché ciò realizza l’interesse del pubblico
Il nuovo argomento D porta un nuovo attacco contro l’argomento A. Nel contesto argomentativo A, B, C, e D, risulta che A non è più giustificato (Maria non riesce a
dimostrare che la sua foto non poteva essere pubblicata). A questo punto, l’avvocato perplesso ricorre al meta-ragionamento. Egli sviluppa un nuovo argomento (E) che
adduce ragioni a favore della prevalenza di uno degli argomenti in conflitto:
310
6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO
E : Il diritto alla privacy prevale sull’interesse del pubblico alla conoscenza, poiché la
foto non attiene ad attività di Maria aventi interesse pubblico.
Grazie all’aiuto fornitogli dal nuovo argomento E, A appare ora superiore a D, e quindi
capace di prevalere su di esso e di emergere dal conflitto come giustificato. In altre
parole, nel contesto argomentativo costituito dagli argomenti A, B, C, D, E (dove A e
D si attaccano reciprocamente, e E afferma che A è superiore a D), A risulta giustificato
(Maria dimostra che la sua foto non poteva essere pubblicata).
Il ragionamento dell’avvocato, purtroppo, non è ancora finito. Nel colloquio con la
cliente emerge che ella aveva consentito alla pubblicazione della propria foto. Abbiamo
cosı̀ un nuovo argomento:
F : Il divieto di pubblicare la foto di Maria (in quanto attinente alla sua privacy) non
si applica poiché Maria ha consentito alla pubblicazione della foto.
Nel contesto argomentativo rappresentato dagli argomenti A, B, C, D, E, e F , risulta
che A non è più giustificato (quindi Maria non riesce a dimostrare che la sua foto non
poteva essere pubblicata). L’argomentazione potrebbe continuare indefinitamente (per
esempio, si potrebbe sostenere che il consenso di Maria era stato revocato, cosa che
rende inapplicabile la regola del consenso), ma quanto detto finora può dare sufficiente
supporto alla tesi che il ragionamento giuridico consiste nella dialettica tra argomenti
e contro-argomenti, e che tale dialettica fa sı̀ che il ragionamento giuridico sia defeasible: le conclusioni che appaiono giustificate alla luce di certi argomenti possono essere
inficiate da argomenti ulteriori.353(m)
Questo pur sommario esempio dovrebbe essere sufficiente a illustrare l’idea fondamentale che caratterizza i tentativi di costruire modelli formali della dialettica giuridica.
Si tratta di affrontare situazioni nelle quali vi sono numerosi argomenti in gioco. Alcuni
stanno combattendo per la supremazia, altri danno sostegno ad alcuni dei combattenti
(per esempio, fornendo ragioni per le quali essi dovrebbero prevalere sui propri oppositori), altri negano l’applicabilità di altri argomenti, e cosı̀ via. Il compito di una logica
dialettica è quello di dirci non solo quali argomenti siano costruibili utilizzando premesse date, ma anche di determinare quali argomenti emergano vincitori (giustificati) dallo
scontro con i loro contro-argomenti, quali siano sconfitti, e quali siano difendibili (non
sconfitti, ma neppure vincitori).
Logiche degli argomenti, come quella appena presentata sono state usate per realizzare sistemi informatici che, anziché limitarsi a fornire una risposta univoca ai quesiti
loro proposti, elaborino giustificazioni per la soluzione di punti controversi, suggeriscano argomenti possibili, valutino lo stato degli argomenti alla luce dell’architettura argomentativa complessiva risultante dalle informazioni fornite al sistema (gli argomenti, i
contro-argomenti e i meta-argomenti costruibili con tali informazioni e le loro relazioni).354 La realizzazione di tali sistemi richiede nuovi linguaggi per la rappresentazione
della conoscenza, sufficientemente espressivi da cogliere le strutture fondamentali della
CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE
311
conoscenza giuridica (le regole, i diritti, i casi, i principi, i valori, ecc.) e nuovi metodi
di inferenza, che riproducano i passi tipici del ragionamento giuridico (l’applicazione di
regole, il riferimento ai precedenti, il ragionamento teleologico, ecc.).355
Uno sviluppo ulteriore consiste nella realizzazione di sistemi tesi ad agevolare le
discussioni giuridiche (cooperative o conflittuali) indicando alle parti, in ogni momento
della loro interazione, quale sia lo stato di ogni argomento, e quali nuovi argomenti
possano essere rilevanti per l’oggetto della discussione. Inoltre tali sistemi mirano a
organizzare le informazioni fornite nel corso del dialogo in un’architettura di argomenti
e contro-argomenti (ragioni e contro-ragioni), dove ogni argomento sia collegato agli
argomenti che sostiene o attacca. Chi entra nella discussione può quindi accedere più
facilmente al punto del dibattito che lo interessa maggiormente, o rispetto al quale egli
voglia fornire un contributo. Tra le applicazioni, ricordo i sistemi intesi a promuovere
il dialogo democratico (la discussione di temi politici e amministrativi), o a facilitare
la soluzione di controversie mediante conciliazione. Questi sistemi si scontrano però
con la difficoltà di tradurre in strutture logiche uniformi (necessarie affinché il sistema
possa organizzare le argomentazioni fornite dalle parti), le molteplici e complesse forme
linguistiche in cui si svolge il dibattito giuridico.356
Fly UP