Comments
Description
Transcript
L`intelligenza artificiale
Capitolo 6 L’intelligenza artificiale L’ultimo capitolo del volume è dedicato al più affascinante e controverso tra i temi dell’informatica, l’intelligenza artificiale, cioè il tentativo di creare sistemi artificiali dotati di intelligenza.264 Si presenterà dapprima una breve introduzione alla storia delle ricerche di intelligenza artificiale, in modo che il lettore possa cogliere le linee evolutive e le prospettive di sviluppo di questa disciplina. Poi si esamineranno i due principali modelli impiegati nello sviluppo dei sistemi di intelligenza artificiale, il modello fondato sulla rappresentazione esplicita della conoscenza e sulla sua elaborazione mediante ragionamento, e il modello fondato sulla rappresentazione implicita della conoscenza, in reti neurali, e sulla sua elaborazione mediante l’attivazione di tali reti. Ci si soffermerà infine su un’applicazione dell’intelligenza artificiale che già oggi appare matura e capace di fornire utili risultati al giurista, il modello del sistema basato su regole. Si proporranno infine alcune considerazioni sulle ricerche in corso e in particolare sulla possibilità di riprodurre la dialettica giuridica. 6.1 L’intelligenza Come è noto, manca una definizione univoca e condivisa di intelligenza. Uno dei più autorevoli testi introduttivi in materia, l’Oxford Companion to the Mind, apre la trattazione della voce “intelligence” dicendo che “sono disponibili innumerevoli test per misurare l’intelligenza, ma nessuno sa con sicurezza che cosa sia l’intelligenza, e addirittura nessuno sa con sicurezza che cosa misurino i test disponibili”.265 Si suole peraltro convenire che l’intelligenza si rivela nella capacità di svolgere funzioni come le seguenti: adattamento all’ambiente (o a nuove situazioni), apprendimento dall’esperienza, pensiero astratto, utilizzo efficiente di risorse limitate, comunicazione, ecc. Tuttavia, manca l’accordo sulla caratterizzazione della supposta competenza unitaria (l’intelligenza) cui ineriscono le diverse abilità ricondotte nel concetto di intelligenza. L’intelligenza è infatti un fenomeno complesso, oggetto di diverse discipline,266 tra cui possiamo ricordare brevemente le seguenti: 269 270 6.1. L’INTELLIGENZA • la filosofia, che fin da Platone e Aristotele ha individuato nell’intelligenza o ra- • • • • • zionalità una caratteristica fondamentale dell’uomo e uno dei temi della propria ricerca,267 e ha studiato i procedimenti del pensiero (logica), i metodi della conoscenza e della scienza (gnoseologia ed epistemologia), e le strutture concettuali (ontologia); la matematica, che ha formalizzato i metodi del pensiero nei linguaggi e nelle tecniche della logica formale e della teoria della probabilità, e ha altresı̀ studiato i problemi della computabilità; l’economia, che ha elaborato tecniche per l’uso efficiente di risorse limitate, anche in contesti nei quali la determinazione e la valutazione delle conseguenze delle azioni è difficile (teoria delle decisioni) o nei quali il singolo agente deve tener conto delle scelte altrui (teoria dei giochi); la medicina, che ha studiato l’elaborazione delle informazioni nel cervello e il rapporto tra stimoli sensoriali e loro elaborazione neurale (neurologia); la psicologia, che ha studiato il funzionamento della mente umana, in particolare nell’apprendimento (psicologia cognitiva), rappresentandola come un processo di elaborazione di informazioni (scienza cognitiva); la linguistica, che ha studiato i procedimenti che danno luogo alla formulazione e alla comprensione del linguaggio, traducendoli talvolta in programmi informatici (linguistica computazionale). L’intelligenza artificiale ha tratto ispirazione da tutte le ricerche appena menzionate, ma ha aggiunto a esse un aspetto ingegneristico: essa non vuole solo studiare l’intelligenza, ma si propone di costruirla, di dar vita ad artefatti intelligenti. L’obiettivo ingegneristico dell’intelligenza artificiale non esclude che essa possa contribuire alla conoscenza dell’intelligenza umana. Come osservava Gian Battista Vico [1668-1744] verum esse ipsum factum (il vero è ciò che è fatto), o verum et factum convertuntur (il vero e il fatto si convertono l’uno nell’altro): come dallo studio dell’intelligenza umana si possono trarre utili indicazioni al fine della costruzione dell’intelligenza artificiale, cosı̀ la costruzione dell’intelligenza artificiale (il fatto) ci aiuta a cogliere la natura dell’intelligenza (il vero) e in particolare possiamo trarne ipotesi (da verificare empiricamente) circa il funzionamento dell’intelligenza umana.268 Infatti, poiché le facoltà conoscitive da realizzare nei sistemi di intelligenza artificiale corrispondono alle facoltà in cui si esplica l’intelligenza naturale (umana o animale), non dobbiamo stupirci se l’intelligenza artificiale trae ispirazione dall’intelligenza naturale, trovando in essa soluzioni appropriate alle proprie esigenze di elaborazione dell’informazione, né dobbiamo stupirci se ritroviamo nell’intelligenza naturale (nelle strutture cerebrali o nei processi mentali) alcune soluzioni ingegneristiche elaborate dall’intelligenza artificiale. Ciò non comporta tuttavia una completa identità, soprattutto perché l’intelligenza umana si realizza mediante un hardware (le cellule cerebrali) profondamente diverso dall’hardware dell’intelligenza artificiale (chip di silicio). Pertanto, talune forme di elaborazione dell’informazione (co- CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 271 me l’effettuazione rapida di calcoli aritmetici, con grandi numeri, o il concatenamento di numerose regole) possono essere più adatte all’intelligenza artificiale che all’intelligenza umana. All’opposto, altre forme di elaborazione dell’informazione (come quelle attinenti alla connessione di dati percettivi o mnemonici secondo analogie non predeterminate) “naturali” per l’uomo, allo stato dell’arte non sono riproducibili facilmente in sistemi informatici. 6.1.1 Modelli di intelligenza artificiale Stuart Russell e Peter Norvig distinguono i diversi modi di accostarsi all’intelligenza secondo due diverse dimensioni:269 • l’idea che l’intelligenza consista esclusivamente nel pensiero (rappresentazione della conoscenza e ragionamento) si contrappone all’idea che essa includa altresı̀ l’interazione con l’ambiente (percezione e azione); • l’obiettivo di riprodurre fedelmente le capacità intellettive dell’uomo (con tutti i loro limiti) si contrappone all’obiettivo di realizzare sistemi capaci di razionalità (cioè di elaborare informazioni in modo ottimale) prescindendo dai limiti della razionalità umana. Conseguentemente, gli stessi autori propongono lo schema della Figura 6.1, che riporta diverse autorevoli definizioni di intelligenza artificiale distinguendole a seconda di come si collocano rispetto alle due dimensioni appena indicate. Non posso qui esaminare approfonditamente queste distinzioni, e ci limiteremo pertanto ad alcune brevi considerazioni. Per quanto attiene alla distinzione tra pensiero e azione, ricordo come anche il pensiero non possa essere astratto dall’azione. Vi è infatti nel ragionamento di un agente intelligente un continuo collegamento tra il momento epistemico (volto a determinare come stanno le cose, come è fatto il contesto nel quale l’agente si trova e quali dinamiche lo caratterizzano) e il momento pratico (volto a determinare il comportamento più appropriato rispetto agli interessi dell’agente e al contesto della sua azione): i nostri interessi epistemici (quali cose desideriamo conoscere) sono determinati anche dai nostri obiettivi pratici, e i modi del perseguimento dei nostri obiettivi pratici (e il giudizio preliminare sulla possibilità di raggiungere tali obiettivi) dipendono dalle nostre conoscenze epistemiche.270 L’attenzione per l’aspetto pratico è cresciuta negli anni più recenti quando—in parallelo con sviluppi tecnologici di cui parleremo nelle pagine seguenti, come in particolare la creazione di robot fisici ed elettronici e l’emergere dell’intelligenza ambientale—si sono sviluppate indagini volte a cogliere il comportamento razionale nella relazione tra l’agente e il suo ambiente. Tali ricerche hanno enfatizzato aspetti dell’intelligenza non riducibili al ragionamento in senso stretto, come la percezione, la capacità di esplorare attivamente l’ambiente, e la comunicazione.271 272 6.1. L’INTELLIGENZA Sistemi che pensano come esseri umani Sistemi che pensano razionalmente “Il nuovo eccitante tentativo di fare in modo che i calcolatori pensino [. . . ] di costruire macchine dotate di menti, nel senso pieno e letterale”272 “[L’automazione delle] attività che associamo con il pensiero umano, attività quali prendere decisioni, risolvere problemi, imparare”273 “Lo studio di facoltà mentali mediante l’uso di modelli computazionali”274 “Lo studio delle elaborazioni che rendono possibile percepire, ragionare, e agire”275 Sistemi che agiscono come esseri umani Sistemi che agiscono razionalmente “L’arte di creare macchine che svolgono funzioni che richiederebbero intelligenza quando svolte da persone”276 “Lo studio di come far fare ai calcolatori cose nelle quali, al momento, le persone sono migliori”277 “L’intelligenza computazionale è lo studio della progettazione di agenti intelligenti”278 “L’IA [. . . ] si occupa del comportamento intelligente negli artefatti”279 Figura 6.1: Definizioni dell’intelligenza artificiale (IA) Per quanto attiene alla distinzione tra l’obiettivo di riprodurre pienamente il pensiero umano (comprese le sue irrazionalità) e quello di sviluppare invece procedure cognitive pienamente razionali, molto dipende dall’obiettivo di un’applicazione di intelligenza artificiale: simulare l’uomo o affrontare nel modo migliore certi problemi. Bisogna però di ricordare che la conoscenza dei procedimenti cognitivi e deliberativi è ancora assai limitata: vi sono molte cose che l’uomo riesce a fare in modo appropriato spontaneamente, senza sapere in che modo riesca a raggiungere tale risultato. La natura ci ha dotato di capacità adatte ad affrontare in modo adeguato il mondo in cui ci troviamo280 e siamo in grado di utilizzare tali facoltà pur senza conoscere le modalità del loro funzionamento, e quindi, a maggior ragione, senza conoscere le ragioni a sostegno di tali modalità. Ciò vale non solo per capacità specifiche (come quella di riconoscere le facce delle persone che incontriamo) ma anche per le nostre generali capacità linguistiche, logico-matematiche, e in generale per le competenze richieste nella soluzione di problemi. A questo riguardo è opportuno ricordare il concetto di razionalità limitata, elaborato dallo studioso di intelligenza artificiale (e premio Nobel per l’economia) Herbert Simon. Scelte che appaiono irrazionali con riferimento a un concetto ideale di razionalità (non assicurando un risultato ottimale, cioè il migliore risultato possibile) possono invece apparire appropriate (razionali nella misura in cui ci è possibile esserlo) quando si con- CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 273 siderino i limiti delle nostre capacità conoscitive e la complessità dell’ambiente.281 La nostra stessa ragione ci vieta di sprecare le nostre energie nell’impossibile ricerca della scelta ottimale, e ci richiede invece di seguire procedure cognitive fallibili, ma rapide ed economiche (richiedenti un impegno limitato delle nostre risorse mentali) che conducano a risultati sufficientemente buoni (anche se non ottimi) nella maggior parte dei casi.282 Queste procedure fallibili tese a economizzare le energie richieste dall’impiego della ragione sono chiamate euristiche. In conclusione, ciò che può apparire un difetto della razionalità umana (una forma di irrazionalità), può invece rivelarsi una procedura cognitiva appropriata per una razionalità limitata: emulare (copiare) l’intelligenza umana, anche in aspetti apparentemente irrazionali (o solo limitatamente razionali) può talvolta condurre a soluzioni efficaci. 6.1.2 Intelligenza artificiale forte e intelligenza artificiale debole Una distinzione importante, che si sovrappone a quelle appena tracciate, è quella tra intelligenza artificiale forte (strong artificial intelligence) e intelligenza artificiale debole (weak artificial intelligence). Secondo la caratterizzazione che ne dà John Searle, illustre studioso del linguaggio e della mente, l’intelligenza artificiale forte muove dall’assunto che anche i calcolatori siano capaci di stati cognitivi e di pensiero (nel modo in cui ne è dotato un essere umano) e conseguentemente si propone di costruire menti artificiali.283 Per questo indirizzo “il calcolatore appropriatamente programmato è realmente una mente, si può cioè dire letteralmente che i calcolatori dotati dei programmi giusti capiscono e hanno stati cognitivi”.284 L’intelligenza artificiale debole invece si propone di realizzare sistemi artificiali capaci di svolgere compiti complessi, sistemi che possono mimare (simulare) aspetti dei processi cognitivi umani, ma che non possono riprodurre quegli stessi processi (non sono in grado di pensare, non possiedono una mente). Il dibattito circa la possibilità di sviluppare, mediante elaboratori elettronici, forme di intelligenza artificiale forte, cioè vere menti artificiali, può essere fatto risalire al fondamentale contributo di Alan Turing, che già nel 1936 si interrogava non solo sulla possibilità di sviluppare macchine intelligenti, ma anche su come verificare quando e in quale misura questo risultato potesse considerarsi raggiunto. A tale fine egli proponeva un test ispirato a un gioco di società. il “gioco dell’imitazione”, nel quale una persona interroga due interlocutori di sesso diverso, al fine di determinare chi di questi sia l’uomo e chi la donna (senza avere contatto diretto con gli stessi). Nel gioco di Turing lo scopo dell’interrogante è invece quello di distinguere l’interlocutore umano e l’interlocutore elettronico, il calcolatore (Figura 6.2).285 Si avrà la prova che l’intelligenza artificiale è stata realizzata quando un sistema informatico riuscirà a ingannare l’interrogante, facendogli credere di essere una persona (quando l’interrogante, nel gioco dell’imitazione, attribuirà l’identità umana con la stessa probabilità all’interlocutore umano e a quello elettronico).286 Nessun sistema ha ancora superato il test di Turing, e anzi nessun siste- 274 6.1. L’INTELLIGENZA Figura 6.2: Il test di Turing ma si è avvicinato a questo risultato.287 Se ne può trarre la conclusione rassicurante che l’intelligenza artificiale è ancora ben lontana dal raggiungere l’intelligenza umana, nel campo della comunicazione non ristretta.288 Tuttavia, il test di Turing solleva un importante problema teorico, che ci possiamo porre in astratto, indipendentemente dalla possibilità concreta di realizzare oggi, o nel prossimo futuro, un sistema che superi il test. Ci possiamo cioè chiedere se un sistema che, in ipotesi, riuscisse a superare il test sarebbe una vera intelligenza artificiale, o invece sarebbe solo un mero “idiota sapiente”, che si limita a fingere di essere intelligente, che simula una mente senza possederla veramente. Infatti, il test di Turing è puramente comportamentale: per superarlo è sufficiente che la macchina si comporti come un essere umano, non è necessario che esso abbia veramente una mente, dei pensieri. Vi è stato pertanto chi ha affermato l’impossibilità teorica di realizzare sistemi informatici capaci di attività mentale (di pensiero in senso proprio), quali che siano le prestazioni offer- CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 275 te dagli stessi (anche se tali prestazioni comportino il superamento del test di Turing). Di conseguenza, l’intelligenza artificiale forte sarebbe impossibile in linea di principio, indipendentemente da futuri sviluppi tecnologici. In particolare questa tesi è stata sostenuta da John Searle. Per criticare le pretese dell’intelligenza artificiale forte Searle ha sviluppato un celebre esperimento mentale, il cosiddetto “argomento della stanza cinese”. Searle ci invita a immaginare che una persona capace di parlare solo la lingua inglese (non il cinese) sia chiusa in una stanza dotata di una fenditura verso l’esterno. La stanza contiene dei fogli di carta e un enorme volume. Il volume è un manuale di istruzioni che specifica come, una volta ricevuto un input consistente in una sequenza di caratteri cinesi, si debba produrre un output consistente in un’altra sequenza degli stessi caratteri. Le regole collegano a ogni input l’output appropriato (la risposta che giudicheremmo appropriata in una conversazione tra persone che conoscono il cinese), ma sono formali, nel senso che fanno riferimento solo alla forma della comunicazione, cioè alla sequenza con la quale i caratteri di input sono presentati (per applicare le regole non bisogna conoscere il significato dei simboli). Ecco come funziona la stanza cinese (come opera la persona al suo interno). Dalla fenditura viene immesso un foglio di carta che riporta caratteri cinesi (incomprensibili a chi non conosca questa lingua). Seguendo esattamente le istruzioni del manuale, la persona nella stanza scrive su un foglio bianco la risposta (i caratteri cinesi) che le regole del manuale collegano ai caratteri indicati nei fogli di input, e spinge il foglio attraverso la fenditura. Le risposte che escono dalla camera cinese, in ipotesi, sono indistinguibili da quelle che potrebbero essere fornite da una persona capace di parlare il cinese. Di conseguenza, (tralasciando il problema dei tempi di risposta) la camera cinese riuscirebbe a superare il test di Turing (l’interrogante non sarebbe in grado di stabilire se sta dialogando con la stanza o con un cinese). Searle sostiene però che la persona all’interno della stanza cinese si è limitata a manipolare simboli a lei incomprensibili: anche se quella persona risponde come un parlante cinese, le è precluso l’accesso al significato dei simboli cinesi. Ora, uscendo dalla metafora, la persona nella stanza cinese è il calcolatore, guidato da un software (il manuale di istruzioni). Pertanto, Searle conclude che anche un calcolatore capace di conversare come un essere umano non è capace di pensieri, non ha una mente, si limita alla cieca manipolazione di simboli. Numerosi studiosi di intelligenza artificiale hanno raccolto la sfida di Searle, e hanno contestato il suo argomento. Alcuni hanno obiettato che, anche se l’uomo all’interno della stanza cinese non capisce il cinese, l’intero sistema consistente nella stanza, la persona, e il manuale di regole è in grado di capire il cinese, consistendo la comprensione di una lingua nella capacità di rispondere a input in quella lingua producendo output appropriati nella stessa. L’errore di Searle consisterebbe nell’astrarre da tale sistema una sola componente (l’elemento che effettua le trasformazioni simboliche, corrispondente alla persona nella stanza). Sarebbe come chiedersi se la funzione mentale umana consistente nell’effettuazione di operazioni di ragionamento sia sufficiente a comprendere una 276 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE lingua, una volta separata dalla memoria, dalle conoscenze, dai sensi, ecc. Un’ulteriore critica attiene al fatto che tanto la mente umana quanto il calcolatore elaborano informazioni con velocità ed efficienza enormemente superiori rispetto all’operatore della stanza cinese. L’impressione che la stanza non capisca il cinese si basa su questa circostanza, non applicabile all’elaborazione informatica. Pertanto, non sarebbe giustificato estendere al calcolatore le conclusioni concernenti la camera cinese. Altri hanno osservato che la conclusione che la persona nella stanza (o la stanza nel suo insieme) non comprenda il cinese è determinata dal fatto che la comprensione di un linguaggio richiede la capacità di connettere le parole ai loro referenti reali, il che presuppone l’esperienza degli oggetti di cui parla il linguaggio (o almeno di alcuni di essi). Questo limite di un calcolatore isolato non si applica però ai sistemi automatici che uniscano capacità percettive (e possibilmente motorie) a quelle attinenti all’elaborazione e alla registrazione delle informazioni. Di conseguenza, i limiti della camera cinese non sono limiti dell’intelligenza artificiale: essi possono essere superati estendendo il sistema con dispositivi capaci di movimento e dotati di appropriati sensori. Altri infine hanno osservato che l’intelligenza è un fenomeno emergente da comportamenti meccanici anche nel caso del cervello umano: anche l’intelligenza umana nasce da processi non intelligenti, le operazioni “meccaniche” (i processi chimici e fisici) che hanno luogo all’interno dei singoli neuroni del cervello umano e nei contatti (sinapsi) tra gli stessi. Allo stesso modo le operazioni meccaniche che avvengono all’interno del calcolatore programmato possono dare origine all’intelligenza.289 6.2 Breve storia dell’intelligenza artificiale Da secoli l’uomo è affascinato e al tempo stesso impaurito dalla possibilità di realizzare entità intelligenti artificiali. Nell’antica Grecia ricordiamo il mito di Pigmalione, che scolpı̀ Galatea, una statua vivente (seppure grazie all’intervento divino), e il mito del dio Efesto, capace di costruire esseri animati di bronzo, come Talos, il guardiano di Creta. Passando dal mito all’ingegneria meccanica, possiamo menzionare nell’antichità gli automi costruiti da Erone di Alessandria (vissuto nel primo secolo, e inventore, tra l’altro, del motore a vapore), usati per animare le divinità nei templi. In epoche più vicine possiamo ricordare, nel mito, il Golem di Praga, creato per difendere il ghetto da attacchi antisemiti, che sfuggi però al controllo del suo creatore. Il termine robot—oggi utilizzato per designare le entità intelligenti artificiali capaci di azione e interazione, nel mondo fisico o in quello virtuale—trae origine dall’opera teatrale R.U.R. (sigla che sta per “Rossumovi univerzálnı́ roboti”, cioè “i robot universali di Rossum”), dello scrittore cecoslovacco Karel Capek [1890-1938], che diede questo nome agli esseri artificiali cui è dedicata tale opera. I robot di Capek sono andoidi costruiti per servire gli uomini, ma si ribelleranno ai loro padroni e ciò causerà la fine dell’umanità.290 CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 277 Il tema del rapporto tra intelligenza artificiale e intelligenza umana troverà sviluppo in numerose opere di fantascienza. Mi limito a ricordare l’opera di due autori, Arthur C. Clarke e Isaac Asimov. Clarke291 immaginò il calcolatore HAL (Heuristically programmed ALgorithmic computer), reso famoso dal film “2001 Odissea nello Spazio”, diretto da Stanley Kubrick. HAL—capace non solo di ragionare, ma anche di comprendere il linguaggio umano (non solo tramite il suono, ma anche “leggendo le labbra”), di avere emozioni e di cogliere le emozioni altrui—acquista una psicologia umana, anzi troppo umana: prima per impedire che si vengano a conoscere i suoi errori e poi per proteggere se stesso, si rivolge contro gli astronauti al cui viaggio avrebbe dovuto sovrintendere. Asimov analizza il problema del rapporto tra gli uomini e l’intelligenza artificiale (i robot) in numerosi volumi e racconti, superando lo schema dell’artefatto che si ribella al suo creatore. Nei racconti di Asimov i robot sono di regola esseri benevoli, il cui funzionamento si ispira alle tre leggi della robotica: 1. Un robot non può nuocere a un essere umano o consentire, mediante la propria omissione, che un essere umano subisca danno. 2. Un robot deve obbedire agli ordini impartitigli da esseri umani, eccetto che quando questi ordini confliggano con la prima legge. 3. Un robot deve proteggere la propria esistenza fintantoché tale protezione non confligga con la prima o la seconda legge.292 Tuttavia, nell’opera di Asimov, la benevolenza dei robot non esclude un aspetto problematico: la disponibilità di servitori robotici, con capacità superiori per molti aspetti a quelle umane, può indurre chi se ne serve a diventare dipendente dai propri schiavi meccanici, ad adagiarsi nella comodità, rinunciando all’iniziativa, rifiutando ogni rischio. Il tema della dipendenza dell’uomo dai propri servitori meccanici ripropone cosı̀ il tema della dipendenza del padrone dai propri schiavi, illustrato da Hegel nella sua Fenomenologia dello spirito.293 . Delegheremo tanta parte della nostra vita ai nostri aiutanti elettronici da perdere la capacità di pensare e agire autonomamente? Interporremo in tale misura i nostri schiavi elettronici tra noi e la soddisfazione dei nostri desideri (come direbbe Hegel) da divenire completamente passivi, ci trasformeremo in capricciose e inutili “macchine desideranti”, avendo trasferito ai nostri schiavi elettronici tutte le attività produttive e comunicative necessarie per soddisfare le nostre voglie, cosı̀ come le competenze e le conoscenze richieste a tal fine? 6.2.1 Gli entusiasmi dei pionieri e il paradigma dell’intelligenza artificiale simbolica La ricerca scientifica e tecnologica nel campo dell’intelligenza iniziò tra gli anni ’40 e gli anni ’50. Già nel 1943 Walter Pitts and Warren Sturgis McCulloch (due collaboratori di Norbert Wiener, l’inventore della cibernetica) mostrarono come reti di neuroni artificiali 278 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE potessero elaborare informazioni, dando avvio al tentativo di riprodurre il funzionamento dei neuroni del cervello umano, benché essi non utilizzassero calcolatori digitali (i neuroni erano realizzati mediante circuiti analogici).294 La nascita dell’intelligenza artificiale viene tuttavia solitamente ricondotta a una celebre conferenza tenutasi a Dartmouth (New Hampshire, USA), che riunı̀ per un mese alcuni tra i principali pionieri della materia. Lo scopo esplicito della riunione era lo studio dell’intelligenza automatica, partendo dall’ipotesi che “ogni aspetto dell’apprendimento e ogni altra caratteristica dell’intelligenza possa in principio essere descritto con tale precisione che si possa costruire una macchina capace di simularlo.295 La tesi fondamentale che ispirava gli studiosi riuniti a Dartmouth era infatti espressa dalla famosa ipotesi del sistema simbolico fisico (physical system hypothesis), cioè dall’ipotesi che l’intelligenza possa risultare dal funzionamento di un sistema che manipola strutture simboliche (per esempio, sequenze di parole o numeri) producendo altre sequenze simboliche, secondo determinati processi. Ecco come Alan Newell e Simon caratterizzano un tale sistema: Un sistema di simboli fisici consiste di un insieme di entità, chiamate simboli, che sono schemi fisici che possono presentarsi come componenti di un altro tipo di entità, chiamata espressione (o struttura simbolica). Pertanto una struttura simbolica è composta di un numero di istanze (o occorrenze) di simboli correlati in qualche modo fisico (ad esempio, un simbolo può essere adiacente a un altro simbolo). In ogni istante di tempo il sistema conterrà una collezione di queste strutture simboliche. Oltre a queste strutture, il sistema contiene anche una collezione di processi che operano sulle espressioni per produrre altre espressioni: processi di creazione, modificazione, riproduzione e distruzione. Un sistema simbolico fisico è una macchina che produce nel tempo una collezione di strutture simboliche in evoluzione.296 Secondo gli stessi autori “un sistema simbolico fisico ha i mezzi necessari e sufficienti per l’azione intelligente generale”.297 Dato che ogni sistema di simboli fisici può essere realizzato mediante una macchina universale (come la macchina di Turing) e dato che i moderni calcolatori sono macchine universali (Figura 2.1.3), l’ipotesi che un sistema di simboli fisici sia capace di intelligenza, implica che un calcolatore potrebbe dar vita all’intelligenza (una volta che fosse dotato di un software adeguato e di sufficiente memoria e capacità di calcolo). Come affermano Newell e Simon L’ipotesi del sistema di simboli fisici implica una teoria computazionale dell’intelligenza [. . . ] Pertanto l’ipotesi del sistema simbolico implica che l’intelligenza sarà realizzata da un calcolatore universale.298 Seguendo questa linea di pensiero non vi sono limiti assoluti o “filosofici” allo sviluppo dell’intelligenza automatica, si tratta solo di sviluppare tecnologie hardware, e soprattutto software, adeguate. In entrambe le direzioni vi furono notevoli progressi. Circa CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 279 le tecnologie hardware, furono inizialmente sviluppati calcolatori specificamente dedicati all’intelligenza artificiale, le cosiddette “macchine per il Lisp” (Lisp machine), ma la disponibilità di calcolatori “a scopo generale” (general purpose) sempre più potenti ed economici consentı̀ di usare questi ultimi anche per le applicazioni di intelligenza artificiale.299 Nel campo del software le ricerche si svilupparono in due direzioni complementari: tecniche per la rappresentazione della conoscenza in strutture simboliche, e tecniche per l’elaborazione di tali conoscenze, cioè per il ragionamento automatico. Ciò corrispondeva al paradigma dell’intelligenza artificiale “simbolica”, cioè all’assunto che un sistema capace di risolvere problemi in modo intelligente (intelligent problem solving) debba unire due aspetti: una rappresentazione simbolica (in un linguaggio appropriato) delle conoscenze rilevanti, e la capacità di trarre conclusioni fondate su tali conoscenze. Questa idea è espressa con chiarezza da John McCarthy e Paul Hayes (anche quest’ultimo fu tra i fondatori dell’intelligenza artificiale), che danno la seguente definizione di intelligenza. Un’entità è intelligente se ha un modello adeguato del mondo (inclusi il mondo intellettuale della matematica, la comprensione dei propri scopi e altri processi mentali), se è capace di rispondere a un’ampia varietà di domande sulla base di quel modello, se può trarre informazioni ulteriori dal mondo esterno quando necessario, e può effettuare nel mondo esterno i compiti richiesti dai suoi scopi e consentiti dalle sue capacità fisiche.300 La nozione di intelligenza, per gli stessi autori, comprende due parti: una parte epistemologica e una parte euristica.301 La parte epistemologica è una rappresentazione del mondo in una forma tale che la soluzione dei problemi derivi dai fatti espressi nella rappresentazione. La parte euristica è il meccanismo che sulla base dell’informazione risolve il problema e decide che cosa fare.302 Un’importante estensione del paradigma appena prospettato è il tentativo di affiancare alle teorie che descrivono i diversi domini dell’azione intelligente, meta-teorie intese a indicare come le prime teorie debbano essere usate, estese, e aggiornate. In questo modo, funzioni come l’apprendimento dall’esperienza o l’effettuazione di inferenze analogiche possono essere rese compatibili, almeno in una certa misura, con una concezione tendenzialmente statica della conoscenza (la conoscenza come rappresentazione del mondo all’interno del sistema intelligente). 6.2.2 Sviluppo e crisi delle ricerche di intelligenza artificiale Negli anni seguenti, il programma di ricerca dell’intelligenza artificiale (e in particolare, il paradigma “simbolico” appena tratteggiato) diede origine a numerosi risultati. Da un lato furono sviluppati numerosi sistemi “intelligenti”, cioè capaci di affrontare compiti 280 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE apparentemente tali da richiedere intelligenza (il gioco degli scacchi, la derivazione di teoremi matematici, la soluzione di problemi matematici o fisici, la traduzione automatica dall’una all’altra lingua, la visione meccanica, ecc.). Dall’altro lato furono realizzati alcuni strumenti che facilitavano grandemente la realizzazione di sistemi “intelligenti”, come in particolare il linguaggio Lisp. Questi successi condussero a previsioni esageratamente ottimistiche. Studiosi molto autorevoli si spinsero ad affermare che entro un prossimo futuro (uno o due decenni) sarebbero state disponibili macchine capaci di raggiungere l’intelligenza umana, di “svolgere ogni lavoro possa essere compiuto da un essere umano” (cosı̀ Simon, nel 1965) e di “avere l’intelligenza generale di un essere umano medio” (cosı̀ Minsky nel 1970). Il lento sviluppo delle applicazioni di intelligenza artificiale smentı̀ però queste previsioni: passare dai semplici esempi usati nelle applicazioni pionieristiche a sistemi utili per affrontare problemi reali si rivelò molto difficile. In particolare l’intelligenza artificiale non riuscı̀ ad affrontare in modo soddisfacente i compiti cognitivi (come la comprensione del linguaggio, o l’identificazione di oggetti nello spazio) che l’uomo compie spontaneamente e apparentemente senza sforzo. Si tratta delle funzioni comprese nella dotazione naturale della nostra specie, che vengono effettuati utilizzando le conoscenze attinenti al “senso comune”, appartenenti a ogni persona normale (in parte innate, in parte acquisite nel corso della normale socializzazione). Negli anni seguenti l’accento passò pertanto al tentativo di risolvere problemi riguardanti invece ambiti specialistici, nei quali la soluzione potesse essere ottenuta derivandola da un’ampia base di conoscenze concernenti un particolare settore. Si trattava quindi di realizzare sistemi esperti capaci di risolvere in modo intelligente (utilizzando un’ampia base di conoscenze) problemi che richiedessero una particolare competenza (expertise), come quella di cui è dotato un esperto umano. Si elaborarono conseguentemente tecniche per la rappresentazione della conoscenza in forme tali da renderla elaborabile automaticamente, e procedure per utilizzare ampie basi di conoscenza nella soluzione di problemi. Tra tali tecniche ebbe importanza crescente l’uso di metodi per il ragionamento automatico ispirati alla logica: se le procedure inferenziali di un sistema esperto potevano essere ricondotte alla logica, intesa in senso ampio come l’insieme dei metodi del ragionamento corretto, allora si poteva fare affidamento nel funzionamento del sistema stesso. La logica computazionale (l’effettuazione automatica di inferenze logicamente corrette) conobbe infatti un rapido sviluppo. In particolare, all’inizio degli anni ’70 fu inventato il Prolog, un linguaggio logico semplice e intuitivo, basato su una parte della logica predicativa, per il quale furono definite procedure di inferenza molto efficienti. Tra gli anni ’70 e ’80 furono sviluppati numerosi sistemi esperti, e alcuni di essi conseguirono risultati significativi in diversi campi, come la diagnosi medica, l’analisi delle strutture molecolari o la progettazione di sistemi informatici.303 CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 281 In questi anni iniziarono anche i primi studi in materia di intelligenza artificiale e diritto e, come vedremo nel seguito, non mancarono i tentativi di realizzare sistemi esperti di diritto. Anche nell’ambito dei sistemi esperti ai primi entusiasmi fece seguito una profonda delusione. Si dovette costatare che i sistemi realizzati non erano in grado di sostituire la prestazione di un professionista esperto, ma semmai di integrarne la competenza. L’attività di un esperto non si limita infatti all’applicazione di conoscenze preesistenti, ma richiede attività ulteriori, come l’esame del caso concreto, la ricerca delle informazioni rilevanti, la considerazione delle analogie con casi precedenti, la formulazione e la valutazione di ipotesi, la percezione di coerenze e incoerenze in un insieme di informazioni e dei modi di ripristinare la coerenza, capacità che oggi nessun sistema informatico può offrire (benché non manchino teorie computazionali della coerenza e dell’evoluzione della conoscenza).304 Pertanto, nello svolgimento di un compito complesso un sistema esperto può integrarsi con le competenze umane, ma non le può, di regola, sostituire. Per risultare veramente utile, un sistema esperto avrebbe dovuto essere superiore sia ai sistemi che elaborano informazioni senza usare a tal fine una specifica competenza o conoscenza (limitandosi ad applicare precise procedure predefinite), sia ai sistemi che forniscono informazioni all’esperto umano senza elaborare tali informazioni (come i sistemi documentari o gli ipertesti). Rispetto ai sistemi non-esperti che applicano procedure predefinite (ad esempio, un sistema che calcola le imposte, usando un diverso algoritmo per ogni imposta), un sistema esperto doveva offrire vantaggi nella capacità di affrontare compiti non riducibili ad algoritmi specificabili in anticipo e inoltre nella facilità di sviluppo, controllo, e aggiornamento, mantenendo al tempo stesso una sufficiente efficienza (rapidità di esecuzione). Rispetto ai sistemi che forniscono informazioni senza elaborarle (ogni elaborazione restando affidata all’intelligenza umana), il sistema esperto doveva provare la sua superiorità nel collegare le informazioni e applicarle ai casi concreti, garantendo al tempo stesso il controllo umano sui contenuti del sistema e sulle modalità dell’elaborazione. Inoltre emersero alcune difficoltà inerenti allo sviluppo e la manutenzione dei sistemi esperti. In particolare, si constatava che era difficile e costoso rappresentare la conoscenza nella forma richiesta da un sistema esperto (assai più rigida e limitata rispetto al linguaggio umano) e mantenerla aggiornata, ma anche che non tutte le informazioni potevano essere espresse in questo modo e che, una volta ridotte in tale forma, le informazioni non potevano essere impiegate con la flessibilità di cui è capace l’intelligenza umana. Se da un lato i sistemi esperti erano criticati a causa delle loro limitazioni, dall’altro lato la prospettiva di un loro successo suscitava opposte inquietudini. Si temeva, cioè, che l’uomo, nel consegnare l’uso delle proprie conoscenze a un sistema informatico (superiore all’uomo per memoria e rapidità di elaborazione) venisse a rinunciare al possesso di tali conoscenze, delegando le proprie attività intellettuali allo strumento elettronico. 282 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE È vero che lo sviluppo della nostra specie si basa anche sulla nostra capacità di trasferire all’esterno, realizzando appositi artefatti, sia i contenuti della nostra mente (dai disegni sulle caverne all’uso della scrittura), sia i processi mediante i quali quei contenuti sono elaborati (dal pallottoliere ai calcolatori elettronici).305 Possiamo cosı̀ delegare a tali artefatti una parte delle nostre funzioni cognitive (delegare all’agenda il compito di ricordare le scadenze, al pallottoliere il compito di effettuare calcoli, ecc.). Ogni delega, però, può rappresentare una perdita nella competenza del delegante, sia per quanto riguarda direttamente il compito delegato, sia per quanto riguarda le ulteriori capacità cognitive acquisibili mediante l’esecuzione di quel compito. Ricordiamo la celebre critica di Platone all’uso della scrittura. Il dio Theuth—racconta Platone nel Fedro, uno dei suoi più celebri dialoghi—espose al faraone Talos i vantaggi della sua invenzione, la scrittura: Questa scienza, o re - disse Theuth - renderà gli Egiziani più sapienti e arricchirà la loro memoria perché questa scoperta è una medicina per la sapienza e la memoria.306 Il faraone Talos però rispose: O ingegnosissimo Theuth, una cosa è la potenza creatrice di arti nuove, altra cosa è giudicare qual grado di danno e di utilità esse posseggano per coloro che le useranno. E cosı̀ ora tu, per benevolenza verso l’alfabeto di cui sei inventore, hai esposto il contrario del suo vero effetto. Perché esso ingenererà oblio nelle anime di chi lo imparerà: essi cesseranno di esercitarsi nella memoria perché fidandosi dello scritto richiameranno le cose alla mente non più dall’interno di se stessi, ma dal di fuori, attraverso segni estranei.307 Talos pecca senz’altro di eccessivo conservatorismo: la scrittura si è rivelata strumento decisivo dello sviluppo individuale e sociale, passaggio fondamentale nella civiltà umana. Tuttavia l’idea che la delega delle nostre funzioni mentali a enti materiali possa avere effetti pregiudizievoli per lo sviluppo umano merita considerazione, specialmente con riferimento ai sistemi informatici intelligenti. Infatti, nel caso della scrittura i nostri dubbi possono essere superati dalla considerazione che lo scritto non è in grado di applicarsi da solo: è necessario che la mente umana si riappropri del contenuto trasferito nelle strutture simboliche (nella sequenza di caratteri alfabetici che costituisce il testo scritto) affinché quel contenuto possa tradursi in azione. Nel caso del sistema esperto invece la struttura simbolica (la sequenza di caratteri che forma la base di conoscenza del sistema) diventa autonoma, potendo essere applicata mediante processi automatici. Diventa quindi necessario, come osserveremo in seguito stabilire opportune modalità per l’integrazione (la simbiosi, vedi Sezione 6.4.3), tra intelligenza umana e intelligenza automatica, cosicché, anche nell’ambito delle funzioni in cui si utilizzino sistemi esperti, da un lato l’uomo continui a fornire le competenze CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 283 cognitive di cui la macchina è priva (competenze necessarie in molte applicazioni del diritto), e che dall’altro egli mantenga il controllo sulla conoscenza trasferita alla macchina e sul processo della sua applicazione. 6.2.3 Dalla crisi ai primi successi Nei primi anni ’90 vi fu quindi una profonda crisi delle ricerche di intelligenza artificiale, il cosiddetto “inverno dell’intelligenza artificiale” (AI winter), un clima di generale sfiducia nei confronti delle prospettive di questa disciplina. Lo stesso termine “intelligenza artificiale” cadde in discredito, e gli studiosi che continuavano a occuparsi dei temi dell’intelligenza automatica preferivano spesso qualificare la propria ricerca in altro modo (logica o linguistica computazionale, database deduttivi, sistemi probabilistici, supporto alle decisioni, ecc.). La crisi dell’intelligenza artificiale simbolica determinò un’intensa attività di ricerca in direzioni diverse. Qui mi limito a ricordarne tre: la ripresa degli studi sui modelli computazionali dell’attività neurale, la creazione di nuovi modelli computazionali simbolici ispirati alle discipline matematiche ed economiche, l’attenzione per le dimensioni dell’azione e della comunicazione. I modelli ispirati all’attività neurale mirano a riprodurre l’aspetto reattivo dell’intelligenza (comune a tutti gli animali evoluti), cioè la capacità di rispondere agli input forniti dall’esperienza e di adattare tale risposta in modo appropriato (di apprendere), pur senza il tramite del ragionamento e della rappresentazione esplicita della conoscenza. Le reti neurali (e in generale i modelli connessionistici) hanno offerto una nuova tecnologia (e una nuova prospettiva) per affrontare compiti del senso comune (come il riconoscimento di immagini o di volti) per i quali mancano modelli teorici precisi, ma anche per compiti specialistici attinenti al riconoscimento, alla luce di esperienze precedenti, di caratteristiche non definibili con precisione (come la rischiosità di un’operazione finanziaria, la probabilità che un soggetto incorra in un sinistro, ecc.). I modelli simbolici, d’altro canto, hanno potuto essere grandemente potenziati dall’uso di metodiche formali tratte non solo dalla logica matematica (cui l’intelligenza artificiale si era ispirata fin dai propri inizi) ma anche dalle logiche filosofiche (logica dell’azione, della possibilità, di obblighi e permessi) e da discipline quali il calcolo delle probabilità, la teoria della decisione, la teoria dei giochi, le teorie dell’argomentazione. È divenuto cosı̀ possibile utilizzare in misura crescente strumenti di intelligenza artificiale per il supporto alla decisione, anche in contesti caratterizzati da incertezza (come nelle previsioni atmosferiche o finanziarie) o opinabilità (come nell’ambito giuridico). L’attenzione per gli aspetti dinamici e relazionali (l’azione, l’interazione, la comunicazione) ha consentito di superare l’idea del sistema intelligente quale mero intelletto, privo di iniziativa, che si limita a rispondere alle domande dell’utilizzatore sulla base delle conoscenze registrate al suo interno. Le ricerche si sono indirizzate invece verso la realizzazione di agenti intelligenti, capaci non solo di elaborare informazioni, ma an- 284 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE che di ricercare le informazioni rilevanti, di percepirle esaminando l’ambiente e di agire sulla base degli obiettivi a essi assegnati, possibilmente interagendo con altri agenti dello stesso tipo o con interlocutori umani. È stato cosı̀ enfatizzato l’aspetto “robotico” dell’intelligenza artificiale, cioè la realizzazione di robot quali entità capaci di azione autonoma, sia nello spazio fisico (come le sonde spaziali capaci di movimento autonomo o gli aerei senza pilota) sia nello spazio virtuale di Internet (come gli agenti software utilizzabili nella ricerca di informazioni o per fare acquisti on-line). Nei primi anni ’90 le ricerche di intelligenza artificiale hanno incontrato Internet, che da un lato richiedeva applicazioni informatiche intelligenti, dall’altro offriva un’enorme quantità di informazione in formato digitale alla quale applicare tecniche di intelligenza artificiale. Le tecniche di intelligenza artificiale hanno trovato impiego in diversi strumenti per la rete: motori di ricerca, sistemi che forniscono raccomandazioni agli utenti, sistemi per la costruzione di siti Web, agenti software per la ricerca di informazione e l’effettuazione di transazioni commerciali, ecc. Gli sviluppi appena indicati hanno determinato la fine dell’“inverno dell’intelligenza artificiale”. Dalla fine degli anni ’90 la ricerca è ripresa con rinnovato vigore e non sono mancati significativi risultati (anche operativi) in numerosi settori, tra i quali si possono ricordare, senza pretese di completezza, i seguenti: • l’estrazione di informazioni da grandi masse di dati (data mining), oggi ampia- • • • • • • • • mente utilizzata per ricerche commerciali, per individuare comportamenti fraudolenti (ad esempio nell’uso di carte di credito) o anche per finalità attinenti alla sicurezza (indagini anti-terrorismo); la selezione di informazioni rilevanti o l’eliminazione di quelle irrilevanti con tecniche intelligenti (utilizzate per esempio, nei filtri antispamming); l’interpretazione degli esami medici e la consulenza medica; la traduzione automatica, che oggi fornisce risultati molto utili, anche se limitati; i giochi, per i quali sono stati realizzati sistemi automatici capaci di raggiungere alti livelli di competenza e prodotti commerciali di notevole successo;308 la gestione e la logistica (ad esempio, la pianificazione di attività imprenditoriali o di operazioni militari); il riconoscimento di immagini e movimenti (ad esempio, nei sistemi per la vigilanza automatica); i robot fisici, utilizzati nell’esplorazione di regioni inospitali della terra (come l’Antartide) o dello spazio (ad esempio, Marte), ma anche nelle attività industriali, nelle pulizie domestiche, nel gioco (i robot pet, nuovo tipo di animali domestici); gli agenti software, ai quali l’utilizzatore può delegare compiti da eseguire con autonomia negli spazi virtuali (dalla ricerca di informazioni, all’effettuazione di transazioni commerciali). CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 285 Non si deve dimenticare il lato oscuro dell’intelligenza artificiale: molte applicazioni sono state costruite anche per scopi militari, come per i bombardieri senza pilota o le “bombe intelligenti”. In questo ambito è necessario un controllo sociale e politico sulle tecnologie per evitare sviluppi potenzialmente distruttivi.309 Tra i profili emergenti dell’intelligenza artificiale va ricordata l’intelligenza ambientale (ambient intelligence). Si tratta dell’inserimento nell’ambiente fisico di dispositivi automatici dotati della capacità di elaborare informazioni e, anzi, intelligenza. Tali dispositivi possono assorbire informazioni sia dall’ambiente fisico sia dalla rete informatica, e di operare in entrambi gli ambiti. Essi sono destinati a inserirsi nell’ambiente in modo ubiquo e invisibile, governando macchine di vario genere, e facendo sı̀ che l’ambiente stesso si adatti automaticamente alle esigenze dell’uomo. Possono comunicare tra loro—sviluppando l’Internet delle cose, vedi Sezione 5.5.10)—ma anche di percepire i mutamenti dell’ambiente e di reagire agli stessi. Si immagini una casa nella quale la porta si apra automaticamente ogni qualvolta la telecamera riconosca uno degli abitanti, la cucina si attivi per riscaldare la cena al momento opportuno, il frigorifero proceda automaticamente a ordinare i prodotti mancanti, la combinazione ottimale di umidità e temperatura sia mantenuta costante (tenendo conto, altresı̀ del costo del riscaldamento), l’armadietto sanitario si occupi di indicarci le medicine da prendere, secondo il piano stabilito dal medico, l’impianto stereo proponga brani musicali, tenendo conto dei nostri gusti e addirittura del nostro stato d’animo, ecc. Si immagini altresı̀ che sia possibile dialogare con la casa stessa e con i vari dispositivi che ne fanno parte (per esempio, chiedendo al forno di attivarsi per cucinare l’arrosto e allo stereo di proporci un brano di Brahms o dei Rolling Stones).310 L’Unione Europea ha fatto propria la prospettiva dell’intelligenza ambientale, dedicando a essa un ampio spazio nell’ambito dei propri progetti di ricerca. Si tratta di una prospettiva che, accanto agli aspetti positivi, manifesta diversi profili problematici, rispetto ai quali si rendono necessarie garanzie giuridiche, profili che vanno dalla tutela dei dati personali, alle responsabilità per i danni causati dalle apparecchiature intelligenti, alla protezione dell’interessato rispetto alle possibilità di sfruttamento e manipolazione ottenibili influenzando il comportamento delle macchine intelligenti e tramite esse il comportamento del loro utilizzatore (ad esempio, rispetto a scelte di consumo o di acquisto), e cosı̀ via. Lo sviluppo delle scienze fisiche e delle tecnologie per l’elaborazione della materia ci ha consegnato un mondo materiale “disincantato”,311 nel quale ci rapportiamo agli oggetti assumendo che il loro comportamento sia esclusivamente e pienamente accessibile secondo le leggi fisiche, obbedendo alle quali gli oggetti svolgono la funzione loro assegnata. Oggi lo sviluppo dell’intelligenza artificiale ambientale sembra ricreare un mondo “incantato” nel quale ci accosteremo agli oggetti in modo analogo a quello con cui interagiamo con le persone, riproducendo quindi schemi del pensiero animistico, proprie del mondo del mito e della fiaba. In un vicino futuro potremo capire il funzionamento de- 286 6.2. BREVE STORIA DELL’INTELLIGENZA ARTIFICIALE gli oggetti più comuni (dalla cucina, al frigorifero, all’automobile) solo assumendo che l’oggetto in questione persegua certi obiettivi (attinenti alle nostre esigenze, cosı̀ come l’oggetto stesso riesce a coglierle) scegliendo i mezzi che ritiene più adatti al loro conseguimento. Interagiremo con gli oggetti intelligenti adottando uno stile comunicativo, cioè interrogandoli sulle iniziative che stanno adottando, e indicando a essi i risultati da realizzare o i modi per raggiungerli (cosı̀ come faremmo con un collaboratore domestico).312 Immaginiamo per esempio di rientrare in casa e di chiedere alla cucina che cosa possa prepararci per cena (dopo aver interrogato il frigorifero sulle sue disponibilità), che questa si informi sulle nostre preferenze, e conseguentemente suggerisca particolari menu, ci indichi i tempi di cottura (o quelli necessari per approvvigionarsi di materie prime non disponibili in casa), e cosı̀ via. Il mondo incantato dell’intelligenza ambientale può però diventare un mondo stregato, nel quale gli oggetti (o chi li governa) ci manipolano, ci sfruttano, operano a nostro danno. Il tema dell’intelligenza ambientale si incontra con un altro modello tecnologico, anch’esso di notevole interesse per il giurista: gli agenti software, cioè i sistemi informatici in grado di agire con autonomia, senza il controllo diretto del loro utilizzatore. Questa tecnologia trova impiego nelle aree più diverse dell’informatica: nello sviluppo di sistemi informativi, nel coordinamento di applicazioni distribuite, nella realizzazione di interfacce, nella gestione di attività complesse e di situazioni critiche (ad esempio, nel governo del traffico marittimo o aeroportuale). Per il giurista presentano particolare interesse gli agenti software che non esauriscono la propria attività nella sfera del loro utilizzatore (come avviene per quelli cui sia affidata la gestione decentrata della logistica aziendale), ma entrano in contatto con altri soggetti. Ciò accade soprattutto su Internet, dove operatori e utenti possono ricorrere ad agenti software per cogliere e sfruttare l’enorme varietà di possibilità offerte dallo sconfinato, diversificato e dinamico ambiente virtuale del ciberspazio. Gli agenti software possono essere usati in particolare nella raccolta di informazioni (ricerca di dati, di offerte concernenti beni e servizi, di possibili partner commerciali) e nell’attività contrattuale (trattativa, formulazione di proposte, valutazione della loro convenienza, conclusione di contratti). Essi possono utilizzare tecniche di intelligenza artificiale per accedere alle informazioni utili (ad esempio, le opportunità offerte dal mercato), accertare le circostanze rilevanti per le loro azioni (per esempio, la convenienza comparativa delle diverse offerte recuperate), e agire conseguentemente (effettuando l’acquisto più conveniente). Un profilo giuridico particolarmente interessante è quello della qualificazione dell’attività realizzata dall’agente nell’interesse del suo utilizzatore, adempiendo con autonomia il mandato affidatogli dall’utilizzatore stesso. A mio parere, qualora l’utilizzatore deleghi al suo aiutante elettronico lo svolgimento di un compito da realizzare con autonomia (compito che includa attività cognitive, come quelle necessarie per individuare la controparte di un contratto e determinare il contenuto del contratto stesso), si dovrebbero applicare per analogia le norme sulla rappresentanza. Conseguentemente, già in base al CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 287 diritto vigente, gli effetti giuridici ricadrebbero sull’utilizzatore, ma gli stati psicologici rilevanti (la volontà, la conoscenza, l’errore, ecc.) sarebbero quelli dell’agente (per quanto riguarda gli elementi del contratto determinati dall’agente stesso).313 6.3 Il modello connessionistico: le reti neurali Come abbiamo osservato sopra (Sezione 3.5.4), la ricerca sulle reti neurali è ispirata all’idea che l’intelligenza possa ottenersi riproducendo l’hardware cerebrale (i neuroni) piuttosto che riproducendo le funzioni più astratte svolte da quell’hardware (il ragionamento). Conseguentemente, tale ricerca assume che il comportamento intelligente risulti innanzitutto dall’adattamento flessibile all’ambiente (di cui sono capaci tutti gli animali dotati di un sistema nervoso), piuttosto che dal pensiero consapevole.314 L’ipotesi, quindi, è che possiamo apprendere non solo acquisendo consapevolmente contenuti formulati in un linguaggio (ed elaborati grazie al ragionamento), ma anche in modo del tutto inconsapevole, mediante la modificazione delle connessioni tra i nostri neuroni: il fatto che in certe condizioni si sia data la risposta “giusta” conduce a una modifica di tali connessioni tale da far sı̀ che la stessa risposta sia data in futuro nelle stesse condizioni o in condizioni analoghe; il fatto che in certe condizioni si sia data una risposta sbagliata conduce a un modifica delle connessioni neuronali tale evitare la ripetizione dell’errore in futuro. 6.3.1 La struttura delle reti neurali La struttura informatica utilizzata per riprodurre questo tipo di apprendimento è la rete neurale, una struttura software composta da unità chiamate neuroni, e da determinati collegamenti tra le stesse unità.315 I neuroni artificiali riproducono informaticamente la struttura dei neuroni presenti nel nostro cervello, come risulta dal confronto tra la Figura 6.3 e la Figura 6.4, che rappresentano, rispettivamente un neurone biologico e un neurone informatico. Ogni neurone riceve segnali dai neuroni a esso connessi, segnali che viaggiano seguendo determinati collegamenti. Ai collegamenti sono assegnati pesi, cioè coefficienti secondo i quali i segnali passanti attraverso i collegamenti stessi sono amplificati o ridotti. Il funzionamento di ogni neurone è stabilito da funzioni logico-matematiche. Il neurone, quando riceve determinati segnali, verifica se quei segnali abbiano raggiunto il livello (la soglia) richiesta per la propria attivazione. Se il livello non è stato raggiunto, il neurone rimane inerte; se invece il livello è stato raggiunto, il neurone si attiva, inviando a sua volta segnali ai neuroni con esso connessi. Per esempio, nell’immagine riportata nella Figura 6.4 al neurone sono inviati stimoli di valore 2, 3, 2 e 3. I pesi applicati a tali stimoli sono rispettivamente 2, 1, 3, e 1. Moltiplicando gli stimoli inviati al neurone per i relativi pesi, si ottengono gli input forniti al neurone: 2 ⇤ 2 = 4; 3 ⇤ 1 = 3; 2 ⇤ 3 = 6; 288 6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI assone da altro neurone sinapsi assone dendrite nucleo Figura 6.3: Neurone naturale Input provenienti dall'esterno o da altri neuroni Output diretti all'esterno o ad altri neuroni I1 = 2 P1 = 2 I2 = 3 I1 = 2 P2 = 1 P3 = 3 Soglia = 15 I2 = 2 I3 = 2 I3 = 2 P4 = 1 I4 = 3 Figura 6.4: Neurone artificiale 3 ⇤ 1 = 3. Il valore ottenuto sommando gli input (4 + 3 + 6 + 3), cioè 16, è al disopra della soglia (15) del neurone, che conseguentemente si attiverà, inviando messaggi di valore 2 ai neuroni a esso collegati. CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 289 Unità di output Unità nascoste Unità di Input Figura 6.5: Rete neurale Combinando i neuroni otteniamo una rete neurale. Come risulta dalla Figura 6.5, alcuni neuroni della rete ricevono input dall’esterno (ad esempio da una base di dati, da una telecamera che riceve immagini dall’ambiente, da una tavoletta sulla quale si tracciano disegni o caratteri); alcuni neuroni, i cosiddetti neuroni nascosti, sono collegati solo con altri neuroni; alcuni neuroni, infine, inviano il loro output all’esterno della rete. La tecnica più comune per addestrare una rete neurale consiste nel proporre alla rete una serie di esempi corretti, cioè un serie di coppie < input, output >, dove l’output indica il risultato corretto per l’input corrispondente. Per esempio, se sogliamo addestrare una rete nel riconoscimento dei caratteri alfabetici ogni esempio consisterà di un segno grafico unito al carattere corrispondente. L’elaborazione degli esempi avviene nel modo seguente. Il sistema determina la propria risposta rispetto all’input indicato nell’esempio. Se la risposta differisce dall’output nell’esempio, la rete si riorganizza, cambiando la propria configurazione (i collegamenti o i pesi associati a essi) in modo da poter dare la risposta corretta (la stessa indicata nell’esempio) di fronte alla riproposizione dello stesso input. Dopo un conveniente addestramento, la rete acquista l’abilità di dare risposte corrette non solo nei casi contenuti nell’insieme degli esempi, ma anche in casi analoghi. 290 6.3. IL MODELLO CONNESSIONISTICO: LE RETI NEURALI In ambito giuridico, le reti neurali sono solitamente addestrate mediante casi giudiziari. Assumendo che le risposte dei giudici siano corrette (o almeno coerenti tra di loro), l’obiettivo è allenare la rete neurale in modo che essa possa riprodurre le risposte date dai giudici nei precedenti, e rispondere analogamente nei casi simili. 6.3.2 Le reti neurali e il diritto Tra le non molte applicazioni del modello della rete neurale in ambito giuridico,316 si può ricordare il sistema Split-up, cui è stato affidato il compito di ripartire il patrimonio tra gli ex coniugi in seguito a un divorzio.317 Gli autori del sistema furono indotti a utilizzare la tecnica delle reti neurali in quanto, dall’analisi della legislazione e delle sentenze, non avevano rinvenuto regole precise la cui applicazione logica ai fatti dei casi potesse condurre alle soluzioni adottate dai giudici. In materie di questo tipo i giudici sembrano infatti operare in base a un’“intuizione allenata” piuttosto che secondo regole precise: si tratta di un’intuizione informata dalla conoscenza di casi precedenti e dalle esperienze dello stesso decisore, che ha acquisito adeguate capacità di discriminazione e valutazione pur senza esserne necessariamente e completamente consapevole. Nella rete di Split-up, i neuroni di input rappresentano i fattori rilevanti nella decisione dei casi in questione, e i neuroni di output indicano le possibili divisioni del patrimonio. Come risulta dalla Figura 6.6, i soli dati di input accolti dalla rete (quindi i soli fattori rilevanti nel determinare la ripartizione) sono il contributo dei coniugi alla formazione del patrimonio e l’ammontare del patrimonio stesso (livelli inferiori del patrimonio conducendo a ripartizioni maggiormente egualitarie). Secondo gli autori del sistema, tale semplice rete, dopo essere stata “allenata” sottoponendole alcune centinaia di casi precedenti, sarebbe divenuta capace di riprodurre le decisioni dei casi passati e avrebbe acquistato la capacità di prevedere con sufficiente precisione le decisioni di casi futuri. L’uso delle reti neurali nell’applicazione del diritto è stato finora assai limitato. Un’importante ragione di ciò sta nel fatto che le reti neurali, anche quando indicano soluzioni giuridiche plausibili, non offrono una giustificazione di tali soluzioni, nel senso che non indicano quali premesse conducano al particolare risultato proposto dalla rete. Ciò è dovuto al fatto che la conoscenza utilizzata da una rete neurale è implicita nella struttura della rete (nelle connessioni neurali e nei pesi associati a esse), non è formulata in proposizioni esplicite. Pertanto, la rete si comporta come un “oracolo” che indica una soluzione giuridica senza motivarne l’adozione. Questo fatto è suscettibile di essere differentemente valutato da diverse teorie del diritto. Chi segua un orientamento irrazionalistico, vedrà nelle reti neurali (nel loro uso per riprodurre e anticipare il comportamento del giurista) la possibilità di smascherare l’illusione logicistica secondo cui le decisioni giuridiche seguirebbero logicamente dall’applicazione delle norme ai fatti del caso. 291 CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE Husband needs much more '' more '' same 10% '' less 20% '' much less 30% Husband contributed much more 35% '' more 40% '' same 45% '' less 50% '' much less 55% Marriage is very wealthy 60% '' wealthy 65% '' confortable 70% '' average 80% asset poor very few assets 90% '' '' Figura 6.6: Rete neurale per la divisione del patrimonio tra coniugi Chi invece segue un orientamento logicistico, e assume che ogni decisione giuridica sia raggiunta (e debba esserlo) applicando regole preesistenti a fatti dati, riterrà aberrante ogni applicazione delle reti neurali. Chi infine, adotta una prospettiva intermedia, secondo la quale nella decisione umana l’aspetto adattivo proprio delle rete neurali (l’intuizione della correttezza di un certo risultato, alla luce delle esperienze precedenti) si unisce alla ricerca e all’applicazione di premesse atte a fondare la decisione, riterrà il modello delle rete neurali suscettibile di qualche applicazione, pur entro confini ristretti. A mio parere, le reti neurali artificiali oggi disponibili hanno una capacità molto limitata nel ricevere e nell’elaborare le esperienze (esse sono assai semplici se comparate alla complessità delle strutture neurali del cervello umano), e non sono in grado di collegare conoscenze adattive e premesse esplicite del ragionamento (come invece accade quando riflettiamo sulle nostre reazioni intuitive e sviluppiamo modelli logici in grado di razionalizzarle). Questi limiti consigliano una grande cautela nell’impiego di reti neurali, ma non ne escludono il possibile utilizzo per problemi circoscritti.318 Un interessante uso delle reti neurali (come più in generale, delle analisi statistiche, cui le reti neurali possono in parte essere ricondotte) consiste peraltro nello smascherare false giustificazioni, cioè giustificazioni che pongono a fondamento di decisioni giuri- 292 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO diche fattori diversi da quelli che hanno realmente motivato tali decisioni. Se una rete neurale capace di riprodurre un certo insieme di decisioni (ad esempio, condanne penali) non può essere costruita sulla base dei fattori indicati nelle motivazioni dei giudici (fattispecie del reato, gravità, precedenti, ecc.), ma può essere invece costruita tenendo conto di altri fattori (caratteristiche etniche, sesso, età, condizione economica, ecc.), cui si connettono pregiudizi non apertamente dichiarabili, allora è probabile che la spiegazione delle decisioni giudiziarie possa ravvisarsi in quei pregiudizi piuttosto che nelle ragioni espressamente addotte.319 6.4 Conoscenza esplicita e ragionamento Nonostante l’interesse suscitato dalle ricerche sulle reti neurali, il modello prevalente nell’intelligenza artificiale rimane quello dell’utilizzo esplicito della conoscenza, mediante metodi per il ragionamento automatico (secondo l’idea che abbiamo illustrato nella Sezione 3.5.3). A questo fine bisogna che il sistema informatico disponga di due componenti: una rappresentazione della conoscenza rilevante, e metodi per il ragionamento automatico applicabili a tale rappresentazione. Ricordiamo che il ragionamento consiste in generale nel passaggio da certe ragioni (premesse, obiettivi, ecc.), a conclusioni giustificate da tali ragioni. Tale passaggio avviene in generale secondo modelli generali o schemi di ragionamento, che sono forniti dalla logica (intesa in senso ampio). Il ragionamento che consiste nel passaggio da certe premesse a certe conclusioni, secondo un determinato schema, può essere detto inferenza. Per esempio, le premesse A e “SE A ALLORA B” giustificano l’inferenza della conclusione B, quali che siano i particolari contenuti espressi dalle proposizioni A e B: in ogni caso il fatto che un ragionatore comprenda tra le sue premesse A e “SE A ALLORA B” giustifica l’inferenza della conclusione B (almeno quando non ci siano indicazioni in contrario). La correttezza di un’inferenza, ovviamente, non garantisce la verità/validità320 della sua conclusione. Per esempio, entrambi i seguenti ragionamenti sono corretti, ma non sono vere/valide entrambe le conclusioni che ne discendono. • Premesse 1. SE [x è il datore di lavoro di y] ALLORA [x può accedere alla casella di posta aziendale usata da y]; 2. [Lucia è il datore di lavoro di Renzo] • Conclusione 3. [Lucia può accedere alla casella di posta aziendale usata da Renzo] • Premesse 1. SE [x è il datore di lavoro di y] ALLORA [x NON può accedere CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 293 alla casella di posta aziendale usata da y] 2. [Lucia è il datore di lavoro di Renzo] • Conclusione 3. [Lucia NON può accedere alla casella di posta aziendale usata da Renzo] Le conclusioni di tali ragionamenti sono infatti incompatibili (o Lucia può accedere alla casella di posta, o non può farlo) e quindi non possono essere entrambe vere/valide. Tuttavia l’inferenza di ciascuna conclusione è giustificata dalle corrispondenti premesse. Il problema è che non sono vere/valide le premesse di entrambe le decisioni: o è vera/valida la premessa che il datore di lavoro può accedere alla posta del dipendente, o è vera/valida la premessa che lo stesso non vi può accedere. La verità/validità della conclusione tratta da un certo insieme di premesse mediante un’inferenza, è, in generale, garantita solo dalla compresenza delle seguenti condizioni: • la verità/validità delle premesse; • la correttezza dell’inferenza; • l’assenza di inferenze prevalenti contro l’impiego delle premesse o contro l’esecuzione dell’inferenza Le prime due condizioni sono sufficienti a garantire conclusioni tratte secondo il ragionamento deduttivo (che presuppone, che premesse e inferenze non ammettano eccezioni), mentre la terza condizione si richiede qualora si ricorra al ragionamento defeasible (vedi Sezione 6.4.6). 6.4.1 Ragionamento e applicazione di regole Non è possibile illustrare in questa sede i metodi del ragionamento logico (o, meglio, dei diversi ragionamenti autorizzati da diversi modelli logici), né il modo in cui quei metodi possono essere applicati da sistemi informatici. Ai nostri fini è sufficiente illustrare il tipo di ragionamento più frequente in ambito giuridico, cioè l’applicazione di regole. Per “regola”, nel contesto qui considerato, non si intende un enunciato deontico (un enunciato che qualifichi come obbligatorio, vietato o permesso un certo comportamento, come per esempio “è vietato fumare”), ma piuttosto un enunciato condizionale, che collega un antecedente e un conseguente consentendo di inferire il secondo dal primo. Il concetto di regola come condizionale (piuttosto che come obbligo o prescrizione) corrisponde all’idea diffusa che le regole giuridiche—come quelle degli esempi appena riportate—colleghino una fattispecie e una conseguenza giuridica: la fattispecie astratta è l’antecedente della regola e la conseguenza giuridica astratta ne è il conseguente. L’antecedente può consistere di un solo elemento, o invece di una congiunzione di elementi. 294 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO Quali esempi di regola, cosı̀ intesa, si considerino, gli enunciati seguenti: “se una persona causa colpevolmente un danno ingiusto, allora lo deve risarcire”, o “se una persona è nata da un cittadino italiano, allora quella persona è cittadino italiano”. Il ragionamento che sarà qui esaminato consiste semplicemente nella derivazione di un’istanza specifica (concreta) del conseguente di una regola, data una corrispondente istanza dell’antecedente della stessa. Ecco un semplice esempio: • Premesse: 1. SE ALLORA 2. [x ha intenzionalmente causato a y un danno ingiusto] [x deve risarcire il danno a y] [Lucia ha intenzionalmente causato a Renzo un danno ingiusto] • Conclusione: 3. [Lucia deve risarcire il danno a Renzo]321(m) Si possono ricondurre al ragionamento mediante regole anche inferenze espresse in altro modo. Consideriamo per esempio il sillogismo che combina una premessa universale e una premessa individuale: • Premesse: 1. [Tutti gli A sono B] 2. [↵ è un A] • Conclusione: 3. [↵ è un B] che possiamo esemplificare come segue: • Premesse: 1. [Tutti gli uomini sono mortali] 2. [Socrate è un uomo] • Conclusione: 3. [Socrate è mortale] Allo stesso schema corrisponde il seguente esempio giuridico. • Premesse: 1. [Tutte le compravendite sono contratti] 2. [L’atto tra Lucia e Renzo è una compravendita] • Conclusione: 3. [L’atto tra Lucia e Renzo è un contratto] Questi sillogismi si possono ricondurre all’applicazione di regole riformulandone la premessa universale “Tutti gli A sono B” nel condizionale “P E R O G N I (x) S E [x è un A] A L L O R A [x è un B]. Ne risulta il seguente schema di inferenza (nella quale le formule con variabile sono da intendersi implicitamente quantificate, cioè precedute da P E R O G N I ) CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 295 • Premesse: 1. SE 2. [↵ è un A] [x è un A] ALLORA [x è un B] • Conclusione: 3. [↵ è un B] che possiamo esemplificare come segue: • Premesse: 1. SE 2. [Socrate è un uomo] [x è un uomo] ALLORA [x è mortale] • Conclusione: 3. [Socrate è mortale] • Premesse: 1. SE [x è una compravendita] 2. [L’atto tra Lucia e Renzo è una compravendita] ALLORA [x è un contratto] • Conclusione: 3. [L’atto tra Lucia e Renzo è un contratto] Il modello delle regole può essere impiegato per rappresentare conoscenze di diverso tipo. Per esempio, il funzionamento di un sistema destinato alla diagnosi medica potrebbe comprendere regole del tipo seguente:322 [x ha il morbillo] S E [x ha la febbre] E [la pelle di x è cosparsa di punti rossi] [x ha l’influenza] S E [x ha la febbre] E [x N O N presenta sintomi specifici] Dati particolari fatti concreti: [Marco ha la febbre]. [la pelle di Marco è cosparsa di punti rossi]. il sistema può concludere, utilizzando le regole, che Marco ha il morbillo. Allo stesso modo un sistema che si occupi della concessione di borse di studio potrebbe contenere regole del tipo seguente [x ha diritto alla borsa di [x possiede i requisiti [x possiede i requisiti [x possiede i requisiti studio] S E soggettivi] E di merito] E di reddito]. 296 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO [x possiede i requisiti soggettivi] S E [x è cittadino comunitario] E [l’età di x è inferiore a 30 anni]. [x possiede i requisiti di merito] S E [x ha sostenuto il numero di esami richiesto] E [la media dei voti di x è superiore al 28]. [x è cittadino comunitario] S E [x è cittadino dello stato y] E [y appartiene all’Unione Europea]. Dati i fatti seguenti: [l’età di Elena è inferiore a 30 anni]. [Elena ha sostenuto il numero di esami richiesto]. [la media di voti di Elena è superiore al 28]. [Elena è cittadino dello stato Romania]. [Romania appartiene all’Unione Europea]. l’applicazione delle regole sopra indicate condurrà alla conclusione che [Elena ha diritto alla borsa di studio]. Infine, possiamo utilizzare regole per rappresentare conoscenze giuridiche. In questo caso solitamente si usano regole per rappresentare la conoscenza normativa, e asserti incondizionati (fatti) per rappresentare le fattispecie concrete. Per esempio, date le regole seguenti [x è cittadino italiano] S E [x è nato in Italia]. [x è cittadino italiano] S E [x è figlio di un cittadino italiano]. [x è figlio di un cittadino italiano] S E [y è genitore di x] E [y è un cittadino italiano]. e dati i fatti seguenti [Giovanni è genitore di Benedetta]. [Giovanni è nato in Italia]. un sistema informatico capace di applicare regole potrà concludere che [Benedetta è cittadino italiano]. In particolare, il sistema potrà raggiungere tale conclusione compiendo il seguente ragionamento: Benedetta è cittadina italiana essendo nata da genitore italiano, ed è nata da genitore italiano essendo suo genitore Giovanni, il quale è cittadino italiano essendo nato in Italia.323 CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 6.4.2 297 I sistemi basati su regole nel diritto I sistemi basati su regole (rule-based system) costituiscono il tipo più semplice e diffuso di sistema basato sulla conoscenza (knowledge-based system). Tali sistemi contengono una base di conoscenza costituita da regole, e un motore di inferenza, che applica tali regole ai dati di fatto attinenti a casi concreti. Le informazioni attinenti ai casi possono essere fornite dall’utilizzatore umano del sistema o estratte da archivi informatici. Il modello del sistema basato su regole ha trovato applicazione in numerosi ambiti: la diagnosi dei guasti di apparecchiature informatiche, la concessione di crediti, la determinazione di polizze assicurative, il controllo di varie funzioni all’interno di strutture organizzative pubbliche e private, ecc. In quest’ultimo caso, le regole depositate nel sistema vengono anche chiamate “regole d’affari” (business-rules), termine con il quale si indicano in generale le regole che governano il funzionamento di un’organizzazione, regole che possono riflettere direttamente o indirettamente requisiti giuridici (ad esempio, in un sistema che gestisce il commercio elettronico, la regola che prescrive di applicare l’imposta sul valore aggiunto, al tasso corrispondente al tipo di bene venduto) o invece determinazioni interne all’organizzazione in questione (ad esempio, la regola che applica lo sconto del 10% ai clienti che abbiamo già fatto acquisti in precedenza, e spendano per il nuovo acquisto più di C100). I primi studi sui sistemi basati su regole risalgono ormai agli anni ’60, quando furono realizzati i primi prototipi (come il già ricordato Mycin, utilizzato nelle diagnosi mediche). Anche in ambito giuridico si realizzarono alcuni sistemi prototipali già negli anni ’70, ma la ricerca che ha maggiormente influenzato il dibattito teorico e le soluzioni applicative fu realizzata presso l’Imperial College di Londra tra la fine degli anni ’70 e l’inizio degli anni ’80. Un gruppo di studiosi di formazione informatica—coordinato da Robert Kowalski e Marek Sergot, due tra i massimi esperti nella logica computazionale— applicò le nuove tecniche della programmazione logica alla rappresentazione di norme giuridiche e all’esecuzione di inferenze corrispondenti.324 La ricerca dell’Imperial College mostrò come le norme giuridiche potessero essere rappresentate in forma di regole, e potessero essere applicate secondo modelli logici efficienti, intuitivi e rigorosi.325 Per illustrare lo stile di rappresentazione adottato nel prototipo in questione, si consideri il seguente esempio: [x acquista la cittadinanza britannica alla data y, secondo la sezione 1.1] S E [x è nato nel Regno Unito] E [x è nato nella data y] E [x ha un genitore che possiede i requisiti di cui alla sezione sezione 1.1, alla data y]. 298 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO [x ha un genitore che possiede i requisiti di cui alla sezione 1.1, alla data y] S E [z è genitore di x] E [z è cittadino britannico alla data y]. Negli anni successivi accanto a ricerche sperimentali volte a cogliere ulteriori aspetti del ragionamento giuridico (come il ragionamento basato sui casi, l’argomentazione, ecc.) non mancarono i tentativi di realizzare sistemi basati su regole che trovassero immediato impiego nell’ambito delle attività giuridiche, uscendo dallo stadio prototipale.326 Per esemplificare la forma nella quale le norme giuridiche si rappresentano nei sistemi basati su regole riporto un breve esempio tratto da un’applicazione australiana (pensioni di guerra).327 Come il lettore può osservare la regola è formulata in un linguaggio non elegante (in particolare si evitano pronomi e si esplicita tutta la sintassi), ma tuttavia comprensibile anche al lettore privo di conoscenze logiche o informatiche: [il Cap 6 Parte 1 si applica al membro (delle forze armate australiane)] se; (a) entrambe; [il membro è stato inviato per obbligo di servizio in una località rilevante]; e [il membro vive nella località rilevante] oppure (b) [il membro ha svolto il proprio servizio per obbligo temporaneo in una località rilevante per un periodo continuo di più di 21 giorni]; oppure (c) [il membro è inviato per servizio su una nave sul mare, la cui base si trova in una località rilevante]. La semplicità di questo esempio non deve far pensare che un sistema basato su regole giuridiche sia necessariamente semplice o comunque utile solo nei casi semplici (cosı̀ da dare all’utilizzatore un aiuto non diverso da quello che potrebbe essere fornito da un manuale di istruzioni). L’importanza di tali sistemi deriva dalla possibilità di applicare un numero elevato di regole (vi sono sistemi che ne contengono decine di migliaia), tenendo conto dei collegamenti tra le stesse (come quando il conseguente di una regola rappresenti la precondizione per l’applicazione di altre regole o indichi un’eccezione ad altre regole). Essi possono cosı̀ supplire ai limiti della memoria, dell’attenzione, e della capacità combinatoria dell’uomo. 6.4.3 Sistemi basati sulla conoscenza e sistemi esperti Come osservavamo sopra, la caratteristica essenziale dei sistemi basati sulla conoscenza consiste nel fatto che il loro funzionamento, cioè il modo in cui affrontano i problemi CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 299 loro affidati, si basa sull’utilizzo di una “base di conoscenza”. Tale base di conoscenza consiste in un insieme di informazioni (conoscenze) specialistiche, attinenti all’ambito (il dominio) particolare in cui tali sistemi debbono operare, e alle tecniche utilizzabili per la soluzione dei problemi che possano emergere in quell’ambito. I sistemi basati sulla conoscenza sono spesso identificati con i cosiddetti sistemi esperti, cioè, i sistemi intesi a fornire funzionalità che richiedono una specifica competenza professionale (expertise). Un sistema basato sulla conoscenza è indubbiamente un sistema esperto nel senso che esso svolge funzioni basate su conoscenze specialistiche, che solo un esperto possiede. Ciò non significa però che esso sia un vero esperto, cioè che possa svolgere da solo un’intera prestazione professionale, comprensiva di tutte le funzioni che si affiderebbero all’esperto umano. Questo obiettivo non è realizzabile con le tecnologie disponibili oggi o anche nel vicino futuro. Anche in un futuro più lontano un esperto automatico rimarrà privo delle capacità cognitive legate alla condizione umana (come la capacità di immedesimarsi nella posizione dell’altro, di coglierne gli stati psicologici, i ragionamenti, i bisogni, e quindi di apprezzare pienamente gli interessi e i valori in gioco). L’idea di un esperto automatico pone non solo ostacoli tecnologici ma anche problemi giuridici ed etici.328 Si considerino le ipotesi estreme di un automa professionista nella medicina e nel diritto. Un automa esperto nella medicina dovrebbe contenere informazioni attenenti all’anatomia umana, alla fisiologia alle diverse patologie, alle cure disponibili per ciascuna di esse. Il sistema dovrebbe usare conoscenze anatomiche, fisiologiche e patologiche per determinare la patologia da cui il paziente è affetto, e quindi, sulla base di conoscenze attenenti ai metodi terapeutici, suggerire la terapia migliore per il particolare caso clinico. Inoltre il sistema non dovrebbe limitarsi all’elaborazione delle informazioni a esso fornite in forma linguistica. Al contrario, dovrebbe essere dotato di capacità percettive tali da consentirgli di estrarre informazioni dall’ambiente (ad esempio, dalla visione delle parti malate o delle radiografie) e di interagire con l’ambiente, utilizzando altresı̀ la comunicazione umana, al fine di ottenere informazioni utili mediante il dialogo (ad esempio, interrogando il malato, o chiedendogli di sottoporsi agli esami del caso). Allo stesso modo, un automa esperto nel diritto dovrebbe contenere informazioni concernenti le norme giuridiche, le loro interpretazioni dottrinali, i precedenti giurisprudenziali, i valori e le finalità che caratterizzano l’ordinamento, i fenomeni sociali disciplinati dal diritto. Il sistema inoltre dovrebbe possedere la capacità di ricavare informazioni dall’ispezione delle prove fisiche e di interagire con le parti e i terzi.Grazie a queste informazioni, l’automa dovrebbe determinare le soluzione giuridiche di casi concreti (come farebbe un giudice o un funzionario pubblico). Non è questa la prospettiva nella quale possiamo sperare di ottenere risultati utili nella realizzazione di sistemi informatici, almeno nel futuro a noi vicino. Si potranno invece affidare all’elaborazione automatica particolari fasi o momenti delle attività giuridiche che si affiancano e integrano a quelli affidati all’uomo, cioè all’avvocato, al 300 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO giudice, al funzionario amministrativo o allo stesso destinatario di un servizio pubblico. La prospettiva nella quale collocare l’interazione tra uomo e sistema informatico è quella della simbiosi uomo-macchina, già concepita all’inizio degli anni ’60 da J. C. R. Licklider (tra gli iniziatori delle ricerche che hanno portato alla realizzazione di Internet, vedi Sezione 5.2.1), che caratterizzava nel modo seguente le prospettive dell’interazione tra uomo e macchina: La simbiosi tra uomo e calcolatore è uno sviluppo atteso nell’interazione cooperativa tra uomini e calcolatori elettronici. Essa implica uno stretto accoppiamento tra le componenti umane e quelle elettroniche dell’associazione. Gli scopi principali sono (1) far sı̀ che i calcolatori facilitino la formulazione dei problemi cosı̀ come ora essi aiutano nella soluzione di problemi già formulati e (2) consentire agli uomini e ai calcolatori di cooperare nel prendere decisioni e nel controllare situazioni complesse senza la dipendenza inflessibile da programmi predeterminati. Nell’associazione simbiotica prevista, gli uomini indicheranno gli scopi, formuleranno le ipotesi, determineranno i criteri ed effettueranno le valutazioni. Le macchine calcolatrici faranno il lavoro di routine che deve essere compiuto per preparare la strada per nuove idee e decisioni nel pensiero tecnico e scientifico. Le analisi preliminari indicano che l’associazione simbiotica eseguirà operazioni intellettuali molto più efficacemente di come possa eseguirle l’uomo da solo.329 Per capire possibilità presenti e prospettive future dell’informatica nelle attività giuridiche dobbiamo interrogarsi sull’integrazione simbiotica tra uomo e macchina, e individuare gli ambiti nei quali i sistemi informatici, e in particolare sistemi basati sulla conoscenza, possano affiancarsi all’attività dell’uomo. 6.4.4 L’uso dei sistemi basati sulla conoscenza giuridica I risultati operativi ottenuti in ambito giuridico mediante sistemi basati sulla conoscenza furono inizialmente inferiori alle attese. I prototipi realizzati non condussero allo sviluppo di sistemi funzionanti, furono rifiutati fin dall’inizio dai funzionari destinati ad applicarli, furono abbandonati dopo una breve sperimentazione, o non si ritenne di procedere al loro aggiornamento quando le loro basi di conoscenza diventarono obsolete in seguito a modifiche normative. Negli ultimi anni tuttavia, queste iniziali delusioni sono state seguite da alcuni importanti successi, in particolare nell’ambito della pubblica amministrazione. La ragione fondamentale di tale cambiamento è da ritrovarsi innanzitutto nell’avvento di Internet, che ha modificato completamente l’uso delle applicazioni informatiche e in particolare dei sistemi basati sulla conoscenza. Internet rappresenta, infatti, un mondo aperto dove un sistema può essere utilizzato da un numero illimitato di utenti, e le funzioni di un sistema possono essere integrate con quelle offerte da altri sistemi nell’ambito di architetture distribuite. Ciò significa che il sistema finalizzato a una particolare funzione (per esempio, destinato a determinare il diritto a ricevere certe prestazioni) può essere CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 301 utilizzato (possibilmente con modalità diverse) sia da parte dei cittadini, sia da parte dei funzionari pubblici competenti, nei diversi uffici che gestiscono la normativa corrispondente. Inoltre il sistema può essere integrato con altri sistemi informatici (come per esempio, banche di dati, archivi di documenti e formulari, ecc.) in modo tale che le funzioni svolte da ciascuno di tali sistemi siano “orchestrate” per realizzare una funzionalità complessiva. Si tratta del modello informatico dei servizi di rete (Web service, vedi Sezione 3.5.2): molteplici funzioni informatiche sono rese disponibili on-line e possono essere integrate in un sistemi virtuali. Le pubbliche amministrazioni e, più in generale, i soggetti che forniscono servizi pubblici hanno iniziato a usare Internet per fornire informazioni ai cittadini. Normalmente si tratta di materiale di presentazione dell’ente e delle sue funzioni, cui si accompagna la possibilità di “scaricare” documenti di vario genere (testi normativi, manuali di istruzioni, moduli e formulari). Talvolta l’utente è abilitato a estrarre dagli archivi elettronici della pubblica amministrazione i dati che lo riguardano e a effettuare l’aggiornamento degli stessi. Tuttavia, Internet rimane un mero deposito di informazioni, la cui elaborazione e utilizzazione sono affidate per intero allo sforzo del lettore umano. I sistemi basati sulla conoscenza possono apportare un importante progresso nell’uso di Internet da parte della Pubblica Amministrazione: essi non si limitano a fornire documenti, ma impiegano le regole associate ai documenti per agevolare lo svolgimento delle relative attività amministrative. Tali sistemi sono particolarmente utili nei processi decisionali “determinativi”, cioè a quelli volti a stabilire quali obblighi e diritti spettino ai cittadini in base alla legge, e in particolare nei processi volti a stabilire se il cittadino possegga i requisiti per accedere a un certo servizio pubblico e a quali condizioni possa avervi accesso.330 I sistemi basati sulla conoscenza non sono quindi esperti automatici in grado di sostituirsi al funzionario pubblico, ma piuttosto strumenti che forniscono un aiuto intelligente al richiedente del servizio o al funzionario che lo gestisce. Si tratta di un aiuto che può integrarsi con funzionalità informatiche ulteriori (la ricerca di documenti, la fornitura di moduli, la loro predisposizione automatica) e soprattutto con le attività dell’utente e del funzionario stesso.331 L’esperienza delle pubbliche amministrazioni che più ampiamente hanno utilizzato sistemi basati sulla conoscenza (quella australiana, inglese e olandese) indicano come questa tecnologia possa avere un impatto positivo non solo sull’applicazione amministrativa di norme giuridiche, ma anche sulla formulazione delle norme stesse. Al fine di predisporre una base di conoscenza bisogna infatti tradurre i testi giuridici in regole tanto precise da essere automaticamente applicabili. Emergono cosı̀ le incoerenze e le lacune della normativa da applicare (e le possibilità di riformularne i contenuti con maggiore precisione e chiarezza), e da ciò si possono trarre utili indicazioni per il legislatore, che può essere invitato a porre rimedio ai difetti delle sue statuizioni. 302 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO Non deve essere sottovalutato il rischio che l’uso di sistemi basati sulla conoscenza nella pubblica amministrazione conduca a un’applicazione rigida e iniqua del diritto, sorda alle esigenze del caso concreto, a una forma estrema di legalismo che vincolerebbe l’attuazione del diritto non solo al testo legislativo ma anche alla particolare interpretazione dello stesso che si è deciso di inserire nel sistema informatico. Queste critiche possono però trovare risposta non tanto nel richiamarsi a superiori esigenze di certezza ed efficienza (che renderebbero sopportabili rigidità e iniquità), ma piuttosto nel ribadire che i sistemi basati sulla conoscenza non sminuiscono necessariamente né il ruolo del richiedente un servizio pubblico né quello del funzionario competente. Al contrario l’uso di tali sistemi può accrescere le sfere di iniziativa e di autonomia informata del cittadino e del pubblico funzionario incaricato di provvedere a un’attività regolata dal diritto. Ciò può avvenire quando l’uso del sistema sia agevole e controllabile, esistano procedure aperte ed efficaci per rivedere la base conoscenza quando essa conduca a conclusioni inaccettabili, siano rispettati gli ambiti nei quali l’apprezzamento non predeterminato (o predeterminato solo in parte) delle caratteristiche del caso concreto possa dare risultati migliori dell’applicazione di regole predefinite. Nella prospettiva simbiotica sopra prospettata si tratta di progettare modalità di accesso e gestione che consentano di integrare nel modo migliore attività umana ed elaborazione (e memoria) informatica, in modo che la valorizzazione dell’iniziativa del cittadino e della competenza dell’amministrazione si combini con i vantaggi che l’informatica può dare sotto i profili dell’informazione, dell’efficienza e della certezza. I sistemi basati sulla conoscenza giuridica possono essere utilmente impiegati nei processi determinativi solo grazie all’integrazione delle seguenti attività: • l’attività dell’esperto informatico-giuridico che si occupa non solo dell’inseri- mento, ma anche della correzione e revisione delle regole (nel caso di errori o della necessità di tener conto di nuove informazioni), assicurando che la base di conoscenza non contenga errori di diritto; • l’attività del cittadino o del funzionario che inseriscono i dati sui casi concreti, sulla base dell’esame delle circostanze di fatto e dell’interpretazione delle regole da applicare;332 • l’attività del sistema, che si occupa della derivazione delle conseguenze deducibili dalle regole in esso comprese e dei dati di fatto a esso forniti o cui abbia accesso. 6.4.5 I limiti dell’applicazione deduttiva di regole I sistemi che applicano automaticamente, in modo puramente deduttivo, regole preesistenti nella loro base di conoscenza, trovano le maggiori applicazioni, come abbiamo visto, nell’ambito della Pubblica Amministrazione. Essi non sono in grado di affiancare CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 303 il giurista nelle attività che formano la parte centrale del suo pensiero, che consiste nell’affrontare casi controversi, nell’identificare e valutare diversi argomenti, nel contribuire alla formazione (o concretizzazione) del diritto. Tali sistemi potrebbero svolgere per intero il ragionamento giuridico (e in particolare il ragionamento giudiziario) solo se risultasse vera, presa alla lettera, la famosa frase di Charles Montesquieu [1689-1755]: I giudici della nazione non sono [. . . ] che la bocca che pronuncia le parole della legge; esseri inanimati che non ne possono moderare né la forza né il rigore.333 Il pensiero giuridico si ridurrebbe allora al classico modello del cosiddetto sillogismo giudiziale: • le soluzioni giuridicamente corrette di ogni caso concreto sarebbero derivabili da un insieme di premesse comprendente norme giuridiche generali (la legge) e asserti fattuali specifici (i fatti del caso concreto), e • tale derivazione consisterebbe in una deduzione (qualora le premesse normative e fattuali fossero vere/valide saremmo assolutamente sicuri che anche le conclusioni sarebbero vere/valide).334 Alla riduzione del ragionamento giuridico al modello sillogistico, come è noto, si oppongono però alcune fondamentali caratteristiche del diritto e, conseguentemente, alcuni aspetti essenziali del ragionamento del giurista: le fonti del diritto spesso non forniscono norme sufficienti a disciplinare tutti gli aspetti del caso (vi sono lacune), comprendono norme che si contraddicono (vi sono antinomie) o il cui contenuto rimane indeterminato (vi sono ambiguità e vaghezze), includono casi particolari (precedenti), da cui si possano trarre indicazioni solo mediante analogie o prospettando spiegazioni e generalizzazioni.335 Inoltre, in certi casi può essere necessario andare al di là dell’applicazione di regole e precedenti, e considerare i valori individuali e sociali perseguiti dal diritto, e i modi in cui massimizzarne la realizzazione, nel rispetto delle aspettative dei cittadini e delle funzioni che competono alle diverse istituzioni giuridiche e politiche.336 Secondo alcuni, l’uso di sistemi basati su regole in abito giuridico presupporrebbe l’accettazione del modello sillogistico del ragionamento giuridico, l’idea che il diritto si riduca a un insieme di regole e che il ragionamento giuridico consista nell’applicazione “meccanica” (deduttiva) di tali regole.337 Questo errore teorico determinerebbe l’inutilità pratica di tali sistemi: non rappresentando fedelmente il diritto e il ragionamento giuridico, essi sarebbero inutili o anzi dannosi, conducendo necessariamente a risultati scorretti o ingannevoli. A mio parere è vero che i sistemi basati sull’applicazione deduttiva del diritto si limitano a cogliere un aspetto limitato del ragionamento giuridico, ma ciò non postula un errore teorico e non ne determina l’inutilità pratica. Infatti, le limitazioni di questi sistemi non ne escludono l’utile impiego, nella piena consapevolezza di tali limitazioni. In un 304 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO modello simbiotico di interazione uomo-macchina è possibile affidare alla macchina la registrazione delle regole, la loro l’applicazione deduttiva e il prelievo dei dati fattuali già disponibili in forma elettronica, e affidare invece all’uomo la formulazione delle regole, il controllo sul funzionamento del sistema e l’inserimento e la qualificazione giuridica di nuovi dati fattuali.338 6.4.6 Intelligenza artificiale e dialettica giuridica: il ragionamento defeasible Le ricerche degli ultimi anni hanno evidenziato come l’informatica giuridica possa andare al di là dei limitati risultati conseguibili nell’ambito del modello deduttivo, operando in due direzioni complementari: • la costruzione di precisi modelli dei ragionamenti giuridici non-deduttivi, la crea- zione, cioè, di una nuova logica giuridica formale, più estesa dei tradizionali modelli deduttivi;339 • lo sviluppo, sulla base di tali modelli, di software che possano agevolare la ricerca e l’elaborazione di informazioni giuridiche. Non è possibile presentare qui la vasta gamma delle ricerche innovative che, nel corso degli ultimi decenni, hanno contribuito alla crescita degli studi di intelligenza artificiale e diritto, ricerche che vertono su aspetti come l’analogia sulla base dei precedenti,340 lo sviluppo di teorie giuridiche basate su regole e casi, 341 la logica dei concetti normativi,342 la ricerca delle informazioni sulla base dei concetti, 343 la generazione di documenti, 344 ecc. Qui mi limiterò a illustrare brevemente una particolare direzione di ricerca, che ritengo particolarmente significativa, il tentativo di sviluppare nuovi modelli formali dell’argomentazione giuridica. L’idea fondamentale è che sia possibile e utile predisporre strumenti logici e informatici capaci di affrontare la dialettica del ragionamento giuridico, superando i limiti del ragionamento sillogistico. Infatti, quando la soluzione a un problema giuridico controverso è presentata quale risultato di una deduzione da regole giuridiche date, la spiegazione risulta monca: non indica perché i testi sono stati interpretati in un certo modo, perché altri testi non sono stati presi in considerazione, quali principi sono stati attuati e quali tralasciati, quali eccezioni si sono accolte o respinte, quali obiettivi sono stati perseguiti e quali sono rimasti insoddisfatti. Chi intenda giustificare una decisione giudiziale o una soluzione dottrinale solo mediante un sillogismo, è costretto a tacitare, a rimuovere (in quanto inesprimibile nel mezzo logico scelto), proprio il nucleo del proprio processo raziocinativo-argomentativo, che rimane inarticolato, se non inconsapevole. Di conseguenza, la giustificazione stessa risulta monca e insufficiente.345 A questo riguardo dobbiamo distinguere due diversi tipi di schema di ragionamento (e di corrispondenti inferenze): schemi conclusivi e schemi defeasible (vincibili).346 305 CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE La differenza tra uno schema conclusivo e uno schema defeasibile è la seguente: se si accettano le premesse di un’inferenza conclusiva se ne debbono necessariamente accettare anche le conclusioni; invece, è possibile respingere le conclusioni di un’inferenza defeasible pur accettandone le premesse. Normalmente ricorriamo al ragionamento defeasible quando le nostre premesse sono generalizzazioni empiriche o norme suscettibili di eccezione, come negli esempi seguenti. • Premesse: 1. SE 2. [Tweety è un uccello]; [x è un uccello] ALLORA [x vola] • Conclusione: 3. [Tweety vola] • Premesse: SE [x ha colpevolmente causato a y un danno ingiusto], ALLORA [x deve risarcire il danno] [Lucia ha colpevolmente causato a Renzo un danno ingiusto] • Conclusione: [Lucia deve risarcire il danno]. Possiamo continuare ad accogliere le premesse delle inferenze defeasible, anche quando informazioni ulteriori ci conducono ad abbandonarne le conclusioni. Per esempio, se venissimo a sapere che [Tweety è un pinguino], non abbandoneremmo le premesse già accolte (la convinzione che gli uccelli normalmente volano, e che Tweety è un uccello), ma riterremmo di trovarci di fronte a un’eccezione a tale regola. Allo stesso modo, se venissimo a sapere che [Lucia ha agito per legittima difesa], non abbandoneremmo l’idea che chi causa colpevolmente un danno ingiusto lo debba risarcire, ma riterremmo di trovarci di fronte a un’eccezione a tale regola (l’esonero da responsabilità per legittima difesa). Come abbiamo visto, un’inferenza defeasible è un argomento che si impone alla nostra ragione, ma solo in modo provvisorio, cioè solo a condizione che non emergano eccezioni, contro-esempi, argomenti contrari di importanza preminente. Pertanto, il fatto che si accolgano le premesse dell’argomento che conduce a una certa conclusione può essere insufficiente a giustificare tale conclusione: un argomento dotato di premesse valide perde la propria forza se viene sconfitto (defeated) da un controargomento. Per illustrare la dialettica di argomenti contrapposti dobbiamo considerare brevemente la struttura degli argomenti e i modi in cui essi possono essere attaccati da contro-argomenti. La struttura fondamentale degli argomenti basati su regole è rappresenta in forma generale nei grafi proposti dal Stephen Toulmin,347 nei quali si distinguono i dati di partenza dell’argomento (data) e la regola generale (warrant), che consente di passare 306 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO Rossi ha causato un danno ingiusto a Verdi Argomento A Rossi ha l'obbligo risarcire il danno a Verdi Rossi ha agito con colpa Chi causa ad altri un danno ingiusto con dolo o colpa, ha l'obbligo di risarcire il danno Argomento B Rossi non è responsabile (non ha l'obbligo di risarcire il danno) Rossi ha agito in stato di incapacità Chi è incapace non è responsabile (non ha l'obbligo di risarcire il danno) Argomento C La regola dell'esonero da responsabilità in caso di incapacità non si applica a Rossi Rossi è divenuto incapace per sua colpa La regola dell'esonero da responsabilità in caso di incapacità non si applica a chi sia divenuto incapace per sua colpa Figura 6.7: Dialettica di argomenti: responsabilità civile dai dati alla conclusione che si vuole sostenere (claim). Per esempio, nell’argomento A della Figura 6.7, i dati sono costituiti dal fatto che Rossi ha causato un danno ingiusto a Verdi agendo con colpa, la conclusione è rappresentata dall’obbligo risarcitorio a carico di Rossi, e il nesso tra fatti e conclusione è fornito dalla regola generale che ogni fatto doloso o colposo che causi ad altri un danno ingiusto obbliga l’autore al risarcimento. Possiamo distinguere due modi in cui un argomento defeasible ↵ può essere contrastato. Il primo è detto rebutting,348 termine che forse possiamo tradurre con “contraddire”, e consiste nell’opporre ad ↵ un contro-argomento che contraddice la conclusione CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 307 di ↵: la conclusione di nega, o comunque è incompatible con la conclusione di ↵. Il secondo è detto undercutting,349 che forse possiamo tradurre con recidere, e consiste nell’opporre ad ↵ un contro-argomento che nega la forza argomentativa di ↵: afferma che le premesse di A sono inidonee a fondarne la conclusione (in particolare, può contestare l’applicabilità della regola su cui si fonda, in ↵, il passaggio da premesse a conclusioni). Per esempio, l’argomento A della Figura 6.7 è contraddetto (rebutted) dall’argomento B secondo il quale Rossi non è responsabile essendosi stato incapace di intendere e di volere nel momento dell’incidente.350 L’argomento B della Figura 6.7 (Rossi non è responsabile, in forza della sua incapacità) viene reciso (undercut) dall’argomento C secondo il quale l’incapacità di Rossi non è rilevante (non lo scusa) poiché Rossi provocò colpevolmente il suo stato di incapacità, per esempio, assumendo bevande alcoliche. Il fatto che Rossi abbia bevuto troppo non è un’autonoma ragione per la quale egli debba essere ritenuto responsabile (si è responsabili per aver causato ad altri un danno ingiusto, non per la propria ubriachezza). Si tratta invece di una ragione per disapplicare la regola secondo la quale chi è incapace non è responsabile o, detto in altro modo, per escludere la rilevanza dell’incapacità, per impedire (recidere) il passaggio dall’incapacità alla non-colpevolezza. L’accoglimento delle premesse (i dati e la regola) di un argomento defeasible non è sufficiente a garantire l’accettabilità della sua conclusione. A tal fine dobbiamo altresı̀ considerare se esistano contro-argomenti che contraddicano o recidano il nostro argomento. Solo se tutti i contro-argomenti possono essere superati alla luce di considerazioni ulteriori, la conclusione dell’argomento risulta giustificata. Da ciò discendono due aspetti importanti dell’interazione dialettica tra argomenti contrapposti. Il primo aspetto consiste nella possibilità di ristabilire (reinstate) un argomento, attaccando gli argomenti che potrebbero sconfiggerlo. Un argomento può essere difeso non solo producendo argomenti ulteriori che vanno nella stessa direzione (che ne ribadiscono la conclusione) ma anche, e soprattutto cercando di demolire i contro-argomenti che a esso si oppongono (in modo da recuperare l’argomento stesso). Per esempio, l’argomento A appena presentato (Rossi è responsabile avendo danneggiato colpevolmente Verdi) può essere difeso contro l’attacco del contro-argomento B (Rossi non è responsabile essendosi trovato in stato di incapacità), attaccando B con il nuovo contro-controargomento C (l’incapacità di Rossi è irrilevante, essendosela procurata Rossi stesso, ingerendo sostanze alcoliche). C nell’invalidare B, fa in modo che A riacquisti la propria forza (C ristabisce A).351 Nel diagramma della Figura 6.7 lo stato dialettico di un argomento è indicato dal colore dello stesso: gli argomenti in (validi, alla luce dell’informazione riportata nel diagramma) sono in chiaro, gli argomenti out (invalidi, alla luce dell’informazione disponibile) sono ombreggiati. Il diagramma evidenza come l’argomento A, che sarebbe stato out sulla base del contro-argomento B, torna in una volta che B diventi out, essendo invalidato dal suo contro-argomento C. 308 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO A. La foto di Maria non può essere pubblicata poiché ciò viola la sua privacy B. La pubblicazione della foto di Maria non viola la sua privacy poiché Maria è ritratta in un luogo pubblico C. La pubblicazione della foto di Maria viola la sua privacy anche se la ritrae in un luogo pubblico, poiché Maria è riconoscibile dalla foto D. La foto di Maria può essere pubblicata poiché ciò corrisponde all'altrui diritto all'informazione F. Il divieto di pubblicare la foto di Maria (quale violazione della sua privacy) non si applica perché Maria ha consentito alla pubblicazione della foto E. Il diritto alla privacy di Maria prevale sull'altrui diritto all'informazione poiché la foto non attiene ad attività di Maria aventi interesse pubblico Figura 6.8: Dialettica di argomenti: la privacy Il secondo aspetto, invece, consiste nella possibilità di sostenere un argomento A, contraddetto (rebutted) da un contro-argomento B, adducendo ulteriori argomenti che indichino perché A debba prevalere su B. Per esempio, assumiamo che nella causa di divorzio tra Rossi e Verdi, Rossi affermi (argomento A) il proprio diritto all’uso dell’abitazione della famiglia, essendo affidatario dei figli, e che Verdi (argomento B) opponga il proprio diritto a possedere tale abitazione, in quanto proprietaria della stessa. A questo punto, il contrasto tra i due argomenti può forse essere risolto affermando (argomento C) la prevalenza dell’argomento di Rossi, poiché tale argomento corrisponde al preminente interesse dei figli. L’esito del conflitto tra A e B è indeterminato quanto si considerino solo A e B. Esso acquista determinatezza alla luce della valutazione comparativa motivata dall’ulteriore argomento C.352 Una dialettica argomentativa più complessa è illustrata nella Figura 6.8. Ripercorriamo brevemente questo esempio. S’immagini che la foto di una persona, chiamiamola Maria, sia stata pubblicata in un giornale e che Maria chieda lumi al suo avvocato sui possibili rimedi giuridici (l’esempio non intende essere giuridicamente accurato, ma si limita a illustrare, nel modo più semplice, la logica qui proposta). Il primo argomento considerato dal legale è il seguente: A : La foto di Maria non può essere pubblicata, poiché ciò viola la sua privacy. CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 309 Da A, considerato isolatamente, possiamo trarre la conclusione che la foto di Maria non poteva essere resa pubblica (la sua pubblicazione viola i diritti di Maria). Tuttavia, l’avvocato deve considerare anche i possibili contro-argomenti, come B: B : La pubblicazione della foto di Maria non viola la sua privacy, poiché la ritrae in un luogo pubblico Dinanzi ad argomenti in conflitto (come A e B nel nostro esempio) ci si trova in uno stato di incertezza o perplessità: vi sono più argomenti in competizione ma, per quanto è emerso finora, nessuno di essi prevale sugli altri, tutti tali argomenti sono difendibili, ma nessuno è giustificato. In generale, per determinare se un argomento giuridico sia giustificato, non basta guardare a quell’argomento isolatamente. Al contrario bisogna collocare l’argomento nel contesto di tutti gli argomenti rilevanti, cioè nel contesto argomentativo (argumentation framework) del caso. Come vedremo, al mutare del contesto argomentativo in cui un argomento viene collocato può mutare lo status dell’argomento: argomenti che apparivano giustificati possono cessare di esserlo, mentre argomenti che apparivano sopraffatti da argomenti in contrario, possono riacquistare forza. Per esempio, se A fosse stato l’unico argomento rilevante nel caso di Maria, e nessuna obiezione (contro-argomento) si fosse potuta sollevare contro di esso, avremmo dovuto accettare la sua conclusione. Invece nella cornice argomentativa che unisce A e il controargomento B, A non è più giustificato (Maria non riesce a dimostrare che la foto non poteva essere pubblicata). Tuttavia l’avvocato di Maria, riflettendo ancora sulla causa, trova un argomento contro B: C : La foto di Maria viola la sua privacy, anche se la ritrae in un luogo pubblico, poiché Maria è riconoscibile nella foto. L’argomento C prevale contro B (essendo più specifico) e quindi priva B di rilevanza nel caso in esame. Di conseguenza, nel contesto argomentativo costituito degli argomenti A, B e C (dove A è attaccato da B, ma dove C attacca B e prevale su di esso) risulta che A è giustificato (Maria dimostra che la sua foto non poteva essere pubblicata). Vi è però un altro possibile argomento a favore della pubblicazione della foto: essa realizza l’interesse del pubblico (assumiamo che Maria rivesta un ruolo pubblico). D : La foto di Maria può essere pubblicata poiché ciò realizza l’interesse del pubblico Il nuovo argomento D porta un nuovo attacco contro l’argomento A. Nel contesto argomentativo A, B, C, e D, risulta che A non è più giustificato (Maria non riesce a dimostrare che la sua foto non poteva essere pubblicata). A questo punto, l’avvocato perplesso ricorre al meta-ragionamento. Egli sviluppa un nuovo argomento (E) che adduce ragioni a favore della prevalenza di uno degli argomenti in conflitto: 310 6.4. CONOSCENZA ESPLICITA E RAGIONAMENTO E : Il diritto alla privacy prevale sull’interesse del pubblico alla conoscenza, poiché la foto non attiene ad attività di Maria aventi interesse pubblico. Grazie all’aiuto fornitogli dal nuovo argomento E, A appare ora superiore a D, e quindi capace di prevalere su di esso e di emergere dal conflitto come giustificato. In altre parole, nel contesto argomentativo costituito dagli argomenti A, B, C, D, E (dove A e D si attaccano reciprocamente, e E afferma che A è superiore a D), A risulta giustificato (Maria dimostra che la sua foto non poteva essere pubblicata). Il ragionamento dell’avvocato, purtroppo, non è ancora finito. Nel colloquio con la cliente emerge che ella aveva consentito alla pubblicazione della propria foto. Abbiamo cosı̀ un nuovo argomento: F : Il divieto di pubblicare la foto di Maria (in quanto attinente alla sua privacy) non si applica poiché Maria ha consentito alla pubblicazione della foto. Nel contesto argomentativo rappresentato dagli argomenti A, B, C, D, E, e F , risulta che A non è più giustificato (quindi Maria non riesce a dimostrare che la sua foto non poteva essere pubblicata). L’argomentazione potrebbe continuare indefinitamente (per esempio, si potrebbe sostenere che il consenso di Maria era stato revocato, cosa che rende inapplicabile la regola del consenso), ma quanto detto finora può dare sufficiente supporto alla tesi che il ragionamento giuridico consiste nella dialettica tra argomenti e contro-argomenti, e che tale dialettica fa sı̀ che il ragionamento giuridico sia defeasible: le conclusioni che appaiono giustificate alla luce di certi argomenti possono essere inficiate da argomenti ulteriori.353(m) Questo pur sommario esempio dovrebbe essere sufficiente a illustrare l’idea fondamentale che caratterizza i tentativi di costruire modelli formali della dialettica giuridica. Si tratta di affrontare situazioni nelle quali vi sono numerosi argomenti in gioco. Alcuni stanno combattendo per la supremazia, altri danno sostegno ad alcuni dei combattenti (per esempio, fornendo ragioni per le quali essi dovrebbero prevalere sui propri oppositori), altri negano l’applicabilità di altri argomenti, e cosı̀ via. Il compito di una logica dialettica è quello di dirci non solo quali argomenti siano costruibili utilizzando premesse date, ma anche di determinare quali argomenti emergano vincitori (giustificati) dallo scontro con i loro contro-argomenti, quali siano sconfitti, e quali siano difendibili (non sconfitti, ma neppure vincitori). Logiche degli argomenti, come quella appena presentata sono state usate per realizzare sistemi informatici che, anziché limitarsi a fornire una risposta univoca ai quesiti loro proposti, elaborino giustificazioni per la soluzione di punti controversi, suggeriscano argomenti possibili, valutino lo stato degli argomenti alla luce dell’architettura argomentativa complessiva risultante dalle informazioni fornite al sistema (gli argomenti, i contro-argomenti e i meta-argomenti costruibili con tali informazioni e le loro relazioni).354 La realizzazione di tali sistemi richiede nuovi linguaggi per la rappresentazione della conoscenza, sufficientemente espressivi da cogliere le strutture fondamentali della CAPITOLO 6. L’INTELLIGENZA ARTIFICIALE 311 conoscenza giuridica (le regole, i diritti, i casi, i principi, i valori, ecc.) e nuovi metodi di inferenza, che riproducano i passi tipici del ragionamento giuridico (l’applicazione di regole, il riferimento ai precedenti, il ragionamento teleologico, ecc.).355 Uno sviluppo ulteriore consiste nella realizzazione di sistemi tesi ad agevolare le discussioni giuridiche (cooperative o conflittuali) indicando alle parti, in ogni momento della loro interazione, quale sia lo stato di ogni argomento, e quali nuovi argomenti possano essere rilevanti per l’oggetto della discussione. Inoltre tali sistemi mirano a organizzare le informazioni fornite nel corso del dialogo in un’architettura di argomenti e contro-argomenti (ragioni e contro-ragioni), dove ogni argomento sia collegato agli argomenti che sostiene o attacca. Chi entra nella discussione può quindi accedere più facilmente al punto del dibattito che lo interessa maggiormente, o rispetto al quale egli voglia fornire un contributo. Tra le applicazioni, ricordo i sistemi intesi a promuovere il dialogo democratico (la discussione di temi politici e amministrativi), o a facilitare la soluzione di controversie mediante conciliazione. Questi sistemi si scontrano però con la difficoltà di tradurre in strutture logiche uniformi (necessarie affinché il sistema possa organizzare le argomentazioni fornite dalle parti), le molteplici e complesse forme linguistiche in cui si svolge il dibattito giuridico.356