intelligènza artificiale
IndiceDescrizione generale
Branca della scienza che, sviluppatasi originariamente nell'ambito della cibernetica, studia la possibilità di trasferire alle macchine alcune delle caratteristiche associate all'intelligenza dell'uomo, come la capacità di comprendere linguaggi naturali o di ragionare in situazioni di dubbio. Campi tradizionali dell'intelligenza artificiale sono l'elaborazione del linguaggio naturale, la visione e la robotica, i sistemi esperti. Gli sviluppi tecnologici e della ricerca hanno spostato l'accento dal tentativo di incorporare in singoli sistemi capacità complesse alla distribuzione delle abilità fra diversi agenti semplici, facendo emergere la soluzione a problemi complessi dalla cooperazione degli agenti. Inoltre, accanto a tradizionali approcci basati sulla codifica in regole della conoscenza e delle logiche umane, si sono proposti sistemi in grado di apprendere le risposte adeguate a problemi complessi, senza dovere necessariamente esplicitarle in forma di regole logiche.
Cenni storici
La nascita del concetto di intelligenza artificiale si può far risalire al 1950, anno in cui apparve il saggio Computing Machinery and Intelligence (tradotto in italiano come Macchine calcolatrici e intelligenza) del matematico britannico Alan Mathison Turing, mentre il termine di intelligenza artificiale fu proposto per la prima volta da Marvin Minsky e John McCarthy durante un seminario di informatica al Darthmounth College di Hannover, nel New Hampshire (Stati Uniti), nel 1956. Nel 1947 Turing aveva proposto un criterio, la cosiddetta “prova di Turing”, per consentire di decidere quando una macchina poteva essere considerata intelligente. Si immagini di essere collegati per telescrivente con un essere umano e con una macchina che cerca di passare per essere umano: secondo Turing, si potrà dire che la macchina pensa quando chi interroga non è in grado di distinguere quale è il terminale collegato all'essere umano e quale quello collegato alla macchina dopo un numero ragionevole di domande e risposte. Inizialmente i ricercatori dell'intelligenza artificiale puntarono sulla realizzazione di macchine logiche sempre più avanzate, scontrandosi però con il fatto che la logica tradizionale riesce a rappresentare i fatti, non le intenzioni o le credenze; i formalismi logici più complessi possono poi generare paradossi tali da mettere in crisi una macchina ragionatrice. I sistemi artificiali iniziali si dimostrarono in grado di svolgere alla perfezione i compiti loro assegnati, ma non erano in grado di adattare il loro comportamento a variazioni dei termini del problema, né di apprendere da esempi di comportamento corretto o scorretto. Un rilancio dell'intelligenza artificiale si ebbe nel 1982, quando il governo giapponese lanciò il progetto della “quinta generazione” di elaboratori, che nel giro di una decina d'anni avrebbe dovuto portare a macchine completamente nuove, capaci di utilizzare le tecniche dell'intelligenza artificiale e dei sistemi esperti per sviluppare un comportamento intelligente e dotate della possibilità non solo di comunicare con gli esseri umani nella loro lingua, ma di realizzare traduzioni praticamente perfette tra lingue anche assai diverse quali l'inglese e il giapponese. Questi prestigiosi traguardi non furono raggiunti, ma la sfida giapponese preoccupò seriamente tanto il governo degli Stati Uniti quanto quelli di diversi Paesi europei, che incoraggiarono progetti paralleli per impedire che il Giappone, in caso di successo, si impadronisse del mercato informatico a livello mondiale. Il risultato di tutti questi progetti fu un insieme di progressi in settori isolati che, seppur ancora lontani dagli obiettivi previsti inizialmente, erano degni di nota. Furono proprio i nuovi settori, relativi alla visione artificiale e ai sistemi esperti, insieme all'elaborazione di testi in linguaggi umani e un nuovo sviluppo delle reti neuronali, ad aprire nuove prospettive per l'intelligenza artificiale. La macchina non può più limitarsi a essere un puro esecutore di algoritmi, definiti in ogni particolare, ma deve sviluppare la capacità di evolversi da sola, di imparare senza bisogno di essere completamente programmata. Non è sufficiente riuscire a costruire un sistema esperto abilissimo nel gioco degli scacchi (“Genius”, un programma scritto dall'inglese Richard Long, ha battuto il 31 luglio 1994 a Londra Garry Kasparov, campione del mondo professionisti di scacchi, sia pure sulla distanza di 25 minuti) o un sistema in grado di effettuare diagnosi mediche accuratissime, per ottenere che vengano qualificati come “intelligenti”. Il sistema deve essere capace di interagire con l'ambiente fisico e di imparare dall'esperienza: deve manifestare un comportamento intelligente globale e non eminentemente settoriale. Per ottenere risultati significativi i ricercatori si sono resi conto della necessità di progetti che, al di là delle esigenze specifiche, garantiscano l'integrazione delle varie aree di ricerca, unificandole in un solo obiettivo. Si sta tentando adesso di far progredire nelle macchine non solo le capacità visive e percettive, ma anche il ragionamento automatizzato, la pianificazione, la rappresentazione delle conoscenze e la comprensione del linguaggio naturale. Obiettivo di base è la realizzazione fisica di un sistema su cui verificare sperimentalmente la correttezza dell'approccio integrato già elaborato, per disporre poi di una piattaforma che consenta, partendo dalla percezione dell'ambiente, di affrontare il problema dell'apprendimento, acquisendo autonomamente esperienza dall'interazione diretta con le persone e con il mondo fisico. Ricerche in questa direzione sono in corso in tutto il mondo, dai tentativi, soprattutto a opera di studiosi giapponesi, di introdurre elementi affettivi nel comportamento di sistemi che devono interagire in modo naturale con utenti umani, agli esperimenti dell'Istituto per la ricerca scientifica e tecnologica (IRST) nel progetto MAIA (Modello Avanzato di Intelligenza Artificiale), la cui piattaforma sperimentale è concepita e sviluppata come un sistema integrato costituito da diverse “menti” e alcuni “bracci”. Le menti sono realizzate con una serie di programmi distribuiti su una rete di calcolatori che, interagendo in cooperazione tra loro, governano lo svolgimento delle funzioni dei bracci: il concierge, un terminale che interagisce in modo multimediale con i visitatori, la bibliotecaria elettronica, un sistema che procede alla registrazione automatica per il prestito o la restituzione di libri, e una famiglia di robot mobili, cui sono affidati compiti diversi, capaci di spostarsi autonomamente all'interno dei locali dell'istituto. Per potenziare le capacità di un sistema “intelligente” bisogna dotare questo di un'elevata capacità di apprendimento. È necessario che il sistema possa apprendere nuove funzioni, che sia in continuazione aggiornabile sulla base delle esperienze accumulate. Se, però, ogni nuova funzione aggiunta richiede una procedura specifica, è inevitabile che il numero delle procedure, e quindi dei programmi, continui a crescere, al punto da diventare troppo complesso da gestire. L'elaborazione potrebbe essere sostituita dalla memoria. Così, per esempio, un robot per spostarsi invece di basarsi sull'elaborazione di distanze da pareti e ostacoli per calcolare la rotta, potrebbe ricorrere a un processo mnemonico basato sul confronto tra le immagini dell'ambiente, acquisite mediante il sistema ottico di cui dispone, e immagini memorizzate nella fase iniziale di addestramento. La ricerca in questo campo mira a trovare modelli efficienti di apprendimento, quali le reti neuronali artificiali, che possono essere considerate come memorie associative, utilizzabili dopo un'adeguata fase di addestramento. L'apprendimento avviene in sostanza utilizzando la differenza tra l'output fornito dalla rete e l'output fornito dall'istruttore, o atteso in base a certi criteri di ottimizzazione, in un processo interattivo che cambia i parametri del circuito e tende ad annullare l'errore così misurato. In generale i modelli matematici utilizzati nell'apprendimento sono basati sulla determinazione di curve geometriche che segmentino in modo opportuno uno spazio vettoriale le cui componenti sono descrittori delle situazioni a cui si deve rispondere, in modo da determinare la risposta adeguata alle configurazioni di descrittori che si possono presentare al sistema. Sempre più spesso sistemi di apprendimento sono associati ad algoritmi genetici per l'identificazione delle partizioni più efficienti. In un algoritmo genetico si parte da una popolazione di possibili soluzioni a un problema e si opera una selezione in base a certe caratteristiche desiderate. Le soluzioni selezionate sono la base per una nuova generazione, che possono anche presentare delle piccole variazioni rispetto alle soluzioni cosiddette “genitore”. Queste soluzioni vengono quindi provate sui dati del problema e si procede con un nuovo ciclo di selezione-variazione-generazione. Questo approccio mira a limitare un tipico problema della ricerca della soluzione ottimale in uno spazio di dati, il problema del collasso in un ottimo locale. Si immagini lo spazio delle soluzioni come una superficie tridimensionale in cui le coordinate x e y descrivono le caratteristiche della soluzione e la coordinata z il costo della soluzione. Lo spazio può avere un minimo assoluto e diversi minimi locali, dove i costi minimi sono ovviamente da preferire. Se esploriamo situazioni nell'intorno di un minimo locale, nessuna soluzione risulterà migliore di quella corrispondente a esso. Di conseguenza, la ricerca della soluzione potrebbe non allontanarsi mai da quella già trovata e non raggiungere l'ottimo assoluto. Questo problema è ridotto dall'uso di algoritmi genetici, in quanto diverse soluzioni vengono messe a competere fra loro in parallelo, aumentando la probabilità di trovare quella ottimale. La diffusione di Internet, e in generale la possibilità di mettere in comunicazione diversi processori per costruire soluzioni distribuite a problemi complessi, hanno portato il campo dell'intelligenza artificiale a porsi nuovi problemi: per esempio quelli di pianificazione del comportamento di singoli programmi intelligenti si estendono alla pianificazione e al coordinamento di comportamenti di agenti indipendenti che comunicano, cooperando o concorrendo fra loro. In questo caso, non si può ricorrere, pena l'andare incontro a inefficienze e complessità insostenibili, a una completa descrizione dello spazio dei possibili comportamenti dell'intera popolazione di agenti indipendenti. Si tratta quindi, nel campo dell'intelligenza artificiale distribuita, o dei sistemi multiagenti, di descrivere protocolli di negoziazione fra le attività degli agenti che possano portare a soluzioni concordate, o a esprimere vincoli che le soluzioni devono soddisfare e a cui gli agenti si devono adattare. La diffusione del web ha anche sollevato nuove questioni connesse al progetto del web semantico, cioè alla possibilità di definire il significato di un documento in termini di concetti astratti. Tali studi sfruttano le ricerche su frame e reti semantiche di Minsky e Sowa, mirate negli anni Settanta a fornire strumenti di rappresentazione della conoscenza nei sistemi esperti, e le combinano con le tecniche per l'estrazione del significato dei testi dal linguaggio naturale, sviluppate in particolare in Europa.
In anni recenti gli studi sull’AI hanno parzialmente modificato l’aspetto metodologico e contenutistico rivolgendosi a problemi reali delimitati (come il riconoscimento del parlato o la pianificazione di attività di fabbrica). Dal 2012, i più innovativi ambiti di ricerca si concentrano su reti neurali organizzate in più livelli di profondità che imitano struttura e funzionamento del cervello umano (Deep Learning). Significativi sono stati i progressi delle AI nel campo della robotica e della visione artificiale, in particolare a partire dal 2005 con la vettura Stanley nell’ambito della realizzazione di veicoli a guida autonoma, e nel riconoscimento vocale che ha portato alla diffusione su vasta scala di assistenti vocali come Siri di Apple, Cortana di Microsoft o Alexa di Google. Nel 2017 nel convegno promosso dal Future of Live Institute, i massimi esperti di AI hanno redatto un vademecum di 23 punti riguardante le questioni etiche, sociali, culturali e militari correlate al progresso della ricerca noto come Principi di Asilomar. Allo stesso modo nel 2019 l’UE ha stilato un Codice Etico che contiene le linee guida su utilizzo e sviluppo di sistemi di Intelligenza Artificiale.