circùito (biologia)
che simula il neurone, ossia un elemento di calcolo elettrobiochimico riprogrammabile, e lo integra in strutture a rete rispecchianti, anche se in modo estremamente semplificato, i modelli biologici del cervello degli esseri viventi. È denominato circuito neuronale. L'interesse per questo tipo di circuito nasce dall'osservazione che i sistemi biologici effettuano regolarmente il riconoscimento di immagini e di parole che richiederebbero elaborazioni che superano la potenzialità degli elaboratori più potenti. Nella realtà biologica un neurone comunica con migliaia di altri neuroni attraverso contatti specializzati, le sinapsi. L'impulso nervoso (di natura elettrica) lanciato dal neurone presinaptico stimola un segnale chimico nella sinapsi che viene raccolto dal neurone postsinaptico che, a sua volta, cumula tutti i segnali (sinaptici e non) e, nella schematizzazione più semplice, lancia un proprio impulso nervoso se, e solo se, si raggiunge una determinata soglia di eccitazione. La sinapsi ha funzioni inibitorie o eccitatorie e funzioni di apprendimento. In pratica la sinapsi ha la capacità di graduare la trasmissione dell'impulso nervoso e di variarne la graduazione. La nozione di peso sinaptico traduce questa complessa proprietà che amplifica (eccitazione) o riduce (inibizione) l'impulso nervoso; il peso sinaptico è una variabile plastica capace di cambiare nella fase di apprendimento e di conservare la conoscenza acquisita nella fase d'uso, dove apprendimento e uso sono proprietà che vengono precisate dal sistema nervoso nel suo complesso e dalle situazioni alle quali il sistema si trova esposto. Nella realtà elettronica la sinapsi diventa un moltiplicatore fra il proprio ingresso (il segnale lanciato dal neurone artificiale presinaptico) e il peso sinaptico con un segnale di uscita pari a questo prodotto. Elementi elettronici costitutivi delle sinapsi sono, nelle versioni meno elaborate, cavi, resistenze e capacità, con queste ultime che forniscono l'adattabilità e la plasticità richiesta al peso sinaptico. Analogamente il neurone diventa un operatore che accumula i contributi in ingresso delle sinapsi artificiali e che lancia un segnale in uscita al di sopra di una soglia predeterminata. L'operatore è un sommatore di ingressi con uscita uno se la somma raggiunge la soglia, zero nel caso contrario; un possibile dispositivo con queste prestazioni è l'amplificatore operazionale. L'organizzazione di moltissimi neuroni in strutture molteplicemente connesse si ritiene caratterizzino le grandissime potenzialità dei sistemi nervosi, anche di quelli più semplici. L'elaborazione neurobiologica è una proprietà collettiva emergente dal sistema, che deriva da come i componenti sono organizzati e che può non essere evidente nel singolo elemento. Il cervello umano è una megalopoli di neuroni (decine di miliardi) densamente interconnessi che sviluppano sia funzioni logiche e mnemoniche sia la trasmissione dell'informazione. Analogamente è la ricchezza delle connessioni che caratterizza i circuiti neuronali e li distingue dall'elaboratore elettronico tradizionale. Manca nel circuito neuronale l'elaborazione mediante sequenze di passi logici regolate dal temporizzatore, che è tipica dell'elaboratore sincrono classico. Il circuito neuronale è un dispositivo asincrono che, grazie alle proprie proprietà collettive, cambia uno stato iniziale impresso nello stato “risultato”. Quest'ultimo è uno stato stabile che viene raggiunto secondo procedimenti complessi simili a quelli dell'elaborazione parallela. Sostanzialmente diversa è anche la memoria, di tipo associativo. Il binomio indirizzo/dato dell'elaboratore digitale classico, con l'indirizzo che non contiene alcuna informazione sulla natura del dato, viene sostituito da uno spazio multidimensionale in cui ciascuna dimensione comprende una caratteristica distintiva dell'informazione. In breve, un ricordo parziale in ingresso permette di ritrovare l'informazione memorizzata attraverso un meccanismo simile a quello biologico che ricostruisce un ricordo per associazione o che è capace di completare le forme da un riconoscimento parziale. Altre caratteristiche rilevanti del circuito neuronale, che lo distinguono sostanzialmente dall'elaboratore classico, sono quella di resistere ai danni, dato che la perdita di alcune sinapsi è ininfluente sul risultato, e quella di possedere una velocità di elaborazione che non dipende in modo significativo dalla complessità dell'informazione specifica. Il concetto di circuito neuronale ha avuto una lunga evoluzione. I primi studi teorici sui neuroni formali risalgono al 1943 e portano a due risultati di rilievo: un principio di equivalenza sulla capacità di appropriati circuiti neuronali di svolgere qualsiasi elaborazione che fosse effettuabile con programmi che girano su elaboratori classici; la possibilità di apprendimento del circuito neuronale agendo sulla regolazione della soglia neuronica e dei pesi sinaptici. Il peso sinaptico regolabile ha assunto carattere centrale nelle ricerche di macchine capaci di apprendere dall'esperienza, modificando la propria struttura interna. I neuroni adattivi realizzati in semplici reti in grado di apprendere risalgono agli anni Sessanta, periodo nel quale sono stati concepiti circuiti neuronali capaci di conoscere una forma (una lettera dell'alfabeto) indipendentemente da orientamento e grandezza. Lo studio del problema delle memorie associative, che conducono a una classe di circuiti neuronali che si differenzia da quella che effettua elaborazioni, è stato al centro dell'attenzione negli anni Settanta. Con gli anni Ottanta l'interesse per i circuiti neuronali è aumentato in modo straordinario grazie al concorso dei progressi multidisciplinari: a) nella conoscenza dell'elaborazione neurobiologica dell'informazione; b) nella potenza di calcolo degli elaboratori artificiali; c) nell'elaborazione parallela; d) nell'integrazione dei circuiti analogici che meglio si prestano ai circuiti neuronali; e) nella formulazione dei modelli di neurone e sinapsi. I circuiti neuronali successivamente sono diventati una realtà di laboratorio, anche se essi hanno trovato già applicazioni pionieristiche in campi quali le previsioni del carico elettrico, la diagnosi medica, il riconoscimento della parola, il telerilevamento. La barriera principale al loro sviluppo è rappresentata dalla necessità di sistemare un numero considerevole di sinapsi in un circuito (da centomila a un milione) per poter affrontare problemi di interesse pratico, ma anche dalle procedure di apprendimento tuttora troppo lente e inadeguate e, più in generale, dai principi di base del futuro “neurocomputer” ancora da scoprire. Alle soglie degli anni Novanta i circuiti neuronali sperimentali basati su tecniche digitali, pur con prestazioni di notevole precisione, non superano l'integrazione di qualche decina di sinapsi su un chip. I circuiti neuronali basati su tecniche analogiche hanno dato luogo a un risultato pratico di rilievo: la retina al silicone con 250.000 sinapsi collegate direttamente a fotosensori e a pesi sinaptici fissi (perceptrone); si tratta di un progresso fondamentale verso la visione artificiale, ma l'applicazione richiederebbe il superamento del limite dei pesi sinaptici fissi, privi di adattamento e, più in generale, di capacità di apprendimento. Chips analogici realizzati con pesi variabili, e quindi con la flessibilità richiesta ai circuiti neuronali, presentano la difficoltà del decadimento dell'informazione “peso” durante l'uso, decadimento piuttosto rapido e tipico delle soluzioni circuitali a condensatore. Una svolta sembra delinearsi con lo sviluppo di circuiti misti digitali/analogici a modulazione di impulsi, che realizzano i vantaggi di entrambe le tecniche e sembrano possedere la richiesta flessibilità, velocità, affidabilità, dimensioni e permanenza di memoria.