Lo
sviluppo di sistemi di elaborazione la cui architettura è ispirata ai
sistemi biologici ha portato rapidamente all'emergere di un nuovo modo di considerare
i processi cognitivi. Le reti neurali artificiali sono costituite da un insieme
di unità di elaborazione molto semplici (dette, per analogia, "neuroni"),
fittamente interconnesse: ciascuna unità integra i segnali in ingresso
(provenienti dall'esterno o da altre unità), ne valuta l'entità
e in base ad essa emetterà o meno un segnale in uscita (diretto all'esterno
o ad altre unità). Questo
tipo di elaborazione distribuita in parallelo (un approccio subsimbolico, in
quanto prende sin dall'inizio in considerazione la microstruttura del sistema
cognitivo) ha permesso di risolvere parecchi problemi legati all'approccio simbolico:
là dove, in un sistema basato sull'approccio simbolico, un piccolo danno
è sufficiente a provocare il blocco dell'intero sistema, i sistemi distribuiti
sono notoriamente molto robusti riguardo al danneggiamento (il sistema può
sopportare "lesioni" anche molto estese prima di risentirne significamente
nella sua efficienza); l'informazione in ingresso al sistema può essere
alquanto "rumorosa", ovvero perturbata da variazioni più o
meno casuali; in questo caso il sistema estrae la tendenza centrale o media
del segnale, processo che corrisponde ad un filtraggio del rumore (si pensi,
ad esempio, a come noi riusciamo a riconoscere un viso anche sotto condizioni
di illuminazione e angolazione assai differenti). In un sistema simbolico, al
contrario, è molto difficile trattare segnali meno che perfetti (si provi
a cercare in una base dati, dando una chiave di ricerca con qualche elemento
sbagliato...); i sistemi distribuiti possono apprendere. Dando al sistema la
possibilità di vedere campioni di ciò che deve imparare, e tramite
un algoritmo che modifica la forza delle singole connessioni tra le unità,
tali sistemi possono apprendere una varietà di compiti anche molto complessi
(dal riconoscimento di immagini, alle previsioni metereologiche, ad associare
alle parole un contenuto semantico, a muovere un braccio meccanico, ecc.). Questa
capacità di apprendere dall' "esperienza" tramite semplice
modulazione della forza delle connessioni tra le unità, oltre ad avvicinare
ovviamente questi sistemi a quelli biologici, risulta estremamente importante
dal punto di vista teorico perché offre una convincente alternativa all'apprendimento
basato sulla costruzione di regole esplicite: non vi è nessun "centro
di costruzione di regole" nel sistema; semmai le regole emergono come epifenomeni
in una descrizione di livello più astratto, mentre ad un livello più
basso vediamo come tutta l'informazione sia immagazzinata nelle connessioni
tra le unità;
i sistemi distribuiti possono generalizzare le loro prestazioni a casi sui quali
non sono stati addestrati (ad esempio, una rete neurale che è stata addestrata
a riconoscere caratteri di scrittura a mano, riconoscerà anche una scrittura
che non ha mai "visto"prima, purché questa non sia troppo diversa
dalle altre); i sistemi distribuiti riescono meglio proprio in quei compiti
che richiedono la considerazione simultanea di un gran numero di variabili,
caratteristica di azioni che noi compiamo in maniera del tutto naturale (si
pensi soltanto a ciò che richiede guidare una automobile, dal punto di
vista dell'elaborazione dell'informazione) e che notoriamente i sistemi basati
sull'approccio simbolico si trovano incapaci ad emulare.
In breve, il connessionismo ci ha avvicinato alla microstruttura (reti di neuroni)
dei sistemi biologici, consentendoci di assistere all'emergenza di fenomeni
che finora avevano eluso il campo della simulazione artificiale. Tuttavia è
bene notare come, se da un lato si è passati da un approccio simbolico
ad uno subsimbolico, dall'altro non ci si è sostanzialmente spostati
dalla concezione di cognizione come pura elaborazione dell'informazione.