Passato, presente e futuro dell'Intelligenza Artificiale
Autore: Bruno Lenzi
da: Divenire 5, Genealogia ()
Fin dall'invenzione da parte di Blaise Pascal della sua famosa calcolatrice meccanica, l'idea di simulare le facoltà psichiche superiori per mezzo della macchina, del mezzo "inanimato" eppure agente quasi fosse vivo, non ha mai smesso di affascinare filosofi, inventori e, in un secondo tempo, ingegneri, matematici e informatici, man mano che la meta appariva più vicina ed accessibile.
La ricerca ha veduto divisi quei protagonisti, la maggioranza oggigiorno, che considerano possibile un continuo, ulteriore, talora sensazionale progresso delle Macchine quanto a incremento funzionale e nulla più da quelli, forse più influenti nella fase nascente dell'Informatica, capaci di cogliere direttamente e senza preconcetti la suggestione di una possibile analogia cervello-computer, fino a spingersi a ritenere un obbiettivo plausibile l'emulazione di tutte le facoltà della Mente da parte delle Macchine.
Non pretendiamo qui di entrare nel merito di una critica a sostegno o contro la fattibilità di un simile progetto: se c'è una meta, questa è ancora troppo lontana per permetterci di formulare previsioni sensate. Oggetto di riflessioni critiche potranno semmai essere i differenti approcci, a partire dai quali i ricercatori di ieri o di oggi riterrebbero di poter affrontare il problema. Quel che è sicuro è che lo smisurato arsenale di utilissime, oramai pressoché indispensabili macchine non pensanti, che fino a oggi sono tutto ciò che la ricerca nel settore ci ha offerto, ben difficilmente sarebbe stato realizzato senza quell'entusiasmo così genuinamente scevro di preconcetti che animava quei primi visionari della Disciplina, spingendoli quindi a sperimentare senza porsi dei limiti.
Difficile sarebbe tracciare una cronistoria significativa della ricerca nel settore, se ne prendiamo in considerazione i presupposti teorici: nella Logica Aristotelica sono infatti già racchiuse le regole fondamentali sulla cui base operano gli attuali elaboratori e nella nozione di Pensiero Cieco Gottfried Wilhelm von Leibniz (presentata per la prima volta nel suo De Arte Combinatoria) descrive con lungimirante anticipo il loro reale modus operandi, punto di forza, ma allo stesso tempo di debolezza quando non ci si contenta più della mera elaborazione di dati, ma si ambisce a ricreare un modello fedele (e persino più efficiente) di un Cervello Umano.
Sempre a Leibniz risale lo sviluppo del calcolo binario, così inadatto e scomodo per i cervelli umani eppure così funzionale per quelli elettromeccanici-elettronici, al punto di poter affermare che ben difficilmente ci si sarebbe spinti oltre la limitatissima calcolatrice a ruote dentate (operante su base decimale) di Pascal, senza l'adozione di questo. Fu poi senz'altro necessario lo sviluppo, assai posteriore, di Elettrotecnica ed Elettronica, per dare a tutte queste pur brillantissime idee la possibilità di "incarnarsi" in un supporto materiale, traducendosi nella realtà di dispositivi realmente "operanti". Tentativi dapprima goffi o irrealizzabili con l'armamentario tecnico dell‟epoca (come la Macchina di Babbage), dettero tuttavia a questa branca del Sapere un avvio già più favorevole e pronto, e una transizione meno drastica di quella che, ad esempio, segnò il passaggio dalla antica Alchimia alla moderna Chimica.
La modularità dei concetti di base ne rese poi possibile la riassunzione, con mutate sembianze, negli stadi successivi: per esempio, nonostante non operasse in binario (da poter quindi escludere una filiazione diretta degli elaboratori attuali a partire da essa), la Macchina di Babbage lasciò ai successori l'eredità del concetto di programmabilità, un concetto che la base tecnologica alla quale la macchina sarebbe stata all'epoca vincolata, avrebbe reso pressoché impossibile tradurre nella pratica.
La soglia critica, coincidente col raggiungimento di una sufficiente maturità delle tecnologie disponibili, accanto a quella delle basi teoriche, viene raggiunta negli anni '50 del '900, quando Marvin Minsky, insieme a Claude Shannon, Jonh McCarthy, Herbert Simon e Nathalien Rochester, creò il primo gruppo di ricerca sulle I.A., i cui programmi furono discussi nell'estate del 1956 al Dartmouth College (Hanover, NH). Si partiva dall'assunto che:
- ogni aspetto dell'apprendimento, e delle capacità cognitive in generale sarebbe stato suscettibile di una descrizione accurata;
- sulla base di questa, una macchina capace di svolgere i medesimi compiti sarebbe stata progettabile e realizzabile.
L'orientamento che Minsky impresse alla ricerca privilegiò dapprincipio lo studio delle c.d. Reti Neurali: modelli, dapprima astrattamente matematici poi concretamente elettronici, sia di singoli neuroni che di connessioni tra i medesimi (come quelle che si osservano nel cervello biologico). Ispirandosi alle precedenti ricerche di W. McCulloch e di W. A. Pitts, nel 1951 Minsky realizzò lo SNARC (acronimo per Stochastic Neuro-Analog Reinforcement Computer). Tuttavia, con grande spirito critico nei confronti del proprio lavoro, e stemperando riguardo alle potenzialità delle Reti Neurali l'ottimismo di F. Rosenblatt, che in un primo momento lo aveva incoraggiato a pubblicare i propri risultati, Minsky non mancò di cogliere un punto debole della sua creazione: l'eventualità di fallimento, da parte della Rete Neurale, di afferrare la globalità di un concetto (o situazione reale) disponendo di semplici frammenti del medesimo; frammenti, la cui organizzazione a dar vita a un Tutto unitario, Minsky provò essere non univoca.
J Von Neumann, in The computer and the brain del 1958, criticò da parte sua la funzionalità imprecisa delle Reti Neurali, inidonee a svolgere compiti complessi in modo rigoroso. Forse tuttavia, come vedremo, è proprio questa "mancanza di rigore" a distinguere il cervello biologico e a dotarlo di quelle stesse caratteristiche che, sia pure amplificate a un livello di efficienza ben maggiore, si vorrebbero riprodurre.
Per Minsky questa fallibilità reale delle Reti Neurali, lungi dallo scoraggiare le sue ricerche, divenne piuttosto l'occasione per mettere a fuoco una questione cruciale: la necessità di arrivare alla rappresentazione di un Tutto, partendo da frammenti (le c.d. local observationes); questa maturata consapevolezza accompagnò e diresse validamente le successive ricerche di Minsky. Nel 1967, riprendendo la nozione ormai classica di Macchina di Turing, rimasta fino ad allora solo un modello teorico, Minsky si occupa della sua realizzabilità concreta; ciò lo porta a concepire la Register Machine, equivalente alla Macchina di Turing quanto a computabilità. Superando il problema del tradurre in un dispositivo reale (e finito) la nozione di infinità, propria del nastro infinito che alimenta la Macchina di Turing, nella SNARC tutto si riduceva all'essere i singoli registri (virtualmente pur infiniti), non vuoti.
Minsky dunque comprese la produttività del comporre architetture complesse a partire da moduli semplici, organizzabili però in strutture sempre nuove: da questo trasse spunto la Connection Machine di D. Hills (1985). Questa nozione di modularità-ricomponibilità, insieme alla consapevolezza del ruolo chiave ricoperto dal passaggio da nozione frammento a conoscenza globale, portò Minsky al concetto di Frame Representation of Knowledge, che persegue l'importante obbiettivo di contestualizzare la conoscenza, così come le possibili risposte della macchina a una situazione reale.
Possiamo forse già vedere un embrione di questa importante impostazione concettuale, nell'idea di Herbert Simon (Nobel per l'Economia, 1978) di Razionalità limitata, cui si impronterebbero i processi decisionali in ambito economico, ma anche nella vita quotidiana: gli obbiettivi posti sono parziali, incompleti, così come imperfette sono le strategie volte a conseguirli.
Che abbia o meno tratto ispirazione da questo concetto etero disciplinare di Simon, Minsky integrò in questa idea tre Schemi Rappresentativi:
- il Dichiarazionale, basato sulla Logica Formale
- il Procedurale, basato sulle preesistenti nozioni di Programmazione
- l'Associativo, di ispirazione linguistica (grande interesse ben presto destarono le ricerche nel settore dell'A.I. da parte dei filosofi del linguaggio come J. Bar-Hillel, che vedevano nella nuova tecnologia una possibile soluzione del problema delle Traduzioni Automatiche).
Importante notare che, al di là di obbiettivi più ambiziosi mancati, tale impostazione contribuì senz'altro al progresso dell'Informatica più ortodossa: dallo Schema Procedurale, ad esempio, trassero spunto utili strumenti di programmazione, come il Prolog. E soprattutto possiamo renderci conto di quanto incerta sia la linea di demarcazione tra ricerca informatica classica (si tratta infatti di concetti acquisiti dalla moderna architettura dei "comuni" computer), e ricerca di frontiera, volta alla più ambiziosa realizzazione delle I.A.
In campo linguistico, si comprese l'importanza della intensione rispetto alla estensione, e si cercò di realizzare reti semantiche ispirate a questo presupposto. Con il delinearsi del problema della comprensione ed interpretazione del Linguaggio, Minsky prese sempre più a considerare l'aspetto "psicologico" delle macchine, ampliando gli Schemi Rappresentativi, fino a includervi le nozioni di aspettativa, di valori default e, soprattutto, la nozione di Ragionamento non-monotono, che la Psicologia considera fondamentale nei processi cognitivi umani, ma che non è riducibile alle classiche proposizioni della Logica Formale: si tratta di un processo razionale parziale, non deterministico e sempre aperto a "correzioni di rotta" al sopraggiungere di fattori ambientali nuovi e imprevisti.
Fu poi per merito di J. McCarthy, se furono intrapresi studi volti a integrare, retroattivamente, questa carenza della Logica Formale classica. Anche queste ricerche, focalizzate sul concetto di Frame e relativi schemi rappresentativi, ebbero notevoli ricadute a vantaggio dell'Informatica più ortodossa: nel c.d. object-oriented programming, e in strumenti di programmazione importanti, come C++ o Java.
Dal progressivo, almeno apparente, approssimarsi delle sue macchine (o progetti) al reale funzionamento della Mente, Minsky si spinse a formulazioni in merito al funzionamento della medesima, fornendo forse utili prospettive alle scienze psicologiche e più in generale cognitive, col privilegio di un punto di osservazione differente da quello più usuale delle discipline dette. In particolare, dalla nozione ormai consolidata di Potere della connessione facilmente commutabile di singole parti, Minsky derivò il concetto di Società della Mente, veduta come un sistema di agenti (e relative agenzie) in relazione tra di loro, ciascuno dei quali interagisce con un ambiente determinato dalla attività degli altri. Incrementando progressivamente la complessità di simili sistemi, implementabili per mezzo di macchine digitali, la ricerca avrebbe progressivamente avvicinato queste ultime alla natura e alla complessità della Mente Umana.
In particolare, ciò che condusse Minsky alla concezione di tali agenti (e relativa società) fu una ricerca che egli intraprese nel 1980, volta a individuare analogie e differenze tra processi mnemonici umani e computeristici. Minsky notò come nei primi la capacità di richiamare dati prescindesse dalla completezza dello stimolo evocatore, e consistesse spesso in una rievocazione parziale del materiale memorizzato. Il processo attivo alla base di questa modalità, sarebbe stata proprio quella contestualizzazione che tanto peso aveva avuto nelle precedenti ricerche sue e di collaboratori. Possiamo vedere un autonomo procedere in questo ramo della ricerca nel programma EPAM, che fin dal 1963 si occupò delle dinamiche di apprendimento e oblio, traslate dalla loro fenomenologia umana a quella simulata della macchina (Feigenbaum e Feldman).
A seguire Minsky azzardò un ulteriore passo avanti (la cui legittimità epistemologica resta ancora però tutta da dimostrare), spingendosi a postulare che la medesima architettura di base, a Società di Agenti, valida per l'intelligenza razionale, lo fosse anche per l'intelligenza emozionale. In questo specifico caso, gli agenti avrebbero il ruolo di interpretare quei diversi parametri fisico-chimici, interni ed esterni al soggetto, la cui variabile configurazione corrisponderebbe ai diversi stati emozionali. Forse, la potenza dell'astrazione propria delle riflessioni di Minsky, qui rivela i suoi limiti, scontrandosi con qualcosa che, molto probabilmente, astratto o astraibile non è. Per il filosofo James Carlson, il pensiero seriale (quello più tipicamente umano) è un gioco finito, applicabile in un contesto delimitato. Le Emozioni invece, avrebbero diversa natura, sia quanto a dinamiche generatrici, sia quanto a strutture anatomiche preposte (D. Zohar & I. Marshall - La Coscienza Intelligente). E l'idea di framing, di contesto definito, che Minsky correttamente individuò quale presupposto necessario a dotare la macchina di un pensiero seriale simil-umano, potrebbe quindi risultare improduttiva, se non addirittura antitetica, nella prospettiva di macchine emozionali.
Non possiamo in effetti sapere, tanto meno oggi, quali siano i limiti teorici di tali tentativi di "emulazione"; un'incertezza sulla quale gravano in modo non indifferente le profonde lacune che riguardano, in primo luogo, proprio la conoscenza di quel Sistema Cervello-Mente che ci si propone di emulare. Nell'evoluzione dell'approccio verso il problema delle I.A., prima ancora che dell'apparizione di nuove, concrete soluzioni tecnologiche, si dovrebbe considerare come cruciale il passaggio, opera di Herbert Simon, a una visione del cervello scatola-nera: è questa una visione funzionalista, la stessa che resta tutt'oggi dominante in quella branca della ricerca, che persegue la meta della I.A. forte. Fautore in una prima fase di un approccio cibernetico, finalizzato all'emulazione diretta di strutture (e relativi processi) cerebrali, Simon si volse ben presto a una visione informatica del problema, mirando all'emulazione, più puramente astratta, dei soli processi mentali.
Fondamentale sottinteso di tale cambio di paradigma, l'idea (davvero basilare per gli odierni fautori della I.A. forte), di una sostanziale indipendenza della Mente (ridotta a puro processo operativo o programma) dal substrato materiale sul quale tale programma si trovi a girare; un substrato che, almeno nelle convinzioni dei ricercatori coinvolti, potrebbe essere rappresentato tanto da un cervello biologico, quanto (del tutto indifferentemente) da un cervello non biologico, affatto eterogeneo quanto a costituenti materiali (silicio, grafene, ecc...).
McCarthy operò a sua volta lo stesso mutamento di paradigma ai processi mentali in sé stessi: abbandonato l'intento di emularli, si risolse a simularli, applicando ora alla Mente e non più al cervello, la medesima nozione di Scatola Nera. Un ulteriore passo, questo, per la totale e definitiva emancipazione dell'Intelligenza dal suo tradizionale supporto biologico. Come Simon operava nei limiti, autoimpostisi, di una Razionalità Limitata, da affrontare con metodi euristici, McCarthy intendeva rendere invece assoluta la medesima razionalità, e fidava nella messa a punto di una totale formalizzazione logica della Conoscenza, e in una efficace automazione della Logica quale premessa della prima. A quest'ultimo fine furono giovevoli i progressi della Logica matematica, già autonomamente perseguiti fin dagli anni 30 da J. Herbrand e G. Gentzen.
Ancora una volta, la natura interdisciplinare della ricerca sulle I.A. la rivela quale fertile recettrice, ma anche feconda emettitrice di fattori di progresso ad ampio raggio. Impossibile in queste poche righe tracciare i molteplici percorsi in cui si è ai giorni nostri risolto (e con altri continua a fondersi) il primo, grande flusso di ricerca. Basti dire che, remoto sino a oggi restando l'obbiettivo di una I.A. forte, umana a tutti gli effetti, importanti risultati sono stati raggiunti nel campo della c.d. I.A. deboli. Le Reti Neurali, che Minsky ebbe il merito di sviluppare (pur allontanandosene in un secondo tempo), sono oggi ad esempio efficacemente impiegate per il riconoscimento calligrafico e di patterns in generale, con applicazioni prevedibili in tutti i campi in cui questo genere di diagnostica è utilizzabile.
Si tende ad abbandonare la pretesa di un approccio rigoroso e deterministico, in favore di sistemi che siano più tolleranti, anche se meno precisi. Ci furono quindi tentativi di quantificare l'incertezza inerente a ogni situazione incontrata nel mondo reale: col programma Mycin (un Sistema Esperto scritto in LISP nei primi anni '79 e finalizzato al riconoscimento automatizzato di ceppi batterici patogeni), Edward Shortliffe tentò di stabilire, ed associare ad ogni variabile, dei valori di incertezza, per presto però rendersi conto della difficoltà di definire gli stessi.
Particolarmente fertile, seppure almeno in parte gravato dalla medesima imprecisione di cui sopra, il campo di ricerca delle EM (Evolving Motherboards), avviato da Adrian Thompson (Dipartimento di Informatica dell'Università del Sussex) a metà degli anni '90. Componente base di questa sperimentazione, lo FPGA (Field Programmable Gate Array) sorta di chip dalle connessioni reversibili e riprogrammabili, in risposta a segnali emessi dai suoi simili, installati sulla medesima scheda. Un importante principio ispiratore, quello del minimo vincolo (minimal constraint) consente a tali assemblaggi circuitali di evolvere, letteralmente, con modalità che l'autore non esita a definire darwiniane. Un amplificatore può diventare un modem, un oscillatore una calcolatrice... e tutto ciò ricorda in modo impressionante la plasticità del cervello umano, dove è notoriamente difficile localizzare una data funzione o definirne topologicamente i confini, perché nuove e differenti aree possono, all'occorrenza (di norma in seguito a traumi o lesioni compromettenti una data regione), riprodurre altrove quella stessa funzione, per quanto fino ad allora localmente sconosciuta ed estranea.
Altra potente analogia (per quanto sotto certi aspetti indesiderabile) col cervello, è nelle loro caratteristiche di lentezza, imprecisione, consumo: di sicuro, gli FPGA sono molto più caldi di un circuito dedicato, ma racchiudono potenzialità, in compenso, che nessun circuito dedicato, singolarmente preso, potrebbe ora offrire.
Affascinante, anche se impossibile purtroppo da approfondire in questo breve contributo, la comparsa di vere e proprie Proprietà Emergenti: funzioni nuove, totalmente impreviste, che tali configurazioni circuitali esibirebbero. Forte sarebbe qui la tentazione di pensare alla Coscienza, come pro prietà emergente del Sistema-Cervello; in realtà, nulla ci autorizza a balzare a simili conclusioni. Per quanto degne di ogni possibile indagine, le Proprietà Emergenti di questi Sistemi potrebbero essere (e con quasi assoluta certezza sono) di tutt'altra natura.
Non meno affascinanti, e dotate del pregio di considerare l'intelligenza come aspetto emergente della Vita (un approccio questi, di sicuro più realistico di altri troppo asettici e astratti), sono le ricerche di Christopher Langton sulla Vita Artificiale (Los Alamos Laboratories, 1987), concretizzata nei c.d. Automi Cellulari: strutture capaci, come gli FPGA, di evolversi e di dar origine a qualcosa di nuovo ed imprevisto, obbedendo anche qui a processi di (auto)selezione simil-darwinistica.
Ma per quanto lontana, tanto teoreticamente quanto tecnologicamente, un'autentica emulazione della Mente possa ancora essere, non va dimenticata la realistica e plausibilissima prospettiva di una integrabilità (o interfacciabilità) di prodotti parziali del settore I.A., con cervelli biologici. Già dal 2006 fu possibile dimostrare come un apposito chip potesse rimpiazzare, nel cervello del topo, le funzioni di un ippocampo danneggiato o asportato (Berger, T.W, et al., 2005). Si tratta di una struttura del cervello, è bene precisarlo, non direttamente coinvolta in processi cognitivi superiori, né tanto meno con la Coscienza, né nucleare né estesa, come osserva il neurologo Antonio R. Damasio (Emozione e Coscienza, 1999). Cionondimeno, la sua funzione (almeno la più nota) di crocevia degli input mnemonici la rende di cruciale importanza nei processi cognitivi. Il suo danneggiamento, pur senza interferire con la Coscienza di Sé, rende difficile o addirittura impossibile l'acquisizione di nuove nozioni; si tratta inoltre, per inciso, della struttura cerebrale maggiormente vulnerabile all'ipossia, ma anche allo stress intenso o ad altre situazioni traumatiche. Più che evidente quindi la drammatica preziosità di ogni pur parziale successo nel progetto di emulazione funzionale di questa, come di altre e quante più possibili strutture cerebrali, anche se solo periferiche all'Io come l'ippocampo.
Una Coscienza potenzialmente viva (e che per ora non sarebbe neppur lontanamente pensabile sostituire con una struttura artificiale, beninteso), può purtroppo assai spesso trovarsi prigioniera (sindrome locked-in, nel caso estremo) a causa di strutture cerebrali periferiche non più funzionanti, come nell'esempio illustrato. E sempre senza dover postulare la manomissione della Coscienza di Sé, c'è chi propone il raggiungimento di una sorta di I.A. ibrida, attraverso specifiche interfacce neurali, che potenzierebbero in modo diretto le prestazioni di un normale cervello biologico.
Fa però osservare E. Yudkowsky (Artificial Intelligence as positive and negative factor in Global Risk, 2008), come sia infinitamente più facile, per fare un esempio, costruire un grosso aviogetto, che non reingegnerizzare un uccello fino a renderlo simile al suo gigantesco e iperefficiente omologo artificiale!
Anche se le pressioni produttivo-competitive, sempre più impellenti nel panorama attuale, privilegiano senz'altro quegli approcci che più di altri sono volti al conseguimento rapido di risultati pratici e applicabili, mai si è sopita la disputa filosofica sul senso profondo delle (per ora solo ipotetiche) I.A. e della relativa ricerca. Fu sin dagli inizi, che equivoci e malintesi gravarono sulla interpretazione stessa dei risultati, pur senza precludere, fortunatamente, la costante evoluzione di tecniche e conoscenze, sempre e comunque foriere di risultati preziosi, anche se a volte diversi da quelli ingenuamente sperati.
Concezioni filosofiche si scontrarono e si scontrano, tanto sul senso da dare ai risultati raggiunti, quanto sulla previsione di quali siano realizzabili e quali siano, invece, destinati a restare chimere. Già Pascal si interrogava, stupito davanti alla sua creazione, sul come questa potesse manifestare una proprietà così esclusiva dello spirito umano: quella di eseguire calcoli, quando gli animali, se non altro più vicini all'uomo per il solo fatto di essere vivi, di tale proprietà sarebbero affatto sprovvisti. E fu probabilmente questo il primo di un perenne ripetersi di equivoci sul tema delle Macchine Intelligenti-pensanti: in effetti, non è la macchina che agisce da uomo, ma è al contrario l'uomo che agisce da macchina quando calcola (o esegue simili operazioni, riconducibili a un metodo predefinito e a un insieme di regole finito).
Il principale problema (o pseudo-problema) che accompagna lo sviluppo delle I.A., forse deviandolo dagli obbiettivi più plausibilmente realizzabili, è in effetti già incluso nella nozione stessa di Intelligenza, concetto tutt'altro che univoco nelle definizioni che ne vengono date, e di sicuro tutt'altro che unitario nelle sue manifestazioni. La mancanza di un consenso unanime nel definire l'Intelligenza (che forse esula per sua natura da definizioni di sorta, per inciso), affligge di rimando la filosofia delle I.A., anche se il progresso tecnico continua, sia pure in una direzione che potrebbe non coincidere con quella ipotizzata o sperata.
Uno stereotipo sicuramente molto diffuso, è quello che vede attribuire una maggiore intelligenza a un campione mondiale di scacchi, per fare un esempio, o a un prodigio di memoria e calcolo, che non a un calciatore; tuttavia, quando le rispettive funzioni vengono ridotte al loro nudo substrato computazionale, ci si rende conto di come la capacità equivalente di elaborazione di un Campione di scacchi possa essere (oggi) agevolmente raggiunta da un computer o programma specifico (Deep Blue, 1997), e di come invece quella necessaria a dirigere i fini e complessi movimenti di un ipotetico automa-calciatore sia ancora al di là dell'orizzonte.
Forse, se l'obbiettivo è davvero quello di emulare un cervello umano, la prospettiva privilegiata dalla quale studiare il problema potrebbe trovarsi agli antipodi di quella tradizionalmente scelta. Vincenzo Tagliasco (Laboratorio integrato di robotica avanzata - Facoltà di Ingegneria di Genova) fa notare la prematurità di questo salto, consistente nel puntare fin da subito a macchine intelligenti (scacchi in primis) senza passare per i necessari stadi sottostanti, quelli concernenti funzioni anteriori, basilari e (probabilmente) propedeutiche a tutte le altre, anche nella stessa ontogenesi dei cervelli biologici. Funzioni, solo in apparenza umili (muoversi in un ambiente complesso, riconoscere gli oggetti del mondo circostante e il pur semplice linguaggio per designarli, ecc...), che poi si rivelano invece come quelle computisticamente più complesse, non appena si tenta di emularle su base hardware o software.
Per altro verso, fu forse proprio l'ottimismo ingenuo, caratteristico della fase di decollo della ricerca in questo settore, a rendere possibili quei primi passi, laddove una più matura e rigorosa critica avrebbe forse indotto semplicemente a desistere dall'impresa. Se pure fin troppo ottimistiche erano le previsioni di Herbert Simon (fondatore della nuova disciplina, ufficialmente battezzata come Intelligenza Artificiale, insieme a Marvin Minsky, John McCarthy e Alen Newell), la necessità di creare un linguaggio di programmazione più avanzato dette comunque vita allo IPL, precursore dei linguaggi di programmazione moderni ad alto livello e strutturati (Odifreddi, In memoria della I.A., dicembre 1994).
Da Odifreddi apprendiamo del poco conto in cui l'aspetto filosofico della ricerca era tenuto, in particolare da Newell, quale compagno e supporto epistemologico del processo di ricerca. Questo può sì aver precluso delle importanti riflessioni, ma può anche aver consentito di sbrigliare, più liberamente, le risorse intellettive volte alla ricerca di ciò che sarebbe stato effettivamente possibile scoprire. Sarebbe però sempre auspicabile evitare un approccio gerarchico: tanto quello secondo cui la Filosofia dovrebbe precedere l'impostazione tecnica del problema, quanto il suo inverso. Piuttosto, nuovi e inattesi esiti di ricerche e applicazioni tecnologiche, potrebbero portare a rivedere vecchie filosofie della mente o svilupparne di nuove, come pure queste poi potrebbero, a loro volta, agire in modo retroattivamente utile, dirigendo la tecnologia in una direzione anziché in un'altra.
Difficile sarebbe separare l'evoluzione (per quanto essa si sia realizzata) nel campo delle I.A., dall'evoluzione dell'informatica ortodossa, meno ambiziosamente volta a realizzare utili e sempre più efficienti strumenti di calcolo, archiviazione, ecc..., dal momento che l'armamentario materiale e teorico di partenza è lo stesso. Come già abbiamo visto, la suggestione di una similitudine Mente-Macchina si impose sin dall'inizio agli studiosi. E non condividiamo l'idea di Odifreddi, del fascino dell'Intelligenza Artificiale visto come futile abbaglio di sprovveduti e outsider. Spesso proprio gli outsiders, sprovveduti (e proprio per questo immuni da quei dogmatismi che ogni dottrina, per quanto scientifica sia, inevitabilmente implica), possono infatti cogliere aspetti incospicui, possibili vie laterali aprioristicamente scartate dagli specialisti («If you know too much, sometimes you wont make the obvious discovery»
, Ronald D. Ekers, Presidente della International Astronomical Union, discorso tenuto al New Mexico Institute of Mining and Technology, 10 Nov 2004).
Alan Turing, padre del moderno elaboratore assieme a Von Neumann (tutt'altro quindi che un dilettante o uno sprovveduto), proprio grazie alla poliedricità del suo approccio alla Scienza non poté trattenersi dal riflettere sulle analogie cervello-computer, chiedendosi fin dove queste potessero spingersi; anche se, giustamente, Odifreddi riconosce lo spirito critico (non quindi ciecamente fideistico) dietro l'approccio sperimentale di Turing, sottolineando l'intento di provocazione intellettuale che sottostava al suo famoso test, e la sua ammissione che nessun dato disponibile autorizzava conclusioni affermative in tale prospettiva; addirittura, lo stesso quesito «Possono le macchine pensare?» sarebbe stato per Turing privo di senso (Alan Turing, Intelligenza Meccanica). Eccessivo tuttavia fu certamente, in retrospettiva, il suo ottimismo: Turing prevedeva elaboratori capaci di eguagliare il cervello umano entro circa 50 anni; oggi, a circa 60 anni di distanza da quelle troppo azzardate previsioni, tale meta appare ancora ben lontana e addirittura da alcuni impossibile da raggiungere. Ciononostante, dobbiamo riconoscere come anche la prospettiva di obbiettivi impossibili possa rivelarsi efficace nell'entusiasmare, stimolando la ricerca e quindi spingendo comunque a ottenere dei risultati, eventualmente diversi da quelli sperati.
Quello di Turing era comunque un approccio di sicuro coerente e valido. Un approccio che potremmo considerare behaviourista: volto cioè a prendere in esame il comportamento, l'Esterno, le risposte osservabili del Sistema insomma, piuttosto che interrogarsi su "cosa" accada all'interno dello stesso. Fu questo verosimilmente anche lo spirito del famoso Test che Turing proponeva come strumento diagnostico necessario a decretare l'avvenuto raggiungimento di un livello intellettivo umano da parte di una macchina. Non implicava con ciò Turing, l'idea della macchina divenuta umano, ma molto più realisticamente quella della macchina agente come se fosse un umano.
Sotto questo assunto, apparirebbe addirittura superflua, ancorché perti- nente e correttamente formulata, l'obiezione al Test di Turing formulata da John R. Searle (filosofo notoriamente scettico nei confronti della realizzabilità di una I.A. forte): il classico esempio della Stanza Cinese, nella quale un uomo, provvisto di un opportuno ed esaustivo apparato di regole, traduce da un codice all'altro complessi sistemi di segni, il cui reale significato gli è però assolutamente ignoto. Possiamo già riconoscere nel leibniziano Pensiero Cieco, questa manipolazione inconsapevole di simboli, che rappresenta a un tempo, come già suggerito, tanto la forza, quanto la debolezza di tali sistemi operativi, e forse delle macchine in generale.
Quello di Turing resta comunque l'approccio forse più realistico al problema: mentre da un lato evita a priori impasse filosofiche (mentalismo per esempio), consente di focalizzarsi unicamente sui risultati, sulle effettive prestazioni del prodotto; quella che dovrebbe essere, dopotutto, l'unica vera ragione per voler realizzare una qualsivoglia macchina.
Non sempre però le obiezioni sollevate contro la realizzabilità delle I.A. possono dirsi pertinenti e obbiettive. La principale forse di queste critiche, è quella che si sofferma sulla mancanza di Intuizione, o anche di semplice Buon Senso che affliggerebbe inesorabilmente le macchine. Spesso però si scambia per Intuizione (intesa quale facoltà precipuamente umana) quella capacità decisionale che deriva invece solo da una più o meno dettagliata conoscenza del Mondo: «se e finché la macchina ne sarà sprovvista, mai potrà fornire risposte intelligenti». Né è lecito aspettarsi che possa farlo! Se si chiede alla macchina di tradurre in immagini (a partire da un repertorio dato), una semplice proposizione quale "Margherita tiene un palloncino", non ci si deve meravigliare se l'immagine prodotta è quella di un fiore, connesso a un palloncino! Se pure la macchina disponesse del dato Margherita = nome di essere umano di sesso femminile, sarebbe solo per pura casualità, 50%, se la macchina correttamente rappresentasse un soggetto umano femminile anziché un fiore in connessione col palloncino. Solo una ricca semantica del Reale, ben diversa da quella sufficiente a collegare etichette, stringhe di caratteri a immagini, potrà includere, assieme all'immagine del palloncino, il correlato tipico di occorrenze reali in cui è dato incontrarlo, fra cui la sua natura di giocattolo, concetto questo pertinente solo con la condizione in presenza di un Umano, che porterebbe quindi a escludere a priori l'opzione alternativa Margherita = fiore. E la conoscenza del Mondo legherebbe nella memoria (una Memoria architetturalmente e funzionalmente diversa da quella dei tipici computer di oggi), la nozione di giocattolo, con quella (probabilisticamente più frequente) di in aggiunta a Umano e molto giovane, con la conseguente scelta rappresentativa di un palloncino collegato insieme a 1) un soggetto umano, 2) femmina, 3) di giovane età (con relative proporzioni e tratti somatici in- fantili, dati semplici da render disponibili nel repertorio iconografico della macchina).
Niente di trascendentale dunque, nella presunta intuizione che consentirebbe a un umano di media intelligenza di dare una rappresentazione corretta della scena, per quanto con esiti stilisticamente variabili e magari rozzi o approssimativi. Sembra che persino lo stesso M. Minsky si sia lasciato fuorviare, in tempi molto recenti, da questa rassegnazione all'assenza di Senso Comune, che fatalmente arresterebbe il procedere della macchina verso una piena emulazione della mente umana.
Ma in realtà, è solo una conoscenza meta-simbolica (oltre il mero simbolo, ricordiamo che la macchina manipola solo simboli), quella che consente all'umano di vedere i diversi agenti nella relazione corretta e reale, e di interpretare le etichette semantiche spesso ambigue, collegandole in modo sufficientemente univoco al corretto referente reale. Proponiamo di definire CosmoGnosi, questa conoscenza del Mondo che sprofonda e radica nel Reale, al di là delle asettiche etichette simboliche di un leibniziano Pensiero Cieco.
Ed è proprio questo un esempio, di come la computazionalità (prendendo ora in considerazione il Fenomeno Mente solo sotto questo particolare aspetto) non sia così facilmente indipendente dal substrato, come si afferma di consueto. Vero è che, al di là della minor velocità, praticità, efficienza, una stessa funzione logica può essere implementata sia utilizzando (micro)transistor, sia utilizzando grossi relè come elementi di commutazione (o condutture di acqua o fluidi, come nella Fluidica). Ma forse ci sono dei limiti, in questa pur così basilare concezione; li- miti, che saranno però probabilmente superabili con ulteriori progressi tecnologici, non appena questi renderanno possibile un cambio di substrato operazionale.
Peter Bruza del QUT, che partecipa a uno studio di modellizzazione di un lessico mentale minimo, suggerisce che le parole siano presenti nella mente in una forma reciprocamente correlata e accomunata all'Entanglment Quantistico dalla non-separabilità; suggerendo che questo modello possa non essere limitato alla Fisica Quantistica, Bruza e collaboratori propongono una teoria della Cognizione Quantistica. E non è forse troppo azzardato ipotizzare che la realizzazione materiale dei computer quantistici, oggi in fase men che embrionale, possa un giorno dischiudere le porte a questo nuovo genere di prestazione delle macchine, o quantomeno avvicinare la realizzabilità di macchine intuitive. Se è vero che un aspetto paradossale del cervello consiste nel suo operare in modalità logica-analogica al tempo stesso, non deve sfuggirci la nozione che un un futuribile computer quantistico, come suggerisce Seth Lloyd (Programming the Universe, 2006), realizzerebbe proprio la predetta modalità, e in forma radicale: sarebbe digitale in quanto operante sulla base di stati quantistici di particelle, equiparabili ai livelli discreti 1 e 0 del calcolo binario, e sarebbe analogico, in quanto riprodurrebbe in sé un modello fedele della Realtà descritta (prevedendone quindi ogni possibile evoluzione e sviluppo).
Ancora a proposito di progressi derivanti da un radicale mutamento del substrato materiale della computazione, un ruolo di primissimo piano occupa il dispositivo elettronico noto come memristor: un semiconduttore bipolare capace di mutare il proprio valore di resistenza in funzione di intensità, direzione e durata della tensione applicata ai terminali, e (ciò che è davvero importante) di ricordare questo valore indefinitamente, anche una volta cessata l'applicazione di tensione (Mem- "memoria", e r(es)istor "resistenza"). Ciò lo rende in pratica capace di conservare il proprio stato logico anche in assenza di alimentazione, e di combinare in un unico elemento sia la funzione commutatrice del transistor (quella che permette di rappresentare i valori 0 e 1 e operare con essi), sia quella di cella di memoria, avvicinandosi così, funzionalmente, a una vera sinapsi.
La tradizionale struttura dei computer, quella che ricalca il modello ideale di architettura di Von Neumann, prevede la separazione fisica tra la memoria, dove i dati sono immagazzinati, e il processore, dove vengono elaborati. Una separazione che invece non affligge la microstruttura cerebrale di un mammifero, dove i due aspetti coesistono a livello della sinapsi. I data-bus che connettono fisicamente le due dette porzioni in un computer, soffrono di limiti di capacità legati alla architettura generale del sistema, che non permetterebbe la necessaria coesistenza funzionale. Inoltre, i livelli di assorbimento energetico (e relativa produzione di calore, pressoché impossibile da dissipare) renderebbe in concreto irrealizzabili architetture circuitali del genere, disponendo degli attuali componenti. Questo è forse il più grosso ostacolo che si oppone al tentativo di riprodurre un equivalente del cervello per mezzo dell'elettronica tradizionale. Il memristor, dal canto suo, una volta superati alcuni problemi tecnici (come la limitatezza temporale dell'immagazzinamento di informazione) che ancora lo riguardano, potrebbe permettere di risolvere egregiamente quanto sopra. Un apposito software, MoNETA (acronimo di MOdular Neural Exploring Traveling Agent) capace di girare su un sistema costituito da memristors (messo a punto dagli HP Labs in California) è in corso di sviluppo presso il Boston Universitys Department of cognitive and neural systems.
Appare invece forse troppo semplicistica o affrettata, la tradizionale idea di Ned Block e altri, di paragonare 1) Cervello a Hardware, e 2) Mente a Software: o almeno, se si decidesse di seguire un percorso di reverse engineering del Cervello, con molta probabilità questa impostazione risulterebbe fuorviante. Infatti, ciò che più somiglia a un software, nella ontogenesi del Sistema Cervello-Mente, è l'insieme, più vasto forse di quanto non si immagini, di input (solo) sensoriali prima, (anche) culturali in seguito, cui l'individuo è esposto fin dalla vita intrauterina. Questi input non si limitano tuttavia a inserire dati e programmi in una struttura già pronta e compiuta, ma sono anzi direttamente responsabili della ontogenesi di quella medesima struttura. La privazione di specifici stimoli sensoriali (e l'inevitabile lentezza progressiva nell'elaborarli, che aumenta col passare degli anni), protratta oltre una soglia critica di età, lascia notoriamente il cervello definitivamente privo della capacità di elaborare quegli stessi stimoli e informazioni più complesse che li prevedano nel processo elaborativo.
Così appare evidente che nel cervello biologico è il software a condizionare e dirigere l'architettura dell'hardware, che a sua volta renderà determinati generi di software (dagli stimoli sensoriali a quelli culturali), più facilmente acquisibili di altri, in un processo di retroazione e di progressivo reinforcement (Hebbian learning). Basarsi sulla immaterialità del software, almeno se inteso come informazione pura, e sulla immaterialità degli stimoli sensoriali (solo apparente, comportando essi comunque modificazioni materiali dell'ambiente), per trarre idea di una analogia profonda tra i due fino all'identità, dà in realtà origine a una ingenua fallacia. Il mero fatto di essere entrambi immateriali, non conferisce loro alcuna affinità ontologica, in linea di principio.
Non è neppure fondamentale dimostrare che il Cervello operi in sistema binario, condizione che i sostenitori della I.A. forte ritengono invece necessaria e sufficiente a garantire la realizzabilità della stessa: infatti, qualunque processo finito, così come qualunque informazione, se noti, possono essere sempre tradotti e ridotti in codice binario. Un'immagine, un filmato o un testo, come pure una stringa di programma, benché fondamentalmente diversi nella loro originaria natura, sono tutti traducibili in binario. Il vero problema, semmai, è che si rischia di confondere la realtà globale della Mente, con quanto di essa è traducibile (e di sicuro molto lo è) in codice binario. O, per essere più precisi, nel famoso milione di linee di programma (25 Mbytes) che R. Kurzweil e T. Sejnowskj (Neurobiology lab at the Salk Institute for Biological Studies, 2007) riterrebbero sufficienti a descrivere la struttura di base di un cervello. Tale stima discende dal prendere in considerazione la mole di informazione genetica che (stimabilmente) dovrebbe essere coinvolta nella ontogenesi di un cervello umano. Sfugge forse a questa frettolosa valutazione la sottile, ma fondamentale distinzione tra Informazione e Istruzione, concetti che il biologo C.H.Waddington invece acutamente differenziava già cinque decenni or sono (la complessità di un sistema biologico si autoaccresce, cosicché al termine dell'Ontogenesi essa risulta assai maggiore della grezza informazione genetica che avviò il processo e a questa irriducibile).
Anche per quanto riguarda la Mente, intesa quale processo-software da eseguire, è proprio di questo orientamento prendere quale riferimento la (presunta) capacità computazionale del cervello umano, stimata attorno ai 36,8 Petaflop e una memoria che si aggirerebbe attorno ai 3,2 Petabytes; estrapolando l'attuale incremento di tali parametri al prevedibile ritmo del progresso della tecnologia, si arriva a stimare come quasi certa la realizzazione di una macchina in tutto e per tutto equivalente a un cervello umano entro i prossimi due decenni.
Si tratta di un approccio che potremmo definire funzionalista e che nell'impostazione può esser fatto risalire, all'indietro nel tempo, sino al filosofo empirista Thomas Hobbes, che non esitava a equiparare il ragionamento a una mera funzione di calcolo. Appare sicuramente legittimo voler contestare l'essenza fortemente riduzionista di simili concezioni, il loro veder troppo semplice il problema affrontato: senza dimenticare però che, se pure lascia intatti i fondamentali interrogativi di fondo, il riduzionismo ha spesso il vantaggio di fornire, presto e in modo diretto, utili soluzioni a importanti problemi di ordine pratico.
Un'altra, evidente fallacia cui questo approccio rimane esposto, consiste nel confondere un mero progresso-incremento di capacità funzionale (che c'è, e ci sarà senza dubbio ancora, che poi segua o meno la nota Legge di Moore), con la necessaria apparizione, a partire da questo, di proprietà radicalmente nuove: emergenze, che dovrebbero replicare quelle osservabili nel Fenomeno Mente. Ma nulla di ciò autorizza a crederlo, senza prevedere un cambiamento logico di struttura parallelo all'aumento della capacità computazionale: per esempio procedere indefinitamente lungo la coordinata X, non implica affatto che si avanzi, da un certo punto in poi, anche lungo la coordinata Y. neppure di un infinitesimo. Una memoria, per quanto incommensurabilmente estesa possa divenire, non diventerà necessariamente per questo qualcosa di qualitativamente diverso (per esempio Coscienza); probabilmente resterà sempre memoria indipendentemente da quanto essa possa continuare a crescere.
Ancora, è possibile che vi sia a monte di tutto una conflittualità intrinseca, proprio tra il perseguimento di una maggior velocità operativa e l'obbiettivo di un'autentica simulazione del Cervello: i sistemi biologici sono per loro natura lenti e, per quanto ciò possa apparirci come un limite, forse proprio in questo si cela la conditio sine qua non del loro essere biologici, ossia vivi; una condizione che potrebbe essere, a propria volta, indissolubilmente connessa a ciò che definiamo Intelligenza, se questa viene intesa come qualcosa che trascenda la mera abilità ed efficienza mnemonico-computazionale. Forse, con un approccio del tipo "cervello velocizzato" si sta andando proprio nella direzione opposta: più si accresce la velocità, il numero di mips, più ci si allontana dalla simulazione di un vero cervello biologico.
Vernor Vinge nel 1993 già si soffermava sulla fallacia di un mero aumento di velocità del Sistema: il cervello di un cane, accelerato di mille volte, non sarebbe probabilmente utile al progresso, non svilupperebbe necessariamente nuove capacità. Peggio ancora, aggiungeremmo, il Cervello di un individuo con problemi psichici, ma anche di un individuo intelligente (secondo certi criteri, ma umanamente insensibile), se mai fosse scelto quale modello per la creazione di una I.A. per mezzo della reverse engineering, e quindi reso capace di operare a una velocità-tasso di efficienza mille volte maggiore, costituirebbe, stavolta sì, un reale pericolo.
Ciò non vuol dire che non potrebbe nascere un'Intelligenza diversa da quella che consideriamo umana, forse tuttavia bisognerebbe aiutare l'aumento della velocità con una migliore struttura di collegamento e di logica non così scontati. Quello dei rischi connessi alla ipotetica realizzazione di una I.A. forte è uno dei temi tuttora più caldamente dibattuti nell'ambito della disciplina, così come da parte di studiosi esterni alla medesima. Lungi dall'essere solo una distopia da narrativa fantascientifica, la plausibilità di scenari indesiderabili è presentata da solidi e seri studiosi, come il filosofo transumanista Nick Bostrom, che pone il caso di una I.A. mal programmata appena al quarto posto, in una lista di undici maggiori rischi esistenziali per l'umanità.
Accanto a concreti rischi esistenziali, si suggeriscono anche rischi etici: già nel 1976, Joseph Weizenbaum deprecava l'eventualità di I.A. che rimpiazzassero mansioni umane degne di rispetto. Tralasciando la fallacia etica, sulla cui base si pretenderebbe di discriminare mansioni e attività umane più e meno rispettabili, notiamo che fin dagli albori delle primissime tecnologie, c'è stata qualche nobile facoltà umana che ha smesso di essere appannaggio di pochi eletti, per divenire (fortunatamente) alla portata di molti o meglio ancora, di tutti. Lo stesso McCarthy replicò a questa provocazione di Weizenbaum criticandone il moralismo energico e vago al tempo stesso, e suggerendo come siano proprio approcci del genere a spianare la via a esiti autoritaristici. Così, Odifreddi fa osservare nel 1994 come la realizzazione di programmi campioni mondiali di Scacchi non privi di certo l'umano del piacere di giocare a scacchi (o di suonare uno strumento) e nota che missili e siluri non partecipano alle Olimpiadi di salto o di nuoto; senza alcun rischio dunque, vorremmo aggiungere, di mortificare in alcun modo il sog- getto umano dedito a quella specialità.
Crediamo in definitiva che una solida garanzia in attesa della sicurezza di poter gestire questa nuova realtà, tanto contro l'eventualità di attentati alla Dignità umana, quanto contro quella (l'unica davvero degna di rilievo) di Rischio Esistenziale, sia offerta proprio da quel cruciale Rubicone, che i sostenitori della I.A. forte tanto vorrebbero fosse superabile: quello della Capacità Emozionale, che nulla lascia per ora presagire come acquisibile dalle macchine. E questo, basterebbe a fugare i rischi di natura, potremmo dire, psicologica.
Infatti, è solo in risposta a emozioni, e al potente imperativo biologico a esse sottostante, che nascono ostilità, aggressività e simili, assieme a ogni altro sentimento positivo. Tuttavia già vagheggiata da Minsky, come abbiamo visto, quella delle macchine emozionali resta ancora una meta assai nebulosa, indistinta e incerta; la più incerta forse dell'intera ricerca che riguarda le I.A., per la quale è prematuro oggi spacciare per certe delle supposizioni. E ben difficilmente il suo raggiungimento precederebbe mai, nella sequenza temporale, quello di proprietà utili e funzioni pragmatiche, che rappresentano poi, proprio quel prodotto finito che davvero ci interessava all'inizio ricavare da tali macchine.
Nel breve termine vediamo plausibile (e altamente auspicabile) uno scenario di I.A. deboli, capaci di risolvere in brevissimo tempo problemi quali, per esempio, il mis-folding delle proteine re-ingegnerizzando il nostro organismo a restituirgli salute e vigore giovanili. Come accade per tutte le tecnologie, ovviamente, e tanto più quanto più queste sono pervasive e potenti, anche l'introduzione di una I.A. debole (che poi debole non sarebbe affatto, se anche solo riuscisse in un compito come quello suaccennato), potrebbe tradursi in un nuovo strumento di controllo forte. Ma nel caso della I.A. deboli tutto ciò, teniamolo sempre a mente, nulla avrebbe a che fare con le macchine, con la loro artificialità, né tanto meno con la loro assenza di emozioni. Ogni possibile rischio deriverebbe sì da una emozionalità ma unicamente da quella propria degli umani che in merito all'uso e alla finalizzazione di tali macchine (come d'altronde di quelle già disponibili) avrebbero autorità di decidere.
Bibliografia
- T.W. Berger, Restoring Lost Cognitive Function, «IEEE Engineering in Medicine and Biology Magazine» September/October 2005, pp. 30-44.
- Ned Block, The Mind as the Software of the Brain, www.nyu.edu
- P. Bruza, Extracting Spooky-activation-at-a-distance from Considerations of Entanglement, «To appear in Proceedings of the Third Quantum Interaction Symposium, Lecture Notes in Artificial Intelligence», vol 5494, Springer, 2009
- F. Hapgood, Reverse-Engineering the Brain, «Technology Review» July 11, 2006
- J.J. Hopfield, Neural networks and physical systems with emergent collective computational abilities, «Proceedings of the National Academy of Sciences of the United States of America», Vol. 79, No. 8. (1 April 1982), pp. 2554-2558
- Jozef Kelemen, From Artificial Neural Networks to Emotion Machines with Marvin Minsky, «Acta Polytechnica Ungarica» vol. 4, N°4 -2007
- D. Zohar, I. Marshall SQ, Spiritual intelligence - The Ultimate Intelligence Technologic Singularity, 1993
- Gustavo Micheletti, I pensieri 'ciechi' e 'sordi' in Leibniz e nel cartesianesimo, , 2006
- Piergiorgio Odifreddi, In Memoria dell'I.A., 1994
- John R. Searle, Is the Brain a Digital Computer?, users.ecs.soton.ac.uk
- Adrian Thompson, The Evolvable Motherboard, 1999, «Towards Robust Unconventional Evolved Circuits», 1999
- Eliezer Yudkowsky, Artificial Intelligence as positive and negative factor in Global Risk, singinst.org