BATTAGLIE PERDUTE CHE VALEVA LA PENA COMBATTERE

Tra la seconda metà degli anni ’80 e l’inizio dei ’90 ho vissuto un periodo di transizione tra una fase della mia carriera in cui mi ero occupato principalmente di fisica e matematica, e un’altra in cui mi sarei occupato molto di storia della scienza (e, in generale, storia) e di scuola. Vorrei parlare brevemente di quella fase che, anche se non portò ai risultati sperati, può essere a mio parere spunto per riflessioni interessanti.

Per quanto riguarda i rapporti con i colleghi di Tor Vergata, la situazione era complessa. Tra quelli che preferivo evitare vi era innanzitutto F. Per molti mesi, forse più di un anno, ogni volta che ero in dipartimento, F entrava nel mio studio e mi illustrava a lungo la sua geniale dimostrazione della famosa congettura di Collatz (risalente al 1937 e tuttora irrisolta). Era certo di questo risultato di cui si pavoneggiava, che gli avrebbe indubbiamente procurato imperitura fama mondiale, salvo un trascurabile particolare: alla sua dimostrazione, perfetta nella sostanza, mancava sempre qualche dettaglio, ogni volta diverso, che benevolmente lasciava a me da sistemare. Mi sembrava di essere tornato alle discussioni in caserma con il tenente S. Per salvarmi dagli interminabili vaniloqui di F presi l’abitudine di diradare la mia presenza in dipartimento, lavorando il più possibile a casa.

Stimavo la maggioranza degli altri colleghi singolarmente presi, con molti avevo ottimi rapporti personali e con diversi avevo anche interazioni scientifiche interessanti. Quando però li incontravo collettivamente, partecipando a un consiglio di facoltà o di dipartimento, mi sentivo un corpo estraneo: ero lontano dalla logica seguita da quegli organi più o meno quanto lo ero stato dalla logica imperante in caserma. Qualsiasi fosse l’oggetto in discussione, si trattava in ogni caso di battaglie o compromessi tra singoli o fazioni. A volte si trattava di scontri personali, ma quando un collega riteneva di difendere interessi collettivi, la collettività cui sentiva di appartenere era sempre molto ristretta: in facoltà poteva essere quella dei matematici, fieramente avversa ai biologi e ai fisici, ma in dipartimento i matematici si dividevano a loro volta in gruppi contrapposti: i geometri divenivano avversari degli analisti e dei fisici matematici e così via. Nelle discussioni non intervenivano mai né argomenti di carattere culturale né considerazioni sull’interesse pubblico.

Nella ripartizione dei fondi di ricerca il criterio principale era costituito dall’entità della somma spesa l’anno precedente: la colpa più grave imputabile a un ricercatore era quella di spendere poco. Per i membri di un dipartimento di matematica, che non avevano attività sperimentali, la principale voce di spesa era costituita dai viaggi. In quegli anni viaggiai abbastanza (in particolare in Francia, Paesi Bassi e Germania), ma sempre a spese delle università straniere che mi invitavano (nell’85 avevo trascorso anche un quadrimestre a Parigi, invitato da Jacques Neveu e pagato dall'Università Pierre et Marie Curie). Ero contento di viaggiare all’estero senza pesare sui contribuenti italiani, ma in questo modo un anno mi capitò di non spendere tutti i fondi che mi erano stati assegnati: agli occhi dei colleghi (che non mancavano di lamentarsi del crescente debito pubblico dello Stato) mi resi così colpevole di un vero misfatto e fui punito con una minore assegnazione di fondi l’anno successivo.

Nonostante queste divergenze, cercai di dare un contributo sul piano della gestione accettando di presiedere la commissione mezzi di calcolo del dipartimento. Non ricordo l’anno esatto, ma sbaglio di poco supponendo che fosse l’anno accademico 1987/1988. Cercai di svolgere il mio compito con scrupolo, ma purtroppo uno dei membri della commissione era F e verso la fine del mio mandato, vi fu uno scontro tra noi due sulla scelta dei nuovi computer da acquistare.

F sosteneva che il dipartimento avrebbe dovuto acquistare un enorme e costosissimo mainframe per sostituire il precedente, indubbiamente obsoleto. Gli argomenti a difesa di questa scelta erano due: innanzitutto esisteva una somma adeguata messa a disposizione dal rettore per l’acquisto di beni inventariabili e, soprattutto, l’acquisto avrebbe giovato al prestigio del dipartimento. Io obiettavo che i grossi mainframe erano ormai superati da diversi anni, che non si sarebbe dovuto sprecare danaro pubblico, che la sola manutenzione di quel mostro avrebbe avuto un costo insopportabile e che sarebbe stato preferibile acquistare un certo numero di workstation e PC. Preparai un documento in cui motivai la mia proposta in dettaglio, sulla base di un’analisi minuziosa di tutte le esigenze di calcolo del dipartimento, che sarebbero state soddisfatte con maggiore efficienza e minore spesa. Si arrivò al confronto in un consiglio di dipartimento. I colleghi all’unanimità (per la precisione con una sola astensione: quella di Lello Esposito) sposarono la tesi di F, decidendo di acquistare il mainframe per “ragioni di prestigio”. Le spese di manutenzione non erano prese in considerazione perché la ditta venditrice assicurava la manutenzione gratuita per il primo anno e le elevate spese di manutenzione degli anni successivi non interessavano nessuno: erano largamente estranee all’orizzonte temporale dei colleghi.

Avrei continuato a difendere l’interesse pubblico se fossi stato sostenuto da una minoranza anche piccola, ma il mio completo isolamento mi convinse non solo a non assumere alcun altro incarico gestionale, ma anche a non partecipare più né a consigli di dipartimento né a consigli di facoltà. Non venni mai meno alla decisione presa allora.

Notai che i professori universitari italiani, nella loro quasi totalità, si sentono completamente estranei al proprio paese e allo Stato che li stipendia. Si tratta di un fenomeno che non riguarda solo l’atteggiamento verso la spesa di soldi pubblici, ma anche l’attività di ricerca. Ne ebbi una chiara prova durante lunghe discussioni con T, allora direttore dell’IAC (Istituto per le Applicazioni del Calcolo). L’Istituto era nato come INAC (Istituto Nazionale per le Applicazioni del Calcolo) grazie a Mauro Picone, che l’aveva fondato nel 1927 e diretto fino al 1960. Durante la direzione di Picone l’Istituto costituiva una voce attiva del bilancio dello Stato, in quanto le spese di funzionamento, inclusi gli stipendi ai dipendenti, erano largamente inferiori alle somme che l’INAC riceveva dagli enti pubblici e privati in pagamento delle consulenze che forniva. Allo stesso tempo costituiva un vivaio di ottimi matematici; tra i giovani che si formarono lavorando all’INAC sotto la direzione di Picone vi erano stati Renato Caccioppoli, Ennio De Giorgi e altri analisti di valore. Successivamente aveva perso ogni velleità di essere economicamente attivo. Nel 1969 l’INAC aveva ufficializzato il suo disinteresse per lo Stato che lo finanziava eliminando la N.

All’epoca dei miei contatti, nei secondi anni 80, il principale progetto di ricerca dell’IAC riguardava il riconoscimento di immagini. Poiché, come dirò tra poco, anch’io all’epoca ero coinvolto in questo tipo di ricerche, per un momento pensai di poter collaborare con l’IAC, ma mi accorsi subito che quell’Istituto in realtà non svolgeva alcuna ricerca su quell’argomento, limitandosi a finanziare una serie di brevi inviti di illustri scienziati che lavoravano su questo tema. Gli invitati erano ben contenti di trascorrere una vacanza ben pagata di qualche giorno in una città turisticamente interessante come Roma con l’unico impegno di tenere una conferenza prima di tornare a casa. Il direttore dell’IAC era altrettanto contento di mostrare in questo modo il respiro internazionale dell’Istituto.

In quegli anni ebbi qualche contatto anche con l’ENEA (comitato nazionale per la ricerca e lo sviluppo dell'Energia Nucleare e delle Energie Alternative), traendone la convinzione che i suoi dirigenti lo considerassero soprattutto una struttura utile ad assicurare un futuro a giovani ricercatori meritevoli e nel migliore dei casi incoraggiassero qualche ricerca interessante, ma non immaginassero neppure che tra i propri obiettivi vi potesse essere quello di contribuire a diminuire il deficit energetico del paese. Ne paghiamo ancora le conseguenze.

Mi divenne sempre più chiaro che quasi tutti gli scienziati italiani si consideravano membri apolidi della comunità scientifica internazionale e non avevano alcun interesse né alle condizioni economiche, né ad altri aspetti della vita del paese in cui vivevano: ad esempio quasi mai si occupavano dei problemi della scuola. Credo che in parte questo atteggiamento derivasse da una malintesa applicazione della volontà di opporsi al nazionalismo, che veniva associato al fascismo. Bisogna però dire che non si era trattato di una reazione al fascismo apparsa con la Liberazione; nel dopoguerra e fino agli anni sessanta vi era stata ancora una comunità scientifica italiana interessata ai problemi del paese; la transizione, come nel caso dell’INAC-IAC, si era verificata alla fine degli anni sessanta, anche se io all’epoca non l’avevo capito.

L’estraneità degli scienziati italiani al proprio paese è particolarmente evidente nel loro atteggiamento verso la nostra lingua. Ovviamente già negli anni ottanta la lingua inglese aveva un ruolo insostituibile come lingua franca e doveva perciò essere usata nei convegni internazionali. Gli italiani, però, a differenza dei loro colleghi degli altri maggiori paesi, usavano l’inglese anche nei convegni nazionali e sempre più l’avrebbero usato anche nei corsi tenuti nelle università italiane. Quando partecipai a un convegno nazionale di probabilisti e dissi che avrei parlato in italiano, l’organizzatore replicò che avrei dovuto parlare in inglese per rispetto degli stranieri presenti. Si trattava di due persone, invitate per dare una vernice di “internazionalità” alla riunione: uno era del Canton Ticino e l’altro viveva in Italia da molti anni. Gli feci notare che in Francia in un’occasione simile nessuno si sarebbe sognato di non parlare francese, ma mi rispose che i francesi parlano francese solo perché non sanno pronunziare bene l’inglese. Naturalmente parlai in italiano, ma il mio esempio fu seguito solo da un’altra partecipante (particolarmente nota a livello internazionale, va notato).

L’atteggiamento degli scienziati italiani verso la propria madrelingua ha naturalmente la conseguenza di privare la lingua italiana della terminologia scientifica e, se sarà usato in tutti i settori accademici, di privarla di tutto il lessico colto, riducendola al rango di un dialetto, ma quasi tutti gli accademici non se ne interessano: vogliono mostrarsi “internazionali” nelle singole occasioni e non si pongono il problema degli effetti a lungo termine del loro comportamento. Inoltre non si rendono conto che l’uso della lingua inglese nei corsi universitari tende ad accomunare le nostre università non a Oxford o Harvard, ma piuttosto a quelle di paesi come il Ghana e la Namibia, che debbono usare necessariamente l’inglese perché privi di una propria lingua colta.

La giustificazione ufficiale dell’uso dell’inglese nei corsi universitari è quella di attrarre studenti stranieri, ma è evidente che se si tratta di studenti intenzionati a lavorare in Italia è loro interesse imparare bene l’italiano; se invece si tratta di persone che andranno a lavorare altrove e vengono in Italia solo per il livello relativamente basso delle nostre tasse universitarie, non si capisce perché i contribuenti italiani dovrebbero pagare i loro studi.

Il distacco tra la ricerca teorica e le applicazioni concrete era in parte un fenomeno mondiale, come era dimostrato dalle tendenze di alcuni settori della fisica, ma la situazione italiana rappresentava certamente un caso limite. In Olanda, ad esempio, un probabilista con cui avevo collaborato prestava consulenze allo Stato su problemi economicamente rilevanti e un altro aveva alternato periodi di lavoro all’università con altri in cui aveva lavorato alla Philips. Negli Stati Uniti avevo intuito molteplici legami con la realtà industriale e ne avrei avuto un’ulteriore prova quando Jennifer Chayes, che aveva collaborato con me a Princeton all’epoca della sua tesi di dottorato, passò a dirigere la ricerca della Microsoft.

Ero convinto che anche il livello scientifico della ricerca alla lunga dovesse risentire negativamente di un completo scollamento dalla realtà concreta. Vi era certamente il rischio (ben chiaro a tutti i miei colleghi) di asservire la ricerca a interessi economici di corto respiro, ma mi sembrava che vi fosse anche il rischio opposto, da loro ignorato, che una ricerca compiuta a livello astratto, senza essere mai posta di fronte a  problemi concreti non risolubili con gli strumenti concettuali disponibili, finisse con l’avvolgersi su sé stessa in modo autoreferenziale. La storia della scienza mostra che spesso idee nuove fondamentali sono state suggerite da problemi concreti: un esempio lontano era la scoperta dell’abisso del tempo geologico, dovuta soprattutto a tecnici minerari; un esempio recente a me particolarmente vicino veniva dalla teoria della percolazione. A nessun probabilista era venuto in mente di occuparsi di quei problemi (che, a posteriori, erano sembrati così naturali e visualizzabili) prima di essere stimolato a farlo da ingegneri minerari che avevano studiato il passaggio dell’aria attraverso il carbone contenuto nelle maschere antigas.

Queste considerazioni mi rendevano difficile condividere fino in fondo il modo incondizionato in cui i colleghi richiedevano più fondi per la ricerca, creando un motivo in più per rendermi estraneo all’ambiente di cui facevo parte. In seguito le cose sarebbero peggiorate drasticamente, ma all’epoca i fondi pubblici italiani per la ricerca erano confrontabili con quelli degli altri maggiori paesi europei. La particolarità italiana era costituita piuttosto dall’assenza quasi totale di finanziamenti privati. Perché gli imprenditori italiani non finanziavano la ricerca? Evidentemente perché, a differenza dei loro omologhi statunitensi, giapponesi o tedeschi, non ritenevano che si trattasse di investimenti convenienti. Ero convinto che questa opinione derivasse non solo dalla loro scarsa cultura scientifica ma anche dall’insufficiente capacità dei ricercatori italiani di conseguire risultati concretamente utili: due facce della stessa medaglia, provenienti entrambe da una tradizione di scarsa interazione tra ricerca scientifica accademica e tessuto produttivo del paese.

Mi sembrava che per risanare la situazione si sarebbe dovuto agire contemporaneamente su due fronti: aumentare i finanziamenti alla ricerca, ma allo stesso tempo rendere anche più efficace la ricerca applicata, che nel suo insieme avrebbe dovuto essere in grado di autofinanziarsi e contribuire al finanziamento della ricerca pura. Naturalmente non potevo sperare di trovare colleghi disponibili a prendere in considerazione idee del genere. Molti, anche tra i più bravi, aborrivano la ricerca applicata, come se fosse inevitabilmente inquinata dallo sterco del diavolo ed erano sinceramente convinti che la Verità raggiunta con la speculazione astratta avrebbe generato spontaneamente mirabolanti ricadute applicative: una tesi spesso giustificata anche con opportune deformazioni della storia della scienza. Avevo anche notato che la didattica del corso di laurea in matematica, svolgendosi quasi interamente all’interno di modelli astratti, non metteva in grado gli studenti di matematizzare problemi concreti, diminuendo drasticamente, a mio parere, l’utilità sociale dei laureati in matematica.

Decisi che avrei dedicato parte del mio tempo alla matematica applicata e che lo avrei fatto anche dando tesi di laurea su problemi applicativi. Credo che a questa decisione avesse contribuito anche la constatazione che avevo dimostrato sufficientemente a me stesso di essere in grado di svolgere ricerca pura ed era stato quindi naturale pormi nuovi obiettivi. Cominciai anche a riflettere sulla storia della scienza sviluppata in Italia, per cercare di individuare l’origine del particolare distacco dei ricercatori italiani dalla realtà economica e sociale in cui sono immersi.

Una delle prime tesi applicative che assegnai riguardò l’archeologia. Avevo conosciuto un archeologo esperto di aerofotogrammetria, che mi aveva illustrato l’utilizzo di questa tecnica in archeologia e mi ero chiesto se qualche algoritmo matematico avrebbe potuto migliorare l’efficienza dell’analisi delle foto aeree. Ero convinto che l’occhio umano fosse difficilmente superabile nell’analisi di una singola foto; pensai però che la vista non poteva identificare correlazioni tra luoghi distanti, visibili in molte foto diverse; in questo caso poteva essere utile un programma basato su un algoritmo matematico. Detti allora una tesi di laurea a un bravo studente sul problema di identificare lunghe strutture rettilinee, come strade, grazie all’analisi di molte foto che coprissero una vasta area.

Quando il lavoro di tesi cominciò a produrre risultati incoraggianti, pensai di parlarne ad alcuni archeologi della mia Università. Questi colleghi reagirono con un atteggiamento difensivo e sospettoso, dicendomi subito che collaboravano già con informatici del mio dipartimento; erano chiaramente intenzionati a respingere ogni mio indebito tentativo di intrusione e non mostrarono alcuna curiosità per il mio lavoro. Chiesi quale fosse l’oggetto della collaborazione e seppi che si trattava di un progetto, finanziato dal CNR, finalizzato alla realizzazione di un database di dati archeologici. Due dipartimenti di Tor Vergata avevano cioè unito le loro forze con quelle del CNR al fine di trovare un sistema per archiviare dati: un lavoro che nella mia ingenuità avrei pensato potesse essere svolto da un buon programmatore. Avrei verificato in molti altri casi che gli studiosi dei settori umanistici sono spesso interessati a dare una vernice di “scientificità” alle proprie ricerche con l’uso di tecniche tratte dalle scienze esatte, ma limitandosi quasi sempre ad applicazioni banali di metodi numerici o informatici.

Solo l’interazione con archeologi avrebbe potuto sviluppare in una direzione utile il lavoro che avevamo iniziato. Dovetti quindi abbandonare l’idea dell’aerofotogrammetria. Lo studente dopo la laurea avrebbe fatto una brillante carriera nel settore della sicurezza informatica.

Un’altra occasione per applicare metodi statistici allo studio dell’antichità fu offerto dalla Geografia di Claudio Tolomeo. In quest’opera le longitudini sono affette da un errore sistematico di cui non si era mai capita l’origine. Pensai che uno studio statistico dei dati avrebbe potuto essere utile e anche in questo caso detti una tesi di laurea. La laureanda non ottenne però risultati significativi. Sarei tornato io sull’argomento molti anni dopo.

Tra i miei tentativi di studiare problemi applicativi vi fu anche un momento in cui pensai al problema, all’epoca attuale, del riconoscimento automatico delle cifre scritte a mano sugli assegni. Per farlo mi sembrò necessario individuare la distribuzione di probabilità dei vari modi in cui poteva essere scritta ciascuna cifra (in seguito il problema sarebbe stato invece risolto grazie all’uso di reti neurali, rinunciando a capire come avvenisse il riconoscimento). Mi sarebbe piaciuto collaborare con qualche collega su questo tema e organizzai perciò una riunione. Il collega P intervenne nella discussione proponendo di individuare per ogni cifra un prototipo “perfetto” (non disse come si sarebbe potuto individuare) e usare la distribuzione ottenuta perturbando questi prototipi con un rumore bianco. Immaginava cioè che tutti i modi di scrivere, ad esempio, un tre potessero essere descritti da uno stesso prototipo canonico, ma seguendone le linee con un continuo tremolio, variabile da caso a caso. Gli feci osservare che non tutti siamo affetti dal morbo di Parkinson. È evidente che chi arriva a concepire un’idea simile non è partito da un esame del fenomeno che vuole matematizzare, ma tenta semplicemente di associare ai termini di un problema le conoscenze libresche esprimibili con termini apparentemente simili. Gli effetti nefasti di una didattica matematica avulsa dalla realtà concreta colpivano evidentemente non solo gli studenti, ma anche i docenti, che nella grande maggioranza dei casi non avevano alcuna capacità di matematizzare un problema concreto. Come criticare gli imprenditori che non volevano investire nelle loro ricerche?

Qualche anno dopo il servizio meteorologico dell’aeronautica, per motivi di bilancio, decise di ridurre il numero delle stazioni meteorologiche. Per decidere quali eliminare occorreva un’analisi statistica che permettesse di minimizzare la perdita media di informazione. L’analisi fu affidata a P e ho sempre pensato che questa scelta non fosse indipendente dal drastico calo dell’affidabilità delle previsioni meteo che fu evidente negli anni successivi.

Un’altra occasione per seguire una tesi di laurea applicativa mi fu offerta da uno studente lavoratore; non potendo seguire corsi di mattina, aveva seguito solo il mio corso di probabilità, che era pomeridiano, e aveva trovato perciò naturale chiedermi la tesi. Mi informai sul suo lavoro e scoprii che lavorava nel centro di calcolo delle Ferrovie del Sud Est (la società che gestiva le ferrovie pugliesi e da poco era stata commissariata). Gli consigliai una tesi sul traffico ferroviario e gli suggerii di chiedere ai suoi datori di lavoro se avessero da proporre un tema di loro interesse. Pensavo a qualche software utile, ma lo studente mi fece capire che da parte delle Ferrovie del Sud Est non vi era alcun interesse alla realizzazione di software efficiente. La società acquistava il software di cui aveva bisogno da un’azienda posseduta da un prestanome del dirigente che decideva gli acquisti, che aveva interesse ad acquisire programmi mal funzionanti, che avessero continuamente bisogno di essere sostituiti.

La tesi si concluse senza risultati esaltanti, ma fu l’occasione di altri sviluppi. In quei mesi stava partendo un progetto per la progettazione di un sistema di Controllo Circolazione Linee da offrire alle Ferrovie dello Stato e a questo fine era sorto un consorzio formato dall’Università Tor Vergata, il CNR e la Siemens Italia. Il collega A, che guidava la partecipazione di Tor Vergata, avendo saputo che avevo seguito una tesi sul traffico ferroviario, mi chiese di partecipare e io accettai.

Per alcuni mesi mi gettai con entusiasmo nell’impresa. Il problema tipico da affrontare, semplificando un po’, può essere così sintetizzato: se un treno più veloce è preceduto sullo stesso binario da uno più lento, bisogna evidentemente usare un tratto a doppio binario per effettuare il sorpasso; per decidere dove è meglio che il sorpasso avvenga bisogna calcolare le conseguenze di ogni scelta su tutto il traffico successivo e scegliere la soluzione migliore. Occorre quindi innanzitutto decidere cosa si considera “migliore”, cioè quale caratteristica del traffico si vuole ottimizzare, e poi come realizzare un software che permetta di fare scelte vicine a quella ottimale in tempo utile. Con la velocità dei computer dell’epoca non era ovvio che il tempo di calcolo non fosse così lungo da fornire la soluzione dopo che i treni si sarebbero già scontrati: era ciò che sarebbe avvenuto se le Ferrovie dello Stato avessero usato l’unico software a loro disposizione, che giustamente giaceva inutilizzato e sostituito vantaggiosamente dall’intuito umano.

Quando partecipai a una riunione con i colleghi di Tor Vergata interessati al progetto scoprii che A aveva coinvolto anche F, ossia il collega che immaginava di avere dimostrato la congettura di Collatz e aveva convinto il dipartimento a sprecare denaro pubblico acquistando l’inutile mainframe. F propose di minimizzare una media pesata tra i ritardi dei treni, con pesi scelti ogni giorno casualmente: ad esempio un giorno si sarebbe potuto privilegiare l’arrivo in orario di un veloce treno passeggeri e l’indomani si sarebbe potuto preferire la puntualità di un treno merci, e così via, cambiando ogni giorno a caso. Gli chiesi come gli fosse venuta in mente un’idea simile e mi rispose che aveva sentito dire che i metodi stocastici erano particolarmente efficienti.

Quello di F era certamente un caso limite, ma, come ho già notato, molti dei colleghi, anche tra quelli abbastanza bravi nei lavori teorici, andavano nel pallone quando tentavano di affrontare problemi concreti. Un buon esempio fu dato, nella stessa riunione, proprio da A (uno studioso con notevoli agganci internazionali, da molti considerato un illustre luminare, che si era adoperato per acquisire F nel nostro dipartimento). Sostenne infatti che, seguendo un principio più volte da me affermato, dovessimo considerare innanzitutto il caso più semplice. Proponeva quindi di cominciare studiando il caso in cui vi fosse un solo binario e un solo treno. Gli feci osservare che io mi riferivo al caso più semplice in cui il problema si presentava, mentre lui proponeva un caso in cui non vi era alcun problema di traffico. Rispose che non ci aveva pensato.

Capii che discutere il problema del traffico ferroviario con i colleghi di Tor Vergata non era particolarmente utile. Andai da dirigenti delle Ferrovie dello Stato e mi procurai tutti i dati sulla circolazione dei treni in alcuni giorni campione su una porzione della rete ferroviaria italiana e cominciai ad analizzarli con l’aiuto di un paio di giovani. Era un lavoro improbo, ma non mi sembrava sensato pensare a un algoritmo prima di essermi reso conto delle caratteristiche concrete del problema. Discussi anche a lungo con un dirigente delle FS molto intelligente venuto dalla gavetta (era un ex ferroviere). Avevo notato che diversi treni merci si fermavano sempre nello stesso luogo e più o meno alla stessa ora senza che le fermate fossero motivate da problemi di traffico che fossi riuscito a identificare. Quel dirigente me ne spiegò il motivo: in quel punto c’era una trattoria ben nota ai ferrovieri, che offriva ottimo pesce. Contattai anche personale della Siemens per capire quale contributo avrei potuto aspettarmi da loro.

Dopo circa tre mesi di lavoro avevo appurato che:

1. La Siemens Italia non disponeva di alcuna competenza tecnica: il suo personale era costituito solo da impiegati amministrativi e venditori. La società infatti non produceva nulla, limitandosi a vendere prodotti provenienti o dalla casa madre oppure da piccole aziende italiane che lavoravano per la Siemens.

2. La Siemens Italia non aveva alcun interesse a realizzare un sistema efficiente da vendere alle Ferrovie dello Stato. La vendita avrebbe potuto essere molto redditizia, ma, poiché il progetto era triennale, sarebbe avvenuta in un futuro largamente esterno all’orizzonte temporale dei dirigenti, che era al più semestrale. L’unico loro interesse era incassare fondi erogati dallo Stato per la ricerca: erano perciò interessati ai professori universitari nella misura in cui i loro rapporti con il CNR fossero tali da garantire l’erogazione dei fondi.

3. Non era possibile aspettarsi alcun aiuto serio da parte del CNR. In una riunione con i loro esperti fui criticato per essermi preoccupato di assumere i dati reali sulla circolazione dei treni. A loro avviso avrei dovuto scegliere prima, a priori, quale algoritmo usare.

4. Scoprii che ufficialmente non partecipavo al progetto sul traffico ferroviario, ma a un altro progetto, sul traffico aereo, che assorbiva molte più risorse. A, il collega che mi aveva coinvolto, era interessato a questo secondo progetto, ma poiché non poteva parteciparvi ufficialmente, per ragioni di incompatibilità che non mi spiegò compiutamente, aveva scambiato i ruoli con me, falsificando sistematicamente la mia firma. Pensai per una notte se era il caso di andare dai carabinieri a denunciarlo, ma alla fine decisi di lasciar correre purché avesse cessato immediatamente la truffa.

Dopo una riunione in cui A si prodigò a lungo per convincere i responsabili della Siemens che le sue aderenze nel CNR fossero sufficienti ad assicurare i fondi desiderati, abbandonai il progetto. Non avevo buttato del tutto quei tre mesi di lavoro, perché avevo imparato parecchio sui colleghi, sul CNR e sulla Siemens, e anche qualcosa sui ferrovieri.

Insieme a Camillo Cammarota (che era stato mio studente a Napoli all’epoca del mio primo corso) tentai anche una collaborazione con cardiologi docenti alla Sapienza sul problema dell’analisi automatica degli elettrocardiogrammi. Era stato sviluppato molto software allo scopo di trarre diagnosi dall’analisi automatica di elettrocardiogrammi e cominciai a studiare la letteratura esistente. Anche su questo argomento detti alcune tesi di laurea. Dai miei studi trassi però l’impressione che fosse ancora lontano il tempo in cui il computer avrebbe potuto sostituire utilmente l’occhio del cardiologo. Tra le pubblicazioni che avevo letto sull’argomento ero stato particolarmente colpito da una, pubblicata su una autorevole rivista internazionale, che era stata scritta non da un medico né da un matematico, ma da un produttore di software. L’articolo era essenzialmente pubblicitario: decantava i pregi del prodotto realizzato dall’autore, che consistevano nella sua utilità non a fini diagnostici, ma nell’agevolare la produzione di articoli accademici sull’argomento. Mi resi conto che anche i cardiologi con cui avevo interagito volevano collaborare con noi non per realizzare uno strumento utile a fini diagnostici, ma solo per produrre pubblicazioni utili alla loro carriera accademica. Preferii abbandonare la collaborazione e anche l’argomento.

Un problema che mi affascinò, al quale dedicai molto tempo, fu quello del riconoscimento dei suoni e della fisiologia dell’orecchio interno. Cominciai con lo studiare il classico volume ottocentesco di Hermann von Helmholtz On the Sensations of Tone (lo lessi in traduzione inglese). Helmholtz aveva individuato nella coclea l’organo essenziale per il riconoscimento dei suoni. La membrana basilare presente al suo interno ha costanti elastiche relative alle due direzioni così diverse tra loro da poter essere assimilata, in prima approssimazione, a una successione di corde trasversali alla direzione in cui si sviluppa. Quando un suono arriva all’orecchio interno le “corde” con frequenza propria eguale a una componente del suono entrano in risonanza e inviano l’informazione al cervello attraverso le terminazioni nervose cui sono collegate. Helmholtz ne aveva concluso che la coclea effettuasse un’analisi di Fourier del suono. Microfoni, altoparlanti, registratori e altri apparecchi per l’analisi e la riproduzione del suono realizzati successivamente si erano tutti basati sull’idea di Helmholtz, cioè sull’analisi armonica del suono.

La teoria di Helmholtz aveva certamente individuato una caratteristica essenziale della fisiologia dell’orecchio, come era dimostrato dell’efficacia della tecnologia costruita sulla sua base, ma avevo diversi motivi per dubitare che l’informazione trasmessa dall’orecchio al cervello si esaurisse completamente nell’analisi armonica  compiuta dalla coclea.

Innanzitutto ha senso effettuare un’analisi armonica di un segnale solo se la sua durata nel tempo è molto maggiore dei periodi di tutte le armoniche considerate e non mi sembrava che ciò fosse vero per tutti i suoni udibili. Nel caso della voce umana, ad esempio, questa condizione è certamente ben soddisfatta dai suoni vocalici (formati essenzialmente da tre armoniche, come aveva scoperto lo stesso Helmholtz), mentre è molto più dubbio che lo sia nel caso delle consonanti esplosive. Non mi sembrava un caso che i suoni riprodotti attraverso apparecchi basati sull’analisi armonica riproducessero molto meglio le vocali delle consonanti e, più in generale, fossero meno efficienti nel caso di suoni di breve durata: ad esempio, pronunziando al telefono una parola non nota all’interlocutore è spesso necessario aggiungere precisazioni come “t come Taranto”, mentre non abbiamo mai bisogno di dire “a come Ancona”. Per fare un altro esempio, se si ascolta il suono prodotto dall’urto di due corpi, è facile capire qualcosa sulla natura dei corpi, distinguendo ad esempio se si trattava di corpi metallici o di legno, ma è più difficile farlo se il suono non è ascoltato dal vivo, ma in una registrazione.

Il mio dubbio era alimentato anche dalla filogenesi. Molti pesci hanno un efficiente apparato uditivo, ma non hanno alcuna coclea, né organi affini. Un ruolo essenziale nell’orecchio dei pesci è svolto da alcuni otoliti. Pensai che tra i suoni individuati meglio dall’orecchio di un animale l’evoluzione dovesse aver fatto includere i suoni emessi dagli animali della stessa specie. Quando perciò appresi che i pesci dotati di udito emettono brevi suoni esplosivi, mi sembrò di poter formulare un’ipotesi di lavoro. Forse l’uomo, come ha conservato il cervello rettiliano, potrebbe aver conservato nell’orecchio, accanto alla coclea, anche il sistema di riconoscimento dei suoni, molto più primitivo, già presente nei pesci e il suo mancato riconoscimento potrebbe aver fatto sviluppare sistemi di registrazione e riproduzione dei suoni che mostrano imperfezioni proprio nel riconoscimento di suoni di brevissima durata. L’ipotesi era avvalorata dall’effettiva presenza nell’orecchio umano di strutture analoghe a quelle presenti nell’orecchio dei pesci (la cui funzione è però ritenuta relativa solo all’equilibrio).

L’argomento mi interessava anche per la sua interdisciplinarità, che presumibilmente ne aveva penalizzato lo studio nella nostra epoca di iperspecializzazione. Alcuni colloqui con possibili specialisti del tema mi confermarono nell’idea. Gli otoiatri interpellati mi trattarono con sufficienza considerandomi un profano, ma mostravano di non conoscere non solo le ricerche recenti sull’analisi del suono, ma neppure la teoria classica di Helmholtz. I fisici interessati al problema con cui parlai, oltre a conoscere bene sia l’analisi armonica sia sviluppi più recenti (come le wavelets, alle quali aveva dato importanti contributi Ingrid Daubechies, che avevo conosciuto a Princeton) erano spesso specialisti di elettronica, ma nessuno di loro aveva pensato di studiare la filogenesi dell’orecchio, né sembravano interessati all’anatomia comparata.

Detti alcune tesi di laurea, sia in matematica sia in fisica, sull’argomento di modelli del funzionamento dell’orecchio interno. Nella seduta di laurea in fisica in cui si discusse una di queste tesi uno dei commissari mostrò perplessità, chiedendosi se l’argomento della tesi rientrasse realmente nella fisica, ma il presidente Chiarotti gli spiegò che qualsiasi elaborazione di modelli matematici di fenomeni reali era fisica. La mia stima per Chiarotti, già alta, aumentò significativamente.

Avevo anche pensato a tesi in cui far studiare i versi di vari animali cercandone le relazioni con i rispettivi apparati uditivi (avevo ad esempio qualche idea sulla relazione tra l’avvolgimento della coclea, presente nei mammiferi e non negli uccelli, e le differenze tra i versi delle due classi di animali), ma rinunciai per la difficoltà di analizzare suoni senza usare tecnologia basata proprio sui presupposti che volevo mettere in discussione. Sarebbero state necessarie competenze ingegneristiche che mi mancavano per realizzare tecnologie alternative.

L’interesse per la matematica applicata non aveva spento quello per la scienza pura, ma nel 1989 un episodio contribuì ad allontanarmi dalla ricerca puramente teorica. Con la collaborazione di Camillo Cammarota avevo ottenuto alcuni risultati di cui ero particolarmente contento. Non è il caso di esporre qui il loro contenuto tecnico, ma ricordo solo che uno dei miei principali motivi di soddisfazione era di natura epistemologica: i nostri risultati erano completamente trasversali rispetto al tradizionale confine tra la disciplina fisica della meccanica statistica e quella matematica della teoria della probabilità: dimostravamo infatti che alcuni classici problemi riguardanti la meccanica statistica di sistemi interagenti potevano essere riformulati in termini di pura probabilità, in un modello in cui l’interazione spariva. Ero soddisfatto quando inviai il nostro lavoro a una delle migliori riviste di probabilità: Probability Theory and Related Fields, una rivista che aveva pubblicato altri miei lavori quando aveva ancora il suo originale nome tedesco.

Nel dicembre 1989 il central editor della rivista, Hermann Rost, mi comunicò che le relazioni di due referee anonimi non gli permettevano di accettare il nostro articolo. Uno dei due giudicava false alcune nostre affermazioni che aveva grossolanamente frainteso. L’altra relazione mi colpì ancora di più. Vi si affermava tra l’altro:

 

There are some major points of criticism: … While it is easy to follow the proofs line by line, the final results come as a surprise.

 

Avevo sempre ritenuto uno dei principali pregi del mio stile scientifico quello di riuscire a ottenere risultati nuovi e sorprendenti con una successione di passi semplici, ma questa caratteristica appariva un inaccettabile difetto all’anonimo giudice, che, prima della sua conclusione negativa, aveva anche scritto:

 

The direction of research is interesting, and so are the results obtained so far.

 

L’anonimo referee non pensava evidentemente che gli articoli migliori fossero quelli che aprivano nuove interessanti direzioni di ricerca, grazie a risultati sorprendenti ottenuti in modo semplice; preferiva quelli che si muovevano all’interno di schemi già ben consolidati, senza sorprendere mai il lettore. Ebbi la netta sensazione che il livello dei revisori, anche nel caso delle principali riviste, fosse franato. Nel caso specifico credo che la rivista fosse scesa in quegli anni a un livello minimo dal quale si sarebbe poi risollevata, ma in media il continuo abbassarsi del livello dei revisori delle riviste scientifiche è stato ampiamente confermato nei decenni successivi. Credo che una delle principali origini di questo fenomeno sia rintracciabile nell’aumento esponenziale del numero degli articoli, che rende inevitabile delegare il loro esame a un numero di revisori anch’esso esponenzialmente crescente e quindi inevitabilmente dal livello medio sempre più basso.

Mi convinsi di vivere un momento di crisi della scienza. Anche se il nostro articolo fu poi pubblicato da un’altra rivista, la sensazione di estraneità all’ambiente accademico non mi avrebbe più abbandonato.

Il funzionario di polizia che avevo conosciuto a Modena, Elio Graziano, fu l’occasione della mia incursione nel campo della matematica applicata alla quale avrei dedicato più tempo ed energie. Un giorno Elio venne a trovarmi a casa. Era stato trasferito a Roma con l’incarico di dirigere l’ufficio della polizia scientifica che si occupava di dattiloscopia. Mi disse che tra i paesi sviluppati l’Italia era l’unico a non avere ancora digitalizzato il riconoscimento delle impronte digitali; si apprestavano però a farlo e per questo sarebbe stata formata un’apposita commissione.

L’argomento mi interessò molto. Avevo letto alcuni lavori sulla ripulitura di immagini in cui si usavano modelli di meccanica statistica che conoscevo bene, come il modello di Ising. Mi era sembrato però che non fossero entrati nel cuore del problema. Ero convinto che per trattare le immagini non si sarebbe dovuto usare un modello di meccanica statistica scelto a priori, ma un modello che descrivesse la distribuzione di probabilità della particolare classe di immagini cui si era interessati. Tra le varie classi di immagini, mi sembrò che quella delle impronte digitali fosse particolarmente adatta a essere modellizzata con i metodi della meccanica statistica; tutte le impronte, infatti, hanno una struttura di base comune, che ne fa intravedere un’origine legata a poche leggi semplici e allo stesso tempo hanno quell’estrema variabilità che le rende utili per il riconoscimento delle persone.

Visto il mio interesse, Elio mi fece avere un manuale di criminologia che dedicava un capitolo alle impronte digitali e alcuni opuscoli che illustravano i sistemi di riconoscimento digitali più usati nel mondo, sviluppati negli Stati Uniti e in Giappone rispettivamente dalla IBM e dalla NEC.

Lessi il materiale fornito da Elio e soprattutto osservai a lungo le mie impronte e quelle di familiari e amici. Pensai che avrei dovuto scoprire un modello matematico che descrivesse la distribuzione di probabilità delle diverse impronte: un risultato che mi sembrava di notevole interesse in sé. Il problema del riconoscimento sarebbe stato poi posto su una base scientifica, completamente assente nei sistemi statunitensi e giapponesi, che si limitavano a digitalizzare il lavoro tradizionalmente svolto a occhio dal poliziotto impegnato nel riconoscimento.

Quasi tutte le impronte, con rare eccezioni, presentano dei “punti singolari”, ossia punti intorno ai quali le creste papillari (ossia le righe sopraelevate del polpastrello) assumono molte possibili diverse direzioni: virtualmente tutte le direzioni possibili. Questi punti singolari possono essere di diverso tipo: a volte sono al centro di molte creste papillari circolari concentriche; in altri casi costituiscono l’estremità di una cresta, intorno alla quale girano altre creste papillari; oppure ancora possono essere il centro di triangolini intorno ai quali le altre creste sono divise in tre gruppi, ciascuno formato da linee che presso il triangolino sono parallele a uno dei tre lati del triangolo. Il numero e il tipo di punti singolari costituiva la base della classificazione delle impronte usata dalla polizia (risalente a quella elaborata da Giovanni Gasti all’inizio del secolo scorso).

Pensai che la prima cosa da capire fosse l’origine dei punti singolari. Era evidente che non si potesse usare un modello che, come quello di Ising, fosse semplicemente attrattivo (o ferromagnetico, come si dice in termini tecnici), nel quale cioè il valore della variabile in ogni punto tenda a essere vicino a quelli di tutti i punti vicini. In quel caso infatti non dovrebbero mai apparire punti intorno ai quali si affollano direzioni tra loro lontane. In realtà, poiché la variabile associata a ogni punto è una direzione, l’isotropia è automaticamente rotta: non vi è alcun motivo per pensare che la forza con cui una cresta tende ad allineare quelle vicine sia la stessa nella direzione della cresta e in quella a lei ortogonale. Se si suppone che in ogni punto la direzione tende fortemente a essere vicina a quella dei punti che si raggiungono spostandosi ortogonalmente alla cresta, mentre vi è un’interazione molto più debole con i punti che si raggiungono muovendosi lungo la cresta, non è difficile rendersi conto che si ottiene un modello che genera proprio i punti singolari presenti sui nostri polpastrelli. In termini più tecnici, capii che la distribuzione di probabilità delle impronte poteva essere descritta da una misura di Gibbs generata da un’Hamiltoniana basata sul tipo di interazione anisotropa che ho appena descritto.

Il passo successivo era l’elaborazione di un metodo per individuare automaticamente la posizione e il tipo dei punti singolari presenti in un’impronta, ma non mi sembrò un problema particolarmente difficile. Si poteva risolvere contemporaneamente al problema della “ripulitura” dell’immagine (ossia del ripristino dell’immagine corretta nei punti in cui si fosse deteriorata) con metodi standard della meccanica statistica, modificati in modo che non è il caso di specificare qui. Si sarebbe così ottenuto un software che, ricevendo l’immagine di un’impronta, automaticamente la ripulisse e la classificasse, individuando posizione e tipo dei punti singolari. Anche il riconoscimento diveniva a questo punto molto più semplice perché, date due impronte, una da identificare e l’altra tratta dall’archivio, il sistema poteva automaticamente verificare innanzitutto se appartenevano alla stessa classe e in caso affermativo poteva traslarle e ruotarle in modo da far coincidere i punti singolari: le impronte si sarebbero così sovrapposte e avrebbero potuto essere confrontate localmente in modo automatico. Il sistema purtroppo non poteva funzionare per le impronte prive di punti singolari, ma, trattandosi di impronte rare, non mi sembrò troppo grave lasciare che solo in quel caso il confronto fosse fatto a occhio o con i sistemi usati altrove.

Ero contento; si apriva la possibilità di dotare la polizia italiana di un sistema molto migliore di quelli concorrenti. Tra le mie idee e l’elaborazione di programmi efficienti c’era però ancora molta strada da percorrere. Mi preoccupavano soprattutto i tempi di calcolo. L’algoritmo che avevo pensato (che usava anche il metodo detto in italiano “ricottura simulata” e in inglese “simulated annealing”) richiedeva un numero enorme di operazioni, che con i computer dell’epoca potevano comportare tempi molto lunghi; d’altra parte era evidente che, dovendo verificare se una data impronta corrispondesse a una delle tante presenti in archivio, non si poteva impiegare una mezza giornata per ogni confronto.

Ero stato però fortunato: uno degli studenti del mio corso di probabilità per fisici era stato Stefano Scorpioni, un ragazzo che, oltre a essere molto bravo in fisica e matematica, era un vero mago del computer. Aveva un completo controllo anche dell’hardware: si procurava dalle case produttrici gli schemi dell’hardware dei computer che usava e li conosceva perfettamente. Un giorno era capitato che il principale computer del dipartimento non funzionasse e l’assistenza della Digital tardava a venire; Stefano, impazientito perché aveva bisogno del computer, aveva esclamato: “possibile che qui nessuno abbia un cacciavite?” Procuratosi il cacciavite, aveva aperto il computer e rapidamente risolto il problema. Programmava usualmente in C, ma, sapendo come le istruzioni sarebbero state tradotte dal compilatore in linguaggio macchina, quando la traduzione a suo parere non sarebbe stata ottimale, passava a programmare in linguaggio macchina. Per ottimizzare i tempi di calcolo teneva conto della posizione fisica dei vari registri di memoria e programmava in modo da minimizzare il percorso seguito dalle informazioni nel passare da un registro all’altro: una funzione che all’epoca non era svolta dal compilatore.

Stefano mi chiese la tesi e io gli proposi di farla sulle impronte digitali; quando gli spiegai la natura del problema, accettò con entusiasmo. La prima volta che implementò l’algoritmo che gli avevo suggerito (al quale aveva apportato anche qualche miglioramento) il computer lavorò su un’impronta per una decina di ore, ma dopo un paio di settimane di lavoro era riuscito ad abbassare il tempo a quattro-cinque minuti.

Sentendomi ormai in dirittura d’arrivo, spiegai il lavoro fatto a Elio, che ne informò il capo della polizia scientifica, e ne informai Enrico Garaci, allora rettore di Tor Vergata. Il 26 ottobre 1990 il Ministro dell’Interno firmò il decreto con cui ero nominato membro della commissione istituita per la digitalizzazione delle impronte digitali. Mi sembrò che tutto andasse per il meglio: per la prima volta avrei fatto qualcosa anche concretamente utile. Ero contento anche sul piano scientifico: usare metodi rigorosi di meccanica statistica per modellizzare la distribuzione non di valori numerici di grandezze fisiche, ma forme di natura biologica, quale la disposizione delle creste papillari, era un risultato inusuale, che andava nella direzione da me prediletta di varcare i consueti confini disciplinari.

La commissione per la digitalizzazione del riconoscimento delle impronte digitali si riunì per la prima volta il 25 marzo 1991. Ebbi allora l’occasione di conoscere il capo della criminalpol dell’epoca, Luigi Rossi, e di discutere a lungo con il capo della polizia scientifica, Anna Maria Miglio, nota soprattutto per essere stata la prima donna italiana nominata questore. La commissione era formata da dieci funzionari di polizia e quattro studiosi esterni: due designati dal CNR, uno dall’ENEA e uno (io) dal rettore di Tor Vergata. Uno dei due esperti del CNR, il professor G, che dirigeva l’Istituto di acustica del CNR, era un consulente fisso della polizia e mi resi conto che era decisamente il più ascoltato.

A noi esterni, come ospiti di riguardo, fu mostrato un filmato che illustrava l’attività della polizia scientifica. La principale attività di ricerca illustrata nel film, ed esibita con evidente orgoglio, era diretta da G e verteva sul riconoscimento vocale. Consisteva in questo: la polizia italiana aveva acquisito in prova due sistemi di riconoscimento vocale, uno americano e l’altro giapponese, e stava compiendo da tempo “ricerche” per decidere quale dei due acquistare. (Anche il decreto che istituiva la nostra commissione, in effetti, ci attribuiva il compito di scegliere quale sistema acquistare, ma io speravo che una sua interpretazione elastica lasciasse la possibilità di proporre un sistema originale).

Ci fecero vedere il film in una sala intitolata a Giovanni Gasti, il funzionario della polizia italiana che nel primo Novecento aveva ideato il sistema di classificazione delle impronte digitali poi adottato dalle polizie di mezzo mondo. Avevo apprezzato l’acume e la cultura di Gasti anche leggendo (nel primo volume della monumentale opera di Renzo De Felice: “Mussolini il rivoluzionario”) la sua relazione sul giovane Benito Mussolini. Evidentemente da quell’epoca la polizia italiana aveva fatto molta strada e tutta in discesa.

Il lavoro che avevo iniziato con Stefano non poteva certo dirsi terminato. Occorreva innanzitutto ottimizzare il valore di alcuni parametri sulla base dell’esame di moltissime impronte (fino a quel momento avevamo lavorato solo su una ventina di impronte, mentre avremmo dovuto usarne almeno un campione statisticamente significativo per ogni tipo della classificazione); bisognava poi diminuire ulteriormente i tempi di calcolo; inoltre, per arrivare a un prodotto utilizzabile, occorreva creare l’interfaccia per l’utente. Ingenuamente avevo pensato che parte di questo lavoro potesse essere fatto dalla polizia scientifica e chiesi perciò se disponevano di qualche esperto programmatore. Mi indicarono un giovane poliziotto che era unanimemente ritenuto il più esperto: era un ragazzo che in polizia stava assolvendo gli obblighi di leva, aveva imparato un po’ di programmazione da civile e si sarebbe congedato dopo poco. Capii che non mi potevo aspettare alcun aiuto da quel settore della polizia  che di “scientifico” aveva solo il nome: avremmo dovuto completare il lavoro io e Stefano.

In autunno, alla ripresa della vita lavorativa, mi sentivo molto più libero e grintoso. Ero deciso e pronto a superare qualsiasi ostacolo. Quando ricominciarono le riunioni della commissione sulla digitalizzazione delle ricerche dattiloscopiche, G mi fece una proposta: se gli avessi spiegato il mio sistema per identificare le impronte digitali in modo che lui avesse potuto appropriarsene, in cambio mi avrebbe fatto entrare nel suo progetto, largamente finanziato, sul riconoscimento vocale. Gli risposi invitandolo a tenere un seminario a Tor Vergata sulle sue ricerche, ma rifiutò dicendomi con assoluto candore che si era occupato del riconoscimento vocale sempre superficialmente e non aveva proprio nulla da dire sull’argomento. I miei rapporti con il direttore dell’Istituto CNR di acustica (che qualche decennio dopo sarebbe stato opportunamente soppresso) finirono lì.

Cercai di illustrare ai funzionari di polizia della commissione il metodo per riconoscere le impronte digitali che stavamo realizzando, ma mi fecero capire chiaramente di non essere affatto interessati all’argomento: non volevano idee, ma un’azienda che fornisse, chiavi in mano, un insieme di computer sui quali fosse montato un sistema di riconoscimento con un’opportuna interfaccia e che ne assicurasse anche la manutenzione. (Immaginai che fossero anche interessati ad acquistare il sistema da un’azienda che versasse la consueta tangente, ma non avevo alcuna prova di questa mia interpretazione maliziosa). Il ministero dell’Interno avrebbe indetto a questo scopo una gara d’appalto.

In quei giorni, preceduto da una telefonata, venne a trovarmi a casa un funzionario della NEC, la multinazionale giapponese che deteneva uno dei due sistemi leader di riconoscimento delle impronte. Mi chiese di cosa avessi bisogno per le mie ricerche: la NEC mi avrebbe fornito tutti i mezzi necessari. Era un esplicito tentativo di corruzione, motivato dalla mia presenza nella commissione nominata dal ministro. Lo congedai ringraziandolo e assicurandolo di non avere bisogno di nulla. Confesso che ebbi un po’ di paura: le somme in palio potevano suggerire anche altri sistemi per neutralizzarmi, meno innocui di un tentativo di corruzione.

Cosa potevo fare? Seppi che erano ammesse alla gara d’appalto solo le aziende con due requisiti; il NOS (Nulla Osta Sicurezza, rilasciato a sua discrezione dal Ministero dall’Interno) e un fatturato superiore a una cifra molto elevata che non ricordo. In pratica, tra le aziende italiane, avrebbero potuto partecipare solo l’Olivetti e la Fiat. Poiché avevo sempre avuto una grande ammirazione per Adriano Olivetti e ingenuamente credevo che qualcosa del suo spirito fosse rimasto nell’azienda che portava il suo nome e, d’altra parte, la Fiat mi sembrava attiva in settori diversi e lontani, pensai di dover interagire con l’Olivetti. Scrissi allora una lettera a Carlo De Benedetti, che ne era l’amministratore delegato, parlandogli dell’imminente appalto e del mio sistema, che avrei ceduto volentieri all’Olivetti per realizzare un sistema italiano superiore a quelli concorrenti; accennai anche a possibili usi civili del sistema, ad esempio per il riconoscimento degli utenti del bancomat.

Come prima reazione alla lettera ricevetti la telefonata di un funzionario romano dell’Olivetti che mi invitò a pranzo e mi sottopose a un lungo interrogatorio su argomenti totalmente irrilevanti. Ad esempio, poiché nella lettera a De Benedetti, in tono palesemente scherzoso, avevo scritto di essere anche un minuscolo azionista Olivetti (ne possedevo le classiche simboliche mille azioni), mi chiese il numero esatto delle azioni Olivetti da me possedute. Quando gli dissi che il mio sistema, oltre che dalla polizia, avrebbe potuto essere utilizzato dalle banche nei bancomat, sostituendo il pin con il riconoscimento dell’impronta, mi disse: “questo non mi interessa, perché non ne ho mai sentito parlare”. L’Olivetti respingeva evidentemente a priori ogni novità. Ne aveva fatta di strada (anche lei in discesa) dai tempi di Adriano e di Perotto!

Qualche tempo dopo vi fu un contatto più serio: un tecnico venne a Tor Vergata da Ivrea per esaminare il nostro lavoro. Era un brillante giovane ex normalista. Io e Stefano gli illustrammo il sistema, mostrandogli come lavorava su un’impronta. Il giovane ne fu colpito e ci assicurò che avrebbe fatto una relazione molto positiva. Sembrava che le cose si mettessero finalmente bene. Seguirono però una serie di telefonate piuttosto sconfortanti con una tecnica dell’Olivetti la cui unica preoccupazione era il porting del nostro sistema sui computer Olivetti. Aveva evidentemente affrontato altre volte il problema, per lei molto arduo, di trasferire sui computer Olivetti software sviluppato altrove e non riusciva a rendersi conto che in questo caso il problema fosse diverso: si trattava di implementare su computer Olivetti, prima che in qualsiasi altro ambiente, un software da costruire sulla base dei nostri algoritmi. Evidentemente, come era stato chiaro anche dalla conversazione con il funzionario romano, l’Olivetti si era completamente disabituata alle novità e non produceva né hardware né software originale; cercava al più di adattare alle sue macchine, ottenute importando i componenti essenziali e costruendo i contenitori, il software in commercio e vendeva il prodotto finale soprattutto a ministeri e aziende pubbliche, con sistemi facilmente intuibili.

Nonostante tutto, pensavo ancora che le difficoltà sorte nei miei rapporti con l’Olivetti fossero superabili, finché non feci una richiesta che fu giudicata inaccettabile. Avevo chiesto se, per mettere a punto il sistema, potevano metterci a disposizione un programmatore che, lavorando sotto la mia direzione, provvedesse a ottimizzare i parametri e creare un’interfaccia gradevole. Non mi sembrava infatti giusto utilizzare l’Università (Stefano nel frattempo si era laureato e aveva vinto una borsa di dottorato) per un lavoro di routine di interesse commerciale e non scientifico. Mi risposero che non potevano permettersi un investimento così ingente. Decisi che i miei rapporti con l’Olivetti erano finiti. Mesi dopo mi ricontattarono annunciandomi in tono trionfalistico che avevano trovato il modo di ottenere fondi europei per finanziare la mia ricerca. Come nel caso della Siemens, anche l’interesse della Olivetti si risvegliava quando vedevano l’opportunità di intercettare danaro pubblico (nazionale o europeo che fosse) destinato alla ricerca. Ebbi un moto di disgusto e risposi con durezza che non vi era nulla da finanziare perché la mia ricerca sulle impronte digitali l’avevo già conclusa con successo.

Era il 1991. Qualche mese prima avevo partecipato al convegno internazionale Probabilistic Methods in Mathematical Physics a Certosa di Pontignano, presso Siena, dove avevo spiegato il mio modello per la distribuzione di probabilità delle impronte digitali. Al convegno partecipava anche Michael Aizenman, col quale avevo collaborato a Princeton, che si offrì di mettermi in contatto con l’FBI; io respinsi l’offerta spiegandogli che mi ero già impegnato con la polizia italiana. Non pubblicai il mio intervento negli atti del convegno per rispettare la riservatezza chiestami dalla polizia. Avrei rispettato la riservatezza anche in seguito, non pubblicando mai nulla sull’argomento.

Feci un bilancio degli anni di lavoro spesi cercando di fare qualcosa di utile in vari settori della matematica applicata. Cosa avevo ottenuto? Nulla nei casi del traffico ferroviario e degli elettrocardiogrammi. Nel settore del riconoscimento delle immagini avevo invece avuto ottimi risultati per le impronte digitali e risultati incoraggianti nel caso dell’aerofotogrammetria; inoltre sull’argomento del riconoscimento e della riproduzione dei suoni credevo di avere individuato una direzione di ricerca promettente. In entrambi i casi si trattava di applicazioni potenzialmente di grande valore economico. Cosa non aveva funzionato? Mi ero scontrato da una parte con il disinteresse dei colleghi per quel tipo di problemi e dall’altra con l’atteggiamento delle aziende italiane che nella ricerca vedevano solo un metodo per impadronirsi di fondi pubblici e (con una buona dose di ragione) non avevano alcuna fiducia nella capacità del mondo accademico di produrre risultati concretamente utili.

Non volendo arrendermi, concepii un progetto ambizioso e forse donchisciottesco per spezzare quello che mi sembrava un circolo vizioso nei rapporti tra mondo accademico e realtà produttiva del paese. Pensai di fondare una società con l’obiettivo di risolvere problemi di matematica applicata economicamente interessanti e di vendere i risultati ad aziende. Una parte consistente del ricavato sarebbe stato utilizzata per finanziare una scuola post-laurea nel campo della matematica applicata, che avrebbe potuto formare anche giovani da inserire nella stessa società. Avremmo cominciato lavorando nei campi del riconoscimento di immagini e suoni. Mi sembrava che la possibilità di creare un circolo virtuoso che si autoalimentasse attirando risorse e ricercatori (e stimolando la nascita di altre iniziative analoghe) sarebbe stata concreta se si fosse riusciti a innescarlo e l’innesco avrebbe potuto consistere nella vincita della gara d’appalto indetta dal Ministero dell’Interno per la digitalizzazione delle impronte digitali. Come primi soci pensai ovviamente a me e a Stefano, ai quali aggiunsi G.M: un bravissimo giovane matematico che, essendo anche musicista, avrebbe potuto essere particolarmente utile nell’ambito della ricerca sul riconoscimento dei suoni. Mi sembrava che, per iniziare, sul piano scientifico potessimo essere sufficienti noi tre. Nessuno di noi aveva però alcuna esperienza né capacità nel settore economico e aziendale. Occorreva assolutamente un quarto socio capace di gestire i rapporti con le aziende. Chi poteva essere? Avrebbe dovuto avere due qualità non facili da accoppiare: essere molto abile e allo stesso tempo così leale verso di noi da essere certi che non avrebbe usato la sua abilità a nostro danno. Dove potevamo trovare una persona simile, noi che eravamo così lontani dal mondo imprenditoriale?

Mi ricordai del mio compagno di scuola che organizzava la confezione e la vendita dei panini durante le gite scolastiche: Edoardo Palumbo. Sapevo che dopo il liceo non aveva frequentato l’università, ma aveva iniziato subito a lavorare in banca; aveva fatto carriera in diversi istituti bancari e poi si era messo in proprio, fondando una redditizia società di consulenza aziendale. Sapevo di potermi fidare di lui, lo contattai e accettò con piacere di divenire mio socio.

Edoardo mi raccontò un episodio risalente al suo lavoro per la Citibank Italia, una tra le prime banche in Italia che aveva automatizzato la procedura per la concessione di crediti al consumo. Mentre le altre banche affidavano ancora alla discrezionalità di un funzionario le decisioni sulla concessione di piccoli crediti a un cliente, la Citibank aveva introdotto l’uso di un software dedicato allo scopo. L’impiegato della banca si limitava a chiedere al cliente una serie di documenti: contratti di proprietà o di affitto dell’immobile di residenza, buste paga, bollette pagate per le varie utenze e così via. I dati contenuti nei documenti erano immessi nel computer e, sulla loro base, un opportuno programma valutava l’affidabilità del cliente. Pochi mesi dopo che era stato adottato questo sistema, i dirigenti della Citibank si erano accorti che vi era una città che primeggiava di gran lunga per il numero di clienti affidabili, nella quale erano stati erogati molti più crediti che in qualsiasi altra: Napoli. Ne parlarono con soddisfazione a Edoardo, che, da buon napoletano, sentì subito puzza di bruciato e pochi giorni dopo scoprì che in alcuni bassi di Forcella, con modica spesa, si poteva acquistare “o’ dossiè p’a sitibenc”, completo di tutti i documenti richiesti, naturalmente falsi. I documenti erano preparati in modo che il cliente raggiungesse un punteggio sufficiente per ottenere il credito, ma non così alto da generare sospetti.

Costituimmo la società, che chiamai Màthema, e ne scrivemmo lo statuto, che prevedeva che il 50% degli introiti dovesse essere accantonato in un fondo destinato a finanziare l’istituenda scuola. Ne disegnai anche il logo, costituito dal nome greco della società, μάθημα, con le lettere modificate in modo da ottenere il disegno di una chiocciola (ad esempio la prima μ formava le antenne dell’animale e una grossa θ forniva la conchiglia) che avrebbe simboleggiato il nostro procedere sicuro e tranquillo, senza alcuna fretta: ne ero molto soddisfatto.

In pochi mesi Edoardo assolse egregiamente il compito che gli avevo affidato. Contattò innanzitutto una software house romana che aveva già lavorato per la polizia ed era in possesso del Nulla Osta Sicurezza e stipulò un contratto tra questa azienda e Màthema, che prevedeva che la software house avrebbe realizzato un sistema di riconoscimento delle impronte digitali basato sul nostro algoritmo, del quale avrebbe curato l’interfaccia con l’utente, dividendo al 50% con Màthema gli eventuali proventi. Contattò poi un alto dirigente della Fiat e lo convinse a firmare un contratto tra la Fiat e la software house che prevedeva la loro partecipazione congiunta alla gara d’appalto. Il contratto precisava che la Fiat, che non assumeva alcun impegno, avrebbe intascato il 50% del prezzo pagato dallo stato; fu chiarito oralmente che il ruolo della Fiat sarebbe consistito nell’assicurare la vittoria nella gara. A Màthema sarebbe giunto solo il 25% della somma, ma si trattava di una somma (intorno a una decina di miliardi di lire) che ritenevo sufficiente a innescare il circolo virtuoso che avevo in mente. Mi sembrava di essere riuscito a quadrare il cerchio. Il nostro sistema sarebbe stato adottato dalla polizia italiana con il marchio della Fiat, che, grazie a Edoardo, avevamo raggiunto in due passi. Il contratto con la Fiat nella sostanza non era in realtà del tutto onesto ma mi dissi (forse un po’ ipocritamente) che potevo accettarlo perché non mi riguardava: in fondo si trattava di un accordo tra due società estranee a Màthema.

Mi concentrai sui possibili sviluppi futuri. Cominciai a pensare, oltre al riconoscimento dei suoni, alle immagini di interesse diagnostico: un altro campo che mi sembrava affrontabile e promettente.

Nel 1992 aspettavamo fiduciosi l’esito della gara quando scoppiò tangentopoli. Tutte le gare d’appalto indette dallo Stato, compresa quella che ci interessava, furono ritirate e il dirigente della Fiat che aveva firmato il contratto finì in galera (per motivi senza relazione con il contratto che ci riguardava).

Sul momento pensai che forse non dovevamo disperare: poteva trattarsi solo di una battuta d’arresto; d’altra parte l’operazione “Mani pulite” mi aveva ridato un po’ di fiducia nella magistratura e speravo molto che il suo intervento potesse arginare il dilagare della corruzione. Fu però Stefano a far precipitare la situazione.

Stefano Scorpioni, come ho già detto, era eccezionalmente bravo. Aveva però problemi psicologici non irrilevanti. Credo che in parte provenissero dal suo trascorrere quasi tutta la giornata in simbiosi con il computer. Voleva avere il controllo assoluto su ciò che faceva e si fidava solo di sé stesso. Non gli bastava programmare in linguaggio macchina, perché avrebbe dovuto fidarsi del sistema operativo del computer. Aveva perciò cominciato a costruire dal nulla e da solo un sistema operativo di sua ideazione. Ma non gli bastava; un giorno mi disse che non poteva fidarsi neppure dell’hardware: voleva perciò costruire un computer di sua progettazione, usando solo materie prime grezze. Quel giorno temetti seriamente per la sua salute mentale.

Quando seppe che non sarebbero arrivati i soldi dell’appalto, Stefano venne da me in preda all’agitazione e mi disse che avrei dovuto versare a Màthema almeno duecento milioni; sarebbe così stato possibile acquistare una serie di apparecchi che giudicava indispensabili per continuare le ricerche. Io non possedevo duecento milioni e quando glielo dissi Stefano reagì molto male. Il giorno dopo scrisse una lettera al direttore del dottorato, comunicandogli che si ritirava perché il professor Russo si era dimostrato incapace di seguire le sue ricerche. Anche l’atteggiamento di Francesca nei miei confronti passò istantaneamente dall’amicizia all’odio.

Poco dopo Màthema fu sciolta. La polizia finì poi per acquistare a caro prezzo il sistema giapponese. Avevo perduto su tutta la linea, ma la tragedia non si era ancora conclusa. Continuavo a stimare Stefano e speravo che un giorno, se avesse superato i suoi problemi, ci saremmo potuti ritrovare. Nel 1997 mi arrivò invece la notizia che Stefano, mentre lavorava, era improvvisamente morto. Si disse che il decesso fosse attribuibile a un difetto congenito al cuore, ma, come fu poi confermato anche da una sentenza, tra le concause vi era stato il superlavoro che si era imposto da anni.

Ho pensato spesso al fallimento dell’esperienza di Màthema, chiedendomi se fosse da attribuire solo all’imprevedibile scoppio di tangentopoli. Forse vi era un’altra causa di debolezza nel mio progetto: ne avevo considerato attentamente gli aspetti scientifici ed economici, ma avevo sottovalutato quelli psicologici: probabilmente anche se avessimo vinto la gara d’appalto non sarebbe stato facile mantenere l’unità dei soci.

In ogni caso considerai conclusa la mia lunga scorribanda nella matematica applicata, dalla quale avevo imparato molto e che avrebbe contribuito a motivare il mio lavoro sulla storia della scienza in Italia. Nel frattempo avevo però sviluppato un altro forte interesse: la storia della scienza antica.