di Guido Vetere
Tra informatica e linguaggio c'è un rapporto molto intimo. Ma non è un rapporto facile, anzi per certi versi è conflittuale come quei legami di amore-odio che uniscono talvolta genitori e figli. L'informatica nasce dal linguaggio, o meglio da quella sua idealizzazione che è la logica. C'è infatti un filo che lega l'idea aristotelica della coincidenza di realtà, pensiero e linguaggio allo sviluppo della moderna tecnologia dell'informazione. In questo filo si intrecciano idee come l'alchimia di Raimondo Lullo che nel Trecento voleva convertire musulmani ed ebrei combinando certi simboli, il calculus ratiocinator di Gottfried Leibnitz che nel Seicento cercava le regole per dire tutte le verità, assieme a progetti più realistici come l'Analytical Engine di Charles Babbage che, sebbene rimasto sulla carta, consentì ad Ada Lovelace, nell'Ottocento, di concepire i primi programmi per computer, fino alla “Macchina di Turing”, dove, nel Novecento, prese corpo la logica del moderno calcolatore. L'informatica si può vedere come il frutto dello sforzo millenario per riportare la complessità del reale nel dominio di un linguaggio formale e computabile, al seguito di un'idea razionalista che, per quanto non abbia mai tenuto tutto il campo della filosofia, ha tuttavia prodotto i risultati tangibili che abbiamo oggi sotto gli occhi. Nel corso di questa lunghissima vicenda filosofica e scientifica, il linguaggio algebrico della logica e quello capriccioso e vago che parliamo tutti i giorni sono stati talvolta assimilati, talvolta contrapposti, ma sono rimasti uniti nella stessa ricerca.
Se è vero che i padri della moderna logica matematica non incoraggiarono l'applicazione delle loro algebre al linguaggio naturale, è però un fatto che molta linguistica novecentesca si sia sviluppata all'insegna dei formalismi logici, gli stessi che fanno oggi funzionare le macchine di calcolo. Questa consanguineità si vede bene nelle prime ricerche di Intelligenza Artificiale, nelle parole di quella psicanalista di nome Eliza programmata da Joseph Weizenbaum negli anni Sessanta, progenitrice delle chatterbot che oggi ci accolgono, gentilissime ma un po' svampite, in certi portali. L'intelligenza dei primi calcolatori si misurava con il linguaggio naturale, secondo il noto principio di Turing secondo cui una macchina intelligente non si sarebbe dovuta distinguere, nei comportamenti, dagli esseri umani. D'altra parte, per la linguistica dominante a quei tempi (leggete Noam Chomsky) il linguaggio era generato da regole scritte fin dalla nascita in quel calcolatore biologico che è il cervello, e se da una parte la sintassi chomskiana si è rivelata poco utile ai linguisti, dall'altra essa è alla base della moderna programmazione dei computer.
Nonostante questa stretta parentela, per l'informatica di oggi il linguaggio naturale è ancora un personaggio sfuggente e pieno di misteri. La competizione sui motori di ricerca, che è uno dei temi più caldi dell'Information Technology, riguarda essenzialmente il tentativo di colmare la distanza tra le parole viste dal computer come semplici sequenze di caratteri alfabetici e le stesse viste dall'uomo come portatrici di significato. Sulla soglia del significato, però, la logica vacilla, il calcolo si inceppa, la macchina cigola e si arresta. La logica è di per sé ignara di cosa concretamente le sue formule significhino, può solo dire, a certe condizioni, se esse siano vere o no. Non esiste un algoritmo per determinare che “la stella del mattino” è uguale alla “stella della sera” ed altro non è che il pianeta Venere: lasciato a sé stesso, l'automa non vede alcuna identità. Nelle macchine ci vuole conoscenza estesa, ci vogliono esperienze umane, sempre da espandere e rinnovare.
Colmare la distanza tra le parole intese dai computer e le cose, i fatti e le idee di tutti i giorni fa oggi parte del lavoro degli analisti di dati e dei disegnatori di sistemi, dei creatori, ricercatori, aggregatori e trasformatori di contenuti, di tutti coloro insomma che vivono di informazione e muovono l'economia post-industriale. Qualsiasi tecnologia, infrastruttura, protocollo o convenzione capace di aiutare concretamente persone, organizzazioni, governi, aziende, nel duro lavoro quotidiano di dar senso a quello che c'è nella rete delle macchine ha dunque un inestimabile valore.
Questo spiega il richiamo del semantic web che, ormai più di dieci anni fa, Tim Berners-Lee ha profetizzato, sul quale ancora febbrilmente si ricerca. Non si tratta però di una ricerca interamente fondabile nella scienza e ben trasferibile nella tecnologia. Come sia fatto il ponte tra simboli ed esperienze nessuno l'ha mai detto di preciso, ed anzi per qualcuno, come il linguista Leonard Bloomfield, la teoria di questa struttura non si può neppure concepire. Così, il semantic web potrebbe alla fine assomigliare ad un ponte tibetano fatto di tante assi e corde, ognuna portata da qualche umile sherpa, teso per un chiaro scopo ma privo di un chiaro progetto, e da attraversare sempre col fiato sospeso. In questo caso, l'attenzione andrebbe posta sulla qualità dei materiali, su come far stare insieme pezzi di diverse provenienze, rinunciando a qualsiasi velleità di “calcolo strutturale”. Ed è questa, sembrerebbe, la strada intrapresa già da tempo con le folksonomies, semplici sistemi di etichettatura, con i microformats, piccoli record senza pretese da codificare nelle pagine html, o dei linked data, poco più che una buona pratica per esporre strutture di dati nel web. Ciò che accomuna questi approcci è il fatto che, se portano qualche beneficio semantico, questo si deve esclusivamente all'uso concreto che ne viene fatto.
In questa “debolezza”, l'informatica di oggi somiglia in effetti a suo padre, il linguaggio naturale, dove, diceva Ferdinand de Saussure, quando vige una regola, questo fatto si deve solo al consenso sociale. Ma la computazione sta diventando così essenziale e pervasiva che potrebbe in futuro richiedere al senso la forza che il linguaggio non gli dà. La figlia informatica potrebbe rubare al padre linguaggio le chiavi della macchina semantica. L'innocuo formato di codifica che oggi usiamo per comodità può domani diventare l'unico modo per cogliere l'essenza di un fatto o di una relazione, a beneficio del ragionamento automatico e ubiquo delle macchine, ma a scapito della finezza e della creatività linguistica. Prendiamo ad esempio le reti sociali: per darci il loro servizio, esse ci chiedono in cambio di accettare certi stereotipi, cosa che siamo quasi sempre disposti a fare. E d'altra parte, come potrebbero le macchine inseguire all'infinito il linguaggio sul terreno della libertà? Che altro potrebbero fare se non chiederci di fare un passo verso la loro logica?
Se nelle nostre relazioni con gli automi e attraverso gli automi si dovrà sviluppare con un linguaggio di “sensi standard”, allora vale la pena impegnarsi perché il processo di standardizzazione semantica sia trasparente e aperto, e garantisca risultati buona qualità. In questa prospettiva si deve vedere l'interesse dell'informatica per l'ontologia, cioè per la teoria di quello che c'è nel mondo, e l'interesse per capire se nel mondo si possano intravedere contorni che abbiano col linguaggio un rapporto definito e stabile, sia pure nella dimensione della socialità. Questa ricerca non è né facile né nuova, ma è oggi necessaria per aiutare le macchine a servirci meglio.
Se è vero che i padri della moderna logica matematica non incoraggiarono l'applicazione delle loro algebre al linguaggio naturale, è però un fatto che molta linguistica novecentesca si sia sviluppata all'insegna dei formalismi logici, gli stessi che fanno oggi funzionare le macchine di calcolo. Questa consanguineità si vede bene nelle prime ricerche di Intelligenza Artificiale, nelle parole di quella psicanalista di nome Eliza programmata da Joseph Weizenbaum negli anni Sessanta, progenitrice delle chatterbot che oggi ci accolgono, gentilissime ma un po' svampite, in certi portali. L'intelligenza dei primi calcolatori si misurava con il linguaggio naturale, secondo il noto principio di Turing secondo cui una macchina intelligente non si sarebbe dovuta distinguere, nei comportamenti, dagli esseri umani. D'altra parte, per la linguistica dominante a quei tempi (leggete Noam Chomsky) il linguaggio era generato da regole scritte fin dalla nascita in quel calcolatore biologico che è il cervello, e se da una parte la sintassi chomskiana si è rivelata poco utile ai linguisti, dall'altra essa è alla base della moderna programmazione dei computer.
Nonostante questa stretta parentela, per l'informatica di oggi il linguaggio naturale è ancora un personaggio sfuggente e pieno di misteri. La competizione sui motori di ricerca, che è uno dei temi più caldi dell'Information Technology, riguarda essenzialmente il tentativo di colmare la distanza tra le parole viste dal computer come semplici sequenze di caratteri alfabetici e le stesse viste dall'uomo come portatrici di significato. Sulla soglia del significato, però, la logica vacilla, il calcolo si inceppa, la macchina cigola e si arresta. La logica è di per sé ignara di cosa concretamente le sue formule significhino, può solo dire, a certe condizioni, se esse siano vere o no. Non esiste un algoritmo per determinare che “la stella del mattino” è uguale alla “stella della sera” ed altro non è che il pianeta Venere: lasciato a sé stesso, l'automa non vede alcuna identità. Nelle macchine ci vuole conoscenza estesa, ci vogliono esperienze umane, sempre da espandere e rinnovare.
Colmare la distanza tra le parole intese dai computer e le cose, i fatti e le idee di tutti i giorni fa oggi parte del lavoro degli analisti di dati e dei disegnatori di sistemi, dei creatori, ricercatori, aggregatori e trasformatori di contenuti, di tutti coloro insomma che vivono di informazione e muovono l'economia post-industriale. Qualsiasi tecnologia, infrastruttura, protocollo o convenzione capace di aiutare concretamente persone, organizzazioni, governi, aziende, nel duro lavoro quotidiano di dar senso a quello che c'è nella rete delle macchine ha dunque un inestimabile valore.
Questo spiega il richiamo del semantic web che, ormai più di dieci anni fa, Tim Berners-Lee ha profetizzato, sul quale ancora febbrilmente si ricerca. Non si tratta però di una ricerca interamente fondabile nella scienza e ben trasferibile nella tecnologia. Come sia fatto il ponte tra simboli ed esperienze nessuno l'ha mai detto di preciso, ed anzi per qualcuno, come il linguista Leonard Bloomfield, la teoria di questa struttura non si può neppure concepire. Così, il semantic web potrebbe alla fine assomigliare ad un ponte tibetano fatto di tante assi e corde, ognuna portata da qualche umile sherpa, teso per un chiaro scopo ma privo di un chiaro progetto, e da attraversare sempre col fiato sospeso. In questo caso, l'attenzione andrebbe posta sulla qualità dei materiali, su come far stare insieme pezzi di diverse provenienze, rinunciando a qualsiasi velleità di “calcolo strutturale”. Ed è questa, sembrerebbe, la strada intrapresa già da tempo con le folksonomies, semplici sistemi di etichettatura, con i microformats, piccoli record senza pretese da codificare nelle pagine html, o dei linked data, poco più che una buona pratica per esporre strutture di dati nel web. Ciò che accomuna questi approcci è il fatto che, se portano qualche beneficio semantico, questo si deve esclusivamente all'uso concreto che ne viene fatto.
In questa “debolezza”, l'informatica di oggi somiglia in effetti a suo padre, il linguaggio naturale, dove, diceva Ferdinand de Saussure, quando vige una regola, questo fatto si deve solo al consenso sociale. Ma la computazione sta diventando così essenziale e pervasiva che potrebbe in futuro richiedere al senso la forza che il linguaggio non gli dà. La figlia informatica potrebbe rubare al padre linguaggio le chiavi della macchina semantica. L'innocuo formato di codifica che oggi usiamo per comodità può domani diventare l'unico modo per cogliere l'essenza di un fatto o di una relazione, a beneficio del ragionamento automatico e ubiquo delle macchine, ma a scapito della finezza e della creatività linguistica. Prendiamo ad esempio le reti sociali: per darci il loro servizio, esse ci chiedono in cambio di accettare certi stereotipi, cosa che siamo quasi sempre disposti a fare. E d'altra parte, come potrebbero le macchine inseguire all'infinito il linguaggio sul terreno della libertà? Che altro potrebbero fare se non chiederci di fare un passo verso la loro logica?
Se nelle nostre relazioni con gli automi e attraverso gli automi si dovrà sviluppare con un linguaggio di “sensi standard”, allora vale la pena impegnarsi perché il processo di standardizzazione semantica sia trasparente e aperto, e garantisca risultati buona qualità. In questa prospettiva si deve vedere l'interesse dell'informatica per l'ontologia, cioè per la teoria di quello che c'è nel mondo, e l'interesse per capire se nel mondo si possano intravedere contorni che abbiano col linguaggio un rapporto definito e stabile, sia pure nella dimensione della socialità. Questa ricerca non è né facile né nuova, ma è oggi necessaria per aiutare le macchine a servirci meglio.
«Il Sole 24 Ore - Suppl. Nova» del 1 ottobre 2009
Nessun commento:
Posta un commento