Tecnologia
di Guido Vetere
Viaggio nei modelli matematici che definiscono i linguaggi
Per parafrasare quello che Sant’Agostino disse a proposito del tempo, tutti sappiamo cos’è il significato (ad esempio di una parola o di un segnale) fino al momento in cui qualcuno ce lo chiede. Possiamo dire che si tratta di qualcosa che lega un’espressione ad un contenuto, ma qual è la natura e l’origine di questa forza? Su questo vengono proposte, abbandonate e poi riproposte, da secoli, le più diverse ipotesi. Ma così come i dubbi sulla natura del tempo non ci impediscono di prendere un appuntamento, quelli sulla natura del significato non ci impediscono di comunicare e di costruire compessi sistemi simbolici, o anche di sviluppare tecnologie semantiche, cioè metodi informatici per lavorare con i segni. Sia ben chiaro: così come un orologio non può intuire quali emozioni suscitarono nel giovane Montale quel famoso “meriggiare pallido e assorto”, allo stesso modo le tecnologie semantiche, qualsiasi cosa esse siano, non possono scrutare nell’intimo dell’umana produzione di senso, che è un processo in cui opera la libertà, qualsiasi cosa essa sia.
Detto questo, non v’è dubbio che l’informatica di oggi sia febbrilmente interessata ai segni e, in qualche misura, alle loro scienze. Tale interesse si muove su due direttrici principali: l’uso integrato e potente dell’incalcolabile messe di dati che si riversa quotidianamente nei sistemi informativi, nelle reti sociali e in genere nel web (ad esempio nei Linked Open Data ), e la possibilità di lavorare di più e meglio col linguaggio naturale, rispondendo a domande linguisticamente articolate sulla base di un’esplorazione sistematica del contenuto dei testi, oppure intrattenendo dialoghi artificiali di qualche senso e utilità (ad esempio Siri ).
Sebbene abbia ricevuto in eredità dalla logica e dalla linguistica del Novecento una certa formalistica indifferenza rispetto al contenuto dei segni, l’informatica di questo nuovo secolo, lavorando alla soluzione di problemi pratici, ha maturato la consapevolezza che del significato, del suo concreto e specifico trattamento, non si può fare a meno. Ad esempio: per ragionare (automaticamente) sul fatto che un pasto economico ci può essere offerto da una pizzeria, bisognerà specificare, da qualche parte e in qualche modo, che la pizza è un cibo e che il suo costo si colloca in media entro certi limiti. Ora, posto che la logica ci dice (fin dai tempi antichi) come rappresentare formalmente, ad esempio, che ‘tutte le pizze sono cibo’ e ‘le pizze costano meno di x’ e ci insegna a dedurre da questo che ‘tra i cibi che costano meno di x vi sono le pizze’, la questione è: come stilare la “vertiginosa lista” di tutto quello che c’è da mangiare?
Si tratta di affrontare ciò che i logici hanno spesso liquidato come una lunga, tediosa ma alla fine banale attività di elencazione, da lasciare alle fatiche di una generica working class della conoscenza. Ma a guardar bene questa elencazione è tutto fuorché bassa manovalanza: si tratta invece (come i semiologi avvertono da sempre) di un compito non da poco, sia dal punto di vista metodologico, sia in generale dal punto di vista socio-tecnico.
Naturalmente, l’informatica non ambisce risolvere i problemi aperti della semiologia, né vuole scendere nell’agone filosofico delle teorie del significato, benché i suoi successi (o fallimenti) possano talvolta testimoniare a favore (o contro) questa o quella visione. L’informatica predilige obiettivi concreti e progressi misurabili. Ed è pragmatica: va bene tutto, basta che funzioni. Una delle chiavi dello storico successo di Watson , un sistema di question answering che è riuscito nel 2011 a battere i campioni umani di un gioco a quiz televisivo, è stata appunto la capacità di misurare, su basi statistiche e grandi volumi di dati, il contributo specifico di un gran numero di algoritmi analitici, ciascuno avente nozioni parziali (o anche nessuna nozione) degli aspetti di significato, selezionando quelli più efficaci.
Il pragmatismo informatico si sposa oggi con l’abbondanza di dati su cui operare analisi statistiche. Questo offre l’opportunità di applicare metodi di apprendimento automatico, il cui successo è già ampiamente dimostrato per l’analisi dei segnali acustici o delle immagini, anche per affrontare problemi semantici. La disponibilità di grandi corpora testuali grammaticalmente pre-elaborati riporta in auge la vecchia (e controversa) ipotesi distribuzionale: le parole che appaiono negli stessi contesti hanno qualche parentela semantica. Ipotesi alquanto ardita certamente, ma di sicuro appeal computazionale. La semantica distribuzionale consente infatti di affrontare alcuni compiti non banali, come quello di misurare in grado di similarità tra due frasi, senza alcun ricorso ad estenuanti e problematiche concettualizzazioni.
Calcolare la distribuzione delle parole non getta tuttavia luce sul versante concettuale del segno linguistico: l’evidenza statistica che ‘pizza’ e ‘birra’ siano distribuzionalmente affini non significa nulla senza qualche riferimento alla ristorazione. Di qui la necessità di fornire ai sistemi informatici, in qualche modo, un’ontologia, cioè una teoria di quello che c’è nel mondo, o per lo meno (ma abusando un po’ della terminologia) nei predicati del linguaggio. I search engine che vanno per la maggiore, Google, Bing e Yahoo ad esempio, offrono già oggi maggiore precisione e completezza, usando l’immagine (beneinteso assai parziale) del mondo offerta da uno schema ontologico.
Per cogliere nel segno, le tecnologie semantiche hanno dunque bisogno di modelli linguistico-concettuali di buona fattura. Il mondo anglofono può far conto su risorse Open Data di grande tradizione come WordNet o FrameNet . Nei paesi non anglofoni come il nostro la situazione è mediamente più arretrata, ed il rischio è che le risorse linguistico-concettuali angosassoni diventino, di fatto, quelle dell’intero Pianeta. Assieme al progresso delle tecnologie semantiche viene dunque un rischio per la diversità delle culture umane, e si leva lo spettro di una “globalizzazione del pensiero”. Anche in questo, o forse soprattutto in questo, si vede come la tecnologia abbia bisogno di governo.
* Guido Vetere è il Direttore del Centro Studi Avanzati IBM Italia dal 2005. Ha conseguito la laurea in filosofia del linguaggio all'Università di Roma 'Sapienza' nel 1998 con una tesi di linguistica computazionale sviluppata nell’ambito di un curriculum di studi interdisciplinare di linguistica e informatica. In IBM dal 1989, ha preso parte e guidato diversi progetti in Intelligenza Artificiale, Information and Knowledge Management, Tecnologie della Lingua, sia nell’ambito della ricerca, sia dello sviluppo per grandi imprese e pubblica amministrazione. Nel corso della sua attività professionale, è stato responsabile di progetti di ricerca applicata nazionali ed europei e ha diretto lo sviluppo di prodotti software IBM per il mercato internazionale. Ha guidato la progettazione e la realizzazione del registro semantico dei servizi di Cooperazione Applicativa della Pubblica Amministrazione, partecipando ai lavori delle agenzie governative sugli aspetti semantici dell’integrazione dei dati della PA. E’ stato coordinatore internazionale della rete dei Center for Advanced Studies IBM nel 2011. Partecipa regolarmente nei comitati di programma di conferenze internazionali nel settore delle tecnologie semantiche e nei comitati scientifici di programmi di ricerca europei. E' autore di numerose pubblicazioni scientifiche in conferenze e riviste internazionali e collabora col Sole 24 Ore per approfondimenti su temi tecnici e sociali. Guido Vetere è co-fondatore e vice presidente dell'Associazione 'Senso Comune', che riunisce alcuni tra i principali studiosi italiani di linguistica e informatica per la realizzazione di una base di conoscenza aperta delle lingua italiana, sotto la direzione del Prof. Tullio De Mauro.
Detto questo, non v’è dubbio che l’informatica di oggi sia febbrilmente interessata ai segni e, in qualche misura, alle loro scienze. Tale interesse si muove su due direttrici principali: l’uso integrato e potente dell’incalcolabile messe di dati che si riversa quotidianamente nei sistemi informativi, nelle reti sociali e in genere nel web (ad esempio nei Linked Open Data ), e la possibilità di lavorare di più e meglio col linguaggio naturale, rispondendo a domande linguisticamente articolate sulla base di un’esplorazione sistematica del contenuto dei testi, oppure intrattenendo dialoghi artificiali di qualche senso e utilità (ad esempio Siri ).
Sebbene abbia ricevuto in eredità dalla logica e dalla linguistica del Novecento una certa formalistica indifferenza rispetto al contenuto dei segni, l’informatica di questo nuovo secolo, lavorando alla soluzione di problemi pratici, ha maturato la consapevolezza che del significato, del suo concreto e specifico trattamento, non si può fare a meno. Ad esempio: per ragionare (automaticamente) sul fatto che un pasto economico ci può essere offerto da una pizzeria, bisognerà specificare, da qualche parte e in qualche modo, che la pizza è un cibo e che il suo costo si colloca in media entro certi limiti. Ora, posto che la logica ci dice (fin dai tempi antichi) come rappresentare formalmente, ad esempio, che ‘tutte le pizze sono cibo’ e ‘le pizze costano meno di x’ e ci insegna a dedurre da questo che ‘tra i cibi che costano meno di x vi sono le pizze’, la questione è: come stilare la “vertiginosa lista” di tutto quello che c’è da mangiare?
Si tratta di affrontare ciò che i logici hanno spesso liquidato come una lunga, tediosa ma alla fine banale attività di elencazione, da lasciare alle fatiche di una generica working class della conoscenza. Ma a guardar bene questa elencazione è tutto fuorché bassa manovalanza: si tratta invece (come i semiologi avvertono da sempre) di un compito non da poco, sia dal punto di vista metodologico, sia in generale dal punto di vista socio-tecnico.
Naturalmente, l’informatica non ambisce risolvere i problemi aperti della semiologia, né vuole scendere nell’agone filosofico delle teorie del significato, benché i suoi successi (o fallimenti) possano talvolta testimoniare a favore (o contro) questa o quella visione. L’informatica predilige obiettivi concreti e progressi misurabili. Ed è pragmatica: va bene tutto, basta che funzioni. Una delle chiavi dello storico successo di Watson , un sistema di question answering che è riuscito nel 2011 a battere i campioni umani di un gioco a quiz televisivo, è stata appunto la capacità di misurare, su basi statistiche e grandi volumi di dati, il contributo specifico di un gran numero di algoritmi analitici, ciascuno avente nozioni parziali (o anche nessuna nozione) degli aspetti di significato, selezionando quelli più efficaci.
Il pragmatismo informatico si sposa oggi con l’abbondanza di dati su cui operare analisi statistiche. Questo offre l’opportunità di applicare metodi di apprendimento automatico, il cui successo è già ampiamente dimostrato per l’analisi dei segnali acustici o delle immagini, anche per affrontare problemi semantici. La disponibilità di grandi corpora testuali grammaticalmente pre-elaborati riporta in auge la vecchia (e controversa) ipotesi distribuzionale: le parole che appaiono negli stessi contesti hanno qualche parentela semantica. Ipotesi alquanto ardita certamente, ma di sicuro appeal computazionale. La semantica distribuzionale consente infatti di affrontare alcuni compiti non banali, come quello di misurare in grado di similarità tra due frasi, senza alcun ricorso ad estenuanti e problematiche concettualizzazioni.
Calcolare la distribuzione delle parole non getta tuttavia luce sul versante concettuale del segno linguistico: l’evidenza statistica che ‘pizza’ e ‘birra’ siano distribuzionalmente affini non significa nulla senza qualche riferimento alla ristorazione. Di qui la necessità di fornire ai sistemi informatici, in qualche modo, un’ontologia, cioè una teoria di quello che c’è nel mondo, o per lo meno (ma abusando un po’ della terminologia) nei predicati del linguaggio. I search engine che vanno per la maggiore, Google, Bing e Yahoo ad esempio, offrono già oggi maggiore precisione e completezza, usando l’immagine (beneinteso assai parziale) del mondo offerta da uno schema ontologico.
Per cogliere nel segno, le tecnologie semantiche hanno dunque bisogno di modelli linguistico-concettuali di buona fattura. Il mondo anglofono può far conto su risorse Open Data di grande tradizione come WordNet o FrameNet . Nei paesi non anglofoni come il nostro la situazione è mediamente più arretrata, ed il rischio è che le risorse linguistico-concettuali angosassoni diventino, di fatto, quelle dell’intero Pianeta. Assieme al progresso delle tecnologie semantiche viene dunque un rischio per la diversità delle culture umane, e si leva lo spettro di una “globalizzazione del pensiero”. Anche in questo, o forse soprattutto in questo, si vede come la tecnologia abbia bisogno di governo.
* Guido Vetere è il Direttore del Centro Studi Avanzati IBM Italia dal 2005. Ha conseguito la laurea in filosofia del linguaggio all'Università di Roma 'Sapienza' nel 1998 con una tesi di linguistica computazionale sviluppata nell’ambito di un curriculum di studi interdisciplinare di linguistica e informatica. In IBM dal 1989, ha preso parte e guidato diversi progetti in Intelligenza Artificiale, Information and Knowledge Management, Tecnologie della Lingua, sia nell’ambito della ricerca, sia dello sviluppo per grandi imprese e pubblica amministrazione. Nel corso della sua attività professionale, è stato responsabile di progetti di ricerca applicata nazionali ed europei e ha diretto lo sviluppo di prodotti software IBM per il mercato internazionale. Ha guidato la progettazione e la realizzazione del registro semantico dei servizi di Cooperazione Applicativa della Pubblica Amministrazione, partecipando ai lavori delle agenzie governative sugli aspetti semantici dell’integrazione dei dati della PA. E’ stato coordinatore internazionale della rete dei Center for Advanced Studies IBM nel 2011. Partecipa regolarmente nei comitati di programma di conferenze internazionali nel settore delle tecnologie semantiche e nei comitati scientifici di programmi di ricerca europei. E' autore di numerose pubblicazioni scientifiche in conferenze e riviste internazionali e collabora col Sole 24 Ore per approfondimenti su temi tecnici e sociali. Guido Vetere è co-fondatore e vice presidente dell'Associazione 'Senso Comune', che riunisce alcuni tra i principali studiosi italiani di linguistica e informatica per la realizzazione di una base di conoscenza aperta delle lingua italiana, sotto la direzione del Prof. Tullio De Mauro.
«Il Sole 24 Ore» del 20 luglio 2014
Nessun commento:
Posta un commento