Logo Cover

Capitolo 7: Integrare la molteplicità umana con la molteplicità computerizzata

Patrick Meier (Ph.D.) è un esperto internazionale nell'applicazione delle nuove tecnologie alle emergenze umanitarie. Autore del libro Digital Humanitarians (2015), è stato direttore dell'innovazione social del Computing Research Institute (QCRI) presso la Qatar Foundation, impegnato a realizzare la prossima generazione di tecnologie a uso umanitario. Ha lavorato fra l'altro alle Nazioni Unite, alla Banca Mondiale ed è stato anche responsabile della mappatura delle crisi per Ushahidi. Il suo blog, iRevolution, ha raggiunto quasi due milioni di visite. Twitter: @patrickmeier.

Per decenni i giornalisti investigativi e quanti si occupano di diritti umani durante le crisi umanitarie hanno usato un misto di strategie per verificare le informazioni in situazioni di emergenza ed eventi d'attualità. Si tratta di competenze sempre più necessarie, vista l'ampia diffusione dei contenuti prodotti dagli utenti.

Molti si rivolgono ai “sistemi informatici avanzati“ per accelerare e possibilmente automatizzare il processo di verifica. Come per altre tecniche, anche tali sistemi per verificare i contenuti in circolazione sui social media praticamente in tempo reale hanno i pro e i contro.

L'informatica avanzata si basa su due elementi: calcolo automatico (machine computing) e intervento umano (human computing). Il primo usa tecniche per processare il linguaggio naturale e il ‘machine learning’, mentre il secondo si appoggia a metodi di crowdsourcing e di micro-compiti (micro-tasking).

Attualmente l'applicazione di tali sistemi per verificare i contenuti prodotti dagli utenti è piuttosto ridotta, perché il campo di ricerca è ancora troppo giovane; le piattaforme di verifica e le tecniche descritte più avanti sono ancora in fase di sviluppo e di test. Di conseguenza, il valore che si aggiunge al processo di verifica resta ancora da dimostrare, pur se la tecnologia progredisce rapidamente e porterà nuovi contributi per automatizzare gli elementi del processo di verifica.

Al momento ci sono tre nuovi progetti in fase di sviluppo. Questo capitolo ne fornisce una panoramica, insieme a informazioni generali sull'integrazione tra competenze umane e automazione. Prima di cominciare, consentitemi una nota personale: ho diretto l'organizzazione della struttura informatica per l'emergenza nei casi di Haiti, Filippine e Pakistan (descritti sotto), e fra l'altro sono impegnato nel progetto Verily e nella creazione del plug-in di credibilità per Twitter. Temi che illustrerò qui di seguito.

Human computing

Nello ‘human computing’, anche noto come ‘crowd computing’, la macchina affida certi compiti alla folla o al singolo, per poi raccogliere ed elaborare i risultati finali.

Un esempio precoce del ricorso allo human computing durante un'emergenza è stato dopo il terremoto che ha colpito Haiti nel 2010. Ushahidi organizzò una piattaforma web di human computing per dividere e assegnare i lavori di traduzione degli sms dal creolo haitiano all'inglese, trasmessi dalle comunità colpite dal disastro nei dintorni di Port-au-Prince. I messaggi tradotti sono stati poi smistati e mappati all'Ushahidi Haiti Crisis Map. Pur trattandosi della prima e unica occasione in cui Ushahidi ha usato piattaforme automatizzate, il successo di questa tecnica in caso di catastrofe ha dimostrato il suo valore aggiunto nella riposta ai disastri.

Lo human computing fu utilizzato di nuovo nel 2012, quando il tifone Pablo colpì le Filippine. Su richiesta delle Nazioni Unite, il Digital Humanitarian Network (DHN) raccolse e analizzò tutti i tweet pubblicati durante le prime 48 ore dall'arrivo del tifone. Più nello specifico, ai volontari del DHN venne chiesto di identificare le immagini e i video caricati su Twitter, utili per stimare i danni causati dalle forti piogge e dalle raffiche di vento. Per portare a termine questo incarico, il DHN usò la piattaforma di micro-tasking gratuita e open-source CrowdCrafting per contrassegnare con tag appropriati ogni singolo tweet e immagine. Una volta elaborati, i dati finali vennero poi utilizzati per creare la mappa dei danni.

Il successo di quest'ultimo caso portò al lancio di una nuova applicazione di micro-tasking semplificata, chiamata MicroMappers. Sviluppata dal software di CrowdCrafting, Micromappers fu usata per la prima volta nel settembre 2013 per contrassegnare con appositi tag i tweet e le immagini condivise online all'indomani del terremoto in Baluchistan. Questa operazione fu portata avanti dal DHN a seguito della richiesta nelle Nazioni Unite in Pakistan.

Lo human computing va ottenendo l'attenzione della comunità di addetti ai lavori, e a breve troverà ampio impiego anche nella verifica dei contenuti generati dagli utenti sui social media.

La piattaforma Verily

La piattaforma Verily (che ho contribuito a realizzare) usa lo human computing per raggruppare rapidamente prove che confermato o smentiscono le informazioni condivise sui social media. Prevediamo che Verily venga usato per aiutare a chiarire i rapporti contraddittori sui danni dei disastri naturale, un fenomeno che si ripete spesso durante e dopo gravi crisi. Ovviamente la piattaforma può essere usata anche per verificare immagini e riprese video.

Verily si ispira alla Red Balloon Challenge, lanciata nel 2009 dalla Defense Advanced Research Projects Agency (DARPA). La gara richiedeva ai partecipanti di identificare correttamente le località in cui si trovavano 10 palloni atmosferici rossi sparsi nel cielo degli Stati Uniti.

La squadra vincente, che veniva da MIT, trovò tutti i palloni in meno di nove ore senza mai allontanarsi dai loro computer. In realtà ce la fecero grazie al coinvolgimento del pubblico sui social media, in particolare su Twitter. All'inizio della competizione, la squadra annunciò che, invece di tenere per sè i 40mila dollari del premio finale, in caso di vittoria lo avrebbe condiviso con gli utenti online che avrebbero dato loro una mano nell'individuare cercare quei palloni. In particolare, per incentivare la gente a partecipare, se ne uscirono con una mossa geniale. Spiegarono così l'idea: «Daremo 2000 dollari a ogni persona che per prima ci indicherà le coordinate di un pallone. Ma non è tutto. Daremo anche 100 dollari alla persona che l'ha invitata. Poi daremo 500 dollari a chi ha invitato l'invitante, 250 dollari a chi ha invitato l'invitante dell'invitante, e così via».

Il progetto Verily usa lo stesso sistema di incentivi in forma di punteggi. Anziché cercare palloni metereologici, la piattaforma facilita la verifica dei post sui social media pubblicati durante i disastri, una mossa mirata a coprire un'area geografica molto precisa, un'intera città, per esempio.

Pensate a Verily come a una bacheca Pinterest con oggetti che sono domande a cui si può rispondere sì o no. Per esempio: «Il ponte di Brooklyn è crollato a causa dell'uragano Sandy?» Gli utenti di Verily possono condividere questa richiesta di verifica su Twitter o Facebook, ma anche inviando una email a propri conoscenti che abitano in quella zona.

Chi ha delle prove per rispondere alla domanda può inviare un messaggio attraverso Verily, che ha due sezioni: una è per le prove che dimostrano la risposta affermativa; l'altra per quelle che dimostrano la risposta negativa. Il tipo di prova comprende testi, foto e video. Ogni singolo contenuto inviato a Verily va accompagnato da una spiegazione, inviata dal mittente tramite un modulo online, sul motivo per cui quella prova è rilevante e credibile.

Uno degli obiettivi secondari di Verily è anche quello di diffondere il pensiero critico. La piattaforma Verily è stata poi lanciata all'inizio del 2014 sotto lo slogan: «Crowdsurcing Fact-checking».

Machine computing

Le notizie sul terremoto di magnitudo 8,8 che colpì il Cile nel 2010 trovarono ampia eco su Twitter. Come in tutti i casi del genere, nel bel mezzo della tragedia Twitter si trasformò in un fiume di voci e illazioni.

Tra queste illazioni ci fu l'allarme tsunami a Valparaiso. Un altro fu la voce di sciacallaggio in corso in alcuni quartieri di Santiago. Sebbene queste tipologie di voci infondate circolano molto, una recente ricerca empirica ha dimostrato che Twitter ha anche un meccanismo di correzione automatico. Uno studio sui tweet condivisi subito dopo il terremoto cileno rivelò che sono gli stessi utenti a contrastare autonomamente la diffusione delle bufale, mettendo in dubbio la credibilità di tali tweet.

Analizzando questa dinamica, i ricercatori hanno dimostrato che la credibilità dei tweet può essere in qualche modo prevista. Altre analisi sui dati hanno dimostrato anche che i tweet di un certo tipo sono quasi sempre falsi. Per esempio, la lunghezza del testo, le parole usate, la quantità di hashtag e emoticon inclusi sono alcuni degli indicatori di credibilità o meno di un tweet. Lo stesso accade con tweet che includono link a immagini e video — il linguaggio usato diventa il primo strumento di verifica della loro credibilità.

Presi insieme, questi dati forniscono al computer i parametri e le informazioni di cui hanno bisogno per poter predire l'accuratezza dei tweet e di altri contenuti pubblicati sui social media. Ciò spalanca la porta all'uso massiccio dell'automazione nel processo di verifica delle informazioni durante i disastri, le situazioni di emergenza e altri eventi d'attualità.

Per quanto riguarda l'applicazione pratica, queste scoperte sono state usate per sviluppare un “Credibility Plug-in” per Twitter. Avviato al Qatar Computing Research Institute, in partnership con l'Indraprastha Institute of Information Technology di New Delhi, il plug-in punta a valutare i tweet su una scala da 0 a 100 basata sulla probabilità che il contenuto di un dato tweet potesse o meno essere considerato credibile. Il plug-in è stato lanciato nella prima metà del 2014 (anche per WordPress, ma non più aggiornato) e poi [ulteriormente modificato] (https://chrome.google.com/webstore/detail/tweetcred/fbokljinlogeihdnkikeeneiankdgikg). Il vantaggio primario di questa soluzione è che si basa totalmente sull'automazione, rendendola così assai più scalabile della verifica offerta da Verily, basata unicamente sullo human computing.

Elaborazioni ibride

La piattaforma Artificial Intelligence for Disaster Response (AIDR) è un ibrido che mette insieme lo human computing (microtasking) con i modelli di automazione informatica (machine learning). Il microtasking funziona prendendo un grande obiettivo e dividendolo in una serie di obiettivi più piccoli. Il machine learning serve invece per insegnare al computer come affrontare un singolo obiettivo.

L'AIDR consente agli utenti di insegnare a un algoritmo come reperire un'informazione interessante su Twitter. Il processo di formazione è portato avanti attraverso il micro-tasking. Per esempio, se la Croce Rossa fosse interessata a monitorare Twitter per trovare le prove dei danni infrastrutturali seguiti a un disastro, potrebbe usare l'interfaccia dell'AIDR per selezionare singoli tweet in cui si nominano tali danni. L'algoritmo, di conseguenza, può imparare da questo processo e trovare autonomamente nuovi tweet contenenti gli stessi termini

Quest'approccio ibrido può servire per identificare autonomamente le voci non confermate, in base a una serie iniziale di tweet dove si rilanciano tali voci. Identificare rapidamente le illazioni e la relativa fonte è una componente molto importante del processo di verifica dei contenuti prodotti dagli utenti. In tal modo i giornalisti o gli operatori umanitari possono identificarne rapidamente la fonte e quindi sapere chi contattare per avviare il processo di verifica.

Obiettivo del progetto non è soltanto quello di identificare voci, informazioni false o corrotte sui social media, bensì anche di correggere quell'informazione nel più breve tempo possibile. Una prima versione dell'AIDR è stata rilasciata nel novembre 2013 ed oggi è pienamente funzionante.

Accelerare il processo di verifica

Come già detto, il fatto che le piattaforme di verifica in atto siano supportate da processori avanzati significa che il loro valore ultimo per il processo di verifica dei contenuti generati dagli utenti non è ancora stato analizzato. Pur se queste piattaforme porteranno i loro frutti, non mancano le limitazioni da superare. Ma questi progetti iniziali sono essenziali per un'evoluzione significativa e per l'applicazione dell'informatica avanzata nei processi di verifica delle informazioni.

Una delle limitazioni è che inizialmente l'AIDR e il Credibility Plug-in erano completamente dipendenti da una singola fonte: Twitter. Ora vengono sperimentati su piattaforme cross-mediali per triangolare contenuti provenienti da fonti diverse, da diversi media e in lingue diverse. Mentre Verily, che è vicino a soddisfare queste necessità, si basa esclusivamente sull'intervento umano, cosa che non consente la facile scalabilità.

In ogni caso, queste soluzioni sono ancora lontane dall'essere l'elemento decisivo per la verifica delle fonti atteso da molti. Come per altre piattaforme nel campo dell'informazione, intrusioni e sabotaggi rimangono un'eventualità concreta. Ma tali progetti sono effettivamente in grado di accelerare il processo di verifica e potranno solo migliorare nel tempo, con il sostegno degli esperti e di ulteriori investimenti.



Published on: 28 January 2014
Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.