Capítulo 7: Sumando el colectivo computacional al colectivo humano
Durante décadas, los periodistas investigativos y profesionales de los derechos humanos han usado una mezcla de estrategias para verificar información en situaciones de emergencia y noticias de última hora. Esta experticia se encuentra ahora incluso en mayor demanda con el crecimiento del contenido generado por los usuarios.
Pero muchos de ellos, cada vez más, recurren a la “computación avanzada” para acelerar y posiblemente automatizar el proceso de verificación. Como con cualquier otra técnica, el uso de la computación avanzada para verificar el contenido de las redes sociales casi en tiempo real tiene tanto sus promesas como sus dificultades.
La computación avanzada consta de dos elementos: la computación de máquina y la computación humana. La primera hace uso de técnicas de procesamiento de lenguaje natural (PLN) y aprendizaje automático (AA), mientras que la última aprovecha los métodos del crowdsourcing (o colaboración colectiva) y las microtareas.
La aplicación de la computación avanzada para verificar contenido generado por los usuarios es limitada en estos momentos ya que el campo de investigación es nuevo aún; las plataformas y técnicas de verificación aún están en proceso de desarrollo y prueba. Como resultado de esto, aún queda por verse exactamente cuánto valor le añadirán las mismas al proceso de verificación, pero sin embargo los avances en la tecnología posiblemente continuarán ofreciendo nuevas maneras para ayudar a automatizar los elementos del proceso de verificación.
Este es un momento importante en la aplicación de la computación avanzada para verificar contenidos generados por los usuarios: Tres nuevos proyectos están siendo desarrollados en este campo. Este capítulo proporciona una síntesis de los mismos, junto con antecedentes de cómo tanto la computación humana como la de máquina están siendo usadas (y combinadas) en el proceso de verificación. Antes de profundizar, permítanme añadir una exención de responsabilidad: yo lideré los esfuerzos de respuesta humanitaria digital descritos abajo, para Haití, las Filipinas y Pakistán. Además de eso, también estoy involucrado en el proyecto Verily, así como con la creación del Plugin de Credibilidad de Twitter, ambos de los cuales son también mencionados.
Computación humana
En la computación humana, también llamada crowd computing, una máquina asigna ciertas tareas a un humano o grupo de personas. La máquina luego recolecta y analiza las tareas procesadas.
Un uso temprano de la computación humana en una emergencia se dio después del terremoto de Haití en el 2010. Ushahidi Inc. estableció una plataforma de computación humana basada en la Web para traducir, mediante microtareas, mensajes de texto urgentes del criollo haitiano al inglés. Estos mensajes provenían de comunidades afectadas por el desastre en, y alrededor de, Puerto Príncipe. Los mensajes de texto traducidos eran posteriormente priorizados y asignados dentro del Mapa de Crisis Haitiana de Ushahidi. Pese a que la traducción de los mensajes de texto fue la primera y única vez que Ushahidi usó una plataforma de computación humana para manejar información de crisis mediante microtareas, el éxito de esta técnica de la ciencia computacional resaltó el valor que añadía la misma a la respuesta contra desastres.
La computación humana fue luego usada en el 2012 en respuesta al Tifón Pablo en las Filipinas. A petición de las Naciones Unidas, la Red Humanitaria Digital (DHN por sus siglas en inglés) recolectó y analizó todos los tuits publicados durante las primeras 48 horas luego de que el tifón tocara tierra. Más específicamente, a los voluntarios de la DHN se les pidió que identificaran todas las fotos y videos publicados en Twitter que revelaran daños causados por los fuertes vientos y lluvias. Para llevar a cabo esta operación, la DHN utilizó la plataforma de microtareas gratuita y de código abierto CrowdCrafting para identificar tuits e imágenes individuales. La data procesada fue luego usada para crear un mapa de crisis de los daños causados por el desastre.
La respuesta exitosa de la computación humana al Tifón Pablo dió lugar al lanzamiento de una nueva plataforma de microtareas optimizada llamada MicroMappers. Desarrollada usando el software de CrowdCrafting, MicroMappers fue usada primeramente en septiembre del 2013 para etiquetar tuits e imágenes publicadas en línea luego del terremoto de Beluchistán. Esta operación fue llevada a cabo por la DHN en respuesta a una petición de la ONU en Paquistán.
En resumen, la computación humana apenas está comenzando a ganar tracción en la comunidad humanitaria. Pero hasta los momentos la misma no ha sido utilizada para verificar contenidos en las redes sociales.
Plataforma Verily
La plataforma Verily que estoy ayudando a desarrollar hace uso de la computación humana para verificar evidencia rápidamente mediante crowdsourcing que permita corroborar o desacreditar información publicada en las redes sociales. Esperamos que Verily sea usada para ayudar a resolver reportes conflictivos de daños por desastres, los cuales suelen emerger durante o después de un desastre mayor. Por supuesto, la plataforma podría ser usada para verificar imágenes y videos también.
Verily fue inspirada por el Reto del Globo Rojo, el cual fue lanzado en el 2009 por la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA). El reto pedía a los participantes identificar correctamente la ubicación de 10 globos meteorológicos rojos plantados a lo largo de los EE.UU.
El equipo ganador, del MIT, encontró los 10 globos en menos de nueve horas sin jamás abandonar sus computadoras. De hecho, aprovecharon las redes sociales, y Twitter en particular, para movilizar al público. Al inicio de la competencia, el equipo anunció que en vez de quedarse con el premio de US$40.000 en efectivo si ganaban, lo compartirían con miembros del público que ayudaran con la búsqueda de los globos. Notablemente, incentivaron a la gente a invitar a miembros de sus redes sociales para que se unieran a la búsqueda, escribiendo: “Estamos ofreciendo US$2.000 por globo a la primera persona que nos envíe las coordenadas correctas, pero eso no es todo: también estamos dando US$1.000 a la persona que haya invitado al ganador. Luego le daremos US$500 a quien haya invitado a su vez a esa persona, US$250 a quien haya invitado a esa otra, y así sucesivamente”.
La plataforma Verily usa el mismo mecanismo de incentivos en forma de puntos. Pero, en vez de buscar globos por todo el país, la plataforma facilita la verificación de reportes publicados en las redes sociales durante la ocurrencia de desastres para poder cubrir un área geográfica mucho más pequeña, típicamente una ciudad.
Piensa en Verily como en un tablero de Pinterest con pines que consisten en preguntas de sí o no. Por ejemplo: “¿El Puente de Brooklyn está cerrado debido al Huracán Sandy?”. Los usuarios de Verily pueden compartir esta solicitud de verificación en Twitter ó Facebook, así como también enviarle correos electrónicos a personas que se sepa que viven cerca.
Aquellas personas que tengan evidencia para responder las preguntas publican en el tablero de Verily, el cual tiene dos secciones: Una es para evidencia que responda la pregunta de verificación afirmativamente; el otro es para evidencia que proporcione una respuesta negativa.
El tipo de evidencia que puede ser publicado incluye texto, fotos y videos. Cada pieza de evidencia subida al tablero Verily debe estar acompañada de una explicación de parte de la persona que la está publicando del por qué dicha evidencia es relevante y creíble.
Como tal, un objetivo paralelo del proyecto Verily es el de hacer crowdsourcing de pensamiento crítico. Se espera que la plataforma Verily se lance en www.veri.ly a principios del 2014.
Computación de máquina
El terremoto de magnitud 8.8 que golpeó a Chile en el 2010 fue ampliamente reportado en Twitter. Como casi siempre es el caso, junto con esta oleada de tuits sobre la crisis vino también un aumento de rumores y falsa información.
Uno de tales rumores fue el de una advertencia de tsunami en Valparaíso. Otro tuvo que ver con reportes de saqueos en algunos distritos de Santiago. Aunque este tipo de rumores efectivamente se difunden, investigaciones empíricas recientes han demostrado que Twitter tiene un mecanismo auto-corrector. Un estudio de tuits publicados inmediatamente después del terremoto chileno determinó que los usuarios de Twitter típicamente confrontan los tuits poco creíbles cuestionando la credibilidad de los mismos.
Analizando este rechazo, los investigadores han demostrado que la credibilidad de los tuits puede ser pronosticada. Un análisis relacionado basado en los datos ha igualmente revelado que tuits con ciertas características suelen ser falsos. Por ejemplo, la longitud de los tuits, el sentimiento de las palabras usadas y el número de hashtags y emotíconos usados proveen indicadores de la posible credibilidad de los mensajes contenidos en los tuits. Lo mismo aplica para tuits que incluyen enlaces a imágenes y videos: el lenguaje contenido en los tuits que enlazan a contenido multimedia puede ser usado para determinar si dicho contenido es creíble o no.
Cuando se toman en conjunto, estos datos proveen a las máquinas con los parámetros y la inteligencia necesaria para comenzar a predecir la precisión de los tuits y otros contenidos en las redes sociales. Esto abre las puertas a un mayor papel para la automatización en el proceso de verificación durante desastres y otras noticias de última hora, así como situaciones de emergencia.
En términos de aplicaciones prácticas, estos hallazgos están siendo usados para desarrollar un “Plugin de Credibilidad” para Twitter. El mismo involucra a mi equipo en el Instituto de Investigaciones Informáticas de Qatar trabajando en sociedad con el Instituto Indraprastha de Tecnologías de la Información en Delhi, India.
Este plugin clasificaría tuits individuales en una escala del 0 al 100, basado en la probabilidad de que su contenido sea considerado creíble. Se espera que el plugin sea lanzado a principios del 2014. La ventaja principal de esta solución de computación de máquina es que la misma es completamente automatizada, y por lo tanto más escalable que la plataforma de computación humana Verily.
Computación híbrida
La plataforma de Inteligencia Artificial para Respuesta ante Desastres (AIDR por sus siglas en inglés) es un híbrido de los modelos de computación humana y de máquina.
La plataforma combina computación humana (microtareas) con computación de máquina (aprendizaje automático). Las microtareas consisten en tomar una tarea de gran tamaño y dividirla en una serie de tareas más pequeñas. El aprendizaje automático o de máquina implica enseñarle a una computadora a ejecutar una tarea específica.
La AIDR permite a los usuarios enseñarle a un algoritmo cómo encontrar información de interés en Twitter. El proceso de enseñanza se realiza mediante microtareas. Por ejemplo, si la Cruz Roja estuviese interesada en monitorear Twitter buscando referencias a daños de infraestructuras luego de un desastre, entonces el personal de la misma usaría la interfaz de microtareas de AIDR para etiquetar (seleccionar) tuits individuales que se refieran al daño. El algoritmo luego aprendería de este proceso y automáticamente encontrará tuits adicionales que se refieran al daño.
Este enfoque de computación híbrida puede ser usado para identificar automáticamente rumores sobre la base de un conjunto inicial de tuits que se refieran a dichos rumores. La identificación rápida de rumores y sus fuentes es un componente importante de la verificación de contenidos generados por los usuarios. Ella permite a los periodistas y profesionales humanitarios rastrear la información de vuelta a sus orígenes, así como saber a quién contactar para tomar el siguiente paso esencial en la verificación de la información.
Para estar seguros, el objetivo no debería ser solamente identificar informaciones falsas o engañosas en las redes sociales, si no contrarrestar y corregir las mismas en tiempo casi real. Una primera versión de AIDR fue lanzada en Noviembre del 2013.
Acelerando el proceso de verificación
Como se indicó anteriormente, las etapas incipientes de las plataformas de verificación potenciadas por la computación avanzada implican que su valor último para con la verificación de contenidos generados por los usuarios sigue por ser visto. Incluso si dichas plataformas rinden frutos, sus iteraciones tempranas se enfrentarán a limitaciones importantes. Pero este trabajo inicial es esencial para movernos hacia aplicaciones significativas de la computación avanzada en el proceso de verificación.
Una limitación actual es que la AIDR y el venidero Plugin de Credibilidad son completamente dependientes de una sola fuente: Twitter. Se necesitan plataformas de verificación de medios cruzados para triangular reportes a lo largo de varias fuentes, medios e idiomas. Aunque Veri.ly se acerca a satisfacer esta necesidad, la misma depende enteramente del aporte humano, el cual no escala tan fácilmente.
En cualquier caso, estas soluciones distan de ser el santo remedio de la verificación que muchos buscan. Como muchas otras plataformas de información, las soluciones mencionadas pueden ser manipuladas y saboteadas con suficiente tiempo y esfuerzo. Aún así, estas herramientas mantienen consigo la posibilidad de acelerar el proceso de verificación y tienen la posibilidad de avanzar mientras se realicen más esfuerzos e inversiones en el campo.