Eduard Martín-Borregón
Data’n’Press es un estudio de periodismo de datos y análisis fundado en noviembre de 2011. Lo integran el Ingeniero en telecomunicaciones David Martín-Borregón, el informático Arnau Udina y el periodista Eduard Martín-Borregón. Han trabajado para El Periódico de Catalunya, el Confidencial, Vilaweb y eldiario.es, y también han realizado proyectos propios como twitterencatala.org y @resultados20n.
El estudio trabaja tanto proponiendo temas a los medios, como desarrollando proyectos para clientes. Entre sus especialidades están la cobertura de elecciones, análisis y visualización de grandes cantidades de datos, trabajar con la API de redes sociales, integrar proyectos de datos con social media y el análisis de grandes textos.
Desde Data’n’Press vemos el periodismo de datos (cabría decir que nos sentimos más cómodos con las expresiones “periodismo de base de datos” o “periodismo inducido por datos”) como la aproximación desde el periodismo al nuevo paradigma de la sobreinformación, o mejor dicho del exceso de datos.
Internet y la digitalización de la sociedad permiten 'datizar' y guardar millones de acciones y registros que en su mayoría han sucedido siempre, pero que hasta ahora no se podían almacenar para ser consultados de forma óptima y ágil. Para convertir estos datos en conocimiento necesitamos las herramientas tecnológicas necesarias, y la interpretación o intención que le damos es periodística. Existen otras disciplinas que hacen aproximaciones distintas a este mismo paradigma, existen economistas de datos, científicos de datos o visualizadores de datos.
Nosotros describimos el proceso del periodismo de datos en tres etapas: obtención, procesado y visualización. Cada uno de estos puntos los afrontamos desde tres visiones metodológicas distintas: tecnologías a desarrollar, diseño de interface e historia periodística. El objetivo final es siempre contar la historia de la mejor forma posible.
Los proyectos que realizamos pueden empezar en cualquier parte del proceso: tenemos unos datos nuevos que queremos trabajar, a partir de un nuevo algoritmo o proceso podemos darle una visión nueva a la historia, o querer visualizar unos datos de una forma más clara y concisa de lo que se ha dado hasta ahora. Aunque en la concepción del proyecto sea distinta, cada proyecto pasa por los tres pasos.
Buscamos datos tanto en redes sociales, en portales de open data o haciendo webscrapping. La importancia no es tanto como obtenerlos, sino conocer a la perfección el dataset. Un error en la base de datos será un error que se arrastrará en todo el proyecto y nos puede llevar a conclusiones erróneas que invalidarán el trabajo. Para evitarlo debemos repasar todos los campos y limpiarlos adecuadamente.
Conocer bien un dataset no permitirá sacar historias que no tiene nadie más. Un ejemplo de ello fue nuestro proyecto twitterencatala.org. En julio de 2012 Twitter sacó la versión en catalán de la red social, un hito dentro de la comunidad catalana que se había implicado primero en presionar a la red de microblogging y después en su traducción. La historia a contar era como su aceptación, pero Twitter no da estos datos de forma global. Lo que sí da a través de su API, es el idioma en que cada usuario tiene configurado su cuenta.
A partir de esta consulta de la API armamos un algoritmo que buscara usuarios con Twitter configurado en catalán y los fuera contando. Los resultados se daban tanto en una web como en una cuenta específica de Twitter. La aplicación tuvo un gran resultado, con más de 1000 seguidores en la cuenta de Twitter, casi 5.000 páginas vistas en la web y nuestros datos aparecen en todos los grandes medios de comunicación catalanes. Cifras muy elevadas para una comunidad tan pequeña.
Los datos nos dan aproximaciones distintas a una historia, e incluso si procesamos de distintas formas una base de datos podremos llegar a conclusiones distintas cada vez. Este es el ejercicio que hacemos con eldiario.es con la serie “El lenguaje del Gobierno” que analiza las ruedas de prensas posteriores al Consejo de Ministros del Gobierno de España. Prácticamente cada viernes el Gobierno da una rueda de prensa al finalizar el consejo de ministros. Asisten multitud de periodistas nacionales e internacionales que al finalizar la exposición realizan preguntas. La cobertura es total, lo que digan los ministros y portavoces aparecerá en diarios e informativos, pero través de los datos podemos conseguir nuevas historias.
Desde 1996 el Gobierno transcribe y sube al web cada una de sus ruedas de prensa. A partir de este dataset podemos ver cómo cada gobierno usa unas palabras u otras, como plantea su estrategia comunicativa o incluso que índice de legibilidad tiene su exposición. Historias que nos permiten conocer desde una aproximación distinta el Gobierno y sus políticas.
Si hay algunos datos que se han visualizado siempre en los medios de comunicación son los resultados electorales. Desde el periodismo de datos podemos intentar aportar a partir de la visualización interactiva, las redes sociales, el procesado de datos en tiempo real y agregar otros datos que permitan generar nuevo conocimiento.
En las elecciones Europeas del 2014 Data’n’Press trabajó con El Confidencial en la aplicación de resultados del diario electrónico. Las claves de la visualización, una de las más visitadas del estado, fueron: actualización en directo, desagregación hasta el detalle municipal (en directo también), datos históricos desde 1990 y gráficos que explicaban la historia de las elecciones, en aquel caso la caída del bipartidismo y el incremento de la abstención.
Uno de nuestros mantras cuando visualizamos es “la mejor visualización es la más simple” y seguramente @resultados20N ha sido la más simple que hemos realizado hasta el momento. A partir de todo el juego de caracteres ASCII creamos tuits que visualmente mostraban los resultados electorales, al más puro estilo ASCII ART. Fue volver a los orígenes, a la línea de comandos, al MS-DOS. Y es que para hacer buenas visualizaciones (y buen periodismo de datos) no es necesario usar las últimas tecnologías, sino conocer tus herramientas a fondo y usarlas de forma imaginativa.
Periodista de datos, cofundador de Data’n’Press. Licenciado en Periodismo con el 1r Ciclo de Economía, fotógrafo con un Máster en Dirección de Comunicación y ganador de beca Google para estudiar el Máster en Periodismo de Investigación, Datos y Visualización.