No le tengas miedo al “mostrito”

Apuntes para investigar a una corporación privada con un análisis masivo de base de datos y un reporteo persistente

Milagros Salazar H.

Hay algunos que le tienen fobia a las arañas, a viajar en avión, a los lugares cerrados, a los espacios abiertos; yo le tenía fobia al Excel. Ni siquiera podía usarlo para hacer una simple rendición de gastos con sumas y restas. Me alteraba ese conjunto de celdas y fórmulas que parecían atacarme cada vez que intentaba anotar algo en una hoja de cálculo. Lo odiaba. La cura solo llegó con un interés superior a este rechazo: descubrir lo que estaba oculto entre centenares de miles de desembarques de anchoveta en el Perú, la segunda nación pesquera más importante del mundo. Un interés que me llevó a realizar un análisis masivo de datos en el Excel, que fue fundamental para publicar durante más de un año una serie de reportajes que pusieron al descubierto que los grupos más poderosos de la industria pesquera en Perú subreportaban la captura de pescado a gran escala sin que el Estado ejerciera una fiscalización eficaz.

La serie investigativa empezó a publicarse en setiembre de 2011 en IDL-Reporteros, un medio digital pequeño pero con un enorme compromiso para investigar temas cruciales en Perú bajo la dirección del valeroso y experimentado periodista Gustavo Gorriti. En 2012, la investigación obtuvo uno de los tres primeros galardones del Premio Latinoamericano de Periodismo de Investigación, organizado por el Instituto Prensa y Sociedad y Transparencia Internacional. A inicios de 2012, se publicó una ampliación de estos reportajes en alianza con el Consorcio Internacional de Periodistas de Investigación (ICIJ).

Describir los vaivenes del proceso de esta investigación con data sobre la pesca peruana, es una valiosa oportunidad para decir varias cosas sobre el ejercicio periodístico, sus métodos y sus nuevos desafíos.

Para empezar, no fue fácil decidir qué aspecto de la industria pesquera ameritaba una investigación a fondo. Cuando comencé las indagaciones, a fines de 2010, rápidamente me di cuenta que el terreno estaba plagado de varios hechos pantanosos que no se conocían en la prensa, o se conocían mal. Existía una convivencia llena de conflicto de intereses entre el sector privado y el Gobierno. La Sociedad Nacional de Pesquería, el gremio empresarial más poderoso de la industria, podía pagar consultores y destacarlos al Ministerio de la Producción, encargado de regular la actividad pesquera, para que se hicieran cargo de la redacción, modificación o defensa de algunas normas. O conseguir que se prioricen ciertos temas en beneficio de la industria y se dejen dormir otros más espinosos. ¿Qué tema elegir en un sector donde la irregularidad y la ilegalidad parecía lo común y no la excepción?, ¿cómo investigar una industria poderosa sin que las fuentes te lleven de las narices?

¿Hacia dónde lanzar la red?

Decidí investigar un tema central en la pesca con un método que me permitiera indagar lo que hacían todas las empresas y no solo una, lo que sucedía en todos los puertos del país, y no en uno, en todos los desembarques y no en unos cuantos. Me propuse investigar si las naves registraban la cantidad de anchoveta (el principal recurso pesquero del mar peruano) que realmente pescaban o estaban subreportando al Estado como denunciaban los pescadores, quienes son los que más saben de lo que sucede mar adentro y mar afuera.

La investigación se ubicaba en un contexto mayor y de gran importancia. Se suponía, según los empresarios, que la industria pesquera se desarrollaba en un ambiente limpio, desodorizado, lejos de las trampas, después que en 2008 se aprobara la norma más importante del sector en los últimos años: la ley de cuotas de anchoveta por embarcación que le otorga el derecho de pesca de una cantidad determinada a cada nave para evitar que la flota salga al mar a acapararse el pescado como niños eufóricos lanzándose sobre la piñata en una fiesta infantil.

Las compañías más influyentes financiaron esta ley que les aseguró más del 60% de las cuotas de pesca de anchoveta y congelar por diez años el porcentaje de los derechos de pesca que debían pagar al Estado por cada tonelada capturada. Lograron un negocio millonario. Para darnos una idea: cada punto porcentual de la cuota llegó a valorizarse en 100 millones de dólares después de la aprobación de esta norma.

La revisión de los datos de los desembarques iba a permitir rastrear si las trampas en los puertos continuaron o no después de la aprobación de ley y en qué medida. Se trataba de comparar dos registros oficiales durante la inspección de los desembarques: la cantidad de anchoveta que declaraban los patrones de los barcos a los inspectores cuando llegaban a los muelles y la pesca pesada registrada en las balanzas que se ubican dentro de las fábricas, donde se procesaba la anchoveta para convertirla en harina principalmente para la exportación. Esta comparación se realizó a partir de un método validado y riguroso que se explicará más adelante, y que permitió demostrar un subreporte masivo y millonario de la anchoveta.

El principal desafío de la investigación fue la abundante data a la que se necesitaba acceder para luego limpiarla, analizarla y contrastarla. Perú es una nación pesquera que captura el 10% del volumen de todo lo que se pesca en el mundo y lo que principalmente captura es anchoveta: el 85% en promedio. Todo lo que pesca un país como Portugal en un año, puede pescarse en apenas semanas en un solo puerto de Perú. Se trataba de miles de actas de desembarques que debían obtenerse y revisarse para sacar a flote la verdad. Y en esas circunstancias, sólo tenía dos caminos: envejecer buscando y revisando los documentos año tras año (entregando mi vida a los pescados, el mar y sus tiburones) o procesar toda esa información con la ayuda de la computadora a partir de las bases de datos oficiales que contenían los registros de las descargas. Esto último era el mejor camino, no sólo porque hacía viable la investigación en términos de tiempo, sino porque permitía escapar de la información parcializada, y muchas veces falaz, que circulaba en la opinión pública sobre este lucrativo sector. La meta era acceder y procesar toda la torta, no solo una tajada direccionada.

Así ingresé al mundo de la “minería de datos”, el “periodismo asistido por computadora” o el “periodismo de datos”. Y así tuve que vencer mi fobia al Excel. Mi médico de cabecera para vencer este temor a lo desconocido fue la talentosa y premiada Giannina Segnini, ex jefa de la unidad de investigación del diario La Nación de Costa Rica, hoy profesora de la Universidad de Columbia y la periodista latina pionera en el uso y análisis masivo de bases de datos para la investigación periodística. Giannina me asesoró en la investigación gracias a un programa de entrenamiento que realizó el Instituto Prensa y Sociedad (IPYS) en Lima. Con ella aprendí a reportear con brújula, con data, y comprobé lo que asegura con total conocimiento: “el periodismo basado en datos aumenta la credibilidad y la independencia. Por primera vez en la historia, el periodismo de investigación cuenta con herramientas poderosas para descubrir historias completas, no sólo las piezas que alguna fuente quiere revelar”.

El trabajo con bases de datos potencia la investigación periodística. Permite descubrir fenómenos, tendencias, que después hay que verificar con el reportero tradicional, en la calle, ese que nunca podrá ser reemplazado por ninguna computadora ni el programa más sofisticado. En la combinación del ejercicio fundamental de la verificación y las nuevas herramientas tecnológicas radica el actual desafío de un periodismo de investigación que dependa cada vez menos de las filtraciones de información de las fuentes.

¿Cómo fue el proceso?

Lo primero que tuve que hacer, por más básico que parezca, fue comprobar si el Estado tenía organizado en archivos de Excel (o en algún otro programa) la información de los desembarques de anchoveta de cada nave y conocer al detalle qué tipo de información contenían. Si no existía esa data organizada, la investigación no era viable. Como señala Mar Cabra, periodista española del Consorcio Internacional de Periodistas de Investigación (ICIJ), la clave no está necesariamente en las herramientas sino en tener una “mentalidad de datos” (data state of mind). “Es decir, pensar dónde puede haber datos y saber cómo hacer ese análisis sistemático”.

El trabajo con datos tiene diversas etapas (cada una con distinto grado de dificultad) que puede resumirse en lo siguiente: acceso, procesamiento, análisis y visualización de los resultados. En este caso, la primera gran dificultad estuvo en el acceso debido a que los registros de desembarque no estaban publicados para los ciudadanos en ninguna página web de las instituciones estatales. La data existía pero sólo podían revisarla de manera privilegiada las autoridades del Gobierno, las empresas fiscalizadas y las empresas inspectoras que a la vez eran consultoras de varias compañías del sector.

Por este motivo, solicitamos las bases de datos al Ministerio de la Producción vía la Ley de Transparencia y Acceso a la Información. No tuvimos éxito. Las autoridades negaron la información por considerar que los registros de desembarque por empresa estaban protegidos por el secreto estadístico a pesar que se trataba de la explotación del principal recurso del mar peruano. Esto obligó a buscar otras fuentes que tenían acceso legal a la data, mientras llevábamos al Poder Judicial el reclamo legítimo de obtener esta información de interés público. Conseguir aquellos archivos fue lo más difícil de todo. Hasta hoy, el Ministerio no los entrega.

Mediante diversas fuentes, al inicio solo accedí a un grupo de las actas de inspección de los desembarques. Debido a que la información de los documentos estaba registrada a mano, fue imposible capturarla con un programa OCR (Reconocimiento óptico de caracteres). Esto me llevó a ingresar al Excel dato por dato. Después de varias semanas de insistencia, accedí a nuevas hojas de cálculo. Pero seguía teniendo algunas piezas, no todo el rompecabezas. Insistí y obtuve más archivos. Al final de tres meses de búsqueda, como sucede cuando uno chanca el fierro una y otra vez hasta que se dobla, accedí a la data completa y a las miles de actas de inspección impresas y digitalizadas en donde aparecían las cifras originales de las descargas. En total, más de 100 mil documentos.

Lo que vino fue un procesamiento tedioso que me permitió entender después de varios desvelos que la data viene sucia y hay que detectar el patrón del error. Para descifrarlo, no solo se debe revisar los datos una y otra vez, analizarlos como quien se interroga a una persona para conocer sus fortalezas y debilidades, sino que es necesario tener suficiente conocimiento de cómo funciona el sector que se está investigando y cómo fue construida la data. Por ejemplo, en el proceso pude ver que había uno que otro desembarque con registro de pesca de más de mil toneladas cuando la nave anchovetera más grande del país tenía una capacidad de bodega de 900 toneladas en esos días. No era posible que un barco descargara más de esa cantidad. Saber eso, me permitió identificar errores de tipeo que se lograron corregir buceando en las actas de inspección originales. Después de comprobar la utilidad de este “mar de datos”, todo empezó a despejarse. Dejé de abrumarme con tantas cifras y fórmulas. Empecé a bucear.

El método sí importa

La metodología para analizar cualquier conjunto de datos debe tener un sustento técnico sólido y anclarse en la realidad. En esta investigación, como ya se dijo, comparé la cantidad de anchoveta que declaraban los patrones a los inspectores cuando llegaban a los muelles y la pesca pesada registrada en las balanzas de las fábricas harineras. Esto permitió descubrir que más de la mitad de los desembarques en los puertos del norte y centro del país, donde se descarga el 90% de la anchoveta capturada, tenían diferencias entre la pesca declarada y pesada que superaban el 10% y podían llegar al 20%, 30% y hasta 50% en algunos casos. La balanza siempre registraba menos peso en cantidades sospechosas. Las diferencias evidenciaban un subregistro y en consecuencia una sobrepesca ilegal, debido a que la máxima discrepancia posible era del 10%, según las autoridades, expertos, empresarios, inspectores y pescadores consultados.

Las empresas que encabezaban las discrepancias eran las más poderosas. El análisis de los datos permitió saber quién era quién en la pesca industrial, desde la compañía más grande hasta la más pequeña.

En una primera etapa, analicé 45 mil desembarques que permitieron detectar un subreporte de 300 mil toneladas de anchoveta entre la primera temporada de pesca de 2009 y todo el 2010. Este volumen estaba valorizado en 100 millones de dólares si se transformaba en harina, sin contar lo que se dejaba de pagar al Estado en derechos de pesca y a los pescadores que ganan por tonelada pesada. Estas pérdidas también fueron calculadas y para ello se tuvo que desarrollar una metodología específica.

Después de la publicación de los primeros reportajes, se amplió el periodo de análisis de la data con el Consorcio Internacional de Periodistas de investigación (ICIJ) y recién entonces se abrió la posibilidad de trabajar en equipo. Se incluyó dos temporadas de pesca adicionales, una de ellas incluso tuvo que reconstruirse utilizando las cifras de centenares de actas de inspección con la ayuda de jóvenes ingenieros de sistemas peruanos encabezados por Miguel López, un programador-periodista nato. Con ellos, se desarrolló una forma de vincular las actas escaneadas con las cifras que eran incorporadas en las hojas de cálculo con el propósito de verificar cada dato nuevo. En forma simultánea, el ICIJ contrató un equipo en España para corroborar cada dato ingresado y analizado por el equipo peruano.

Para hacer periodismo de datos no se necesita trabajar en un gran medio de comunicación, ser parte de un equipo numeroso o usar un software sofisticado. Basta con un periodista y un programa básico como Excel como sucedió en la primera parte de esta investigación con IDL-Reporteros. Sin embargo, si se requiere construir y cruzar bases de datos cada vez más voluminosas y complejas, se necesita pensar en un equipo de investigación integrado no sólo por periodistas, sino también por ingenieros de sistemas.

Con la participación del ICIJ, se ratificaron los hallazgos iniciales de la investigación llegando a analizar más de 100 mil desembarques entre 2009 y parte de 2011, que permitieron concluir que después de la implementación de la ley de cuotas, se esfumaron entre las bodegas de los barcos y las balanzas, 630 mil toneladas de anchoveta, una cantidad que superaba toda la pesca que las flotas británicas llevaban a puerto en un año.

La metodología usada fue confiable por tres razones, a pesar que los empresarios involucrados intentaron desacreditarla: 1) El registro de la pesca declarada y pesada es oficial, y cada una tiene una ficha de inspección precisamente para poder comparar estas dos cifras como parte de la fiscalización de los desembarques que debe realizar el Estado. 2) Los empresarios pesqueros, los pescadores, los funcionarios del Estado, los expertos y los actores más importantes del sector fueron entrevistados antes de procesar la data para determinar a partir de qué porcentaje la diferencia entre pesca declarada y pesada era sospechosa. Todos ellos señalaron que como máximo podía haber 10% de discrepancia. Sin embargo, cuando luego volvimos a consultar a los empresarios con los resultados en la mano, éstos empezaron a sufrir de una repentina amnesia. No imaginaron que podíamos acceder a los datos y mucho menos descifrarlos. Ningún periodista realizó antes alguna investigación parecida en el Perú. 3) El Ministerio de la Producción mandó a elaborar en 2009 a una de las empresas inspectoras, CERPER, un análisis de la pesca declarada y pesada debido a las denuncias reiteradas de los pescadores de “robo en la balanza”. Su conclusión era que las discrepancias detectadas en estos dos registros, revelaban indicios razonables de manipulación en el software de las balanzas. Esto fue determinante para realizar una auditoría que concluyó que el 31% de las balanzas inspeccionadas tenían indicios graves de adulteración.

El reporteo de cada día

Para corroborar el fenómeno del subreporte que evidenciaba la data, fue necesario entrevistar a autoridades, inspectores, auditores, empresarios, ex superintendentes de plantas, calibradores de balanzas, programadores de sistemas, entre otros. Fue clave conversar con el creador del primer programa informático que fue instalado en los tableros de control de las balanzas porque contó cómo podía alterarse el peso de las descargas en un puerto de norte del país, incluso desde la oficina de un gerente de una pesquera en Lima.

Después de más de seis meses de investigación, quedaba claro que no se trataban de hechos aislados y que no solo incurrían en la pesca negra los pescadores artesanales y de menor escala. La responsabilidad de la mayor parte del subregistro recaía sobre todo en la gran industria. Y aunque la investigación fue encapsulada al inicio por los medios tradicionales en Perú, se logró de manera paulatina con la publicación de reportaje tras reportaje, que se dieran cambios en la inspección de las descargas y que la industria pesquera empezara a ser vigilada por la opinión pública. La alianza con el ICIJ también fue importante porque la investigación ampliada sobre el “Saqueo de los Mares” en el Pacífico Sur, permitió que los hallazgos fueran recogidos por importantes medios internacionales: Le Monde de Francia, El Mundo de España, Internacional Herald Tribune, entre otros. La presión también vino desde afuera.

Después de la publicación de la serie investigativa, las autoridades realizaron auditorías a las balanzas en cada temporada de pesca, se evaluó la compra de un nuevo software de pesaje para evitar la manipulación y el Estado contrató a inspectores propios para no depender de las empresas supervisoras financiadas por las compañías pesqueras y que, además, eran contratadas para certificar la harina de pescado que exportaban las empresas fiscalizadas.

La clave de este proceso investigativo fue la perseverancia y vencer el temor a lo desconocido, al “mostrito” como le llamaba Giannina Segnini al servidor que alimentaba día a día con bases de datos en su Unidad del diario La Nación para producir información nueva. La investigación de la pesca peruana responde a las nuevas tendencias del periodismo de investigación que se están desarrollando con grandes resultados en varios medios del mundo en tiempos en que hay una apertura cada vez mayor de datos en el ciberespacio.

Un nuevo camino

Ingresar a este universo de datos es posible con nociones básicas del Excel, una computadora y una voluntad férrea. Por eso, si Giannina Segnini y el ingeniero de sistemas principal de su ex equipo de La Nación, Rigoberto Carvajal, tuvieron la generosidad de mostrarme los beneficios de estas herramientas a pesar de mi rechazo a la informática, me tocaba reproducir este gesto con mis alumnos de periodismo en las universidades de Lima donde enseño y en los talleres que dicto a nivel nacional a periodistas, estudiantes y profesores. Más de la mitad de los proyectos de investigación de mis alumnos más jóvenes incluye el trabajo con datos y el uso de apenas una computadora portátil. Los resultados son sorprendentes. Hoy, seducida totalmente por estas posibilidades, impulso un proyecto periodístico independiente en Perú que permita integrar, en esta primera etapa, el trabajo con periodistas de investigación, ingenieros de sistemas, desarrolladores web y diseñadores multimedia, con miras a generar alianzas con apuestas similares en América Latina y el resto del mundo.

Investigar, emprender, experimentar e innovar en equipo es el camino que hemos decidido recorrer varios de los que amamos este oficio. La mejor arma siempre será querer saber y brindarle lo mejor al público. Richard Gingras, jefe de noticias de Google asegura que en estos tiempos en que los medios “ya no pueden decir: créannos porque somos quienes somos (…), el reportaje de investigación del mañana será el resultado de un persistente trabajo con minería de datos y cruce de información”. Y esto no solo implica un cambio tecnológico, sino cultural.

Dar cuenta al público cómo llegamos a tal o cual conclusión y responder con la misma transparencia que exigimos los periodistas a las autoridades y a las grandes corporaciones privadas, es ya un mandato. Al respecto, Giannina logra dar una vez más en el clavo: “cada vez que los periodistas ponemos en manos de la audiencia un conjunto completo de datos, ésta puede ver la costura de nuestras historias, las decisiones que tomamos y la jerarquía de los conceptos que aplicamos”. Eso permitirá conseguir lo que está en el fondo de todo lo antes dicho: cultivar un periodismo comprometido con la Humanidad.

Milagros Salazar Herrera

Periodista de investigación y docente universitaria. Trabaja para IDL-Reporteros, en Lima, es corresponsal de la agencia de noticias Inter Press Service (IPS) y miembro del Consorcio Internacional de Periodistas de Investigación, con sede en Washington. Es profesora de la Universidad de Lima y de la Universidad Ruiz de Montoya, donde enseña periodismo de investigación y de datos. Actualmente, impulsa un proyecto periodístico independiente en Perú que integra el trabajo de reporteros de investigación, ingenieros de sistemas, desarrolladores web y diseñadores, con miras a generar alianzas con otras iniciativas en otros países del mundo.

Un proyecto de               Gracias al apoyo de