Entrevista al teleco Miguel Luengo-Oroz en El País-Retina

09.05.2018

Miguel Luengo-Oroz es el jefe de los científicos de 'big data' del laboratorio de la ONU Global Pulse. Su equipo ha ayudado en campos de refugiados o en los terremotos de México. Miguel es doctor ingeniero de Telecomunicación del Grupo de Tecnología de Imágenes Biomédicas  por la ETSIT-UPM. Por su interés reproducimos la entrevista realizada por Manuel G. Pascual para el País-Retina.

Fue el primer cien­tífico de datos que contrató la ONU. Era 2011 y el big data estaba en pañales. Ban Ki Moon le enroló para UN Global Pulse, un laboratorio de ideas que utiliza los algoritmos y las tecnologías emergentes para actuar en contextos de desa­rrollo y crisis humanitarias.

¿Qué vieron en él? Quizás influyera que en 2004, cuan­do todavía no se hablaba de inteligencia artificial (IA), ya había creado un robot capaz de escribir poesía. O quizás lla­mó la atención de la persona indicada cuando en 2010 pasó por la Singularity University, el centro de élite de Google y la NASA en California, convir­tiéndose —por cierto— en el primer español en pisarlo.

La obsesión de este inge­niero de telecomunicaciones y de su equipo es producir solu­ciones que ayuden. Lo ha con­seguido en varias ocasiones.

¿Cómo ha evolucionado tu trabajo en UN Global Pulse?

Cuando empezamos la idea era ver qué señales emitimos las personas a través de los móviles y las redes sociales. Ahora nos centramos en có­mo utilizarlas para mejorar la salud, la seguridad alimenta­ria o la educación.

¿Y cómo lo hacéis?

Si algo hemos aprendido es que la parte complicada de so­lucionar los problemas no es la tecnológica, sino la humana. La clave es entender a quienes van a usar la herramienta que estés preparando. Hay que empaparse del contexto.

¿Podrías darnos un ejemplo?

UNICEF acudió a nosotros para mejorar el sistema de reparto de agua en el campo de refugiados de Zaatari, en la frontera entre Jordania y Siria. Ayudamos a digitalizar el sistema para que la flota de camiones, que abastecen a 90.000 personas, supiera a qué puntos tenían que ir a suministrar el agua y recoger luego la sucia. Tras probar la herramienta nos dimos cuen­ta de que los camioneros hacían trampa: panelaban por dentro los depósitos para que pareciese que recogían más agua usada.

¿Qué puede aportar la IA a la gestión de catástrofes naturales?

Mucho. Ayudamos a UNO­SAT a hacer algoritmos para evaluar daños o agilizar el conteo de tiendas en campos de refugiados. En México, junto al BBVA, diseñamos una aplicación para medir el impacto económico de un huracán a partir de los gastos y las retiradas de efectivo realizadas antes, durante y después. Para decidir dónde enviar la asistencia, las tien­das de campaña, etcétera se recurre a los censos. Eso es un problema porque en algu­nos países están muy desac­tualizados. Tras el terremoto de Haití se calculó el número de desplazados detectando las zonas con mayor densi­dad en función de la torre de telefonía a la que se conecta­ban los móviles. Ese proceso se replicó luego en Nepal.

¿Para qué más le puede ser­vir el big data a la ONU?

En Brasil, con ONUSIDA y el gobierno del país, lanzamos un proyecto para monitorizar mensajes homófobos en redes sociales. En Indonesia hicimos lo mismo para combatir los falsos rumores sobre las vacu­nas. En Uganda, donde no hay un uso tan extendido de las redes sociales, hemos creado una herramienta para trans­cribir a los lenguajes locales lo que se dice en la radio pública y monitorizarlo. Es muy útil para detectar catástrofes de baja intensidad, como derrumbamientos, que no se reportan y causan estragos.

¿Qué política seguís en el uso de datos?

Nuestros proyectos siguen una serie de principios fun­damentales. Los datos están anonimizados y se retienen durante un tiempo determi­nado. De todas formas, lo que habría que hacer es medir el coste de no utilizar la mejor de tus posibles soluciones. Vol­viendo al caso del terremoto de Haití, ¿preferimos saber dónde está la gente o respetar la privacidad de sus móviles?

¿Crees que protegemos los datos como se debería?

Me gustaría que en un futuro mi hija pudiera decidir sobre sus datos: para qué se usan, con quién los comparte y por qué. Falta mucha educación. La gente los cede muy fácilmente. Necesitamos saber qué es un dato, qué es un algoritmo, cómo funciona Internet… Hacen falta cam­pañas como las de tráfico, que han ayudado a que la gente interiorice que alcohol y volante es una mala combi­nación. Debemos aprender a vivir en el mundo digital.

Participas en el grupo de expertos que colabora con el Gobierno para crear un manual de buenas prácticas sobre big data y algoritmos. ¿Cómo debería regularse?

La idea es construir un marco de uso para el contexto espa­ñol, que en mi opinión tiene mucho futuro en la salud, un campo en el que somos refe­rencia. Probablemente haya que regular de forma secto­rial. Mira el caso de la energía nuclear: sus aplicaciones médicas, energéticas y arma­mentísticas tienen distintas normas. Tenemos que poder llegar a codificar nuestros va­lores en aquellas decisiones automáticas o semiautomáti­cas que decidamos que vayan a tomar las máquinas.