Natalia Díaz Rodríguez, Beca Leonardo 2022 en Tecnologías de la Información y la Comunicación

Obtuvo una Beca Leonardo en Tecnologías de la Información y la Comunicación en 2022

“Hay más riesgo de que nos extingamos por el cambio climático que por la inteligencia artificial”

PATRICIA CONTRERAS TEJADA

Ante la admiración y el respeto que despierta la inteligencia artificial, Natalia Díaz Rodríguez investiga para amansarla. En 2022 obtuvo una Beca Leonardo para estudiar cómo auditar modelos de inteligencia artificial (IA) de predicción de la COVID-19 en radiografías de tórax y de detección de armas en multitudes a partir de imágenes, y acaba de presentar dos investigaciones más en torno a la IA explicable: un manual para fomentar la transparencia en las herramientas de esta tecnología y un modelo realista y fiable para visualizar efectos climáticos. La profesora titular del Instituto Andaluz de Investigación en Ciencia de Datos e Inteligencia Computacional de la Universidad de Granada comparte las conclusiones de sus últimos artículos desde la convicción de que la inteligencia artificial debe informar nuestras decisiones en ámbitos clave como la mitigación de los impactos del cambio climático.

19 diciembre, 2024

Perfil

Natalia Díaz Rodríguez

Pregunta.- Recientemente has presentado un manual práctico sobre inteligencia artificial explicable. ¿Por qué has creído necesario desarrollar esta investigación?

Respuesta.- Las aplicaciones de inteligencia artificial (IA) tienen que ser fiables, según la reciente Ley de Inteligencia Artificial de la Unión Europea y, por tanto, es clave que sean transparentes. A su vez, la explicabilidad es una subdimensión de la transparencia, aunque el nuevo reglamento de IA muchas veces no la menciona porque se sabe que es algo complicado. Por ello, mi equipo y yo creímos necesario abordarla: al final, si queremos auditar las técnicas de IA, sobre todo los sistemas de alto riesgo, necesitamos poder explicar las decisiones para comprobar que son justas, que no discriminan ni sufren de sesgos.

Entonces, yo considero que la explicabilidad es un vehículo para conseguir otros requisitos importantes como son la privacidad, la robustez o la imparcialidad. Además, puede ocurrir que el modelo esté siendo preciso, pero no por las razones correctas, lo cual podría llevarnos a consecuencias inesperadas. Por otro lado, la explicabilidad es un aspecto fundamental a la hora de posibilitar la supervisión humana: ¿Cómo podemos los humanos supervisar un sistema de IA si no podemos entender en base a qué toma sus decisiones?

P.- ¿En qué consiste el manual que has publicado?

R.- Junto con un equipo internacional, propusimos un artículo en el que, dependiendo del tipo de datos que ingiere cada modelo, aplicamos una técnica de explicabilidad u otra. Por ejemplo, si los datos son palabras, las explicaciones se suelen dar en palabras también. Pero si el modelo mira radiografías para diagnosticar enfermedades, las explicaciones más comunes, basadas en píxeles, son mucho menos informativas y solo las personas expertas son capaces de interpretarlas. Por eso propusimos un ejemplo en el que las explicaciones se basan en segmentos más grandes de las imágenes, que es mucho más intuitivo.

Entonces, aunque el manual está diseñado sobre todo para desarrolladores de sistemas de IA que tengan un conocimiento técnico sobre esta disciplina, el objetivo es facilitarles la tarea de desarrollar herramientas que sean accesibles a públicos más generales.

P.- ¿Cómo pensáis llegar a ese público objetivo?

R.- Planteamos usar el manual tanto en escuelas de verano como en asignaturas sobre IA en los estudios de grado  y máster. Creo que puede ser útil tanto a doctorandos como a estudiantes de IA en etapas iniciales, y también a la gente que trabaja en la industria para que puedan aplicarlo a problemas concretos que tengan. Por eso hemos incluido muchos ejemplos prácticos y hemos compartido los datos y el código, que se puede ejecutar y cambiar para adaptarlo fácilmente a otras casuísticas. Todos estos materiales están publicados en acceso abierto, de forma que cualquier persona interesada lo pueda utilizar.

P.- También has publicado otro artículo sobre visualización de efectos climáticos como inundaciones, reforestación y deshielo. ¿En qué ha consistido esta investigación?

R.- Aunque ya hay modelos que generan imágenes artificiales de inundaciones vistas por satélite y son realistas, presentan un gran riesgo de alucinación. Por ejemplo, dibujan agua en zonas donde por altura no se acumularía. Nuestro objetivo era evitar este tipo de alucinaciones para que la herramienta fuera fiable, que, en un plano muy general, es el mismo objetivo que tiene el manual del que hablábamos antes. Entonces, en lugar de partir solo de imágenes satelitales de inundaciones, incluimos también un modelo de ciencias de la tierra.

Como tenemos muchos ejemplos de fotos antes y después de una inundación, si le señalamos a la herramienta el mapa de dónde hay agua y dónde no, acaba aprendiendo a generar agua donde debe haberla. Pero, si no le damos también el modelo de elevación, es muy fácil que alucine y dibuje agua donde normalmente no se acumularía. Por ello, aportando esta información del modelo geográfico, la herramienta aprende cómo son las imágenes de satélite que están por debajo del nivel del mar y sabe dibujar agua en esa parte. Así, se mitiga la creación de alucinaciones, y la herramienta se vuelve más auditable, más correcta y más robusta. Desde luego, tiene sentido que le demos a la IA todo lo que sabemos, todos los avances realizados a lo largo de años de investigación científica.

Una vez que entrenamos la herramienta para inundaciones, la aplicamos también a reforestación y al deshielo en el Ártico.

P.- Esta nueva herramienta, ¿cómo puede ayudar a prepararnos para los impactos del cambio climático que ya estamos viviendo?

R.- La idea principal es que sirva para decidir dónde conviene tener muros de contención, dónde no conviene eliminarlos por construcción especulativa, dónde conviene dejar zonas de vegetación que puedan absorber las precipitaciones… También esperamos que nos ayude a darnos cuenta del impacto de la sequía que, además del propio cambio climático, juega un papel muy importante en las inundaciones. Si se convierte todo en secano y la tierra no puede absorber el agua de lo seca que está, los terrenos se acaban hundiendo, y puede haber viviendas que acaben por debajo del nivel del mar. Esto tiene un impacto a la hora de determinar sobre qué zonas se puede construir y sobre cuáles no se debe, e incluso puede implicar que haya zonas que han sido construibles y que pasen a no serlo.

Deberíamos informar un poco más nuestras decisiones con la IA, porque puede alertarnos de algunos efectos bastante dramáticos que los humanos solos no podemos predecir.

P.- ¿A qué agentes puede serles útil esta herramienta?

R.- Esperamos que les sirva a los planificadores de urbanismo, a los ayuntamientos y a las comunidades autónomas, que otorgan permisos para construir y se ocupan de la preservación del medio natural. También creemos que es útil para los sistemas de alerta, para poder predecir con aún más antelación situaciones como la reciente dana en Valencia. Pero, además, el hecho de visualizar una inundación puede ayudarnos a cualquier persona a hacernos cargo de que el cambio climático es una realidad y está aquí ya: ¿Cómo parecería tu casa si llegara una inundación? Si puedes ver qué partes se inundarían antes que otras en una imagen realista, entiendes que construir en ciertos sitios no es buena idea.

Es necesario que nos planteemos qué hacer ante los efectos del cambio climático, que no pensemos que un desastre como la dana pasa una vez y después podemos olvidarnos de ello. Los modelos de IA nos pueden ayudar y debemos emplear la información que nos dan para prepararnos ante las inundaciones, los terremotos o el deshielo y también para decidir las formas más efectivas de reforestación después de un incendio u otro desastre natural. En este sentido, creo que España debería aprender a apostar más por la ciencia y a mirar por el impacto a largo plazo, porque la Tierra es más fuerte que lo humano y, como no cuidemos el planeta, es cuestión de unas cuantas generaciones hasta que nos extingamos. Hay más riesgo de que nos extingamos por el cambio climático que por la IA, sin duda.

P.- ¿Qué te gustaría que aprendiera la sociedad de tu investigación?

R.- La IA puede ser una herramienta peligrosa, por eso hay que estudiarla y conocerla bien. Debe ser una asignatura obligatoria desde etapas tempranas. Y también puede ser una herramienta maravillosa para ayudarnos a prevenir catástrofes, a poner remedio a los efectos del cambio climático, para la medicina predictiva y personalizada o para la agricultura de precisión. Tiene muchas aplicaciones que nos pueden hacer más eficientes, porque los recursos del planeta se agotan y deberíamos usarlos de manera más inteligente y sostenible. De hecho, la IA actualmente gasta muchísima energía y emite mucho CO2, así que hay que repensar también para qué se usa y cuándo se usa.

 

Accede al archivo de Σ