Venimos de aquí

En este post continuamos con los bullets o puntos a destacar de lo que recogimos en el pasado 1er Foro Human Brain Project celebrado en Madrid.

-Justo García de Yébenes. Neurólogo clínico.

Su presentación estuvo muy enfocada a mostrar la necesidad de un cambio en la investigación científica. Hizo referencia a la necesidad de compartir y trabajar más en red, así como un giro data-céntrico radical en la investigación científica.

El Human Genome Project, en USA marcó un cambio en la manera de investigar en la Ciencia. Se ha avanzado hacia un esquema más interconectado, abierto y datacéntrico. Inicialmente fue rechazado por la comunidad cientifica en los Estados Unidos, pero salió adelante por el fuerte apoyo del Departamento de Energía de USA. Gracias al Proyecto de la Genética Humana, se han descodificado muchas enfermedades a dia de hoy. En la opinión de este neurólogo, no hay que seguir lo que dicen los popes.

Como punto de partida en la investigación, ya no hay hipótesis sino un dato:

IMG_1010

Imagen: momento de la presentación de Justo García de Yébenes

Necesitamos una manera de investigar distinta a la manera tradicional. Sin cambios en cómo investigamos, no habrá avances en la ciencia.

Identificando las funciones de los genes y variando factores ambientales se pueden comprender mejor enfermedades como la de Huntington.

En el estudio de esta enfermedad, se recabaron datos de 1500 a 15mil pacientes en una red europea de investigación. Había datos como el nivel educativo de los enfermos y de entrenamiento cognitivo en ratones.
Se descubrió que a un mayor nivel de educación había menor trastornos motores y por tanto una menor incidencia de la enfermedad.

Los ensayos clínicos en el marco de una red colaborativa (varios centros y hospitales) hacen posible un volumen, una variabilidad y una aleatoriedad mucho mayores que los esquemas tradicionales de investigación.

Como problemas de la nueva investigación en red, Justo plantea tener en cuenta lo siguiente:

  • ¿Quiénes son los enfermos? El concepto de enfermedad (diagnósticos genéticos revelan enfermedades a 20-30 años) ha cambiado.
  • ¿Quién puede utilizar los datos? Hay que tener garantías, los datos son de los pacientes y la privacidad en temas de salud es fundamental
  • Utilización de datos por parte de entidades con ánimo de lucro.
  • Diferenciar qué es relevante o irrelevante de nuestros data lakes

-Francisco Herrera. Catedrático en Ciencias de la Computación e Inteligencia Artificial (UGR)

Su ponencia se titula ‘Ciencias de datos y Deep Learning: neuronas artificiales para aprender’. Por la temática que aborda y su perfil, fue una de las charlas que más estabamos esperando escuchar en el evento.

Para Francisco, lo que hoy conocemos como Ciencia de datos arranca con el famoso teorema de Bayes, y llega a nuestros días de la mano del data mining.

Existen dos grupos de tecnologías que soportan en la actualidad la ciencia de datos: big data y deep learning.

Deep learning –> redes neuronales y deep architectures (capas de redes neuronales)

¿Por qué es tan importante el deep learning hoy? F. Herrera nos habla de varios casos de estudio para poder comprender la importancia de las técnicas deep learning: Google DeepMind, deepart y un proyecto que ellos están realizando de detección de armas cortas en vídeo.

DeepMind fue comprada por Google hace años.
En sus inicios, empezó como una empresa de deep learning o inteligencia artificial que podía jugar y aprender a jugar juegos de Atari. Ya como Google DeepMind ha desarrollado un modelo de aprendizaje desde cero para jugar al juego de go (chino/coreano). AlphaGo ganó al campeón del mundo de este juego oriental en 2016. Esto es un verdadero hito sin precedentes en la inteligencia artificial, ya que según manifiestan los expertos el juego de go a diferencia del ajedrez o las damas, requiere de una componente de creatividad para poder ganar. Los desarrolladores de AlphaGo aún no tienen claro cómo esta inteligencia artificial pudo aprender por sí sola a ser ‘creativa’. Impresionante.

DSCF4078.0.0

Imagen: Google DeepMind Challenge Match (theverge.com)

Deepart: transformando imágenes en cuadros con estilo de pintores famosos. Un software basado en deep learning permite aplicar a fotos los estilos artisticos de pintores como Van Gogh. El sistema aprende lo que hay en un cuadro y transforma en eso a una imagen dada.

deepart

Imagen: pasos en la transformación de una imagen con deepart.io

Aplicación: detección de armas cortas en vídeo. Es un proyecto en el que ha participado la Universidad de Granada. En un segundo se pueden procesar 5 imágenes distintas y dar una alarma. Se puede aplicar a cctv en tiemoo real o bien a televisiones o películas.

Para Francisco Herrera Yann LeCun, Bello y Hinton, son los tres ‘padres’ del deep learning (link). Todo el universo del aprendizaje automático y la inteligencia artificial está aún en los albores, pero es enormemente prometedor.

(continuará en la 3ª parte del post)