¿Y si jugamos un poco con los datos espaciales?

img_art_Spatial_Data_Science2

La pasada semana (31-mayo-2018) asistí a unas charlas promovidas por MadridGEO sobre Spatial Data Science. Los ponentes fueron: Ramiro Aznar, Ingeniero de Soluciones en CARTO; y Cristina Palomo-Garo, Científica de Datos en Sngular. Y dejaron otro granito más en esta pequeña montaña de conocimiento que intento hacerme ante la simbiosis Machine Learning + GIS (Geographic Information System) que espero sea fructífera.

La primera charla nos acercó a un grupo, una empresa y un análisis en Spatial Data Science:

1) Primero nos informó de las diferentes actividades de Geoinquietos Madrid. Grupo inquieto y amante de lo “geo” que desarrollan desde charlas amenas y útiles, hasta quedadas más informales como las Geobirras.

2) En segundo lugar, nos presentó a CARTO, empresa española (aunque con con fuerte inversores estadounidenses). Desarrollan sus servicios principales en Location Intelligence (ya se nombró en este blog como tema a seguir en este 2018) muy interesantes y utilizados por diferentes empresas y medios informativos.

3) Y, por último, nos dejó un análisis de datos utilizando la librería para Python cartoframes creada por CARTO, con la cual se pueden representar los resultados espacialmente, así como realizar análisis. Aunque antes nos habló de la importancia de este lenguaje de programación en el Data Science y, concretamente, en su utilización con datos espaciales. Todo ello integrado en la aplicación web más altamente utilizada en este mundillo, Jupiter Notebook.

La segunda charla nos enseñó una fuente de datos abiertos y otro análisis de datos con impronta espacial y todo a través del lenguaje estadístico R:

1) Dentro del portal de Datos abiertos del Ayuntamiento de Madrid nos encontramos con unos denominados AVISA. Son unos datasets que provienen de los avisos ciudadanos sobre incidencias en vía pública recibidos por LíneaMadrid.

2) En el marco de su Proyecto final del Experto en Data Science realizó un estudio de estos datos desde 2014 a 2017. Se analizó desde el medio por el que entró la incidencia (teléfono, oficinas, twitter,…) hasta en que horas del día se hicieron. Y dentro de las temáticas de las incidencias, se detuvo en el análisis espacial de los abandonos de bicicletas de BiciMAD. Demostró con este trabajo la potencia de R, aunque confesó que se estaba decantando por Python ya que dispone de gran variedad de recursos y una comunidad de apoyo importante.

Con esta entrada espero haberte dejado con la curiosidad suficiente como para querer entrar a ver el Máster Online Data Science desde SOYDATA u otro de los itinerarios propuestos.

Un saludo