Curso recomendado

viernes, 2 de diciembre de 2011

Geomarketing - Artículo en el Think Tank "Civismo y Libertad" y más...

Ayer salió publicado un artículo interesantísimo sobre el Geomarketing "Fijando las empresas en el Mapa".

Os dejo el link para que le echéis un vistazo!

http://www.civismo.org/publicaciones/reportajes/fijando-las-empresas-en-el-mapa/

Otro artículo me llega vía twitter a través de donde se habla de Geomarketing político:

http://www.elcorreoweb.es/sevilla/135840/como/buscar/voto

 Un saludo a todos

martes, 22 de noviembre de 2011

Data Mining -"El pico digital" y "DatknoSys"

Hoy os presento el blog "El pico digital", que es mantenido por Oriol Cort; en este blog nos hablan sobre Knime intentando formar el alector así como hablarnos de la evolución de la herramienta y des sus capacidades, que son muchas.

Este blog está hospedado en la empresa DatKnoSys, empresa que se dedica al mundo del analítico utilizando software gpl, en concreto son partners de Knime, que ya es algo.

Siempre es interesante ver como el mundo del análisis de datos con software gpl se va haciendo cada vez más grande, y la verdad es que el tema no para, dentro de poco hasta las grandes empresas utilizarán este tipo de herramientas debido al ahorro en costes que supone, que ya no es un riesgo operativo utilizarlas y que hay técnicos especializados en ellas.

Por ahora felicitar a Oriol y a DatKnoSys por tener el valor de ser de los primeros en utilizar este tipo de herramientas hecho que es una diferencia competitiva insuperable con la competencia. Eso si que no se duerman que seguro que de aquí poco tiempo tendrán más competencia.

Un saludo a todos.



miércoles, 26 de octubre de 2011

Geomarketing - Empiezan las conferencias y notición de IBM

Bueno, ya lo tengo todo preparado para escuchar las conferencias tanto en la ESIC como las de ESRI estos dias, así que espero veros a muchos por allí.

Por otra parte por twitter encontre esta noticia:
 

IBM adds geo-location capabilities to SPSS software 

BM has added the ability to view and analyse data on mapping software to its SPSS Statistics 20.0 tool to help firms take advantage of geographical information.

Big Blue said that the feature allows customers to gain greater insights into data to help with everything from improved advertising campaigns to detecting crime hot spots.
The use of such software in the public sector could be of particular benefit, IBM explained. For example, healthcare organisations could identify areas of high accident or illness, while governments could compare census data and tax information, region by region.
Quocirca analyst Clive Longbottom told V3 that the announcement underlines the growing use of geographical tools in analytics, but that it will be important for IBM to offer up-to-date modules.
"Mapping is moving from the 'wow' factor of being able to look at your own house and the use of sat-nav, to something that enterprises are realising employees can use in a very intuitive manner, and can gain deeper insights into what is happening," he said.
"IBM would like to have control from the low-end to the high-end and SPSS offers such a capability, but it will have to ensure that it offers a fully updated set of geo-data modules as the customers dictate."
Longbottom explained that module updates could be managed through the cloud, which would benefit customers and IBM.
"If IBM wants to do more in the enterprise with geo capabilities, it will need modules providing overlays of all utility pipes and cables, where permanent street furniture is, accurate elevation data sets, modules accurate down to a metre or less and so on," he said.
"With a cloud-based approach, these can all be offered as value-add subscription services, providing a good revenue stream as long as IBM puts in the effort with the modules (or licenses them)."
The announcement from IBM comes after German business software firm SAP announced the integration of Google's mapping service into its analytics software.
IBM's announcement was made at its annual Information on Demand conference, where the firm also unveiled a new InfoSphere BigInsights platform for big data analysis and a dedicated iPad version of its Cognos tool.

 

http://www.v3.co.uk/v3-uk/news/2119787/ibm-adds-geo-location-capabilities-spss-software


martes, 18 de octubre de 2011

Data Mining - ¿SAS en venta?

Hola a todos otra vez, con la esperanza de coger un poco el ritmo de posteo, que entre unas cosas y otra hemos perdido, me haré eco de una noticia que de hace ya unos meses referente al rumor de que SAS está en proceso de venta.

Esta noticia la podemos encontrar en el blog Datanalytics, donde se nos comenta que SAS esta sufriendo mucho el acoso de la competencia en el intento de pasar de ser una herramienta de Analítico a una de BI, y no puedo estar más de acuerdo con la respuesta de uno de los lectores de nuestro blog hermano, SAS está defasado, ha centrado su política en crecer en fucionalidades pero no en mejorar su producto el cual es de eras pasadas.

Por otro lado tenemos rumores de que HP está planteandose comprarla y también tenemos los movimiento de IBM sobre la compra de SPSS que la posicionan en una muy buena situación para convertirse en el nuevo lider del mercado del BI, y por lo que podemos observar no está perdiendo el tiempo a la hora de mejorar sus nuevos juguetes.

Por último tenemos los nuevos dentro del analítico, R, Knime, Rapidminer, etc... que van pisando fuerte y cada vez más son una solución a tener en cuenta.

Como acabrá esto, pues la verdad es complicado, yo apostaría por una compra, no cre de HP, que ahora mismo no tiene rumbo otro de los grandes podría hacer un gran movimiento, aunque ahora sólo nos queda esperar a ver que pasa.

lunes, 17 de octubre de 2011

Geomarketing - Conferencias para la semana del 24 al 28

Bueno, la semana del 24 de octubre tenemos dos grandes momentos para el geomaketing. Por un lado tenemos la conferencia europea de ESRI donde tenemos una charla el Jueves de aplicación de geomarketing en Teléfonica y otra para Euskaltel, y el Viernes un monográfico de geomarketing multisectorial.

El miércoles 26, en la ESIC también hay una conferencia de geomarketing bastante interesante.

Os pongo el resumen de las agendas. Yo intentaré ir, y espero conocer a muchos de vosotros/as.


DIA 26 DE OCTUBRE
 
En ESIC hay una conferencia con la siguiente agenda. Es por la tarde:
 
  • Oportunidades del Geomarketing para el negocio local.
    Enrique Burgos, Director de Marketing de QDQ
  • Reparalia: Gestión avanzada de clientes en tiempos de crisis.
    Miguel Angel Martínez de Marco, Gerente de Marketing Insight de Reparalia.
  • La Caixa: Aplicación práctica del Geomarketing en la gestión comercial de redes y clientes.
    Carlos Treviño, Director de CRM de La Caixa.
  • Pragmatismo: el camino hacia el marketing rentable.
    Miguel Angel Ruiz Calle, Director Desarrollo de Negocio de axesor marketing intelligence
  • Pragmatismo: hacia un marketing de precisión.
    Francesc Cuenca, Director Comercial de axesor marketing intelligence.
 
 
 
DIA 27 DE OCTUBRE (CONFERENCIA EUROPEA DE ESRI). SECTOR TELECOMUNICACIONES
 

Use of Telecom GIS for emergencies & augmented reality
  • Empresa: CTTI
  • Ponentes: Xavier Puig-Farré, Benet Rodríguez-Marí, Joan Carles Guasch-Cananova
 
Euskaltel and GIS

  • Empresa: EUSKALTEL
  • Ponentes: Iñaki Lázaro Cantera

Geomarketing in Services Demand Forecasts
  • Empresa: TELEFÓNICA ESPAÑA
  • Ponente: Juan Manuel Samperio Herrera

Using geoinformation technology in the mobile communication's revenue stream and making value from the cloud based services – Examples from selected European mobile communication providers
  • Empresa: GDi GISDATA
  • Ponentes: Leon Sagovac, Vedran Bubalo and Drazen Jurkovic

GIS applied to mobile technology
  • Empresa: HNIT-BALTIC
  • Ponente: Vidas Groudis
 
FTTx network design
  • Empresa: TELCORDIA TECHOLOGIES
  • Ponente: Laurie Spiegel
 
DIA 28 DE OCTUBRE (CONFERENCIA EUROPEA DE ESRI). SECTOR EMPRESAS
 
Geomarketing and GIS tools for real estate sales planning & financial planning
  • Empresa: AIS APLICACIONES DE INTELIGENCIA ARTIFICIAL
  • Ponentes: Valentín LongatoCuadro de Mando de seguimiento  y Análisis Georeferencial
 
Cuadro de Mando de seguimiento  y Análisis Georeferencial 
  • Empresa: LANTARES

  • Ponente: Oscar Hernández
DYS: Mediapost GIS platform for Relationship Marketing
  • Empresa: MEDIAPOST SPAIN
  • Ponente: Ignacio Rodríguez Rodríguez
Creating Winning Strategies through the use of Location Analytics
  • Empresa: IBM
  • Ponente: Tony Boobier
Geo-Analytics; Harnessing Your Business Intelligence and GIS Systems to business benefit
  • Empresa: Assimil8
  • Ponente: Karl Mullins

Geomarketing - Conferencia Europea ESRI en Madrid

Dentro de la Conferencia Europea de ESRI, el Viernes 28, de 9:00 a 13:00 horas serán las sesiones sectoriales referidas al geomarketing. Yo por mi parte intentaré asistir, así que si alguno acude a ver si tenemos la suerte de conocernos. La agenda será:


9:30 – 10:00
Geomarketing and GIS tools for real estate sales planning & financial planning
AIS APLICACIONES DE INTELIGENCIA ARTIFICIAL
Valentín Longato
10:00 – 10:30
Cuadro de Mando de seguimiento  y Análisis Georeferencial LANTARES
Oscar Hernández
10:30 – 11:00
DYS: Mediapost GIS platform for Relationship Marketing
MEDIAPOST SPAIN
Ignacio Rodríguez Rodríguez
11:00 – 11:30
Coffee
11:30 – 12:00
 MICROSOFT
12:00 - 12:30
12:30-13:00
Assimil8
Karl Mullins
 

miércoles, 27 de julio de 2011

Geomarketing y Data Mining - Concurso basado en R de Nestoria

Me llegó la semana pasada la notica de un concurso aplicando técnicas de data mining con R basado en la geostadística (llamémosle así por el nexo con el geomarketing).

El concurso está basado en:

"Actualmente, Nestoria calcula para cada localidad la media geométrica; elimina los precios que se desvían más de dos veces la desviación mediana respecto a la media geométrica; y reestima esta última sin las observaciones extremas. Los resultados se presentan gráficamente en internet, como en este ejemplo.
Estos cálculos se efectúan con Perl. Los patrocinadores creen que los análisis y representaciones gráficas destinados a visitantes ocasionales de su página web se pueden mejorar considerablemente con la aportación desde el rigor y la creatividad de la estadística.
Por ello, los patrocinadores desean presentar los datos de los precios de viviendas a los visitantes ocasionales de su página web de una forma original, innovadora y fácilmente comprensible para un usuario no especialista en estadística, aportándole información y conocimiento sobre la evolución espacio-temporal de los precios de viviendas.
Con el fin de facilitar la creatividad y el rigor a los concursantes, el Comité Organizador y Nestoria facilitan:
  • los precios de oferta de venta y alquiler de viviendas en ocho países durante un periodo de nueve meses (el dato más reciente es de hace tres meses)
  • código en R para descargar de Nestoria API microdatos de precios de vivienda
  • bases de datos de viviendas
Si se estima oportuno, se pueden complementar estos datos con información adicional de terceros, facilitada por organismos gubernamentales u organizaciones no gubernamentales, como por ejemplo, renta disponible, transacciones comerciales, etc."

Alguno que se apunte que cuente conmigo, encantado de colaborar con quien le pueda interesar!

Mas información en http://www.usar.org.es/concurso_es.php

miércoles, 6 de julio de 2011

Geomarketing - Una foto interesante

Llevo un tiempo sin escribir, lo siento a todos, pero la vida da muchas vueltas y el blog lo he tenido que dejar aparcado por un tiempo. Pero vuelvo con ganas, estoy preparando un post sobre la última aplicación de ESRI para Sales Forces, que enseñaron el seminario de ayer, además de alguna cosa referente a los códigos postales, datos de paro y oficinas de INEM.

Para que veáis que esto del geomarketing no es que se ma haya olvidado os dejo una foto mia, con un mapa en realidad aumentada, y tan aumentada!

Jesús Lagos con su mapa de Madrid

viernes, 1 de julio de 2011

Geomarketing - Aplicación basada en Google Maps

Ya sabéis que tengo especial predilección por Google Maps, y en twitter me ha llegado la siguiente aplicación de Solution MR en Montreal.

A partir de un mapa con zonificaciones, permite localizar y hacer informes de clientes según un área de influencia lineal, selección de un territorio o hacer un itinerario.

Es una versión Demo y la podéis trastear desde aquí

Me parece muy interesante, un poco justita de contenidos, pero cuanto menos un buen desarrollo en Gmaps.

Os dejo algunos pantallazos:








lunes, 27 de junio de 2011

Geomarketing - Video de la aplicación de MediaPost

Muchas veces hemos hablado del avance de las tecnologías de herramientas de geomarketing, y la necesidad del acceso a estas en modo online. Una de estas herramientas es la que usa MediaPost y lo más interesante es la velocidad de carga de datos y visualización que tiene en comparación con otras aplicaciones de tecnología online.

Os dejo el video:






martes, 10 de mayo de 2011

Geomarketing - Las cápsulas de Nespresso

Tengo costumbre de leer los periódicos valencianos diariamente para ver lo que ocurre en mi tierra y hoy destaco una noticia sobre las ventas de cápsulas compatibles con cafeteras Nespresso ahora que ha acabado la patente. En dos días las tiendas Consum han vendido la friolera de 130.000 cápsulas. ¿Por qué? ¿Por el precio? Según he visto el precio es un 10% menor en un producto que no vale más de 4 euros. Vamos para mí irrisorio. El problema es la distribución, el canal internet para este producto en España no tiene el uso que en otros paises (parecido al rollo Foursquare del que hemos hablado alguna vez) y las tiendas son de puro branding, encaminadas a la imagen y no a la venta, situadas en buenos locales, pero para un producto "diario" para el español. Uno para comprarse unos zapatos pues se baja al centro, pero ¿para comprar  café?

Los nuevos canales de venta están haciendo mucho daño a Nespresso, aunque algo me dice que Nespresso está tomando cartas en el asunto y puede sorprendernos.

Me quedo con algunas reflexiones que he visto en la red (calidad baja pero compra fácil)

"Pues la misma opinión que todos. Lo compré, lo probé, no me gustó. El café es peor, el precio casi idéntico, pero me ahorro ir hasta el centro de Valencia y hacer cola por las capsulitas, o tener que ir a correos porque no estabamos en casa cuando las llevó el cartero y por tanto hacer cola por las capsulitas ...... Si se vendieran en cualquier sitio, todo el mundo compraría las originales, pero te venden la cafetera casi en la tienda de los chinos pero para comprar el café te toca ir a alguna de las 3 únicas tiendas que hay en Valencia.... Resumen, seguiré comprando las de consum, mi tiempo vale más que tomarme un café u otro."


"Las colas interminables y esperas largisimas para la compra de un producto de alimentacion deberian ser cosas del pasado (los mayores como yo recordaran entre otras las colas de las panaderias de guardia los domingos), he probado las capsulas de Sara Lee y bajo mi opinion son muy inferiores en calidad a las de Nespresso, pero el hacerse una cola-espera de 30 o mas minutos para la compra de cafe, teniendo tan a mano las de Consum, creo que es para que Nespresso recapacite y ofrezca sus capsulas en cualquier establecimiento y no mantengan un monopolio que deberian estar ya todo olvidados y enterrados"



viernes, 6 de mayo de 2011

Geomarketing - Noticia sobre Carrefour

Si hay un sector sensible al geomarketing no es otro que el retail. Tener en tu cartera de clientes a empresas como Carrefour es el sueño de toda empresa que se dedique a esto, por ejemplo una entrevista aparecida en el diario Expansión Ed. Galicia a Jesús Bermejo (Director de Tiendas de Proximidad) comenta que en este año van a duplicar el número de tiendas en España, en épocas de crisis como estas empresas que sigan creciendo geográficamente (económicamente es otro tema) hay pocas. Pues bien, Carrefour durante el mes de Marzo ha seleccionado la solución GeoDashBoard de Galileo para el control de tiendas, expansión y desarrollo y marketing directo de la cadena.

Esta solución es un sistema que engloba en una único viusalizador los mapas provenientes de tecnología ESRI (ArcGIS Server), Flex, además de permitir la comunicación con SAP B. Objects, IBM Cognos o Microsoft B.I.

Yo de todas formas sigo sin ver el tema de aplicaciones centralizadas para grandes empresas. La normalización de datos en cada pais es diferente, por no hablar de la unidad geográfica, en España la ss.cc, en Francia las "communes" o en UK los "wards", además de que en cada pais los datos publicados son diferentes. Una empresa que tiene datos para toda Europa es Gfk Emer, pero la unidad más usada es el código postal, que aquí en España solo le sirve a Correos. Aunque muchas empresas lo pidan como IKEA, MediaMarkt o PcCity luego tienen muchos problemas para poder sacar algo en claro.




jueves, 5 de mayo de 2011

Geomarketing - Datos Catalanes con Tecnología Google

Me sigo haciendo eco de cosas publicadas que he leído hoy. En la siguiente Web podemos ver con la tecnología de Google Public Data Stores datos de indicadores de los municipios de Catalunya. Para mi lo más interesante es la posibilidad de poder ver datos con escala temporal con una barra inferior. Este tipo de herramientas la englobaría dentro de los visualizadores de datos, como las de TargetMap o Tuent. 

Os pongo unas imágenes curiosas, donde he representado la variables "habla el Catalán" con colores, y "entiende el catalán". Con el paso del tiempo el idioma del catalán es sencillo entenderlo, mis abuelos y mi familia, provenientes de La Mancha entienden perfectamente el catalán (o valenciano en este caso. Abstenerse discutidores de este tema, para eso hay otros foros)  en cambio hablarlo es otro tema (un pequeño guiño a mi querida madre con su "tanca la port"). 

En la imagen podemos ver que los municipios en colores rojizos son aquellos donde la población sable hablar catalán entorno a un 70-75% de la misma, en cambio en azul-verde vemos datos entorno al 60%. Como podéis observar todos los globos son del mismo tamaño, un 90% de la población entiende el catalán.

Como decía lo interesante viene con la barra temporal. Los datos anteriores son del 2007, en cambio en 1991 la cosa cambia. Barcelona se mantiene en las mismas cifras, en cambio en Hospitalet la cifra es del 52%  para los que saben hablar. Además de poder visualizarlo en un mapa, lo que lo hace intuitivo de por si, también podemos verlos con gráficas. Algún que otro dato curioso es en Hospitalet de nuevo. En el gráfico de burbujas vemos los que entienden, los que saben hablarlo y los nacidos en el extranjero en %. Es curioso ver como en la relación 2001-2007, a pesar de que el % de extranjeros ha aumentado de un 5,7% a un 21,4% los valores de los que saben hablarlo son del 74%. Aquí podemos ver como las políticas lingüisticas en Cataluña están dando sus frutos.

Aquí podéis jugar con los datos de manera interactiva (Gracies Xavier)






Geomarketing - Policy Maps

Desde el Blog de GisPoint (Juancho Sierra) nos llega una aplicación más que interesante. Se llama Policy Maps y pertenece a The Reinvestment Fund (TRF). Es una herramienta ideal para la consulta de datos y la generación de mapas temáticos. Lo que más llama la atención a primera vista es la infinidad de datos que nos permite seleccionar. Los que estamos acostumbrados a las herramientas de geomarketing en España sabemos que la información de la que disponemos no pasa de (a sección censal):

  • Censos de Población y Vivienda. El Censo con más información, pero del 2001, totalmente desactualizado.
  • Padrones municipales donde sólo sabemos la población por sexo, edad, país de origen y nacimiento.
  • Tipologías de hogares, como capacidad económica, clase social, etc.
  • Tipologías Zonales, como atracción turística, ocio, etc.
  • Fuentes de datos como páginas amarillas para negocios, o Camerdata y Einforma.
  • POIS, que cada proveedor se fabrica la suya y no está disponible así como así. Por ejemplo Navteq no pasa de 100.000 puntos, mientras en arvato services llegué a usar más de 1 millón.
  • Otras como resultados electorales.
Fuera de esta información es muy costosa la adquisición de nuevas bases de datos, como la de transeúntes, poco actualizada y muy cara, y cuando la ves pues te entran muchas dudas al respecto. Luego a la hora de obtener más información pues en España con las administraciones descentralizadas la búsqueda de información es más que costosa, porque por ejemplo Madrid publica mucha información e incluso descargable en formato GIS, en cambio Valencia, hay que casi pagar por todo, lo que va encareciendo el producto.

En cambio Policy Maps, en su versión de pago, por 2.000$ al año (licencia sencilla, aunque también la hay gratuita con menos información y herramientas) nos ofrece información como:
  • Real Estate: Precio medio de viviendas, o por franjas de precio, número de ventas, etc.
  • Datos de Barrios como datos culturales (curioso el salario medio de un fotógrafo), energía como el porcentaje de hogares que usan energía eléctrica, crímenes, etc.
  • Datos financieros, como montante medio de hipotecas por raza en una zona (he visto una zona donde los asiaticos doblaban a los blancos...)
  • Datos de educación
  • Ingresos por edad, raza, devolución de impuestos...
  • Demográficos clásicos además de "sin techo", religión,...
  • Análisis propios de TRF como accesos (en manhatan el peor acceso lo tiene chinatown)
  • Y paro porque necesitaría 3 posts para contar todo
Lo mejor es que paséis por la herramienta y la trasteéis. Además de los datos que tiene, que para mí siempre es o más importante, la tecnología que usa es rápida y robusta, además permite el uso de sus APIs para obtener información, y como no el precio. ¿cuánto tiempo y dinero costaría esto en España? 



miércoles, 4 de mayo de 2011

Geomarketing - Las zonificaciones ¿un problema resuelto?

Una de las aplicaciones más importantes que tiene el geomarketing y su aplicación en la empresa es la zonificación. Algunos software de GIS, intentan dar solución a este problema con algunos módulos o herramientas que permiten zonificar en base a algunas variables. Por ejemplo, Sales & Marketing de GeoConcept permite crear zonas a partir de áreas de influencia para los establecimientos o la presencia de clientes. GeoSTAT de arvato services, usando MapInfo también permite labores de este tipo. Pero el problema típico que se plantea una empresa para zonificar un territorio puede ser muy variado y como no muy problemático. Otras posibilidades manuales son Gardow y Redistrictthenation.

Imaginaos por un momento una empresa con una capacidad comercial elevada, con más de mil agentes en la calle vendiendo sus servicios y productos, con un histórico de ventas y de clientes que se pierden en la línea del tiempo, y con unas zonas comerciales que no casan con la realidad geográfica, agentes que tienen pólizas en otras zonas de otros agentes comerciales y además ya tienen de manera histórica unas zonas geográficas de ventas realizadas sin el uso de la componente geográfica.

Como es lógico, lo primero que uno se plantea es una recarterización, es decir, dar a cada uno lo que tiene en su zona, pero claro, imaginaos el tema de comisiones, clientes, etc. como puede variar en una organización grande. Para ello, lo mejor, más que recarterizar, es poder zonificar a partir de variables como número de clientes, comisiones, ventas, etc. y teniendo en cuenta la realidad geográfica presente (como no, la sección censal), y la pasada, las anteriores zonas que ya tiene la empresa en cuestión. Con esto permite crear nuevas zonas, y cuantificar las desviaciones entre la nueva situación y la pasada, y poder de manera manual, ajustando los modelos que esta nueva situación sea lo más parecida a niveles económicos de la pasada.

Bueno hasta aquí la verborrea, y ahora al tema. El geomarketing me ayuda, perfecto, pero ¿cómo? Ya os he hablado en varias ocasiones de la web Spatial Data Mining de la Universidad de South Carolina que conjuntamente con la Universidad de Illinois con su geoda center son las más prolíficas en este sector. Hace algún tiempo ya dieron alguna noticia sobre un nuevo desarrollo, un software llamado IRedistrict. Por suerte ya está disponible una versión de evaluación para que la podáis trastear.

A grandes rasgos este software permite:

  • Tener en cuenta la geografía mediante la adyacencia de los polígonos para poder generar zonas lo más compactas posibles y evaluarla según el índice de Polsby y Popper (valor de 1 es un círculo perfecto). 
  • Equidad de variables, como por ejemplo el número de clientes o el volumen de comisiones.
  • Mayoría-Minoría. Por ejemplo si tenemos en cuenta que no todos los clientes son iguales, y que hay diferentes segmentos que alguno de ellos no se diluya respecto a otros. Esto viene de las normas electorales estadounidenses.
  • Límites territoriales como provincias, municipios, etc.
  • Comunidades de interés. nos permite introducir en los modelos zonas de agrupaciones de inmigrantes para que las zonas sean las más homogéneas posibles.
  • Agrupaciones culturales. Por ejemplo zonas que compartan una lengua propia como puede ser el aranes.
  • Usa 7 algoritmos diferentes para encontrar la solución óptima como el de Greedy, o el de Kernighan-Lin.
Con todas estas variables el software permite realizar simulaciones diferentes donde el usuario puede analizarlas y compararlas, analizando la desviación según una variable y poder elegir la que mejor se adapte a los requisitos. 

Creo que este software puede ayudarnos a todos a realizar un trabajo mucho más eficaz y eficiente a la hora de abordar un proyecto de zonificación. 

Estas son algunas imágenes del software:







martes, 15 de marzo de 2011

Geomarketing - Lecturas recomendadas

Ya son muchos los blogs que abordan la temática del data mining y el geomarketing en la blogosfera. Y lo mejor es que el nivel es muy alto, por lo que no me cabe otra que en primer lugar felicitar a los blogueros y daros a conocer noticias publicadas en ellos por si no habéis tenido la suerte de encontrarlos.

En el Blog de la empresa UNICA360, que gestiona nuestro amigo Guillermo Cordoba, tenemos dos posts interesantísimos que recomiendo totalmente su lectura. El primero sobre Análisis RFM en el retail, el cual voy a suar de base para una adaptación con Knime y MapBasic, siguiendo con la línea del anterior post. El segundo sobre la predicción de gasto en libros, muy interesante, sobre todo, si Direct Group está en tu grupo empresarial.

Enhorabuena Guillermo por estos dos posts!

El siguiente Blog es del Juancho Sierra, donde nos muestra dos aplicaciones interesantísimas sobre consulta de datos censales en Estados Unidos. Ójala en España el INE se lance a este tipo de difusión, aunque viendo el negocio de vender esta cartografía dudo que algún día lo haga. En estos links podéis ver las recomendaciones de Juancho. Os linkeo a su blog para que desde allí las veáis, que menos por su fantastico trabajo que paséis por él!

El tercer Blog es un descubrimiento, es el blog GeomarketingValencia, de David Piles. En él encontréis tres posts interesantísimos sobre el estudio del Potencial Económico de una zona.


Desde el blog de GeomarketingSpain os recomendamos estas lecturas, y que sigáis a sus autores, nosotros ya lo hacemos!

jueves, 10 de marzo de 2011

Geomarketing - Integración de knime con MapInfo - MapBasic

El mundo del data minning del que Paco es un verdadero experto siempre me ha quedado un poco lejos, pero gracias a herramientas como KNime voy conociendo un poco más el "mundillo" de la minería de datos.

Y la primera sorpresa que me he llevado ha sido la facilidad para integrar modelos directos, desde un fichero de entrada como pueden ser clientes, aplicarles el algoritmo de kmeans para segmentarlos a partir de valores de negocio y datos sociodemograficos. Evidentemente que este tipo de técnicas requieres de manos expertas, sobre todo para analizar los resultados, pero que menos que poder explotarlo de manera visual en un mapa.

Pues eso he hecho, me he creado un pequeño flujo de 7 nodos, para aplicando K-means y C-means para comparar resultados. Luego desde MapBasic me he creado un menú de conexión a knime, donde ejecutar en modo batch el flujo a partir de tablas que tengo en mapinfo y realizar mapas temáticos.


Por si os interesa os dejo el chorro de código que le paso para ejecutarlo en modo batch desde MapBasic. Lo que hago desde MapBasic es:

Include "MAPBASIC.DEF"
Include "MENU.DEF"

Declare Sub Main
Declare Sub kmeans
Declare Sub Mapa

'genero el menú para tenerlo en MapInfo
Sub Main
    Create Menu "knime" As
        "Segmentacion" Calling kmeans,
        "mapa tematico Segmentacion" Calling Mapa

Alter Menu Bar Add "Knime"

End Sub

Sub kmeans

'Exporto la tabla de clientes para enchufarla al knime como parámetro en opción del nodo
Export clientes_ok Into "E:\knime2\clientes.TXT" Type "ASCII" Overwrite Delimiter "|" CharSet "WindowsLatin1" Titles
'lanzo en modo batch el knime, como véis le paso como parámetros en el option=1 (nodo 1) el fichero que acabo de exportar

'y en el nodo 4 y 7 las dos salidas del modelo para luego levantarlas más adelante, se puede parametrizar el numero de 
' iteraciones y datos a usar en cada algoritmo
Run Program "cmd.exe /c"+" E:\knime2\knime_2.3.1\knime.exe -consoleLog -nosplash -application -noexit org.knime.product.KNIME_BATCH_APPLICATION -workflowFile=E:\knime2\MapInfo2.zip -option=1,DataURL,"+"file:E:\knime2\Clientes.txt"+",String -option=4,filename,"+"tmp/Clientes_kmeans.csv"+",String -option=9,filename,"+"tmp/Clientes_cmeans.csv"+",String"

End Sub

Sub Mapa

'El resultado lo abro y lo paso a TAB directamente
Register Table "E:\knime2\tmp\Clientes_kmeans.csv"  TYPE ASCII Delimiter 44 Titles Charset "WindowsLatin1" Into "E:\knime2\tmp\Clientes_kmeans.TAB"
Open Table "E:\knime2\tmp\Clientes_kmeans.TAB"
Register Table "E:\knime2\tmp\\Clientes_cmeans.csv"  TYPE ASCII Delimiter 44 Titles Charset "WindowsLatin1" Into "E:\knime2\tmp\Clientes_cmeans.TAB"
Open Table "E:\knime2\tmp\Clientes_cmeans.TAB"
'uno las tablas de manera dinámica para luego hacer el temático
Add Column "clientes_ok" (Cluster_kmeans Char (9))From Clientes_kmeans Set To Cluster Where COL1 = COL1  Dynamic
Add Column "clientes_ok" (Cluster_cmeans Char (9))From Clientes_cmeans Set To COL13  Where COL1 = COL1  Dynamic
'shade window Frontwindow() 1 with Cluster_kmeans values  "" Symbol (34,16711680,12) ,"cluster_0" Symbol (34,65280,12) ,"cluster_1" Symbol (34,255,12) ,"cluster_2" Symbol (34,16711935,12) ,"cluster_3" Symbol (34,16776960,12) ,"cluster_4" Symbol (34,65535,12) ,"cluster_5" Symbol (34,8388608,12) ,"cluster_6" Symbol (34,32768,12) ,"cluster_7" Symbol (34,128,12) ,"cluster_8" Symbol (34,8388736,12) ,"cluster_9" Symbol (34,8421376,12) default Symbol (40,0,12) style  replace  off 
End Sub





Pues de una manera sencilla obtenemos una segmentación en un mapa temático usando un programa de data mining como knime. Os dejo algún pantallazo:






martes, 8 de marzo de 2011

Data Mining - Rstudio

La verdad es que el compañero Carlos ya se nos adelantó en su blog al dar la noticia, había nacido un nuevo IDE free para R, Rstudio. Me miré el post y me apunté mentalmente darle un vistazo a fondo al programa, cosa que aún no he podido hacer...

Hasta aquí lo normal, pero revisando los post que tenía por leer me he dado cuenta que en la comunidad de R ha pegado muy muy fuerte, he podido leer posts en multitud de sitios sobre la bondades de este nuevo IDE; la verdad es que por ahora, y según lo que yo he podido ver, no aporta mucho más que, por ejemplo, JGR; cierto es que permite hacer artículos científicos de manera más fácil e integrada, pero a parte de eso yo diría que son prácticamente iguales; bueno mirando un poco más de cerca permite que se instale en un linux y poderte conectar via web al IDE... no es mala opción si lo que quieres es trabjar con un servidor potente en el cual no estás físicamente delante.

Sinceramente hasta que alguno de estos IDE's no integre la debugacción de código estaremos algo cojos de interface... no se si habéis intentado debugar algo en R... es un ejercicio que medirá el nivel de paciencia que tenemos, y si me no creéis intentad lo. Esto siempre hablado en software libre, por que Revolution Analytics ya tiene una IDE que integra debugación y, si las noticias son ciertas, esta trabajando en una interface mucho más visual, digamos que muy cercana a Clementine.

De todas maneras no quiero se escéptico, a ver si por una vez por todas conseguimos que se haga un IDE más amigable para R, que sea multiplataforma y que cubra todas las necesidades que un buen IDE debe tener... ¿será Rstudio este? el tiempo nos lo dirá.

Eso si, está claro que es mucho más bonito que la línea de comandos de R...


viernes, 4 de marzo de 2011

Geomarketing - Feria GlobalGeo

En Barcelona del día 15 al 17 en Barcelona se va a celebrar la 5ª edición de la Feria GlobalGeo.

Si bien por lo que he visto en las ponencias, jornadas y trabajos presentados el geomarketing aún no se presenta como herramienta de apoyo a la empresa, se vuelve a manifestar la importancia de las soluciones LBS en el mundo móvil. Prueba de ello es la ponencia sobre Google Maps.

Respecto al Geomarketing (cabe destacar que para mí Geomarketing no es LBS, ni Facebook Places ni nada del estilo) , lo más parecido que he podido encontrar es una ponencia de ESRI sobre CRM Territorial. Realmente dentro de este nombre "CRM Territorial" ESRI esconde una propuesta muy parecida a la de la empresa amiga TUENT, con sus formatos @participa y @comunica



jueves, 3 de marzo de 2011

Data Mining - El motor de recomendación Mirotele.

Hace nada, en una de las respuestas de un post, una compañera llamada "Precaria", indicaba que había empresas españolas dedicadas a los motores de recomendación, el problema es que no había demanda del mundo empresarial, a lo que yo discrepaba un poco.

Pues la primera en la frente, hace nada en el blog de tecnología Xataka nos habla que Samsung nada menos ha apostado como recomendador de programas de televisión para sus compradores en Mirotele; esto ha sido posible al hecho de que Samsung ha creado un concurso a nivel internacional para buscar las mejores aplicaciónes para "hacer" a la TV inteligente donde esta aplicación ha conseguido hacerse un hueco.

Si no he leído mal esta aplicación ha sido apadrinada por la universidad de Málaga y parece ser que su cara visible es David Bueno Vallejo; también la misma aplicación tiene un blog por si quereis más información sobre su creación.

Pocas veces la realidad me ha corregido tan rápido sobre un comentario hecho, y pocas veces me ha importado tan poco, ojalá proyectos como este llenen nuestra vida en el futuro.

martes, 1 de marzo de 2011

Geomarketing - Un nuevo blog - GeoMk.com

Hoy en twitter he encontrado este nuevo blog de geomarketing GeoMk.Com de Mónica Medina. Te deseamos mucha suerte en esta aventura y estaremos al tanto de tus novedades.

Por otra parte os dejo un link a una noticia interesante, sobre Domino's Pizza en Brasil.

http://www.mundodomarketing.com.br/8,14537,domino-s-projeta-crescimento-em-sp-baseado-em-geomarketing.htm

lunes, 28 de febrero de 2011

Data Mining - Knime se alia con consultoras

Unas de las máximas de los vendedores de herramientas de análisis de datos es que la venta de su herramienta si no va acompañada de consultoría especifica es muy difícil, y más si esta herramienta es nueva y más todavía en un campo tan técnico como el de la modelización y el análisis de datos.

Esto ya pasó antiguamente con las grandes, SPSS y SAS, que ya fuera vía alianza con una consultora o creando un departamento propio que se encargara de la consultoría.

Creo que mirando este punto Knime se ha aliado con Dymatrix para enlanzandose con una herramienta propia se pueda automatizar el entreno de los modelos de minería de datos, por otro lado Dymatrix también permite también enlazarse con Adapa de Zementis (una herramienta sobre la que hace ya meses que quiero hablar), encargándose esta última de dar un soporte a la explotación de los modelos, ya sea en la nuve o sobre el hardware que tenga la compañía.

La verdad es que lo de automatizar el analítico siempre ha sido un caballo de batalla de diferentes consultoras, por mi experiencia, es posible, pero siempre que esté supervisado por un técnico, ya que muchas veces las necesidades de las compañías cambian con el tiempo y este tipo de desarrollos se encarga de mantener los modelos definidos de inicio. De todas maneras siempre es interesante que diferentes empresas interactúen entre ellas para dar un mejor servicio, y sobre todo que se poco a poco existan herramientas que utilicen el PMML de una manera óptima, haciendo que no sea necesario la herramienta de análisis, normalmente tremendamente cara, a la hora de la explotación.

miércoles, 23 de febrero de 2011

Data Mining - Empresa brasileña de motores de recomendación

Trasteando por la red he encontrado una empresa Brasileña de motores de recomendación Chaordic Systems.

Por lo que he podido ver esta totalmente orientada a este tema, aunque también parece que hace minería clásica orientada a la venta. Desde aquí les deseo toda la suerte posible y que tengan un gran futuro... eso si, a ver si traducen la web.

Lo mejor es que poco a poco van surgiendo empresas que cubran este tipo de necesidas, lo peor, es que aquí no surjan empresas como estas que tienen un potencial increible...

lunes, 21 de febrero de 2011

Data Mining - MADlib libreria para hacer Data Mining en BBDD

Ya cada vez más tenemos todo tipo de iniciativas, la última y que más me ha llamado la atención es MADlib.

Hace ya unos años todas las empresas de BBDD añadieron algoritmos de minería a sus distribuciones, me acuerdo que teníamos más de una discusión sobre si era por que quería orientarse la empresa al analítico o por el hecho que sus divisiones de analítico no habían conseguido cuajar y aprobechaban el trabajo hecho dando alguna funcionalidad más a sus productos estrella; la verdad es que no he visto ningún proyecto de analítico que tuviera como soporte este tipo de software...

Ahora con MADlib tenemos más o menos lo mismo pero en software libre, una librería para hacer en BBDD, en concreto parece que en principio la BBDD GPL que lo soporta es PostgresSQL, aunque parece que también soportará a Greenplum, una BBDD propietaria que no tenía este tipo de servicios; en si parece que Greenplum se ha asociado con "Data Research Group" de la universidad de Berkely para desarrollar esta funcionalidad.

En lo que respecta a la utilidad, pues la verdad dudo que llegue a suplir la necesidad de algún software de análisis de datos a la hora de construir modelos, sinceramente considero mucho más interesante tener la capacidad de explotarlos, es decir, de importar modelo en PMML y explotarlo y no me extrañaría nada que al final esta herramienta se le añadiera esta capacidad, es más, creo que es un objetivo final ya que está en una fase muy inicial de desarrollo y todavía no se sabe hacia donde derivará.

Siceramente si al final es capaz de explotar PMML, si se le da soporte a más BBDD (uno de los puntos donde dicen que tienen que crecer) podría convertirse en una herramienta muy interesante dentro del mundo GPL, si no coge este camino dudo que tengamos más noticias sobre él.

martes, 15 de febrero de 2011

Geomarketing - Segmentación de Precios (Blog de marketisimo)

Acabo de leer el post de "Cómo incrementar las ventas segmentando los precios" del Blog de Marketisimo.

En el post nos cuentan siete estrategias para la segmentación de precios y la repercusión en el beneficio. Creo que en todas de ellas se puede buscar una relación con el mundo del geomarketing, os dejo algunas reflexiones de algunas de ellas, que estoy seguro que podéis completar con más opiniones.

Estr.1. Carácterísticas del consumidor. Incide en variables demográficas que influye en el proceso de compra y sensibilidad al precio con el uso de cupones. Como comentan en el post, la ocupación o la edad son importantes para ofrecer precios diferentes de un mismo producto, cada segmento un precio, ¿pero como lo aplicamos en el punto de venta? Analizando localmente en cada punto de venta estos segmentos, y adecuando no el precio del producto a un segmento simplemente, si no la oferta a cada punto de venta. Es evidente que para adecuar tu oferta a cada segmento, tienes/debes que conocer a los consumidores que te rodean, que van o que pasan por tus diferentes puntos de venta, e incluso segmentar éstos para adecuarlos a los segmentos de consumidores. He aquí un gran ventaja para las empresas el uso del geomarketing para conocer a sus consumidores y adecuar su oferta.

Estr.2. Lugar de Compra. Hace referencia al nivel competencial, adecuando los precios según la competencia en el lugar de compra. Creo que este punto es el más claro en la relación con el geomarketing, aunque se puede hilar más fino, analizando la competencia, su impacto, cuotas, y marca, cosas muy sencillas de analizar con el geomarketing y muy estudiado en el mundo del retail y cadenas de distribución.

Estr.3. Momento de compra. Explican el uso de series temporales para la predicción de compra de billetes de aerolíneas. Que decir tiene la importancia del data mining para este tipo de estrategias. También con el geomarketing podemos analizar a partir del punto de venta como puede evolucionar o como podemos segmentar nuestro negocio.






domingo, 13 de febrero de 2011

Data Mining - Entrevista al creador de los motores de recomendación.

Si os hablo de Andreas S. Weigend se muy posible que nos os despierte nada ese nombre, pero si os digo que fue el creador del motor de recomendación de Amazon, la cosa ya toma otro color.

Este señor no contento con crear, bajo mi punto de vista, el primer motor de recomendación funcional en la web, en el 2004 se desvincula de Amazon y se pone por su cuenta a "estudiar la gente y los datos que generan", ¿tendremos que acunar esta frase a la hora de definir nuestro trabajo? yo la verdad creo que es muy acertada.

En la entrevista que le hacen en el blog del pais nos habla sobre el futuro del análisis de la información, donde parece que cree que el móvil será el nuevo captador de información de calidad y útil.

Esta opinión suya en un principio me hizo dudar un poco, ¿móvil? estoy acostumbrado a trabajar con increíbles cantidades de variables de individuos, pero ¿trabajar con redes de relaciones?... no lo tenía del todo claro. Luego el maestro lo aclaró, el móvil sabe donde estamos en cada momento, que páginas vemos, a que mensajes les prestamos atención, si cogemos un tlf a una persona o no, el tono de nuestra voz, que aplicaciónes nos interesan... y un largo ect.

La verdad es que tiene toda la razón del mundo, pero hay un pero, la gente que tiene un móvil para llamar y punto, en la cual me incluyo, no creo que el móvil sea tan importante, por lo tanto creo que este tipo de mediciones tendrá una importancia en la gente más geek, pero en el resto de los mortales yo no lo tengo tan claro.

De todas maneras el maestro ha hablado estoy seguro que en el futuro, cuando los móviles sean medios de pago extendidos y todo el mundo pueda permitirse un móvil con conexión a internet técnicas diseñada para estudiar las redes de relaciones que se generen serán muy necesarias.

Y vosotros que opinais?

jueves, 3 de febrero de 2011

Data Mining - SAS contra las cuerdas por Pentaho

Que los enanos que le estaban creciendo a SAS están ya en la universidad y que apuntan maneras no es ningún secreto, en concreo tenemos a WPS, que según nuestro compañero Raúl Vaquerizo del blog Análisis y Decisión nos permitiría una migración a una solución mucho más barata es totalmente factible y que conste que Raúl es un experto en SAS.

Por otro lado nos tramos noticias como la siguiente donde nos van haciendo una analogía entre SAS y el mundo del software libre; hya un punto muy interesante que es la comparación de la posición de Microsoft con respecto a Linux, donde Bill Gates decía que el software libre no cubría las necesidades de un usuario profesional y que sería sólo utilizado por aficionados; lo mismo pasó cuando surgieron las bases de datos libres... ya ahora es SAS que el software libre no se puede utilizar en su negocio...

Es muy intereante la gráfica sobre el nivel de búsquedas de SAS frente a Pentaho que nos encontramos en el articulo antes mencionado; si fuera el CEO de SAS estaría muy pero que muy preocupado.

Es cierto que a nivel profesional sólo SPSS (o IBM) puede competir con SAS a nivel analítico, que los clientes de SAS normalmente son clientes que búscan un software analítico y que esto todavía lo tiene que mejorar mucho Pentaho (también hay que recordar que adquirio WEKA por lo tanto está en ello), pero también es cierto que hay otras soluciones para suplir ahora mismo esta deficiencia, el siempre comentado R, y si no recuerdo mal estaban trabajando en enlazar R con Pentaho con algún resultado ya.

Por otro lado recordar que también se puede utilizar soluciones muy comentadas en este blog como son Knime y Rapidminer para solucionar la parte de minería de datos dejando Pentaho para temas de reporting, cubos, carga de BBDD...

Primero fueron los sistemas operativos, luego las BBDD, continuaron con los desarrollos de middlware... parece que ahora ya le toca al BI y a los desarrollos analíticos ¿no creéis?

lunes, 31 de enero de 2011

Data Mining - Nuevo libro gratis Clever Algorithms

Hola a todos,
esta vez os traigo informacion sobre un nuevo libro GRATUITO (por lo menos por ahora) que acaba de salir al mercado, Clever algorithms.

Se trata de un compendio donde se reunen todos los algoritmos estocasticos de optimización que te puedas imaginar, en total hay 45 descritos enmarcados en diferentes categorías (algoritmos geneticos, redes neuronales...).

Destacar también que se encuentran algormitmos englovados dentro Swarm Algorithms y Immune Algorithms. La verdad es que durante un tiempo me interesé por esto dos tipos de algoritmos de optimización y no encontré nada, aunque hay que reconocer que yo soy estadístico no un programador de IA.

Espero que lo encontreis interesante, yo en cuanto tenga un respido le pienso dar una oportunidad, sobre todo me tiene intrigado el hecho que han copiado el modelo de respuesta inmunológica para optimizar funciones.

miércoles, 5 de enero de 2011

Geomarketing - Apertura Mercado en la Milla de Oro de Madrid

Hoy sale publicada una noticia en el diario "el mundo" con la nueva apertura de un mercadona en el céntrico y prestigioso ABC Serrano.

Lo primero que hemos hablado está claro, ¿mercadona en una zona de este nivel? Bueno, si buscamos en la base de datos alimarket muy cerca hay un Supermercado El corte Inglés y un Caprabo (digamos gama alta de supermercado) pero también hay dos supermercados DIA% (uno del tipo Market).


 ¿y cuales son los principales comercios del ABC Serrano? Pues en la ficha de la AECC (Asociación Española de Centros Comerciales) tenemos que compartirá espacio con Zara, Mango, Musgo, Douglas, Adolfo Dominguez, e Imaginarium como principales enseñas. Creo que el espacio que ocupará Mercadona será el de Zara, pero está sin confirmar, por el tema de espacio (el local que dicen que ocuparán es de 1500m2 lo mismo que el de Zara).

Para mi es sorprendente que Mercadona apueste por este tipo de ubicación, aunque si es cierto, que en esa zona no estaba presente. Para mi que mercadona está empezando a ser consciente de su buena imagen de marca, y ha decidido dar el salto a zonas potenciales antes no prioritarias.

¿no responderá al sorprendente nivel de compras on-line que recibe de la zona centro de Madrid? Debajo de mi casa, zona las Tablas, hay un Supermercado Madrid y un Ahorra Más, y siempre que llego me encuentro con el repartidor de Mercadona, desde Sanchinarro (3-4 km). ¿está cambiando el modelo de compra en los supermercados?¿qué porcentaje de compra online supone en la facturación en las grandes ciudades? ¿o será qué están como locos posicionándose en ciertas zonas antes de que les obligen a abrir centros de más de 2500m2 ?