¿Por qué fallan muchas inversiones en analytics?
Artículos Artículos

¿Por qué fallan muchas inversiones en analytics?

Cada vez más, observamos cómo las empresas invierten en analytics, convencidas de que este es el camino hacia el crecimiento y la competitividad. 

Cada vez más, observamos cómo las empresas invierten en analytics, convencidas de que este es el camino hacia el crecimiento y la competitividad. 

Sin embargo, ¿sabías que solo un 4% de las compañías logran aprovechar realmente el valor de sus inversiones en analítica? El resto, a pesar de sus grandes inversiones, obtiene resultados mínimos o nulos.

Entonces, ¿por qué unos triunfan y otros fracasan? La respuesta se encuentra en los errores comunes que muchas empresas cometen al abordar estos proyectos. De ahí, la importancia de conocerlos bien para que tu inversión en analytics no corra peligro. 

En este artículo te contamos los cuatro factores clave que hacen que muchas inversiones en analítica terminen siendo un fracaso, y cómo evitarlos para que tu empresa realmente obtenga el retorno de valor que espera. 

  • Estrategia de analytics sin rumbo: las empresas que no alinean sus inversiones en analytics con sus objetivos estratégicos corporativos están construyendo castillos de arena. Tener datos no es suficiente, es importante saber cómo usarlos. Es decir, es importante detectar qué problemas queremos resolver y cómo vamos a medir para obtener resultados de éxito. La pregunta clave es “Dónde está el retorno”. Evaluar las oportunidades y el ROI potencial antes de tomar decisiones es lo que marca la diferencia. 
  • Evaluar la viabilidad: sin un análisis previo de viabilidad, las inversiones en analytics pueden convertirse en un agujero sin fondo. Identificar las áreas con mayor potencial permite optimizar recursos y obtener resultados más rápido.
  • Minimizar gastos iniciales: las grandes inversiones iniciales en tecnología, herramientas y talento no garantizan el éxito de un proyecto de analytics. Un enfoque incremental permite probar y ajustar sobre la marcha, reduciendo el riesgo de inversión.
  • Talento especializado: construir un equipo multidisciplinario con las habilidades necesarias para llevar a cabo proyectos de analytics es un gran reto. La escasez de profesionales especializados en datos y otras áreas relacionadas dificulta aún más este proceso.

Aunque muchas empresas se quedan a mitad de camino, el éxito en analytics es posible. Con una estrategia clara, una evaluación previa, una inversión estudiada y el talento adecuado, es posible aprovechar al máximo los datos. 

¡Deja de desperdiciar dinero y empieza a obtener resultados concretos!  Cuéntanos tu proyecto

¿Cómo es el camino hacia la madurez data-driven en una organizacion?
Artículos Artículos

¿Cómo es el camino hacia la madurez data-driven en una organizacion?

Las empresas necesitan evaluar dónde se encuentran en la gestión y el procesamiento de sus datos para determinar el beneficio que están obteniendo, comprender sus limitaciones y riesgos en el escenario actual, y definir las acciones necesarias para convertirse en una empresa Data-Driven

Vivimos en plena era digital, donde los datos se han convertido en un recurso crítico para cualquier negocio. Hace ya casi 10 años, con la aparición del Big Data, surgió la convicción de que si una empresa generaba grandes volúmenes de datos podría llegar a generar un gran valor empresarial. Sin embargo, con el paso del tiempo y la expansión masiva de los datos generados año tras año, las compañías líderes en su sector se han dado cuenta de que el verdadero poder de los datos radica en saber cómo extraer el máximo valor de estos.

Por ello, para desbloquear el verdadero valor potencial de los datos, las empresas deben volver al punto de partida y evaluar su nivel de madurez de los datos. Un Modelo de Madurez de Datos (DMM) es un marco para evaluar el desarrollo de las capacidades de una empresa en la gestión y procesamiento de datos, así como en el uso de los datos para obtener beneficios óptimos. 

En otras palabras, las empresas necesitan evaluar dónde se encuentran en la gestión y el procesamiento de sus datos para determinar el beneficio que están obteniendo, comprender sus limitaciones y riesgos en el escenario actual, y definir las acciones necesarias para convertirse en una empresa Data-Driven.

Cómo entiende MIND los diferentes estados de madurez

Gracias a nuestros más de 20 años de experiencia en la analítica del dato hemos desarrollado un modelo de diagnóstico de madurez propio, cómo resultado del camino que nuestro equipo entiende que es necesario para llegar a ser una empresa guiada por los datos.

El principal objetivo es poder ayudarles a definir bien las acciones a realizar y, en consecuencia, poder desarrollar una buena estrategia de datos y mejorar sistemáticamente sus capacidades de gestión y explotación de datos.

En función del nivel de confianza de la calidad de los datos corporativos, la etapa de madurez irá desde:

  1. El “Inconsciente”: donde los datos no se ven como un activo estratégico
  2. Pasando por la etapa de “Transición”: donde se empieza a construir un data warehouse y a pensar en usos avanzados del dato 
  3. Hasta el “Consciente“: donde hay una política de “Data Quality By Design” implementada

En función del nivel de madurez a nivel personas, procesos y tecnología para el aprovechamiento de los datos corporativos, las etapas las clasificamos en:

  • Informal: En esta etapa la organización se encuentra en una etapa inmadura en términos de datos pero se pueden identificar iniciativas individuales de informes entre departamentos aunque el dato todavía no se ve como un activo y no hay cultura del dato en la organización, el excel es sistema de BI en este tipo de organizaciones.
  • Basic: Empieza a haber Iniciativas individuales dentro de la organización. Producción intensiva de hojas de cálculos y se empiezan a estructurar los procesos de producción de información pero todavía hay discrepancias entre los reportes departamentales. En esta etapa empiezan las iniciativas individuales por la exploración en herramientas de visualización de datos.
  • Starter: La organización empieza a ser consciente de que el dato debe ser transversal a toda la organización, empieza a madurar el concepto de “dato único” o “única versión de la verdad”. La calidad del dato llega a transformarse en negocio ya que evita errores y mejora la toma de decisiones. Se comienza a estandarizar el reporting. Se dan los primeros pasos en la construcción de un data warehouse.
  • Growth: El dato pasa a guiar por completo la estrategia empresarial. Cuadros de mando maduros soportan las decisiones. La calidad del dato está controlada y la organización es consciente de su importancia. Se empiezan a usar procesos avanzados del dato.
  • Cruise: Equipo específico para la gestión del dato en la organización (interno o externo). Se automatizan los procesos de obtención de datos y el modelo de negocio está representado en modelos de datos. Se integran los datos descriptivos y predictivos en los procesos operativos. Se comienzan pruebas piloto de decisiones basadas en IA.
  • Nirvana: La organización piensa en el dato como activo y prioriza siempre la automatización del dato que va al igual más rápido que el negocio en la producción de insights. Política “Data Quality By Design” en los procesos operativos implementada. Organización “Al Ready”.

El verdadero valor de realizar un buen diagnóstico del estado de madurez de una organización se traduce en el poder diseñar una hoja de ruta precisa que detalle los pasos a seguir, así como el ritmo al que la organización puede avanzar mientras se implementan las diferentes acciones a llevar a cabo. 

La adopción del dato en una organización es un proceso de madurez y un camino que se debe recorrer sin pasar por alto las etapas, a lo largo de la trayectoria de MIND hemos visto organizaciones que han ido más rápido que la capacidad de absorber el dato por parte de la organización y la consecuencia es el nulo éxito de la estrategia de datos y normalmente viene acompañado de una cantidad importante de dispendio de recursos.  

Pero sin duda, la madurez data-driven es un viaje que las organizaciones deben emprender para aprovechar al máximo los datos disponibles

En MIND podemos ayudarte a evaluar el nivel de madurez data driven de tu organización. Nuestra metodología nos permite identificar tu situación actual y analizar la calidad de los datos, la integración de sistemas y el uso de herramientas modernas. Tras esta evaluación te entregamos un informe con todas las recomendaciones para que tu empresa pueda obtener más valor en los datos y te guiamos a dar cada paso y avanzar en cada nivel del modelo de madurez. 

¿Cómo el Business Intelligence puede ser inteligente?
Artículos Artículos

¿Cómo el Business Intelligence puede ser inteligente?

Los formatos clásicos de BI - dashboards o cuadros de mando e informes - han sido útiles para monitorizar el negocio, pero raramente lo suficientemente intuitivos como para tomar decisiones proactivas

Los formatos clásicos de BI – dashboards o cuadros de mando e informes – han sido útiles para monitorizar el negocio, pero raramente lo suficientemente intuitivos como para tomar decisiones proactivas. El BI siempre ha sido retrospectivo, mirando hacia atrás a partir de los eventos que ya han ocurrido. La tecnología apenas guía al usuario demasiado humano, dándole sólo los hechos y dejándole a su merced el trabajo más estresante: analizar.

¿Y si le añadiéramos Análisis Predictivo?

El mismo nombre describe su enfoque de cara al futuro, un campo de trabajo dentro de la Inteligencia Artificial. Los algoritmos extraen patrones de los datos existentes y los proyectan hacia adelante. Estos patrones a menudo están profundamente ocultos, difíciles de inferir a simple vista. El Análisis Predictivo permite optimizar con éxito numerosos escenarios de negocio calculando: las puntuaciones de crédito en finanzas, los niveles de stock en la fabricación, las reservas de habitaciones que van a ser canceladas, los consumos de un determinado cliente y mucho más.

Entonces, ¿cuál es el problema? Simplemente que el Análisis Predictivo sigue siendo un área especializada, que en la mayoría de los casos requiere herramientas que no están diseñadas para los usuarios empresariales habituales. Como resultado, son dos mundos separados, difíciles de integrar y a menudo requiere de un gran un esfuerzo por parte de la empresa para comprender las implicaciones que conllevan a partir de los métodos estadísticos involucrados.

La verdad es que los seres humanos no estamos preparados para informes estáticos o modelos estadísticos.

Para que estamos preparados los humanos

En su lugar, prestamos atención y recordamos las narrativas que tienen dirección y flujo. No representamos el mundo internamente en nuestras mentes como estructuras de datos y algoritmos, sino como historias que tienen estructura y carácter, incluso cuando se trata de conceptos abstractos. Así como un vendedor puede tener dificultades para cumplir con sus números y los productos pueden tener dificultades para llegar y traspasar las barreras teóricas del budget establecido. Esto es una historia, no un análisis. Conocer el porqué.

Pero también somos buenos dándonos cuenta rápidamente de nuevas informaciones, irregularidades y advertencias. Los patrones y las excepciones saltan a la vista con una lucidez notable, a medida que entendemos el negocio y aprendemos a detectar los cambios. Prestamos atención a las alertas y somos sensibles a los cambios en los patrones regulares.

¿Cómo vamos a aprovechar al máximo estos diversos estilos de cognición en la toma de decisiones empresariales?

Afortunadamente, las nuevas tecnologías y técnicas de visualización y Machine Learning nos permiten integrar lo mejor del Business Intelligence con el Análisis Predictivo y la creación de sentido común humano. La tarea consiste en reunir, con un ligero toque y en un único entorno, las diversas formas en que la cognición humana y el análisis de la máquina, generalmente considerados como técnicas separadas, pueden trabajar juntos. Lo que técnicamente se llama como Augmented Intelligence, como la alta capacidad computacional de las máquinas puede ayudarnos en nuestras decisiones.

En primer lugar, los usuarios deben ser capaces de construir Historias. En lugar de presentar los resultados de una manera seca y estática, es realmente útil poder construir una narrativa que fluya de una observación a otra, de las dudas a las decisiones, apoyada por datos y gráficos efectivos. Los usuarios y sus colaboradores deben ser capaces de profundizar en los detalles, ya que las buenas visualizaciones plantean nuevas preguntas en lugar de limitarse a ilustrar las respuestas. Y es importante hacer esto en un estilo mucho más interactivo que las presentaciones de diapositivas o un Excel cocinado (que no permite llegar al detalle). No hay una buena pregunta de negocio a la que la respuesta sea “más PowerPoint”.

Las historias son excelentes para la comunicación y la colaboración, pero también necesitamos estar atentos a las señales que llaman la atención sobre los cambios en nuestra situación. El Análisis Predictivo puede ayudar en este sentido, pero sólo si se integra perfectamente con nuestras herramientas habituales. La tecnología debe trabajar con nuestro conocimiento del negocio, sin requerir experiencia teórica, pero sin dejar de recoger cualidades ocultas que nosotros mismos no podemos encontrar en el volumen y la complejidad de los datos del negocio de hoy.

En Mind trabajamos para la democratización de la Inteligencia Artificial. Todas las empresas pueden beneficiarse del Análisis Predictivo como complemento a su dashboard de Business Intelligence. No es necesario ser un Google o un Amazon para disponer de un gran equipo de data scientists para que lleven a cabo este cambio. Hoy en día hay herramientas sencillas que nos pueden aportar mucho más valor a nuestra toma de decisiones, cambiando el centro de gravedad hacia una visión más predictiva, que nos permita estar preparados a lo venidero.

Estamos preparados para ayudarte en este cambio. Podemos acompañarte desde el inicio para definir las estrategias a seguir como también si ya tienes claro el qué, pero no el cómo, este servicio te puede interesar: Estrategia de datos.

Optimización del Time-to-Market con DBT & Great Expectations: Eficiencia y Calidad en la Cadena de Valor del Dato
Artículos Artículos

Optimización del Time-to-Market con DBT & Great Expectations: Eficiencia y Calidad en la Cadena de Valor del Dato

A medida que evoluciona la ingeniería de datos moderna, DBT (Data Build Tool) ha surgido como un cambio de juego para los conductos ELT, simplificando las transformaciones, mejorando la eficiencia y garantizando la integridad de los datos. En nuestro proyecto, dbt desempeñó un papel crucial en la automatización de los flujos de trabajo, la reducción del código redundante y la racionalización de los procesos de datos. Este artículo proporciona una visión en profundidad de cómo dbt mejoró el rendimiento de nuestro proyecto y por qué es una herramienta esencial para cualquier equipo de datos.

Los ingenieros de datos a menudo se encuentran con varios retos a la hora de crear y mantener pipelines de datos:

  • ETL complejas: Las herramientas ETL tradicionales requieren un gran esfuerzo de ingeniería para gestionar las dependencias y transformaciones.
  • Desarrollo y despliegue lentos: escribir, probar y desplegar transformaciones puede llevar mucho tiempo.
  • Problemas de calidad de los datos: Es difícil garantizar la coherencia de los datos, gestionar los duplicados y realizar comprobaciones de integridad.
  • Almacenamiento y optimización del rendimiento: Gestionar grandes conjuntos de datos de forma eficiente sin cálculos innecesarios es todo un reto.
  • Falta de control de versiones: los procesos ETL tradicionales carecen de control de versiones basado en Git, lo que dificulta la colaboración.
  • Documentación manual y seguimiento del linaje: comprender las dependencias y transformaciones suele ser tedioso.

Para superar estos retos, utilizamos dbt en nuestros proyectos.

Comprensión de dbt y sus características clave

dbt (Data Build Tool) es una herramienta de ingeniería analítica de código abierto que permite a los equipos de datos transformar datos sin procesar dentro del almacén utilizando SQL. Garantiza que la lógica de transformación sea modular, reutilizable y fácil de mantener. dbt opera dentro del paradigma ELT (Extract, Load, Transform), centrándose en las transformaciones después de que los datos se hayan cargado en el almacén.

Características principales de dbt

  • Transformaciones SQL: Permite transformaciones directamente en SQL, haciéndolo accesible a analistas e ingenieros.
  • Modelos modulares y reutilizables: Utiliza macros Jinja y modelos reutilizables para garantizar un código limpio y DRY (Don’t Repeat Yourself).
  • Pruebas y comprobaciones de calidad de datos integradas: proporciona validación de datos para garantizar la integridad y la fiabilidad.
  • Control de versiones e integración CI/CD: admite versiones basadas en Git y despliegues automatizados.
  • Documentación automatizada y linaje de datos: genera documentación y visualiza las dependencias, mejorando la transparencia.
  • Gestión de dependencias: garantiza que los modelos se ejecuten en la secuencia correcta mediante la función ref().
  • Procesamiento incremental de datos: Procesa sólo los datos nuevos o modificados, reduciendo los costes computacionales.
  • Compatibilidad entre almacenes: funciona con Snowflake, Redshift, BigQuery y PostgreSQL, entre otros.
  • Rendimiento ELT optimizado: Transforma los datos directamente en el almacén, aprovechando las modernas arquitecturas en la nube para obtener velocidad y escalabilidad.

¿Cómo aplicamos dbt en nuestros proyectos?

Nuestros proyectos constan de tres capas de datos clave, en las que utilizamos estratégicamente las opciones de materialización de dbt:

Materializaciones optimizadas para un procesamiento de datos eficiente

Capa de almacenamiento (vistas): se utilizó la materialización de vistas para evitar la duplicación innecesaria de datos y mantener la dinámica de las transformaciones.
Capa intermedia (modelos efímeros): materialización efímera implementada para cálculos temporales, lo que reduce los costes de almacenamiento.
Capa de almacén (instantáneas): se utilizó la materialización de instantáneas para realizar un seguimiento de los cambios históricos de las dimensiones de cambio lento (SCD).

Beneficios:

  • Reducción de los costes de almacenamiento al evitar la creación innecesaria de tablas.
  • Mejora del rendimiento de las consultas mediante transformaciones eficientes en cada capa.
  • Mejora de la modularidad y la capacidad de mantenimiento de las transformaciones.

Estandarización y reutilización de código con macros

Generación de claves sustitutas – Creación de macros para generar claves primarias únicas.
Automatización de las actualizaciones de las tablas de auditoría – Estandarización de las actualizaciones de las tablas de auditoría en diferentes modelos.
Carga de registros recientes – Implementación de una macro para recuperar sólo los registros más recientes para el procesamiento incremental.
Estandarización de los nombres de columna: se garantizó la coherencia de los nombres aplicando automáticamente prefijos y sufijos a los nombres de columna en la capa de preparación.

Beneficios:

  • Reducción de la duplicación de código, lo que hace que las transformaciones sean más eficientes.
  • Mejora de la gobernanza de los datos con convenciones de nomenclatura coherentes.
  • Lógica de transformación centralizada, simplificando el mantenimiento.

Generación de SQL dinámico mediante plantillas Jinja

Consultas parametrizadas – En lugar de codificar valores en las consultas SQL, utilizamos variables Jinja para hacerlas dinámicas y reutilizables. Esto nos permitió generar consultas dinámicamente basadas en diferentes valores de entrada.
Selección dinámica del modelo – Aplicamos lógica condicional para determinar la ejecución del modelo en función de las dependencias.
Componentes SQL reutilizables: se crearon consultas basadas en plantillas para estandarizar las transformaciones en varios modelos.

Beneficios:

  • Mejora de la flexibilidad ajustando dinámicamente la lógica SQL sin codificar valores.
  • Reducción del esfuerzo manual para modificar las consultas SQL en todos los modelos.
  • Permitió una rápida adaptación a los cambiantes requisitos empresariales.

Automatización de procesos con Post-Hooks

Comprobación de la calidad de los datos: ejecución de consultas posteriores al gancho para validar los datos después de la carga.
Registro y auditoría: actualización automática de los registros de auditoría tras las transformaciones.
Limpieza y mantenimiento de tablas: se aseguraba de que las tablas temporales se eliminaban o actualizaban después del procesamiento.

Beneficios:

  • Reducción de la intervención manual, garantizando una ejecución sin problemas.
  • Mejora de la calidad de los datos mediante la automatización de las comprobaciones de validación.
  • Mantenimiento de un almacén de datos limpio y eficiente.

Mejorar la fiabilidad de los datos con pruebas y documentación

Aplicación de pruebas de dbt integradas (por ejemplo, valores únicos, no nulos, aceptados) para garantizar la integridad de los datos.
Desarrollo de pruebas personalizadas para validar la lógica empresarial y la precisión de la transformación.
Incorporación de descripciones de modelos y documentación a nivel de columna.
Aprovechamiento de la documentación dbt generada automáticamente para proporcionar visibilidad de las dependencias y transformaciones.

Beneficios:

  • Aumento de la confianza y fiabilidad de los datos mediante la aplicación de comprobaciones de calidad.
  • Mejora de la gobernanza de los datos gracias a una documentación clara.
  • Permitió una colaboración fluida con una lógica de transformación transparente.

Como asegurar la calidad con Great Expectations

A modo de conclusión, nuestra experiencia con dbt demostró su inmenso valor en la ingeniería de datos moderna. Al aprovechar la arquitectura modular de dbt, las pruebas automatizadas y las estrategias de materialización, mejoramos significativamente la eficiencia, la capacidad de mantenimiento y la calidad de los datos de nuestro proyecto. Para cualquier equipo de datos que busque optimizar su canalización ELT, dbt proporciona una solución escalable, rentable y altamente adaptable.

Si tiene alguna pregunta o necesita ayuda con dbt, no dudes en contactarnos conmigo. Estaremos encantados de ayudarle y compartir conocimientos basados en nuestra experiencia.

Producto turístico: Optimízalo e incrementa las ventas con datos
Artículos Artículos

Producto turístico: Optimízalo e incrementa las ventas con datos

Para poder optimizar el producto turístico (portfolio) y la infraestructura tecnológica, de una forma correcta se necesitan datos...

Para poder optimizar el producto turístico (portfolio) y la infraestructura tecnológica, de una forma correcta se necesitan datos cómo:

  • ¿Cuáles son los productos que piden cada uno de los clientes?
  • Qué es lo que compran y qué no.
  • Qué productos no nos piden y cuáles pueden ser interesantes para aumentar la conversión.

Con estos datos en la mano se puede llegar a conclusiones que ayudan a la optimización del producto por cliente. Podremos analizar el cliente, el source market, el destino, los hoteles más solicitados, los convertidos, los no solicitados y los solicitados. En el posible caso que los datos ofrezcan una visión negativa de un producto, gracias a ellos, se podrá saber por qué este producto no está siendo atractivo y se podrá cambiar estrategias en concreto.

¿Cómo conseguir optimizar el producto turístico?

Toda esta información sólo se consigue a través de los datos y su posterior análisis empleando herramientas de Machine Learning. Es importante tener acuerdos con proveedores, en varias zonas, para poder ofrecer un precio competitivo dónde más clientes interesados haya. Es decir, gracias a esta información podemos focalizarnos en los destinos donde nuestro producto turístico es más competitivo, atractivo y olvidarnos de aquellos que generan menos interés.

Apostar de manera clara, por la estrategia que mejor optimiza el negocio, reduciendo costes de infraestructura y llamadas a proveedores, solo se puede si se cuenta con el análisis de datos.  Conociendo gracias a ellos, incluso, las plataformas que funcionan mejor.

La optimización del producto turístico es uno de los retos a los que esta industria debe de hacer frente si quiere seguir a flote en este negocio. Pero no solo eso, en un mundo tan variable como es el del travel, hay que estar pendiente de todos los cambios y saber hacerles frente.

¡Solicita una demo gratuita y descubre cómo podemos ayudarte a alcanzar tus objetivos!

RPA: La inteligencia artificial que humaniza el trabajo
Artículos Artículos

RPA: La inteligencia artificial que humaniza el trabajo

Mientras todos hablan de que la IA va a quitar empleos, nosotros creemos lo contrario: la automatización inteligente libera a las personas de las tareas más tediosas para que puedan centrarse en lo que realmente aporta valor. RPA no reemplaza humanos, los potencia.

Según un estudio realizado por Gartner Group para conocer los motivadores para el uso RPA en las empresas, la automatización de tareas repetitivas o manuales aparece como primer foco para invertir en IA.

Y los trabajadores, también esperan de la IA que les ayude en el trabajo más tedioso.

¿Qué es RPA?

RPA es una combinación de Inteligencia Artificial (IA) y automatización de software. Esencialmente, permite a las empresas configurar software informático para recopilar y extraer conocimientos, reconocer patrones y aprender, adaptarse y responder a nuevas situaciones.
RPA es diferente a un programa de ordenador estándar. Es dinámico – busca patrones, hace predicciones y puede configurarse para “observar” la forma en que un usuario realiza una tarea en particular.
La configuración para la automatización de procesos no necesita de un trabajo preliminar de programación o scripting y puede incluso automatizarse reproduciendo los movimientos realizados por nosotros en la interfaz.

¿Quiénes invierten en RPA?

RPA es uno de los sectores de más rápido crecimiento de la industria de tecnología. Puede aumentar la eficiencia y la productividad de una empresa, aportando beneficios al resultado final.
El proveedor de comunicaciones móviles del Reino Unido Telefónica O2 ha desplegado más de 160 robots para procesar entre 400.000 y 500.000 transacciones cada mes, con un rendimiento de la inversión de más del 650% durante tres años. Más sorprendente aún, es que Telefónica O2 lo ha alcanzado formando sólo a cuatro personas.
Otra gran empresa de servicios públicos con sede en el Reino Unido, desplegó más de 300 robots que procesan una media de tres millones de transacciones por trimestre, con un rendimiento anual de la inversión del 200 por ciento. Aquí, dos humanos orquestan estos 300 robots que realizan el trabajo de 600 personas.

“La próxima década se tratará de reemplazar la mano de obra más barata por la automatizada”

En general, los primeros que adoptan el RPA descubren que la automatización transforma radicalmente las operaciones, ofreciendo costos mucho más bajos al mismo tiempo que mejora la calidad del servicio, aumenta el cumplimiento (porque todo lo que hace el software se registra) y disminuye los tiempos de entrega.
“La última década se trató de reemplazar la mano de obra con mano de obra más barata. La próxima década se tratará de reemplazar la mano de obra más barata por la automatizada”, cuenta Chetan Dube, fundador de IPsoft.


Gartner apuntaba en 2018 un gasto de 680 millones de dólares en este tipo de software en todo el mundo, creciendo a un ratio del 60% anual hasta llegar a los 2400 millones de dólares en 2022.
Para finales de 2022, la consultora espera que el 85% de las organizaciones grandes y muy grandes habrán adquirido algún sistema de RPA.

¿Para qué usar bots?

Gartner apunta como principales puntos donde usar estos bots:

  • Aplicaciones que acceden a la web de la empresa.
  • Recolección de datos de diferentes aplicaciones.
  • Copiar y Pegar.
  • Extracción de datos estructurados de documentos.
  • Siguiendo reglas condicionales del tipo if/then.
  • Abrir emails y ficheros adjuntos.

RPA es ideal para tareas que implican datos transaccionales de una variedad de fuentes. Algunos ejemplos de su aplicación actual incluyen: procesamiento de facturas, cuentas por pagar, viajes y gastos, procesamiento de reclamos, entrada de nómina y cambio de (dirección, nombre, etc.). Se estima que hasta un 45 por ciento de las actividades por las que las empresas pagan a las personas pueden ser automatizadas a través de RPA.

Transformación digital: cambios en los “viajeros digitales”
Artículos Artículos

Transformación digital: cambios en los “viajeros digitales”

Como ya sabemos la transformación digital ha cambiado muchas industrias y unas de ellas es la del sector de viajes. Los que más viven de lleno esa transformación son los propios viajeros y la industria tiene que adaptarse a esos cambios.

Para conocer más en profundidad toda esa transformación digital, Alex Dichter, socio principal en McKinsey ha analizado datos agregados y anónimos de seguimiento, de clics en dispositivos a partir de 300.000 términos de búsquedas relacionadas con viajes. Las conclusiones fueron:

Las personas se sienten agobiadas por las opciones de viaje.

Antes, poder planificar unas vacaciones, era una tarea que llevaba tiempo y que, de cierta manera, tenías que adaptarte a las opciones que existían (opciones en agencia de viajes). Pero, en la actualidad, con la transformación digital, tienes disponible el mundo entero en tus manos. Esto, ¿Es del todo positivo? Se ha llegado a la conclusión que cuantas más opciones, más indecisión entre los viajeros. Los datos lo reflejan claramente. Se observa que el recorrido de compra para un hospedaje dura increíblemente, aproximadamente, 36 días e incluye 45 puntos de contacto en diferentes dispositivos y tipos de sitio web. ¿Cómo mejorar la experiencia de compra del usuario? La tecnología nos permite conocer las necesidades del viajero, por eso, en vez de abrumar con servicios o productos irrelevantes, hay que centrarse en lo que realmente les interesa y evitar todo lo demás. La optimización es la clave, y los datos la permiten.

Con la transformación digital, el viaje comienza en el motor de búsqueda.

En 2018, el 31% de las búsquedas empiezan en motores de búsqueda, lo cual representa un crecimiento respecto del 23% de 2017. Parece lógico pensar que, las personas que empiezan una búsqueda, lo hacen para explorar opciones y tardar más en hacer una reserva, pero no. Las compras, que comenzaron con búsquedas, llegaron a la compra mucho más rápido que aquellos que comienzan en el sitio web de una agencia de viajes en línea.

Los compradores de viajes usan distintos dispositivos.

Cada vez son más las personas que utilizan el smartphone o alternan distintos dispositivos para comprar viajes. Este dato crece interanualmente un 10%. Pero este tipo de comprador se enfrenta a algunos obstáculos. Los datos han demostrado que aquellos que usan varios dispositivos para reservar un viaje, tienen recorridos más largos que aquellos que solo usan uno. Los primeros necesitan 5 días más y un 55% más de sesiones, lo que se puede traducir en perdidas de reservas. ¿Cómo solucionar esto? Se deben crear experiencias rápidas ya que estos medios alternados son cada vez más usados, no deben existir fricciones en desktop, páginas móviles o apps. La experiencia de usuario es fundamental.

La clave del éxito está en ofrecer experiencias de forma personalizada a los clientes. Por esto, las empresas de viajes tienen que invertir más en tecnología, y en conseguir buenas experiencias digitales.

La analítica predictiva y el business intelligence
Artículos Artículos

La analítica predictiva y el business intelligence

Las empresas tecnológicas son cada vez más imprescindibles. En los últimos años, debido a la gran cantidad de negocios que quieren unirse a la transformación digital, se crean más soluciones focalizadas a los objetivos que quieren conseguir las empresas. Esta transformación pasa por muchos procesos automáticos, soluciones de analítica avanzada, business intelligence y machine learning.

Para aquellos que no pertenecen a este mundo, el business intelligence y la analítica predictiva pueden sonar algo extraños, incluso para aquellos que deciden instaurarlos en sus empresas. Por eso, hoy queremos centrarnos un poco más en que es la analítica avanzada y la analítica de negocio o business intelligence y la importancia que tienen cada uno.

Conociendo un poco más sobre Analítica avanzada vs Business Intelligence

Es complicado clasificar a la analítica debido a los muchos subcampos que presenta, pero podemos decir que la analítica son habilidades, tecnologías y aplicaciones utilizadas para explorar e investigar datos. Gracias a esto, obtenemos conocimientos que ayudan a impulsar la planificación del negocio. Podemos decir que la analítica se divide en dos áreas principales: Analítica avanzada e inteligencia de negocio.

BI: gracias a las métricas, podemos medir el trabajo del pasado y hacer una guía de planificación de negocio, ya que se puede responder qué sucedió, cuándo, quiénes y cuánto. Es decir, mira al pasado y se centra en generar informes y consultas.

Analítica avanzada: va un paso más allá, mira al futuro. Se usan técnicas de modelado para predecir eventos futuros o descubrir patrones. Esta ciencia puede responder a qué pasará, por qué sucede, qué pasa si cambio esto, qué es lo mejor que puede pasar… Trata de optimizar, y predecir las mejores acciones o la próxima acción.

Y las empresas…

La mayoría de las empresas ya utilizan y ponen en funcionamiento las aplicaciones de BI dentro de sus procesos de negocio, con esto lo que quieren hacer es aprovechar el potencial que les aporta los datos y conocer como ha ido el negocio y que se puede mejorar.

No pasa lo mismo con la analítica avanzada y más concretamente con el análisis predictivo. El uso de datos, con esta analítica, ayudan a conocer el futuro y optimizan operaciones, mejoran las ventas, reducen costes y mitigan riesgos en diferentes áreas de empresa. En la actualidad muchas empresas no ven la analítica predictiva como algo imprescindible pero dentro de la analítica predictiva esta el futuro del buen funcionamiento de las empresas y su optimización. Aprovechemos todo el valor que nos aportan los datos porque pueden abrir nuevos caminos de mejora.

Mind Analytics estará en el World Travel Market de Londres 2019
Artículos Artículos

Mind Analytics estará en el World Travel Market de Londres 2019

La historia de World Travel Market comienza en 1980 en el centro de convenciones Olimpia en Londres, con 350 expositores y casi 8000 visitantes profesionales. Desde entonces la industria ha cambiado mucho.  Ahora, el WTM cuenta con más de 30.000 visitantes y casi 5.000 empresas participan en la feria. Se convierte así, en una gran plataforma para conocer, conectar y negociar con otros profesionales del mundo turístico.  

El WTM facilita a los profesionales turísticos la búsqueda de oportunidades comerciales que contribuyen a una industria de viajes exitosa. El año pasado debutaron aproximadamente 170 expositores, destacando compañías aéreas como Air Transat, Go Airlines o la asiática Royal Brunet Airlines, además de empresas de innovación tecnológica, operadores de turismo de aventuras o películas.

Gracias al programa de conferencias, durante los días del evento, se puede acudir a escuchar a las principales figuras del negocio compartiendo experiencias, novedades y casos de éxito de diversos sectores, todos ellos enfocados en el turismo.

Programa una reunión con nosotros en el World Travel Market

Mind Analytics acudirá como asistente a este gran evento con el objetivo de conocer la actualidad de la industria turística de la mano de profesionales y presentar sus soluciones tecnológicas focalizadas en el sector. Los productos que desarrolla Mind Analyticis tienen un objetivo claro, ayudar a los negocios de este sector a su crecimiento y optimización mediante aplicaciones basadas en analítica de datos, procesos robóticos de automatización, técnicas de machine learning e inteligencia artificial. Gracias a todo ello, se consiguen herramientas transformadoras para el sector, una forma exclusiva de acelerar el rendimiento de este.

Además, queremos que conozcas el futuro que le espera a la industria turística. Puedes descubrirlo en nuestro ebook “How to become a Smart Travel Distributor: The Future of Business Travel”. Para decargártelo solo tienes que hacer clic aquí.

Si quieres conocernos y descubrir todas nuestras soluciones basadas en el estudio de datos reales para la toma correcta de decisiones, te esperamos del 4 al 6 de noviembre en Londres. Si quieres programar una reunión no dudes en ponerte en contacto con nosotros en ventas@mindanalytics.es. ¡Nos vemos muy pronto en el evento turístico del año!

Reservas: La tasa de abandono llega al 90%
Artículos Artículos

Reservas: La tasa de abandono llega al 90%

SaleCycle ha realizado una investigación sobre la tasa de abandono en las reservas de viajes. Abarca cinco segmentos: aerolíneas, OTAs, hoteles además de alquiler de coches y reservas de cruceros o ferrys.

La conclusión sobre las reservas data de un promedio del 90,74% en el 2019, con datos desde enero hasta octubre.

Las diferencias en las tasas de abandono de las reservas se deben al tipo de viaje reservado, el precio, el tiempo y el esfuerzo necesario a la hora de reservar. Los consumidores se toman tiempo para investigar las compras sobre viajes, por la cual las tasas de abandono son más altas que la media del comercio minorista.

DATOS SOBRE LAS RESERVAS EN 2019

Un ejemplo muy claro es las reservas de cruceros. Al ser una compra que suele ser cara, los viajeros suelen tomarse más tiempo para comparar opciones y puede que la decisión dure meses. Por eso, el proceso de reserva puede comenzar y abandonarse repetidas veces.

Las reservas de habitaciones son más sencillas. La mayoría no requiere un pago por adelantado, lo que convierte este proceso en algo simple para el usuario. Aún así, la tasa de abandono en este campo se sitúa en un 84,63%

El abandono es inevitable, todos los usuarios investigan sus opciones y ven que se adapta mejor, pero el sector puede minimizar el problema. La mejora de la experiencia de usuario es fundamental, ya que puede hacer mucho más sencilla la forma de reservar o conocer la información que los usuarios necesitas. Fijarse en los hábitos del comprador es la clave.

También se debe tener en cuenta las épocas de reservas, ya que se ha podido observar una disminución del abandono en enero y una subida máxima en agosto, hacia el final de temporada. En aerolíneas y alquiler de coches, es un poco más diferente. La tasa más baja es en mayo, puede que por aquellos que reservan sus vacaciones a ultima hora.

Si quieres saber más sobre el estudio realizado SaleCycle puedes acceder al texto original haciendo clic aquí.