Material Big Data

Lanzados ppts informativos de tecnologías BigData: Hadoop, Hbase, Hive, Zookeeper...

Apuntate al Curso de PowerBI. Totalmente práctico, aprende los principales trucos con los mejores especialistas

Imprescindible para el mercado laboral actual. Con Certificado de realización!!

Pentaho Analytics. Un gran salto

Ya se ha lanzado Pentaho 8 y con grandes sorpresas. Descubre con nosotros las mejoras de la mejor suite Open BI

LinceBI, la mejor solución Big Data Analytics basada en Open Source

LinceBI incluye Reports, OLAP, Dashboards, Scorecards, Machine Learning y Big Data. Pruébala!!

28 feb. 2019

How to create an open source Big Data Stack



Big Data Stack

Sub second interactive queries, machine learning, real time processing and data visualization.


Nowadays there is a lot technology that enables Big Data Processing. However, choosing the right tools for each scenario and having the know-how to use these tools properly, are very common problems in Big Data projects management.

For this reason, we have proposed the Big Data Stack, a choice of tools for Big Data processing based in our experience gathering requirements for Big Data analytics projects. Our stack includes tools for each possible task in a Big Data project, such as ETL (Pentaho Data Integration or Spark), Machine Learning (Spark, R o Python libs), Big Data OLAP (Kylin or Vertica) and also data visualization, using our Lince BI - ST tools (Pentaho BA Server based) or other famous BI tools.



Figure 1. The Big Data Stack for Big Data Analytics (from Stratebi.com)

Sub second interactive queries over tables with billions of rows
While at beginning existing Big Data technology allowed for very efficient data processing (e.g. Apache Hive or Cloudera Impala), analytical query times were no less than minutes or seconds at best-case. 

This fact made very hard the use of Big Data technology for the implementation of Data Warehouses, as we know them previously, to support analytics applications that require interactive response, such as dashboards, reporting or OLAP viewers.

Luckily, at the end of 2014 Apache Kylin was introduced. This open source tool is a distributed engine for analytical processing scenarios that provides an SQL interface and supports multidimensional analysis applications (OLAP) on a Hadoop/Spark cluster and over Big Data sources. 
The data from sources such as Hive, other common RDBMS (e.g. SQL Server) or even Kafka queues, is pre-agregated and stored in HBase (Kylin cube) by fast and incremental processes using Map Reduce or Spark engines. 

These processes are automatically generated based on the cube definition provided by the Kylin users using its web UI. Once the cube is built, the users can perform SQL analytical queries over billions of rows with response times less than the second.






Figure 2. Kylin web UI. Sample query over a cube of 888 million rows was resolved in 0,57 seconds.


Moreover, thanks to the support for J/ODBC connectors and a complete API REST, Kylin can be integrated with any current BI tool. In our case, we have seamlessly integrated Kylin with our Lince BI - ST tools (Pentaho BA Server based): STpivot (OLAP viewer), STReport (reporting ad-hoc) and also with STDashoard (self-service dashboarding).


Digital Marketing analytics real case

As with the other technologies in our stack, we have been able to successfully integrate Kylin into a real Big Data project. This project main goal was to analyze data from digital marketing campaigns (e.g. impressions metrics), customer base and payments for a worldwide company dedicated to develop mobile apps.

In the baseline scenario we have to load and transform more than 100 data sources with a very high volume, although most of them was structured data. Some of the source tables had more than thousand millions of rows of historical data and several millions of news rows were generated per hour. 

Until that moment, they processed this data using PHP processes and then stored it into a Data Warehouse infrastructure based on distributing the load between MySQL and Redshift (most complex queries). With this system they achieved loading, refreshing and query times (latency) too slow for their business needs. 
Therefore, improving data pre-processing (ETL) and query latency were the main goals of this project.

With these goals in mind, we proposed and implemented an architecture that use a lot of tools from our stack: Sqoop (to load data), Hive (to pre-process data and as source for Kylin), Kylin (to query the resulting Big Data Warehouse with sub second latency) and Lince ST Tools over Pentaho BA Server (to analyze and visualize the aggregated data).

Thanks to the application of these tools, data load and refreshing times were reduced from 30 minutes to about 10 minutes. But the best improvement was the improved query latency due to the use of Apache Kylin, having most of the queries resolved in less than 1 second and between 10x and 100x faster than the initial scenario.


Big Data Analytics Event and Benchmark

After successfully testing the power of the Kylin, we decided to support this technology as a core part of our Big Data solutions. For this reason, we organized a workshop to present our Big Data Stack and Apache Kylin. 

The first edition took place in Barcelona, with more than 30 attendees from big companies, most of them professionals in BI area. After the success of this first edition, we organized a second edition in Madrid, with the participation of Luke Han, creator of Kylin and CEO of Kyligence (Kylin Enterprise). We also have talks from companies where we have successfully implemented Kylin.




Figure 3. Big Data Analytics workshop 2ºed with Roberto Tardío (up) and Luke Han talks (down)


Moreover, we presented a benckmark whitepaper where we compare the Big Data OLAP tools, Kylin and Vertica, and also them against PostgreSQL (traditional BD). The results show that Kylin allow us to achieve the best query latency, but Vertica (also part of our stack) is also proved as a very fast OLAP engine.

This last event was a complete success, with more than 40 attendees from large companies based in Spain that use Big Data.

Other applications and use cases of the Stack
In addition to the Big Data OLAP applications discussed, our stack provides tools for others applications such as data quality processes, real time processing and machine learning.

Nowadays, we are carrying a project where we use Spark and its machine leaning libraries to implement a process of data quality to improve direct and promotional marketing. Using Spark we are able to de duplicate the data using advanced statistics or to cross the raw data of customers with addresses dictionaries and geo API’s to normalize and clean it.

Moreover, we can use Kafka to gathering the data sources directly from our apps at real time or others API’s, in order to process it using Spark Streaming and also to load this data in Kylin directly from Kafka, to achieve near real time OLAP cubes.

Therefore, we can conclude that our Big Data Stack enables the successful implementation of most of the current Big Data Analytics scenarios. However, we will continue researching and testing new Big Data tools in order to enrich our Big Data Stack.

27 feb. 2019

Descarga el paper con tips para Talend


Os damos acceso a un interesante paper de nuestros compañeros de Stratebi, Partners de Talend (la potente solución ETL open source, con versión también Enterprise), que aborda los temas de la integración con Google Big Query, como realizar cargas incrementales y debugging

Descargar paper










Mas info:

Caso Practico: trabajando con APIs y Talend



En este ejercicio practico, vamos a enriquecer el flujo de datos con API de datos estadísticos. Descargar Documento completo 1      Introducción El propósito de este documento es demostrar como con un pequeño ejemplo se puede establecer un flujo de datos continuo entre la API Idescat y la herramienta Talend. El Idescat expone parte de sus datos a través de una colección de API de tipo REST. Además, la...


Tips y Tecnicas de optimización de Vertica con Talend



Os traemos unos cuantos trucos y recomendaciones sobre dos de nuestras herramientas favoritas: Vertica y Talend Configuring Talend for Use with Vertica To configure Talend for use with Vertica, you must understand: Using Talend Components for Vertica Using the Talend SQL Builder Enabling Parallelization in Talend ...


Data Lakes: Definiciones y Plataformas. Descarga gratuita del White Paper



Un gran estudio de más de 40 páginas por parte de Philip Russom, que puedes descargar gratuitamente desde aquí Os dejo a continuación, un resumen de los contenidos y algunos de los principales hallazgos del estudio. Muy interesante. Para saber más de Data Lakes: Diferencias entre Data Lake y Data Warehouse junio 07, 2017  Bases de Datos, data warehouse, teoria  No comments Let’s briefly take...


Comparacion entre Talend y Pentaho



Hace un tiempo os poníamos una primera Comparación entre Pentaho Data Integration Talend Open Studio. Hoy traemos otra comparación interesante: Talend: Talend is an open-source data integration tool whereas Pentaho Kettle is a commercial open-source data integration tool Talend offers limited connectivity to concurrent databases, and other forms of data but has a dependency factor of Java drivers to connect to the data sources...


Comparativa Kettle (Pentaho Data Integration) y Talend



Hace unos días os hablábamos de que el ETL es crucial y hoy os mostramos una comparativa de las dos mejores herramientas Open Source de ETL (Kettle de Pentaho y Talend), que tampoco empieza a ser arriesgado a decir que se están convirtiendo en las mejores, sobre todo si valoramos el coste y la posibilidad de integración y modificación respecto a Informatica Powercenter, Oracle, Microsoft o IBM Tanto Kettle como Talend son grandes herramientas, muy...


26 feb. 2019

La Historia de la Inteligencia Artificial

Muy interesantes este par de infografías:





25 feb. 2019

Snowflake, The Data Warehouse built for the Cloud



Hace unas semanas, tuvimos la suerte de acudir al evento de presentación en España que realizó Snowflake

Breakfast Insights 24/01/19:

Ponentes:
  • Benoit Dageville: Uno de los fundadores
  • Thibaut Ceyrolle: Vicepresidente EMEA
  • Pedro Martins: Outsystems.

Topics:
  • Presentan al equipo de ventas de España. Oficinas en Madrid y Barcelona.
  • Posibilidades datawarehouse, de procesamiento y almacenamiento en la nube.
  • Flexible, escalable y ágil al ser un entorno cloud. Cuentan con alianzas con AWS, Azure
  • Principales sectores a los que se dirigen son empresas de internet, seguros, banca, salud, IoT
  • Principal inversor el grupo Sequoia que también ha invertido en Airbnb, Apple, Google, Facebook...
  • Info sobre pricing: https://www.snowflake.com/pricing/

El discurso principal se orienta a dedicar el tiempo a la toma de decisiones en lugar de a procesar datos (simplificar el ETL y el DW, para que 'negocio' decida)

La charla más interesante fue la de Pedro Martins donde destacó que buscaban una solución con soporte para datos  estructurados y semi estructurados, conexiones de distintos orígenes (herramientas BI, machine learning...), capacidades SQL, simplicidad a la hora de preparar los datos y escalibilidad de almacenaje y computación. 





Su caso de uso tenía como fuentes sistemas propios de su plataforma de Outsystems, datos de telemetría o Salesforce. 

Usaban pentaho, Fivetran y el contector cloud de AWS S3 para la parte de ETL y la carga de datos en Snowflake. En cuanto a self service para analítica usaban R, Tableau y Qlik además de dashboards desarrollados por ellos.

El diseño del DW lo dividían en 3 secciones, una que llamaban raw, similar a un staging, y para el equipo técnico,  otra analistas donde estaba basicamente el DW y finalmente una donde tenían las métricas accesibles para los usuarios de negocio.    

Destacaban de Snowflake la facilidad para la definición de datasets accesibles a diferentes roles de usuario. Parece ser que se trata de "virtual datamarts" que no tienen persistencia física como sucede en las soluciones tradicionales.

Nos hubiera gustado ver algo de la interfaz de trabajo y/o definición de DW pero todo lo que mostraron fueron ppts. 


En cualquier caso, se puede ver aquí: https://resources.snowflake.com/youtube-all-videos/snowflake-introduction-demo

24 feb. 2019

Map of Computer Science

Where are you?


7 datos sobre 'Data-Driven Innovation'

Datos, Datos... mueven el mundo


23 feb. 2019

What is Data Science


Para aquellos que piensan que la Inteligencia Artificial es una moda actual



Es del año 1985, imaginaros. Aquí os lo podéis descargar, que maravilla!!





Saber más:

Glosario de Inteligencia Artificial (AI)



Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la salida de un algoritmo no puede ser fácilmente explicado por el ordenador o el investigador detrás de él. Computer vision El campo de la I.A. se ocupa de enseñar a las máquinas a interpretar el mundo visual, es decir, a ver. Aprendizaje...

Whitepaper gratuito 'Usos de Machine Learning por sectores'


Ya tenéis disponible un Estudio muy interesante de más de 60 páginas, que os podéis descargar gratuitamente desde el enlace anterior Que podéis encontrar? Más información: Plataforma Online de Soluciones Big Data y Machine Learning (Demos y Aplicaciones) Aplicación práctica de Machine Learning con Bases de Datos Analyticas. Descargar Paper VideoTutorial Machine Learning para Predicción de Ventas VideoTutorial PowerBI con R Aplicación...

Como y Donde aplicar Inteligencia Artificial


En esta infografía podéis ver los principales ámbitos de aplicación de la Inteligencia Artificial Glosario de Inteligencia Artificial (AI) octubre 27, 2018  machine learning  No comments Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la...

Que algoritmo de Machine Learning elegir para cada problema?


Dado que existen muchos algoritmos, como hemos venido contando ultimamente, os vamos a dar unas pistas para ayudaros:  1. Cuando usar Machine Learning Lo primero que tenemos que tener en cuenta es que, aunque hablar y usar Machine Learning es una tendencia y es 'cool', debemos ser conscientes de que sea de utilidad. Hemos visto que los Data Scientist están de moda pero muchos abandonan sus trabajos, por no adecuar las expectativas Os puede...


Diferencias entre Business Intelligence y Data Science (bien explicado)


Muy buena y clarificadora explicación, desde un punto de vista práctico de las diferencias entre estas dos disciplinas Saber más: Workshops Big Data Analytics en Madrid y Barcelona diciembre 24, 2018  big data, kylin, open source, Pentaho, vertica  No comments 2018 ha sido un buen año, en el que hemos vuelto a organizar nuestros workshops sobre tecnologías Open Source aplicadas al Big Data,...

Los 30 mejores proyectos de Machine Learning Open Source



Como sabéis, el Machine Learning es uno de los temas que más nos interesan en el Portal y, máxime, cuando gran parte de las tecnologías son Open Source. En esta entrada, os indicamos los 30 proyectos más interesantes en en este año. Os dejamos también el material que publicamos con las claves del Machine Learning y una introducción Ver también, VideoTutorial No 1 FastText: Library for fast text representation and classification....

21 feb. 2019

Machine Intelligence Landscape

Genial!! via Shivon Zilis


Dashboards using ascii/ansi


Great to see this initiative: Build dashboards using ascii/ansi art and javascript 

Rich dashboard

See source code

License

This library is under the MIT License

More Information

Created by Yaron Naveh (twitter, blog)

20 feb. 2019

Buena oferta de empleo para Data Scientists y Big Data (o que quieran serlo)!!



En Stratebi, líderes en Business Intelligence, Big Data y Machine Learning y creadores de la plataforma LinceBI están buscando apasionados por estas áreas, con muchas ganas de aprender, crecer profesionalmente y liderar el desarrollo de la mejor plataforma Big Data Analytics en grandes proyectos.

"Nos gustaría que tuvierais los siguientes skills. Como es complicado tenerlos todos, con varios de ellos y muchas ganas de aprender, también sería factible. Escríbenos

Echa un vistazo a nuestros entornos Lab en Big Data y Business Intelligence"


  • DATA SCIENTIST 

    • Recomendable:
      • Teoría de analítica de datos (estadística descriptiva, análisis de correlacion, reduccion de la dimensionalidad (PCA), regresión, etc.) , series temporales (estacionalidad, tendencia, predicciones, modelo ARIMA, etc.) y regresión (regresión lineal, algoritmos basados en árboles, etc.). También se valoraran conocimiento en técnicas de clasificación, clústering y sistemas de recomendación.
        • Conocimientos matemáticos y estadísticos que permitan interpretar e implementar con facilidad los algoritmos anteriores.
      • Experiencia demostrable en el uso de una o más de las siguientes tecnologías:
        • R desde RStudio, Jupyter, …
        • Python con Pandas, Scikit, TensorFlow….
        • Spark (en Scala o Python) con MLIB, R,…
      • Conocimiento medios de bases de datos y del lenguaje SQL:
        • Consultas analíticas con group by, joins, funciones de resumen (ej. Sum, count,…)
        • Consultas de creación de tablas y carga/actualización de los datos de las mismas (INSERT, UPDATE…)
        • Experiencia en el uso de alguna base de datos conocida (MySQL, PostgreSQL , SQLServer, Oracle,…)
        • Modelado relacional. (interpretación de esquemas de bases de datos)
      • Conocimiento de programación en alguna de las siguientes tecnologías
        • Scala
        • Python
        • Otras tecnologías de programación también se valoraran.

    • Deseable. Además de lo anterior se valoraran:
      • Conocimientos de Business Intelligence
        • Data Warehousing
        • Modelos de datos multidimensionales (esquemas estrella o copo de nieve)
      • Conocimientos teorico-prácticos de Big Data y el entorno Hadoop. Se valoraran conocimientos en:
        • Spark (Spark SQL, RDD, streaming, mlib, R,…)
        • Hive
        • Zeppelin
        • Sqoop
        • Kafka
        • Otros: HDFS, Map Reduce, Flink, Elasctic-Search,….
      • Conocimiento de herramientas de Business Intelligence:
        • Servidor BI: Power BI, Pentaho, Tableau, Microstrategy,…
        • Procesos ETL: Pentaho, Talend, SSIS…
      • Experiencia en empresa en las habilidades y herramientas anteriores.


  • BIG DATA ENGINEER 

    • Recomendable:
      • Conocimientos de Business Intelligence
        • Data Warehousing
        • Modelos de datos multidimensionales (esquemas estrella o copo de nieve)
        • Procesos de extracción, transformación y carga de datos (ETL)
      • Experiencia demostrable en Big Data y el entorno Hadoop. Especialmente en las siguientes tecnologías:
        • Hive o Impala
        • Spark (Spark SQL, Streaming,..)
        • Gestión del clúster (Ambari, Cloudera Manager, configuración manual Hive, Spark, Hadoop…)
        • Otros que también se valoraran : HDFS, Map Reduce, HBase, Kafka, Kylin, Druid, Flink, Elasctic-Search ….
      • Manejo de una o más herramientas de Business Intelligence:
        • Servidor BI: Power BI, Pentaho, Tableau, Microstrategy,…
        • Procesos ETL: Pentaho, Talend, SSIS…
      • Conocimiento de bases de datos y del lenguaje SQL:
        • Consultas analíticas con group by, joins, funciones de resumen (ej. Sum, count,…)
        • Consultas de creación de tablas y carga/actualización de los datos de las mismas (INSERT, UPDATE…)
        • Experiencia en el uso de alguna base de datos conocida (MySQL, PostgreSQL , SQLServer, Oracle,…)
        • Modelado relacional. (interpretación de esquemas de bases de datos)
      • Experiencia en empresa en las habilidades y herramientas anteriores.

    • Deseable. Además de lo anterior se valoraran:
      • Teoría de machine learning (técnicas regresión, clasificación, clustering, …)
        • Conocimientos matemáticos y estadísticos que permitan interpretar e implementar con facilidad los algoritmos anteriores.
      • Conocimiento teórico prácticos en el uso de una o más de las siguientes tecnologías:
        • R desde RStudio, Jupyter, …
        • Python con Pandas, Scikit, TensorFlow….
        • Spark (en Scala o Python) con MLIB, R,…
      • Conocimientos de programación en alguna de las siguientes tecnologías
        • Scala
        • Python
        • Otras tecnologías de programación también se valoraran.


Top 50 Business Intelligence Blogs Winners


Estamos muy contentos de poder contaros que vuestro blog Todobi.com es uno de los 'Top 50 Business Intelligence Blogs Winners'. De hecho es el único blog en español, por lo que el mérito es si cabe aun mayor

Seguiremos dedicando esfuerzo para ampliar y mejorar los contenidos y que os sean de interés

Muchas gracias,

Como ha evolucionado el Machine Learning?

Muy buena ilustración


19 feb. 2019

Big Data para PowerBI



Power BI es un conjunto de herramientas Business Intelligence (BI) desarrolladas por Microsoft. De reciente aparición, gracias a su simplicidad y potencia se ha hecho un un hueco entre las grandes del mercado como Tableau, Pentaho o Microstrategy. 
Al igual que estas últimas, implementa la filosofía de Autoservicio para el usuario final (Self Service BI) llevada al extremo de la sencillez, pero con un gran número de características como el desarrollo de cuadros de mando (denominados informes en Power BI), la compartición web o dentro de la organización, un gran número de gráficos incluyendo gráficos con análisis estadístico (ej. forecasting página 2 demo), conexión a fuentes relacionales y Big Data, exploración en lenguaje natural (Q & A), soporte para ejecutar código R y visualizar resultados, o pre procesamiento de datos (ETL).
Las características anteriores se implementan repartidas en las distintas aplicaciones. Power BI Desktop es la herramienta de cliente para la exploración, transformación y diseño de visualizaciones a partir de los datos. Se trata de una herramienta completamente gratuita, que dispone de conexiones a las fuentes Big Data y relacionales más usadas. Aunque para algunas fuentes dispone de un conector específico, en el caso de Apache Kylin hemos de hacer uso del conector ODBC disponible en su web
Tras la conexión, se genera un extracto de los datos. A partir de este momento los pasos para la creación de nuestro cuadro de mando han sido i) la definición del modelo de datos, ii) la aplicación de alguna transformación (ej. formato de fecha), iii) la definición de métricas calculadas (ej. tasa de éxito) o jerarquías sobre las dimensiones (ej. tabla OLAP página 2 demo), y, por último, iv) la creación del cuadro de mando demo, compuesto por dos páginas (selector en barra inferior).
Una vez hemos diseñado y guardado nuestro cuadro de mando con Power BI Desktop, llega el momento de compartirlo. Para ello hemos creado una cuenta de Power BI Service en su alternativa gratuita, pues en esta herramienta sí dispone de versiones Pro y Premium, ambas de pago. Aunque estas versiones disponen de conexión directa a algunas bases de datos como SQL Server (con o sin Analysis Services), Oracle o Cloudera Impala, para el resto de conexiones, como la conexión ODBC con Kylin, es necesario publicar el extracto de los datos, que se refresca de forma manual (versión gratuita) o programada (Pro y Premium).
Además de Power BI Desktop y Power BI Service (Free, Pro y Premium), existen otras herramientas como Mobile , para el acceso a los informes desde nuestro smartphone y el trabajo colaborativo, o Embedded, para componer nuestras propias aplicaciones, portales web, Share Point a partir de las visualizaciones desarrolladas con Power BI.
Sí estas interesado en hacer tu proyecto con esta tecnología no dudes en solicitar presupuesto en StrateBI, Partner de Microsoft PowerBI con larga experiencia

Aquí, (Ver Demo) puedes ver un ejemplo combinado de PowerBI on open source based Business Intelligence solutions, como LinceBI, de forma que puedes tener una solución completa BI, que cubre todos los módulos y necesidades

- Adhoc Reporting
- Predefined Dashboards
- OLAP Analysis
- Adhoc Dashboarding
- Scorecards
- Forecasts

Mas info:





PowerBI for Big Data

Arquitecture:
En el caso de estudio que presentamos (Ver Demo), hacemos uso de las herramientas Apache Kylin , Power BI Desktop y Power BI Servicio para dar soporte al análisis mediante Cuadros de Mando de un almacén de datos (Data Warehouse, DW) que contiene datos con características Big Data (Volumen, Velocidad y Variedad).
Se trata de un gran Volumen de datos académicos, relativos a los últimos 15 años de una universidad de gran tamaño. A partir de esta fuente de datos, se ha diseñado un modelo multidimensional para el análisis del rendimiento académico. En él contamos con unos 100 millones de medidas cómo los créditos relativos a asignaturas aprobadas, suspendidas o matriculadas. Estos hechos se analizan en base a distintas dimensiones o contextos de análisis, como el Sexo, la Calificación o el Año Académico.
Dado que este Volumen de datos es demasiado grande para analizarlo con un rendimiento aceptable con los sistemas OLAP (R-OLAP y M-OLAP) tradicionales, hemos decidido probar la tecnología Apache Kylin, la cual promete tiempos de respuesta de unos pocos segundos para Volúmenes que pueden superar los 10 billones de filas en la tabla de hechos o medidas.
Las tecnologías del entorno Hadoop fundamentales para Kylin son Apache Hive y Apache HBase. El almacén de datos (Data Warehouse, DW) se crea en forma de modelo estrella y se mantiene en Apache Hive. A partir de este modelo y mediante la definición de un modelo de metadatos del cubo OLAP, Apache Kylin, mediante un proceso offline, crea un cubo multidimensional (MOLAP) en HBase. A partir de este momento, Kylin permite hacer consultas sobre el mismo a través de su interfaz SQL, también accesible a través de conectores J/ODBC.
Por último, para hacer posible la exploración de los datos del cubo de Kylin mediante lenguaje SQL y la creación de cuadros de mando que podamos compartir con los usuarios finales de los datos, hemos hecho uso de las herramientas Power BI Desktop y Power BI Service.
En primer lugar hemos usado Power BI Desktop, herramienta gratuita, para la conexión con Apache Kylin y la creación de un cuadro de mando similar al que realizamos para el ejemplo con Apache Zepelin y, también, con Tableau. La herramienta Power BI es una herramienta de Autoservicio para el usuario final (Self Service BI): facilita la creación y publicación de completos cuadros de mando a los usuarios finales de los datos, así como el modelado y transformación de los datos si es necesario.
Una vez diseñado el cuadro de mando, lo hemos publicado en la Web haciendo uso del servicio en la nube de Power BI. Para ello, es necesario la creación de un extracto o copia de los datos, que se hace de forma transparente al usuario y se sube a la nube de Power BI junto con el cuadro o cuadros de mando. En este caso hemos usado la versión gratuita, aunque también dispone de versiones Pro y Premium con características añadidas como la compartición intra organización (además de vía Web) o el refresco programado de los datos del extracto desde el origen, Apache Kylin por ODBC en nuestro caso.