Material Big Data

Lanzados ppts informativos de tecnologías BigData: Hadoop, Hbase, Hive, Zookeeper...

Apuntate al Curso de PowerBI. Totalmente práctico, aprende los principales trucos con los mejores especialistas

Imprescindible para el mercado laboral actual. Con Certificado de realización!!

Pentaho Analytics. Un gran salto

Ya se ha lanzado Pentaho 8 y con grandes sorpresas. Descubre con nosotros las mejoras de la mejor suite Open BI

LinceBI, la mejor solución Big Data Analytics basada en Open Source

LinceBI incluye Reports, OLAP, Dashboards, Scorecards, Machine Learning y Big Data. Pruébala!!

30 mar. 2019

Once pasos para construir un Datawarehouse con exito



Cada vez más empresas empiezan a utilizar Datawarehouses para obtener información útil sobre sus negocios y tomar decisiones adecuadas.
Hasta hace poco, sólo las grandes compañías se podían permitir crear un DW y tener aplicaciones y analistas para extraer toda esa información. Sin embargo, el abaratamiento de los costes de software y, sobre todo, del hardware, hacen que su uso se haya popularizado y extendido.
Por este motivo, se hace necesario establecer unos criterios que lleven a al creación de este entorno de forma exitosa.

1)
Reconocer que el trabajo será más duro de lo que se esperaba inicialmente.

Es muy habitual encontrarse con que más de un 30% de la información contenida en los sistemas operaciones o es incorrecta o incompleta para incorporarla al DW. Esta mala calidad de los datos incide en la complejidad del trabajo.
Otro ejemplo, es el de los administradores de la base de datos, que usan números en lugar de nombres de ciudades para optimizar el cálculo en sistemas operacionales. En un entorno Business Intelligence, este tipo de ‘trucos’ no son muy útiles, pues los usuarios necesitan descripciones completas.
Otro tema que hace el trabajo más duro del esperado, es la aparición de nuevos productos o divisiones durante el proceso de implementación. Algo habitual dada la duración del mismo.

2) Conocer los datos en los sistemas origen.

Antes de comenzar a construir el DW es muy importante analizar los datos y sus interrelaciones entre todas las Bases de Datos disponibles.
Posteriormente, al migrar esa información al DW, será necesario mantener esas relaciones, por lo que es muy importante hacerlo bien para evitar inconsistencias en el modelo de datos que pueden provocar muchos quebraderos de cabeza.


datawarehouse


3) Saber reconocer entidades equivalentes

Uno de los principales problemas que surgen cuando se analizan sistemas heterogéneos, es la de identificar como una misma entidad, elementos que aparecen con nombres y descripciones diferentes, pero que se refieren a lo mismo.
Por ejemplo, dos departamento diferentes (Comercial y Finanzas), pueden estar registrando en sus sistemas información sobre un mismo cliente, pero puede que este registrado con nombre diferentes (nº cliente, nº fiscal, nombre social, etc…)

4) Usar metadatos como soporte a la calidad de los datos.

El uso de metadatos (datos sobre los datos), es crucial para el éxito de un DW. Es muy importante empezar a recoger y almacenar metadatos desde las fases iniciales del proyecto e incluir todas las fases del mismo.
También es muy útil integrar todos los metadatos en un lugar común. Esto será especialmente interesante cuando estemos trabajando con diferentes herramientas, cada una de las cuales, genera sus propios metadatos.

5) Seleccionar las herramientas ETL adecuadas.

Las herramientas ETL, se encargan de las extracción de datos de los sistema fuente, de su transformación y posterior carga en el DW o en algún sistema intermedio para posteriores transformaciones.
A la hora de seleccionar una herramienta ETL, será muy útil que tenga un manejo sencillo y represente de forma visual todas las transformaciones.
Así mismo, será muy útil que pueda ir generando metadatos, conforme se vaya realizando el proceso ETL.

6) Tomar ventaja de las fuentes externas

La integración de fuentes externas a los sistemas operacionales, como puede ser la infomación de encuestas de satisfacción de los clientes o los estudios de mercado de terceros, o información sobre competidores, puede aportar un valor añadido muy importante al DW.
Esta información nos permitirá sacar conclusiones mucho más avanzadas sobre el negocio, que las meramente internas como ventas, costes, etc…

7) Utilizar nuevos métodos de distribución de la información.
Antiguamente, se necesitaba de la participación de analistas que prepararan los informes para cada necesidad de los usuarios. Sin embargo, ahora se pueden utilizar informes parametrizables, envios via e-mail, alertas, etc… de modo que son los usuarios finales los que acceden directamente a la información que necesitan y pueden configurarse sus propias consultas.

8) Centrarse en aplicaciones para uso en Marketing

Un DW ofrece una de sus mayores ventajas a los departamentos de Marketing, donde se tienen que manejar grandes cantidades de información. Empresas del sector de distribución, banca y seguros pueden realizar complejos análisis de ventas cruzadas y generar ofertas en base a un portfolio de productos que se pueda ajustar a las necesidades de los clientes.

9) Enfatizar los primeros resultados positivos para ganar apoyo de la organización

La reducción de la complejidad de estos sistemas y el enfoque incremental utilizado en su creación, hacen que se pueda empezar a ver algunos frutos en un corto plazo de tiempo.
Esto tiene que ser aprovechado para que la organización valide lo realizado y apoye con sugerencias y compromiso los nuevos desarrollos que aún están pendientes.

10) No hay que infravalorar los requerimientos de Hardware

En un DW, los requerimientos de hardware son uno de los principales temas a valorar. A veces, se diseña una arquitectura que puede ser ampliamente suficiente para la entrada en producción, pero a menudo se olvida que estos sistemas crecen muy rápidamente, se necesitan sistemas de copia seguros y las necesidades de rendimiento, en términos de agilizar los cálculos son muy importantes. Por eso, nunca conviene infravalorar el número de CPU´s y memoria en disco disponibles.


11) Considerar el Outsourcing para el desarrollo y mantenimiento del DW
Muchas compañias de mediano y gran tamaño utilizan el outsourcing como medio de garantizar el complejo, largo y costoso proceso de poner en funcionamiento un DW y evitan la dificultad de encontrar y retener profesional IT capacitados.
El outsourcing puede llegar a generar nuevas ideas y desarrollos en base a su conocimiento profundo del DW y de su arquitectura, además no tiene los problemas de falta de personal capacitado de muchas empresas.


Fuente: Syntel
Tags: Destacado

28 mar. 2019

STPivot (Web Analytics open source based) complete Videotutorials


You can see on this series of VideoTutorials, the main features of STPivot (best open source based web analysis tool, with no licenses and professional support included) and how it works

Besides, you can embed, customize and modify in order to fit your needs

STPivot is part of LinceBI Open Analytics solution




1. LinceBI OLAP interactive analysis
2. STPivot OLAP Analytics for Big Data 
3. Powerful Forecasts in STPivot
4. STPivot (Formula Editor)
5. STPivot (OLAP Selector)
6. STPivot (Advance Selector features)
7. STPivot (working with saved selections)
8. STPivot (Drill through and table navigation)
9. STPivot (Working with graphs, maps and calc)
10. STPivot (Forecast and Regression apps)
11. STPivot (What-if scenarios and wizard)
12. STPivot (Using calculate members)


Jupyter Book: Interactive books running in the cloud

Presentacion: Como mentimos con las infografias

Genial esta presentación de Alberto Cairo:


26 mar. 2019

8 puntos que debes saber para implementar AI en tu organizacion

Muy útil para saber si la Inteligencia Artificial es para tu organización o no:





Saber más:

Whitepaper gratuito 'Usos de Machine Learning por sectores'



Ya tenéis disponible un Estudio muy interesante de más de 60 páginas, que os podéis descargar gratuitamente desde el enlace anterior Que podéis encontrar? Más información: Plataforma Online de Soluciones Big Data y Machine Learning (Demos y Aplicaciones) Aplicación práctica de Machine Learning con Bases de Datos Analyticas. Descargar Paper VideoTutorial Machine Learning para Predicción de Ventas VideoTutorial PowerBI con R Aplicación...


Como y Donde aplicar Inteligencia Artificial



En esta infografía podéis ver los principales ámbitos de aplicación de la Inteligencia Artificial Glosario de Inteligencia Artificial (AI) octubre 27, 2018  machine learning  No comments Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la...


Diferencias entre Business Intelligence y Data Science (bien explicado)



Muy buena y clarificadora explicación, desde un punto de vista práctico de las diferencias entre estas dos disciplinas Saber más: Workshops Big Data Analytics en Madrid y Barcelona diciembre 24, 2018  big data, kylin, open source, Pentaho, vertica  No comments 2018 ha sido un buen año, en el que hemos vuelto a organizar nuestros workshops sobre tecnologías Open Source aplicadas al Big Data,...


Glosario de Inteligencia Artificial (AI)



Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la salida de un algoritmo no puede ser fácilmente explicado por el ordenador o el investigador detrás de él. Computer vision El campo de la I.A. se ocupa de enseñar a las máquinas a interpretar el mundo visual, es decir, a ver. Aprendizaje...



Las 7 C del Internet of Things (IoT)


Vaya, se trataba de buscar otra letra para concretar puntos importantes de una tecnología de moda. Ahora tenemos las 7 Cs del Internet of Things, y lo dice Forbes:

1 — Consumption: The first stage of the IoT is always consumption. We could also use the word ‘ingestion’ here i.e. we need to build devices that are capable of producing operational data so that we can consume it into our IT structures.


2– Connection: The existence of smart connections (from sensors and other types of connection points) are essential avenues for IoT construction. Only when we have connectivity to the IoT can we start to build intelligence around the data that it produces.


3 — Conversion: This is the crucial stage that sees us take raw sensor data and convert it into contextualized meaning. Applying human reasoning to raw data is simply not possible, we need to expand the 1s and Os that the machines produce and start to know what information matters where, when and why — this after all is what context is all about.





4 — Centralization: The Internet of Things is everywhere, which is kind of why it got its name in the first place. Given the existence of so many different, disparate, disconnected and disaggregated data streams, the need to centralize that data and bring into one central location is essential if we are to perform big data analytics.


5 — Cognition: This is the part where we make sure that we understand what the data itself means. This is not the same as plain old data conversion, this is a more analytical process where we make sure we can apply context to the data in hand.


6 — Configuration: In this stage, to use Elrifai’s concept directly, we start to channel ‘feedback’ from the cyber world into the physical world i.e. This is where we start to send the data that we have crunched BACK INTO the Internet of Things so that the machines can work better and work smarter.


7 — Coordination: This is where we take the insight we have gained from IoT intelligence and start the process of better business logistics and scheduling i.e. we know what machines are about to fail, what transport networks are about to suffer outages and delays etc. and we can then use that insight to coordinate the logistics arm of the business function.


An eighth C?

If there were an eight C on this list it would be Creativity — this is because big data analytics with the Internet of Things is all about experimentation.

25 mar. 2019

Facebook Sentiment Analysis Dashboard with Pentaho



Check this Dashboard using Pentaho BI Suite, including Dashboard, Sentiment Analysis using Data Mining and OLAP Cube with Pivot views.

You can use it online in this Demo and you can download this whitepaper explaining how to apply Sentiment Analysis


Some days ago we told you about Real Time Twitter Dashboard too




22 mar. 2019

Libro gratuito: Big Intelligence


Nuestro buen amigo y colaborador en TodoBI, Antonio Miranda, acaba de publicar un libro mas que interesante y que, además, os podéis descargar gratuitamente y que os recomendamos:

"Big Intelligence. Nuevas capacidades Big Data para los sistemas de vigilancia estratégica e inteligencia competitiva"


Las grandes empresas de internet han creado un nuevo Mercado cuyos productos y servicios son el fundamento de un término paraguas que llamamos Big Data, que le da nuevas alas a las actividades y procesos que suelen englobarse en los conceptos de Vigilancia Estratégica e Inteligencia competitiva


A esa fusión de Big Data aplicado a la Vigilancia Estratégica e Inteligencia Competitiva lo ha denominado en este libro “Big Intelligence”.


Contiene apartados tecnológicos sobre temas muy de moda como Machine Learning, Data Science, Procesamiento de Lenguaje Natural, Ontologías, Web semántica, Bases de Datos NoSQL, apartados específicos sobre Vigilancia Estratégica e Inteligencia Competitiva y su implementación con enfoque Big Data, una presentación en tono divulgativo y también algunos modelos de procesos que pueden ser de vuestro interés.


20 mar. 2019

Data is the source of Business Value


Gran articulo de Bill Schmarzo

Bi isn't big data and big data isn't BI

Compartimos con vosotros esta interesante presentacion de Mark Madsen que explica de forma muy visual la relación entre BI y Big Data

 

19 mar. 2019

Data Science Lifecycle




Es difícil explicarlo mejor en un solo gráfico!!

18 mar. 2019

Tutorial de Real Time Big Data con Apache Storm

Los compañeros de Stratebi realizan charlas técnicas internas sobre diferentes tecnologías en el ámbito del Business Analytics, Big Data, etc... y nos las pasan para compartirlas con poder compartirlas con todos vosotros.

En este primero se habla de Real Time Big Data con Apache Storm. Puedes ver muchas Aplicaciones Online Big Data explicadas en el enlace anterior

Prometen hacer más, estad atentos




Presentaciones:




14 mar. 2019

Consejos para presentar bien los datos


Interesante y útil la presentación de StephanieEvergreen.com, con ejemplos y consejos sobre visualización


StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com. #sthash.4suMLKwJ.dpuf
StephanieEvergreen.com. #sthash.4suMLKwJ.dpuf


12 mar. 2019

Vocabulario Visual


Hay tantas maneras de visualizar los datos ¿cómo sabemos cuál elegir? Haga clic en una de las siguientes categorías para decidir qué relación de datos es la más importante en su historia, luego observe los diferentes tipos de gráficos dentro de la categoría para formar algunas ideas iniciales sobre lo que podría funcionar mejor.

Esta lista no pretende ser exhaustiva, ni un asistente, pero es un punto de partida útil para realizar visualizaciones de datos informativas y significativas.


'True facts' del Business Intelligence

Algunos puntos que conviene tener en cuenta a todos los que realizan proyectos Business Intelligence, que nos comenta nuestro compañero Emilio Arias:

- "La visualización 'SI' importa"



Vista espacial del diseño de los nuevos Resorts en la costa de Dubai

- Por mucho que los analistas digan que lo importante son los datos, hasta los controllers, te pedirán la mejor visualización posible 
 - Y la querrán en todos los browsers (en todos) y todas las versiones (hasta las obsoletas) y en todos los dispositivos (hasta en los paneles de las neveras) 
 - La memoria es visual, no lo olvides - Una imagen vale más que mil palabras.... y que mil números 
 - El color atrae. Cifras negras sobre fondo blanco no. 
 - Los hombres del tiempo llevan decenios representando las temperaturas sobre un mapa con iconos, simbolos y flechas... y se dirigen a una gran audiencia... 

 - Controla los riesgos




















- No quieras analizar más información de la necesaria y hagas inviable el sistema
- No quieras hacerlo todo tú, por ahorrar, y que luego no te sirva
- No te quedes 'comprometido' con una tecnología que luego no puedas integrar
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad

11 mar. 2019

Smart Cities, que son y para que sirven




Las Smart Cities y todo lo que rodea su expansión: transparencia, tecnología, Open Data, Big Data, Internet de las cosas (IoT), Open Source, ya están aquí y han venido para quedarse.



Nuestros compañeros de Stratebi también han preparado una presentación sobre Smart Cities y su apoyo en Open Source y Business Intelligence


10 mar. 2019

Por que es interesante Elastic y Kibana?



Hace unos días se celebró en Madrid el evento Elastic{ON} tour, dónde los creadores y usuarios del conocido motor de búsqueda y analítica de datos, contaron las novedades sobre el mismo, así como algunos casos de uso en empresas como Orange o Banco Santander.

Shay Banon, creador de Elastic, abrió el evento con una presentación acerca del presente y futuro de Elastic. En primer lugar, puso de manifiesto que esta herramienta surgida como un motor de búsqueda en una base de datos de documentos (índice invertido), se ha convertido en un conjunto de herramientas mucho más potente, ELK (Elasctiserach, Logstash y Kibana), dónde los usuarios además de implementar un sistema de búsquedas interactivos, tiene la posibilidad de implementar analítica de datos mediante la creación métricas de agregación (medias, recuentos, máximos, histogramas…), cuadros de mando y procesos de machine learning que se pueden crear de forma muy sencilla usando la herramienta Kibana.


Además, distintos miembros de elastic presentaron las novedades en algunas de las características más importantes y novedosas:

·  Data Rollups: Pre agregación de datos de histórico mediante un asistente en Kibana, para mejorar el rendimiento de las consultas analíticas.

·  Canvas: Para la creación de cuadros de mando pixel-perfect con Kibana, mucho más personalizables que los que actualmente podemos desarrollar. Además, se mostró un ejemplo usando el módulo de Elastic que permite consultar datos con lenguaje SQL, en lugar de usar la sintaxis clásica de la API JSON de elascticsearch.

·   Machine Learning: Se hizo hincapié en las características para la detección de outliers y generación de predicciones, características muy útiles por ejemplo para la detección de fallos o sobrecargas en infraestructuras.

·   Elastic Common Schema: Esquema para el mapeo de campos comunes (ej. campos geográficos, como la ciudad)


No menos importantes fueron los casos de uso mostrados por Orange y Banco Santander.
En el caso de Orange, usan Elastic para varios objetivos como la monitorización de las infraestructuras (redes móviles, tv) o el análisis de los datos de llamadas (CDR).

En el caso del Banco Santander, lo están usando para proporcionar una plataforma de análisis financiero a través de su nube privada, como servicio de valor añadido a los inversores. En ambos casos se trata arquitecturas dónde se ha desplegado Elastic en clústeres que van de 10 a cientos de nodos.

Además, destaca la presencia de otros componentes de datos como Kafka, cola de mensajes distribuida que facilita el movimiento de datos en tiempo real a distintas partes de la Big Data pipeline y aumenta la tolerancia a fallos actuando como un buffer persistente.

Por todo ello, consideremos que Elastic es una herramienta consolidada para la implementación de búsquedas y analítica sobre logs u otros conjuntos de datos con características Big Data. 

No obstante, en cuanto a la analítica de datos, existen algunas limitaciones frente a planteamientos tradicionales de Data Warehousing, como la imposibilidad de hacer joins entre tablas (índices o tipos de documentos en elasctic) y otras limitaciones en la forma de agregar los datos o la creación de métricas. 

Por ellos es importante determinar si nuestro escenario de Big Data Analytics puede ser cubierto usando únicamente Elastic (ELK). No obstante, dado que la integración con entornos Hadoop es posible (ej. a través de Spark), podemos combinar lo bueno de ambos mundos para el procesamiento analítico del Big Data, como así proponemos en nuestro Big Data Stack.




7 mar. 2019

'Comparativa Bases de Datos Analíticas, descarga el paper gratuito


El uso de sistemas Business Intelligence (BI) suele obtener una respuesta muy rápida e interactiva cuando se utilizan cuadros de mando, informes y consultas analíticas detalladas. Las aplicaciones de BI que cumplen con este requisito de procesamiento interactivo se conocen como aplicaciones OLAP (On-Line Analytical Processing). 

Sin embargo, cuando trabajamos con fuentes de datos con características de Big Data (Volumen, Variedad y Velocidad), nuestras tablas de métricas (por ejemplo, volumen de ventas, unidades...) y aquellas tablas que describen el contexto (por ejemplo, fecha, cliente, producto) podrían almacenar miles de millones de filas, lo que hace que los requisitos de procesamiento sean muy elevados, incluso para las tecnologías Big Data más avanzadas.

Por ello, se ha creado este estudio muy completo que, por primera vez, y de forma rigurosa, compara el rendimiento de las diferentes alternativas para realizar Big Data Analytics





**Download free 27 pages whitepaper ''Big Data Analytics benchmark' 
**Download free 27 pages whitepaper ''Big Data Analytics benchmark' 




Para soportar las aplicaciones OLAP con Big Data, en los últimos años han surgido múltiples tecnologías que prometen excelentes resultados. Algunas de los más conocidos son Apache Kylin, Vertica, Druid, Google Big Query o Amazon Red Shift. 





En este whitepaper describimos las tecnologías Big Data OLAP que forman parte del benchmark: Apache Kylin y Vertica. 



Además de comparar estas tecnologías entre sí, también las hemos comparado con la base de datos relacional PostgreSQL. 

Esta tecnología de código abierto, a pesar de no ser una base de datos Big Data, suele ofrecer muy buenos resultados para los sistemas OLAP tradicionales. Por lo tanto, consideramos que valía la pena incluir PostgreSQL para medir sus diferencias con Kylin y Vertica en un escenario de Big Data OLAP.


LinceBI, solución analítica basada en código abierto, utiliza estas tecnologías para un rendimiento escalable y más rápido en Business Intelligence 




More Info:


OLAP for Big Data. It´s possible?



Hadoop is a great platform for storing a lot of data, but running OLAP is usually done on smaller datasets in legacy and traditional proprietary platforms.   OLAP workloads are beginning to migrate to the one data lake that is running Hadoop and Spark. Fortunately, there are a number of Apache projects that are starting to make OLAP possible on Hadoop.  Apache Kylin For an introduction to this interesting Hadoop project, check...



6 mar. 2019

Big Data Dictionary: From A to Z

4 mar. 2019

STDashboard (Web Dashboard Editor open source based), Video Tutorials



You can see on this series of VideoTutorials, the main features of STDashboard (best open source based web dashboarding tool, with no licenses and professional support included) and how it works

STDashboard is part of LinceBI Open Analytics solution

0. STDashboard (Dashboard for end users in minutes)
1. STDashboard (LinceBI Open Source BI/BigData Solution)
2. STDashboard (LinceBI Vertical Dashboarding Solution)
3. STDashboard (Cubes, Schemas and Templates Management)
4. STDashboard (Config, PDF Export, Layouts...)
5. STDashboard (Graphs, Measures and Dimensions)
6. STDashboard (drill through, drill up, filters)
7. STDashboard (Fix Panel, filter between panels)
8. STDashboard (Customizations, Graphs and external content)
9. STDashboard (Extra Tools, Zoom, Aggregate Data)

Know more:


Introducing STMonitoring for Pentaho



One of the things more useful when you are running a Pentaho production environment with a lot of users accessing the BI server, using reports, dashbords, olap analysis... is monitor the whole user performance.                             That´s why we´ve created STMonitoring (included free in all of the projects we help to develop and in some solutions, like LinceBI)....


STReport (Web Reporting Open Source based tool) Video Tutorials



You can see on this series of VideoTutorials, main features of STReport (best open source web reporting tool based, with no licenses and professional support included) and how it works STReport is part of LinceBI Open Analytics solution 1. STReport (creating simple report using rows, groups, filters) 2. STReport (Models, exploring categories and glossary) 3. STReport (Work area, hidden sections, limit results, info options...) 4. STReport...


List of Open Source Business Intelligence tools



Here you can find an updated list of main business intelligence open source tools. If you know any other, don´t hesitate to write us - Talend, including ETL, Data quality and MDM. Versions OS y Enterprise - Pentaho, including Kettle, Mondrian, JFreeReport and Weka. Versions OS y Enterprise - BIRT, for reporting - Seal Report, for reporting - LinceBI, including Kettle, Mondrian, STDashboard, STCard and STPivot - Jasper Reports, including...


STDashboard, a free license way to create Dashboards



The improvements in this version of STDashboard are focused on user interface for panel and dashboard and also some enhancement in performance and close some old bugs. It works with Pentaho and embeded in web applications You can see it in action in this Pentaho Demo Online and as a part of LinceBI suite STDashboard doesn´t requiere anual license, you can manage unlimited users and it´s open source based.  STDashboard includes professional...


New features in STDashboard for Pentaho



The improvements in this version of STDashboard are focused on user interface for panel and dashboard and also some enhancement in performance and close some old bugs. It works with Pentaho versions 5, 6 and 7 You can see it in action in this Pentaho Demo Online About UI improvements:  - New set of predefined dashboard templates. We have designed a new way to manage dashboard panels that allow you to shape the dashboard in almost any...


Create Dashboards in minutes with Open Source



Just a sneak preview of new functionalities we are including in Pentaho in order end user can create their own powerful dashboards in minutes. We call it STDashboard, by our colleagues of Stratebi. These new functionalities include: new templates, panel resize, drag and drop, remove and create panels, Pentaho 7 upgrade... As always and as other Pentaho plugins we´ve created (STPivot, STCard and STReport), they are free and included in all of...


Tutorial: Creacion de Dashboards con soluciones Open Source



Cada vez son más demandados los Cuadros de Mando y la buena noticia es que gran parte de ellos pueden hacerse con soluciones Open Source: Pentaho, CDE, dc.js... Como novedad, también puedes crearlos con StDashboard: How to create your own Dashboards in Pentaho Os incluimos las principales claves para construir potentes Cuadros de Mando, del Curso de creación de Dashboards Open Source: Si os ha interesado, podéis también: -...


12 aplicaciones gratuitas para crear Dashboards



Muchos de vosotros nos preguntáis sobre los Dashboards, que cada vez son mas demandados para soluciones de todo tipo: Business Intelligence, Real Time, Big Data, IoT, Direccion (EIS), etc... Os traemos una recopilación de 12 soluciones gratuitas para tener cuadros de mando, en algunos casos, además son open source y en otros puedes tenerlo en tus propios servidores sin depender del fabricante de software comercial, como veis hay algunos casos ClicData ...