Material Big Data

Lanzados ppts informativos de tecnologías BigData: Hadoop, Hbase, Hive, Zookeeper...

Apuntate al Curso de PowerBI. Totalmente práctico, aprende los principales trucos con los mejores especialistas

Imprescindible para el mercado laboral actual. Con Certificado de realización!!

Pentaho Analytics. Un gran salto

Ya se ha lanzado Pentaho 8 y con grandes sorpresas. Descubre con nosotros las mejoras de la mejor suite Open BI

Aprende gratis Analytics OLAP sobre Pentaho

La solución open source para business intelligence y Big Data sobre Pentaho, no te lo pierdas!!

3 oct. 2016

Convocados Cursos sobre herramientas Open Source (presencial y online)


Ya están convocados, (comenzando a mediados de Octubre y concluyendo a finales de año), la más variada oferta de Cursos sobre soluciones Open Source que se realizan en modalidades presencial y online)

Cursos Convocados:



1 comentarios:

Anónimo dijo...

Hola veo que trabajaís bastante con herramientas open source, so incluyo una duda sobre pentaho DI y big data:

Estoy intentando leer ficheros de un HDFS en Hadoop desde Pentaho DI y me da problemillas:
- Pentaho DI (open source) machine Win 7 version 6.1
- HDFS en Virtual Machine Cloudera Quick Start 5.4
He indicado my distribución de Hadoop (cdh55) en Tools, He creado un cluster que apunta a la MV y al probarlo funciona correctamente.
Entonces creo un paso Hadoop File Input, puedo explorar los directorios del cluster y seleccionar u fichero, pero tengo problemas al intentar leerlo::
......

at org.pentaho.commons.launcher.Launcher.main (Launcher.java:92)
at java.lang.reflect.Method.invoke (null:-1)
at sun.reflect.DelegatingMethodAccessorImpl.invoke (null:-1)
at sun.reflect.NativeMethodAccessorImpl.invoke (null:-1)
at sun.reflect.NativeMethodAccessorImpl.invoke0 (null:-2)
at org.pentaho.di.ui.spoon.Spoon.main (Spoon.java:662)
at org.pentaho.di.ui.spoon.Spoon.start (Spoon.java:9269)
at org.pentaho.di.ui.spoon.Spoon.waitForDispose (Spoon.java:7989)
at org.pentaho.di.ui.spoon.Spoon.readAndDispatch (Spoon.java:1347)
at org.eclipse.swt.widgets.Display.readAndDispatch (null:-1)
at org.eclipse.swt.widgets.Display.runDeferredEvents (null:-1)
at org.eclipse.swt.widgets.Widget.sendEvent (null:-1)
at org.eclipse.swt.widgets.EventTable.sendEvent (null:-1)
at org.eclipse.jface.action.ActionContributionItem$5.handleEvent (ActionContributionItem.java:402)
at org.eclipse.jface.action.ActionContributionItem.access$2 (ActionContributionItem.java:490)
at org.eclipse.jface.action.ActionContributionItem.handleWidgetSelection (ActionContributionItem.java:545)
at org.eclipse.jface.action.Action.runWithEvent (Action.java:498)
at org.pentaho.ui.xul.jface.tags.JfaceMenuitem$1.run (JfaceMenuitem.java:106)
at org.pentaho.ui.xul.jface.tags.JfaceMenuitem.access$100 (JfaceMenuitem.java:43)
at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke (AbstractXulComponent.java:141)
at org.pentaho.ui.xul.impl.AbstractXulComponent.invoke (AbstractXulComponent.java:157)
at org.pentaho.ui.xul.impl.AbstractXulDomContainer.invoke
.....
No estoy seguro de que el problema sea Pentaho, he chequeado el servicio HDFS de Hadoop y está activo.

Podeís ayudarme?
Gracias por adelantado