Open Business Intelligence

La red del Business Intelligence

Quisiera saber si alguien sabe cual es el nivel maximo de carga de datos de Pentaho, y si tiene algo de informacion al respecto.
Muchas gracias
Florencia

Visitas: 648

Responde a esto

Respuestas a esta discusión

Hola Florencia,

La verdad es que información no tengo sobre el nivel máximo de carga, no obstante es importante que especifiques mejor, dado que Pentaho ofrece una amplia cobertura en cuanto a elementos de visualización OLAP, Ad-hoc, etc.
Al final el nivel de carga de datos va a depender en gran medida del sistema gestor de base de datos que utilices.

¿Podrías precisar un poco más tu pregunta?

Saludos.
raul dijo:
Hola Florencia,

La verdad es que información no tengo sobre el nivel máximo de carga, no obstante es importante que especifiques mejor, dado que Pentaho ofrece una amplia cobertura en cuanto a elementos de visualización OLAP, Ad-hoc, etc.
Al final el nivel de carga de datos va a depender en gran medida del sistema gestor de base de datos que utilices.

¿Podrías precisar un poco más tu pregunta?

Saludos.

Raul, muchas gracias por contestar.
Hicimos un proyecto en Pentaho, y la idea es fundamentar el por que estamos seguros y tranquilos de que Pentaho soportara el nivel de carga de datos que tenemos actualmente y que podemos tener en un futuro.
Nosotros hoy en dia estamos utilizando vistas de las tablas de datos ya que nuestro proyecto nos permite esto, pero en caso de utilizar las tablas en su total dimension, vemos que se afecta muchisimo, hasta el punto, de no poder procesar correctamente los cubos, ya que el drill down y up demoran una eternidad. Posiblemente nos este sucediendo de que el sistema gestor de base de datos no sea suficiente, tal como vos comentabas.
Espero haber sido clara.
Hola.

Yo he probado las vistas de análisis en Pentaho, utilizando MySQL, con cerca de 24 mil registros, y si bien casi la totalidad de las opciones funcionan bien, cuando quiero ver todos esos registros, se ha demorado tanto en mostrar el contenido, que he terminado cerrando la ventana.

Este lunes pienso probar los mismo registros pero en Oracle, y recién ahí veré si existe diferencia, y comprobar en cierta manera, si el gestor de base de datos tiene mucha o poca influencia en los tiempos de ejecución de las consultas.

Saludos.
El rendimiento depende en gran medida de como se haya construido el modelo en estrella. Es muy importante la utilización de primary key en la tabla de hechos y tablas de dimensiones.

Yo por mi experiencia en Pentaho, he hecho pruebas con un volumen más alto del que comenta Francisco, 500.000 registros y funciona bien. Hay que tener en cuenta que Mondrian es un servidor Rolap y que el hecho de utilizar o no chaché determina en gran medida el tiempo de respuesta.
Si bien el tema ya está un poco antiguo, les comento que probé finalmente los 24 mil registros en Oracle y la diferencia fue bastante grande. El tiempo de carga es cortísimo y la fluidez con que se muestran los datos después de una consulta es excelente.

Saludos.
raul dijo:
El rendimiento depende en gran medida de como se haya construido el modelo en estrella. Es muy importante la utilización de primary key en la tabla de hechos y tablas de dimensiones.
Yo por mi experiencia en Pentaho, he hecho pruebas con un volumen más alto del que comenta Francisco, 500.000 registros y funciona bien. Hay que tener en cuenta que Mondrian es un servidor Rolap y que el hecho de utilizar o no chaché determina en gran medida el tiempo de respuesta.
Complementando un poco esto, en cuanto a rendimiento es importante la creacion de tablas "agregadas". Mondrian tiene un buen soporte de este concepto, ya que permite direccionar las consultas a las tablas de hechos agregadas apropiadas sin tener que cambiar la consulta original, que siempre va a la tabla de hechos mas granular.

Responder a debate

RSS

Distintivo

Cargando…

© 2021   Creado por Emilio.   Tecnología de

Emblemas  |  Reportar un problema  |  Términos de servicio