Datawarehouse, construyendo la linea base

Dr. (PhD) Ramón Barquín

Dr. (PhD) Ramón Barquín

Durante mucho tiempo, muchas empresas han sido muy ricas en datos pero muy pobres en información. El datawarehousing promete cambiar todo convirtiéndose en la pieza central de la nueva arquitectura de la información. Sin embargo, ¿Cómo pueden las promesas del hardware y proveedores de software saber que están en la perspectiva correcta? ¿Cómo pueden las organizaciones decidir si el datawarehousing es una verdadera solución potencial a sus problemas o sólo es una moda?

Muchas organizaciones, en su búsqueda de la más nueva y última tecnología, a menudo corren el riesgo de equivocarse. Empiezan a elegir las herramientas y construir almacenes de datos sin haber hecho las tareas previas.

La cuestión clave para la mayoría de las organizaciones es hacer un balance de dónde están ahora y, a continuación, decidir sobre una estrategia de Datawarehousing. La estrategia debe desarrollarse mediante la comprensión de los siguientes dominios:

• El dominio de negocio. ¿Cuáles son los fundamentos del negocio? ¿Cómo se estructura? ¿Qué tipo de información se necesita para la toma de decisiones?

• El dominio de datos. ¿Qué datos recopila su organización? ¿Cómo se almacena? ¿De quién es y cuál es su calidad? ¿Qué bases de datos  tienen?

• El dominio de sistema de información. ¿Cómo se ve el ambiente de SI? ¿Cuáles son las plataformas, lenguajes y protocolos? ¿Qué tipo de seguridad de la información manejan?

• El dominio de soporte de decisiones. ¿Existe un sistema de información ejecutiva para su organización? ¿Sus usuarios finales entiendan conceptos básicos del sistema de soporte de decisiones? ¿Qué herramientas de apoyo de decisiones están en su lugar?

• El dominio de las personas. ¿Quiénes son sus usuarios finales? Son conocimientos de informática? ¿Cuál es su nivel de formación? ¿Dónde se encuentran?.

Estos puntos son  la línea base necesaria que se debe tener en cuenta para implementar un DataWarehouse. Para continuar leyendo este interesante artículo, escrito por nuestro colaborador el Dr. (PhD) Ramón Barquín, siga el siguiente enlace.

Ver artículo: Data Warehousing Building the Foundation

Habilitando la Colaboración en el Gobierno de los Estados Unidos

Dr. (PhD) Ramón Barquín

Dr. (PhD) Ramón Barquín

El Gobierno de los Estados Unidos a través de la Academia Nacional de Administración Publica (NAPA) ha publicado un documento llamado Enabling Collaboration (Habilitando la colaboración) en el cual tal como su nombre lo indica, el futuro está en la colaboración. En el gobierno de los Estados Unidos para poder cumplir con sus objetivos esenciales, existe el imperativo de compartir. El documento sugiere que un nuevo conjunto de herramientas y nuevas ideas son necesarias. En este documento se ponía énfasis en los tres principales desafíos que enfrenta el Gobierno de los Estados Unidos en cuanto a la colaboración: 1) Enfoque de Tecnología del siglo XX, es decir anticuado y obsoleto. 2)Incapacidad para relacionar los datos a la información, y la información para la toma de decisiones. 3)Una cultura que no fomenta la colaboración.

Esto tiene algunas implicaciones muy importantes para los interesados en  Business Intelligence (BI), en especial sobre el punto 2. Nuestro colaborador el Dr. (PhD) Ramón Barquín nos alcanza en el siguiente articulo más información sobre este tema.

Ver artículo: Enabling Collaboration

La Importancia de la Gestión de Datos en un Proyecto de Inteligencia de Negocios

Las herramientas de Inteligencia de Negocios (BI por sus siglas en inglés, Business Intelligence), tienen como finalidad proporcionar a los ejecutivos de las empresas información de calidad y oportuna, de tal manera que les brinde un adecuado soporte a la toma de decisiones. Cuando la información que brinda el DataWarehouse (almacén de datos de la empresa) no es exacta o no es procesada a tiempo, las decisiones que se puedan tomar no van a conducir en los mejores resultados para la empresa.

Muchas veces se piensa que basta con el hecho de adquirir una excelente herramienta de BI para contar con un adecuado soporte a la toma de decisiones. La realidad es que no basta con tener la mejor herramienta; para tener un DataWarehouse que agregue valor a las organizaciones, es fundamental gestionar los datos con los que se están trabajando, y que servirán de base para la generación de información para la toma de decisiones.

Los datos de una empresa, o de alguna de las unidades de negocio de la misma, se generan en la gran mayoría de los casos, a partir de las transacciones habituales comprendidas dentro de los procesos de negocio. Por lo general, estas operaciones del día a día están soportadas por un sistema transaccional, y los datos generados se almacenan dentro de campos, tablas y bases de datos del mismo sistema. En la actualidad, la mayoría de empresas que tienen un elevado volumen de transacciones, cuentan con un sistema integrado del tipo ERP (Enterprise Resource Planning por sus siglas en inglés).

Dependiendo de la naturaleza del negocio de determinadas organizaciones, y especialmente, de los indicadores necesarios para poder medir y analizar el cumplimiento de sus objetivos operacionales, en algunas empresas, no todos los datos contenidos en el DataWarehouse tienen su origen en los sistemas transaccionales, que proporcionan data generada internamente en la empresa. En algunos casos, un importante volumen de datos proviene de fuentes externas a la organización, con la finalidad de contar con información que permita medir temas de participación de mercado y competencia, entre otros indicadores.

Los datos provenientes tanto de fuentes internas (de los sistemas transaccionales), como de fuentes externas, deben ser de buena calidad, es decir datos precisos y oportunos. Si bien, no siempre los datos provenientes de fuentes internas de la empresa son 100% exactos, por lo general su nivel de confiabilidad es alto, y sobretodo que se trata de datos mucho más controlables que aquellos originados de fuentes externas a la empresa. Por este motivo, es de vital importancia la gestión de los datos en los proyectos de inteligencia de negocios. Sin datos de calidad no se puede obtener información de calidad, por consiguiente no se puede brindar un adecuado soporte a la toma de decisiones.

Para garantizar la calidad de todos los datos que alimentan a un DataWarehouse, es importante llevar a cabo una buena gestión. Algunas buenas prácticas recomendadas para una correcta gestión de datos incluye:

– Entender el negocio. Esta idea puede sonar simple, pero es fundamental conocer en qué consiste el negocio para tener claras las necesidades de información.

– Identificar y documentar los procesos. Es a partir de los procesos y sus puntos de control, de donde se obtienen los datos necesarios para el cálculo de indicadores.

– Establecer políticas y procedimientos para la obtención y registro de datos obtenidos de fuentes externas a la empresa. Si no hay un orden establecido, los datos recogidos externamente pueden contener un alto porcentaje de errores.

– Tener definida una arquitectura de negocio, que contemple el rol del dueño o propietario de los datos generados. En toda organización que maneje un elevado volumen de información, debe existir un responsable de la gestión de la data.

– Contar con una herramienta de TI adecuada para el ingreso y almacenamiento de los datos externos. La herramienta debe facilitar la labor de los colaboradores a cargo del trabajo operativo de ingresar la data.

– Integrar en el DataWarehouse todos los datos necesarios, tanto los generados a partir de los procesos de negocio (fuentes internas), como aquellos ingresados de manera externa.

– Contar con políticas y procedimientos de validación de la data obtenida y que alimenta al DataWarehouse.

En conclusión, para garantizar el éxito de un proyecto de Inteligencia de Negocios y sacar el mayor provecho posible a un DataWarehouse, no basta con adquirir la mejor herramienta. Lo principal es llevar a cabo una correcta gestión de los datos, para de esta manera asegurarse que dichos datos sean correctos y oportunos, generando información de calidad y que a su vez sea de utilidad para la toma de decisiones en las empresas.

Elaborado por:

Héctor Meneses

Consultor de Procesos de Ciclus Group

Problemas presentados por Centralización de la Información

Hoy en día, en toda empresa es muy importante que todos sus colaboradores y, sobretodo, los directamente involucrados, conozcan los procesos de negocio de la misma, pero que los conozcan de manera tal que todos manejen una misma versión. Es sólo así que se logra hacer un uso efectivo de las habilidades y aptitudes de los colaboradores y, a su vez, poder brindarles certeza en el desarrollo de sus funciones.

Sin embargo, por qué se menciona el conocimiento de los procesos de negocio y es que existen casos en algunas empresas donde un área proveedora de información asume la responsabilidad  como dueña de todos los datos que se movilizan dentro del proceso de negocio. Esta área, que será la nueva responsable de los datos, administrará los mismos en base a su percepción del proceso de negocio, en base a sus criterios, en base a cómo debería ser el proceso, pero no necesariamente estará alineada a lo que verdaderamente es dicho proceso. Pero, el resto de colaboradores al aceptar quién es el nuevo dueño de los datos o quién decidió asumir este rol, se conforma con la información brindada por esta área, asumiendo todo como una verdad.

Por otro lado, esta área que se convirtió en dueña de los datos, maneja criterios propios de análisis de información que no es difundida a los usuarios consumidores de ésta, lo cual genera que otras áreas no se hagan responsables de analizar su propia información, que se sobrecargue de trabajo a esta área que ha centralizado la información, que los usuarios consumidores tengan que realizar un trabajo adicional al no contar con lo que verdaderamente necesitan, que no se tengan claras las necesidades reales de los usuarios, entre otras. En estos casos, es muy importante reunir a todos los involucrados y discutir el proceso de negocio de la empresa, estandarizar los procedimientos, asignar responsables de datos donde sea necesario, validar las funciones de los actores del proceso de negocio, revisar qué información se demanda, documentar los procedimientos, entre otras. Finalmente, esta buena práctica permitirá clarificar las responsabilidades de los involucrados, asignar responsables de datos en cada etapa del proceso de negocio donde sea necesario, analizar la información de la que cada colaborador es responsable para futuras solicitudes de análisis de información, retirar la sobrecarga de trabajo al área que asumió el antiguo rol de dueño de todos los datos y así centrarse en sus verdaderas responsabilidades; es decir se emplearán correctamente las habilidades y aptitudes de los colaboradores.

Elaborado por:

Víctor Ruiz

Analista de Business Intelligence de Ciclus Group

¿Hacer o no hacer Minería de Datos?

Dr. (PhD) Ramón Barquín

Dr. (PhD) Ramón Barquín

Cada nación en el mundo está en su derecho de utilizar todas las herramientas legítimas que tiene a su alcance para luchar contra el terrorismo, siempre y cuando no viole derechos o libertades civiles. Es por eso que la minería de datos es una herramienta válida. ¿Pero qué es minería de datos?.  Minería de Datos es el proceso que utiliza una variedad de herramientas de análisis de datos para descubrir patrones y relaciones en estos que pueden ser utilizados para hacer predicciones válidas. La difícil situación que se enfrenta es el clásico dilema del doble uso: ¿Cómo podemos realizar minería de datos y protegernos de la posibilidad de hacer daño? Esto se debe a que la mayoría de los ejercicios de minería de datos de lucha contra el terrorismo, casi por definición deben “extraer” información de identificación personal. Estamos en última instancia, tratando de encontrar los nombres, direcciones, fechas de nacimiento, números de pasaportes y licencias de conducir de los terroristas dentro de grandes bases de datos que almacenan información de identificación personal de millones de personas. Y, por cierto, la gran mayoría de estas personas no son terroristas, sino personas perfectamente inocentes. Este esfuerzo, obviamente, está cargado de los problemas técnicos y los dilemas éticos, ya que se expone, en su mayoría, a personas inocentes a la violación importante de su vida privada con consecuencias potencialmente perjudiciales.

Para continuar leyendo este interesante artículo, escrito por nuestro colaborador el Dr. (PhD) Ramón Barquín, siga el enlace.

Ver artículo: To Data Mine or Not to Data Mine

Calidad de datos en un proyecto de Inteligencia de Negocios

Un proyecto de Inteligencia de Negocios consiste principalmente en extraer datos de distintas fuentes, posteriormente transformarlos y cargarlos en una base de datos especializada (Datamart) para que posteriormente en este lugar los datos puedan ser analizados y explotados. Pero lo que muchas veces no se toma en cuenta es la calidad de las fuentes de los datos de origen.

En tecnologías de la información, muchas veces  se utiliza el acrónimo GIGO (Garbage in –Garbage Out) que significa que si se tiene como entrada datos con errores, se tendrá como salida datos con errores. Es por eso que es importante asegurar la calidad de las fuentes de origen de los datos, de lo contrario la base de datos de análisis (Datamart) no tendrá la consistencia e integridad debida y peor aún, de cara al usuario final no tendrá la credibilidad que debe tener.

Pero, ¿por qué se dan estos problemas de calidad en los datos? Muchas veces se deben a errores en la entrada de dichos datos en los sistemas transaccionales por parte de los usuarios finales, por no completar todos los campos al momento de ingresar valores en el sistema, por reglas de validación débiles de un sistema que permite registrar valores numéricos en un campo donde sólo debería ir texto, por problemas en las comunicaciones entre sistemas en los cuales existen interfaces, entre otros.

Bajo el framework clásico de una solución de Inteligencia de Negocios, desarrollada con herramientas Microsoft, anteriormente la solución se desarrollaba de esta manera: 1) Extracción, Transformación y Carga mediante Servicios de Integración (Integration Services), 2) Desarrollo de base de datos multidimensional (Cubo) mediante Servicios de Análisis (Analysis Services), 3) Capa de presentación para Reportes se usaba Reporting Services y 4) Dashboards se usaba Performance Point (SharePoint Server).

Microsoft ahora añade a este framework los servicios de Calidad de Datos (Data Quality Services). Esta funcionalidad se añade al principio del framework propuesto por Microsoft como parte previa de una solución de Inteligencia de Negocios.

Existen diferentes técnicas para asegurar la calidad de los datos, pero básicamente lo que debemos realizar son dos  técnicas: Emparejamiento de Datos (Matching) y Limpieza de Datos (Cleaning). Mediante la técnica de Emparejamiento de datos, lo que se busca es comparar los datos contra un conjunto de datos definidos en una Base de Datos de Conocimiento utilizando una política de emparejamiento, definiendo un porcentaje de aceptación para dichos datos. La técnica de Cleaning consiste en la limpieza de los datos;  para ello se debe definir cuáles son los datos correctos, y que cumplan con los estándares definidos por la empresa.

En resumen mediante la calidad de los datos se puede asegurar la consistencia e integridad de las fuentes de dichos datos, de tal manera que se asegure la calidad de la información y, por tanto, la confiabilidad de la solución de Inteligencia de Negocios.

Elaborado por:

Eduardo Becerra

Analista de Business Intelligence de Ciclus Group

Una herramienta para la toma de decisiones

La ausencia de un sistema de medición estadístico en las organizaciones impide decidir sobre bases racionales, con precisión y objetividad. El dirigir sin considerar lo que acontece, tanto interna como externamente, basándose sólo en la intuición, o en el criterio extraído de casos similares ocurridos anteriormente, dificulta tomar medidas preventivas y correctivas con la necesaria anticipación.

Esta carencia repetitiva en la gestión de muchas empresas es una constante en la actualidad, pese a que se puede contar con herramientas tecnológicas que hacen de esta labor, antes costosa y agotadora, ahora rápida y eficaz.

Hoy en día la velocidad de los cambios no perdona; la necesidad de contar con datos estadísticos suficientes y fiables es imprescindible cuando se trata de tomar decisiones.

Sin este instrumento de medición, no se puede identificar qué actividades son las que generan utilidades y cuáles pérdidas, en otras palabras, no se sabe lo que pasa en la organización. Para saberlo se debe contar con datos de manera ágil y flexible, interpretándolos adecuadamente. Es aquí donde la estadística y los sistemas de información coinciden para facilitar la gestión eficiente y eficaz de la organización.

Entonces, si está clara la importancia de esta ciencia en la actividad empresarial, ¿por qué existe un reducido empleo de la misma?

La respuesta radica, principalmente, en el desconocimiento y la falta de preparación de los profesionales involucrados en materia estadística, sobre todo de aquellos que asesoran en cuanto a la gestión de las empresas.

Este no es el único escollo al que tiene que hacer frente la estadística empresarial, el hecho de contar con datos cuantitativos no resuelve de por sí este problema, si no son considerados e interpretados correctamente.

El trabajo para introducir eficazmente esta ciencia en las organizaciones está en concientizar a los directivos y empleados acerca de la relevancia de esta información en el momento de planificar, dirigir y controlar la marcha de una empresa.

Para medir el avance logrado o elaborar planes eficaces de mejora, es necesario obtener datos estadísticos confiables, precisos y oportunos, es decir, buenos datos estadísticos. Para mejorar y tener unos buenos datos estadísticos, se debe capacitar a los directivos teniendo presente los siguientes pasos:

  1. Concientizar
  2. Capacitar
  3. Implementar

Finalmente, es vital argumentar y exponer frente a los directivos los enormes privilegios que traen la integración e implementación de las estadísticas a la organización, mostrándolos como una “palanca” para el incremento de los resultados.

Las técnicas estadísticas nos ofrecen grandes posibilidades y su utilización de forma adecuada, permiten poner de manifiesto y resolver un elevado número de problemas.

Resulta evidente, que dentro de la Gestión de la Calidad existe una carencia del pensamiento estadístico empresarial, lo que dificulta la evaluación, etapa esencial en el mejoramiento de la calidad, pues si no se evalúa, no se sabe si se mejora.

Finalmente, no se debe olvidar que la tecnología de hoy moderniza la preparación estadística de los directivos, facilitando su aplicación y reforzando los estudios de calidad, indispensables para las decisiones estratégicas organizacionales.

 

Elaborado por:

Dora Yuiján

Asistente de Operaciones

Geocodificacion e Inteligencia de Negocios

Normalmente, en Inteligencia de Negocios respondíamos las preguntas del negocio mediante las siguientes interrogantes: ¿Qué?, ¿Cuándo?, ¿Quién?,¿Cuántos?. Ahora debemos añadir la pregunta: ¿Dónde?. Esta pregunta la responderemos mediante el uso de la geocodificación de los datos.

La geocodificación es el proceso mediante el cual conociendo una direccion (calle, número, ciudad, estado, un conjunto de coordenadas son asignadas a dicha dirección marcando así, dentro de un determinado grado de precisión de la instrumentación, su ubicación específica. Para esta marcación se utiliza un par de números que son la latitud y la longitud.

Nuestro colaborador el Dr. (PhD) Ramón Barquín nos explica sobre este tema en el siguiente artículo.

Ver artículo: Geocoding and Business Intelligence

 

Business Intelligence, la dimension de tiempo y el Gobierno.

Business Intelligence se trata de obtener respuestas a las preguntas clásicas: ¿qué?, ¿dónde?, ¿cuándo?,¿quién?,¿por qué?, ¿cómo?, ¿cuántos?, ¿cuánto?. Tiempo es la variable que nos permite responder a la pregunta: ¿cuándo?. Una de las funciones más útiles de Inteligencia de Negocios es que nos permite aprender de la historia. No podemos evitar algo que ya ha ocurrido, pero mediante el análisis de nuestra historia empresarial, podríamos ser capaces de identificar las formas que pueden impedir que vuelva a suceder lo mismo en el futuro. Esto nos obliga a pensar en el tiempo como una dimensión de la inteligencia empresarial y el desarrollo de los indicadores que necesitamos para fines de análisis.

Nuestro colaborador el Dr. (PhD) Ramón Barquín nos explica en el siguiente artículo la relación existente entre Business Intelligence, el tiempo y el Gobierno.

Ver artículo: Business Intelligence, the Time Dimension and Government

A %d blogueros les gusta esto: