TRABAJO SIG

118
República Bolivariana de Venezuela Ministerio del Poder Popular para la Educación Superior Universidad Nacional Experimental Simón Rodríguez Carrera: Administración Mención: Informática Sección: E Materia: Sistemas de Información Gerencial Facilitador: Daniel Carneiro. HERRAMIENTAS UTILIZADAS AL MANEJO DE ALMACENAMIENTO DE DATOS PARA MEJORAR EL DESARROLLO DE LOS SISTEMAS DE INFORMACION GERENCIAL Integrantes: Alvarez, Carlos C.I. 15.758.516 Diaz, Angel C.I. 10.007.835

Transcript of TRABAJO SIG

Page 1: TRABAJO SIG

República Bolivariana de VenezuelaMinisterio del Poder Popular para la Educación SuperiorUniversidad Nacional Experimental Simón RodríguezCarrera: Administración Mención: InformáticaSección: EMateria: Sistemas de Información Gerencial Facilitador: Daniel Carneiro.

HERRAMIENTAS UTILIZADAS AL MANEJO DE ALMACENAMIENTO DE

DATOS PARA MEJORAR EL DESARROLLO DE LOS

SISTEMAS DE INFORMACION GERENCIAL

Integrantes: Alvarez, Carlos C.I. 15.758.516Diaz, Angel C.I. 10.007.835 Flores, Emely C.I. 15.403.257Flores, Jusmila C.I. 12.470.467Hernández, Hazel C.I. 10.799.550Simón, Giovana C.I. 22.906.025

Caracas, Mayo de 2010

Page 2: TRABAJO SIG

INDICE

CONTENIDO PAG

Introducción 3

Data Warehouse 4

Minería de Datos 28

Datamart 45

Cuadro de Manejo Integral 52

Sistemas de Soporte a la Decisión (DSS) 65

Sistemas de Información para Ejecutivos 74

Conclusiones 84

Herramientas Bibliográficas 86

Page 3: TRABAJO SIG

INTRODUCCIÓN

Las Herramientas de Ayuda al Desarrollo de Sistemas de Información,

surgieron para intentar dar solución a los problemas inherentes a los

proyectos de generación de aplicaciones informáticas: plazos y presupuestos

incumplidos, insatisfacción del usuario, escasa productividad y baja calidad

de los desarrollos.

Algunas de estas herramientas se dirigen principalmente a mejorar la

calidad, como es el caso de las siguientes herramientas :

1. Datawarehouse

2. Datamining

3. Datamart

4. Cuadro de Manejo Integral

5. Sistema de Soporte a la Decisión (DSS)

6. Sistema de Información para Ejecutivos ( EIS)

En el presente trabajo se describen las principales herramientas de ayuda

al desarrollo de Sistemas de Información, existentes en la actualidad,

También se describe su funcionalidad y las características más relevantes,

con la finalidad de ayudar en la elección de la herramienta adecuada a cada

caso.

Data WareHouse

3

Page 4: TRABAJO SIG

Es un repositorio de datos de muy fácil acceso, alimentado de numerosas

fuentes, transformadas en grupos de información sobre temas específicos de

negocios, para permitir nuevas consultas, análisis, reporteador y decisiones.

Los objetivos fundamentales de un Data WareHouse son:

Hace que la información de la organización sea accesible: los

contenidos del Data WareHouse son entendibles y navegables, y el

acceso a ellos son caracterizado por el rápido desempeño. Estos

requerimientos no tienen fronteras y tampoco limites fijos. Cuando

hablamos de entendible significa, que los niveles de la información

sean correctos y obvios. Y Navegables significa el reconocer el destino

en la pantalla y llegar a donde queramos con solo un clic. Rápido

desempeño significa, cero tiempo de espera. Todo lo demás es un

compromiso y por consiguiente algo que queremos mejorar.

Hacer que la información de la organización sea consistente: la

información de una parte de la organización puede hacerse coincidir

con la información de la otra parte de la organización. Si dos medidas

de la organización tienen el mismo nombre, entonces deben significar

la misma cosa. Y a la inversa, si dos medidas no significan la misma

cosa, entonces son etiquetados diferentes. Información consistente

significa, información de alta calidad. Significa que toda la información

es contabilizada y completada. Todo lo demás es un compromiso y por

consiguiente algo que queremos mejorar.

Es información adaptable y elástica: el Data WareHouse esta diseñado

para cambios continuos. Cuando se le hacen nuevas preguntas al

Data WareHouse, los datos existentes y las tecnologías no cambian ni

se corrompen. Cuando se agregan datos nuevos al Data WareHouse,

los datos existentes y las tecnologías tampoco cambian ni se

3

Page 5: TRABAJO SIG

corrompen. El diseño de Data Marts separados que hacen al Data

WareHouse, deben ser distribuidos e incrementados. Todo lo demás

es un compromiso y por consiguiente algo que queremos mejorar.

Es un seguro baluarte que protege los valores de la información: el

Data WareHouse no solamente controla el acceso efectivo a los datos,

si no que da a los dueños de la información gran visibilidad en el uso y

abusos de los datos, aún después de haber dejado el Data

WareHouse. Todo lo demás es un compromiso y por consiguiente algo

que queremos mejorar.

Es la fundación de la toma de decisiones: el Data WareHouse tiene

los datos correctos para soportar la toma de decisiones. Solo hay

una salida verdadera del Data WareHouse: las decisiones que son

hechas después de que el Data WareHouse haya presentado las

evidencias. La original etiqueta que preside el Data WareHouse sigue

siendo la mejor descripción de lo que queremos construir: un sistema

de soporte a las decisiones.

Que es lo que le preocupa a los ejecutivos?

Se tienen montañas de datos en la compañía, pero no podemos llegar a

ellos adecuadamente. Nada enloquece más a los ejecutivos que dos

personas presentando el mismo resultado de operación pero con diferentes

números y los ejecutivos lo que buscan es ver la información pero desde

diferentes ángulos, mostrando únicamente lo que es importante para tomar

una decisión en la empresa, finalmente los ejecutivos saben que hay datos

que nunca serán confiables, por lo que prefieren que se eviten en los

reportes ejecutivos.

Uno de los valores más importantes de una organización es la información.

Estos valores normalmente son guardados por la organización de dos

3

Page 6: TRABAJO SIG

formas:

Los sistemas operacionales de registros

Y el Data Warehouse

Crudamente hablando, los sistema operacionales de registros es donde los

datos son depositados y el Data WareHouse es de donde se extraen eso

datos.

Un Data Warehouse o Depósito de Datos es una colección de datos

orientado a temas, integrado, no volátil, de tiempo variante, que se usa para

el soporte del proceso de toma de decisiones gerenciales.

Se puede caracterizar un data warehouse haciendo un contraste de cómo

los datos de un negocio almacenados en un data warehouse, difieren de los

datos operacionales usados por las aplicaciones de producción.

Características de un Data Warehouse

Entre las principales se tiene:

Orientado a Temas

Una primera característica del data warehouse es que la información se

clasifica en base a los aspectos que son de interés para la empresa. Siendo

así, los datos tomados están en contraste con los clásicos procesos

orientados a las aplicaciones.

3

Page 7: TRABAJO SIG

En la Figura N° 1 se muestra el contraste entre los dos tipos de

orientaciones.

El ambiente operacional se diseña alrededor de las aplicaciones y funciones

tales como préstamos, ahorros, tarjeta bancaria y depósitos para una

institución financiera. Por ejemplo, una aplicación de ingreso de órdenes

puede acceder a los datos sobre clientes, productos y cuentas. La base de

datos combina estos elementos en una estructura que acomoda las

necesidades de la aplicación.

En el ambiente data warehousing se organiza alrededor de sujetos tales

como cliente, vendedor, producto y actividad. Por ejemplo, para un

fabricante, éstos pueden ser clientes, productos, proveedores y vendedores.

Para una universidad pueden ser estudiantes, clases y profesores. Para un

hospital pueden ser pacientes, personal médico, medicamentos, etc.

La alineación alrededor de las áreas de los temas afecta el diseño y la

implementación de los datos encontrados en el data warehouse. Las

principales áreas de los temas influyen en la parte más importante de la

estructura clave.

Las aplicaciones están relacionadas con el diseño de la base de datos y

del proceso. En data warehousing se enfoca el modelamiento de datos y el

diseño de la base de datos. El diseño del proceso (en su forma clásica) no es

separado de este ambiente.

Las diferencias entre la orientación de procesos y funciones de las aplica-

ciones y la orientación a temas, radican en el contenido de la data a escala

3

Page 8: TRABAJO SIG

detallada. En el data warehouse se excluye la información que no será usada

por el proceso de sistemas de soporte de decisiones, mientras que la infor-

mación de las orientadas a las aplicaciones, contiene datos para satisfacer

de inmediato los requerimientos funcionales y de proceso, que pueden ser

usados o no por el analista de soporte de decisiones.

Otra diferencia importante está en la interrelación de la información. Los

datos operacionales mantienen una relación continua entre dos o más tablas

basadas en una regla comercial que está vigente. Las del data warehouse

miden un espectro de tiempo y las relaciones encontradas en el data ware-

house son muchas. Muchas de las reglas comerciales (y sus correspondien-

tes relaciones de datos) se representan en el data warehouse, entre dos o

más tablas.

Integración

El aspecto más importante del ambiente data warehousing es que la infor-

mación encontrada al interior está siempre integrada.

La integración de datos se muestra de muchas maneras: en convenciones

de nombres consistentes, en la medida uniforme de variables, en la codifica-

ción de estructuras consistentes, en atributos físicos de los datos consisten-

tes, fuentes múltiples y otros.

El contraste de la integración encontrada en el data warehouse con la ca-

rencia de integración del ambiente de aplicaciones, se muestran en la Figura

N° 2, con diferencias bien marcadas.

A través de los años, los diseñadores de las diferentes aplicaciones han to-

mado sus propias decisiones sobre cómo se debería construir una aplica-

ción. Los estilos y diseños personalizados se muestran de muchas maneras.

Se diferencian en la codificación, en las estructuras claves, en sus caracte-

rísticas físicas, en las convenciones de nombramiento y otros. La capacidad

3

Page 9: TRABAJO SIG

colectiva de muchos de los diseñadores de aplicaciones, para crear aplica-

ciones inconsistentes, es fabulosa. La Figura N° 2 mencionada, muestra al-

gunas de las diferencias más importantes en las formas en que se diseñan

las aplicaciones.

Codificación. Los diseñadores de aplicaciones codifican el campo GENERO

en varias formas. Un diseñador representa GENERO como una "M" y una

"F", otros como un "1" y un "0", otros como una "X" y una "Y" e inclusive,

como "masculino" y "femenino".

No importa mucho cómo el GENERO llega al data warehouse. Probable-

mente "M" y "F" sean tan buenas como cualquier otra representación. Lo im-

portante es que sea de cualquier fuente de donde venga, el GENERO debe

llegar al data warehouse en un estado integrado uniforme.

Por lo tanto, cuando el GENERO se carga en el data warehouse desde una

aplicación, donde ha sido representado en formato "M" y "F", los datos deben

convertirse al formato del data warehouse.

Medida de atributos. Los diseñadores de aplicaciones miden las unidades

de medida de las tuberías en una variedad de formas. Un diseñador almace-

na los datos de tuberías en centímetros, otros en pulgadas, otros en millones

de pies cúbicos por segundo y otros en yardas.

Al dar medidas a los atributos, la transformación traduce las diversas uni-

dades de medida usadas en las diferentes bases de datos para transformar-

las en una medida estándar común.

Cualquiera que sea la fuente, cuando la información de la tubería llegue al

data warehouse necesitará ser medida de la misma manera.

3

Page 10: TRABAJO SIG

Convenciones de Nombramiento. El mismo elemento es frecuentemente

referido por nombres diferentes en las diversas aplicaciones. El proceso de

transformación asegura que se use preferentemente el nombre de usuario.

Fuentes Múltiples. El mismo elemento puede derivarse desde fuentes múlti-

ples. En este caso, el proceso de transformación debe asegurar que la fuente

apropiada sea usada, documentada y movida al depósito.

Tal como se muestra en la figura, los puntos de integración afectan casi to-

dos los aspectos de diseño - las características físicas de los datos, la dis-

yuntiva de tener más de una de fuente de datos, el problema de estándares

de denominación inconsistentes, formatos de fecha inconsistentes y otros.

Cualquiera que sea la forma del diseño, el resultado es el mismo - la infor-

mación necesita ser almacenada en el data warehouse en un modelo global-

mente aceptable y singular, aun cuando los sistemas operacionales subya-

centes almacenen los datos de manera diferente.

Cuando el analista de sistema de soporte de decisiones observe el data wa-

rehouse, su enfoque deberá estar en el uso de los datos que se encuentre en

el depósito, antes que preguntarse sobre la confiabilidad o consistencia de

los datos.

3

Page 11: TRABAJO SIG

De Tiempo Variante

Toda la información del data warehouse es requerida en algún momento.

Esta característica básica de los datos en un depósito, es muy diferente de la

información encontrada en el ambiente operacional. En éstos, la información

se requiere al momento de acceder. En otras palabras, en el ambiente opera-

cional, cuando usted accede a una unidad de información, usted espera que

los valores requeridos se obtengan a partir del momento de acceso.

Como la información en el data warehouse es solicitada en cualquier mo-

mento (es decir, no "ahora mismo"), los datos encontrados en el depósito se

llaman de "tiempo variante".

Los datos históricos son de poco uso en el procesamiento operacional. La

información del depósito por el contraste, debe incluir los datos históricos

para usarse en la identificación y evaluación de tendencias.

3

Page 12: TRABAJO SIG

El tiempo variante se muestra de varias maneras:

1. La más simple es que la información representa los datos sobre un hori-

zonte largo de tiempo - desde cinco a diez años. El horizonte de tiempo re-

presentado para el ambiente operacional es mucho más corto – desde valo-

res actuales hasta sesenta a noventa días.

Las aplicaciones que tienen un buen rendimiento y están disponibles para

el procesamiento de transacciones, deben llevar una cantidad mínima de da-

tos si tienen cualquier grado de flexibilidad. Por ello, las aplicaciones opera-

cionales tienen un corto horizonte de tiempo, debido al diseño de aplicacio-

nes rígidas.

2. La segunda manera en la que se muestra el tiempo variante en el data wa-

rehouse está en la estructura clave. Cada estructura clave en el data ware-

house contiene, implícita o explícitamente, un elemento de tiempo como día,

semana, mes, etc.

El elemento de tiempo está casi siempre al pie de la clave concatenada,

encontrada en el data warehouse. En ocasiones, el elemento de tiempo exis-

3

Page 13: TRABAJO SIG

tirá implícitamente, como el caso en que un archivo completo se duplica al fi-

nal del mes, o al cuarto.

3. La tercera manera en que aparece el tiempo variante es cuando la infor-

mación del data warehouse, una vez registrada correctamente, no puede ser

actualizada. La información del data warehouse es, para todos los propósitos

prácticos, una serie larga de "snapshots" (vistas instantáneas).

Por supuesto, si los snapshots de los datos se han tomado incorrectamen-

te, entonces pueden ser cambiados. Asumiendo que los snapshots se han to-

mado adecuadamente, ellos no son alterados una vez hechos. En algunos

casos puede ser no ético, e incluso ilegal, alterar los snapshots en el data

warehouse. Los datos operacionales, siendo requeridos a partir del momento

de acceso, pueden actualizarse de acuerdo a la necesidad.

No Volátil

La información es útil sólo cuando es estable. Los datos operacionales

cambian sobre una base momento a momento. La perspectiva más grande,

esencial para el análisis y la toma de decisiones, requiere una base de datos

estable.

En la Figura N° 4 se muestra que la actualización (insertar, borrar y modifi-

car), se hace regularmente en el ambiente operacional sobre una base de re-

gistro por registro. Pero la manipulación básica de los datos que ocurre en el

data warehouse es mucho más simple. Hay dos únicos tipos de operaciones:

la carga inicial de datos y el acceso a los mismos. No hay actualización de

datos (en el sentido general de actualización) en el depósito, como una parte

normal de procesamiento.

Hay algunas consecuencias muy importantes de esta diferencia básica, en-

tre el procesamiento operacional y del data warehouse. En el nivel de diseño,

la necesidad de ser precavido para actualizar las anomalías no es un factor

3

Page 14: TRABAJO SIG

en el data warehouse, ya que no se hace la actualización de datos. Esto sig-

nifica que en el nivel físico de diseño, se pueden tomar libertades para opti-

mizar el acceso a los datos, particularmente al usar la normalización y des-

normalización física.

Otra consecuencia de la simplicidad de la operación del data warehouse

está en la tecnología subyacente, utilizada para correr los datos en el depósi-

to. Teniendo que soportar la actualización de registro por registro en modo

on-line (como es frecuente en el caso del procesamiento operacional) requie-

re que la tecnología tenga un fundamento muy complejo debajo de una fa-

chada de simplicidad.

La tecnología permite realizar copias de seguridad y recuperación, transac-

ciones e integridad de los datos y la detección y solución al estancamiento

que es más complejo. En el data warehouse no es necesario el procesamien-

to.

La fuente de casi toda la información del data warehouse es el ambiente

operacional. A simple vista, se puede pensar que hay redundancia masiva de

datos entre los dos ambientes. Desde luego, la primera impresión de muchas

personas se centra en la gran redundancia de datos, entre el ambiente ope-

racional y el ambiente de data warehouse. Dicho razonamiento es superficial

y demuestra una carencia de entendimiento con respecto a qué ocurre en el

data warehouse. De hecho, hay una mínima redundancia de datos entre am-

bos ambientes. Se debe considerar lo siguiente:

3

Page 15: TRABAJO SIG

Los datos se filtran cuando pasan desde el ambiente operacional al de de-

pósito. Existe mucha data que nunca sale del ambiente operacional. Sólo los

datos que realmente se necesitan ingresarán al ambiente de data warehou-

se. El horizonte de tiempo de los datos es muy diferente de un ambiente al

otro. La información en el ambiente operacional es más reciente con respec-

to a la del data warehouse. Desde la perspectiva de los horizontes de tiempo

únicos, hay poca superposición entre los ambientes operacional y de data

warehouse.

El data warehouse contiene un resumen de la información que no se en-

cuentra en el ambiente operacional.

Los datos experimentan una transformación fundamental cuando pasa al

data warehouse. La mayor parte de los datos se alteran significativamente al

ser seleccionados y movidos al data warehouse. Dicho de otra manera, la

mayoría de los datos se alteran física y radicalmente cuando se mueven al

depósito. No es la integración.

En vista de estos factores, la redundancia de datos entre los dos ambientes

es una ocurrencia rara, que resulta en menos de 1%.

Estructura del Data Warehouse

Los data warehouses tienen una estructura distinta. Hay niveles diferentes

de esquematización y detalle que delimitan el data warehouse. La estructura

de un data warehouse se muestra en la Figura N° 5.

En la figura, se muestran los diferentes componentes del data warehouse y

son:

Detalle de datos actuales. En gran parte, el interés más importante radica

en el detalle de los datos actuales, debido a que:

Refleja las ocurrencias más recientes, las cuales son de gran interés

Es voluminoso, ya que se almacena al más bajo nivel de granularidad.

3

Page 16: TRABAJO SIG

Casi siempre se almacena en disco, el cual es de fácil acceso, aunque

su administración sea costosa y compleja.

Detalle de datos antiguos. La data antigua es aquella que se almacena so-

bre alguna forma de almacenamiento masivo. No es frecuentemente su ac-

ceso y se almacena a un nivel de detalle, consistente con los datos detalla-

dos actuales.

Mientras no sea prioritario el almacenamiento en un medio de almacenaje

alterno, a causa del gran volumen de datos unido al acceso no frecuente de

los mismos, es poco usual utilizar el disco como medio de almacenamiento.

Datos ligeramente resumidos. La data ligeramente resumida es aquella

que proviene desde un bajo nivel de detalle encontrado al nivel de detalle ac-

tual. Este nivel del data warehouse casi siempre se almacena en disco. Los

puntos en los que se basa el diseñador para construirlo son:

Que la unidad de tiempo se encuentre sobre la esquematización he-

cha.

Qué contenidos (atributos) tendrá la data ligeramente resumida.

Datos completamente resumidos. El siguiente nivel de datos encontrado

en el data warehouse es el de los datos completamente resumidos. Estos da-

tos son compactos y fácilmente accesibles.

3

Page 17: TRABAJO SIG

A veces se encuentra en el ambiente de data warehouse y en otros, fuera

del límite de la tecnología que ampara al data warehouse. (De todos modos,

los datos

Metadata. El componente final del data warehouse es el de la metadata. De

muchas maneras la metadata se sitúa en una dimensión diferente al de otros

datos del data warehouse, debido a que su contenido no es tomado directa-

mente desde el ambiente operacional.

La metadata juega un rol especial y muy importante en el data warehouse y

es usada como:

Un directorio para ayudar al analista a ubicar los contenidos del data

warehouse.

Una guía para la trazabilidad de los datos, de cómo se transforma, del

ambiente operacional al de data warehouse.

Una guía de los algoritmos usados para la esquematización entre el

detalle de datos actual, con los datos ligeramente resumidos y éstos,

con los datos completamente resumidos, etc.

La metadata juega un papel mucho más importante en un ambiente data

warehousing que en un operacional clásico.

A fin de recordar los diferentes niveles de los datos encontrados en el data

warehouse, considere el ejemplo mostrado en la Figura N° 6. El detalle de

ventas antiguas son las que se encuentran antes de 1992. Todos los detalles

de ventas desde 1982 (o cuando el diseñador inició la colección de los archi-

vos) son almacenados en el nivel de detalle de datos más antiguo.

3

Page 18: TRABAJO SIG

El detalle actual contiene información desde 1992 a 1993 (suponiendo que

1993 es el año actual). En general, el detalle de ventas no se ubica en el ni-

vel de detalle actual hasta que haya pasado, por lo menos, veinticuatro horas

desde que la información de ventas llegue a estar disponible en el ambiente

operacional.

En otras palabras, habría un retraso de tiempo de por lo menos veinticuatro

horas, entre el tiempo en que en el ambiente operacional se haya hecho un

nuevo ingreso de la venta y el momento cuando la información de la venta

haya ingresado al data warehouse.

El detalle de las ventas son resumidas semanalmente por línea de subpro-

ducto y por región, para producir un almacenamiento de datos ligeramente

resumidos.

El detalle de ventas semanal es adicionalmente resumido en forma men-

sual, según una gama de líneas, para producir los datos completamente re-

sumidos.

La metadata contiene (al menos):

La estructura de los datos

Los algoritmos usados para la esquematización

La trazabilidad desde el ambiente operacional al data warehouse

La información adicional que no se esquematiza es almacenada en el data

warehouse. En muchas ocasiones, allí se hará el análisis y se producirá un

tipo u otro de resumen. El único tipo de esquematización que se almacena

3

Page 19: TRABAJO SIG

permanentemente en el data warehouse, es el de los datos que son usados

frecuentemente. En otras palabras, si un analista produce un resumen que

tiene una probabilidad muy baja de ser usado nuevamente, entonces la es-

quematización no es almacenada en el data warehouse.

Los procesos básicos del Data WareHouse (ETL)

Extracción: este es el primer paso de obtener la información hacia el

ambiente del Data WareHouse.

Transformación: una vez que la información es extraída hacia el área

de trafico de datos, hay posibles paso de transformación como;

limpieza de la información, tirar la basura que no nos sirve,

seleccionar únicamente los campos necesarios para el Data

WareHouse, combinar fuentes de datos, haciéndolas coincidir por los

valores de las llaves, creando nuevas llaves para cada registro de una

dimensión.

Carga: al final del proceso de transformación, los datos están en forma

para ser cargados.

3

Page 20: TRABAJO SIG

Transformación de Datos

Uno de los desafíos de cualquier implementación de data warehouse, es el

problema de transformar los datos. La transformación se encarga de las in-

consistencias en los formatos de datos y la codificación, que pueden existir

dentro de una base de datos única y que casi siempre existen cuando múlti-

ples bases de datos contribuyen al data warehouse.

En la Figura N° 9 se ilustra una forma de inconsistencia, en la cual el géne-

ro se codifica de manera diferente en tres bases de datos diferentes. Los pro-

cesos de transformación de datos se desarrollan para direccionar estas in-

consistencias.

La transformación de datos también se encarga de las inconsistencias en el

contenido de datos. Una vez que se toma la decisión sobre que reglas de

transformación serán establecidas, deben crearse e incluirse las definiciones

en las rutinas de transformación.

Se requiere una planificación cuidadosa y detallada para transformar datos

inconsistentes en conjuntos de datos conciliables y consistentes para cargar-

los en el data warehouse.

3

Page 21: TRABAJO SIG

Diseño de la Arquitectura

Arquitectura del Depósito

El desarrollo del data warehouse comienza con la estructura lógica y física

de la base de datos del depósito más los servicios requeridos para operar y

mantenerlo.

Esta elección conduce a la selección de otros dos ítems fundamentales: el

servidor de hardware y el DBMS.

La plataforma física puede centralizarse en una sola ubicación o distribuir-

se regional, nacional o internacionalmente. A continuación se dan las siguien-

tes alternativas de arquitectura:

Un plan para almacenar los datos de su compañía, que podría obte-

nerse desde fuentes múltiples internas y externas, es consolidar la

base de datos en un data warehouse integrado. El enfoque consolida-

do proporciona eficiencia tanto en la potencia de procesamiento como

en los costos de soporte.

3

Page 22: TRABAJO SIG

La arquitectura global distribuye información por función, con datos fi-

nancieros sobre un servidor en un sitio, los datos de comercialización

en tro y los datos de fabricación en un tercer lugar.

Una arquitectura por niveles almacena datos altamente resumidos so-

bre una estación de trabajo del usuario, con resúmenes más detalla-

dos en un segundo servidor y la información más detallada en un ter-

cero.

La estación de trabajo del primer nivel maneja la mayoría de los pedidos

para los datos, con pocos pedidos que pasan sucesivamente a los niveles 2

y 3 para la resolución. Las computadoras en el primer nivel pueden optimi-

zarse para usuarios de carga pesada y volumen bajo de datos, mientras que

los servidores de los otros niveles son más adecuados para procesar los vo-

lúmenes pesados de datos, pero cargas más livianas de usuario.

Arquitectura del servidor

Al decidir sobre una estructura de depósito distribuida o centralizada, tam-

bién se necesita considerar los servidores que retendrán y entregarán los da-

tos. El tamaño de su implementación (y las necesidades de su empresa para

escalabilidad, disponibilidad y gestión de sistemas) influirá en la elección de

la arquitectura del servidor.

1° Servidores de un solo procesador

Los servidores de un sólo procesador son los más fáciles de administrar,

pero

ofrecen limitada potencia de procesamiento y escalabilidad. Además, un ser-

vidor sólo presenta un único punto de falla, limitando la disponibilidad garanti-

zada del depósito.

Se puede ampliar un solo servidor de redes mediante arquitecturas distribui-

das que hacen uso de subproductos, tales como Ambientes de Computación

3

Page 23: TRABAJO SIG

Distribuida (Distributed Computing Environment - DCE) o Arquitectura Broker

de Objeto Común (Common Objects Request Broker Architecture - CORBA),

para distribuir el tráfico a través de servidores múltiples.

Estas arquitecturas aumentan también la disponibilidad, debido a que las

operaciones pueden cambiarse al servidor de copia de seguridad si un servi-

dor falla, pero la gestión de sistemas es más compleja.

2° Multiprocesamiento simétrico

Las máquinas de multiprocesamiento simétrico (Symmetric MultiProcessing –

SMP) aumentan mediante la adición de procesadores que comparten la me-

moria interna de los servidores y los dispositivos de almacenamiento de dis-

co.

Se puede adquirir la mayoría de SMP en configuraciones mínimas (es de-

cir, con dos procesadores) y levantar cuando es necesario, justificando el

crecimiento con las necesidades de procesamiento. La escalabilidad de una

máquina SMP alcanza su límite en el número máximo de procesadores so-

portados por los mecanismos de conexión (es decir, el backplane y bus com-

partido).

3° Procesamiento en paralelo masivo

Una máquina de procesamiento en paralelo masivo (Massively Parallel Pro-

cessing - MPP), conecta un conjunto de procesadores por medio de un enla-

ce de banda ancha y de alta velocidad. Cada nodo es un servidor, completo

con su propio procesador (posiblemente SMP) y memoria interna. Para opti-

mizar una arquitectura MPP, las aplicaciones deben ser "paralelizadas" es

decir, diseñadas para operar por separado, en partes paralelas.

Esta arquitectura es ideal para la búsqueda de grandes bases de datos.

Sin embargo, el DBMS que se selecciona debe ser uno que ofrezca una ver-

sión paralela. Y aún entonces, se requiere un diseño y afinamiento esencia-

les para

3

Page 24: TRABAJO SIG

obtener una óptima distribución de los datos y prevenir "hot spots" o "data

skew" (donde una cantidad desproporcionada del procesamiento es cambia-

da a un nodo de procesamiento, debido a la partición de los datos bajo su

control).

4° Acceso de memoria no uniforme

La dificultad de mover aplicaciones y los DBMS a agrupaciones o ambien-

tes realmente paralelos ha conducido a nuevas y recientes arquitecturas, ta-

les como el acceso de memoria no uniforme (Non Uniform Memory Access –

NUMA). NUMA crea una sola gran máquina SMP al conectar múltiples nodos

SMP en un solo (aunque físicamente distribuida) banco de memoria y un

ejemplo único de OS. NUMA facilita el enfoque SMP para obtener los benefi-

cios de performance de las grandes máquinas MPP (con 32 o más procesa-

dores), mientras se mantiene las ventajas de gestión y simplicidad de un am-

biente SMP estándar.

Lo más importante de todo, es que existen DBMS y aplicaciones que pue-

den moverse desde un solo procesador o plataforma SMP a NUMA, sin mo-

dificaciones.

3

Page 25: TRABAJO SIG

Elementos constituyentes de una Arquitectura Data Warehouse

Una Arquitectura Data Warehouse (Data Warehouse Architecture - DWA) es

una forma de representar la estructura total de datos, comunicación, proce-

samiento y presentación, que existe para los usuarios finales que disponen

de una computadora dentro de la empresa.

La arquitectura se constituye de un número de partes interconectadas:

Base de datos operacional / Nivel de base de datos externo

Nivel de acceso a la información

Nivel de acceso a los datos

Nivel de directorio de datos (Metadata)

Nivel de gestión de proceso

Nivel de mensaje de la aplicación

Nivel de data warehouse

3

Page 26: TRABAJO SIG

Nivel de organización de datos

Plataforma del data warehouse

La plataforma para el data warehouse es casi siempre un servidor de base

de datos relacional. Cuando se manipulan volúmenes muy grandes de datos

puede requerirse una configuración en bloque de servidores UNIX con multi-

procesador simétrico (SMP) o un servidor con procesador paralelo masivo

(MPP) especializado.

Los extractos de la data integrada/transformada se cargan en el data ware-

house. Uno de los más populares RDBMSs disponibles para data warehou-

sing sobre la plataforma UNIX (SMP y MPP) generalmente es Teradata. La

elección de la plataforma es crítica. El depósito crecerá y hay que compren-

der los requerimientos después de 3 o 5 años.

Muchas de las organizaciones quieran o no escogen una plataforma por di-

versas razones: el Sistema X es nuestro sistema elegido o el Sistema Y está

ya disponible sobre un sistema UNIX que nosotros ya tenemos. Uno de los

errores más grandes que las organizaciones cometen al seleccionar la plata-

forma, es que ellos presumen que el sistema (hardware y/o DBMS) escalará

con los datos.

El sistema de depósito ejecuta las consultas que se pasa a los datos por el

software de acceso a los datos del usuario. Aunque un usuario visualiza las

consultas desde el punto de vista de un GUI, las consultas típicamente se

formulan como pedidos SQL, porque SQL es un lenguaje universal y el es-

tándar de hecho para el acceso a datos.

Principales aportaciones de un datawarehouse

Facilita la aplicación de técnicas estadísticas de análisis y

3

Page 27: TRABAJO SIG

modelización para encontrar relaciones ocultas entre los datos del

almacén; obteniendo un valor añadido para el negocio de dicha

información.

Proporciona una herramienta para la toma de decisiones en cualquier

área funcional, basándose en información integrada y global del

negocio.

Proporciona la capacidad de aprender de los datos del pasado y de

predecir situaciones futuras en diversos escenarios.

Simplifica dentro de la empresa la implantación de sistemas de

gestión integral de la relación con el cliente.

Supone una optimización tecnológica y económica en entornos de

Centro de Información, estadística o de generación de informes con

retornos de la inversión espectaculares hacer este informe no afecta a

otros reportes que pueden solicitarse es decir, todos ellos son

independientes y caros, desde el punto de vista de recursos y

productividad.

Minería de Datos

La minería de datos (DM, Data Mining) consiste en la extracción no trivial

de información que reside de manera implícita en los datos. Dicha

información era previamente desconocida y podrá resultar útil para algún

3

Page 28: TRABAJO SIG

proceso. En otras palabras, la minería de datos prepara, sondea y explora

los datos para sacar la información oculta en ellos.

Bajo el nombre de minería de datos se engloba todo un conjunto de

técnicas encaminadas a la extracción de conocimiento procesable, implícito

en las bases de datos. Está fuertemente ligado con la supervisión de

procesos industriales ya que resulta muy útil para aprovechar los datos

almacenados en las bases de datos.

Las bases de la minería de datos se encuentran en la inteligencia artificial y

en el análisis estadístico. Mediante los modelos extraídos utilizando técnicas

de minería de datos se aborda la solución a problemas de predicción,

clasificación y segmentación.

Los Fundamentos del Data Mining

Las técnicas de Data Mining son el resultado de un largo proceso de

investigación y desarrollo de productos. Esta evolución comenzó cuando los

datos de negocios fueron almacenados por primera vez en computadoras, y

continuó con mejoras en el acceso a los datos, y más recientemente con

tecnologías generadas para permitir a los usuarios navegar a través de los

datos en tiempo real. Data Mining toma este proceso de evolución más allá

del acceso y navegación retrospectiva de los datos, hacia la entrega de

información prospectiva y proactiva. Data Mining está listo para su aplicación

en la comunidad de negocios porque está soportado por tres tecnologías que

ya están suficientemente maduras:

1. Recolección masiva de datos

2. Potentes computadoras con multiprocesadores

3. Algoritmos de Data Mining

3

Page 29: TRABAJO SIG

Proceso de Minería de Datos

Un proceso típico de minería de datos consta de los siguientes pasos

generales:

1. Selección del conjunto de datos, tanto en lo que se refiere a las variables

objetivo (aquellas que se quiere predecir, calcular o inferir), como a las

variables dependientes (las que sirven para hacer el cálculo o proceso),

como posiblemente al muestreo de los registros disponibles.

2. Análisis de las propiedades de los datos, en especial los histogramas,

diagramas de dispersión, presencia de valores atípicos y ausencia de datos

(valores nulos).

3. Transformación del conjunto de datos de entrada, se realizará de diversas

formas en función del análisis previo, con el objetivo de prepararlo para

aplicar la técnica de minería de datos que mejor se adapte a los datos y al

problema, a este paso también se le conoce como pre procesamiento de los

datos.

4. Seleccionar y aplicar la técnica de minería de datos, se construye el

modelo predictivo, de clasificación o segmentación.

5. Extracción de conocimiento, mediante una técnica de minería de datos, se

obtiene un modelo de conocimiento, que representa patrones de

comportamiento observados en los valores de las variables del problema o

relaciones de asociación entre dichas variables. También pueden usarse

varias técnicas a la vez para generar distintos modelos, aunque

generalmente cada técnica obliga a un pre procesado diferente de los datos.

6. Interpretación y evaluación de datos, una vez obtenido el modelo, se debe

proceder a su validación comprobando que las conclusiones que arroja son

válidas y suficientemente satisfactorias. En el caso de haber obtenido varios

modelos mediante el uso de distintas técnicas, se deben comparar los

modelos en busca de aquel que se ajuste mejor al problema. Si ninguno de

3

Page 30: TRABAJO SIG

los modelos alcanza los resultados esperados, debe alterarse alguno de los

pasos anteriores para generar nuevos modelos.

¿Cómo Trabaja el Data Mining?

¿Cuán exactamente es capaz Data Mining de decirle cosas importantes

que usted desconoce o que van a pasar? La técnica usada para realizar

estas hazañas en Data Mining se llama Modelado. Modelado es simplemente

el acto de construir un modelo en una situación donde usted conoce la

respuesta y luego la aplica en otra situación de la cual desconoce la

respuesta. Por ejemplo, si busca un barco hundido en los mares lo primero

que podría hacer es investigar otros tesoros que ya fueron encontrados en el

pasado. Notaría que esos barcos frecuentemente fueron encontrados fuera

de las costas de Bermuda y que hay ciertas características respecto de las

corrientes oceánicas y ciertas rutas que probablemente tomara el capitán del

barco en esa época. Usted nota esas similitudes y arma un modelo que

incluye las características comunes a todos los sitios de estos tesoros

hundidos. Con estos modelos en mano sale a buscar el tesoro donde el

modelo indica que en el pasado hubo más probabilidad de darse una

3

Page 31: TRABAJO SIG

situación similar. Con un poco de esperanza, si tiene un buen modelo,

probablemente encontrará el tesoro.

Este acto de construcción de un modelo es algo que la gente ha estado

haciendo desde hace mucho tiempo, seguramente desde antes del auge de

las computadoras y de la tecnología de Data Mining. Lo que ocurre en las

computadoras, no es muy diferente de la manera en que la gente construye

modelos. Las computadoras son cargadas con mucha información acerca de

una variedad de situaciones donde una respuesta es conocida y luego el

software de Data Mining en la computadora debe correr a través de los datos

y distinguir las características de los datos que llevarán al modelo. Una vez

que el modelo se construyó, puede ser usado en situaciones similares donde

usted no conoce la respuesta.

Si alguien le dice que tiene un modelo que puede predecir el uso de los

clientes, ¿Cómo puede saber si es realmente un buen modelo? La primera

cosa que puede probar es pedirle que aplique el modelo a su base de

clientes - donde usted ya conoce la respuesta. Con Data Mining, la mejor

manera para realizar esto es dejando de lado ciertos datos para aislarlos del

proceso de Data Mining. Una vez que el proceso está completo, los

resultados pueden ser testeados contra los datos excluidos para confirmar la

validez del modelo. Si el modelo funciona, las observaciones deben

mantenerse para los datos excluidos.

Principales características y objetivos de la Minería de Datos

Explorar los datos se encuentran en las profundidades de las bases

de datos, como los almacenes de datos, que algunas veces contienen

información almacenada durante varios años

En algunos casos, los datos se consolidan en un almacén de datos y

en mercados de datos; en otros, se mantienen en servidores de

3

Page 32: TRABAJO SIG

Internet e Intranet.

El entorno de la minería de datos suele tener una arquitectura cliente

servidor.

Las herramientas de la minería de datos ayudan a extraer el mineral

de la información enterrado en archivos corporativos o en registros

públicos, archivados.

El minero es, muchas veces un usuario final con poca o ninguna

habilidad de programación, facultado por barrenadoras de datos y

otras poderosas herramientas indagatorias para efectuar preguntas

adhoc y obtener rápidamente respuestas.

Hurgar y sacudir a menudo implica el descubrimiento de resultados

valiosos e inesperados.

Las herramientas de la minería de datos se combinan fácilmente y

pueden analizarse y procesarse rápidamente.

Debido a la gran cantidad de datos, algunas veces resulta necesario

usar procesamiento en paralelo para la minería de datos.

La minería de datos produce cinco tipos de información:

Asociaciones

Secuencias

Clasificaciones

Agrupamientos

Pronósticos.

Los mineros de datos usan varias herramientas y técnicas.

La minería de datos es un proceso que invierte la dinámica del método

científico en el siguiente sentido:

En el método científico, primero se formula la hipótesis y luego se diseña el

experimento para coleccionar los datos que confirmen o refuten la hipótesis.

Si esto se hace con la formalidad adecuada (cuidando cuáles son las

3

Page 33: TRABAJO SIG

variables controladas y cuáles experimentales), se obtiene un nuevo

conocimiento.

En la minería de datos, se coleccionan los datos y se espera que de ellos

emerjan hipótesis. Se busca que los datos describan o indiquen por qué son

como son. Luego entonces, se valida esa hipótesis inspirada por los datos en

los datos mismos, será numéricamente significativa, pero experimentalmente

inválida. De ahí que la minería de datos debe presentar un enfoque

exploratorio, y no confirmador. Usar la minería de datos para confirmar las

hipótesis formuladas puede ser peligroso, pues se está haciendo una

inferencia poco válida.

La minería de datos es una tecnología compuesta por etapas que integra

varias áreas y que no se debe confundir con un gran software. Durante el

desarrollo de un proyecto de este tipo se usan diferentes aplicaciones

software en cada etapa que pueden ser estadísticas, de visualización de

datos o de inteligencia artificial, principalmente. Actualmente existen

aplicaciones o herramientas comerciales de minería de datos muy poderosas

que contienen un sinfín de utilerías que facilitan el desarrollo de un proyecto.

Sin embargo, casi siempre acaban complementándose con otra herramienta.

Técnicas de Minería de Datos

Como ya se ha comentado, las técnicas de la minería de datos provienen de

la Inteligencia artificial y de la estadística, dichas técnicas, no son más que

algoritmos, más o menos sofisticados que se aplican sobre un conjunto de

datos para obtener unos resultados.

Las técnicas más representativas son:

* Redes neuronales.- Son un paradigma de aprendizaje y procesamiento

automático inspirado en la forma en que funciona el sistema nervioso de los

animales. Se trata de un sistema de interconexión de neuronas en una red

3

Page 34: TRABAJO SIG

que colabora para producir un estímulo de salida. Algunos ejemplos de red

neuronal son:

El Perceptrón.

El Perceptrón multicapa.

Los Mapas Autoorganizados, también conocidos como redes de

Kohonen.

* Regresión lineal.- Es la más utilizada para formar relaciones entre datos.

Rápida y eficaz pero insuficiente en espacios multidimensionales donde

puedan relacionarse más de 2 variables.

* Árboles de decisión.- Un árbol de decisión es un modelo de predicción

utilizado en el ámbito de la inteligencia artificial, dada una base de datos se

construyen estos diagramas de construcciones lógicas, muy similares a los

sistemas de predicción basados en reglas, que sirven para representar y

categorizar una serie de condiciones que suceden de forma sucesiva, para la

resolución de un problema. Ejemplos:

1. Algoritmo ID3.

2. Algoritmo C4.5.

* Modelos estadísticos.- Es una expresión simbólica en forma de igualdad o

ecuación que se emplea en todos los diseños experimentales y en la

regresión para indicar los diferentes factores que modifican la variable de

respuesta.

* Agrupamiento o Clustering.- Es un procedimiento de agrupación de una

serie de vectores según criterios habitualmente de distancia; se tratará de

disponer los vectores de entrada de forma que estén más cercanos aquellos

que tengan características comunes. Ejemplos:

Algoritmo K-means.

Algoritmo K-medoids.

3

Page 35: TRABAJO SIG

Según el objetivo del análisis de los datos, los algoritmos utilizados se

clasifican en supervisados y no supervisados (Weiss y Indurkhya, 1998):

* Algoritmos supervisados (o predictivos): predicen un dato (o un conjunto de

ellos) desconocido a priori, a partir de otros conocidos.

Algoritmos no supervisados (o del descubrimiento del conocimiento):

se descubren patrones y tendencias en los datos.

Ejemplos de uso de la minería de datos

Negocios

La minería de datos puede contribuir significativamente en las aplicaciones

de administración empresarial basada en la relación con el cliente. En lugar

de contactar con el cliente de forma indiscriminada a través de un centro de

llamadas o enviando cartas, sólo se contactará con aquellos que se perciba

que tienen una mayor probabilidad de responder positivamente a una

determinada oferta o promoción.

Por lo general, las empresas que emplean minería de datos ven

rápidamente el retorno de la inversión, pero también reconocen que el

número de modelos predictivos desarrollados puede crecer muy

rápidamente.

En lugar de crear modelos para predecir qué clientes pueden cambiar, la

empresa podría construir modelos separados para cada región y/o para cada

tipo de cliente. También puede querer determinar qué clientes van a ser

rentables durante una ventana de tiempo (una quincena, un mes, ...) y sólo

enviar las ofertas a las personas que es probable que sean rentables. Para

mantener esta cantidad de modelos, es necesario gestionar las versiones de

cada modelo y pasar a una minería de datos lo más automatizada posible.

Hábitos de compra en supermercados

El ejemplo clásico de aplicación de la minería de datos tiene que ver con la

3

Page 36: TRABAJO SIG

detección de hábitos de compra en supermercados. Un estudio muy citado

detectó que los viernes había una cantidad inusualmente elevada de clientes

que adquirían a la vez pañales y cerveza. Se detectó que se debía a que

dicho día solían acudir al supermercado padres jóvenes cuya perspectiva

para el fin de semana consistía en quedarse en casa cuidando de su hijo y

viendo la televisión con una cerveza en la mano. El supermercado pudo

incrementar sus ventas de cerveza colocándolas próximas a los pañales para

fomentar las ventas compulsivas.

Patrones de fuga

Un ejemplo más habitual es el de la detección de patrones de fuga. En

muchas industrias —como la banca, las telecomunicaciones, etc.— existe un

comprensible interés en detectar cuanto antes aquellos clientes que puedan

estar pensando en rescindir sus contratos para, posiblemente, pasarse a la

competencia. A estos clientes —y en función de su valor— se les podrían

hacer ofertas personalizadas, ofrecer promociones especiales, etc., con el

objetivo último de retenerlos. La minería de datos ayuda a determinar qué

clientes son los más proclives a darse de baja estudiando sus patrones de

comportamiento y comparándolos con muestras de clientes que,

efectivamente, se dieron de baja en el pasado.

Fraudes

Un caso análogo es el de la detección de transacciones de blanqueo de

dinero o de fraude en el uso de tarjetas de crédito o de servicios de telefonía

móvil e, incluso, en la relación de los contribuyentes con el fisco.

Generalmente, estas operaciones fraudulentas o ilegales suelen seguir

patrones característicos que permiten, con cierto grado de probabilidad,

distinguirlas de las legítimas y desarrollar así mecanismos para tomar

3

Page 37: TRABAJO SIG

medidas rápidas frente a ellas.

Recursos humanos

La minería de datos también puede ser útil para los departamentos de

recursos humanos en la identificación de las características de sus

empleados de mayor éxito. La información obtenida puede ayudar a la

contratación de personal, centrándose en los esfuerzos de sus empleados y

los resultados obtenidos por éstos. Además, la ayuda ofrecida por las

aplicaciones para Dirección estratégica en una empresa se traducen en la

obtención de ventajas a nivel corporativo, tales como mejorar el margen de

beneficios o compartir objetivos; y en la mejora de las decisiones operativas,

tales como desarrollo de planes de producción o gestión de mano de obra.

Comportamiento en Internet

También es un área en boga el del análisis del comportamiento de los

visitantes —sobre todo, cuando son clientes potenciales— en una página de

Internet. O la utilización de la información —obtenida por medios más o

menos legítimos— sobre ellos para ofrecerles propaganda adaptada

específicamente a su perfil. O para, una vez que adquieren un determinado

producto, saber inmediatamente qué otro ofrecerle teniendo en cuenta la

información histórica disponible acerca de los clientes que han comprado el

primero.

Terrorismo

La minería de datos ha sido citada como el método por el cual la unidad Able

Danger del Ejército de los EE.UU. había identificado al líder de los atentados

del 11 de septiembre de 2001, Mohammed Atta, y a otros tres secuestradores

del "11-S" como posibles miembros de una célula de Al Qaeda que operan en

3

Page 38: TRABAJO SIG

los EE.UU. más de un año antes del ataque. Se ha sugerido que tanto la

Agencia Central de Inteligencia y sus homóloga canadiense, Servicio de

Inteligencia y Seguridad Canadiense, también han empleado este método.[1]

Juegos

Desde comienzos de la década de 1960, con la disponibilidad de oráculos

para determinados juegos combinacionales, también llamados finales de

juego de tablero (por ejemplo, para las tres en raya o en finales de ajedrez)

con cualquier configuración de inicio, se ha abierto una nueva área en la

minería de datos que consiste en la extracción de estrategias utilizadas por

personas para estos oráculos. Los planteamientos actuales sobre

reconocimiento de patrones, no parecen poder aplicarse con éxito al

funcionamiento de estos oráculos. En su lugar, la producción de patrones

perspicaces se basa en una amplia experimentación con bases de datos

sobre esos finales de juego, combinado con un estudio intensivo de los

propios finales de juego en problemas bien diseñados y con conocimiento de

la técnica (datos previos sobre el final del juego). Ejemplos notables de

investigadores que trabajan en este campo son Berlekamp en el juego de

puntos-y-cajas (o Timbiriche) y John Nunn en finales de ajedrez.

Ciencia e Ingeniería

En los últimos años la minería de datos se está utilizando ampliamente en

diversas áreas relacionadas con la ciencia y la ingeniería. Algunos ejemplos

de aplicación en estos campos son:

Genética

En el estudio de la genética humana, el objetivo principal es entender la

relación cartográfica entre las partes y la variación individual en las

secuencias del ADN humano y la variabilidad en la susceptibilidad a las

3

Page 39: TRABAJO SIG

enfermedades. En términos más llanos, se trata de saber cómo los cambios

en la secuencia de ADN de un individuo afectan al riesgo de desarrollar

enfermedades comunes (como por ejemplo el cáncer). Esto es muy

importante para ayudar a mejorar el diagnóstico, prevención y tratamiento de

las enfermedades. La técnica de minería de datos que se utiliza para realizar

esta tarea se conoce como "reducción de dimensionalidad multifactorial".[2]

Ingeniería eléctrica

En el ámbito de la ingeniería eléctrica, las técnicas minería de datos han sido

ampliamente utilizadas para monitorizar las condiciones de las instalaciones

de alta tensión. La finalidad de esta monitorización es obtener información

valiosa sobre el estado del aislamiento de los equipos. Para la vigilancia de

las vibraciones o el análisis de los cambios de carga en transformadores se

utilizan ciertas técnicas para agrupación de datos (clustering) tales como los

Mapas Auto-Organizativos (SOM, Self-organizing map). Estos mapas sirven

para detectar condiciones anormales y para estimar la naturaleza de dichas

anomalías.[3]

Análisis de gases

También se han aplicado técnicas de minería de datos para el análisis de

gases disueltos (DGA, Dissolved gas analysis) en transformadores eléctricos.

El análisis de gases disueltos se conoce desde hace mucho tiempo como

herramienta para diagnosticar transformadores. Los Mapas Auto-

Organizativos (SOM) se utilizan para analizar datos y determinar tendencias

que podrían pasarse por alto utilizando las técnicas clásicas DGA.

Herramientas de software

3

Page 40: TRABAJO SIG

Existen muchas herramientas de software para el desarrollo de modelos de

minería de datos tanto libres como comerciales como, por ejemplo:

R

KNIME

SPSS Clementine (software)

SAS Enterprise Miner

STATISTICA Data Miner

RapidMiner

Weka

KXEN

Orange

Lenguaje de programación R: R es un lenguaje y entorno de programación

para análisis estadístico y gráfico.

Se trata de un proyecto de software libre, resultado de la implementación

GNU del premiado lenguaje S. R y S-Plus -versión comercial de S- son,

probablemente, los dos lenguajes más utilizados en investigación por la

comunidad estadística, siendo además muy populares en el campo de la

investigación biomédica, la bioinformática y las matemáticas financieras. A

esto contribuye la posibilidad de cargar diferentes librerías o paquetes con

finalidades específicas de cálculo o gráfico.

R se distribuye bajo la licencia GNU GPL y está disponible para los sistemas

operativos Windows, Macintosh, Unix y GNU/Linux.

KNIME (o Konstanz Information Miner): Es una plataforma de minería de

datos que permite el desarrollo de modelos en un entorno visual. Está

construido bajo la plataforma Eclipse.

3

Page 41: TRABAJO SIG

SAS: es un lenguaje de programación desarrollado por SAS Institute a

finales de los años sesenta. Existen dos intérpretes de dicho lenguaje: uno

desarrollado por SAS Institute y otro por la empresa World Programming.

SPSS: Statistical Package for the Social Sciences (SPSS) es un programa

estadístico informático muy usado en las ciencias sociales y las empresas de

investigación de mercado. En la actualidad, la sigla se usa tanto para

designar el programa estadístico como la empresa que lo produce.

Originalmente SPSS fue creado como el acrónimo de Statistical Package for

the Social Sciences ya que se está popularizando la idea de traducir el

acrónimo como "Statistical Product and Service Solutions". Sin embargo,

aunque realizando búsquedas por internet estas pueden llevar a la página

web de la empresa, dentro de la página misma de la empresa no se

encuentra dicha denominación.

Como programa estadístico es muy popular su uso debido a la capacidad

de trabajar con bases de datos de gran tamaño. En la versión 12 es de 2

millones de registros y 250.000 variables. Además, de permitir la

recodificación de las variables y registros según las necesidades del usuario.

El programa consiste en un módulo base y módulos anexos que se han ido

actualizando constantemente con nuevos procedimientos estadísticos. Cada

uno de estos módulos se compra por separado.

Statistica (aunque la marca está registrada como STATISTICA, en

mayúsculas) es un paquete estadístico usado en investigación, minería de

datos y en el ámbito empresarial. Lo creó StatSoft, empresa que lo desarrolla

y mantiene.

StatSoft nació en 1984 de un acuerdo entre un grupo de profesores

universitarios y científicos. Sus primeros productos fueron los programas

3

Page 42: TRABAJO SIG

PsychoStat-2 y PsychoStat-3. Después desarrolló Statistical Supplement for

Lotus 1-2-3, un complemento para las hojas de cálculo de Lotus. Finalmente,

en 1991, lanzó al mercado la primera versión de STATISTICA para MS-DOS.

Actualmente compite con otros paquetes estadísticos tanto propietarios,

como SPSS, SAS, Matlab o Stata, como libres, como R.

RapidMiner (anteriormente, YALE, Yet Another Learning Environment) es un

programa informático para el análisis y minería de datos. Permite el

desarrollo de procesos de análisis de datos mediante el encadenamiento de

operadores a través de un entorno gráfico. Se usa en investigación y en

aplicaciones empresariales.

La versión inicial fue desarrollada por el departamento de inteligencia

artificial de la Universidad de Dortmund en 2001. Se distribuye bajo licencia

GPL y está hospedado en SourceForge desde el 2004.

RapidMiner proporciona más de 500 operadores orientados al análisis de

datos, incluyendo los necesarios para realizar operaciones de entrada y

salida, preprocesamiento de datos y visualización. También permite utilizar

los algoritmos incluidos en Weka.

Weka (Waikato Environment for Knowledge Analysis - Entorno para Análisis

del Conocimiento de la Universidad de Waikato) es un conocido software

para aprendizaje automático y minería de datos escrito en Java y

desarrollado en la Universidad de Waikato. WEKA es un software libre

distribuido bajo licencia GNU-GPL.

Orange: es un programa informático para realizar minería de datos y análisis

predictivo desarrollado en la facultad de informática de la Universidad de

Ljubljana. Consta de una serie de componentes desarrollados en C++ que

3

Page 43: TRABAJO SIG

implementan algoritmos de minería de datos, así como operaciones de

preprocesamiento y representación gráfica de datos.

Los componentes de Orange pueden ser manipulados desde programas

desarrollados en Python o a través de un entorno gráfico.

Se distribuye bajo licencia GPL.

Datamart

Un Datamart es una base de datos departamental, especializada en el

almacenamiento de los datos de un área de negocio específica. Se

caracteriza por disponer la estructura óptima de datos para analizar la

3

Page 44: TRABAJO SIG

información al detalle desde todas las perspectivas que afecten a los

procesos de dicho departamento. Un datamart puede ser alimentado

desde los datos de un datawarehouse, o integrar por si mismo un compendio

de distintas fuentes de información.

Por tanto, para crear el datamart de un área funcional de la empresa es

preciso encontrar la estructura óptima para el análisis de su información,

estructura que puede estar montada sobre una base de datos OLTP, como el

propio datawarehouse, o sobre una base de datos OLAP. La designación de

una u otra dependerá de los datos, los requisitos y las características

específicas de cada departamento.

3

Page 45: TRABAJO SIG

De esta forma se pueden plantear dos tipos de datamarts:

Datamart OLAP: El Data mart es un sistema orientado a la consulta, en el

que se producen procesos batch de carga de datos (altas) con una

frecuencia baja y conocida. Es consultado mediante herramientas OLAP (On

line Analytical Processing - Procesamiento Analítico en Línea) que ofrecen

una visión multidimensional de la información. Se basan en los populares

cubos OLAP, que se construyen agregando, según los requisitos de cada

área o departamento, las dimensiones y los indicadores necesarios de cada

cubo relacional. El modo de creación, explotación y mantenimiento de los

cubos OLAP es muy heterogéneo, en función de la herramienta final que se

utilice.

El acceso a los datos está optimizado para tareas frecuentes de

lectura y escritura. (Por ejemplo, la enorme cantidad de transacciones que

tienen que soportar las BD de bancos o hipermercados diariamente).

Los datos se estructuran según el nivel aplicación (programa de

gestión a medida, ERP o CRM implantado, sistema de información

departamental).

Los formatos de los datos no son necesariamente uniformes en los

diferentes departamentos (es común la falta de compatibilidad y la

existencia de islas de datos).

El historial de datos suele limitarse a los datos actuales o recientes.

Datamart OLTP: On-Line Transactional Processing pueden basarse en un

3

Page 46: TRABAJO SIG

simple extracto del datawarehouse, no obstante, lo común es introducir

mejoras en su rendimiento (las agregaciones y los filtrados suelen ser las

operaciones más usuales) aprovechando las características particulares de

cada área de la empresa. Las estructuras más comunes en este sentido son

las tablas report, que vienen a ser fact-tables reducidas (que agregan las

dimensiones oportunas), y las vistas materializadas, que se construyen con

la misma estructura que las anteriores, pero con el objetivo de explotar la

reescritura de queries (aunque sólo es posibles en algunos SGBD

avanzados, como Oracle).

El acceso a los datos suele ser de sólo lectura. La acción más común

es la consulta, con muy pocas inserciones, actualizaciones o eliminaciones.

Los datos se estructuran según las áreas de negocio, y los formatos

de los datos están integrados de manera uniforme en toda la

organización.

El historial de datos es a largo plazo, normalmente de dos a cinco

años.

Las bases de datos OLAP se suelen alimentar de información

procedente de los sistemas operacionales existentes, mediante un

proceso de extracción xtracción, transformación y carga (ETL).

Razones para crear un Datamart

Fácil acceso a los datos que se necesitan frecuentemente.

Crea vista colectiva para grupo de usuarios.

Mejora el tiempo de respuesta del usuario final.

Facilidad de creación.

3

Page 47: TRABAJO SIG

Costo inferior al de la aplicación de un completo almacén de datos.

Los usuarios potenciales son más claramente identificables que en un

almacén de datos completo...

Dependencia de un Datamart

Según la tendencia marcada por Inmon sobre los data warehouse, un

data mart dependiente es un subconjunto lógico (vista) o un subconjunto

físico (extracto) de un almacén de datos más grande, que se ha aislado por

alguna de las siguientes razones:

Se necesita para un esquema o modelo de datos espacial (por

ejemplo, para reestructurar los datos para alguna herramienta OLAP).

Prestaciones: Para descargar el data mart a un ordenador

independiente para mejorar la eficiencia o para obviar las necesidades

de gestionar todo el volumen del data warehouse centralizado.

Seguridad: Para separar un subconjunto de datos de forma selectiva a

los que queremos permitir o restringir el acceso.

Conveniencia: la de poder pasar por alto las autorizaciones y

requerimientos necesarios para poder incorporar una nueva aplicación

en el Data Warehouse principal de la Empresa.

Demostración sobre el terreno: para demostrar la viabilidad y el

potencial de una aplicación antes de migrarla al Data Warehouse de la

Empresa.

Política: Cuando se decide una estrategia para las TI (Tecnologías de

la información) en situaciones en las que un grupo de usuarios tiene

más influencia, para determinar si se financia dicha estrategia o

descubrir si ésta no sería buena para el almacén de datos

3

Page 48: TRABAJO SIG

centralizado.

Política: Estrategia para los consumidores de los datos en situaciones

en las que un equipo de almacén de datos no está en condiciones de

crear un almacén de datos utilizable.

Según la escuela Inmon de data warehouse, entre las pérdidas inherentes

al uso de data marts están la escalabilidad limitada, la duplicación de datos,

la inconsistencia de los datos con respecto a otros almacenes de información

y la incapacidad para aprovechar las fuentes de datos de la empresa. Así y

todo estas herramientas son de gran importancia.

HERRAMIENTAS:

Vertica Data Mart:

Es un software muy poderoso y popular que es utilizado por miles de

compañías alrededor del mundo para procesar la información y crear

mercados de datos de la información encontrada en los almacenes de

3

Page 49: TRABAJO SIG

datos. Vertica se utiliza para analizar la información de las empresas

de telecomunicaciones, los fabricantes de juegos de azar, consultores

financieros, los trabajadores sanitarios, e incluso en el comercio

minorista. Vertica incluso le permite crear una red e interactuar con

otros usuarios a través de protocolos de abonado. Vertica lista de

características incluye una arquitectura escalable, compresión de

datos, sintonización automática, la capacidad de operar en múltiples

sistemas, y le permite crear bases de datos basadas en columnas

basadas en sus necesidades y requerimientos específicos.

DataMartPC:

Se basa en situaciones del mundo real y experiencias y está

diseñado para darle lo que necesita sin tener que lidiar con las

características adicionales que acaba de ponerse en el camino.

DataMartPC está disponible para su descarga gratuita en un ensayo

de demostración basado en que incluye cinco ejemplos de soluciones.

Las cinco soluciones de muestra se incluyen las ventas de la tienda,

Departamento de Presupuestos, Control de Calidad, Gestión de

Proyectos y gestión de cuotas. Al utilizar y experimentar con estas

soluciones de la muestra, usted puede conseguir una comprensión de

cómo funciona DataMartPC y si el software es el adecuado para

usted. El software no es más clase que la rodea, pero se desempeña

bien incluso sin todas las campanas y silbatos que ofrecen otros

programas.

Oracle DataMart Builder:

Es en realidad un subsistema del Oracle Warehouse Builder, un

software que está diseñado principalmente para ETL (extracción,

3

Page 50: TRABAJO SIG

transformación, carga) los propósitos sino que viene con muchas

características adicionales que le ayudan a crear su propio almacén

de datos o data mart. El software cuenta con las herramientas que se

centran en la migración de datos, así como el modelado de datos,

auditoría de datos, elaboración de perfiles de datos, limpieza de datos

y metadatos. El Oracle Warehouse Builder con el respaldo de la base

de datos Oracle y se esfuerza por superar a sus competidores en el

mercado de gestión de datos del ciclo de vida.

CUADRO DE MANEJO INTEGRAL

El concepto de cuadro de mando integral – CMI (Balanced Scorecard –

BSC) fue presentado en el número de Enero/febrero de 1992 de la revista

Harvard Business Review, con base en un trabajo realizado para una

empresa de semiconductores (La empresa en cuestión sería Analog Devices

Inc.). Sus autores, Robert Kaplan y David Norton, plantean que el CMI es un

sistema de administración o sistema administrativo (Management system),

que va más allá de la perspectiva financiera con la que los gerentes

acostumbran evaluar la marcha de una empresa. Es un método para medir

las actividades de una compañía en términos de su visión y estrategia.

Proporciona a los administradores una mirada global de las prestaciones del

negocio.

Es una herramienta de administración de empresas que muestra

continuamente cuándo una compañía y sus empleados alcanzan los

resultados definidos por el plan estratégico. También es una herramienta que

ayuda a la compañía a expresar los objetivos e iniciativas necesarias para

cumplir con la estrategia.

3

Page 51: TRABAJO SIG

Según el libro "The Balanced ScoreCard: Translating Strategy into Action",

Harvard Business School Press, Boston, 1996:

"el BSC es una herramienta revolucionaria para movilizar a la gente hacia el

pleno cumplimiento de la misión, a través de canalizar las energías,

habilidades y conocimientos específicos de la gente en la organización hacia

el logro de metas estratégicas de largo plazo. Permite tanto guiar el

desempeño actual como apuntar el desempeño futuro. Usa medidas en

cuatro categorías -desempeño financiero, conocimiento del cliente, procesos

internos de negocios y aprendizaje y crecimiento- para alinear iniciativas

individuales, organizacionales y trans-departamentales e identifica procesos

enteramente nuevos para cumplir con objetivos del cliente y accionistas. El

BSC es un robusto sistema de aprendizaje para probar, obtener

realimentación y actualizar la estrategia de la organización. Provee el

sistema gerencial para que las compañías inviertan en el largo plazo -en

clientes, empleados, desarrollo de nuevos productos y sistemas más bien

que en gerenciar la última línea para bombear utilidades de corto plazo.

Cambia la manera en que se mide y gerencia un negocio".

El CMI sugiere que veamos a la organización desde cuatro perspectivas,

cada una de las cuales debe responder a una pregunta determinada:

Tipos de Cuadros de Mando

El Cuadro de Mando Operativo (CMO), es una herramienta de control enfoca-

da al seguimiento de variables operativas, es decir, variables pertenecientes

a áreas o departamentos específicos de la empresa. La periodicidad de los

CMO puede ser diaria, semanal o mensual, y está centrada en indicadores

que generalmente representan procesos, por lo que su implantación y puesta

3

Page 52: TRABAJO SIG

en marcha es más sencilla y rápida. Un CMO debería estar siempre ligado a

un DSS (Sistema de Soporte a Decisiones) para indagar en profundidad so-

bre los datos.

El Cuadro de Mando Integral (CMI), por el contrario, representa la ejecu-

ción de la estrategia de una compañía desde el punto de vista de la Direc-

ción General (lo que hace que ésta deba estar plenamente involucrada en to-

das sus fases, desde la definición a la implantación). Existen diferentes tipos

de cuadros de mando integral, si bien los más utilizados son los que se ba-

san en la metodología de Kaplan & Norton. La principales características de

esta metodología son que utilizan tanto indicadores financieros como no fi-

nancieros, y que los objetivos estratégicos se organizan en cuatro áreas o

perspectivas: financiera, cliente, interna y aprendizaje/crecimiento.

Desarrollo y Aprendizaje (Learning and Growth): ¿Podemos continuar

mejorando y creando valor?

Interna del Negocio (Internal Business): ¿En qué debemos sobresalir?

Del cliente (Customer): ¿Cómo nos ven los clientes?

Financiera (Financial): ¿Cómo nos vemos a los ojos de los accionis-

tas?

La idea del CMI es sencilla y transparente, como toda buena idea. Recono-

ce que la finalidad la actividad empresarial, conseguir beneficios, es el resul-

tado de una cadena de causas y efectos que suceden en cuatro ámbitos: fi-

nanciero, marketing (comercialización), procesos internos; preparación y de-

sarrollo del personal.

3

Page 53: TRABAJO SIG

Los 4 ejes de la estrategia empresarial

Perspectiva Financiera

La necesidad de los objetivos financieros es indiscutible y primaria en toda

actividad comercial. 

Perspectiva del cliente.

El punto más frecuente en los enfoques modernos de la gestión es la impor-

tancia de la orientación al cliente y la satisfacción de sus requerimientos

(concepto central del marketing)

Perspectiva interna.

Este enfoque se refiere a los procesos de negocios internos. Los objetivos y

las métricas basadas en esta perspectiva permiten a los ejecutivos saber

como está funcionando su negocio, y si sus productos o servicios están cum-

pliendo con los requerimientos del cliente. 

Perspectiva del aprendizaje y el crecimiento.

Esta perspectiva incluye la capacitación laboral y el desarrollo de una cultura

organizacional fuertemente orientada al mejoramiento individual y corporati-

vo. En una organización basada en el conocimiento, la gente, depositaria bá-

sica del conocimiento, es un recurso fundamental en el actual ambiente de

rápidos cambios tecnológicos, y en el que se ha hecho prioritario que los tra-

bajadores del conocimiento se concentren en el aprendizaje continuo.

En pocas palabras, el CMI permite a la organización medir los resultados fi-

nancieros, satisfacción del cliente, operaciones y la capacidad de la organi-

zación para producir y ser competitiva. Los resultados financieros se basan

en la disponibilidad de una cartera de clientes rentables y fieles. Esta fideli-

dad sólo se consigue mediante un funcionamiento correcto de los procesos

internos de la empresa, lo que, requiere de un equipo de empleados motiva-

3

Page 54: TRABAJO SIG

dos y capaces de llevar a cabo eficientemente las tareas asignadas.

El reconocimiento explícito de esta cadena causativa, tan simple en sí mis-

ma, y la fijación de una serie de objetivos para cada uno de los niveles es lo

que da lugar a una estrategia empresarial definida. A partir de aquí, Kaplan y

Norton, proponen la elección de una serie de indicadores numéricos, que re-

flejen adecuadamente cada una de las perspectivas mencionadas y cuyo

conjunto constituirá el Cuadro de Mando Integral.

La diferencia entre un CMI y uno convencional es la relación causa-efecto

entre los indicadores que lo componen, ya que está orientada al beneficio,

único criterio de éxito empresarial.

El CMI es por lo tanto un sistema de gestión estratégica de la empresa, que

consiste en:

Formular una estrategia consistente y transparente.

Comunicar la estrategia a través de la organización.

3

Page 55: TRABAJO SIG

Coordinar los objetivos de las diversas unidades organizativas.

Conectar los objetivos con la planificación financiera y presupuestaria.

Identificar y coordinar las iniciativas estratégicas.

Beneficios de la implantación de un Cuadro de Mando Integral

La fuerza de explicitar un modelo de negocio y traducirlo en indicado-

res facilita el consenso en toda la empresa, no sólo de la dirección,

sino también de cómo alcanzarlo.

Clarifica cómo las acciones del día a día afectan no sólo al corto pla-

zo, sino también al largo plazo.

Una vez el CMI está en marcha, se puede utilizar para comunicar los

planes de la empresa, aunar los esfuerzos en una sola dirección y evi-

tar la dispersión. En este caso, el CMI actúa como un sistema de con-

trol por excepción.

Permita detectar de forma automática desviaciones en el plan estraté-

gico u operativo, e incluso indagar en los datos operativos de la com-

pañía hasta descubrir la causa original que dió lugar a esas desviacio-

nes.

Riesgos de la implantación de un Cuadro de Mando Integral

Un modelo poco elaborado y sin la colaboración de la dirección es pa-

pel mojado, y el esfuerzo será en vano.

Si los indicadores no se escogen con cuidado, el CMI pierde una bue-

na parte de sus virtudes, porque no comunica el mensaje que se quie-

re transmitir.

3

Page 56: TRABAJO SIG

Cuando la estrategia de la empresa está todavía en evolución, es

contraproducente que el CMI se utilice como un sistema de control

clásico y por excepción, en lugar de usarlo como una herramienta de

aprendizaje.

Existe el riesgo de que lo mejor sea enemigo de lo bueno, de que el

CMI sea perfecto, pero desfasado e inútil.

3

Page 57: TRABAJO SIG

Características del Cuadro de Mando : En la actualidad -debido a las

turbulencias del entorno empresarial, influenciado en la mayoría de los casos

por una gran presión competitiva, así como por un auge de la tecnología- es

cuando comienza a tener una amplia trascendencia.

El concepto de Cuadro de Mando deriva del concepto denominado "tableau

de bord" en Francia, que traducido de manera literal, vendría a significar algo

así como tablero de mandos, o cuadro de instrumentos. A partir de los años

80, es cuando el Cuadro de Mando pasa a ser, además de un concepto

práctico, una idea académica, ya que hasta entonces el entorno empresarial

no sufría grandes variaciones, la tendencia del mismo era estable, las

decisiones que se tomaban carecían de un alto nivel de riesgo. Para

entonces, los principios básicos sobre los que se sostenía el Cuadro de

Mando ya estaban estructurados, es decir, se fijaban unos fines en la

entidad, cada uno de éstos eran llevados a cabo mediante la definición de

unas variables clave, y el control era realizado a través de indicadores.

Básicamente, y de manera resumida, podemos destacar tres

características fundamentales de los Cuadros de Mando:

1. La naturaleza de las informaciones recogidas en él, dando cierto privi-

legio a las secciones operativas, (ventas, etc.) para poder informar a

las secciones de carácter financiero, siendo éstas últimas el producto

resultante de las demás.

2. La rapidez de ascenso de la información entre los distintos niveles de

responsabilidad.

3

Page 58: TRABAJO SIG

3. La selección de los indicadores necesarios para la toma de decisio-

nes, sobre todo en el menor número posible.

En definitiva, lo importante es establecer un sistema de señales en forma de

Cuadro de Mando que nos indique la variación de las magnitudes

verdaderamente importantes que debemos vigilar para someter a control la

gestión.

A la hora de disponer una relación de Cuadros de Mando, muchos son los

criterios que se pueden entremezclar, siendo los que a continuación se

describen, algunos de los más indicativos, para clasificar tales herramientas

de apoyo a la toma de decisiones.

El horizonte temporal.

Los niveles de responsabilidad y/o delegación.

Las áreas o departamentos específicos.

Otras clasificaciones:

La situación económica.

Los sectores económicos.

Otros sistemas de información.

En la actualidad, no todos los Cuadros de Mando están basados en los

principios de Kaplan y Norton, aunque sí influenciados en alguna medida por

ellos. Por este motivo, se suele emplear con cierta frecuencia el término

Dashboard, que relaja algunas características teóricas del Cuadro de

Mando. De forma genérica, un Dashboard engloba a varias herramientas que

muestran información relevante para la empresa a través de una serie de

3

Page 59: TRABAJO SIG

indicadores de rendimiento, también denominados KPIs (Key Performance

Indicators). Con una frecuencia mucho menor se utiliza el concepto de

Cuadro de Mando Operativo, que es una utilidad de control enfocada a la

monitorización de variables operativas, es decir, indicadores rutinarios

ligados a áreas o departamentos específicos de la empresa. Su puesta en

funcionamiento es más barata y sencilla, por lo que suele ser un buen punto

de partida para aquellas compañías que intentan evaluar la implantación de

un Cuadro de Mando Integral.

Ejemplo 1 Cómo planificar una nueva estrategia sobre venta de financieros

Situación

Una entidad bancaria deseaba embarcarse en una estrategia con la que lo-

grar un aumento geométrico de sus beneficios a través de la venta de sus

productos financieros.

Este banco se enfrentaba a dos problemas:

- Una dependencia excesiva de un único producto (depósito);

3

Page 60: TRABAJO SIG

- Una estructura de coste que hacía no rentable el trabajar con el 80% de sus

clientes a las tasas de interés imperantes.

Para resolverlos, el banco determinó dos líneas de actuación:

1. Crecimiento de los ingresos: ampliar las fuentes de ingresos con productos

adicionales para los clientes existentes.

2. Productividad: mejorar la eficiencia operativa para reciclar clientes no ren-

tables a otros canales con más beneficios.

Estas dos líneas de actuación, tomadas como estrategias, fueron traduci-

das en objetivos e indicadores de las cuatro perspectivas desde el desarrollo

de un

Cuadro de Mando Integral.

Desarrollo del Cuadro de Mando Integral

Para la definición de los objetivos de estas dos estrategias se determinó, en

primer lugar, el aumento de los productos para lograr mayores ingresos. Esto

quería decir que se debería aprovechar la actual base de clientes y que se

deberían identificar a aquellos que pudieran ser candidatos como receptores

de una gama más amplia de servicios referidos a asesoramiento y adquisi-

ción de productos financieros. Sin embargo, cuando se analizaron las necesi-

dades de los clientes, se descubrió que éstos no concebían a este banco

como un lugar donde realizar este tipo de operaciones, sino donde realizar

simples transacciones como cheques o depósitos. Entonces, el banco deter-

minó que otro objetivo sería el de cambiar la percepción del cliente.

Con estos dos objetivos ya marcados, la entidad bancaria se centró en el

proceso de diseño del Cuadro de Mando Integral:

Por un lado, se identificaron tres procesos cruzados: Comprender a los clien-

tes; Desarrollar nuevos productos y servicios; La venta cruzada de múltiples

servicios y productos.

3

Page 61: TRABAJO SIG

Por otro lado, se estudió el enfoque de los actuales procesos internos para

adaptarlos a la nueva situación que se pretendía crear. Cada proceso debía

ser rediseñado para responder a los cambios.

Por ejemplo, la entidad bancaria no tenía cultura de ventas. Sus acciones

se

limitaban prácticamente a insertar publicidad corporativa en los medios. Se

descubrió que el personal sólo pasaba el 10% de su tiempo de trabajo con

los

clientes. Había que formarlos para que desarrollaran una capacidad de aten-

ción al cliente y de asesoramiento sobre los nuevos productos. Dos indicado-

res de este nuevo procesos de ventas fue incluido en el Cuadro de Mando: el

número de productos vendidos a un hogar y las horas dedicadas a los clien-

tes.

Los objetivos internos condujeron de forma natural a un conjunto final de

factores sobre la mejora de la eficacia de los empleados que reveló la nece-

sidad de aumentar su formación. También se tuvieron que agilizar el acceso

a la información sobre los nuevos productos y la operatividad del proceso de

adquisición de productos.

Por último, se vincularon los incentivos de los empleados al cumplimiento

de

estos nuevos objetivos y así fomentar la nueva conducta de ventas. En cuan-

to a indicadores, estos se tradujeron en objetivos como el promedio de ven-

tas por vendedor; las actitudes de la plantilla según una encuesta de satisfac-

ción del empleado; el aumento de la habilidad del empleado según encues-

tas internas tras los cursos de formación y, al tiempo, según entrevistas al

propio personal y de acuerdo al sistema de 360º; el acceso y la disponibilidad

de las herramientas y datos de la tecnología de la información; y, por último,

el porcentaje de objetivos personales alcanzados.

3

Page 62: TRABAJO SIG

Nuevamente, cada objetivo cifrado en sus respectivos indicadores, llevó a

la

identificación de nuevas necesidades tales como el modo de formar a los

empleados y a quienes seleccionar para cualificar ante las nuevas exigen-

cias.

En el caso de esta entidad bancaria, había que rediseñar la operativa del de-

partamento de recursos humanos. La empresa no estaba preparada para de-

cidir cuáles serían las capacidades que había que potenciar y a quienes ha-

bía que hacerlo.

Para ello, se entrevistaron a los empleados y se determinaron los perfiles

competenciales de cada trabajador. También se fijaron las necesidades for-

mativas de cada uno y se diseñó el plan y programa de formación de acuer-

do a la situación de cada persona.

En cuanto al rediseño de este proceso de desarrollo del personal, se fijaron

una serie de indicadores de causa y de efecto que cubrieran la efectividad de

los objetivos estratégicos necesarios para cumplir con la estrategia definida

al

principio de toda la elaboración del Cuadro de Mando Integral.

SISTEMAS DE SOPORTE A LA DECISIÓN (DSS)

Un Sistema de Soporte a la Decisión (DSS) es una herramienta de

3

Page 63: TRABAJO SIG

Business Intelligence enfocada al análisis de los datos de una organización.

El término DSS es el acrónimo de "Decision Support System", es decir, se

refiere a los sistemas para el apoyo a la toma de decisiones. Se trata de un

término que se popularizó a mediados de los 90 pero que sin embargo ha

caído en desuso con la misma facilidad con la que se popularizó. En

principio, puede parecer que el análisis de datos es un proceso sencillo, y

fácil de conseguir mediante una aplicación hecha a medida o un ERP

sofisticado. Sin embargo, no es así: estas aplicaciones suelen disponer de

una serie de informes predefinidos en los que presentan la información de

manera estática, pero no permiten profundizar en los datos, navegar entre

ellos, manejarlos desde distintas perspectivas... etc.

El DSS es una de las herramientas más emblemáticas del Business

Intelligence ya que, entre otras propiedades, permiten resolver gran parte de

las limitaciones de los programas de gestión.

Función y Características: Los DSS son herramientas de mucha utilidad

en Inteligencia empresarial (Business Intelligence), permiten realizar el

análisis de las diferentes variables de negocio para apoyar el proceso de

toma de decisiones de los directivos:

Permite extraer y manipular información de una manera flexible.

Ayuda en decisiones no estructuradas.

Permite al usuario definir interactivamente qué información necesita y

cómo combinarla.

Suele incluir herramientas de simulación, modelización, etc.

Puede combinar información de los sistemas transaccionales internos

de la empresa con los de otra empresa externa.

3

Page 64: TRABAJO SIG

Su principal característica es la capacidad de análisis multidimensional

(OLAP) que permite profundizar en la información hasta llegar a un alto nivel

de detalle, analizar datos desde diferentes perspectivas, realizar

proyecciones de información para pronosticar lo que puede ocurrir en el

futuro, análisis de tendencias, análisis prospectivo, etc. Un DSS da soporte a

las personas que tienen que tomar decisiones en cualquier nivel de gestión,

ya sean individuos o grupos, tanto en situaciones semiestructuradas como en

no estructuradas, a través de la combinación del juicio humano e información

objetiva:

Soporta varias decisiones interdependientes o secuenciales.

Ofrece ayuda en todas las fases del proceso de toma de decisiones

inteligencia, diseño, selección, e implementación- así como también

en una variedad de procesos y estilos de toma de decisiones.

Es adaptable por el usuario en el tiempo para lidiar con condiciones

cambiantes.

Genera aprendizaje, dando como resultado nuevas demandas y

refinamiento de la aplicación, que a su vez da como resultado un

aprendizaje adicional.

Generalmente utiliza modelos cuantitativos (estándar o hechos a la

medida).

Los DSS avanzados están equipados con un componente de

administración del conocimiento que permite una solución eficaz y

eficiente de problemas muy complejos.

Puede ser implantado para su uso en Web, en entornos de escritorio o

en dispositivos móviles (PDA).

Permite la ejecución fácil de los análisis de sensibilidad.

3

Page 65: TRABAJO SIG

Tipos de Sistemas de Soporte a Decisiones

Sistemas de información gerencial (MIS)

Los sistemas de información gerencial (MIS, Management Information

Systems), tambien llamados Sistemas de Información Administrativa

(AIS) dan soporte a un espectro más amplio de tareas

organizacionales, encontrándose a medio camino entre un DSS

tradicional y una aplicación CRM/ERP implantada en la misma

compañía.

Sistemas de información ejecutiva (EIS)

Los sistemas de información ejecutiva (EIS, Executive Information

System) son el tipo de DSS que más se suele emplear en Business

Intelligence, ya que proveen a los gerentes de un acceso sencillo a

información interna y externa de su compañía, y que es relevante para

sus factores clave de éxito.

Sistemas expertos basados en inteligencia artificial (SSEE)

Los sistemas expertos, también llamados sistemas basados en

conocimiento, utilizan redes neuronales para simular el conocimiento

de un experto y utilizarlo de forma efectiva para resolver un problema

concreto. Este concepto está muy relacionado con el datamining.

Sistemas de apoyo a decisiones de grupo (GDSS)

Un sistema de apoyo a decisiones en grupos (GDSS, Group Decision

Support Systems) es "un sistema basado en computadoras que apoya

3

Page 66: TRABAJO SIG

a grupos de personas que tienen una tarea (u objetivo) común, y que

sirve como interfaz con un entorno compartido". El supuesto en que se

basa el GDSS es que si se mejoran las comunicaciones se pueden

mejorar las decisiones.

Diferencia con otras herramientas de Business Intelligence:

El principal objetivo de los Sistemas de Soporte a Decisiones es, a

diferencia de otras herramientas como los Cuadros de Mando (CMI) o

los Sistemas de Información Ejecutiva (EIS), explotar al máximo la

información residente en una base de datos corporativa

(datawarehouse o datamart), mostrando informes muy dinámicos y

con gran potencial de navegación, pero siempre con una interfaz

gráfica amigable, vistosa y sencilla.

Otra diferencia fundamental radica en los usuarios a los que están

destinadas las plataformas DSS: cualquier nivel gerencial dentro de

una organización, tanto para situaciones estructuradas como no

estructuradas. (En este sentido, por ejemplo, los CMI están más

orientados a la alta dirección).

Por último, destacar que los DSS suelen requerir (aunque no es

imprescindible) un motor OLAP subyacente, que facilite el análisis casi

ilimitado de los datos para hallar las causas raices de los

problemas/pormenores de la compañía.

3

Page 67: TRABAJO SIG

Taxonomía: Al igual que ocurre con la definición, no existe una taxonomía

universalmente aceptada para los DSS. Diferentes autores proponen

diferentes clasificaciones.

1.- Utilizando la relación con el usuario como criterio, Haettenschwiler

distingue entre:

DSS pasivo.- Es un sistema de ayudas para el proceso de toma de

decisiones, pero que no puede llevar a cabo una decisión explícita

sugerencias o soluciones.

DSS activo.- Puede llevar a cabo dicha decisión sugerencias o

soluciones.

DSS cooperativo.- Permite al encargado de la toma de decisiones (o a

sus asesores) modificar, completar o perfeccionar las sugerencias de

decisión proporcionadas por el sistema, antes de enviar de vuelta al

sistema para su validación. El nuevo sistema mejora, completa y

precisa las sugerencias del tomador de la decisión y las envía de

vuelta a su para su validación. Entonces, todo el proceso comienza de

nuevo, hasta que se genera una solución consolidada.

2.- Utilizando el modo de asistencia como criterio, Power[] distingue entre:

DSS dirigidos por modelos.- Se hace hincapié en el acceso y

manipulación de un modelo estadístico, financiero, de optimización o

de simulación. Utiliza datos y parámetros proporcionados por los

usuarios para ayudar a los encargados de adoptar decisiones en el

análisis de una situación, que no son necesariamente los datos

intensivos. Dicodess es un ejemplo de un DSS de código abierto

basado en modelos.

3

Page 68: TRABAJO SIG

DSS dirigidos por comunicación.- Disponen de soporte para varias

personas que trabajan en una misma tarea compartida. Ejemplos

incluyen herramientas integradas como Microsoft NetMeeting o

Microsoft Groove.

DSS dirigidos por datos.- También llamados orientados por datos,

enfatizan el acceso y la manipulación de series temporales de datos

internos de la empresa y, a veces, también de datos externos.

DSS dirigidos por documentos.- Gestionan, recuperan y manipulan

información no estructurada en una variedad de formatos electrónicos.

DSS dirigidos por conocimiento.- Proporcionan experiencia acumulada

en forma de hechos, normas, procedimientos, o en estructuras

similares especializados para la resolución de problemas.

3.- Utilizando el ámbito como criterio, Power sugiere esta otra clasificación:

DSS para la gran empresa.- Este DSS estará enlazado con un

almacén de datos de gran tamaño y dará servicio a muchos gerentes,

directores y/o ejecutivos de la compañía.

DSS de escritorio.- Es un sistema pequeño que puede correr en el

ordenador personal de un gerente al que da servicio (un solo usuario).

Arquitecturas: Una vez más, diferentes autores identifican diferentes

componentes para un DSS.

1.- Sprague y Carlson[] identifican tres componentes básicos que son

explicados con más detalles por Haag y otros:

El Sistema de Gestión de Base de Datos.- Almacena información de

diversos orígenes, puede proceder de los repositorios de datos de una

3

Page 69: TRABAJO SIG

organización tradicional, de fuentes externas (como Internet), o del

personal (de ideas y experiencias de los usuarios individuales).

El Sistema Gestor de Modelos.- Se ocupa de las representaciones de

los acontecimientos, hechos o situaciones utilizando varios tipos de

modelos (dos ejemplos serían modelos de optimización y modelos de

búsqueda-objetivo).

El Sistema Gestor y Generador de Diálogos.- Se trata de la interfaz de

usuario; es, por supuesto, el componente que permite a un usuario

interactuar con el sistema.

2.- Según Power un DSS tiene cuatro componentes fundamentales:

La interfaz de usuario.

La base de datos.

Las herramientas analíticas y de modelado.

La red y arquitectura del DSS.

3.- Hättenschwiler identifica cinco componentes en un DSS:

Usuarios.- Con diferentes roles o funciones en el proceso de toma de

decisiones (tomador de decisiones, asesores, expertos del dominio,

expertos del sistema, recolectores de datos).

Contexto de Decisión.- Debe ser específico y definible.

Sistema de Destino.- Éste describe la mayoría de las preferencias.

Bases de Conocimiento.- Compuestas de fuentes de datos externas,

bases de datos de Conocimiento, bases de datos de trabajo,

almacenes de datos y meta-bases de datos, modelos matemáticos y

métodos, procedimientos, inferencia y los motores de búsqueda,

programas administrativos, y los sistemas de informes.

3

Page 70: TRABAJO SIG

Entorno de Trabajo.- Para la preparación, análisis y documentación de

decisión alternativas.

4.- Arakas propone una arquitectura generalizada compuesta de de cinco partes distintas:

El sistema gestor de datos. El sistema gestor de modelos. El motor de conocimiento. La interfaz de usuario. Los usuarios.

Entornos de Desarrollo :Los sistemas DSS no son totalmente diferente de

otros sistemas y requieren un enfoque estructurado. Sprague y

Watson (1993) proporcionaron un entorno de tres niveles principales:

Los niveles de Tecnología.- Se propone una división en 3 niveles de

hardware y software para los DSS:

1. DSS Específico.- Aplicación real que será utilizada por el usuario.

Ésta es la parte de la aplicación que permite la toma decisiones en un

problema particular. El usuario podrá actuar sobre este problema en

particular.

2. Generador de DSS.- Este nivel contiene hardware y software de

entorno que permite a las personas desarrollar fácilmente aplicaciones

específicas de DSS. Este nivel hace uso de herramientas case.

También incluye lenguajes de programación especiales, bibliotecas de

funciones y módulos enlazados.

3. Herramientas de DSS.- Contiene hardware y software de bajo nivel.

Las personas que participan.- Para el ciclo de desarrollo de un DSS,

se sugieren 5 tipos de usuarios o participantes:

3

Page 71: TRABAJO SIG

1. Usuario final

2. Intermediario

3. Desarrollador

4. Soporte técnico

5. Experto de sistemas

El Enfoque de Desarrollo.- El enfoque basado en el desarrollo de un

DSS deberá ser muy iterativo. Esto permitirá que la aplicación sea

cambiada y rediseñada en diversos intervalos. El problema inicial se

utiliza para diseñar el sistema y a continuación, éste es probado y

revisado para garantizar que se alcanza el resultado deseado.

SISTEMAS DE INFORMACIÓN PARA EJECUTIVOS

(EXECUTIVE INFORMATION SYSTEM, EIS)

Un SIE (EIS por sus siglas en ingles) es un sistema de información para

directivos que permite automatizar la labor de obtener los datos más

importantes de una organización, resumirlos y presentarlos de la forma más

comprensible posible,  provee al ejecutivo acceso fácil a información interna

y externa al negocio con el fin de dar seguimiento a los factores críticos del

éxito.

Los SIE (EIS) se enfocan primordialmente a proporcionar información de la

situación actual de la compañía y dejan en un plano secundario la

visualización o proyección de esta información en escenarios futuros.

Características de un EIS:

3

Page 72: TRABAJO SIG

Un buen sistema de información para ejecutivos presenta información en

forma de gráficos, columnas y textos.

La capacidad para hacer gráficos se necesita para facilitar en el análisis

rápido de las condiciones y tendencias corrientes; las tablas presentan mayor

detalle y permiten el análisis de variaciones; la información de textos añade

interpretaciones y detalles de los datos.

Las principales características de los sistemas de información

para ejecutivos (EIS) son las siguientes:

Están diseñados para cubrir las necesidades específicas y particulares

de la alta administración de la empresa.

Extraen, filtran, comprimen y dan seguimiento a información crítica del

negocio.

Implica que los ejecutivos puedan interactuar en forma directa con el

sistema sin el apoyo o auxilio de intermediarios.

Es un sistema desarrollado con altos estándares en sus interfases

hombre-maquina, caracterizado por gráficas de alta calidad,

información tabular y en forma de texto.

Pueden acceder a información que se encuentra en línea,

extrayéndose en forma directa de las bases de datos de la

organización.

El sistema está soportado por elementos especializados de hardware,

tales como monitores o videos de alta resolución y sensibles al tacto,

ratón e impresoras con tecnología avanzada.

Existe una serie de productos de software al alcance de todos para la

planificación estratégica, diseñados para capacitar y ayudar a los

administradores con la planificación estratégica.

3

Page 73: TRABAJO SIG

Factores del éxito de un EIS:

Hablar de la implantación de un EIS, la mayoría de las veces, significa

hablar de un largo proceso contra barreras del tipo tecnológicas,

organizacionales, psicológicas, educacionales, etc. Aunado a esto,

muchas veces se presenta una sola oportunidad de éxito o fracaso.

Se supone que los EIS están hechos a la medida para ser usados por

ejecutivos de alto nivel; sin embargo, pocos son los que los usan.

Usualmente los sistemas que apoyan decisiones son difíciles de

justificar usando métodos económicos estándar de evaluación.

Un EIS es comúnmente desarrollado con altas expectativas de éxito, sin

embargo terminan fracasando, y las razones principales son, según algunos

investigadores basados en los siguientes criterios de evaluación:

a) Acceso. Es obvio que si un sistema se encuentra disponible significa que

los usuarios tendrán acceso a él, de una manera no complicada y desde

puntos clave. Si esto no sucede, el sistema no servirá de nada.

b) Uso. Un indicador importante es su frecuencia de uso. Si un sistema no es

usado, o simplemente, los usuarios potenciales no lo emplean, esto se

reflejará en el éxito del sistema.

c) Satisfacción. Si el sistema no puede satisfacer a sus usuarios, éstos no

usarán el sistema.

d) Impacto Positivo. Un sistema es exitoso si tiene un impacto benéfico en

los ejecutivos y la organización, al hacer los primeros, mejores decisiones la

organización recibe mas beneficios.

e) Difusión. Otro punto que indica el éxito es la propagación del sistema. El

numero de personas que usa el sistema aumenta después de que los

usuarios iniciales lo han probado.

3

Page 74: TRABAJO SIG

En el pasado, la falta de aplicaciones adecuadas para apoyar el concepto

era otra de las grandes limitantes, pero actualmente las soluciones presentes

en el mercado tienen la capacidad de integrarse fácilmente con otras

aplicaciones. Las nuevas soluciones son más flexibles a las necesidades de

los usuarios y generalmente giran en torno de estructuras basadas en los

hechos.

Para que un EIS tenga éxito es necesario que cumpla con los siguientes

factores:

1. Que se vea bien.

2. Que sea relevante.

3. Que sea rápido.

4. Que la información esté disponible y actualizada.

Factores de fracaso de un EIS:

Los siguientes son los factores considerados como “ factores de fracaso” en

los sistemas de Información para Ejecutivos: 

Tecnológicos: El EIS no es mejor que el sistema original. La

tecnología no es adecuada o es inapropiada. Las interfaces son

complicadas o los menús son extensos.

Soporte: Los requerimientos de información de los usuarios fueron

ignorados. Los cambios en las necesidades de información de los

usuarios no fueron llevados a cabo. No hay mejoras en los reportes

electrónicos. Inadecuado conocimiento del negocio entre los

miembros del equipo de soporte. No ataca los problemas significativos

de la empresa.

3

Page 75: TRABAJO SIG

Falta de disponibilidad de los datos. Entrega tardía de datos

operativos.

Relacionados con el Usuario:

a) Limitante de enfoque del EIS a un usuario.

b) Falta de compromiso de los usuarios.

c) Falta de claridad del propósito del EIS en el ejecutivo patrocinador.

d) No proveer los medios a los ejecutivos parta comunicar ideas.

e) Usuarios no capaces de comunicar decisiones.

f) Resistencia organizacional.

Beneficios de un EIS:

Los sistemas de Información para Ejecutivos tienen un sin fin de beneficios

que a la larga ayudan a la organización, los siguientes son los principales:

1. Información a tiempo: acceso más rápido, información más exacta,

relevante y concisa

2. Sensibilidad al medio: Mejor acceso a la información, aún de datos

externos, mejor sensibilidad al medio, y más información competitiva

3. Efectividad de ejecutivos: Mejora en la comunicación, desempeño

mejorado, ahorro en tiempo de ejecución, mejor presentación de los

datos

4. Cumplimiento de objetivos estratégicos:  Aumento en radio de control,

planeación mejorada, mejor toma de decisiones, mejor entendimiento

de problemas, mejor desarrollo de alternativas

5. Economía: Ahorro en costos, menos papeleo, mayor respuesta al

cambio en las necesidades del cliente, apoyo de reducción en la

organización

3

Page 76: TRABAJO SIG

El proceso de desarrollo de un EIS: 

El proceso de desarrollo de un EIS tiene características que lo hacen único.

En primera instancia, por que es el primer sistema que se desarrolla en la

empresa dirigido al ejecutivo; quien es el usuario de este sistema.

En segundo lugar, las técnicas utilizadas para el análisis y desarrollo de los

tradicionales Sistemas Transaccionales no necesariamente funcionan en un

100% de manera similar durante el desarrollo de un EIS.

Es importante tomar en cuenta los tres pasos a planificar para construir un

sistema EIS, los cuales son:

Adquisición de datos :

1. Modelización

2. Presentación

Implantación exitosa de un EIS:

La persona que vaya a tomar una decisión debe tener y desarrollar las

siguientes competencias:

1. Capacidad de visualizar y declarar problemáticas;

2. Capacidad de generar soluciones o abrir nuevas posibilidades; y

3. Capacidad de decisión.

Así mismo, para que un ejecutivo utilice un EIS, debe implantarse

considerando los siguientes factores importantes para asegurar una

Implantación con éxito del EIS:

1. Ejecutivo comprometido e informado con el proyecto.

2. Socio operativo.

3. Personal idóneo en el departamento de informática.

4. Tecnología apropiada.

3

Page 77: TRABAJO SIG

5. Administración de los datos.

6. Relación clara con los objetivos del negocio.

7. Manejo de la resistencia al cambio.

8. Administración adecuada de la evolución y expansión del sistema.

Impacto del EIS en el proceso de planeación y control de la

organización:

Los sistemas de información ejecutivos (EIS) han provisto generalmente un

nivel más alto de consolidación y una visión multidimensional de los datos,

dado que los ejecutivos de alto nivel necesitan más de la habilidad de hacer

fetas y dados de esos datos que de perforar hacia abajo para ver los detalles

de los datos.

Los EIS contribuyen en forma importante a rediseñar y reestructurar los

procesos de planeación y control de una organización. 

Las principales mejoras que pueden lograrse al utilizar este tipo de

sistemas son, entre otras mejora en los sistemas actuales de reportes

corporativos o divisionales, a través de:

a) Cambios en el método de recolección de información, lo cual permite que

la Dirección General no se involucre en la obtención de los datos en forma

específica, sino que dirija más su atención al análisis de la información.

b)Mejoras en la integridad de los datos.

c)Acelerar el proceso de obtención la información.

d)Cambios en la forma de presentar la información, utilizando técnica nuevas

de presentación como gráficas, histogramas, dibujos y animaciones.

e)Rediseño de los sistemas actuales de reportes, a través de los cuales se

pone atención en los factores críticos para mejorar el negocio.

Software comercial para el desarrollo de EIS:

3

Page 78: TRABAJO SIG

Existe una serie de productos de software al alcance de todos para la

planificación estratégica, diseñados para capacitar y ayudar a los

administradores con la planificación estratégica. Sin embargo, algunos

sistemas de apoyo para las decisiones estratégicas son demasiado

complicados, caros o limitados como para ser usados con facilidad por los

gerentes de una empresa. Esto es lamentable porque el proceso de la

administración estratégica debe ser un “proceso de todos” para que tenga

éxito.

Por tanto, el software para la planificación estratégica debe ser sencillo y

simple. La sencillez permite la amplia participación de todos los

administradores de una empresa y la participación en esencial para la buena

aplicación de la estrategia.

En la siguiente tabla se muestra una lista de los principales productos y de

sus vendedores:

Producto de software Vendedor

Commander EIS Comshare

Command Center Pilot

Executive Decisions IBM

Executive Edge EXECUCOM

Los sistemas operativos de server, como Windows NT y Unix han traído

la estabilidad crítica y características poderosas al ambiente de la

computación distribuida.

El software de sistema operativo se ha tornado rico en capacidades y

poderoso mientras su precio ha ido cayendo sin pausa.

Con esta combinación, están ahora disponibles en plataformas operativas

3

Page 79: TRABAJO SIG

baratas conceptos sofisticados de sistema operativo como memoria virtual,

multitarea y multiprocesamiento simétrico. El desarrollo más importante en

computación desde el surgimiento de la PC es la explosión de Internet y las

aplicaciones basadas en la Web.

Apenas ocurrido el hecho, la comunidad de negocios rápidamente saltó

para ponerse a la cabeza. Uno de los campos más excitantes en la industria

de la computación de hoy es el desarrollo de las aplicaciones Intranet.

Tendencias futuras:

En el pasado, la falta de aplicaciones adecuadas para apoyar el concepto

era otra de las grandes limitantes, pero actualmente las soluciones presentes

en el mercado tienen la capacidad de integrarse fácilmente con otras

aplicaciones. Existen sistemas que pueden manejar información tanto interna

como externa a la organización.

Las nuevas soluciones son más flexibles a las necesidades de los usuarios

y generalmente giran en torno de estructuras basadas en los hechos y no

solamente basada en los libros contables. Debido a que estos sistemas

financieros dependen del poder de la computación para manejar los

elementos individuales de la información y procesar las transacciones,

permiten que los ejecutivos desempeñen un rol más estratégico en la

organización.

La tecnología de los EIS está evolucionando muy rápido, y es muy

probable que en el futuro los sistemas sean diferentes de los que se usan

actualmente. Algunos puntos que pueden anticiparse son:

1. Una mejor integración con otras aplicaciones.

2. Mejor software comercial para el desarrollo de EIS.

3. Mejores interfases sistema-ejecutivo.

Puede decirse que los EIS, además de tablas y gráficas, incluirán voz,

video e imágenes, es decir, integrarán la tecnología de multimedia en sus

3

Page 80: TRABAJO SIG

desarrollo.

Durante la toma de decisiones y solución de problemas a veces no se

reconoce que también interviene el punto de vista de la persona que ha

detectado el problema, por lo tanto hay situaciones en las que hay que

decidir o resolver algo, siempre y cuando a la persona le "importen " y por lo

cual hace juicios sobre esta.

CONCLUSIONES

Para culminar este trabajo se llego a la conclusión que las de manejo de

satos para el desarrollo de los sistemas de información Gerencial

proporcionan lo siguiente :

3

Page 81: TRABAJO SIG

Datawarehause :Los almacenes de datos hacen más fácil el acceso a una

gran variedad de datos a los usuarios finales. Facilitan el funcionamiento de

las aplicaciones de los sistemas de apoyo a la decisión tales como informes

de tendencia

Datamining: Este diseño representa una transferencia fundamental desde

los sistemas de soporte de decisión convencionales. Más que simplemente

proveer datos a los usuarios finales a través de software de consultas y

reportes, el server de Análisis Avanzado aplica los modelos de negocios del

usuario directamente al warehouse y devuelve un análisis proactivo de la

información más relevante. Estos resultados mejoran los metadatos en el

server OLAP proveyendo una estrato de metadatos que representa una vista

fraccionada de los datos. Generadores de reportes, visualizadores y otras

herramientas de análisis pueden ser aplicadas para planificar futuras

acciones y confirmar el impacto de esos planes.

Datamart: es un subconjunto de una bodega de datos para un propósito

específico . Su función es apoyar a otros sistemas para la toma de

decisiones debe de permitir muchas formas usando herramientas OLAP.

Para el proceso de construcción de bodegas de datos existen dos enfoques .

Construir primero un núcleo de la bodega de datos y luego hacer varios

datamarts

Cuadro de Manejo Integral : El CMI es un instrumento muy útil para la direc-

ción de las empresas en el corto y largo plazo, ya que combina indicadores

financieros y no financieros y ofrece un método estructurado para seleccio-

nar los indicadores guías que implica a la dirección de la empresa.

Decision Support Systems o DSS :Un sistema de soporte de decisiones, es

3

Page 82: TRABAJO SIG

una clase de sistema de información basado en computadoras, que incluye

sistemas basados en el conocimiento, que soportan toma de decisiones.

Uno de estos sistemas analiza diferentes variables para apoyar en las

decisiones, especialmente decisiones empresariales.

Executive Information System o EIS: Aplicaciones de alto nivel que

pretenden, mediante el acceso a las diferentes bases de datos de una

empresa, ofrecer a sus directivos los elementos clave para que puedan

tomar decisiones sobre la marcha de sus negocios. Generalmente el

directivo accede a pantallas gráficas en las que se resumen los elementos

más importantes que debe tener en cuenta.

El contenido esta basado en las herramientas mas comunes .

REFERENCIAS BIBLIOGRAFICAS

http://www.gestiopolis.com/recursos2/documentos/fulldocs/ger/sisinfoej.htm

www.sinnexus.com/business.../datamart.asp

3

Page 83: TRABAJO SIG

http://www.sinnexus.com/business_intelligence/sistemas_soporte_decisiones.aspx

www.sinnexus.com/business.../olap_vs_oltp.aspx -

www.sinnexus.com/.../cuadro_mando_integral.aspx -

es.wikipedia.org/wiki/Data_mart -

http://es.wikipedia.org/wiki/Sistemas_de_soporte_a_decisiones

es.wikipedia.org/wiki/Cuadro_de_mando_integral –

3