Trabajo de TI

30
INDICE Introducción…………………………………………………………………………………… 3 Desarrollo del tema: Infraestructuras en TI………………………………………………… 4 5.1 Infraestructura de TI…………………………………………………………….. 4 5.2 Componentes de la infraestructura…………………………………………….. 6 5.3 Tendencias de las Plataformas de Hardware Contemporáneas…….…...…12 5.4 Tendencias de las plataformas de software contemporáneas……………… 18 5.5 Costo Total de Propiedad (TCO) y Administración del Ciclo de Vida (LCM)…………………………………………………………………… 23 Conclusiones…………………………………………………………………………………. 29 Bibliografía……………………………………………………………………………………. 31

Transcript of Trabajo de TI

Page 1: Trabajo de TI

INDICE

Introducción…………………………………………………………………………………… 3 Desarrollo del tema: Infraestructuras en TI………………………………………………… 4

5.1 Infraestructura de TI…………………………………………………………….. 4

5.2 Componentes de la infraestructura…………………………………………….. 6

5.3 Tendencias de las Plataformas de Hardware Contemporáneas…….…...…12

5.4 Tendencias de las plataformas de software contemporáneas……………… 18 5.5 Costo Total de Propiedad (TCO) y Administración del Ciclo de Vida (LCM)…………………………………………………………………… 23

Conclusiones…………………………………………………………………………………. 29

Bibliografía……………………………………………………………………………………. 31

Page 2: Trabajo de TI

2

Introducción

En el mundo empresarial actual hay muchas organizaciones que requieren de infraestructuras de tecnología de información que sustenten los servicios de TI para que estén disponibles dentro de las empresas y que representan el pilar logístico de las mismas, dándoles un valor económico a las organizaciones.

Son escasos los ejemplos de compañías que tienen una estrategia empresarial orientada a la aplicación de modelos informáticos con tecnologías novedosas que aporten soluciones a las problemáticas del entorno de negocios, a los requerimientos de seguridad y control de los activos documentales, en fin, a todas las características y requisitos de funcionabilidad, productividad y rendimiento del negocio.

Conseguir que las tecnologías de información se alineen con las necesidades de las empresas para que den una respuesta satisfactoria y oportuna ante estas necesidades, es el nuevo reto de los administradores, gerentes y/o directores ejecutivos, en especial para aquellos que tienen a cargo los servicios de administración de las TI. Parte de este reto y casi uno de los objetivos específicos de un plan estratégico empresarial, es demostrar el valor (presente y futuro) de la inversión orientada a los proyectos de TI que se vayan a desarrollar o se estén desarrollando dentro de la empresa. De lo contrario, resultaría muy complicado para los directores de TI conseguir recursos económicos para proyectos de inversión en infraestructura de tecnologías de información, lo cual es de vital importancia para el desarrollo y crecimiento de los sistemas y plataformas informáticas orientadas a la empresa.

Por lo general, se espera que los departamentos o centros de gestión de informática en las compañías cuenten con los componentes físicos y las aplicaciones de software, así como con el personal con capacidad técnica y profesional, que se requiere para llevar a cabo todas las actividades de la gestión en TI de la empresa, considerando todos los factores que componen la infraestructura de tecnologías de información que corresponden a: las plataformas de hardware de computadora, plataformas de sistemas operativos, plataformas de aplicaciones de software empresarial, plataformas de internet, plataformas de telecomunicaciones y redes, gestión y almacenamiento de datos y consultores e integradores de sistemas.

Sin embargo, la realidad de la gran mayoría de las compañías no es la misma y puede que difiera en mucho de lo anterior. La velocidad con la que avanza las tendencias en tecnologías de información obliga a las empresas a tomar decisiones difíciles casi de forma inmediata. Si las compañías se aventuran a invertir en tecnologías inadecuadas acabarán perdiendo recursos de tiempo y dinero. Si por el contrario, se demoran mucho en realizar la inversión acertada en infraestructura de TI, perderá parte de la participación en el mercado con respecto a la participación de sus competidores.

De ahí, la importancia que los administradores de TI puedan convencer a los directivos de las compañías en la implementación de modelos de infraestructuras de tecnologías de información en las empresas.

Page 3: Trabajo de TI

3

5.1 Infraestructura de TI

Hablar de la Infraestructura de TI (Information technology), Tecnologías de la

información o simplemente TI, es un amplio concepto que abarca todo lo relacionado a la conversión, almacenamiento, protección, procesamiento y transmisión de la información. El concepto se emplea para englobar cualquier tecnología que permite administrar y comunicar información.

También se puede definir como los dispositivos físicos y aplicaciones de software necesarios para operar toda la empresa, además de brindar servicios empresariales, tales como: 1. Plataformas de cómputo que sirve para proporcionar servicios de cómputo que conectan a empleados, clientes y proveedores dentro de una empresa digital 2. Servicios de telecomunicaciones que proporcionan conectividad de datos, voz y video. 3. Servicio se software de aplicaciones: que proporcionan capacidades a toda la empresa 4. Servicio de administración de servicios físicos; 5. Servicio s de administración de TI que planean y desarrollan infraestructura, coordinan servicios 6. Servicios de almacenamiento y analizar los datos. 7. Servicios de educación de TI donde se proporcionen capacitaciones al personal y a la gerencia su las aplicaciones. 8. Servicios de investigación y desarrollo de TI, sobre futuros proyectos de la empresa.

Evolución de la Infraestructura de TI

La infraestructura de las TI actuales es resultado de la evolución de las plataformas de cómputo de más de 60 años. Las cuales veremos a continuación:

1-Era de las maquinas electrónicas de contabilidad (1930-1950) En esta era se utilizaba máquinas especializadas que podían clasificar tarjetas de computadora en depósito, acumular totales e imprimir informes, pero eran demasiado grande e incómodas. No había programadores y la persona hacía rol de sistema operativo.

2-Era de los mainframes y las minicomputadoras de propósito general (1959-a la fecha) En esta era aparecieron las primeras computadoras comerciales con tubos de vacío: 1950 como los UNIVACs. o la serie de 700 de IBM. 1959 se dio la introducción de las máquinas con transistores 1401 y 7090 de IBM. 1965 comenzó uso comercial de la computadora mainframe con la serie de 360 de IBM, que fue la primera computadora comercial con un sistema operativo potente que podía ofrecer compartición de tiempo, multitareas y memoria virtual en los más avanzados. Desde 1965 hasta la fecha IBM es uno de los líderes del mercado.

Page 4: Trabajo de TI

4

3-Era de la computadora personal (1981 a la fecha) Se dio en esta fecha el surgimiento de la PC de IBM utilizando sistema DOS en sus inicios y posteriormente el sistema operativo Wintel PC y la proliferación de las PCs en esta fecha dio lugar a una avalancha de herramientas de software de productividad para computadoras de escritorio.

4-Era cliente/servidor (1983 a la fecha) En esta era las computadoras de escritorio o las portátiles llamadas cliente, se enlazan en red a potentes computadoras servidoras que proporcionan a éstas una variedad de servicios y capacidades.

5- Era de la computación empresarial y de Internet (1992 a la fecha) El modelo cliente servidor planteó nueva serie de problemas ya que ya que para muchas empresas grandes fue difícil integrar todas sus redes de área local (LANs) en un solo y lógico entorno de cómputo corporativo. La era empresarial promete dar lugar a una plataforma de servicios de cómputo y TI verdaderamente integradas para la administración de empresas globales.

6- Era de la computadora en la nube y móvil (2000 a la fecha) La computación en la nube, la cual corresponde a servicios en la nube, del inglés cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Internet.

Cloud computing es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado.

Impulsores Tecnológicos en la Evolución de la Infraestructura. Estos cambios tecnológicos son el resultado principalmente de los mejoramientos en

los chips de memoria, los dispositivos de almacenamiento, el hardware y software de telecomunicaciones, en los cuales se disminuyen sus costos de producción y aumentan su velocidad y capacidad.

La Ley de Moore y la Potencia de Microprocesamiento. La ley de Gordon Moore uno de los primeros fabricantes de circuitos integrados,

plantea que el número de transistores de un chip se duplica cada dos años.

La Ley de Moore es sinónimo de más rendimiento. La capacidad de proceso, medida en millones de instrucciones por segundo (MIPS), ha subido debido a cómputos de transistores en aumento, sin olvidar que también disminuyen sus costos.

Ley del almacenamiento digital masivo Un segundo impulsor tecnológico del cambio de infraestructura de TI es la ley de

almacenamiento digital masivo en el mundo se producen alrededor de 5 exabytes de información exclusiva cada año la cantidad de información digital duplica más o menos cada año.

Page 5: Trabajo de TI

5

La Ley de Metcalfe y la economía de red. Nos dice que el valor de una red de comunicaciones aumenta proporcionalmente al

cuadrado del número de usuarios del sistema (n2).

Formulada por primera vez en 1976 por Robert Metcalfe en relación con Ethernet, la ley de Metcalfe explica muchos de los efectos de red de las tecnologías y redes de comunicación, como Internet o la World Wide Web.

La ley suele ilustrarse con el ejemplo de aparatos de fax: una única máquina de fax es inútil, pero su valor se incrementa con el número total de máquinas de fax de la red, debido a que aumenta el número de personas con las que se puede comunicar.

Reducción en los costos de las comunicaciones e Internet Otro gran impulsor que transforma la infraestructura de la TI es la rápida reducción en

los costos de las comunicaciones y el crecimiento exponencial del tamaño del internet, se estima que 1.8 mil millones de personas en el mundo tienen acceso a internet. A medida que los costos siguen bajando, también sigue aumentando el número de usuarios al Internet.

Estándares y efectos de la red Son especificaciones que establecen la compatibilidad de productos y su capacidad y

su capacidad para comunicarse en una red; estos propician el desarrollo de poderosas economías de escala y dan como resultado la disminución de precios a medida que los fabricantes se enfocan en la elaboración de productos apegados a un solo estándar. La infraestructura empresarial y la computación por internet no serían posibles sin los estándares (acuerdos entre fabricantes)

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares. 5.2 Componentes de la Infraestructura

En el mundo empresarial actual, las infraestructuras de tecnologías de información están compuestas por siete componentes. Estos componentes corresponden a la inversión de las empresas para proveer a la administración de TI de las plataformas de software, hardware y las aplicaciones empresariales necesarias para cumplir con los requerimientos de tecnologías de información, de acuerdo a las necesidades empresariales y las nuevas tendencias de los componentes informáticos.

Todos estos componentes (los cuales ya fueron mencionados en la introducción), se relacionan entre sí creando una estructura informática creando lo que se conoce como nuevo ecosistema tecnológico. Este ecosistema abarca desde el hardware, las aplicaciones y la infraestructura de redes y telecomunicaciones hasta el desarrollo de sistemas y la especialización de los profesionales que tendrán a cargo la administración de éstos sistemas. La capacidad de adaptación de las compañías a estas nuevas tecnologías y sistemas es un

Page 6: Trabajo de TI

6

factor determinante a la hora de marcar la diferencia con la competencia en el mercado empresarial.

Parte de la etapa de adaptación a los modelos de infraestructuras de TI, se debe no solo a la innovación e inversión en plataformas sumamente novedosas, sino que exige desarrollar un ambiente propicio que le sirva como apoyo en la implementación de las mencionadas plataformas, por medio de un “ecosistema tecnológico”.

Este “ecosistema tecnológico” abarca la infraestructura y la arquitectura de computación, además de las aplicaciones y los servicios de soporte técnico y seguridad de la información. Según aumenta el interés en la implementación de las nuevas tecnologías son más las empresas dispuestas a adoptarlas y esto, a su vez, fortalece el ecosistema de infraestructura de TI, produciendo una rebaja en los costos de las mismas.

Componentes del Ecosistema de Infraestructuras de TI

1. Plataformas de Hardware de computadora.

En el mercado de hardware de computadora, las empresas con mayor participación son: IBM, HP, DELL, Sun Microsystems. Por su parte, las empresas fabricantes de chips de microprocesadores son: Intel, AMD e IBM. Ha habido compañías que implementan cambios en sus operaciones informáticas y sus procesos de gestión de software implementando plataformas como las que ofrece la empresa Dell OEM Solutions.

Hace poco más de un año la empresa BLUESOC, firma especializada en soluciones de

monitorización y seguridad en tiempo real, eligió a Dell como su proveedor de hardware de computadora con el propósito de expandirse internacionalmente. Dell OEM Solutions le ofreció a la empresa BLUESOC una plataforma de hardware para su aplicación Business Security Intelligence (BSI).

La red global de la cadena de suministros Dell también apoyó el proceso de expansión

de BLUESOC. La BSI es la plataforma principal de monitorización de transacciones y detección del fraude utilizada por muchos bancos y financieras en Estados Unidos.

Ésta plataforma está basado en un código desarrollado en un primer momento para uno

de los bancos más importantes de España. Sin embargo, en otros países también se presentó la necesidad de las organizaciones de almacenar, supervisar y correlacionar la información ubicada en registros de seguridad físicos y lógicos, lo que BLUESOC detectó como una gran oportunidad para su tecnología. Sin embargo, con el objeto de crear un producto estable que pudiera venderse a través de terceros distribuidores, BLUESOC exigió trabajar con un socio de hardware que le permitiera desarrollar su propiedad intelectual en una aplicación que fuera fácil de desplegar y ofrecer diferentes servicios.

Según las declaraciones de los directivos de esta compañía, lo que los inclinó por

trabajar con Dell OEM Sollutions fue la voluntad de Dell de escuchar las necesidades de adaptar su hardware y servicios para satisfacer los requerimientos para la plataforma SIEM de alta disponibilidad, además, Dell ofreció una plataforma de hardware estable para la gama de productos de BLUESO y una gama integral de servicios incluyendo el diseño, la entrega y la gestión del ciclo de vida de los sistemas de la plataforma informática.

Page 7: Trabajo de TI

7

Así como BLUESOC, muchas compañías alrededor del mundo, se inclinan en la implementación y adaptación de los sistemas actuales a las nuevas tendencias de hardware de computación como parte de la infraestructura de TI.

2. Plataformas de sistemas operativos.

De acuerdo a las cifras que se manejan en el mercado de productos de aplicaciones y

desarrollo de software, el 75% de del mercado de sistemas operativos, está en manos de Microsoft Windows. Esta compañía tiene la capacidad de proveer un servicio en red y sistema operativo empresarial y crece aún más las compañías que se interesan por infraestructuras de TI basadas en Windows.

La más reciente de las plataformas de sistemas operativos desarrolladas por esta

destacada compañía fabricante de productos de software y servicios informáticos, finalizó el desarrollo de su nueva plataforma Windows 8 en la que presentó la versión final del sistema operativo para los fabricantes y su lanzamiento estará previsto para el 26 de octubre próximo. Dicha versión, distribuida entre los fabricantes de ordenadores para que puedan adecuar sus productos al nuevo sistema operativo, se basa en el mismo código que la versión final para los usuarios. Windows 8 fue concebido como el primer sistema operativo de Microsoft optimizado tanto para los ordenadores personales como para las tabletas digitales, a diferencia del predecesor, Windows 7, el cual no se popularizó en el segmento de tabletas por no tener una interfaz compatible con pantallas táctiles.

Según declaraciones de la empresa, a partir del próximo 26 de octubre, Windows 8

estará disponible para los usuarios como una plataforma preinstalada en nuevos ordenadores así como a través de la actualización de Windows XP, Vista y Windows 7 que le costará a los usuarios unos 40 dólares, muy por debajo del costo de actualización de los sistemas operativos de Microsoft anteriores.

Asimismo, Microsoft planea lanzar una versión especial de la plataforma, Windows RT,

para los dispositivos móviles con procesadores ARM. De igual forma que Microsoft, otras empresas han desarrollado sistemas operativos que

se ajustan a las necesidades informáticas, tanto de los usuarios personales como las necesidades de plataformas de software (sistemas operativos) de las compañías en todo el mundo.

3. Plataformas de aplicaciones de software empresarial.

Parte de las inversiones realizadas en infraestructuras de TI en Estados Unidos durante el año 2010, se dirigieron a la adquisición de aplicaciones de software empresarial. SAP AG (Sistemas, Aplicaciones y Productos) es una empresa de informática de origen alemán, que comercializa un conjunto de aplicaciones de software empresarial, entre ellas mySAP Business Suite, que provee soluciones en escala; es decir, con capacidad de adaptarse a nuevos requisitos conforme cambian o aumentan las necesidades del negocio del cliente. SAP es el tercer proveedor independiente de software del mundo (detrás de Microsoft y Oracle) y el mayor de la Unión Europea. Cuenta con más de 1.000 procesos de negocio que consideran entre las mejores prácticas empresariales. Además cuenta con 12 millones de usuarios y más de 1.500 socios.

Page 8: Trabajo de TI

8

El nombre SAP R/3 es el nombre de una empresa y el de un sistema informático. Este sistema comprende muchos módulos integrados, que abarcan prácticamente todos los aspectos de la administración empresarial. SAP ha puesto su mirada en el negocio como un todo: ofrece un sistema único que soporta prácticamente todas las áreas de negocio También proporciona la oportunidad de sustituir un gran número de sistemas independientes, que se han desarrollado e instalado en las organizaciones, por un solo sistema modular que realiza una función diferente, pero está diseñado para trabajar con otros módulos. Está totalmente integrado, ofreciendo auténtica compatibilidad entre todas las funciones de una empresa.

Después de haber dominado el mercado, la empresa afronta una mayor competencia

de Microsoft e IBM. En marzo de 2004 cambió su enfoque de negocio en favor de crear la "plataforma" que desarrolla y utiliza, la nueva versión de su software NetWeaver. Es en este punto donde SAP se encuentra enfrentada con Microsoft e IBM, que comercializan las plataformas alternativas .NET y WebShere, respectivamente.

Los siguientes son los Módulos de aplicación de software empresarial que ofrece SAP:

Gestión Financiera (FI):

o Contabilidad de Activos Fijos (FI-AA)

o Contabilidad General (FI-GL)

o Cuentas por Pagar - Acreedores (FI-AP)

o Cuentas por Cobrar - Deudores (FI-AR)

Controlling (CO): Gastos generales, costes de producto, cuenta de resultados, centros de beneficio, etc.

o Rentabilidad (CO-PA)

o Costos de Producción (CO-PC)

o Contabilidad de Centros de Costo (CO-CCA)

o Contabilidad de Órdenes Internas (CO-OPA)

Tesorería (TR): Control de fondos, gestión presupuestaria, flujo de caja.

Sistema de proyectos (PS): Grafos, contabilidad de costes de proyecto, etc.

Recursos Humanos (HR): Los Su módulos de Recursos Humanos son:

o Gestión de Personal: (PA)

o Gestión de la Organización: (OM)

o Gestión de Eventos (PE)

o Reclutamiento (RC)

o Desarrollo de Personal (PD)

o Planificación de Costes del Personal (PCP)

Page 9: Trabajo de TI

9

o Cálculo de la nómina (PY)

o Gestión de tiempo (PT)

o Gestión del talento (TM)

Business Intelligence/Business Warehouse (BI/BW): Datawarehousing.

Business Objects: Herramienta de BI para la creación de reportes y dashboards con alto nivel de presentación (Reportes gerenciales).

Ventas y Distribución (SD): Facturación, Pedidos de ventas, solicitudes, pedidos abiertos.

Ejecución Logística (LE): Gestión de entregas y necesidades

Gestión de Materiales (MM)

Gestión de Almacenes (WM)

Mantenimiento de Planta (PM)

Planificación de Producción (PP)

Gestión de Calidad (QM)

Gestión de Clientes (CRM)

Gestión de la Cadena logística (SCM)

Gestión de la Cadena de Abastecimiento (SRM)

4. Plataformas de internet.

Existen varios desarrolladores de aplicaciones de software Web, entre los que encontramos a Microsoft .NET

.NET podría considerarse una respuesta de Microsoft al creciente mercado de los negocios en entornos Web, como competencia a la plataforma Java de Oracle Corporation.

Su propuesta es ofrecer una manera rápida y económica, a la vez que segura y robusta, de desarrollar aplicaciones –o como la misma plataforma las denomina, soluciones– permitiendo una integración más rápida y ágil entre empresas y un acceso más simple y universal a todo tipo de información desde cualquier tipo de dispositivo.

5. Plataformas de telecomunicaciones y redes. Uno de los principales proveedores de hardware para plataformas de

telecomunicaciones es Cisco. La marca líder en redes de comunicación generó una revolución en el campo empresarial al presentar su nueva plataforma de soluciones de colaboración para empresas a través de la cual propone una transformación en la forma de comunicación y de

Page 10: Trabajo de TI

10

relación entre redes que facilita la efectividad del trabajo. Esta empresa presentó a los principales líderes de la industria y los medios de comunicación la nueva experiencia de colaboración empresarial “Sin Fronteras”.

Esta nueva plataforma de soluciones trae consigo una serie de aplicaciones de

comunicaciones unificadas que combinan presencia, mensajería instantánea, vos y video así como aplicaciones para escritorio a través de las modernas Tablets “Cius” de Cisco que integran terminales de video que incluye Cisco Web Ex Meeting Center y Cisco Telepresence. Estas tablets fueron diseñadas para la ejecución de aplicaciones empresariales, a diferencia de las tablets tradicionales.

Las soluciones de Colaboración que ofrece Cisco se fundamentan en la “virtualización”

del escritorio como el nuevo medio de comunicación de las redes. Estudios realizados por la industria de las telecomunicaciones indican que para el año 2013, el 90% de la comunicación en redes corporativas se hará, únicamente, a través de video. De ahí viene el desarrollo de esta novedosa plataforma de telecomunicaciones/redes.

6. Gestión y almacenamiento de datos.

Para la gran mayoría de empresas, el aumento de la información que se procesa y se produce a la vez, forma parte de la gestión de datos y el almacenamiento y resguardo de los mismos. En combinación con las crecientes exigencias en las infraestructuras de TI, la seguridad, el cumplimiento de normativas y la flexibilidad en el manejo de la información, este aumento puede suponer un reto significativo para las compañías.

Muchas organizaciones están sopesando diversas cuestiones que se relacionan con este tema:

La creciente importancia de la información para la toma de decisiones y generación de nuevas fuentes de ingresos.

Los requerimientos de cumplir las normativas sobre conservación y disponibilidad de los datos.

El aumento vertiginoso de la capacidad de almacenamiento, con volúmenes crecientes de contenidos no estructurados.

La gestión de una infraestructura cada vez más compleja. Las presiones sobre los costes, habilidades y recursos.

Uno de los principales proveedores de software de bases de datos es IBM. El software de base de datos de IBM ofrece un excelente rendimiento, fiabilidad, escalabilidad y gestionabilidad.

Se obtienen muchas ventajas mediante la utilización de un sistema basado en servidor

de primera clase, y además el software de IBM proporciona funciones que reducen los costes totales de la propiedad de una base de datos, incluidos un rendimiento superior, compresión, eficiencia, fiabilidad, autonomía, seguridad y productividad del desarrollador. El software de base de datos de IBM le ofrece a las empresas a gestionar sus datos de forma inteligente, rápida, confiable y a un coste muy asequible.

Page 11: Trabajo de TI

11

El software de base de datos de IBM proporciona soluciones para distintas necesidades, desde un simple usuario con requisitos modestos hasta una gran empresa con miles de usuarios y cargas de trabajo más exigentes y complejas.

7. Consultores e integradores de sistemas

Los procesos de consultorías e integración de sistemas, por lo general, se llevan a cabo por otras compañías externas a la organización. Las empresas líderes que proveen consultoría son: IBM Global Services, HP Enterprise Services, Wipro Technologies. HP Enterprise Services es la organización empresarial y servicios de tecnología de la división de Hewlett-Packard. HP Enterprise Business es la unidad estratégica de negocio.

Los catálogos de servicios de las tres carteras de HP Enterprise Services son:

Infraestructura Tecnológica Outsourcing (ITO) - incluye el mantenimiento de la operación de todo o parte de la computadora de un cliente y la infraestructura de comunicaciones, tales como redes, mainframes y servidores web, de escritorio y portátiles e impresoras.

Servicios de Aplicaciones - implica el desarrollo, integración, modernización y/o mantenimiento de aplicaciones de software para clientes.

Servicios de la industria, incluyendo “Business Process Outsourcing” (BPO) - aborda los desafíos de negocio centrales de clientes en cinco sectores clave: salud, transporte, comunicaciones, gobierno y servicios financieros, entre otros. BPO grupo es una parte integral de la cartera, lo que implica la realización de una función de negocios para un cliente, como la nómina, centros de llamadas, procesamiento de reclamaciones de seguros, y así sucesivamente.

5.3 Tendencias de las Plataformas de Hardware Contemporáneas

Según Kenneth, Laudon y Jane, Laudon (2012), el explosivo poder de la tecnología de hardware de computadora y de redes ha cambiado drásticamente la forma en que las empresas organizan su poder de cómputo, al asignarle una mayor parte de este poder a las redes y a los dispositivos móviles, para estos autores existen siete tendencias principales de hardware:

1. La Plataforma Digital Móvil Emergente:

Según señalan Kenneth, Laudon y Jane, Laudon (2012), los teléfonos celulares y los inteligentes como Blackberry y iPhone se han apropiado de muchas funciones de las computadoras portátiles, tales como la transmisión de datos, la navegación por web, la transmisión de mensajes instantáneos y de correo electrónico, la visualización de contenido digital y el intercambio de datos con sistemas corporativos internos. La nueva plataforma móvil también incluye las netbooks, las cuales están diseñadas para la comunicación inalámbrica y el acceso a Internet, con funciones de cómputo básicas tales como procesamiento de palabras; computadoras tipo tableta como el iPad, y lectores digitales de libros electrónicos, con ciertas capacidades de acceso a Web.

Page 12: Trabajo de TI

12

Algunas de las ventajas que ofrece la plataforma móvil son:

Se puede realizar el trabajo en cualquier lugar y en cualquier momento, el dispositivo móvil puede ser usado en casas, buses, trenes, hoteles, otros, por lo que el trabajo se personaliza y adapta a los requerimientos y disponibilidades individuales de cada funcionario.

Los dispositivos móviles posibilitan la interacción instantánea entre jefe-colaborador, entre compañeros o bien entre gerentes de diferentes empresas.

Mayor cobertura ya que la telefonía móvil esta al alcance de casi todos.

Los dispositivos móviles facilitan la investigación al tener acceso a diversas fuentes de información, lo cual ayuda a la toma de decisiones.

Un aspecto de interés con respecto a este tema, es una encuesta realizada a

organizaciones de TI1, la cual indica que en todo el mundo se están adoptando ampliamente estilos de trabajo móviles como forma de posibilitar la innovación comercial. El Citrix Global Workshifting Index, indica que para fines del 2013 el 93% de las organizaciones habrá implementado políticas de workshifting (alternar el lugar de trabajo), y hasta un 37% ofrecen actualmente tales sistemas para una parte o para la totalidad de su fuerza laboral.

Los estilos de trabajo móviles son posibles cuando la gente tiene acceso a la tecnología y las políticas que les permiten ser productivos tanto fuera de la oficina, conectados en forma inalámbrica mediante redes públicas y, a veces, dispositivos personales, como dentro de ésta utilizando una red de trabajo y dispositivos de la compañía. Workshifting es un estilo de trabajo móvil, en el que el trabajo se traslada a horarios, ubicaciones y recursos óptimos para realizar sus tareas habituales.

Esto da la posibilidad, por ejemplo, de trasladar el trabajo a un lugar donde cada uno encuentre una mayor inspiración, permitiéndole ser más productivo. Para las organizaciones esto significa reducir costos comerciales y de TI, al mismo tiempo que le acercan a su personal la flexibilidad necesaria para que puedan trabajar desde cualquier parte, en cualquier momento y desde cualquier dispositivo.

2. Computación en la Malla o computación Grid

Kenneth, Laudon y Jane, Laudon (2012), definen la computación en la malla como el

proceso de conectar computadoras separadas por límites geográficos en una sola red para crear una supercomputadora virtual, al combinar el poder computacional de todas las computadoras en la malla. La computación en malla se beneficia del hecho de que la mayoría de las computadoras utilizan sus unidades centrales de procesamiento en promedio sólo el 25 por ciento del tiempo para el trabajo que se les asigna, por lo cual estos recursos inactivos quedan disponibles para otras tareas de procesamiento.

Las empresas se ven beneficiadas al utilizar la computación en la malla ya que ahorran costos y energía y mejora la velocidad.

Por otra parte, López, C (2001), señala que la computación en malla se ha convertido en una solución tecnológica que permite no solo maximizar la capacidad de los recursos

1 http://www.conocimientoydireccion.com/index.php/mana/item/354-cada-vez-mas-empresas-adoptan-estilos-de-

trabajo-moviles

Page 13: Trabajo de TI

13

computacionales de las entidades, sino también una gran herramienta ahorradora de dinero y tiempo, dos de los factores más importantes en un mundo en el cual la relación tiempo-costo se ha convertido en el emblema de las compañías analistas, productoras e investigadoras.

La computación en malla reúne el conocimiento adquirido con tecnologías anteriores y lo mejora, teniendo como ideal el formar una red de computadores que se comporte como una red eléctrica, es decir que cualquier computador sea capaz de conectarse a una red en la cual los recursos (poder computacional y capacidad de almacenamiento) estén a su entera disposición, permitiendo así que el usuario de la malla la perciba como una unidad única de ejecución.

Para este autor, las principales características de la computación en malla o grid son:

Capacidad de balanceo de sistemas: no habría necesidad de calcular la capacidad de los sistemas en función de los picos de trabajo, ya que la capacidad se puede reasignar desde la granja de recursos a donde se necesite.

Alta disponibilidad: si un servidor falla, se reasignan los servicios en los servidores restantes.

Reducción de costes: con esta arquitectura los servicios son gestionados por "granjas de recursos". Ya no es necesario disponer de "grandes servidores" y se puede hacer uso de componentes de bajo coste. Cada sistema puede ser configurado siguiendo el mismo patrón.

Un ordenador central distribuye un proceso entre los ordenadores conectados a una red.

Todos los recursos disponibles en la red son aprovechados, independientemente de su arquitectura y sistema operativo.

La aplicación es accesible desde cualquier ordenador de la red. Con un interfaz cómodo y sencillo se pueden añadir al sistema tantas máquinas como se desee.

La conexión directa entre los PC’s (P2P) evita la sobrecarga del ordenador central.

La tecnología Grid es fácilmente escalable, creciendo según las necesidades de cada empresa.

3. Virtualización

Según Kenneth, Laudon y Jane, Laudon (2012), la virtualización es el proceso de

presentar un conjunto de recursos de cómputo ( como el poder de cómputo o el almacenamiento de datos) de modo que se puede acceder a todos ellos en formas que no estén restringidas por la configuración física o la ubicación geográfica. La virtualización permite a un solo recurso físico (como un servidor o un dispositivo de almacenamiento) aparecer ante el usuario como varios recursos lógicos.

La virtualización también permite que varios recursos físicos (como dispositivos de almacenamiento o servidores) aparezcan como un solo recurso lógico, como es el caso de las redes de área de almacenamiento o la computación en malla.

López, C (2001), agrega que la virtualización es la tecnología donde se puede compartir los recursos de sistemas en distintos ambientes permitiendo que se ejecuten diferentes sistemas en la misma máquina física.

Page 14: Trabajo de TI

14

Dado lo anterior se puede asociar la virtualización con la computación verde, ya que la manera en que opera la virtualización propicia la reducción de emisiones de dióxido carbono, además se requiere menos enfriamiento y por ende menor consumo de energía. También se incrementa el índice de utilización de recursos y ahorro de espacio.

Otras de las ventajas de implementar la virtualización son2:

Permite consolidar servidores y operar con mayor eficiencia.

Es más sencillo controlar varios servidores virtuales que varios físicos.

La posibilidad de reducir el tiempo de recuperación ante un fallo, y el tiempo para la copia de seguridad.

Se pueden utilizar aplicaciones antiguas que no son compatibles con los nuevos sistemas operativos mediante la creación de un servidor virtual sólo para ellos.

Se pueden ejecutar aplicaciones multiplataforma de una manera más sencilla y eficiente.

4. Computación en la Nube

La computación en la nube3, del inglés Cloud Computing, es definida como un paradigma que permite ofrecer servicios de computación a través de Internet. La "nube" es una metáfora de Internet. En este tipo de computación todo lo que puede ofrecer un sistema informático se ofrece como servicio, de modo que los usuarios puedan acceder a los servicios disponibles "en la nube de Internet" sin conocimientos o, al menos sin ser expertos, en la gestión de los recursos que usan.

Con el desarrollo de la industria de hardware, las capacidades han aumentado y los precios han disminuido y aun así las ventas siguen creciendo, satisfaciendo a un mercado que demanda cada vez más servicios informáticos.

Con la expansión acelerada de era de la información, una realidad construida sobre una infraestructura que cada día mejora en sus capacidades y disminuye en sus costos, los usuarios de la nube cuentan con distintos dispositivos para acceder a los mismos servicios y datos que se encuentran alojados en la nube

El concepto de nube también se refiere al software y datos a los cuales accedemos mediante servicios on-line, como FaceBook, G-mail, Google Docs, Banca en línea, Wikipedia y una infinidad de aplicaciones web a las cuales accedemos como servicios mediante la nube (SaaS: Software as a Service). En esta nube las computadoras se convierten en terminales ligeras.

La computación en la nube es un nuevo modelo de prestación de servicios de negocio y tecnología, que permite al usuario acceder a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo, pagando únicamente por el consumo efectuado, es una forma de computación distribuida que proporciona a sus usuarios la posibilidad de utilizar una amplia gama de recursos de sistemas para completar su trabajo. Los

2 http://www.hostingyvirtualizacion.com/servidores-virtuales-ventajas-de-la-virtulazacion/

3 López, C. (2011). Computación Grid vertiente de la tecnología verde para el desarrollo sustentable. (pp 8-10)

Universidad Veracruzana.

Page 15: Trabajo de TI

15

recursos se escalan de forma dinámica y se proporcionan como un servicio a través del internet.

Algunos de los beneficios son: los usuarios no requieren experiencia ni conocimientos de su funcionamiento, también permite que las empresas se vuelvan más ecológicas dado que disminuyen su consumo de energía al incrementar su capacidad sin necesidad de invertir en más infraestructura y además aumenta la tasa de utilización del hardware ya que se comparten los recursos de sistemas.

5. Computación Verde

La computación verde es definida por Kenneth, Laudon y Jane, Laudon (2012), como las practicas y tecnologías para diseñar, fabricar, usar y disponer de computadoras, servidores y dispositivos asociados, como monitores, impresoras, dispositivos de almacenamiento, sistemas de redes y comunicaciones para minimizar el impacto sobre el entorno.

Cabe mencionar que la computación verde también es conocida como tecnología verde4, este último término es utilizado por López, C (2011), la cuál en su trabajo señala que: según la empresa Siscom, la tecnología verde puede ser definida como la investigación y uso de las Tecnologías de Información de un modo energéticamente eficiente y respetuoso con el medio ambiente. Su definición se resume al “estudio y la práctica de diseñar, fabricar, utilizar y disponer de ordenadores, servidores y componentes asociados, tales como monitores, impresoras, dispositivos de almacenamiento, redes y sistemas de comunicación de manera eficiente y eficaz con un mínimo o ningún impacto sobre el medio ambiente”.

López, C (2001), también indica que la tecnología verde es conocida como Green IT o Green Computing y que se refiere al uso eficiente de los recursos computacionales minimizando el impacto ambiental, maximizando su viabilidad económica y asegurando deberes sociales. No sólo identifica a las principales tecnologías consumidoras de energía y productores de desperdicios ambientales sino que ofrece el desarrollo de productos informáticos ecológicos y promueve el reciclaje computacional.

El principal objetivo que se busca con esta tecnología es reducir el uso de materiales peligrosos, maximizar la eficiencia energética durante la vida del producto, y promover el reciclado o la biodegradabilidad de los productos y residuos de las fábricas, además el uso eficiente de los recursos de sistemas con el fin de minimizar el impacto ambiental que estos generan.

Es importante señalar que también se encarga de la identificación de los recursos que más consumen energía o los que producen mayores desperdicios ambientales, con el propósito de mejorar los nuevos productos informáticos.

6. Computación autonómica Milán, J (2008), cita que en el 2001 IBM presentó un manifiesto sobre los obstáculos

para el progreso en las Tecnologías de la Información. Este manifiesto describía como los complejos sistemas actuales requerían de profesionales preparados para su instalación,

4 López, C. (2011). Computación Grid vertiente de la tecnología verde para el desarrollo sustentable. (pp 7-8)

Universidad Veracruzana.

Page 16: Trabajo de TI

16

configuración, ajuste y mantenimiento de dichos sistemas. Lo que es aun peor, la evolución de dichos sistemas los hace cada vez más y más complejos (al incrementar el número de diferentes elementos interconectados) incluso para los administradores más preparados. El manifiesto presentaba como única solución la computación autonómica. La cual se define como los sistemas que son capaces de manejarse así mismos a partir de unos objetivos de alto nivel.

Los sistemas autonómicos monitorizan continuamente su entorno y a partir de la información del mismo toman decisiones de auto-gestión, se ajustan automáticamente para poder afrontar los cambios en la carga, el tipo de carga e incluso fallos en el sistema.

IBM como parte de su manifiesto señaló cuatro elementos fundamentales para la auto-gestión:

Auto-configuración: los sistemas autonómicos son capaces de configurarse así mismos utilizando políticas de negocio. Es posible incorporar nuevos elementos al sistema y el sistema se adaptará a los nuevos elementos.

Auto-optimización: los sistemas autonómicos son capaces de monitorizar información y ajustar los parámetros de configuración para mejorar el rendimiento del sistema.

Auto-reparación: Los sistemas autonómicos pueden detectar, diagnosticar y reparar problemas localizados debidos a errores o fallos de software o de hardware.

Auto-protección: los sistemas autonómicos se protegen así mismos de un gran número de ataques maliciosos y de fallos en cascada que no se han corregido con los mecanismos de auto-reparación.

Milán, J (2008) dice que para poder llevar a cabo estos cuatro aspectos es necesario

que los sistemas autonómicos se “conozcan así mismos” y una forma de realizar este auto-conocimiento es utilizando bucles de control continuo, donde cada elemento del sistema no solo conoce las tareas que tiene asignadas, sino que dispone de los mecanismos necesarios para monitorizar su trabajo y realizar las correcciones necesarias con el fin de optimizar el rendimiento. Para poder realizar estas tareas un sistema autonómico debe de disponer de los siguientes elementos:

Algún tipo de sensor para monitorizar la información del entorno.

Conocimiento para interpretar los datos monitorizados.

Conocimiento para reconocer los funcionamientos erróneos y preparar un plan de corrección.

Algún tipo de elemento actuador para poder aplicar las correcciones adecuadas a la configuración.

Además, el sistema debe de ser capaz de aprender con las actuaciones que realiza con el fin de en el futuro tomar decisiones más adecuadas.

La computación autonómica se clasifica en cinco niveles, los cuales se señalan a

continuación:

Nivel 1, Básico: es el punto de partida de muchos sistemas actuales, representa el nivel en el que todos los elementos son gestionados por administradores expertos el cual monitoriza y establece los valores del sistema.

Page 17: Trabajo de TI

17

Nivel 2, Controlado: las tecnologías de gestión de sistemas se puede utilizar para recoger información de elementos dispares del sistema con lo que se reduce el tiempo de administración, de esta forma mejora el conocimiento y el rendimiento del sistema.

Nivel 3, Predictivo: el sistema monitoriza información y a partir de esta y de patrones prestablecidos recomienda acciones al personal de administración. Este nivel permite tener administradores menos expertos y facilita una toma de decisiones más rápida.

Nivel 4, Adaptable: además de monitorizar datos y establecer correlación con los patrones preestablecidos, el sistema actúa a partir de la información recogida. Se consigue reducir la intervención del personal de administración.

Nivel 5, Autonómico: los componentes del sistema están completamente integrados y el sistema se gestiona a partir de las políticas de negocio implementadas.

7. Procesadores de alto rendimiento y ahorro de energía

Al igual que las tendencias de plataforma señaladas anteriormente, los procesadores de alto rendimiento buscan reducir el consumo de energía y la expansión desmedida del hardware.

Kenneth, Laudon y Jane, Laudon (2012), indican que ahora los microprocesadores contemporáneos cuentan con varios núcleos de procesadores (que llevan a cabo la lectura y ejecución de las instrucciones de computadora) en un solo chip. Un procesador multinúcleo es un circuito integrado al que se conectan dos o más núcleos de procesadores para mejorar el desempeño, reducir el consumo de energía y procesar varias tareas simultáneas con más eficiencia.

5.4 Tendencias de las plataformas de software contemporáneas

Según Laudon existen cuatros temas importantes en la evolución de las plataformas de

software contemporáneas:

Linux y el software de código abierto

Java y Ajax

Los servicios Web y la arquitectura orientada a servicios.

Outsourcing de software y servicios en la nube.

Linux y el software de código abierto

El Código Abierto es el término con el que se conoce al software distribuido y

desarrollado libremente. El código abierto tiene un punto de vista más orientado a los

beneficios prácticos de poder acceder al código, que a las cuestiones éticas y morales las

cuales se destacan en el software libre. Su uso nació por primera vez en 1998 de la mano de

algunos usuarios de la comunidad del software libre, tratando de usarlo como reemplazo al

ambiguo nombre original en inglés del software libre (free software). «Free» en inglés significa

dos cosas distintas dependiendo del contexto: gratuidad y libertad. Lo cual implica, para el

caso que nos ocupa, "software que podemos leer, modificar y redistribuir gratuitamente"

(software gratuito) y, además, software libre, según la acepción española de libertad.

Page 18: Trabajo de TI

18

En la actualidad el código abierto se utiliza para definir un movimiento nuevo de

software (la Iniciativa Open Source), diferente al movimiento del software libre, incompatible

con este último desde el punto de vista filosófico, y completamente equivalente desde el punto

de vista práctico, de hecho, ambos movimientos trabajan juntos en el desarrollo práctico de

proyectos.

La idea bajo el concepto de código abierto es sencilla: cuando los programadores (en

Internet) pueden leer, modificar y redistribuir el código fuente de un programa, éste evoluciona,

se desarrolla y mejora. Los usuarios lo adaptan a sus necesidades, corrigen sus errores a una

velocidad impresionante, mayor a la aplicada en el desarrollo de software convencional o

cerrado, dando como resultado la producción de un mejor software.

Un Sistema Operativo es el programa que permite que una persona se pueda

comunicar con el ordenador. Convierte las señales eléctricas que produce la maquinaria en

símbolos, sonidos, imágenes entendibles por nosotras, es la traductora que nos permite hablar

con alguien con quien no compartimos el idioma.

El GNU - Es el movimiento creado en 1984 por un grupo desarrolladores del MIT

(Massachusetts Institute of Technology) que fueron los que definieron qué era el Software Libre

y empezaron a hacerlo, la finalidad era crear un Sistema Operativo totalmente libre como

primer paso para poder crear programas libres desde sistemas libres.

Linux es una parte del Sistema Operativo, es el llamado núcleo, que se encarga de

comunicar todos los elementos del ordenador, como si fuera el semáforo de una calle muy

transitada. Fue creado en 1991 por un estudiante finlandés, con sus propios medios y usando

internet como medio de difusión (bajo Software Libre), consiguió que mucha gente participara

en el proyecto y creara un núcleo que se unió al resto de herramientas del Sistema Operativo

que ya estaban en el proyecto GNU, pues qué sería del semáforo sin la ciudad, ni los coches,

ni la gente, etc.

La riqueza del mundo del software libre es la variedad de gustos que hay, cualquier

persona puede crear su propio sistema y ser su propio dueño, ahí radica una de las mayores

importancias de este movimiento.

Java y Ajax

AJAX, acrónimo de Asynchronous Java Script And XML (JavaScript asíncrono y XML),

es una técnica de desarrollo web para crear aplicaciones interactivas o RIA (Rich Internet

Applications). Estas aplicaciones se ejecutan en el cliente, es decir, en el navegador de los

usuarios mientras se mantiene la comunicación asíncrona con el servidor en segundo plano.

De esta forma es posible realizar cambios sobre las páginas sin necesidad de recargarlas, lo

que significa aumentar la interactividad, velocidad y usabilidad en las aplicaciones.

Page 19: Trabajo de TI

19

Ajax es una tecnología asíncrona, en el sentido de que los datos adicionales se

solicitan al servidor y se cargan en segundo plano sin interferir con la visualización ni el

comportamiento de la página. Java Script es el lenguaje interpretado (scripting language) en el

que normalmente se efectúan las funciones de llamada de Ajax mientras que el acceso a los

datos se realiza mediante XMLHttpRequest, objeto disponible en los navegadores actuales. En

cualquier caso, no es necesario que el contenido asíncrono esté formateado en XML.

Ajax es una técnica válida para múltiples plataformas y utilizable en muchos sistemas

operativos y navegadores dados que está basado en estándares abiertos como Java Script y

Document Object Model (DOM).

Java es un lenguaje de programación de alto nivel orientado a objetos, desarrollado por

James Gosling en 1995. El lenguaje en sí mismo toma mucha de su sintaxis de C, Cobol y

Visual Basic, pero tiene un modelo de objetos más simple y elimina herramientas de bajo nivel,

que suelen inducir a muchos errores, como la manipulación directa de punteros o memoria. La

memoria es gestionada mediante un recolector de basura.

Las aplicaciones Java están típicamente compiladas en un bytecode, aunque la

compilación en código máquina nativo también es posible. En el tiempo de ejecución, el

bytecode es normalmente interpretado o compilado a código nativo para la ejecución, aunque

la ejecución directa por hardware del bytecode por un procesador Java también es posible.

La implementación original y de referencia del compilador, la máquina virtual y las

bibliotecas de clases de Java fueron desarrolladas por Sun Microsystems en 1995. Desde

entonces, Sun ha controlado las especificaciones, el desarrollo y evolución del lenguaje a

través del Java Community Process, si bien otros han desarrollado también implementaciones

alternativas de estas tecnologías de Sun, algunas incluso bajo licencias de software libre.

Servicios Web y la arquitectura orientada a servicios

(Web service). La W3C define "Servicio web" como un sistema de software diseñado

para permitir interoperatibilidad máquina a máquina en una red. En general, los servicios web

son sólo APIs Web que pueden ser accedidas en una red, como internet, y ejecutadas en un

sistema de hosting remoto. En términos sencillos, un servicio web es cualquier sistema de

software diseñado para soportar interacción máquina a máquina sobre una red. Esta amplia

definición abarca múltiples y diferentes sistemas, pero en general "servicio web" suele referir a

clientes y servidores que se comunican usando mensajes XML que siguen el estándar SOAP.

En definitiva, permite comunicación entre diferentes máquinas, con diferentes

plataformas y entre programas distintos. Esta comunicación se logra a través de la adaptación

de diversos estándares abiertos. El organismo WS-I se creó para mejorar la interoperatibilidad

entre las distintas implementaciones de los servicios web.

Page 20: Trabajo de TI

20

SOA (Service Oriented Architecture) es una arquitectura de Software orientada a

servicios. Esta arquitectura surge de la continua y creciente evolución de la Tecnología de

Información (IT), en conjunto con la evolución de los procesos de negocios. SOA integra

procesos, recursos humanos e información en un ambiente operativo más ágil y flexible. Para

poder lograr esta integración hace uso del concepto de servicio, Orquestación y Coreografía de

Servicios Web.

Outsoursing de software y servicios en la nube

El Outsourcing de Sistemas de Información es un fenómeno en crecimiento en las

empresas actuales, al que se le ha caracterizado, en general, con un insuficiente nivel de

detalle y análisis. Este método permite que una empresa contrate el desarrollo de software

personalizado o el mantenimiento de los programas heredados existentes con empresas

externas, que por lo común operan en el extranjero, en áreas del mundo con sueldos bajos.

Los principales servicios que ofrecen las empresas que se dedican al outsoursing de

software son mantenimiento a nivel inferior, captura de datos y operaciones de call centers. Sin

embargo con el creciente aumento en la sofisticación y experiencia de las empresas en el

extranjero cada vez se llevan a cabo más actividades de desarrollo de nuevos programas en el

extranjero.

Referencias a "la nube" -the Cloud en inglés- soy muy comunes en el mundo de

Internet. En realidad la nube es una metáfora empleada para hacer referencia a servicios que

se utilizan a través de Internet. Antes del concepto de la nube, el procesamiento y

almacenamiento de datos se hacían en tu computadora; en cambio, computación en la nube -

cloud computing en inglés- permite una separación funcional entre los recursos que se utilizan

y los recursos de tu computadora, esto es: se utilizan recursos en un lugar remoto y que se

acceden por Internet. Todo lo que ocurre dentro de la nube es totalmente transparente para ti y

no necesitas conocimiento técnico para utilizarla. El término software como servicio -software

as a service en inglés, abreviado SaaS- es utilizado también para referirse a programas que se

ofrecen mediante la nube.

Sin que el usuario se dé cuenta está haciendo uso de servicios en la nube

continuamente. Un ejemplo típico es usar una página web para acceder a una cuenta de

correo en Google, Hotmail, o Yahoo, por mencionar unos cuantos. Otra forma de ver a la nube

es como una conexión a un servicio que ofrece poder de cómputo y procesamiento, análogo a

servicios como luz y agua, donde una casa no requiere de generadores de luz o bombas de

agua para consumirlos.

Siendo así, se puede ver a la nube como todos los servicios para música, películas,

fotos, juegos, procesadores de palabras, etc., servicios a los que se puede acceder

independientemente de la computadora o dispositivo que se esté utilizando. YouTube es otro

ejemplo: es un servicio que está en la nube, ya que el almacenamiento de los vídeos se hace

en un servidor remoto, lejos de tu computadora.

Page 21: Trabajo de TI

21

Principales ventajas

Integración probada de servicios Red. Por su naturaleza, la tecnología de cloud

computing se puede integrar con mucha mayor facilidad y rapidez con el resto de sus

aplicaciones empresariales (tanto software tradicional como Cloud Computing basado

en infraestructuras), ya sean desarrolladas de manera interna o externa.3

Prestación de servicios a nivel mundial. Las infraestructuras de cloud computing

proporcionan mayor capacidad de adaptación, recuperación de desastres completa y

reducción al mínimo de los tiempos de inactividad.

Una infraestructura 100% de cloud computing permite al proveedor de contenidos o

servicios en la nube prescindir de instalar cualquier tipo de hardware, ya que éste es

provisto por el proveedor de la infraestructura o la plataforma en la nube. La belleza de

la tecnología de cloud computing es su simplicidad… y el hecho de que requiera mucha

menor inversión para empezar a trabajar.

Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy

rápidamente gracias a una infraestructura de cloud computing. No tendrá que volver a

esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario

inicie sesión en su nueva solución. Sus aplicaciones en tecnología de cloud computing

estarán disponibles en cuestión de días u horas en lugar de semanas o meses, incluso

con un nivel considerable de personalización o integración.

Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si

actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar

tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e

integraciones. La tecnología de cloud computing no le obliga a decidir entre actualizar y

conservar su trabajo, porque esas personalizaciones e integraciones se conservan

automáticamente durante la actualización.

Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el

funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores

consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la

energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

Principales desventajas

La centralización de las aplicaciones y el almacenamiento de los datos origina una

interdependencia de los proveedores de servicios.

La disponibilidad de las aplicaciones está ligada a la disponibilidad de acceso a

Internet.

Los datos "sensibles" del negocio no residen en las instalaciones de las empresas, lo

que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de

información.

La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los

proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas

podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los

servicios.4

Page 22: Trabajo de TI

22

La disponibilidad de servicios altamente especializados podría tardar meses o incluso

años para que sean factibles de ser desplegados en la red.

La madurez funcional de las aplicaciones hace que continuamente estén modificando

sus interfaces, por lo cual la curva de aprendizaje en empresas de orientación no

tecnológica tenga unas pendientes significativas, así como su consumo automático por

aplicaciones.

Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a

su destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan

protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la

sobrecarga que estos requieren.

Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la

infraestructura de la nube, la sobrecarga en los servidores de los proveedores

aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a

degradaciones en el servicio o jitter altos.

5.5 Costo Total de Propiedad (TCO) y Administración del Ciclo de Vida (LCM)

Partiendo de la premisa que si un proceso no se mide no es posible controlarlo, para los

procesos informáticos ocurre de igual forma. En otras palabras, es necesario medir lo que

significa, para una organización, en términos de costo, la utilización de los Sistemas de

Información. Es evidente que la utilización de los sistemas informáticos se puede medir

utilizando variables distintas al costo, pero éste es el que normalmente ocupan las empresas

para evaluar sus actividades.

Para medir el uso de los Sistemas de Información se utiliza el modelo TCO (Total Cost

Ownership), el cual permite medir la variable costo a lo largo del tiempo y, para gestionar los

Sistemas Informáticos se ocupa el modelo LCM (Life Cycle Management) que permite

administrar sistemáticamente los sistemas desde su diseño hasta el fin de su vida útil, pasando

por las etapas intermedias como son implementación, operación, etc.

En esta sección hablaremos de ambos modelos debido a que si se pretende bajar el

TCO, invariablemente pasa por cómo se gestionan los sistemas, es decir cómo se maneja su

Ciclo de Vida (LCM). Entendiendo que el TCO nos permite medir los costos en el tiempo y el

LCM nos permite organizar y controlar la operación, también en el tiempo.

Si se pretenden bajar los costos de los Sistemas de Información el procedimiento sería

el siguiente:

Establecer el modelo TCO, para tener la estimación inicial.

Habilitar en la Contabilidad la medición de costos del Sistema de Información en cuestión.

Gestionar los sistemas de Información de acuerdo al modelo LCM, con el fin de disminuir el costo en cada una de sus fases.

Page 23: Trabajo de TI

23

Comparar los costos del TCO con los registrados en la Contabilidad correspondientes a cada uno de las etapas del LCM.

Total Cost OwnerShip – TCO

Una definición según Interpose Inc., una compañía dedicada a Sistemas de

Computación en Estados Unidos:”Total Cost of Ownership –Costo Total de Propiedad– es un

modelo que ayuda a las empresas a analizar todos los costos y beneficios relacionados con la

adquisición, desarrollo y uso de componentes de Tecnologías de Información (IT) a lo largo de

su ciclo de vida”.

El Total Cost of Ownership (TCO) ha sido una ayuda permanente y significativa en el

mundo de las Tecnologías de Información desde 1987, cuando Hill Kirwin de Gartner Group

Inc., desarrolló el modelo para los PC o equipos de escritorio. Desde esta época el modelo se

ha extendido a las LAN, sistemas cliente/servidor, computación distribuida,

telecomunicaciones, centros de procesamiento de datos, y recientemente para sistemas

portátiles (handheld).

El TCO es un modelo que ayuda tanto a los consumidores como a los ejecutivos de

empresas evaluar los costos directos e indirectos que están relacionados con la compra de

cualquier activo de capital, tal como el software y los computadores, pero no limitado sólo a

ellos.

La valorización del TCO idealmente ofrece un costo que, además de considerar el

precio de compra, incluye los costos relacionados con el uso y mantención de los equipos y

sistemas. Esto incluye los costos de implementación, capacitación de los usuarios, costos

asociados con las fallas o períodos fuera de servicio (planeados o no planeados), incidentes de

pérdida de desempeño (repuestas más lentas), costos por incumplimientos (pérdida de

reputación y pérdidas por la recuperación de la falla), espacio, energía, desarrollo, control de

calidad, y muchos más. Por eso a veces el TCO es llamado Costo Total de Operación.

Hoy el TCO es usado para dar soporte a decisiones de compra y de planificación para

un rango cada vez mayor activos que generan costos significativos de operación y mantención

a lo largo de sus años de vida útil. El TCO es usado para apoyar la toma de decisiones que

involucran equipos de computación, sistemas de información, vehículos, equipos de

laboratorio, equipos médicos, equipos para manufactura, maquinaria, etc.

¿Cómo calcular el TCO?

Un buen análisis TCO permite descubrir los costos “ocultos” o los costos no-obvios que

podrían quedar fuera del proceso de compra o del proceso de planificación.

El análisis comienza con el diseño de modelo adecuado, tal que cobra completamente

los costos relacionados con el sistema a evaluar.

Page 24: Trabajo de TI

24

¿Qué compone el TCO?

El TCO no es un análisis de costo beneficio completo, porque de hecho no considera

los beneficios para el negocio ni los ahorros de costos (salvo que se comparen distintos

escenarios de TCO).

Para usar el concepto del TCO más allá del proceso de compras o de planificación es

necesario que la Contabilidad incluya el modelo de costo que permita medir los mismos

durante las distintas fases del ciclo de vida del proyecto.

El costo de un sistema es posible analizarlo en términos comparativos comparando los

valores del TCO con los que entrega la Contabilidad

Relación entre LCM, TCO y Contabilidad en el tiempo.

El Life Cycle Management LCM (Gestión del Ciclo de Vida) se refiere a que todo

sistema informático tiene un ciclo de vida que se inicia con su concepción y termina cuando es

reemplazado por otro o puesto fuera de operación. Las razones por las cuales el software tiene

un Ciclo de Vida se basan en motivos económicos originados por sus características, a saber:

ya en 1985 Lehman proponía algunas leyes que gobiernan los sistemas informáticos.

Dos de ellas son las siguientes:

1. Un programa que está en uso será modificado.

2. Cuando un programa se modifica, su complejidad se incrementará y no se tomarán acciones

para mitigar el aumento de su complejidad.

Puede ser teóricamente posible mantener un sistema de información indefinidamente.

En la práctica, sin embargo, se llega a un punto de quiebre debido a que los costos de

mantenimiento se hacen poco factibles, ya que cada nuevo cambio implica un aumento en la

complejidad del sistema y, por ende un mayor esfuerzo y costo en sus ejecución. Por analogía

se dice que el sistema aumenta su entropía. 5

Efecto del cambio de la entropía a lo largo del tiempo de uso de un sistema.

Implicaciones de las Leyes de Lehman

Los componentes de software de un sistema de información tienen un tiempo limitado y

por tanto su Ciclo de Vida útil debe ser gestionado.

El período de vida útil de un sistema de información es críticamente dependiente de la

entropía inicial del sistema, de la naturaleza y alcance de los cambios posteriores que sufra.

Siempre es necesario tener en operación la última versión del software.

A manera de ejemplo, la experiencia de la industria del software indica que la vida útil

de un sistema tiene un período medio de siete años con una desviación de dos años. Esto

5 Wikipedia: definición: La palabra entropía procede del griego (ἐντροπία) y significa evolución o transformación.

Page 25: Trabajo de TI

25

implica que deficiencias serias de funcionalidad y fallas del sistema deben esperarse entre los

cinco y nueve años después de haber implementado un nuevo sistema.

Fases del LCM

Haciendo la analogía del LCM con el ciclo de vida biológico se puede establecer que el

LCM está compuesto por fases o etapas, que parten desde su origen o concepción hasta el fin

de su utilización o reemplazo.

Dependiendo de la naturaleza y complejidad del Sistema de Información, el LCM se

puede descomponer en distintas etapas, a modo de ejemplo se considerará un modelo de

gestión del Ciclo de Vida compuesto por seis fases:

1. Inicial o Ante-Proyecto 2. Especificación del Concepto 3. Análisis y Diseño 4. Desarrollo – Implementación 5. Puesta en Operación – Deployment 6. Operación

1. Inicial o Ante-Proyecto.

El propósito de esta Fase Inicial es identificar y validar la oportunidad de mejorar el

negocio de la empresa o resolver situaciones de ineficiencias del negocio.

Identificar las hipótesis y restricciones de la solución que se necesita.

Recomendar la exploración de alternativas de conceptos y métodos que satisfagan la

necesidad.

Esta fase se termina con el acuerdo entre el patrocinador del proyecto y la gerencia de

la empresa o de informática en cuanto a si se dará curso o no al proyecto.

2. Especificación del Concepto:

En esta fase se determinará si existe una solución factible en términos económicos,

costos y beneficios acordes con las estrategias de negocios; además de si existe la tecnología

adecuada y fiable para soportar el desarrollo y operación del sistema en cuestión. Las

actividades de esta fase son:

Identificar las interfaces del sistema.

Identificar los requerimientos funcionales y de datos básicos para satisfacer las necesidades del negocio.

Establecer el alcance del sistema y sus limitaciones, identificar metas y objetivos, determinar los factores críticos de éxito y los estándares de performance.

Evaluar los costos y beneficios de distintas alternativas de solución.

Cuantificar los riesgos del proyecto.

Desarrollar a nivel general la arquitectura, el modelo de procesos, el modelo de datos, y conceptualizar las operaciones con sus tiempos requeridos.

Page 26: Trabajo de TI

26

Esta fase puede incluir varias decisiones de compromiso tales como comprar el sistema

o desarrollarlo o re-utilizar componentes. O que la decisión de implementación es incremental

o total. Si el sistema es muy grande o tiene aspectos dudosos se recomienda hacer prototipos

para evaluar el diseño y las tecnologías disponibles.

Esta etapa requiere que el dueño del proyecto haga una presentación al gerente

general o a un comité técnico a objeto de validar el concepto y determinar si se continúa con el

proyecto.

3. Análisis y Diseño

Los objetivos de esta fase son:

Avanzar en la definición y refinamiento de los requerimientos funcionales y de datos.

Completar la lista de componentes que pueden ser re-utilizados.

Completar el proceso de re-ingeniería o re-diseño correspondiente a las funciones que el nuevo sistema soportará.

Desarrollar los modelos de datos y de procesos detalladamente.

Establecer los requerimientos funcionales y del sistema que no son fácilmente expresados en los modelos de datos y de procesos.

Avanzar en el refinamiento de la arquitectura del sistema y en el diseño lógico que soportaran los requerimientos funcionales y técnicos.

Continuar con la identificación y mitigación de los riesgos, coordinándose con las áreas de negocios involucradas a objeto de ir asegurando el éxito del proyecto.

Al final de esta fase el sistema queda descrito completamente en cuanto a su

arquitectura y diseño lógico. En esta etapa se requiere que el dueño del proyecto haga una

presentación al gerente general o a un comité técnico con el fin de validar la arquitectura y

diseño lógico del sistema; y determinar así si se continúa con el proyecto.

4. Desarrollo – Implementación

Las actividades son:

Desarrollo: Diseñar, desarrollar, integrar y verificar (control de calidad o testing) el sistema y su infraestructura computacional.

Implementación: Diseñar, modelar, parametrizar, cargar datos, integrar y verificar (control de calidad o testing) el sistema y su infraestructura computacional.

Todos los componentes del diseño lógico son asignados a componentes operacionales.

La identificación y mitigación de riesgo continúa.

Esta fase se completa cuando el gerente general o el comité técnico han terminado la

revisión del sistema y confirma que se encuentra en condiciones de operar satisfaciendo los

requerimientos funcionales previamente establecidos.

Page 27: Trabajo de TI

27

5. Puesta en Operación

Los objetivos de esta fase son:

Asegurarse que el sistema y su infraestructura están instalados y operan según lo planeado y especificado.

Asegurarse que los usuarios están entrenados.

Asegurarse que los usuarios y las áreas de soporte están en condiciones de operar el sistema.

En esta fase el sistema quedará instalado para soportar las funciones del negocio para

lo cual fue diseñado. Los objetivos de desempeño han sido establecidos y se ha convenido

algún servicio, interno o externo, para dar soporte a la operación y mantenimiento del sistema.

La Puesta en Operación puede ser incremental, para acomodarse a la realidad de las

operaciones de la empresa. Esta fase incluye la notificación de los usuarios, el entrenamiento

del personal, la instalación de hardware y software, la certificación de los datos y la integración

del sistema al proceso de trabajo del día a día.

Esta fase termina cuando los usuarios son capaces de completar un ciclo de operación

del sistema, por ejemplo un cierre contable, la operación de ventas, la distribución de un día,

etc. Y, el dueño del proyecto con el gerente general firman un protocolo que el sistema está

completamente operativo.

6. Operación

Esta es la fase de mayor duración del Ciclo de Vida del sistema y comprende:

La operación, mantenimiento y mejoramiento del sistema y de su infraestructura.

La certificación que el sistema está en condiciones de operar con información crítica.

La ejecución de análisis periódicos para determinar que el sistema y su infraestructura están operando adecuadamente.

La determinación de cuando el sistema o su infraestructura necesitan ser modernizados, reemplazados o sacados de operación.

Page 28: Trabajo de TI

28

Conclusiones

La infraestructura TI es parte importante de las empresas actuales y constituye los recursos tecnológicos compartidos de la misma. Por medio de las infraestructuras de TI las empresas mejorar su eficiencia operacional y disminuyen sus costos de operación, aumentando así su margen de ganancia.

Cada una de las etapas en la evolución de la infraestructura TI ha contribuido al avance del poder del procesamiento, la reducción del costo asociado y el mayor almacenamiento.

Cada vez más actividades de cómputo se realizan en una plataforma móvil.

La computadora en la nube es un excelente servicio de negocio y tecnología donde por medio de la Internet, los usuarios pueden tener acceso a un catálogo de servicios estandarizados y responder a las necesidades de su negocio, de forma flexible y adaptable, pagando únicamente por el consumo efectuado.

Las empresas son conscientes de que para ser competitivas no solamente requieren invertir en más tecnologías, sino que deben procurar invertir en tecnologías amigables con el ambiente, de esta premisa se da el surgimiento de la computación verde y relacionada a ella las demás tendencias de plataformas de hardware contemporáneas, ya que el objetivo de todas es aumentar la capacidad, sin necesidad de aumentar el consumo de energía y la infraestructura.

Cada una de las cinco etapas en la evolución de la infraestructura TI ha contribuido al avance del poder del procesamiento y la reducción del costo asociado.

La virtualización organiza los recursos de computación de modo que su uso no se restringe debido a la configuración física o geográfica.

El procesador multinúcleo, la computación verde y la computación autonómica, son ejemplos de tendencias que se enfocan en reducir los consumos de energía en los dispositivos.

El sistema de software libre puede ser la solución para muchos problemas en el mundo empresarial, para las organizaciones gubernamentales y, por supuesto, para el usuario particular.

El software libre es una buena solución para evitar la copia y distribución de programas piratas es ilegal y el pago de licencias. Como reza el eslogan de Linex: Sé legal… copia Linex.

Java y Ajax son opciones muy interesantes, ya que utilizan un lenguaje simple, orientado a objetos y dinámico. Son fuentes abiertas e independientes de la plataforma que permiten crear programas modulares y códigos reutilizables.

Los servicios de software permite una frecuente integración con una red mayor de software de comunicación, bien como parte de un mashup o como un enlace para una

Page 29: Trabajo de TI

29

plataforma como servicio. Se le permite al cliente completa flexibilidad en el uso de los sistemas operativos de su preferencia, o al cual pueda tener acceso.

Con la utilización de servicios en la nube las empresas y administradores de sistemas que pueden delegar todos esos aspectos y ahorrarse los costos asociados. el prestador del servicio se encarga de todo: asignación de recursos, mantenimiento, mejoras y actualizaciones, copias de seguridad.

Con los servicios en la nube se adquieren riesgos que van asociados a la confiabilidad y seguridad de la red que brinda el servicio.

Se deben analizar muy bien los proyectos de inversión de infraestructura TI debido a que existe una tendencia al cambio constante, por lo que es preciso utilizar un modelo de fuerzas competitivas para determinar cuánto invertir y en donde.

Hoy, el Costo Total de propiedad (TCO) es usado como base para tomar decisiones de compra y de planificación referente a los activos que generan costos significativos de operación y mantenimiento a lo largo de sus años de vida útil.

La continua gestión del TCO le presenta un panorama de las dimensiones de la infraestructura de la empresa, comparándolas con sus competidores y con las referencias del sector, además de asesorar sobre cómo invertir para reducir costos.

Comprender los puntos clave y reducir los precios de soportar y gestionar la evolución de una infraestructura IT de vanguardia es un reto difícil, que se simplifica mediante una adecuada gestión del TCO, siempre que se tomen en cuenta todos sus elementos.

Page 30: Trabajo de TI

30

Bibliografía

1- Definición de TI http://www.alegsa.com.ar/Dic/tecnologias%20de%20la%20informacion.php

2- http://es.wikipedia.org/wiki/Ley_de_Metcalfe

3- http://es.wikipedia.org/wiki/Red_de_computadoras

4-http://gabrielaberrospialvarado.blogspot.com/

5- http://www.slideshare.net/misraimsoria/impulsores-tecnolgicos-de-la-evolucin-de-la-

infraestructura-de-ti

6- Moreno, A. (17 de diciembre de 2011) Móvil learning, Cajón de Sastre. Recuperado de

http://recursostic.educacion.es/observatorio/web/es/cajon-de-sastre/38-cajon-de-sastre/1026-

movil-learning

7- Editor C&D. (20 de marzo de 2012). Cada vez más empresas adoptan estilos de trabajo móviles. Recuperado de http://www.conocimientoydireccion.com/index.php/mana/item/354-cada-vez-mas-empresas-adoptan-estilos-de-trabajo-moviles. 8- López, C. (2011). Computación Grid vertiente de la tecnología verde para el desarrollo sustentable. Universidad Veracruzana. 9- Servidores virtuales, ventajas de la virtualización. Recuperado de http://www.hostingyvirtualizacion.com/servidores-virtuales-ventajas-de-la-virtulazacion/ 10- Milán, J. (2018). Replicación autonómica de bases de datos. (pp 3, 9-11) Universidad Politécnica de Madrid.