Te imaginas qué pasaría si al final de mes recibieras una factura de tu operador móvil con la siguiente información:
Número de minutos consumidos de voz y datos: 1563 unidades. Total factura 78,53 €.
El consumo diario durante el mes ha sido de: 2,6 €/diarios.
Cómo te quedarías? Probablemente es lo que miras de tu factura telefónica, pero por lo general, los operadores nos dan más información sobre nuestro consumo detallado: número de llamadas, duración de cada llamada, hora de llamada, precio de cada llamada, bytes transmitidos, etc. Es información que en algunos casos nos sirve para entender porqué hemos pagado determinada cantidad y cuales son nuestros hábitos de consumo.
Sin embargo, con la factura de la luz la única información que tenemos es que hemos consumido un determinado número de KW, que tenemos un concepto llamado potencia contratada (que vete a saber lo que es), que pagamos un alquiler por un equipo de medida y un impuesto raro además del IVA.
En relación a los términos de la factura, la potencia contratada sería algo así como el ancho de banda de nuestro ADSL, la velocidad o los "megas". Actualmente existen determinadas ofertas de ADSL con 2, 6, 10 o 20 Mb que tienen precios diferentes. Nuestro "ancho de banda eléctrico" es suficiente si cuando consumimos la energía en nuestra casa, negocio o empresa, no tenemos caídas del suministro porque salte el limitador ICP en el cuadro eléctrico. Pero también puede ocurrir que tengamos contratado un "ancho de banda eléctrico" que supera ampliamente nuestras necesidades y que por tanto estemos pagando un precio innecesariamente alto.
Sin embargo, no tenemos ni idea de cual es nuestro consumo de electricidad a lo largo del día o del mes y de si pagamos un precio distinto en determinadas horas. Esto que en telecomunicaciones parece impensable, en el caso de la energía es lo que tenemos asumido. Y es que las redes eléctricas, aunque han mejorado en algunos niveles de su jerarquía de arquitectura de red, se encuentran a nivel de consumidor en los años 70.
Tenemos asumido que las ahora comercializadoras del último recurso, nos pasen una factura mensual (hasta hace algunos meses bimensual) que para una familia media puede alcanzar los 50 € mensuales, sin tener ninguna información de detalle.
Este es uno de los problemas que solucionará el despliegue de inteligencia en la red bajo el concepto de Smart Grid. Para ello será necesario que nuestro suministrador, cambie en muchos casos nuestro contador de energía eléctrica y lo comunique con su central. De esta forma, por ejemplo, se evita facturar por consumos estimados o el hecho de que la factura unos meses incluya el consumo y otros no. También se evitará que la empresa suministradora tenga que realizar una lectura manual que requiere que una persona vaya físicamente a leer el contador.
Esto también facilitará que el usuario tenga información detallada de su consumo o que tenga un precio por la energía diferente en función de la franja horaria del día. Es sólo una de las puntas del iceberg de las posibilidades que Smart Grid permite en el ámbito del cliente al que hago referencia en mi anterior artículo y que está relacionado con el concepto AMI (Advanced Metering Infrastructure) dentro de dicho ámbito.
Gestión de Servicios de TI, Telecom, Smart Grid. Artículos e ideas que pasan por mi cabeza o que me parecen interesantes
jueves, 25 de noviembre de 2010
miércoles, 24 de noviembre de 2010
Organización del Universo Smart Grid
¿Qué se esconde detrás de el término Smart Grid? ¿Qué es una Smart Grid? Aunque no existe una definición única podemos decir que una Smart Grid sería, haciendo una traducción literal una red inteligente.
Sin embargo, este concepto queda demasiado difuso y poco claro ya que puede aplicarse casi a cualquier ámbito.
Si introducimos el término en Google Trends, veremos que es un concepto del que no se ha empezado a hablar hasta el año 2009, principalmente en algunos paises asiáticos y USA. España no aparece aunque el idioma español aparece en un 10 puesto.
Desde mi punto de vista, si se ha empezado a hablar de forma generalizada del término Smart Grid ha sido por la creciente necesidad de mejorar la inteligencia de la red eléctrica. Con la creciente incorporación de las energías renovables al sistema energético a nivel mundial y la necesidad de que la producción de energía sea sostenible, está cada vez más claro que las redes eléctricas actuales no están preparadas para una utilización eficiente de la energía.
Si tuvieramos que caracterizar las redes de distribución de energía, lo que podría decirse es que su principal carencia en la actualidad es que sólo permiten una comunicación unidireccional tanto de los flujos de energía (desde productor a consumidor) como de datos (de consumidor a productor).
¿Qué quiere decir esto? Por un lado, la energía sólo fluye desde el lugar en que se produce (que tradicionalmente estaba localizado en puntos muy concretos donde se ubican las centrales de generación) hasta el consumidor. En los últimos años se han multiplicado las fuentes y los puntos de generación eléctrica, de los que en térmimos absolutos existe poca información. No obstante, en los últimos años se ha avanzado de manera importante en el control de la producción de energías renovables (recomendable ver web REE).
Por otra parte, existe muy poca información desagregada de cual es la demanda de energía de los consumidores en tiempo real. Dicho de otra forma, el operador del sistema tiene pocos datos para conocer cuales es la demanda de cada usuario en particular y cual es la aportación de energía de todas las fuentes de energía distribuida (fotovoltáica, termosolar, etc).
Mediante el despliegue de Smart Grids será posible un intercambio de información en tiempo real entre Utilities, Operadores, Comercializadoras y Usuarios, de tal forma que se haga posible entre otras muchas alternativas:
- Mejorar el conocimiento de la demanda real de energía en tiempo real.
- Conocer la energía generada de forma distribuida como producción y no como minoración de consumo.
- Ofrecer al consumidor información sobre su consumo detallado por franjas horarias.
- Ofrecer al consumidor tarifas eléctricas diferenciadas por franjas horarias.
- Mejora de la fiabilidad y calidad de la energía.
- Mejorar la seguridad de la red.
- Reducir el consumo energético por fuentes no renovables y más contaminntes al reducir la necesidad de generación en horas pico
Por tanto, no estamos delante de un simple concepto o red, sino de todo un universo de tecnologías que con el matrimonio de las TIC con la Energía, harán posible un cambio absolutamente dramático en cómo el hombre hace uso de la energía.
Una forma de organización de ese universo puede encontrarse en el documento del NIST "NIST Framework and Roadmap for Smart Grid Interoperability Standards, Release 1.0". En dicho documento se recogen 8 áreas prioritarias de trabajo:
En general, ocurrirá que los actores en un determinado dominio tendrán intereses y objetivos similares.
Clientes (Customers). Son los usuarios finales de la electricidad. También pueden generar, almacenar y gestionar el uso de la energía. Existen tres tipos básicos de clientes: residencial, empresarial e industrial.
Mercados (Markets). Son los operadores y los participantes en los mercados de la electricidad.
Proveedores de Servicios (Service Providers). Son las organizaciones que proporcionan servicios a los clientes eléctricos y las Utilities.
Operaciones (Operations). Los gestores del movimiento de la energía.
Productores (Bulk Generation). Son los que producen la engería al por mayor. También pueden almacenar la energía para distribuirla en diferido.
Transmisión (Transmission). Son los que transportan la energía al por mayor a lasgas distancias. También pueden almacenar y generar electricidad.
Distribución (Distribution). Son los que distribuyen la electricidad hacia y desde los clientes. También pueden almacenar y generar electricidad.
Si profundizamos un poco más dentro de este modelo conceptual de referencia, quizá podamos entender un poco más qué podemos encontrar dentro de cada dominio:
En este diagrama encontramos elementos que pueden ser más familiares:
- A nivel de usuario. Dentro del dominio de cliente, encontramos contadores (que deberán ser inteligentes, es decir, capaces de intercambiar información con la compañía suministradora y con el usuario), vehículo eléctrico, fuentes de generación distribuida (paneles solares, por ejemplo), electrodomésticos, termostatos, equipos de cliente, etc.
- A nivel de ingeniería de telecomunicaciones. Encontramos redes lan a nivel de subestación para la interconexión de dispositivos electrónicos inteligentes (IEDs), también encontramos redes LAN en los diferenets centros de operaciones para llevar los datos a los sistemas de adquisición de datos (SCADAs), redes WAN para interconexión de redes a larga distancia. A este nivel también vemos la conexión a través de internet entre el dominio del cliente, los proveedores de servicios y operaciones.
En próximos artículos desarrollaremos con mayor detalle diferentes dominios.
Sin embargo, este concepto queda demasiado difuso y poco claro ya que puede aplicarse casi a cualquier ámbito.
Si introducimos el término en Google Trends, veremos que es un concepto del que no se ha empezado a hablar hasta el año 2009, principalmente en algunos paises asiáticos y USA. España no aparece aunque el idioma español aparece en un 10 puesto.
Desde mi punto de vista, si se ha empezado a hablar de forma generalizada del término Smart Grid ha sido por la creciente necesidad de mejorar la inteligencia de la red eléctrica. Con la creciente incorporación de las energías renovables al sistema energético a nivel mundial y la necesidad de que la producción de energía sea sostenible, está cada vez más claro que las redes eléctricas actuales no están preparadas para una utilización eficiente de la energía.
Si tuvieramos que caracterizar las redes de distribución de energía, lo que podría decirse es que su principal carencia en la actualidad es que sólo permiten una comunicación unidireccional tanto de los flujos de energía (desde productor a consumidor) como de datos (de consumidor a productor).
¿Qué quiere decir esto? Por un lado, la energía sólo fluye desde el lugar en que se produce (que tradicionalmente estaba localizado en puntos muy concretos donde se ubican las centrales de generación) hasta el consumidor. En los últimos años se han multiplicado las fuentes y los puntos de generación eléctrica, de los que en térmimos absolutos existe poca información. No obstante, en los últimos años se ha avanzado de manera importante en el control de la producción de energías renovables (recomendable ver web REE).
Por otra parte, existe muy poca información desagregada de cual es la demanda de energía de los consumidores en tiempo real. Dicho de otra forma, el operador del sistema tiene pocos datos para conocer cuales es la demanda de cada usuario en particular y cual es la aportación de energía de todas las fuentes de energía distribuida (fotovoltáica, termosolar, etc).
Mediante el despliegue de Smart Grids será posible un intercambio de información en tiempo real entre Utilities, Operadores, Comercializadoras y Usuarios, de tal forma que se haga posible entre otras muchas alternativas:
- Mejorar el conocimiento de la demanda real de energía en tiempo real.
- Conocer la energía generada de forma distribuida como producción y no como minoración de consumo.
- Ofrecer al consumidor información sobre su consumo detallado por franjas horarias.
- Ofrecer al consumidor tarifas eléctricas diferenciadas por franjas horarias.
- Mejora de la fiabilidad y calidad de la energía.
- Mejorar la seguridad de la red.
- Reducir el consumo energético por fuentes no renovables y más contaminntes al reducir la necesidad de generación en horas pico
Por tanto, no estamos delante de un simple concepto o red, sino de todo un universo de tecnologías que con el matrimonio de las TIC con la Energía, harán posible un cambio absolutamente dramático en cómo el hombre hace uso de la energía.
Una forma de organización de ese universo puede encontrarse en el documento del NIST "NIST Framework and Roadmap for Smart Grid Interoperability Standards, Release 1.0". En dicho documento se recogen 8 áreas prioritarias de trabajo:
- Respuesta a la demana y Eficiencia Energética en el lado de cliente.
- Conciencia de la situación de la red global de transporte distribuida geográficamente (Wide Area situational Awareness).
- Almacenamiento de energía
- Transporte eléctrico.
- Infraestructura de medición avanzada.
- Gestión de la red de distribución.
- Ciberseguridad
- Red de comunicaciones.
En general, ocurrirá que los actores en un determinado dominio tendrán intereses y objetivos similares.
Clientes (Customers). Son los usuarios finales de la electricidad. También pueden generar, almacenar y gestionar el uso de la energía. Existen tres tipos básicos de clientes: residencial, empresarial e industrial.
Mercados (Markets). Son los operadores y los participantes en los mercados de la electricidad.
Proveedores de Servicios (Service Providers). Son las organizaciones que proporcionan servicios a los clientes eléctricos y las Utilities.
Operaciones (Operations). Los gestores del movimiento de la energía.
Productores (Bulk Generation). Son los que producen la engería al por mayor. También pueden almacenar la energía para distribuirla en diferido.
Transmisión (Transmission). Son los que transportan la energía al por mayor a lasgas distancias. También pueden almacenar y generar electricidad.
Distribución (Distribution). Son los que distribuyen la electricidad hacia y desde los clientes. También pueden almacenar y generar electricidad.
Si profundizamos un poco más dentro de este modelo conceptual de referencia, quizá podamos entender un poco más qué podemos encontrar dentro de cada dominio:
En este diagrama encontramos elementos que pueden ser más familiares:
- A nivel de usuario. Dentro del dominio de cliente, encontramos contadores (que deberán ser inteligentes, es decir, capaces de intercambiar información con la compañía suministradora y con el usuario), vehículo eléctrico, fuentes de generación distribuida (paneles solares, por ejemplo), electrodomésticos, termostatos, equipos de cliente, etc.
- A nivel de ingeniería de telecomunicaciones. Encontramos redes lan a nivel de subestación para la interconexión de dispositivos electrónicos inteligentes (IEDs), también encontramos redes LAN en los diferenets centros de operaciones para llevar los datos a los sistemas de adquisición de datos (SCADAs), redes WAN para interconexión de redes a larga distancia. A este nivel también vemos la conexión a través de internet entre el dominio del cliente, los proveedores de servicios y operaciones.
En próximos artículos desarrollaremos con mayor detalle diferentes dominios.
Etiquetas:
ahorro energético,
AMI,
energía,
NIST,
redes inteligentes,
smart grid
jueves, 30 de septiembre de 2010
Tendencias en Centros de Datos, Virtualización y Cloud Computing en España 2010
El pasado 23 de septiembre asistí al foro @aslan en el que se trataban diferentes temas asociados a centros de datos, virtualización y cloud computing.
Al final del evento se presentaron las conclusiones del estudio elaborado por @aslan y e-Quantium para conocer la opinión de los responsables TIC tanto del Sector Público como del Sector Privado sobre diferentes aspectos.
De todos ellos, el que más me llama la atención es el hecho de que mientras que la eficiencia energética, sólo aparece en el 1% de los casos en el sector privado, como tecnología con mayor ROI, el 55% de los encuestados considera en sus decisiones la eficiencia energética como un factor importante en la toma de decisiones de inversión.
Desde mi punto de vista, esto significa que por ahora, la eficiencia energética se utiliza como medio para justificar inversiones en virtualización y colud computing, en las que se persiguen otros objetivos. Esto también puede tener en común un objetivo de ahorro de costes que viene tanto del lado de las operaciones que se realizan de forma más optimizada con tecnologías de virtualización, como del lado de los costes energéticos que pueden reducirse a medida que nuestro CPD presenta mayores ratios de virtualización.
Puedes acceder al informe completo, pulsando aqui.
Al final del evento se presentaron las conclusiones del estudio elaborado por @aslan y e-Quantium para conocer la opinión de los responsables TIC tanto del Sector Público como del Sector Privado sobre diferentes aspectos.
De todos ellos, el que más me llama la atención es el hecho de que mientras que la eficiencia energética, sólo aparece en el 1% de los casos en el sector privado, como tecnología con mayor ROI, el 55% de los encuestados considera en sus decisiones la eficiencia energética como un factor importante en la toma de decisiones de inversión.
Desde mi punto de vista, esto significa que por ahora, la eficiencia energética se utiliza como medio para justificar inversiones en virtualización y colud computing, en las que se persiguen otros objetivos. Esto también puede tener en común un objetivo de ahorro de costes que viene tanto del lado de las operaciones que se realizan de forma más optimizada con tecnologías de virtualización, como del lado de los costes energéticos que pueden reducirse a medida que nuestro CPD presenta mayores ratios de virtualización.
Puedes acceder al informe completo, pulsando aqui.
Etiquetas:
cloud computing,
Eficiencia,
virtualización
miércoles, 25 de agosto de 2010
El fin de las tarifas planas?
He visto hoy que en diferentes medios se hace referencia al final de las tarifas planas de datos, lo que sin duda marca el inicio de los ríos de tinta (en esta era digital ríos de caracteres) que se escribirán sobre este tema en los próximos meses.
El debate empieza después de una década en la que las tarifas planas de datos, primero de acceso fijo y desde hace algunos meses de acceso móvil, han permitido multiplicar el número de usuarios que accede a la red en busca de todo tipo de contenidos y por tanto hacer posible el desarrollo de la sociedad de la información.
Las tarifas planas han permitido universalizar un servicio que hace menos de 10 años era desconocido para la gran mayoría de usuarios actuales. En todo este tiempo hemos asistido a un crecimiento exponencial de negocios y contenidos que no hubieran sido posible sin ese espectacular aumento de "espectadores". Esto ha hecho incluso que cambiemos nuestros hábitos, pasando por ejemplo, de leer prensa escrita a leer publicaciones digitales casi de la misma forma (en cualquier sitio y casi en el mismo formato con la aparición de los notebooks e iPads diversos), o que hayamos pasado de oir la radio y ver la televisión a ver la radio y la televisión en formato 2.0 y casi a medida. En sólo 10 años hemos pasado de tener redes públicas (las de los operadores) de juguete, a tener redes de una capacidad muy importante con un nivel de ocupación alto y de saturación creciente.
La última vuelta de tuerca se le ha dado con la explosión del acceso móvil, que sólo ha despegado, al igual que para el acceso fijo, cuando los operadores han pasado a ofrecer tarifas planas y un acceso de banda ancha. En este repunte en el consumo de datos móviles también han jugado un papel determinante los terminales, pero que sin un acceso a la red económicamente atractivo, se quedan en teléfonos-tamagochis.
Cuando en otras ocasiones he hablado de que los operadores tienen que cambiar el modelo de negocio, la última opción que se me ocurriría, sería la de eliminar las tarifas planas. Si bien es cierto que la rentabilidad de este tipo de tarifa para los operadores no está suficientemente clara, lo de cambiar tarifas para subir ingresos sería una medida menos popular que una subida de impuestos.
Tampoco estoy a favor de tarifas de red que sean proporcionales al tipo de contenido y que irían en contra de la tan referida neutralidad de la red. Entonces, qué opciones son planteables?
Contenidos de pago
Si bien es cierto que la mayoría de contenidos han sido gratuitos durante mucho tiempo, no parece sostenible que todo sea gratis gracias a la publicidad. La publicidad no es un recurso infinito, sino que supone ingresos variables que no garantizan el cubrir los costes de producción de los contenidos. Es un planteamiento simple, pero quién se iría a trabajar a una empresa que ofrece servicios gratuitos y que se financia sólo con ingresos publicitarios? (y no me refiero a radio y televisión).
Si los contenidos de pago aumentan, las audiencias disminuirán y por tanto la congestión de la red también lo hará, lo que diferirá las inversiones necesarias para aumentar la capacidad. A que pensábamos que no son necesarias inversiones? Claro como van por el aire o bajo tierra, parece que todo es software (que también tiene que desarrollarse, dicho sea de paso).Una red de comunicaciones es como una red de transporte por carreteras, lo que pasa que no es tan visible, pero plantea las mismas problemáticas en cuanto a mantenimiento y ampliación.
El problema es que en esto de los contenidos, los operadores no están presentes y, aunque algunos han planteado propuestas simples de estar, la realidad es que no es su negocio, que no es otro que transportar la información por redes de telecomunicación.
Tarifas planas "estáticas"
Desde que me di de alta en mi tarifa plana, creo que esta no ha dejado de crecer en ancho de banda, aunque no lo necesitara y aunque no lo solicitara. Es como si Iberdrola, en mi casa, me dejara cada vez consumir cada vez, mas KWh por el mismo dinero. O como si el Canal de Isabel II, el año que los embalses están hasta arriba, nos dejara consumir el agua en tarifa plana. Simplemente es irracional e insostenible.
Por qué ha ocurrido esto con los operadores? Pues sencillamente, porque existía una gran capacidad excedentaria en las redes de comunicaciones y la competencia lo hacía. Ahora la situación es bien diferente, existen millones de usuarios que realizan un consumo de datos elevado, no sólo en casa, sino también en la calle, en cualquier lugar.
Por tanto, tarifas planas sí, pero ajustadas a las necesidades de los usuarios. Si con 1 Mb de ancho de banda tengo suficiente para mi uso a 10 €/mes, porqué tener 6 Mb, 10 Mb o 25 Mb a 25 €/mes. Esta es la única vía que han seguido los operadores para aumentar ingresos, más euros por mas canuto. A partir de ahora tendrán que replantearse esta cuestión: ¿Cuanto aumento el precio para dar más ancho de banda? Y por qué no, cuanto bajo el precio, por dar menos ancho de banda? Claro es que la mayoría de usuarios entienden que cuantos más megas mejor, aunque no lo necesiten, pero no es razonable.
Tarifas aplanadas y Smart Grids
Como recurso adicional, también estoy a favor de las tarifas aplanadas, sobre todo para el caso del móvil. Me refiero a las tarifas que cuando llegas a un volumen determinado, te bajan la velocidad. El usuario, puede disfrutar de un servicio que sabe que no le dará disgustos a la hora de recibir la factura y también puede encontrar la tarifa que más se ajuste a sus hábitos.
Ejemplos: Tarifa 1 Gb por 10 €/mes, 2 Gb por 18 €/mes después bajada de velocidad. O pago por tráfico a un coste razonable 3 cent/Mb.
Otra variante muy interesante sería la de aplanar las curvas de demanda, que a diferencia del sector energético, es más factible a corto plazo ya que sería una cuestión que sólo depende de las Tecnologías de la Información. En el sector energético, implementar mecanismos de eficiencia es más complicado al tener que casar a Utilities y TI.
Haciendo uso del concepto Smart Grid, me estoy refiriendo a permitir que los usuarios hagan uso de la red en horas valle sin restricción, como por ejemplo por la noche. Creo que es relativamente fácil, implementar mecanismos que permitan al operador, comunicarse con los dispositivos y aplicaciones del usuario para indicarles en qué momentos pueden utilizar sus redes en condiciones ventajosas, permitiendo así hacer uso de los recursos de red en los momentos en los que la ocupación es menor. Para ello solo es necesario implementar las aplicaciones y funcionalidades necesarias y que los usuarios puedan programar sus equipos y aplicaciones para utilizar la red en dichos momentos (ej: envíos de correos electrónicos, descarga de contenidos, etc).
En conclusión, está claro que deben cambiar algunas cosas para hacer posible un crecimiento sostenible de las redes que permita rentabilizar las inversiones necesarias y que faciliten un consumo racional de las redes. Eliminar las tarifas planas sería el mayor de los errores y el mayor de los ataques al progreso de la sociedad de la información. Hay muchas otras vías sólo hace falta un poco de creatividad e iniciativa.
El debate empieza después de una década en la que las tarifas planas de datos, primero de acceso fijo y desde hace algunos meses de acceso móvil, han permitido multiplicar el número de usuarios que accede a la red en busca de todo tipo de contenidos y por tanto hacer posible el desarrollo de la sociedad de la información.
Las tarifas planas han permitido universalizar un servicio que hace menos de 10 años era desconocido para la gran mayoría de usuarios actuales. En todo este tiempo hemos asistido a un crecimiento exponencial de negocios y contenidos que no hubieran sido posible sin ese espectacular aumento de "espectadores". Esto ha hecho incluso que cambiemos nuestros hábitos, pasando por ejemplo, de leer prensa escrita a leer publicaciones digitales casi de la misma forma (en cualquier sitio y casi en el mismo formato con la aparición de los notebooks e iPads diversos), o que hayamos pasado de oir la radio y ver la televisión a ver la radio y la televisión en formato 2.0 y casi a medida. En sólo 10 años hemos pasado de tener redes públicas (las de los operadores) de juguete, a tener redes de una capacidad muy importante con un nivel de ocupación alto y de saturación creciente.
La última vuelta de tuerca se le ha dado con la explosión del acceso móvil, que sólo ha despegado, al igual que para el acceso fijo, cuando los operadores han pasado a ofrecer tarifas planas y un acceso de banda ancha. En este repunte en el consumo de datos móviles también han jugado un papel determinante los terminales, pero que sin un acceso a la red económicamente atractivo, se quedan en teléfonos-tamagochis.
Cuando en otras ocasiones he hablado de que los operadores tienen que cambiar el modelo de negocio, la última opción que se me ocurriría, sería la de eliminar las tarifas planas. Si bien es cierto que la rentabilidad de este tipo de tarifa para los operadores no está suficientemente clara, lo de cambiar tarifas para subir ingresos sería una medida menos popular que una subida de impuestos.
Tampoco estoy a favor de tarifas de red que sean proporcionales al tipo de contenido y que irían en contra de la tan referida neutralidad de la red. Entonces, qué opciones son planteables?
Contenidos de pago
Si bien es cierto que la mayoría de contenidos han sido gratuitos durante mucho tiempo, no parece sostenible que todo sea gratis gracias a la publicidad. La publicidad no es un recurso infinito, sino que supone ingresos variables que no garantizan el cubrir los costes de producción de los contenidos. Es un planteamiento simple, pero quién se iría a trabajar a una empresa que ofrece servicios gratuitos y que se financia sólo con ingresos publicitarios? (y no me refiero a radio y televisión).
Si los contenidos de pago aumentan, las audiencias disminuirán y por tanto la congestión de la red también lo hará, lo que diferirá las inversiones necesarias para aumentar la capacidad. A que pensábamos que no son necesarias inversiones? Claro como van por el aire o bajo tierra, parece que todo es software (que también tiene que desarrollarse, dicho sea de paso).Una red de comunicaciones es como una red de transporte por carreteras, lo que pasa que no es tan visible, pero plantea las mismas problemáticas en cuanto a mantenimiento y ampliación.
El problema es que en esto de los contenidos, los operadores no están presentes y, aunque algunos han planteado propuestas simples de estar, la realidad es que no es su negocio, que no es otro que transportar la información por redes de telecomunicación.
Tarifas planas "estáticas"
Desde que me di de alta en mi tarifa plana, creo que esta no ha dejado de crecer en ancho de banda, aunque no lo necesitara y aunque no lo solicitara. Es como si Iberdrola, en mi casa, me dejara cada vez consumir cada vez, mas KWh por el mismo dinero. O como si el Canal de Isabel II, el año que los embalses están hasta arriba, nos dejara consumir el agua en tarifa plana. Simplemente es irracional e insostenible.
Por qué ha ocurrido esto con los operadores? Pues sencillamente, porque existía una gran capacidad excedentaria en las redes de comunicaciones y la competencia lo hacía. Ahora la situación es bien diferente, existen millones de usuarios que realizan un consumo de datos elevado, no sólo en casa, sino también en la calle, en cualquier lugar.
Por tanto, tarifas planas sí, pero ajustadas a las necesidades de los usuarios. Si con 1 Mb de ancho de banda tengo suficiente para mi uso a 10 €/mes, porqué tener 6 Mb, 10 Mb o 25 Mb a 25 €/mes. Esta es la única vía que han seguido los operadores para aumentar ingresos, más euros por mas canuto. A partir de ahora tendrán que replantearse esta cuestión: ¿Cuanto aumento el precio para dar más ancho de banda? Y por qué no, cuanto bajo el precio, por dar menos ancho de banda? Claro es que la mayoría de usuarios entienden que cuantos más megas mejor, aunque no lo necesiten, pero no es razonable.
Tarifas aplanadas y Smart Grids
Como recurso adicional, también estoy a favor de las tarifas aplanadas, sobre todo para el caso del móvil. Me refiero a las tarifas que cuando llegas a un volumen determinado, te bajan la velocidad. El usuario, puede disfrutar de un servicio que sabe que no le dará disgustos a la hora de recibir la factura y también puede encontrar la tarifa que más se ajuste a sus hábitos.
Ejemplos: Tarifa 1 Gb por 10 €/mes, 2 Gb por 18 €/mes después bajada de velocidad. O pago por tráfico a un coste razonable 3 cent/Mb.
Otra variante muy interesante sería la de aplanar las curvas de demanda, que a diferencia del sector energético, es más factible a corto plazo ya que sería una cuestión que sólo depende de las Tecnologías de la Información. En el sector energético, implementar mecanismos de eficiencia es más complicado al tener que casar a Utilities y TI.
Haciendo uso del concepto Smart Grid, me estoy refiriendo a permitir que los usuarios hagan uso de la red en horas valle sin restricción, como por ejemplo por la noche. Creo que es relativamente fácil, implementar mecanismos que permitan al operador, comunicarse con los dispositivos y aplicaciones del usuario para indicarles en qué momentos pueden utilizar sus redes en condiciones ventajosas, permitiendo así hacer uso de los recursos de red en los momentos en los que la ocupación es menor. Para ello solo es necesario implementar las aplicaciones y funcionalidades necesarias y que los usuarios puedan programar sus equipos y aplicaciones para utilizar la red en dichos momentos (ej: envíos de correos electrónicos, descarga de contenidos, etc).
En conclusión, está claro que deben cambiar algunas cosas para hacer posible un crecimiento sostenible de las redes que permita rentabilizar las inversiones necesarias y que faciliten un consumo racional de las redes. Eliminar las tarifas planas sería el mayor de los errores y el mayor de los ataques al progreso de la sociedad de la información. Hay muchas otras vías sólo hace falta un poco de creatividad e iniciativa.
Etiquetas:
banda ancha,
Eficiencia,
neutralidad,
operador,
smart grid,
tarifa plana
miércoles, 18 de agosto de 2010
Green ITC: menos CO2 y menores costes
Siguiendo con mi revisión de correos postveraniega, he encontrado un artículo sobre el tema de Green IT, que no tiene desperdicio, publicado en Network World y que va totalmente en la línea de mejorar la toma de conciencia sobre el consumo energético a la que hacía referencia en mi anterior artículo.
El artículo es bastante largo, pero como digo no tiene desperdicio. Hay muchos e interesantes datos que llaman la atención sobre la importancia del tema.
Según Gartner en 2007 el sector TIC conribuyó en un 2% al total de emisiones de CO2 y su crecimiento será del 6% anual hasta 2020, lo que hace que los 500 millones de toneladas de CO2 de 2008 lleguen a 1.430 millones de 2020. Yo no entiendo de CO2 pero parece una cantidad bastante importante aunque sólo hablemos del 2%. Sólo con estas cifras podemos justificar que GreenIT sea una de las prioridades del I+D, pero veremos más adelante que también existen poderosas razones económicas.
Si concretamos esto para los paises del G-20, con la aplicación de buenas prácticas de GreenIT se podrían eliminar en los próximos 10 años hasta 5,8 millones de toneladas.
Si hablamos de costes, según Gartner, aplicando algunas buenas prácticas en materia de refrigeración y ventilación, alimentación de potencia y luz, entre otras, se podrían llegar a reducir a la mitad los costes en el consumo energético del CPD.
Si concretamos esto con los datos de mi anterior artículo, el ahorro que Arsys podría alcanzar sería de 1,037 Millones de € anuales, lo que llevado a las 40 empresas que tienen CPDs similares supondría un ahorro en términos económicos de 41,5 Millones de € anuales.
No en vano, continua el artículo, una empresa con una estrategia GreenIT agresiva pagaría 435.000 € anuales por la electricidad de su CPD de 500 KW, mientras que con el uso de prácticas tradicionales su factura se iría por encima de 1 Millón de €. Según Gartner, en un CPD convencional entre el 35 y el 50% del consumo se va en refrigeración que aplicando buenas prácticas de GreenIT se reduciría al 15%.
A la vista de estas cifras aparecen poderosos argumentos para tomar conciencia de la importancia de GreenIT y los beneficios que puede aportar. Es cierto que hay un largo camino por recorrer, pero muchas empresas se están poniendo en marcha aplicando diferentes iniciativas, que a corto plazo se centrarán, en la aplicación de medidas que permitan un mayor ahorro de costes para llegar a medidas de mayor ajuste fino a medida de que la regulación a nivel ambiental vaya endureciéndose.
También llama la atención el hecho de que la importancia que las empresas dan al factor de reducción de energía, está en su nivel más alto desde 2005, con el 80% de las empresas dispuestas a disminuir la factura de la energía cuyo coste sigue creciendo (todos lo sufrimos en nuestras casas). En España los costes han aumentado desde 2002 un 5.5% anual.
El consumo de energía eléctrica se ha convertido en un coste preocupante, lo que según IDC justifica que el interés inicial hacia GreenIT esté motivado por criterios de rentabilidad económica. De hecho entre 2006 y 2007 la energía requerida por los CPDs creció un 13%. Sólo en 2009 en Europa Occidental, los servidores consumieron más de 16,3 TWh (la cantidad de energía necesaria para encender las farolas y semáforos de todo Reino Unido durante 2 años). En cuanto a los CPDs superaron los 40 TWh. Además para 2012 IDC estima que por cada € invertido en nuevos servidores, el 80% se destine a suministrar electricidad para la infraestructura existente.
Aparte de la cuestión económica y medioambiental, existen ventajas adicionales en la aplicación de las prácticas de GreenIT:
- Ahorro de espacio en el CPD que puede alcanzar hasta el 80%.
- Mayor nivel de utilización de los recursos, multiplicando la utilización de los servidores.
- Mejora del tiempo de recuperación ante desastres hasta un 85%.
Hablando de virtualización, según Carlos Clerencia de Intel un CPD equipado con 184 servidores de un núcleo de 4 años de antigüedad, podría ofrecer el mismo rendimiento con 21 servidores con procesador Intel Xeon 5500, lo que supone un ratio de consolidación de 9:1 que se rentabiliza en 8 meses, reduciendo el espacio físico un 89% y el consumo energético un 92%.
Con relación a la utilización de recursos se indica que hasta un 82% de los recursos instalados (servidores, almacenamiento, redes) solo utilizan un 10% de su capacidad, mientras que al virtualizar se pasa a ocupaciones entre el 30 y el 60%.
El artículo, también mencionan otros campos en los que se están produciendo avances en línea de mejorar la eficiencia energética y la reducción de las emisiones como son las redes "verdes" de comunicaciones, las ciudades inteligentes basadas en Smart Grids, Telecomunicaciones "sostenibles" y los beneficios de la fibra óptica.
En definitiva, GreenIT o GreenITC supone la reducción de las emisiones de CO2 y de los costes energéticos mediante la aplicación de diferentes buenas prácticas, que sin ser exhaustivos podemos enumerar en:
Por último, mencionar que el concepto de GreenIT es tan sólo la punta del iceberg del abanico de posibilidades que permitirá mejorar la eficiencia energética y la sostenibilidad a nivel mundial, con el progresivo desarrollo de las Smart Grids que harán posible las ciudades inteligentes mencionadas en el artículo.
El artículo es bastante largo, pero como digo no tiene desperdicio. Hay muchos e interesantes datos que llaman la atención sobre la importancia del tema.
Según Gartner en 2007 el sector TIC conribuyó en un 2% al total de emisiones de CO2 y su crecimiento será del 6% anual hasta 2020, lo que hace que los 500 millones de toneladas de CO2 de 2008 lleguen a 1.430 millones de 2020. Yo no entiendo de CO2 pero parece una cantidad bastante importante aunque sólo hablemos del 2%. Sólo con estas cifras podemos justificar que GreenIT sea una de las prioridades del I+D, pero veremos más adelante que también existen poderosas razones económicas.
Si concretamos esto para los paises del G-20, con la aplicación de buenas prácticas de GreenIT se podrían eliminar en los próximos 10 años hasta 5,8 millones de toneladas.
Si hablamos de costes, según Gartner, aplicando algunas buenas prácticas en materia de refrigeración y ventilación, alimentación de potencia y luz, entre otras, se podrían llegar a reducir a la mitad los costes en el consumo energético del CPD.
Si concretamos esto con los datos de mi anterior artículo, el ahorro que Arsys podría alcanzar sería de 1,037 Millones de € anuales, lo que llevado a las 40 empresas que tienen CPDs similares supondría un ahorro en términos económicos de 41,5 Millones de € anuales.
No en vano, continua el artículo, una empresa con una estrategia GreenIT agresiva pagaría 435.000 € anuales por la electricidad de su CPD de 500 KW, mientras que con el uso de prácticas tradicionales su factura se iría por encima de 1 Millón de €. Según Gartner, en un CPD convencional entre el 35 y el 50% del consumo se va en refrigeración que aplicando buenas prácticas de GreenIT se reduciría al 15%.
A la vista de estas cifras aparecen poderosos argumentos para tomar conciencia de la importancia de GreenIT y los beneficios que puede aportar. Es cierto que hay un largo camino por recorrer, pero muchas empresas se están poniendo en marcha aplicando diferentes iniciativas, que a corto plazo se centrarán, en la aplicación de medidas que permitan un mayor ahorro de costes para llegar a medidas de mayor ajuste fino a medida de que la regulación a nivel ambiental vaya endureciéndose.
También llama la atención el hecho de que la importancia que las empresas dan al factor de reducción de energía, está en su nivel más alto desde 2005, con el 80% de las empresas dispuestas a disminuir la factura de la energía cuyo coste sigue creciendo (todos lo sufrimos en nuestras casas). En España los costes han aumentado desde 2002 un 5.5% anual.
El consumo de energía eléctrica se ha convertido en un coste preocupante, lo que según IDC justifica que el interés inicial hacia GreenIT esté motivado por criterios de rentabilidad económica. De hecho entre 2006 y 2007 la energía requerida por los CPDs creció un 13%. Sólo en 2009 en Europa Occidental, los servidores consumieron más de 16,3 TWh (la cantidad de energía necesaria para encender las farolas y semáforos de todo Reino Unido durante 2 años). En cuanto a los CPDs superaron los 40 TWh. Además para 2012 IDC estima que por cada € invertido en nuevos servidores, el 80% se destine a suministrar electricidad para la infraestructura existente.
Aparte de la cuestión económica y medioambiental, existen ventajas adicionales en la aplicación de las prácticas de GreenIT:
- Ahorro de espacio en el CPD que puede alcanzar hasta el 80%.
- Mayor nivel de utilización de los recursos, multiplicando la utilización de los servidores.
- Mejora del tiempo de recuperación ante desastres hasta un 85%.
Hablando de virtualización, según Carlos Clerencia de Intel un CPD equipado con 184 servidores de un núcleo de 4 años de antigüedad, podría ofrecer el mismo rendimiento con 21 servidores con procesador Intel Xeon 5500, lo que supone un ratio de consolidación de 9:1 que se rentabiliza en 8 meses, reduciendo el espacio físico un 89% y el consumo energético un 92%.
Con relación a la utilización de recursos se indica que hasta un 82% de los recursos instalados (servidores, almacenamiento, redes) solo utilizan un 10% de su capacidad, mientras que al virtualizar se pasa a ocupaciones entre el 30 y el 60%.
El artículo, también mencionan otros campos en los que se están produciendo avances en línea de mejorar la eficiencia energética y la reducción de las emisiones como son las redes "verdes" de comunicaciones, las ciudades inteligentes basadas en Smart Grids, Telecomunicaciones "sostenibles" y los beneficios de la fibra óptica.
En definitiva, GreenIT o GreenITC supone la reducción de las emisiones de CO2 y de los costes energéticos mediante la aplicación de diferentes buenas prácticas, que sin ser exhaustivos podemos enumerar en:
- Mejoras en la Refrigeración de los CPDs.
- Implementación de tecnologías de virtualización para consolidación de servidores.
- Utilización de equipos de red switches/routers de menor consumo energético (alimentación, Green Ethernet..), en el entorno corporativo y de usuario final.
- Utilización de equipos de comunicaciones de menor consumo energético en el entorno de los operadores de telecomunicación.
- Utilización de tecnologías que permiten multiplicar la eficiencia como: comunicaciones unificadas, videconferencia, telepresencia...
Por último, mencionar que el concepto de GreenIT es tan sólo la punta del iceberg del abanico de posibilidades que permitirá mejorar la eficiencia energética y la sostenibilidad a nivel mundial, con el progresivo desarrollo de las Smart Grids que harán posible las ciudades inteligentes mencionadas en el artículo.
Etiquetas:
ahorro energético,
Eficiencia,
green IT,
green ITC
lunes, 16 de agosto de 2010
Consumo energético: no sólo es importante el CO2
Recién incorporado de mis vacaciones, revisando los correos que tenía atrasados, he visto una noticia que me ha llamado la atención de forma especial. Arsys ha reducido el consumo de su CPD en un 20%. Esto sin duda es una buena noticia y no es la primera de este tipo ni será la última.
Lo que llama mi atención sobre el enfoque de la noticia, es que se centra únicamente en el hecho de potenciar el desarrollo de la tecnología de virtualización (cloud computing) y de que dicho ahorro permite evitar la emisión de varias toneladas de CO2 al mes para generar esa electricidad.
Creo que debemos mejorar y mucho, la toma de conciencia de que la producción de energía no es tan sólo una cuestión de emisión de CO2, que lo es, sino una mera cuestión racional que debería llevarnos a pensar que, si es posible hacer más con menos, no hacer nada es simplemente irracional y absurdo, por no decir antieconómico amén de muchos otros calificativos. Por qué dejar el grifo de agua abierto, sólo por el hecho de que tenemos el suministro? Acaso es ilimitado? Es sólo para mí o también para los demás? Por qué si tenemos una fuga de agua y la reparamos, no vamos a hacer lo mismo con la energía?
Las tecnologías para hacer posible la mejora de la eficiencia existen y siguen en constante desarrollo, sólo tenemos que hacer uso de ellas para optimizar nuestros recursos. Para contribuir a esa mejora de nuestra conciencia sobre el tema, a esta noticia le hubiera le hubiera añadido algunos datos como estos:
- La reducción del consumo del CPD de Arsys en 300.000 KWh mensuales supondrá un ahorro de más de 34.500 € al mes, lo que supone algo más de 415.000 € anuales y la no emisión de varios cientos de toneladas de CO2.
- Teniendo en cuenta que en España, hay aproximadamente 40 CPDs similares (ver la II Guía de CPDs en España 2010 de Redes&Telecom del mes de Junio 2010), una medida similar en todos ellos supondría un ahorro de más de 16 Millones de €, que actualmente se gastan de forma ineficiente.
En definitiva, creo que es posible que todos entendamos mejor que el tema de la eficiencia energética no es sólo una cuestión de desarrollar algunos negocios, sino de una cuestión racional en donde no sólo importan las toneladas de CO2, sino que va mucho más allá. Esperemos que más pronto que tarde, todos empecemos a tener una mayor conciencia sobre ello.
Lo que llama mi atención sobre el enfoque de la noticia, es que se centra únicamente en el hecho de potenciar el desarrollo de la tecnología de virtualización (cloud computing) y de que dicho ahorro permite evitar la emisión de varias toneladas de CO2 al mes para generar esa electricidad.
Creo que debemos mejorar y mucho, la toma de conciencia de que la producción de energía no es tan sólo una cuestión de emisión de CO2, que lo es, sino una mera cuestión racional que debería llevarnos a pensar que, si es posible hacer más con menos, no hacer nada es simplemente irracional y absurdo, por no decir antieconómico amén de muchos otros calificativos. Por qué dejar el grifo de agua abierto, sólo por el hecho de que tenemos el suministro? Acaso es ilimitado? Es sólo para mí o también para los demás? Por qué si tenemos una fuga de agua y la reparamos, no vamos a hacer lo mismo con la energía?
Las tecnologías para hacer posible la mejora de la eficiencia existen y siguen en constante desarrollo, sólo tenemos que hacer uso de ellas para optimizar nuestros recursos. Para contribuir a esa mejora de nuestra conciencia sobre el tema, a esta noticia le hubiera le hubiera añadido algunos datos como estos:
- La reducción del consumo del CPD de Arsys en 300.000 KWh mensuales supondrá un ahorro de más de 34.500 € al mes, lo que supone algo más de 415.000 € anuales y la no emisión de varios cientos de toneladas de CO2.
- Teniendo en cuenta que en España, hay aproximadamente 40 CPDs similares (ver la II Guía de CPDs en España 2010 de Redes&Telecom del mes de Junio 2010), una medida similar en todos ellos supondría un ahorro de más de 16 Millones de €, que actualmente se gastan de forma ineficiente.
En definitiva, creo que es posible que todos entendamos mejor que el tema de la eficiencia energética no es sólo una cuestión de desarrollar algunos negocios, sino de una cuestión racional en donde no sólo importan las toneladas de CO2, sino que va mucho más allá. Esperemos que más pronto que tarde, todos empecemos a tener una mayor conciencia sobre ello.
Etiquetas:
Eficiencia,
energía,
smart grid
viernes, 4 de junio de 2010
Planazo para quién?
Soy cliente de Movistar y en primer lugar me gustaría felicitar a los responsables de Marketing de Telefónica ya que con sus ofertas se las ingenian para que siga pagando lo mismo o incluso más, creyendo que cuando contraté un planazo sin horarios, iba a pagar menos.
Claro, al contratar por 29,90 € todas las llamadas incluidas en cualquier horario, el primer detalle es el IVA que te deja el precio en 34,68 € al mes. Pues desde que lo contraté, el mes que menos he pagado han sido 43 € y el que más 67 €.
Cuando recibo las facturas se me queda cara de tonto, ya que todos los meses hay alguna sorpresa y aunque llevo en este sector bastantes años, tengo la sensación de sentirme engañado. Sin embargo, cuando miras la factura ves que todo está detallado y que si pagas más es porque te has pasado.
Hay varias cosas que no me gustan del planazo:
- Aunque el máximo de tiempo que podría disfrutar de llamadas es de 600 minutos (20 min diarios X 30 días), lo cierto es que ningún mes supero dicho consumo, pero como la limitación es diaria, en el momento que te pasas de los 20 minutos, a pasar por caja. El mes que pagué 67 € realicé poco más de 8 horas de llamadas (2 menos que el límite máximo teórico).
- Otra sorpresa son los SMS que no están incluidos, por lo que es un coste a añadir a la factura de entre 3 y 4 €.
Pero sin lugar a dudas, lo que más me repatea es que la mayor parte de los SMS que te envian para indicarte que te has pasado de los 20 minutos diarios, suele llegarte (qué casualidad), después de que te has pasado llamando y ya no puedes hacer nada con el mensaje informativo. Es más si leemos atentamente el mensaje dice: " Movistar info: ha alcanzado los 20 minutos gratis del día. Precio siguentes llamadas hoy 0,18 €/min + 0,15 € establecimiento de llamada o según módulos de ahorro contratados". Bueno lo de gratis se refiere a los 35 € que se pagan al mes.
Según esto, lo que voy a hacer es reclamar a Movistar que me abone todas las llamadas que haya realizado con cargo antes de recibir este SMS, porque el SMS lo dice bien clarito, precio de las siguientes llamadas. Sé que me va a costar más tiempo revisarlo que lo que me van a abonar, pero es una cuestión de fuero más que de huevo. Ya os contaré cómo me ha ido.
Desde luego el planazo, está claro que es para Movistar porque lo que es para mí...
Claro, al contratar por 29,90 € todas las llamadas incluidas en cualquier horario, el primer detalle es el IVA que te deja el precio en 34,68 € al mes. Pues desde que lo contraté, el mes que menos he pagado han sido 43 € y el que más 67 €.
Cuando recibo las facturas se me queda cara de tonto, ya que todos los meses hay alguna sorpresa y aunque llevo en este sector bastantes años, tengo la sensación de sentirme engañado. Sin embargo, cuando miras la factura ves que todo está detallado y que si pagas más es porque te has pasado.
Hay varias cosas que no me gustan del planazo:
- Aunque el máximo de tiempo que podría disfrutar de llamadas es de 600 minutos (20 min diarios X 30 días), lo cierto es que ningún mes supero dicho consumo, pero como la limitación es diaria, en el momento que te pasas de los 20 minutos, a pasar por caja. El mes que pagué 67 € realicé poco más de 8 horas de llamadas (2 menos que el límite máximo teórico).
- Otra sorpresa son los SMS que no están incluidos, por lo que es un coste a añadir a la factura de entre 3 y 4 €.
Pero sin lugar a dudas, lo que más me repatea es que la mayor parte de los SMS que te envian para indicarte que te has pasado de los 20 minutos diarios, suele llegarte (qué casualidad), después de que te has pasado llamando y ya no puedes hacer nada con el mensaje informativo. Es más si leemos atentamente el mensaje dice: " Movistar info: ha alcanzado los 20 minutos gratis del día. Precio siguentes llamadas hoy 0,18 €/min + 0,15 € establecimiento de llamada o según módulos de ahorro contratados". Bueno lo de gratis se refiere a los 35 € que se pagan al mes.
Según esto, lo que voy a hacer es reclamar a Movistar que me abone todas las llamadas que haya realizado con cargo antes de recibir este SMS, porque el SMS lo dice bien clarito, precio de las siguientes llamadas. Sé que me va a costar más tiempo revisarlo que lo que me van a abonar, pero es una cuestión de fuero más que de huevo. Ya os contaré cómo me ha ido.
Desde luego el planazo, está claro que es para Movistar porque lo que es para mí...
Etiquetas:
Móvil,
Planes,
Tarifas,
Telefónica
viernes, 28 de mayo de 2010
Esto empieza a funcionar
Cuando a finales del año pasado afrontaba un cambio profesional con cierto desánimo, a día de hoy puedo afirmar que el cambio ha sido interesante y satisfactorio. Después de 4 meses de trabajo al frente del nuevo área del area de monitorización de servicios de TI dentro de mi organización empezamos a coger marcha. Ya tenemos 4 servicios gestionados. Aunque uno de ellos, el portal ya estaba monitorizado, hemos mejorado su seguimiento, incluyendo otros servicios y hemos obtenido los primeros resultados del trabajo realizado, detectando no sólo indisponibilidades sino incluso errores de código
Tambíen hemos añadido ya otros tres servicios críticos que nos permiten anticiparnos a las incidencias antes de que el usuario las reporte pudiendo informar proactivamente de cualquier incidencia detectada. Distribuimos informes periódicos a las diferentes áreas de la organización que permiten conocer la salud de los servicios y sobre todo su evolución.
En otro de los servicios que monitorizamos y que fue puesto en producción recientemente, nuestras observaciones y recomendaciones han servido para implementar mejoras que han permitido evolucionar el servicio a una velocidad a la que antes no estábamos habituados.
Ahora nos están lloviendo nuevas solicitudes dentro de la organización para poder ampliar nuestro perímetro de actuación a nuevos servicios, de tal forma que nuestro valor se extienda a todas las aplicaciones críticas.
Sin duda, estamos empezando a aportar a nuestra organización el valor estratégico de tener el control de nuestros servicios, motivo por el cual me siendo tremendamente satisfecho.
Tambíen hemos añadido ya otros tres servicios críticos que nos permiten anticiparnos a las incidencias antes de que el usuario las reporte pudiendo informar proactivamente de cualquier incidencia detectada. Distribuimos informes periódicos a las diferentes áreas de la organización que permiten conocer la salud de los servicios y sobre todo su evolución.
En otro de los servicios que monitorizamos y que fue puesto en producción recientemente, nuestras observaciones y recomendaciones han servido para implementar mejoras que han permitido evolucionar el servicio a una velocidad a la que antes no estábamos habituados.
Ahora nos están lloviendo nuevas solicitudes dentro de la organización para poder ampliar nuestro perímetro de actuación a nuevos servicios, de tal forma que nuestro valor se extienda a todas las aplicaciones críticas.
Sin duda, estamos empezando a aportar a nuestra organización el valor estratégico de tener el control de nuestros servicios, motivo por el cual me siendo tremendamente satisfecho.
Etiquetas:
disponibilidad,
monitorización,
portal,
servicio TI,
TIC
jueves, 20 de mayo de 2010
Buzzear mensajes con Google
Soy "usuario" de Google Buzz desde que se lanzó hace ya tres meses, porque ya utilizaba el correo de Gmail y porque ya utilizaba Twitter cuando Buzz fue lanzado. Despues de estos tres meses, todavía no le he encontrado ninguna utilidad salvo la de agregador de sitios y aún como agregador ofrece pocas posibilidades, ya que sólo te permite conectar otros productos de Google (blogspot, Reader, Picasa), Twitter, YouTube y Flickr.
Para que Buzz ofreciera más valor a un tipo de usuario como yo, además de poder conectarlo con Facebook, Tuenti y Linkedin (entre otros), implementaría alguna que otra funcionalidad relacionada con el correo. Me explico. Recibo habitualmente tres tipos de correos electrónicos:
Una posiblidad con estos correos es crear reglas para clasificar el correo y quitarlo de la carpeta de entrada. Esto es posible con la funcionalidad actual pero requiere su tiempo y ajuste fino. La otra opción que sería planteable sería buzzear los correos.
Todas las newsletter a las que uno está suscrito, mensajes con referencia a noticias, actualizaciones y similares, serían correos candidatos a ser transferidos a Buzz. De esta forma derivaríamos fuera de nuestra bandeja de entrada un tipo de mensajes que adquieren la categoría de información potencialmente valiosa que no genera ruido en nuestro inbox y que gozaría de una atención dentro de Buzz de la que no gozan siempre dentro de la bandeja de entrada.
Por esta vía Google podría encontrar la manera de acortar las distancias con Twitter y Facebook y de conseguir que muchos de sus usuarios de Gmail pudieran empezar a ser usuarios de Buzz.
Para que Buzz ofreciera más valor a un tipo de usuario como yo, además de poder conectarlo con Facebook, Tuenti y Linkedin (entre otros), implementaría alguna que otra funcionalidad relacionada con el correo. Me explico. Recibo habitualmente tres tipos de correos electrónicos:
- Aquellos que me interesa leer e incluso guardar.
- Otros correos que ni me interesa leer ni guardar (que filtra mi antispam en la mayoría de casos).
- Aquellos que pueden interesarme leer pero que si no los leo tampoco pasa nada.
Una posiblidad con estos correos es crear reglas para clasificar el correo y quitarlo de la carpeta de entrada. Esto es posible con la funcionalidad actual pero requiere su tiempo y ajuste fino. La otra opción que sería planteable sería buzzear los correos.
Todas las newsletter a las que uno está suscrito, mensajes con referencia a noticias, actualizaciones y similares, serían correos candidatos a ser transferidos a Buzz. De esta forma derivaríamos fuera de nuestra bandeja de entrada un tipo de mensajes que adquieren la categoría de información potencialmente valiosa que no genera ruido en nuestro inbox y que gozaría de una atención dentro de Buzz de la que no gozan siempre dentro de la bandeja de entrada.
Por esta vía Google podría encontrar la manera de acortar las distancias con Twitter y Facebook y de conseguir que muchos de sus usuarios de Gmail pudieran empezar a ser usuarios de Buzz.
Etiquetas:
Buzz,
Facebook,
Redes Sociales,
Twitter
lunes, 10 de mayo de 2010
El futuro de la red está aquí
Uno de los eslabones de la cadena que une a los usuarios con la red, es la última milla o lo que se conoce como el bucle local. Esta infraestructura de acceso a las redes públicas de datos, ha experimentado en la última década una explosión importante que ha popularizado el acceso a la red de banda ancha.
En en año 2000 fui testigo excepcional del lanzamiento de los diferentes servicios de France Telecom en España, entonces Uni2. Los servicios de datos de acceso a internet, fueron implementados mediante una red basada en acceso telefónico sobre el par de cobre que por medio de modems permitían acceder a la red a la "gran velocidad" de 128 Kbps mediante una RDSI con dos canales. Quién no se acuerda de los pitidos que hacían los modems al inicio de la conexión?
En la parte móvil, el acceso vía GPRS permitía velocidades inferiores que en la mayor parte de los casos daban soluciones de movilidad a ordenadores portátiles y no a teléfonos móviles como hoy en día.
Poco tiempo después, en el año 2003 asistimos al despegue del ADSL que ofrecía sobre el mismo par de cobre, velocidades por aquel entonces de 256 Kbps/128Kbps. Desde entonces las velocidades de acceso se han ido duplicando cada poco tiempo, llegando en la actualidad a los varios Mbps como velocidad estándar de acceso a la red (25 Mb, 10 Mb, 6 Mb) siempre sobre el mismo par de cobre. No menciono la banda ancha móvil por no extenderme demasiado, pero la evolución ha sido similar.
En esta "vertiginosa" carrera ha influido el desarrollo de las tecnologías de acceso, que han permitido llevar sobre el vetusto y aguerrido par de cobre telefónico, cada vez mayores velocidades de acceso, exprimiendo el ancho de banda hasta sus límites. Todavía se sigue exprimiendo el bucle local, más allá de lo imaginable hasta llegar a los 300 Mbps que ha anunciado recientemente Alcatel Lucent.
Lástima que estas velocidades tengan su limitación en la distancia a la que pueden conseguirse dichas velocidades. A mayor velocidad, menor distancia a la que podemos llegar. En el caso de los 300 Mbps la distancia es de 400 metros, lo que limita el alcance a un número de puntos limitado a esa pobre distancia. No obstante, permite a los operadores seguir vendiendo la idea de que te ofrecen 300 Mbps sin mencionar que es sólo para aquellos privilegiados que se encuentren a menos de 400 metros de la central telefónica a donde llega el par de cobre.
Este es el truco de las velocidades de acceso a la red a través del bucle de cobre de hoy en día, que dichas velocidades altas son posibles cuanto más cerca de la central se encuentre nuestro domicilio o negocio en el que queramos contratar el servicio. Sigue siendo una forma de diferir las inversiones necesarias para llevar la fibra óptica hasta el hogar (FTTH) o hasta el edificio (FTTB). Sin embargo, sin un medio como la fibra y una tecnología facilitadora sobre la fibra siempre tendremos impuesto un límite a nuestras posibilidades. Ese parece ser el impulso que Google quiere dar a sus ilimitadas aplicaciones que requieren anchos de banda "ilimitados" mediante su experiencia piloto a la que me refería en alguno de mis artículos anteriores.
Cuando oímos hablar o leemos sobre llevar la fibra hasta el hogar (FTTH), no estamos hablando de futurismo. Tampoco hay que confundirse con lo que otros operadores hablan de la fiabilidad de la fibra óptica porque no llevan la fibra hasta el hogar, sino hasta cerca de tu hogar. Tampoco hay que pensar que hoy en día no se despliega fibra hasta el hogar. Se hace pero a precios muy elevados.
Lo que quiero decir con la fibra hasta el hogar, es que existen muchos países en los que se están desplegando redes de fibra óptica hasta el hogar y que no hablamos del futuro, sino de una realidad que ya está aquí y que por más que nuestros operadores no quieran verlo, es una realidad que llegará antes o después a costa de que los usuarios tengan limitadas sus posibilidades o paguen mucho por ello, pero en cualquier caso, el futuro ya está aquí, siempre que haya quien esté dispuesto a invertir.
Y en relación a esto último, este puede ser el nuevo sector del ladrillo o de las energías renovables para los próximos años para aquellos países como España, donde el hardware y lo tangible priman sobre el software o lo intangible. Estoy seguro de que a muchos les gustaría que esta idea fuera acertada.
En en año 2000 fui testigo excepcional del lanzamiento de los diferentes servicios de France Telecom en España, entonces Uni2. Los servicios de datos de acceso a internet, fueron implementados mediante una red basada en acceso telefónico sobre el par de cobre que por medio de modems permitían acceder a la red a la "gran velocidad" de 128 Kbps mediante una RDSI con dos canales. Quién no se acuerda de los pitidos que hacían los modems al inicio de la conexión?
En la parte móvil, el acceso vía GPRS permitía velocidades inferiores que en la mayor parte de los casos daban soluciones de movilidad a ordenadores portátiles y no a teléfonos móviles como hoy en día.
Poco tiempo después, en el año 2003 asistimos al despegue del ADSL que ofrecía sobre el mismo par de cobre, velocidades por aquel entonces de 256 Kbps/128Kbps. Desde entonces las velocidades de acceso se han ido duplicando cada poco tiempo, llegando en la actualidad a los varios Mbps como velocidad estándar de acceso a la red (25 Mb, 10 Mb, 6 Mb) siempre sobre el mismo par de cobre. No menciono la banda ancha móvil por no extenderme demasiado, pero la evolución ha sido similar.
En esta "vertiginosa" carrera ha influido el desarrollo de las tecnologías de acceso, que han permitido llevar sobre el vetusto y aguerrido par de cobre telefónico, cada vez mayores velocidades de acceso, exprimiendo el ancho de banda hasta sus límites. Todavía se sigue exprimiendo el bucle local, más allá de lo imaginable hasta llegar a los 300 Mbps que ha anunciado recientemente Alcatel Lucent.
Lástima que estas velocidades tengan su limitación en la distancia a la que pueden conseguirse dichas velocidades. A mayor velocidad, menor distancia a la que podemos llegar. En el caso de los 300 Mbps la distancia es de 400 metros, lo que limita el alcance a un número de puntos limitado a esa pobre distancia. No obstante, permite a los operadores seguir vendiendo la idea de que te ofrecen 300 Mbps sin mencionar que es sólo para aquellos privilegiados que se encuentren a menos de 400 metros de la central telefónica a donde llega el par de cobre.
Este es el truco de las velocidades de acceso a la red a través del bucle de cobre de hoy en día, que dichas velocidades altas son posibles cuanto más cerca de la central se encuentre nuestro domicilio o negocio en el que queramos contratar el servicio. Sigue siendo una forma de diferir las inversiones necesarias para llevar la fibra óptica hasta el hogar (FTTH) o hasta el edificio (FTTB). Sin embargo, sin un medio como la fibra y una tecnología facilitadora sobre la fibra siempre tendremos impuesto un límite a nuestras posibilidades. Ese parece ser el impulso que Google quiere dar a sus ilimitadas aplicaciones que requieren anchos de banda "ilimitados" mediante su experiencia piloto a la que me refería en alguno de mis artículos anteriores.
Cuando oímos hablar o leemos sobre llevar la fibra hasta el hogar (FTTH), no estamos hablando de futurismo. Tampoco hay que confundirse con lo que otros operadores hablan de la fiabilidad de la fibra óptica porque no llevan la fibra hasta el hogar, sino hasta cerca de tu hogar. Tampoco hay que pensar que hoy en día no se despliega fibra hasta el hogar. Se hace pero a precios muy elevados.
Lo que quiero decir con la fibra hasta el hogar, es que existen muchos países en los que se están desplegando redes de fibra óptica hasta el hogar y que no hablamos del futuro, sino de una realidad que ya está aquí y que por más que nuestros operadores no quieran verlo, es una realidad que llegará antes o después a costa de que los usuarios tengan limitadas sus posibilidades o paguen mucho por ello, pero en cualquier caso, el futuro ya está aquí, siempre que haya quien esté dispuesto a invertir.
Y en relación a esto último, este puede ser el nuevo sector del ladrillo o de las energías renovables para los próximos años para aquellos países como España, donde el hardware y lo tangible priman sobre el software o lo intangible. Estoy seguro de que a muchos les gustaría que esta idea fuera acertada.
martes, 4 de mayo de 2010
Internet y DNS. Qué le pasa al DNS de Telefónica?
Para todos aquellos que utilizamos internet seguro que en más de una ocasión hemos oido hablar del DNS o las DNS. Pero qué es el DNS?
El Domain Name System es un servicio de red que hace las veces de listín telefónico. Cuando navegamos por la red, lo que utilizamos son nombres tipo www.google.es. Sin embargo, para que nuestra máquina realice la conexión lo que necesita es el número de teléfono al que llamar, que en internet se llama dirección IP. Dicho de otra forma, para que nuestro equipo se conecte con un servidor web, por ejemplo, necesita saber la dirección IP de dicho servidor.
Como para los usuarios es mucho más fácil de recordar un nombre que una dirección es imprescindible que en nuestro equipo configuremos la dirección IP del servidor DNS al que nuestra máquina preguntará cada vez que queramos conectarnos con un servidor.
Si el acceso al DNS es bueno, el acceso al servidor al que quiera conectarme no se verá penalizado por el tiempo de DNS. Ahora bien si el acceso al DNS es malo, el acceso global se verá penalizado y la experiencia del usuario en el acceso al servidor será peor. En otras palabras, que el acceso al DNS sea bueno es condición necesaria pero no suficiente para que el acceso al servidor sea bueno. Existen múltiples servidores DNS repartidos a nivel mundial, por lo que en caso de problemas se suelen cambiar los DNS de nuestro proveedor por los de otro alternativo.
Una vez dicho esto, os cuento lo que he vengo observando sobre el DNS de Telefónica durante los últimos meses.
Esta es la gráfica del tiempo de DNS durante el mes de Diciembre de 2009, desde un punto de medición situado en Madrid y otro punto de medición situado en Barcelona.
Como se puede ver los tiempos no sobrepasan los 29,5 milisegundos, lo que puede considerarse un buen dato, como podemos ver en la parte superior de la gráfica un 100% de disponibilidad y un rendimiento de 26 ms.
Para el mes de enero de 2010, la gráfica es la siguiente:
En este mes aun teniendo picos superiores, el valor general es bueno con una disponibilidad del 100% y un rendimiento de 27 ms.
En el mes de febrero de 2010:
En este mes aun manteniendo un rendimiento de 26 ms, la disponibilidad baja al 99,96%.
En marzo de 2010:
En este mes ha habido problemas importantes en los que el rendimiento se ha deteriorado llegando a retardos cercanos a los 200 ms lo que ha supuesto una bajada del rendimiento a 70 ms, manteniendo una disponiblidad del 100%. En dicho periodo podemos decir que la semana del 13 al 19 de marzo fue una semana negra en cuanto al servicio DNS.
En abril de 2010:
Hasta el día 14 la situación no se ha normalizado a valores más estables obteniendo una disponibilidad del 96,15% y un rendimiento de 82 ms para todo el mes.
Si resumimos la evolución del servicio obtenemos la siguiente tabla:
Mes Disponibilidad Rendimiento
Diciembre 2009 100% 26 ms
Enero 2010 100% 27 ms
Febrero 2010 99,96% 26 ms
Marzo 2010 100% 70 ms
Abril 2010 96,17% 82 ms
Según estos datos, lo que parece bastante claro es que el rendimiento de los DNS en la red de Telefónica se ha visto deteriorado desde el mes de diciembre, lo que puede estar penalizando el acceso a diferentes servidores llegando a ser en momentos puntuales la causa de una mala experiencia de usuario.
En el siguiente foro se recomendaba realizar el cambio de DNS por los de Google el pasado 4 de Marzo (Querrá cobrar Alierta a Google por esto?), por lo que nuestro análisis no va nada desencaminado, ya que como observamos en las gráficas de arriba el deterioro se produce en los útimos días de febrero.
En lo que llevamos del mes de mayo la situación no parece que haya vuelto a los valores de inicio (mes de Diciembre):
Esperemos que este problema técnico sea resuelto lo antes posible y no sean los usuarios los que cambiando de DNS liberen de carga (si es problema de carga) a los DNS de Telefónica.
El Domain Name System es un servicio de red que hace las veces de listín telefónico. Cuando navegamos por la red, lo que utilizamos son nombres tipo www.google.es. Sin embargo, para que nuestra máquina realice la conexión lo que necesita es el número de teléfono al que llamar, que en internet se llama dirección IP. Dicho de otra forma, para que nuestro equipo se conecte con un servidor web, por ejemplo, necesita saber la dirección IP de dicho servidor.
Como para los usuarios es mucho más fácil de recordar un nombre que una dirección es imprescindible que en nuestro equipo configuremos la dirección IP del servidor DNS al que nuestra máquina preguntará cada vez que queramos conectarnos con un servidor.
Si el acceso al DNS es bueno, el acceso al servidor al que quiera conectarme no se verá penalizado por el tiempo de DNS. Ahora bien si el acceso al DNS es malo, el acceso global se verá penalizado y la experiencia del usuario en el acceso al servidor será peor. En otras palabras, que el acceso al DNS sea bueno es condición necesaria pero no suficiente para que el acceso al servidor sea bueno. Existen múltiples servidores DNS repartidos a nivel mundial, por lo que en caso de problemas se suelen cambiar los DNS de nuestro proveedor por los de otro alternativo.
Una vez dicho esto, os cuento lo que he vengo observando sobre el DNS de Telefónica durante los últimos meses.
Esta es la gráfica del tiempo de DNS durante el mes de Diciembre de 2009, desde un punto de medición situado en Madrid y otro punto de medición situado en Barcelona.
Como se puede ver los tiempos no sobrepasan los 29,5 milisegundos, lo que puede considerarse un buen dato, como podemos ver en la parte superior de la gráfica un 100% de disponibilidad y un rendimiento de 26 ms.
Para el mes de enero de 2010, la gráfica es la siguiente:
En este mes aun teniendo picos superiores, el valor general es bueno con una disponibilidad del 100% y un rendimiento de 27 ms.
En el mes de febrero de 2010:
En este mes aun manteniendo un rendimiento de 26 ms, la disponibilidad baja al 99,96%.
En marzo de 2010:
En este mes ha habido problemas importantes en los que el rendimiento se ha deteriorado llegando a retardos cercanos a los 200 ms lo que ha supuesto una bajada del rendimiento a 70 ms, manteniendo una disponiblidad del 100%. En dicho periodo podemos decir que la semana del 13 al 19 de marzo fue una semana negra en cuanto al servicio DNS.
En abril de 2010:
Hasta el día 14 la situación no se ha normalizado a valores más estables obteniendo una disponibilidad del 96,15% y un rendimiento de 82 ms para todo el mes.
Si resumimos la evolución del servicio obtenemos la siguiente tabla:
Mes Disponibilidad Rendimiento
Diciembre 2009 100% 26 ms
Enero 2010 100% 27 ms
Febrero 2010 99,96% 26 ms
Marzo 2010 100% 70 ms
Abril 2010 96,17% 82 ms
Según estos datos, lo que parece bastante claro es que el rendimiento de los DNS en la red de Telefónica se ha visto deteriorado desde el mes de diciembre, lo que puede estar penalizando el acceso a diferentes servidores llegando a ser en momentos puntuales la causa de una mala experiencia de usuario.
En el siguiente foro se recomendaba realizar el cambio de DNS por los de Google el pasado 4 de Marzo (Querrá cobrar Alierta a Google por esto?), por lo que nuestro análisis no va nada desencaminado, ya que como observamos en las gráficas de arriba el deterioro se produce en los útimos días de febrero.
En lo que llevamos del mes de mayo la situación no parece que haya vuelto a los valores de inicio (mes de Diciembre):
Esperemos que este problema técnico sea resuelto lo antes posible y no sean los usuarios los que cambiando de DNS liberen de carga (si es problema de carga) a los DNS de Telefónica.
Etiquetas:
análisis,
disponibilidad,
DNS,
Telefónica
lunes, 22 de marzo de 2010
Ranking TIC 2010 Computing
Como complemento al Ranking TIC 2010 de Computerworld publicado hace dos semanas sobre el que hice algunos comentarios en uno de mis post anteriores , mirando el ranking de Computing, observo los siguientes datos destacables:
- En CW aparece en primer lugar Vodafone España y Telefónica no aparece, mientras que en CP no aparece Vodafone y si aparece Telefónica en cuarto lugar.
- El descenso de Informática El Corte Inglés en CW es del 8% mientras que para Computing no llega al 4%.
- Existen empresas en un ranking que no están en el otro y viceversa, me pregunto los criterios que siguen para hacer el estudio.
- Everis ocupa el lugar 13 en CW con una facturación de 410 M€, y el lugar 19 en CP con 312,90 M€.
- Thales ocupa el lugar 12 en CW con una facturación de 429 M€ y el lugar 65 en CP con 51,80 M€.
- Satec ocupa el lugar 32 en CW con una facturación de 114 M€ y el lugar 56 en CP con 71 M€.
A la vista de ambos estudios, se ve claramente que los rankings son bastante diferentes, no solo en los datos concretos de algunas empresas, sino en las propias muestras de las empresas estudiadas, donde ni entre las 10 primeras existe un consenso entre ambos.
- Computing asegura que el retroceso del sector TIC entre 2008-2009, cifrado en torno al 9-10% por IDC y otros importantes proveedores, no ha sido tan mayúsculo a tenor de los datos analizados sobre las 134 primeras empresas. En concreto, para las 100 primeras cifra la caida en un 3,1 %.
- Las 10 primeras empresas experimentan una caida del 2.9%.
- Las empresas de la 11 a la 50 experimentan una caida del 3.5 %.
- Las empresas del 51 al 100 esperimentan una caida del 1.9%.
- La crisis ha hecho que las compañias hagan una reingeniería de su concepción del mercado y de la productividad, cosa que habrá contribuido sin duda a que las caidas se atenúen.
- En este periodo es importante que las empresas saquen mayor partido de sus operaciones internacionales.
- La situación actual impone la necesidad de establecer nuevas métricas donde la calidad, la innovación y el valor sean las varas de medir el progreso y porqué no, el crecimiento.
- En CW aparece en primer lugar Vodafone España y Telefónica no aparece, mientras que en CP no aparece Vodafone y si aparece Telefónica en cuarto lugar.
- El descenso de Informática El Corte Inglés en CW es del 8% mientras que para Computing no llega al 4%.
- Existen empresas en un ranking que no están en el otro y viceversa, me pregunto los criterios que siguen para hacer el estudio.
- Everis ocupa el lugar 13 en CW con una facturación de 410 M€, y el lugar 19 en CP con 312,90 M€.
- Thales ocupa el lugar 12 en CW con una facturación de 429 M€ y el lugar 65 en CP con 51,80 M€.
- Satec ocupa el lugar 32 en CW con una facturación de 114 M€ y el lugar 56 en CP con 71 M€.
A la vista de ambos estudios, se ve claramente que los rankings son bastante diferentes, no solo en los datos concretos de algunas empresas, sino en las propias muestras de las empresas estudiadas, donde ni entre las 10 primeras existe un consenso entre ambos.
Está mi negocio on-line abierto al público?
En un negocio tradicional es fácil saber si está abierto al público. Un cartelito en la puerta indica si está abierto o cerrado y el horario de atención. Si tengo la calle levantada por las obras, salta a la vista o al oido por el ruido infernal o porque mis clientes no pueden llegar a mi sitio.
Una de las muchas ventajas que tiene un negocio on-line es la de poder tener abierto las 24 horas, todos los días del año, pero a diferencia del negocio tradicional, saber si estoy abierto no es tan sencillo cuando la forma de llegar a mi negocio es a través de una nube. En esta situación los clientes estarán repartidos por mi ciudad, mi país o por el mundo (o alguna región del mismo). Una indisponibilidad de mi plataforma puede suponer una pérdida de ingresos y lo que es peor de clientes.
Para saber si estoy abierto al público, la primera opción es comprobar por mí mismo si mi página web está accesible. Puedo montarme un equipo en un lugar fuera de mi plataforma, que permita realizar el acceso al mi negocio en diferentes intervalos del día y verificar cuando está disponible y cuando no.
Pero si mi negocio tiene un alcance mayor, es importante contar con una red de medida de mayor alcance que permita verficar el acceso desde un mayor número de puntos, tanto a nivel nacional como a nivel internacional.
Un servicio que he evaluado recientemente, y que recomiendo, para conseguir este objetivo es el proporcionado por Smart Mon Spain. Uno de los puntos fuertes que ofrece es la posiblidad de contar con una red de medida a escala mundial en modo servicio, sin necesidad de contar con una infraestructura de medición propia. En cuestión de horas es posible controlar la disponibilidad de dos de mis servicios más críticos con detalles tan interesantes como:
- Tiempo de descarga de la página. Indica en segundos el tiempo que tarda en descargarse mi página por completo (aunque la página se vea rápidamente en el navegador puede que tarde más tiempo en terminar toda la descarga de objetos).
- Tiempo de resolución DNS. Es el tiempo que tarda la red en obtener la dirección IP de mi servicio a partir de mi nombre de dominio.
- Tiempo de descarga de los objetos. Puedo conocer el tiempo de descarga parcial por objetos de mi página para detectar las posibles anomalías en cada uno de ellos.
La revista PC-Actual, haciendo uso de este tipo de servicios, publica semanalmente métricas de rendimiento de diferentes portales.
En conclusión, un servicio vital para aquellos que necesiten saber cual es la salud de su servicio y estar avisado al instante (via mail, flujo RSS o SMS) de cualquier anomalía con el objeto de minimizar el tiempo de indisponibilidad y por tanto las pérdidas de ingresos que podría acarrearme una caida de mi servicio.
Una de las muchas ventajas que tiene un negocio on-line es la de poder tener abierto las 24 horas, todos los días del año, pero a diferencia del negocio tradicional, saber si estoy abierto no es tan sencillo cuando la forma de llegar a mi negocio es a través de una nube. En esta situación los clientes estarán repartidos por mi ciudad, mi país o por el mundo (o alguna región del mismo). Una indisponibilidad de mi plataforma puede suponer una pérdida de ingresos y lo que es peor de clientes.
Para saber si estoy abierto al público, la primera opción es comprobar por mí mismo si mi página web está accesible. Puedo montarme un equipo en un lugar fuera de mi plataforma, que permita realizar el acceso al mi negocio en diferentes intervalos del día y verificar cuando está disponible y cuando no.
Pero si mi negocio tiene un alcance mayor, es importante contar con una red de medida de mayor alcance que permita verficar el acceso desde un mayor número de puntos, tanto a nivel nacional como a nivel internacional.
Un servicio que he evaluado recientemente, y que recomiendo, para conseguir este objetivo es el proporcionado por Smart Mon Spain. Uno de los puntos fuertes que ofrece es la posiblidad de contar con una red de medida a escala mundial en modo servicio, sin necesidad de contar con una infraestructura de medición propia. En cuestión de horas es posible controlar la disponibilidad de dos de mis servicios más críticos con detalles tan interesantes como:
- Tiempo de descarga de la página. Indica en segundos el tiempo que tarda en descargarse mi página por completo (aunque la página se vea rápidamente en el navegador puede que tarde más tiempo en terminar toda la descarga de objetos).
- Tiempo de resolución DNS. Es el tiempo que tarda la red en obtener la dirección IP de mi servicio a partir de mi nombre de dominio.
- Tiempo de descarga de los objetos. Puedo conocer el tiempo de descarga parcial por objetos de mi página para detectar las posibles anomalías en cada uno de ellos.
La revista PC-Actual, haciendo uso de este tipo de servicios, publica semanalmente métricas de rendimiento de diferentes portales.
En conclusión, un servicio vital para aquellos que necesiten saber cual es la salud de su servicio y estar avisado al instante (via mail, flujo RSS o SMS) de cualquier anomalía con el objeto de minimizar el tiempo de indisponibilidad y por tanto las pérdidas de ingresos que podría acarrearme una caida de mi servicio.
Etiquetas:
disponibilidad,
monitorización,
portal
martes, 9 de marzo de 2010
Redes Inteligentes de Energía y Comunicación
Bajo el título de este post, se organizaba hoy 9 de Marzo en Madrid por la Dirección General de Industria, Energía y Minas perteneciente a la Consejería de Economía y Hacienda, una Jornada sobre cómo las comunicaciones pueden conseguir una eficiencia en el uso de la energía casi infinita si la comparamos con el nivel de eficiencia actual sobre su consumo.
De la Jornada me quedo con los siguientes mensajes y Titulares de las diferentes ponencias:
- José Morales Barroso, Director de LM Data Communications:
De la Jornada me quedo con los siguientes mensajes y Titulares de las diferentes ponencias:
- José Morales Barroso, Director de LM Data Communications:
- El ahorro de energía y la eficiencia en el consumo final es mucho más eficaz que en cualquier otra parte del sistema.
- El sistema energético del futuro será más distribuido, descentralizado, eficiente, limpio, solidario y próximo al consumo.
- La siguiente gran industria mundial y mayor mercado del futuro viene de la convergencia de la tecnología energética con las telecomunicaciones.
- Cisco en su "Global Smart Grid Initiative" ha cuantificado este mercado de entre 10 y 100 veces mayor que el de Internet... La clave está en que la red tenga seguridad inherente de la que carece la red IP.
- Los expertos en energía saben qué hay que hacer pero no saben cómo, y los expertos en telecomunicaciones no están familiarizados ni con la energía ni con el funcionamiento de la red eléctrica.
- La visión Smart Grid de la red electrica sería:
- una red autogestionable y equilibrada que acepta cualquier fuente de energía generada de forma también distribuida y que transforma esta energía para el uso de los consumidores con la mínima intervención del hombre.
- Un sistema que permite a la sociedad optimizar el uso de fuentes de energía renovables y minimizar nuesro impacto medioambiental.
- Una red que permite la comunicación en tiempo real entre el consumidor y las empresas eléctricas y optimizar la energía consumida según criterios medioambientales y de precio.
- En la nueva era de la electricidad que está por llegar de mano de las smart grids, la carga del sistema (el consumo) sigue a la generación. En la actualidad se está produciendo un incremento de la generación descentralizada no predecible y un consumo que sigue unas pautas de comportamiento muy rígidas.
- La industria del automóvil eléctrico está relacionada necesariamente con las smart grids y las comunicaciones.
- El plan Estratégico Europeo de Tecnologías Energéticas, o plan SET aprobado en marzo de 2008 contempla una línea estratégica dedicada a redes eléctricas. (junto con otras 5 que son la energía eólica, solar, bio-energía, captura de CO2 y Fisión nuclear).
- Nos dirigimos hacia un nuevo modelo energético, donde se producirá un uso masivo de energías procedentes de fuentes renovables, lo que acerca la generación a los puntos de demanda. En este modelo, las redes inteligentes permitirán gestionar de forma interactiva la demanda.
- Conjunto de soluciones tecnológicas orientadas a la optimización de la cadena de valor de la energía eléctrica para:
- Reducir costes y aumentar la eficiencia.
- Minimizar el impacto medioambiental.
- Reformar los mercados eléctricos.
- Aumentar la fiabilidad del suministro.
- Economía. Permiten reducir las inversiones necesarias en la Red de Transporte, la Red de Distribución y en sistema de generación. Se recducen también los costes de producción, ya que al realizar un uso más eficiente de la energía podemos mantener las infraestructuras actuales por más tiempo.
- Medioambiental. Reducción de las emisiones de CO2, gracias a una adecuada gestión de la demanda se reducen las puntas de consumo.
- Sistema eléctrico. Mejora la fiabilidad del sistema al introducir capacidades de autodiagnóstico y auto recuperación y reducción de las pérdidas del sistema al gestionar en tiempo real los balances de reactiva.
- Consumidores. Se les dota de la capacidad de hacer un uso inteligente de la energía al tener información en tiempo real del precio de la energía y adaptación del consumo a las necesidades del sistema permitiendo la reducción de la demanda en horas punta.
Etiquetas:
energía,
smart grid,
telecom
jueves, 4 de marzo de 2010
Ranking TIC 2010 Computerworld
En el número 1234 de Computerworld de Febrero de 2010, se adjunta como suplemento el Ranking 2010 para el sector TIC correspondiente a la evolución del sector entre 2008 y 2009, en plena crisis.
Al analizar el informe, me centro en las 50 primeras. De ahí, me llaman la atención los siguientes datos:
- En la revista aparece en portada el impacto de la crisis en el sector TIC con descensos de un dígito para las 10 primeras compañías del sector en Espana en 2009. Aunque hay descensos importantes, también hay empresas que crecen. No acabo de entender la correspondencia de que las 10 primeras empresas tienen descensos de un dígito cuando en el mismo ranking Indra y Everis tienen crecimientos del 5,9 % y el 3,0 % respectivamente.
- Un 32% de las 50 primeras empresas muestran cifras de crecimiento entre 2008 y 2009. Entre ellas destaca el crecimiento del 33,2% de Samsumg Electronic Ibérica, el 20,5% del Grupo Alten y el 14,4% de Thales España.
- Con relación a la nacionalidad de las empresas, un 34% de las 50 primeras es española, seguida del 22% de estadounidenses.
- Sólo un 10% de las 50 primeras empresas crecieron en facturación disminuyendo la plantilla. También hay empresas cuyas cifras de decrecimiento de la facturación, van acompañadas de cifras de mayor decrecimiento en las plantillas como es el caso de Xerox (-10,5% en facturación y -20,6% en plantilla).
- En cuanto a crecimientos de plantilla, destacan sobre el resto T-Systems con un 28,2% (compra de alguna empresa), Oracle con un 22,2% y la española Seidor con un 33%.
- HP, IBM y IECISA muestran casi idénticas cifras de decrecimiento: un 8%. Sin embargo, sólo HP mantuvo su plantilla mientras que IBM y IECISA bajaron en un 8%.
- Dentro de las 50 primeras empresas la facturación va desde los 6.982 M€ de Vodafone España a los 52 M€ de Neoris.
En lo relativo a la segunda parte del ranking, las 50 siguientes empresas destaco lo siguiente:
- Facturación desde los 50,8 M€ de Unit4 Ibérica a los 1,5 M€ de Makesoft Technologies.
- 32 de las 50 empresas (64%) son españolas.
- Destaca el crecimiento del 77% de Kaspersky Lab de nacionalidad rusa y el 53,8% de la española ErmesTel.
Al analizar el informe, me centro en las 50 primeras. De ahí, me llaman la atención los siguientes datos:
- En la revista aparece en portada el impacto de la crisis en el sector TIC con descensos de un dígito para las 10 primeras compañías del sector en Espana en 2009. Aunque hay descensos importantes, también hay empresas que crecen. No acabo de entender la correspondencia de que las 10 primeras empresas tienen descensos de un dígito cuando en el mismo ranking Indra y Everis tienen crecimientos del 5,9 % y el 3,0 % respectivamente.
- Un 32% de las 50 primeras empresas muestran cifras de crecimiento entre 2008 y 2009. Entre ellas destaca el crecimiento del 33,2% de Samsumg Electronic Ibérica, el 20,5% del Grupo Alten y el 14,4% de Thales España.
- Con relación a la nacionalidad de las empresas, un 34% de las 50 primeras es española, seguida del 22% de estadounidenses.
- Sólo un 10% de las 50 primeras empresas crecieron en facturación disminuyendo la plantilla. También hay empresas cuyas cifras de decrecimiento de la facturación, van acompañadas de cifras de mayor decrecimiento en las plantillas como es el caso de Xerox (-10,5% en facturación y -20,6% en plantilla).
- En cuanto a crecimientos de plantilla, destacan sobre el resto T-Systems con un 28,2% (compra de alguna empresa), Oracle con un 22,2% y la española Seidor con un 33%.
- HP, IBM y IECISA muestran casi idénticas cifras de decrecimiento: un 8%. Sin embargo, sólo HP mantuvo su plantilla mientras que IBM y IECISA bajaron en un 8%.
- Dentro de las 50 primeras empresas la facturación va desde los 6.982 M€ de Vodafone España a los 52 M€ de Neoris.
En lo relativo a la segunda parte del ranking, las 50 siguientes empresas destaco lo siguiente:
- Facturación desde los 50,8 M€ de Unit4 Ibérica a los 1,5 M€ de Makesoft Technologies.
- 32 de las 50 empresas (64%) son españolas.
- Destaca el crecimiento del 77% de Kaspersky Lab de nacionalidad rusa y el 53,8% de la española ErmesTel.
lunes, 22 de febrero de 2010
Estrategia de Gestión de Servicios de TI
En este artículo desarrollamos diferentes formas de desplegar una estrategia de gestión de servicios de TI, que en función de las características de nuestro negocio, su tamaño, el grado de criticidad y el grado de madurez de nuestra organización, se implementarán de forma parcial o total o combinada en fases secuenciales o paralelas. También tendremos en cuenta no solo los aspectos relacionados con el despliegue sino también con el mantenimiento de la propia solución de gestión, que es sin duda una de las mayores componentes de coste de la solución global. Antes de seguir aclaramos los conceptos sobre los que está basado este artículo.
Para el tema que nos ocupa, entiendemos la gestión de TI como el proceso que permite conocer el estado de la infraestructura de comunicaciones, sistemas y aplicaciones de tal forma que podamos conocer el estado de los servicios que soportan el negocio.
A la hora de acometer un proyecto de gestión de TI que parte desde un nivel de madurez bajo, la estrategia más recomendable es la que desarrollamos en la siguientes líneas.
1. Implementar mecanismos que permitan obtener la percepción de usuario.
Permite obtener un gran beneficio a un coste reducido. Este tipo de mecanismos están basados en el uso de sondas o robots que simulan las peticiones de un usuario a un servicio típicamente basado en Web, que cubren la mayor parte de los servicios de TI actuales. En función de la solución elegida, también es posible utilizar otros protocolos para monitorizar otro tipo de servicios.
Este método de gestión permite obtener de una forma muy rápida resultados del funcionamiento de nuestros servicios críticos, dando incluso información adicional del origen de las incidencias.
Su coste es bastante reducido puesto que su implementación es muy rápida. Como inconveniente, este tipo de herramientas no nos aportan información suficiente para realizar el troubleshooting o el diagnóstico de las incidencias en el servicio. Por lo tanto, serán necesarios otros medios complementarios para facilitar la resolución de las incidencias desde un punto de vista más técnico.
En cuanto al mantenimiento de la solución de gestión, este tipo de soluciones presentan un coste bastante bajo de mantenimiento por lo que podemos decir que su relación coste-beneficio global es óptima.
2. Implementar mecanismos de captura de tráfico.
Este tipo de técnicas están basadas en la captura de las tramas que circulan por nuestras redes, de tal forma que mediante el análisis de las mismas se obtengan datos relativos a los protocolos, aplicaciones, estaciones origen y destino y problemas de funcionamiento. En este caso se implementa sobre un appliance HW y/o SW un mecanismo de captura de información de la red que es analizada por el SW experto para obtener la información mencionada.
Para que este tipo de técnicas sean eficientes, es necesario elegir muy bien los puntos en los que se capturará el tráfico dentro de nuestra red y definir cual será el tiempo que queremos almacenar para poder analizar un periodo conflictivo en busca de problemas o incidencias. También será necesario determinar los mecanismos en los que se basará nuestra captura, como Netflow, port-mirroring, etc.
La ventaja que tiene este tipo de técnicas es que tiene una relación coste beneficio media-alta y que su despliegue es relativamente rápido. También puede ayudarnos a detectar problemas ocultos en nuestra red, como puede ser un broadcast elevado o algún tráfico sospechoso omo virus o gusanos.
Como inconveniente, requiere un estudio de cierto nivel de detalle que permita identificar los puntos más estratégicos de nuestra red por los que pasa un porcentaje elevado de nuestro tráfico. En función del equipamiento de red en el que se soporte nuestra infraestructura, el mecanismo de captura será de un tipo u otro, pero en cualquier caso es importante asegurar que el rendimiento de la red se mantiene a la hora de capturar el tráfico.
En cuanto al mantenimiento de la solución de gestión, este tipo de técnicas presentan un coste moderado, siendo en este caso necesaria la cualificación del personal que opera el sistema y un coste de mantenimiento del HW/SW que permita mantener actualizado el sistema para incoroporar nuevos protocolos y aplicaciones y gestionar las propias averías del equipamiento HW.
3. Gestión integral de la infraestructura.
Por último, el tercer método de gestionar Servicios de TI es el que parte desde la gestión de las infraestructuras desde un punto de vista técnico de "bajo" nivel (muy detallado). Esto requiere el despliegue de plataformas de gestión que recogen la información que le reportan los equipos que forman parte de la infraestructura de comunicaciones y sistemas mediante protocolos tipo SNMP.
Si bien este sistema es el más completo y potente porque es capaz de proporcionar información detallada del funcionamiento de los servicios y de los elementos exactos que fallan y su causa, su implementación requiere un minucioso plan de despliegue y un largo proceso de implementación y modelado.
Cuando los equipos se ponen en funcionamiento, es necesario configurar cual será el destino de la información de gestión. Una vez recogida, dicha información, debe tratarse para que los múltiples mensajes que se reciben por el sistema de gestión sean realmente relevantes para los servicios. Para ello se implementan otras aplicaciones que permiten correlar las diferentes alarmas enviadas por los distintos equipos a su plataforma de gestión y reportar a los niveles superiores (de servicio) eventos de mayor categoría.
La ventaja que presentan estos sistemas es que para redes complejas con muchos nodos, son la forma de realizar un rápido troubleshooting que de otra forma se alargaría en el tiempo con la consiguiente penalización del servicio. Son sistemas escalables que permiten crecer de forma paralela a la infraestructura.
Por contra, presentan el inconveniente de requerir conocimentos específicos tanto para su administración como para su operación. Requieren un proceso largo (y por tanto costoso) de implementación y de despliegue.
En cuanto a su mantenimiento, estamos hablando de soluciones costosas que requieren tanto un mantenimiento HW como del SW proporcional al número de nodos.
Conclusiones
La estrategia a implementar dependerá de nuestro negocio. Si el tamaño es pequeño y nuestro presupuesto es ajustado la estrategia 1 podrá ser suficiente para conocer el estado de nuestro servicio. En cualquier caso, la estrategia 1 permite conocer el funcionamiento del servicio desde el punto de vista de usuario.
A medida de que el tamaño de nuestra infraestructura aumente será necesario contar con información adicional que permita mejorar el grado de comprensión de nuestro servicio desde el punto de vista técnico. Desde este punto ve vista, complementando la estrategia 1 con la 2, seremos capaces de mejorar nuestro troubleshooting y facilitar la solución de las incidencias desde el punto de vista técnico.
Por último, cuando el tamaño de nuestra infraestructura y la criticidad de nuestro servicio sea alta, no tendremos suficiente control sobre nuestros servicios si no es implementando la estrategia 3, que nos permitirá actuar de forma rápida y precisa ante cualquier incidencia sobre la infraestructura técnica que afecte a nuestros servicios.
No existe una estrategia única sino una precisa combinación de ellas. Dependerá de nuestras circunstancias y de algo que suele ser importante: el presupuesto y los recursos con los que contemos.
Etiquetas:
BSM,
estrategia,
monitorización,
servicio TI
lunes, 15 de febrero de 2010
Telefónica y Google tercera parte
Aparece hoy como noticia de portada en algunos diarios que el Ministro de Industria ve una opción posible o que incluso apoya que Telefónica cobre a Google por utilizar su red.
Estaba claro que los movimientos de la semana pasada de Google y Telefónica darían y darán mucho de qué hablar en el futuro. No en vano, en elmundo.es aparece como la noticia más comentada del día entre los lectores. Veremos cómo van evolucionando los diferentes debates que se abrirán en los próximos meses pero lo que es evidente es que tanto los operadores como los proveedores de contenidos se necesitan mútuamente. Es más podríamos decir que ninguno de los dos serían lo que son hoy en día sin el otro.
Otra cosa que resulta evidente desde mi punto de vista es que según el modelo de negocio actual lo que propone Alierta es cobrar dos veces a los proveedores de contenidos o cobrar proporcionalmente a sus ganancias. Es más que probable que esto los operadores lo sabían desde hace tiempo, pero hasta ahora que ya parece estar maduro el modelo de negocio actual, no era el momento de empezar a debatir sobre el cambio de las reglas del juego.
A buén seguro, seguiremos debatiendo sobre el tema en próximos días.
Estaba claro que los movimientos de la semana pasada de Google y Telefónica darían y darán mucho de qué hablar en el futuro. No en vano, en elmundo.es aparece como la noticia más comentada del día entre los lectores. Veremos cómo van evolucionando los diferentes debates que se abrirán en los próximos meses pero lo que es evidente es que tanto los operadores como los proveedores de contenidos se necesitan mútuamente. Es más podríamos decir que ninguno de los dos serían lo que son hoy en día sin el otro.
Otra cosa que resulta evidente desde mi punto de vista es que según el modelo de negocio actual lo que propone Alierta es cobrar dos veces a los proveedores de contenidos o cobrar proporcionalmente a sus ganancias. Es más que probable que esto los operadores lo sabían desde hace tiempo, pero hasta ahora que ya parece estar maduro el modelo de negocio actual, no era el momento de empezar a debatir sobre el cambio de las reglas del juego.
A buén seguro, seguiremos debatiendo sobre el tema en próximos días.
Etiquetas:
Google,
neutralidad,
opinión,
peaje,
Telefónica
viernes, 12 de febrero de 2010
Gestion de servicios de TI: Modelado de servicios
El proceso de modelado de servicios tiene por objeto determinar cuales son las componentes técnicas que forman parte del servicio de TI, de tal manera que podamos conocer el estado del servicio, gracias al conocimiento del estado de las componentes que forman parte del mismo.
Componentes técnicos
¿De qué hablo? Me refiero, yendo desde el nivel más bajo del modelo OSI al más alto, a los los elementos de comunicaciones (routers, swtiches, firewalls, líneas de transporte), que interconectan servidores y bases de datos, para que las aplicaciones que corren sobre ellos ofrezcan un servicio al usuario.
Este proceso de modelado tiene un nivel de complejidad directamente proporcional a la complejidad de la arquitectura del servicio que también irá ligado a su criticidad, pero en líneas generales se puede decir que el proceso es siempre el mismo.
Por tanto, para arrancar el proyecto de gestión de servicios de TI, lo primero es determinar con las unidades del negocio, cuales son los servicios más criticos.
Ficha del servicio
Una vez identificados los servicios más críticos, el siguiente paso será tener una ficha detallada de cada servicio donde se recojan al menos los siguientes datos:
1. Descripción general del servicio incluyendo también los componentes o subservicios del mismo.
2. Mapa del servicio donde se ubique cada uno de los componentes técnicos. Me estoy refiriendo a un esquema donde se recojan los componentes que he comentado más arriba. VLANs, routers, firewalls, servidores, bases de datos, etc. De forma muy simplificada algo como esto:
Componentes técnicos
¿De qué hablo? Me refiero, yendo desde el nivel más bajo del modelo OSI al más alto, a los los elementos de comunicaciones (routers, swtiches, firewalls, líneas de transporte), que interconectan servidores y bases de datos, para que las aplicaciones que corren sobre ellos ofrezcan un servicio al usuario.
Este proceso de modelado tiene un nivel de complejidad directamente proporcional a la complejidad de la arquitectura del servicio que también irá ligado a su criticidad, pero en líneas generales se puede decir que el proceso es siempre el mismo.
Por tanto, para arrancar el proyecto de gestión de servicios de TI, lo primero es determinar con las unidades del negocio, cuales son los servicios más criticos.
Ficha del servicio
Una vez identificados los servicios más críticos, el siguiente paso será tener una ficha detallada de cada servicio donde se recojan al menos los siguientes datos:
1. Descripción general del servicio incluyendo también los componentes o subservicios del mismo.
2. Mapa del servicio donde se ubique cada uno de los componentes técnicos. Me estoy refiriendo a un esquema donde se recojan los componentes que he comentado más arriba. VLANs, routers, firewalls, servidores, bases de datos, etc. De forma muy simplificada algo como esto:
3. Una descripción del servicio desde el punto de vista funcional. En esta descripción se detalla cual es el funcionamiento de la aplicación desde el punto de vista del usuario.
4. Una descripción detallada de los componentes técnicos del servicio. Una tabla que detalle nombre de máquina, Sistema operativo, servicio que soporta, dirección IP, VLAN y función que realiza tanto a nivel de servidor, como de base de datos, como de equipo de comunicaciones.
5. Para una adecuada gestión del servicio en su vida operativa, será muy recomendable obtener una correspondencia entre los elementos y clientes o usuarios, de tal forma que ante una incidencia en un determinado elemento se pueda evaluar su impacto de forma más precisa. (siempre es mejor decir tenemos el servicio afectado en un 50% que decir que está caido).
6. De cada uno de los componentes técnicos habrá que detallar los parámetros a monitorizar. Me estoy refiriendo a parametros del tipo, CPU, Memoria, tráfico de un interfaz, sesiones activas, etc.
7. Hasta aquí tenemos controlado lo que es infraestructura. El último paso será controlar el funcionamiento de los servicios mediante la implementación de sondas que prueben el rendimiento de las transacciones del servicio y ajustar los umbrales de rendimiento que generarán alarmas de servicio. Habrá que elegir de forma muy precisa la ubicación de las sondas ya que podríamos caer en la tentación de poner sondas innecesarias que no nos aporten información de valor.
Etiquetas:
BSM,
monitorización,
servicio TI
Gestión de servicios de TI
Gestionar un servicio tecnológico desde la perspectiva técnica significa entre los aspectos más básicos, tener información al menos en tiempo real a través de un proceso de monitorización de diferentes variables de los componentes técnicos que forman parte de los servicios, de tal forma que se pueda conocer el estado de funcionamiento del servicio desde el punto de vista del usuario.
Esta explicación, que pretende ser sencilla encierra en sí misma gran complejidad. A través de un proceso de modelado de los servicios debería culminar en la presentación a alto nivel de un panel de control, en el que el comité ejecutivo de la empresa pudiera conocer cómo está funcionando el negocio. Casi nada.
Para que, eso que se dice y se repite por doquier, se produzca la alineación de TI con el negocio, es necesario, desde mi punto de vista, alquien dentro de la organización que produzca esa alineación y permita conjugar las prioridades de los departamentos de TI con los departamentos del negocio. Alguien que entendiendo el leguaje técnico de TI, sea capaz de traducir al lenguaje coloquial del cliente, qué es lo que pasa con su servicio. Alguien que cuando el técnico dice que va a aplicar un parche de sistema operativo en la máquina front-portal pueda trasladar al negocio, que el servicio de acceso a la intranet, va a estar interrumpido por operaciones técnicas de mantenimiento.
Con la información en tiempo real, la organización gana tiempo en ser reactiva ya que con ello es capaz de iniciar la resolución de las incidencias en el mismo momento que se producen. Este tiempo puede ser pequeño si el servicio tiene un uso intensivo y por tanto el usuario se da cuenta rápidamente de que el servicio no funciona. En el otro extremo, será mayor si el servicio no tiene un uso tan intensivo y el usuario no percibe que hay un problema.
En cualquiera de los dos casos, el beneficio de tener alguien monitorizando en tiempo real está claro. En el segundo caso, podemos dar al cliente la percepción de que el servicio funciona con normalidad a pesar de tener incidencias en la infraestructura que lo soporta.
No obstante, la monitorización en tiempo real no nos permite ser proactivos. Para ello, es necesario realizar también un proceso de monitorización en tiempo diferido. Con ello me refiero al análisis de los datos históricos que nos permiten anticiparnos a las incidencias antes de que se produzcan. Un ejemplo: si vemos en la serie histórica que el tráfico de nuestra línea de acceso a internet está aumentando con determinada pendiente, podremos evitar su saturación anticipando una eventual ampliación del ancho de banda o aplicando políticas de racionalización de su uso.
Etiquetas:
BSM,
monitorización,
servicio TI
jueves, 11 de febrero de 2010
Google contraataca
Google anuncia en su blog que va a probar de manera experimental un acceso a la red de 1 Gbps en lo que podría interpretarse como una respuesta al envite de Telefónica de cobrar a los buscadores dos veces (por lo menos) por usar su red. Desde mi punto de vista son globos sonda (el de Telefónica) que tienen que contrarrestarse con anuncios como el de hoy de Google. Ni la inteligencia está como dice Alierta en los operadores (por muchas redes inteligentes que tengan), porque ellos hoy por hoy se dedican al transporte de datos, ni pasar al negocio de las redes de operador es tarea sencilla para aquel que centra su negocio en los contenidos.
¿Quién financiará el despliegue de Fibra óptica al hogar necesario para dotar de este acceso? ¿Hasta donde será el acceso independiente del operador? Sin conocer la red de Google, para ser independiente del operador o llevas los contenidos muy cerca del usuario, o también debes montar una red de operador. Muchos interrogantes y pocas respuestas.
Según mi opinión para que la idea de Google sea una realidad a gran escala estamos a años de distancia, meses en USA, años en Europa y lustros en España. Además de los aspectos financieros, están los aspectos regulatorios que en este campo juegan un papel estratégico que también puede decidir que realmente estas redes de tantos megas lleguen a ser servicio universal, se queden en experiencias piloto o no vayan más allá de un powerpoint.
Por ahora yo vería el anuncio de Google con más excepticismo que realidad, si bien es cierto que al menos si que parece que pretenden hacer pruebas que demuestren lo que un acceso de banda ancha real, podría hacer realidad a los usuarios a los que llegue esta red.
¿Quién financiará el despliegue de Fibra óptica al hogar necesario para dotar de este acceso? ¿Hasta donde será el acceso independiente del operador? Sin conocer la red de Google, para ser independiente del operador o llevas los contenidos muy cerca del usuario, o también debes montar una red de operador. Muchos interrogantes y pocas respuestas.
Según mi opinión para que la idea de Google sea una realidad a gran escala estamos a años de distancia, meses en USA, años en Europa y lustros en España. Además de los aspectos financieros, están los aspectos regulatorios que en este campo juegan un papel estratégico que también puede decidir que realmente estas redes de tantos megas lleguen a ser servicio universal, se queden en experiencias piloto o no vayan más allá de un powerpoint.
Por ahora yo vería el anuncio de Google con más excepticismo que realidad, si bien es cierto que al menos si que parece que pretenden hacer pruebas que demuestren lo que un acceso de banda ancha real, podría hacer realidad a los usuarios a los que llegue esta red.
Etiquetas:
banda ancha,
FTTH,
Google,
neutralidad,
opinión
lunes, 8 de febrero de 2010
Telefónica: de las transacciones a los servicios
Hoy he leído en ComputerWorld que el presidente de Telefónica César Alierta ha declarado en el marco de los encuentros PWC-La Comercial que la situación actual, en la que los buscadores y otro tipo de empresas que desarrollan sus negocios en internet, sacando ventaja de las redes de los operadores sin pagar por ello, tiene que cambiar.
De sus palabras también se desprende que para que esto ocurra deben pasar de ser una compañía de transacciones a una compañía de servicios. Resulta obvio.
Esta afirmación que parece simple, conlleva un cambio cultural que en una compañía como Telefónica puede requerir varios meses sino años. Está claro que en tiempos de crisis es el momento de explotar nuevas ideas que permitan encontrar nuevas vías de generación de ingresos, máxime cuando el negocio tradicional de la voz y los datos parece que no da para una cuenta de resultados que genere valor para el accionista. Es ahora entonces que Telefónica debe explorar la forma de sacar beneficio de los contenidos.
¿Cómo se entiende que los operadores puedan cobrar dos veces por hacer lo mismo? Google actualmente paga (y no creo que poco sino lo que tiene que pagar) a sus operadores de telecomunicación locales por estar conectado a internet, y a su vez los operadores se cobran entre sí por intercambiar tráfico, con lo que introducir una variable de coste adicional será cuando menos complejo por no decir arduo y difícil.
Si los modelos de negocio actuales se basan en que los clientes del operador pagan por el ancho de banda contratado o tráfico cursado, lo que plantea Alierta requiere cobrar por algo más.
Esto puede entenderse de muchas formas, pero una interpretación posible es que aquellas compañías cuyos negocios estén forjados sobre las ideas más brillantes y por tanto, sean capaces de generar mayores audiencias y por tanto mayores ingresos, tendrán que soportar un coste mayor por su tráfico. Qué pasa con el comercio electrónico? También querrán cobrar un porcentaje por sus ganancias?
Esto, que es posible cuantificar requiere que el operador cambie su cultura, invierta para implementar en su red mecanismos que permitan medir por ejemplo el número de flujos que genera determinado negocio y que el cliente esté dispuesto a pagar (si puede elegir). No parece justo, pero...
La idea está lanzada y el debate abierto. Desde mi punto de vista tiene sentido desde el punto de vista técnico y cada cual mira por sus intereses. Ahora bien, el camino para llegar a lo que plantea Alierta requiere un tiempo de gestación y maduración bastante considerable, por lo que no veremos avances hasta dentro de varios meses.
Etiquetas:
Google,
neutralidad,
opinión,
Telefónica
Suscribirse a:
Entradas (Atom)