jueves, 3 de febrero de 2011

VIRTUALIZACIÓN

En informáticavirtualización se refiere a la abstracción de los recursos de una computadora, llamada Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de abstracción entre el hardware de la máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de ejecución.
Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora (CPU, Memoria, Red, Almacenamiento) y así podrá repartir dinámicamente dichos recursos entre todas las máquinas virtuales definidas en el computador central. De modo que nos permite tener varios ordenadores virtuales ejecutándose sobre el mismo ordenador físico.
Tal término es antiguo; se viene usando desde 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos, hasta capacidades o componentes individuales. Lo más importante en este tema de virtualización es la de ocultar detalles técnicos a través de la encapsulación.
La virtualización se encarga de crear una interfaz externa que esconde una implementación subyacente mediante la combinación de recursos en localizaciones físicas diferentes, o por medio de la simplificación del sistema de control. Un avanzado desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este importante concepto. De modo similar al uso de términos como “abstracción” y “orientación a objetos”, virtualización es usado en muchos contextos diferentes.
Este concepto que es realmente interesante y que se lleva desarrollando desde hace muchos años, parece que finalmente está encontrando sus caminos productivos y de desarrollo para profesionales.
La máquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en un computador central. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente grande (siempre dependiendo del tipo de virtualización)

  • Rápida incorporación de nuevos recursos para los servidores virtualizados.
  • Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de consolidación logrado (Estimación media 10:1).
  • Administración global centralizada y simplificada.
  • Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de toda la capacidad de procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura
  • Mejora en los procesos de clonación y copia de sistemas: Mayor facilidad para la creación de entornos de test que permiten poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el proceso de las pruebas.
  • Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas virtuales.
  • Mejora de TCO y ROI.
  • No sólo aporta el beneficio directo en la reducción del hardware necesario, sino también los costes asociados.
  • Reduce los tiempos de parada.
  • Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un servidor físico a otro, eliminando la necesidad de paradas planificadas por mantenimiento de los servidores físicos.
  • Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de recursos, garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y proporcionando un consumo de recursos homogéneo y óptimo en toda la infraestructura.
  • Alto grado de satisfacción general.


  • Rendimiento inferior. Un sistema operativo virtualizado nunca alcanzará las mismas cotas de rendimiento que si estuviera directamente instalado en el hierro. Dado que el hipervisor introduce una capa intermedia en la gestión del hardware para gestionar las peticiones de acceso y la concurrencia al mismo, el rendimiento de la máquina virtual se ve afectado irremediablemente.
  • No es posible utilizar hardware que no esté gestionado o soportado por el hipervisor. Recientemente un amigo me pidió virtualizar su viejo Windows 98 que corría sobre Pentium II con una tarjeta de audio de gama alta. Inmediatamente tuvimos que descartar la idea porque no se puede utilizar arbitrariamente hardware instalado físicamente en la máquina anfitrión desde el entorno virtual.
  • Además, el software de virtualización nos impondrá una serie de dispositivos virtuales como tarjetas de vídeo y red de las que no podremos salir.
  • Hardware virtual obsoleto. USB 1.0, Firewire 400, Ethernet 100 son algunos de los dispositivos a los que nos veremos sometidos. Aunque las nuevas versiones de los hipervisor se van renovando, todavía tenemos que trasladarnos al pasado para usar estas características.
  • No dispondremos de aceleración de vídeo por hardware, por lo que aplicaciones con efectos 3D como compiz-fussion y juegos que utilizan las librerías OpenGL o DirectX no funcionarán en la máquina virtual.
  • Como excepción, Parallels y VMWare Fussion ofrecen soporte para versiones concretas de OpenGL y DirectX sobre Mac OS X, pero conviene probar el rendimiento gráfico antes de decidirse por alguna.
  • Proliferación de máquinas virtuales. Como no hay que comprar ‘hierro’, el número de máquinas y servidores virtuales se dispara en todos los ámbitos. Los efectos colaterales se perciben después: aumenta el trabajo de administración, gestión de licencias, riesgos de seguridad…
  • Desaprovechamiento de recursos. Crear máquinas virtuales innecesarias tiene un coste en ocupación de recursos, principalmente en espacio en disco, RAM y capacidad de proceso.
  • La avería del servidor anfitrión de virtualización afecta a todas las máquinas virtuales alojadas en él. Ahora más que nunca deberemos adoptar soluciones de alta disponibilidad como clustering y replicación para evitar caídas de servicio de múltiples servidores con una única avería.
  • La portabilidad entre plataformas está condicionada a la solución de virtualización adoptada. Elegir GNU/Linux, Mac OS X, Windows o Solaris como anfitrión es una decisión importante en entornos corporativos. Quizás interesaría migrar en el futuro.
  • Disminuye el número de ventas de hardware. Aunque el hardware adquirido para alojar máquinas virtuales es más potente, el número de máquinas vendidas será inferior ¿nos pondrán los fabricantes de harware un Canon por la Virtualización?
  • El sistema operativo anfitrión se vuelve de rol crítico. Hasta ahora estábamos acostumbrados a utilizar un sistema para todas nuestras necesidades. Pero, cuando varios servidores o entornos de producción virtualizados dependen de la estabilidad de su anfitrión, nos pensaremos mucho antes de aplicar actualizaciones y parches. Será necesario reforzar la seguridad y estabilidad, así que ¿quién habló de reiniciar?


  1. VMware Workstation
  2. VMware Server
  3. VirtualBox
  4. Parallels Desktop
  5. Virtual Iron
  6. Adeos
  7. Mac-on-Linux
  8. Win4BSD
  9. Win4Lin Pro
  10. y z/VM
  11. openvz
  12. Oracle VM
  13. XenServer
  14. Microsoft Virtual PC 2007
  15. Hyper-V
imagen de windows 3.11

windows 98





0 comentarios:

Publicar un comentario

 
 

Blogger