Capítulo 34:
Evolución de la red
La tecnología cambia constantemente. Las redes
están en constante evolución.
Internet de las
cosas (IoT) es una frase que se refiere a los miles de millones de dispositivos
electrónicos que ahora pueden conectarse a nuestras redes de datos y a
Internet.
La computación en
la nube y la virtualización permiten que las personas y las organizaciones
guarden una gran cantidad de datos y accedan a ellos sin preocuparse por los
componentes físicos.
Las redes definidas
por software (SDN) están cambiando el concepto que los administradores de redes
tienen sobre la arquitectura de sus redes.
Este capítulo
brinda una introducción a estas tendencias emergentes de las redes actuales.
¿Qué es IoT?
En muy poco tiempo, Internet modificó radicalmente la forma en
que trabajamos, vivimos, jugamos y aprendemos. Sin embargo, esto recién es el
comienzo. Mediante tecnologías existentes y nuevas, conectamos el mundo físico
a Internet. Al conectar los dispositivos sin conexión, pasamos de la Internet a
la Internet de las cosas (IoT).
Desde sus humildes comienzos como Red de la Agencia de Proyectos
de Investigación de Avanzada (ARPANET) en 1969, que interconectaba unos pocos
sitios, ahora se estima que Internet interconectará 50 000 millones de
dispositivos en 2020. IoT hace referencia a la red de objetos físicos
accesibles desde Internet.
50 000 millones de objetos proporcionan billones de
gigabytes de datos. ¿Cómo pueden trabajar en conjunto para mejorar nuestra toma
de decisiones e interacciones y, así, mejorar nuestras vidas y negocios? Las
redes que utilizamos a diario son las que permiten estas conexiones.
La red
convergente y los objetos
Cisco estima que el 99 % de las cosas que existen en el mundo
físico se encuentran desconectadas. Por lo tanto, IoT experimentará un enorme
crecimiento mientras conectamos más de lo desconectado.
Como se muestra en la ilustración, en la actualidad hay muchos
objetos conectados mediante un conjunto disperso de redes independientes y de
uso específico. Por ejemplo, los automóviles actuales tienen varias redes
exclusivas para controlar el funcionamiento del motor, las características de
seguridad y los sistemas de comunicación. Si estos sistemas se conectaran a una
única red, se ahorrarían más de 50 lb o 23 kg de cable en un
automóvil moderno de cuatro puertas. Otros ejemplos son los edificios
comerciales y residenciales, que tienen distintos sistemas de control y redes
para calefacción, ventilación y aire acondicionado (HVAC), servicio telefónico,
seguridad e iluminación.
Estas redes diferentes se están unificando para que compartan la
misma infraestructura. Esta infraestructura incluye funcionalidades completas
de seguridad, análisis, y administración. La conexión de los componentes a una
red convergente que usa tecnologías de IoT aumenta la capacidad de la red de
mejorar la vida cotidiana de las personas.
Desafíos para la
conexión de dispositivos
IoT conecta los objetos inteligentes a Internet. Conecta
dispositivos informáticos tradicionales y dispositivos no tradicionales. En la
IoT, la comunicación se da de máquina a máquina (M2M), lo que permite la
comunicación entre máquinas sin intervención humana. Por ejemplo, el M2M se
produce en automóviles con sensores de temperatura y de aceite que se comunican
con una computadora integrada.
Haga clic en Reproducir en la figura para ver cómo Cisco está
desarrollando soluciones de digitalización para todo tipo de industrias. La
digitalización implica la conexión de personas y cosas, y la interpretación de
los datos de manera significativa y segura.
Los seis pilares
del sistema de IoT de Cisco
El desafío de IoT es integrar de manera segura millones de cosas
nuevas de diversos proveedores a las redes existentes. A fin de abordar estos
desafíos, Cisco introdujo el sistema de IoT de Cisco para ayudar a las
organizaciones y las industrias a adoptar soluciones de IoT. Específicamente,
el sistema de IoT de Cisco reduce la complejidad de digitalización para las
organizaciones de manufactura, servicios públicos, petróleo y gas, transporte,
minería, y del sector público.
El sistema de IoT proporciona una infraestructura diseñada para
administrar sistemas a gran escala con terminales y plataformas muy diferentes,
y la gran cantidad de datos que generan. El sistema de IoT de Cisco usa un
conjunto de productos y tecnologías nuevos y existentes para reducir la
complejidad de la digitalización.
El sistema de IoT de Cisco usa el concepto de pilares para
identificar los elementos fundamentales. Específicamente, el sistema de IoT
identifica los seis pilares tecnológicos que se muestran en la figura.
El pilar de la
conectividad de red
Existen diferentes tipos de redes: redes domésticas, redes de
Wi-Fi públicas, redes de empresas en crecimiento, redes empresariales, redes de
proveedores de servicios, redes del centro de datos, redes en la nube, y redes
de IoT. Sin importar el tipo de red, todos requieren de dispositivos que
ofrezcan conectividad de red. Sin embargo, los equipos de conectividad de red
varían según el tipo de red. Por ejemplo, las redes domésticas suelen estar
compuestas por un router de banda ancha inalámbrico, mientras que las redes
empresariales tienen varios switches, puntos de acceso, uno o varios firewalls,
routers y demás.
El pilar de la conectividad de red de IoT de Cisco identifica
los dispositivos que pueden usarse para proporcionar conectividad de IoT a
muchas industrias y aplicaciones diferentes.
Haga clic en Reproducir en la figura para ver un video de cómo
las empresas pueden usar la red para crear entornos interiores ideales. Con el
techo digital de Cisco, la red puede administrar la iluminación y la temperatura
del aire sin inconvenientes, según las preferencias de los ocupantes.
El pilar de
computación en la niebla
Los modelos de red describen el flujo de datos de una red.
Algunos modelos de red son:
·
Modelo cliente-servidor: (Figura
1) Este es el modelo más común de redes. Los dispositivos cliente solicitan
servicios a los servidores.
·
Modelo de computación en la nube: (Figura
2) Este es un modelo más nuevo donde los servidores y los servicios están
distribuidos a nivel global en centros de datos distribuidos. La computación en
la nube se describe en más detalle más adelante en este capítulo.
·
Computación en la niebla: (Figura
3) Este modelo de red de IoT corresponde a una infraestructura informática
distribuida más cercana al perímetro de la red. Permite que los dispositivos
perimetrales ejecuten aplicaciones a nivel local y tomen decisiones de
inmediato. Esto reduce la carga de datos en las redes, ya que los datos sin
procesar no deben enviarse por las conexiones de red. Aumenta la resistencia al
permitir que los dispositivos de IoT funcionen cuando se pierden las conexiones
de red. También aumenta la seguridad al evitar que los datos sensibles se
transporten más allá del perímetro donde se necesitan.
Estos modelos no son mutuamente excluyentes. Los administradores
de redes pueden usar cualquier combinación de los tres modelos para satisfacer
las necesidades de los usuarios de red. El pilar de computación en la niebla
básicamente extiende la conectividad de la nube más cerca del perímetro.
Permite que las terminales, como los medidores inteligentes, los sensores
industriales, las máquinas robóticas y demás, se conecten a un sistema local
integrado de computación, redes y almacenamiento.
Las aplicaciones que usan computación en la niebla pueden
monitorear o analizar datos en tiempo real de los dispositivos conectados a la
red y luego realizar acciones como cerrar una puerta, cambiar la configuración
del equipo, aplicar los frenos de un tren y más. Por ejemplo, un semáforo puede
interactuar localmente con varios sensores que detectan la presencia de
peatones y ciclistas, y puede medir la distancia y la velocidad de los
vehículos que se acercan. El semáforo también interactúa con los semáforos
vecinos para proporcionar una acción coordinada. De acuerdo con esta
información, el semáforo inteligente envía señales de advertencia a los
vehículos que se aproximan y modifica su propio ciclo para prevenir accidentes.
Los datos que obtuvo el sistema de semáforos inteligentes se procesan
localmente para realizar análisis en tiempo real. La coordinación con los
sistemas de semáforos inteligentes vecinos en la niebla permite implementar
cualquier modificación en el ciclo. Por ejemplo, permite cambiar la
sincronización de los ciclos en respuesta a las condiciones de la carretera o
los patrones de tránsito. Los datos de clústeres de sistemas de semáforos
inteligentes se envían a la nube para analizar los patrones de tránsito a largo
plazo.
Cisco prevé que el 40 % de los datos creados por IoT se
procesarán en la niebla para el año 2018.
El pilar de
seguridad
Todas las redes deben protegerse. Sin embargo, IoT
genera nuevos vectores de ataque que no suelen encontrarse en las redes
empresariales normales. El pilar de seguridad de IoT de Cisco ofrece soluciones
escalables de ciberseguridad que permiten que la organización pueda detectar,
contener y corregir con rapidez y eficacia los ataques para minimizar el daño.
Algunas soluciones
de ciberseguridad son:
·
Seguridad
específica de tecnología operativa (OT):
OT es el hardware y software que sirve para operar centrales eléctricas y
administrar líneas de procesos industriales. La seguridad de OT incluye el
dispositivo de seguridad industrial ISA 3000 (figura 1) y los servicios de
datos en la niebla.
·
Seguridad de la red
de IoT: Incluye los dispositivos de
seguridad perimetral y de red como switches, routers, dispositivos de firewall
de ASA y servicios de prevención de intrusiones de próxima generación Cisco
FirePOWER (NGIPS) (figura 2).
·
Seguridad física d
IoT: Cisco Video Surveillance IP Cameras
(figura 3) son cámaras digitales con muchas funciones que permiten la
vigilancia en una amplia variedad de entornos. Disponibles en versiones
estándar y de alta definición, tipo caja o tipo domo, cableadas o inalámbricas,
y fijas o con inclinación y zoom (PTZ), las cámaras son compatibles con MPEG-4
y H.264, y hacen un uso eficiente de la red al tiempo que proporcionan video de
alta calidad.
Pilar de análisis
de datos
IoT puede conectar miles de millones de dispositivos capaces de
crear exabytes de datos cada día. Para proporcionar valor, estos datos se deben
procesar y transformar rápidamente en inteligencia procesable.
La infraestructura de análisis de IoT de Cisco consta de
componentes de infraestructura de red distribuida e interfaces de programación
de aplicaciones (API) específicas para IoT.
Haga clic en Reproducir en la figura para ver un video sobre las
soluciones de análisis de datos de Cisco.
Pilar de administración
y automatización
IoT amplía significativamente el tamaño y la diversidad de la
red para incluir los miles de millones de objetos inteligentes que detectan,
monitorean, controlan y reaccionan. La conexión a la red de estos dispositivos
que antes no estaban conectados puede ofrecer niveles incomparables de
inteligencia empresarial y operativa, pero es esencial comprender que los
entornos operativos están compuestos por áreas funcionales diversas y dispares.
Cada una de estas áreas también tiene requisitos específicos, como la necesidad
de hacer un seguimiento de métricas específicas. Los sistemas de tecnología
operativa pueden variar ampliamente según la industria, así como también por la
función que cumplen en un sector determinado.
Cisco ofrece una amplia gama de capacidades de administración y
automatización de IoT en toda la red extendida. Los productos de administración
y automatización de Cisco se pueden personalizar para usarse en industrias
específicas a fin de obtener un nivel mejorado de seguridad, control y soporte.
El portafolio de administración y automatización de sistemas de
IoT de Cisco incluye herramientas de administración como el director de red de
campo de IoT de Cisco que se muestra en la figura. Otras herramientas de
administración son Cisco Prime, Administrador de soluciones de videovigilancia
Cisco y más.
Pilar de
plataforma de habilitación de aplicaciones
El pilar de plataforma de habilitación de aplicaciones
proporciona la infraestructura de alojamiento y movilidad de aplicaciones entre
la nube y la computación en la niebla. El entorno en la niebla proporciona
varias instancias de la aplicación para diversos sensores y terminales. Estas
instancias pueden comunicarse entre sí para ejecutar funciones de redundancia e
intercambio de datos que permiten crear modelos comerciales como pago según el
consumo de objetos, máquinas y productos.
Por ejemplo, Cisco IOx, una combinación de Cisco IOS y Linux,
permite que los routers alojen aplicaciones cerca de los objetos que necesitan
monitorear, controlar, analizar y optimizar. Los servicios de Cisco IOx se
ofrecen en varios dispositivos de hardware que se pueden personalizan en
función de las diferentes necesidades del sector y, por lo tanto, pueden
admitir aplicaciones específicas de dichos sectores.
Haga clic en Reproducir en la figura para ver una entrevista
informal sobre Cisco IOx.
La nube:
descripción general
La computación en la nube implica una gran cantidad
de computadoras conectadas a través de una red que puede estar ubicada físicamente
cualquier lugar. Los proveedores confían mucho en la virtualización para
prestar servicios de computación en la nube. La computación en la nube puede
reducir costos operativos al utilizar los recursos con mayor eficacia. La
computación en la nube admite una variedad de problemas de administración de
datos:
·
Permite el acceso a los datos de
organización en cualquier momento y lugar.
·
Optimiza las operaciones de TI de la
organización suscribiéndose únicamente a los servicios necesarios.
·
Elimina o reduce la necesidad de
equipos, mantenimiento y administración de TI en las instalaciones.
·
Reduce el costo de equipos y energía,
los requisitos físicos de la planta y las necesidades de capacitación del
personal.
·
Permite respuestas rápidas a los crecientes
requisitos de volumen de datos.
La computación en
la nube, con su modelo de “pago según el consumo”, permite que las
organizaciones consideren los gastos de computación y almacenamiento más como
un servicio que como una inversión en infraestructura. Los gastos de capital se
transforman en gastos operativos.
Servicios en la
nube
Los servicios en la nube están disponibles en una
variedad de opciones diseñadas para cumplir con los requisitos del cliente. Los
tres servicios principales de computación en la nube definidos por el Instituto
Nacional de Normas y Tecnología (NIST) de los Estados Unidos en la Publicación
especial 800-145 son:
·
Software como
servicio (SaaS): El proveedor de la nube es
responsable del acceso a los servicios, como correo electrónico, comunicaciones
y Office 365, que se proporcionan por Internet. El usuario sólo necesita
proporcionar sus datos.
·
Plataforma como
servicio (PaaS): El proveedor de la nube es
responsable del acceso a las herramientas y los servicios de desarrollo que se
usan para proporcionar las aplicaciones.
·
Infraestructura
como servicio (IaaS): El proveedor de la nube es
responsable del acceso a los equipos de la red, los servicios de red
virtualizados y el soporte de infraestructura de la red.
Como se ve en la
figura, los proveedores de servicios en la nube han ampliado este modelo para
proporcionar también soporte de TI para cada servicio de computación en la nube
(ITaaS).
Para las empresas,
ITaaS puede ampliar la capacidad de TI sin requerir inversiones en infraestructura
nueva, capacitación de personal nuevo ni licencias de software nuevas. Estos
servicios están disponibles a petición y se proporcionan de forma económica a
cualquier dispositivo en cualquier lugar del mundo, sin comprometer la
seguridad ni el funcionamiento.
Modelos de nube
Hay cuatro modos principales de la nube, como se
muestra en la figura.
·
Nubes públicas: Las aplicaciones basadas en la nube y los
servicios que se ofrecen en una nube pública están a disposición de la
población en general. Los servicios pueden ser gratuitos u ofrecerse en el
formato de pago según el uso, como el pago de almacenamiento en línea. La nube
pública utiliza Internet para proporcionar servicios.
·
Nubes privadas: Las aplicaciones y los servicios basados en una
nube privada que se ofrecen en una nube privada están destinados a una
organización o una entidad específica, como el gobierno. Se puede configurar
una nube privada utilizando la red privada de la organización, si bien el
armado y el mantenimiento pueden ser costosos. Una organización externa que
cuente con una seguridad de acceso estricta también puede administrar una nube
privada.
·
Nubes híbridas: Una nube híbrida consta de dos o más nubes (por
ejemplo, una parte personalizada y otra parte pública); donde cada una de las
partes sigue siendo un objeto separado, pero ambas están conectadas a través de
una única arquitectura. En una nube híbrida, las personas podrían tener grados
de acceso a diversos servicios según los derechos de acceso de los usuarios.
·
Nubes comunitaria: Una nube comunitaria se crea para el uso
exclusivo de una comunidad específica. Las diferencias entre nubes públicas y
nubes comunitarias son las necesidades funcionales que se personalizan para la
comunidad. Por ejemplo, las organizaciones de servicios de salud deben cumplir
las políticas y leyes (p. ej., HIPAA, en los Estados Unidos) que
requieren niveles de autenticación y confidencialidad especiales.
Computación en
la nube frente al centro de datos
Los términos "centro de datos" y
"computación en la nube" suelen usarse de manera incorrecta. A
continuación se brindan las definiciones correctas de "centro de
datos" y "computación en la nube":
·
Centro de datos: Generalmente, consiste en una instalación de
almacenamiento y procesamiento de datos gestionada por un departamento de TI
interno o arrendado fuera de las instalaciones.
·
Computación en la
nube: Generalmente, consiste en un
servicio fuera de las instalaciones que ofrece acceso a pedido a un grupo
compartido de recursos informáticos configurables. Estos recursos se pueden
aprovisionar y lanzar rápidamente con un esfuerzo de administración mínimo.
La computación en
la nube es posible gracias a los centros de datos. Un centro de datos es una
instalación utilizada para alojar sistemas de computación y componentes
relacionados. Un centro de datos puede ocupar una habitación en un edificio, un
piso o más, o un edificio entero. Por lo general, la creación y el
mantenimiento de centros de datos son muy costosos. Por esta razón, solo las
grandes organizaciones utilizan centros de datos privados creados para alojar
sus datos y proporcionar servicios a los usuarios. Las organizaciones más
pequeñas que no pueden mantener su propio centro de datos privado pueden
reducir el costo total de propiedad mediante el arrendamiento de servicios de
servidor y almacenamiento a una organización de centro de datos más grande en
la nube.
La computación en
la nube suele ser un servicio prestado por los centros de datos, como se
muestra en la figura. Los proveedores de servicios en la nube usan los centros
de datos para alojar los servicios en la nube y los recursos basados en la
nube. Para garantizar la disponibilidad de los servicios de datos y los
recursos, los proveedores mantienen a menudo espacio en varios centros de datos
remotos.
Computación en la
nube y virtualización
Los términos "computación en la nube" y
"virtualización" suelen usarse de manera intercambiable; no obstante,
significan dos cosas distintas. La virtualización es la base de la computación
en la nube. Sin esta base, la computación en la nube que se implementa
masivamente no sería posible.
La computación en la nube separa la aplicación del hardware. La
virtualización separa el SO hardware. Varios proveedores ofrecen servicios virtuales
en la nube que permiten aprovisionar servidores de manera dinámica según sea
necesario. Por ejemplo, el servicio web en la nube Amazon Elastic Compute Cloud
(Amazon EC2) proporciona a los clientes una manera simple de aprovisionar
dinámicamente los recursos informáticos que necesitan. Estas instancias
virtualizadas de los servidores se crean a pedido en el EC2 de Amazon.
Servidores
dedicados
Para poder apreciar completamente la virtualización, primero es
necesario entender un poco parte la historia de la tecnología de los
servidores. Antes, los servidores empresariales estaban formados por un sistema
operativo (SO) de servidor, como Windows Server o Linux Server, instalado en
hardware específico, como se ve en la figura. Toda la RAM, la potencia de procesamiento
y todo el espacio del disco duro de un servidor se dedicaban al servicio
proporcionado (por ejemplo, red, servicios de correo electrónico, etc.).
El principal problema con esta configuración es que cuando falla
un componente, el servicio proporcionado por este servidor no se encuentra
disponible. Esto se conoce como punto único de falla. Otro problema era que los
servidores dedicados eran infrautilizados. A menudo, los servidores dedicados
estaban inactivos durante largos períodos de tiempo, esperando hasta que
hubiera una necesidad de ofrecer un servicio específico que estos
proporcionaban. Estos servidores malgastaban energía y ocupaban más espacio del
que estaba garantizado por la cantidad de servicio. Esto se conoce como
proliferación de servidores.
Virtualización de
servidores
La virtualización de servidores saca provecho de los recursos
inactivos y consolida el número de servidores requeridos. Esto también permite
que múltiples sistemas operativos existan en una sola plataforma de hardware.
Por ejemplo, en la figura, los ocho servidores dedicados
anteriores se consolidaron en dos servidores con hipervisores para admitir
varias instancias virtuales de los sistemas operativos.
El hipervisor es un programa, un firmware o un hardware que suma
una capa de abstracción a la parte superior del hardware físico real. La capa
de abstracción se utiliza para crear máquinas virtuales que tienen acceso a
todo el hardware de la máquina física, como CPU, memoria, controladores de
disco y NIC. Cada una de esas máquinas virtuales ejecuta un sistema operativo
completo y separado. Con la virtualización, las empresas ahora pueden
consolidar la cantidad de servidores necesarios. Por ejemplo, no resulta raro
que 100 servidores físicos se consoliden como máquinas virtuales sobre 10
servidores físicos que usan hipervisores.
El uso de la virtualización normalmente incluye redundancia para
brindar protección desde un punto sencillo de falla. La redundancia se puede
implementar de diferentes maneras. Si falla el hipervisor, se puede reiniciar
la VM en otro hipervisor. Además, la misma VM se puede ejecutar en dos
hipervisores simultáneamente copiando las instrucciones de RAM y de CPU entre
estos. Si falla un hipervisor, la VM continúa ejecutándose en el otro
supervisor. Los servicios que se ejecutan en las VM también son virtuales y se
pueden instalar o deshabilitar dinámicamente, según sea necesario.
Ventajas de la
virtualización
Una de las ventajas más importantes de la
virtualización es un menor costo total:
·
Menos cantidad de
equipos necesarios: La virtualización permite la
consolidación de servidores, lo que reduce la cantidad necesaria de servidores
físicos, dispositivos de red e infraestructura de soporte. También significa
menores costos de mantenimiento.
·
Menor consumo de
energía: La consolidación de servidores
reduce los costos mensuales de alimentación y refrigeración. El consumo
reducido ayuda a las empresas a alcanzar una huella de carbono más pequeña.
·
Menos espacio
necesario: La consolidación de servidores con
virtualización reduce la huella total del centro de datos. Menos servidores,
dispositivos de red y racks reducen la cantidad de espacio de piso requerido.
Estos son los
beneficios adicionales de la virtualización:
·
Simplificación de
prototipos: Se pueden crear rápidamente
laboratorios autónomos que operan en redes aisladas para las pruebas y los
prototipos de instalaciones de red. Si se comete un error, un administrador
puede volver simplemente a una versión anterior. Los entornos de prueba pueden
estar en línea, pero deben estar aislados de los usuarios finales. Una vez
terminadas las pruebas, los servidores y sistemas pueden implementarse para los
usuarios finales.
·
Aprovisionamiento
acelerado de servidores: La creación de
servidores virtuales es mucho más rápida que el aprovisionamiento de servidores
físicos.
·
Mayor tiempo de
actividad de servidores: La mayoría de las
plataformas de virtualización de servidores actuales ofrecen funciones
avanzadas y redundantes de tolerancia a fallas, como migración en vivo,
migración de almacenamiento, alta disponibilidad y planificación de recursos
distribuidos.
·
Recuperación tras
un desastre mejorada: La virtualización ofrece soluciones
avanzadas de continuidad de los negocios. Brinda la capacidad de abstracción de
hardware de modo que el sitio de recuperación ya no necesite tener hardware que
sea idéntico al hardware del entorno de producción. La mayoría de las
plataformas de virtualización de servidores de la empresa también tienen
software que puede ayudar a probar y automatizar las fallas antes de que suceda
un desastre.
·
Soporte de
tecnologías heredadas: La virtualización puede ampliar la
vida útil de los SO y las aplicaciones, para que las organizaciones tengan más
tiempo para migrarse a soluciones más nuevas.
Capas de
abstracción
Para ayudar a explicar cómo funciona la
virtualización, es conveniente utilizar capas de abstracción en arquitecturas
de PC. Un sistema de computación consta de las capas de abstracción siguientes,
como se muestra en la Figura 1:
·
Servicios
·
SO
·
Firmware
·
Avanzado
En cada una de
estas capas de abstracción, se utiliza algún tipo de código de programación
como interfaz entre la capa inferior y la capa superior. Por ejemplo, el
lenguaje de programación C suele usarse para programar el firmware que tiene
acceso al hardware.
En la Figura 2, se
muestra un ejemplo de virtualización. Un hipervisor se instala entre el
firmware y el OS. El hipervisor puede admitir varias instancias de SO.
Hipervisores de
tipo 2
Un hipervisor es un software que crea y ejecuta
instancias de VM. La computadora, en la que un hipervisor está ejecutando una o
más VM, es un equipo host. Los hipervisores de tipo 2 también se denominan
hipervisores alojados. Esto se debe a que el hipervisor está instalado sobre el
SO existente, como Mac OS X, Windows o Linux. Luego, una o más instancias
adicionales de SO se instalan sobre el hipervisor, como se muestra en la
figura.
Una gran ventaja de
los hipervisores de tipo 2 es que el software de la consola de administración
no es necesario.
Los hipervisores de
tipo 2 son muy populares entre los consumidores y en las organizaciones que
experimentan con la virtualización. Los hipervisores comunes de tipo 2
incluyen:
·
Virtual PC
·
VMware Workstation
·
Oracle VM VirtualBox
·
VMware Fusion
·
Mac OS X Parallels
Muchos de estos
hipervisores de tipo 2 son gratuitos. Algunos ofrecen funciones más avanzadas
mediante el pago de una cuota.
Nota: Es importante asegurarse de que la máquina de host
sea lo suficientemente resistente como para instalar y ejecutar las VM, a fin
de evitar que se agoten los recursos.
La figura muestra un hipervisor de
tipo 2, el enfoque de host. El servidor está compuesto por una capa de
hardware, sobre esta capa está el sistema operativo del host, sobre ésta está
el hipervisor y luego están los tres sistemas operativos que se muestran:
Windows, Linux y UNIX.
Hipervisores de
tipo 1
Los hipervisores de tipo 1 también se denominan el enfoque de
“infraestructura física” porque el hipervisor está instalado directamente en el
hardware. Los hipervisores de tipo 1 se usan generalmente en los servidores
empresariales y los dispositivos de redes para centros de datos.
Con los hipervisores de tipo 1, el hipervisor se instala
directamente en el servidor o en el hardware de red. Luego, las instancias de
SO se instalan sobre el hipervisor, como se muestra en la figura. Los
hipervisores de tipo 1 tienen acceso directo a los recursos de hardware; por lo
tanto, son más eficaces que las arquitecturas alojadas. Los hipervisores de
tipo 1 mejoran la escalabilidad, el rendimiento y la solidez.
Instalación de
una VM en un hipervisor
Cuando se instala un hipervisor de tipo 1 y se reinicia el
servidor, sólo se muestra la información básica, como la versión de SO, la
cantidad de RAM y la dirección IP. Una instancia de OS no se puede crear a
partir de esta pantalla. Los hipervisores de tipo 1 requieren una “consola de
administración” para administrar el hipervisor. El software de administración
se utiliza para administrar varios servidores con el mismo hipervisor. La
consola de administración puede consolidar los servidores automáticamente y
encender o apagar los servidores, según sea necesario.
Por ejemplo, supongamos que el Servidor 1 de la figura se
está quedando sin recursos. Para hacer que haya más recursos disponibles, la
consola de administración mueve la instancia de Windows al hipervisor en el
Servidor2.
La consola de administración proporciona la recuperación ante
las fallas de hardware. Si falla un componente del servidor, la consola de
administración mueve la VM a otro servidor automáticamente y sin
inconvenientes. La consola de administración de Cisco Unified Computing System
(UCS) se muestra en la figura 2. Cisco UCS Manager permite administrar
todos los componentes de sofftware y hardware de Cisco UCS. Controla varios
servidores y administra los recursos de miles de VM.
Algunas consolas de administración también permiten la sobreasignación.
La sobreasignación se produce cuando se instalan varias instancias de SO, pero
su asignación de memoria excede la cantidad total de memoria que tiene un
servidor. Por ejemplo, un servidor tiene 16 GB de RAM, pero el administrador
crea cuatro instancias de SO con 10 GB de RAM asignadas a cada una. Este tipo
de asignación excesiva es habitual porque las cuatro instancias de SO requieren
raramente los 10 GB completo de RAM en todo momento.
Virtualización de
la red
La virtualización del servidor oculta los recursos del servidor
(por ejemplo, la cantidad y la identidad de los servidores físicos, de los
procesadores y del SO) de los usuarios del servidor. Esta práctica puede crear
problemas si el centro de datos está utilizando las arquitecturas de red
tradicionales.
Por ejemplo, las LAN virtuales (VLAN) utilizadas por las VM se
deben asignar al mismo puerto de switch que el servidor físico que ejecuta el
hipervisor. Sin embargo, las VM son trasladables, y el administrador de la red
debe poder agregar, descartar y cambiar los recursos y los de la red. Este
proceso es difícil de hacer con los switches de red tradicionales.
Otro problema es que los flujos de tráfico difieren
considerablemente del modelo cliente-servidor tradicional. Generalmente, un centro
de datos tiene una cantidad considerable de tráfico que se intercambia entre
los servidores virtuales (denominado "tráfico entre nodos"). Estos
flujos cambian en la ubicación y la intensidad en el tiempo, lo que requiere un
enfoque flexible a la administración de recursos de red.
Las infraestructuras de red existentes pueden responder a los
requisitos cambiantes relacionados con la administración de los flujos de
tráfico utilizando las configuraciones de calidad de servicio (QoS) y de
ajustes de nivel de seguridad para los flujos individuales. Sin embargo, en
empresas grandes que utilizan equipos de varios proveedores, cada vez que se
activa una nueva VM, la reconfiguración necesaria puede llevar mucho tiempo.
¿Podría la infraestructura de red también beneficiarse de la
virtualización? Si esto es así, ¿de qué manera podría hacerlo?
La respuesta está en la manera en que los dispositivos de red
funcionan con un plano de datos y un plano de control, como se describe más
adelante en este capítulo.
Plano de control
y plano de datos
Un dispositivo de red contiene los siguientes
planos:
·
Plano de control: Suele considerarse el cerebro del dispositivo. Se
utiliza para tomar decisiones de reenvío. El plano de control contiene los
mecanismos de reenvío de ruta de capa 2 y capa 3, como las tablas de vecinos de
protocolo de routing y las tablas de topología, las tablas de routing IPv4 e
IPv6, STP, y la tabla ARP. La información que se envía al plano de control es
procesada por la CPU.
·
Plano de datos: También conocido como plano de reenvío, este
plano suele ser la estructura de switch que conecta lo varios puertos de red de
un dispositivo. El plano de datos de cada dispositivo se utiliza para reenviar
los flujos de tráfico. Los routers y los switches utilizan la información del
plano de control para reenviar el tráfico entrante desde la interfaz de egreso
correspondiente. Por lo general, la información del plano de datos es procesada
por un procesador especial del plano de datos, como un procesador de señal
digital (DSP) sin que se involucre a la CPU.
El ejemplo de la
figura 1 muestra cómo Cisco Express Forwarding (CEF) usa el plano de
control y el plano de datos para procesar los paquetes.
CEF es una
tecnología de switching de IP de capa 3 que permite que el reenvío de los
paquetes ocurra en el plano de datos sin que se consulte el plano de control.
En CEF, la tabla de routing del plano de control rellena previamente la tabla
de base de información de reenvío (FIB) de CEF en el plano de datos. La tabla
de ARP del plano de control se completa con la tabla de adyacencia. Luego el
plano de datos reenvía directamente los paquetes en función de la información
del FIB y la tabla de adyacencia, sin necesidad de consultar la información del
plano de control.
Para virtualizar la
red, un controlador centralizado realiza y elimina la función del plano de
control de cada dispositivo, como se muestra en la Figura 2. El controlador
centralizado comunica las funciones del plano de control a cada dispositivo.
Cada dispositivo ahora puede enfocarse en el envío de datos mientras el
controlador centralizado administra el flujo de datos, mejora la seguridad y
proporciona otros servicios.
Virtualización
de red
Hace más de una década, VMware desarrolló una
tecnología de virtualización que permitía a un SO host admitir uno o más SO
clientes. La mayoría de las tecnologías de virtualización ahora se basan en
esta tecnología. La transformación de los servidores exclusivos para los
servidores virtualizados se ha adoptado y se implementa rápidamente en el
centro de datos y las redes empresariales.
Se han desarrollado
dos arquitecturas de red principales para admitir la virtualización de la red:
·
Redes definidas por
software (SDN): una arquitectura de red definida por
software que virtualiza la red.
·
Infraestructura
centrada en aplicaciones (ACI) de Cisco:
Solución de hardware diseñada específicamente para integrar la computación en
la nube con la administración de centros de datos.
Estas son otras
tecnologías de virtualización de redes, incluyen algunas de las cuales se
incluyen como componentes en SDN y ACI:
·
OpenFlow: Este enfoque se desarrolló en la Universidad de
Stanford para administrar el tráfico entre routers, switches, puntos de acceso
inalámbrico y un controlador. El protocolo OpenFlow es un elemento básico en el
desarrollo de soluciones de SDN. Haga clic aquí
para obtener más información sobre OpenFlow.
·
OpenStack: Este enfoque es una plataforma de virtualización
y coordinación disponible para armar entornos escalables en la nube y
proporcionar una solución de infraestructura como servicio (IaaS). OpenStack se
usa frecuentemente en conjunto con Cisco ACI. La organización en la red es el
proceso para automatizar el aprovisionamiento de los componentes de red como
servidores, almacenamiento, switches, routers y aplicaciones. Haga clic aquí para obtener más información sobre OpenStack.
·
Otros componentes: Otros componentes incluyen la interfaz al sistema
de routing (I2RS), la interconexión transparente de muchos enlaces (TRILL),
Cisco FabricPath (FP) y los puentes de ruta más corta (SPB) de
IEEE 802.1aq.
Arquitectura de
SDN
En un router o una arquitectura de switches tradicionales, el
plano de control y las funciones del plano de datos se producen en el mismo
dispositivo. Las decisiones de routing y el envío de paquetes son
responsabilidad del sistema operativo del dispositivo.
Las redes definidas por software (SDN) son una arquitectura de
red que se desarrolló para virtualizar la red. Por ejemplo, las SDN pueden
virtualizar el plano de control. También conocidas como SDN basadas en
controladores, las SDN mueven el plano de control desde cada dispositivo de red
a una inteligencia de la red central y una entidad de las políticas fabricación
denominada controlador de SDN. Las dos arquitecturas se muestran en la Figura
1.
El controlador de SDN es una entidad lógica que permite que los
administradores de red administren y determinen cómo el plano de datos de
switches físicos y virtuales de los routers debe administrar el tráfico de red.
Coordina, media y facilita la comunicación entre las aplicaciones y los elementos
de red.
El marco de SDN se ilustra en la Figura 2. Observe el uso de
interfaces de programación de aplicaciones (API) dentro del marco de SDN. Una
API es un conjunto de solicitudes estandarizadas que definen la forma adecuada
para que una aplicación solicite servicios de otra aplicación. El controlador
de SDN usa los API ascendentes para comunicarse con las aplicaciones
ascendentes. Estos administradores de red de ayuda de API forman el tráfico e
implementan los servicios. El controlador de SDN también utiliza interfaces API
descendentes para definir el comportamiento de los switches y routers virtuales
descendentes. OpenFlow es la API original descendente ampliamente implementada.
Open Networking Foundation es responsable de mantener el estándar de OpenFlow.
Nota: El tráfico en un centro de datos moderno se describe como (en
sentido) vertical (que se produce entre los usuarios del centro de datos
externos y los servidores del centro de datos) y (en sentido) transversal (que
se produce entre los servidores del centro de datos).
Visite este sitio web para obtener más información sobre SDN,
OpenFlow y Open Networking Foundation: https://www.opennetworking.org/sdn-resources/sdn-definition
Operaciones y
controlador SDN
El controlador de SDN define los flujos de datos que ocurren en
el flujo de datos de las SDN. Un flujo es una secuencia de paquetes que
atraviesan una red que comparten un conjunto de valores de campo del encabezado.
Por ejemplo, un flujo puede consistir en todos los paquetes con las mismas
direcciones IP de origen y de destino, o todos los paquetes con el mismo
identificador de VLAN.
Cada flujo que viaja por la red debe primero obtener permiso del
controlador SDN, que verifica que la comunicación esté permitida según la
política de red. Si el controlador permite un flujo, calcula una ruta para que
tome el flujo y agrega una entrada para ese flujo en cada uno de los switches
que están a lo largo de la ruta.
El controlador realiza todas las funciones complejas. El
controlador completa las tablas de flujo. Los switches administran las tablas
de flujo. En la figura, un controlador SDN se comunica con los switches
compatibles con OpenFlow con el protocolo OpenFlow. Este protocolo utiliza
Transport Layer Security (TLS) para enviar de manera segura las comunicaciones
del plano de control a través de la red. Cada switch de OpenFlow se conecta con
otros switches de OpenFlow. También pueden conectarse a los dispositivos de
usuarios finales que forman parte de un flujo de paquetes.
Dentro de cada switch, se utiliza una serie de tablas
implementadas en el hardware o el firmware para administrar flujos de paquetes
a través del switch. Para el switch, un flujo es una secuencia de paquetes que
coincide con una entrada específica en una tabla de flujo.
Infraestructura
centrada en aplicaciones de Cisco
Muy pocas organizaciones tienen realmente el deseo o las
habilidades para programar la red utilizando las herramientas de SDN. Sin
embargo, la mayoría de las organizaciones desea automatizar la red, acelerar la
implementación de aplicaciones y alinear sus infraestructuras de TI para
cumplir mejor con los requisitos empresariales. Cisco desarrolló la
Infraestructura centrada en aplicaciones (ACI) para alcanzar los siguientes
objetivos de maneras más avanzadas y más innovadoras que antes los enfoques de
SDN.
ACI es una arquitectura de red de centro de datos desarrollada
por Insieme y adquirida por Cisco en 2013. Cisco ACI es una solución de
hardware diseñada específicamente para integrar la computación en la nube con
la administración de centros de datos. En un nivel alto, el elemento de
políticas de la red se elimina del plano de datos. Esto simplifica el modo en
que se crean redes del centro de datos.
Para obtener más información sobre las diferencias entre SDN y
ACI: http://blogs.cisco.com/datacenter/is-aci-really-sdn-one-point-of-view-to-clarify-the-conversation
Haga clic en Reproducir en la figura para ver una descripción
general de los aspectos básicos de ACI.
Componentes
principales de ACI
Estos son los tres componentes principales de la
arquitectura de ACI:
·
Perfil de
aplicación de red (ANP): Un ANP es una
colección de grupos de terminales (EPG) con sus conexiones y las políticas que
definen dichas conexiones. Los EPG que se muestran en la figura, como VLAN,
servicios web y aplicaciones, son solo ejemplos. Un ANP es con frecuencia mucho
más complejo.
·
Controlador de
infraestructura de política de aplicación (APIC): El APIC se considera el cerebro de la
arquitectura de ACI. El APIC es un controlador centralizado de software que
administra y opera una estructura agrupada ACI escalable. Está diseñado para la
programabilidad y la administración centralizada. Traduce las políticas de las
aplicaciones a la programación de la red.
·
Switches de la
serie 9000 de Cisco Nexus: Estos switches
proporcionan una estructura de switching con reconocimiento de aplicaciones y
operan con un APIC para administrar la infraestructura virtual y física de la
red.
Como se muestra en
la ilustración, el APIC se ubica entre el APN y la infraestructura de red
habilitada con ACI. El APIC traduce los requisitos de aplicaciones a una
configuración de red para cumplir con esas necesidades.
opología de
nodo principal-nodo secundario
La estructura Cisco ACI está compuesta por la APIC
y los switches de la serie 9000 de Cisco Nexus mediante topología de nodo
principal y secundario de dos niveles, como se muestra en la figura. Los
switches de nodo secundario siempre se adjuntan a los nodos principales, pero
nunca se adjuntan entre sí. De manera similar, los switches principales solo se
adjuntan a la hoja y a los switches de núcleo (no se muestran). En esta
topología de dos niveles, todo está a un salto de todo lo demás.
Los APIC de Cisco y
todos los demás dispositivos de la red se adjuntan físicamente a los switches
de nodo secundario.
En comparación con
una SDN, el controlador de APIC no manipula la ruta de datos directamente. En
cambio, el APIC centraliza la definición de políticas y programas a los que
cambia el nodo secundario para reenviar tráfico según las políticas definidas.
Para la
virtualización, la ACI es compatible con entornos de varios proveedores de
hipervisor que se conectarían a los switches secundarios, incluidos los
siguientes:
·
Microsoft (Hyper-V/SCVMM/Azure Pack)
·
Red Hat Enterprise Linux OS (KVM
OVS/OpenStack)
·
VMware (ESX/vCenter/vShield)
Tipos de SDN
El Módulo empresarial del Controlador de
infraestructura de política de aplicación (APIC-EM) de Cisco amplía las
capacidades de ACI para las instalaciones empresariales y de campus. Para
entender mejor APIC-EM, es útil obtener una perspectiva más amplia de los tres
tipos de SDN:
·
SDN basada en
dispositivos: En este tipo de SDN, los
dispositivos se programan con aplicaciones que se ejecutan en el mismo
dispositivo o en un servidor de la red, como se ve en la figura 1. Cisco
OnePK es un ejemplo de un SDN basado en dispositivos. Permite que los
programadores creen aplicaciones utilizando C y a Java con Python para integrar
e interactuar con los dispositivos Cisco.
·
SDN basada en
controlador: Este tipo de SDN usa un controlador
centralizado que tiene conocimiento de todos los dispositivos de la red, como
se ve en la figura 2. Las aplicaciones pueden interactuar con el
controlador responsable de administrar los dispositivos y de manipular los flujos
de tráfico en la red. El controlador SDN Cisco Open es una distribución
comercial de Open Daylight.
·
SDN basada en
políticas: Este tipo de SDN es parecido al SDN
basado en controlador, ya que un controlador centralizado tiene una vista de
todos los dispositivos de la red, como se ve en la figura 3. El SDN basado
en políticas incluye una capa de políticas adicional que funciona a un nivel de
abstracción mayor. Usa aplicaciones incorporadas que automatizan las tareas de
configuración avanzadas mediante un flujo de trabajo guiado y una GUI fácil de
usar. No se necesitan conocimientos de programación. Cisco APIC-EM es un
ejemplo de este tipo de SDN.
Características
APIC-EM
Cada tipo de SDN tiene sus propias características
y ventajas. Las SDN basadas en políticas son las más resistentes, lo que
proporciona un mecanismo simple para controlar y administrar políticas en toda
la red. Cisco APIC-EM proporciona las siguientes funciones:
·
Detección: La función de detección sirve para completar la
base de datos de inventario de dispositivos y host del controlador.
·
Inventario de
dispositivos: Recopila información detallada de
los dispositivos de la red, incluidos el nombre del dispositivo, el estado del
dispositivo, la dirección MAC, las direcciones IPv4/IPv6, IOS/firmware, la
plataforma, el tiempo de actividad y la configuración.
·
Inventario de host: Recopila información detallada de los hosts de la
red, incluidos el nombre del host, la ID de usuario, la dirección MAC, las
direcciones IPv4/IPv6 y el punto de conexión de red.
·
Topología: Presenta una vista gráfica de la red (vista de la
topología). Cisco APIC-EM detecta automáticamente y asigna dispositivos a una
topología física con datos detallados de nivel del dispositivo. Además, la
visualización automática de las topologías de capa 2 y 3 sobre la topología
física proporciona una vista detallada para la planificación de diseño y la
solución de problemas simplificada. La figura muestra un ejemplo de vista de la
topología generada por APIC-EM de Cisco.
·
Política: Capacidad de ver y controlar las políticas en
toda la red, incluida la QoS.
·
Análisis de
políticas: Inspección y análisis de políticas
de control de acceso a la red. Capacidad de rastrear las rutas específicas de
la aplicación entre los terminales para identificar rápidamente las ACL en uso
y las áreas problemáticas. Habilita la administración de cambios de permisos
mediante ACL con una identificación más sencilla de la redundancia, los
conflictos y el ordenamiento incorrecto de las entradas de control de acceso.
Las entradas de ACL incorrectas se conocen como sombras.
Agregue la transcripción de medios
Análisis de
APIC-EM ACL
Una de las funciones más importantes del
controlador APIC-EM es la capacidad de administrar políticas en toda la red.
Las políticas operan en un nivel de abstracción más alto. La configuración de
dispositivos tradicional se aplica de a un dispositivo por la vez, mientras que
las políticas de SDN se aplican a toda la red.
El análisis y el
seguimiento de ruta de APIC-EM ACL proporcionan herramientas para permitir que
el administrador analice y comprenda las políticas y las configuraciones de las
ACL. Crear nuevas ACL o editar las ACL existentes a través de la red para
implementar una nueva política de seguridad puede ser desafiante. Los
administradores son reticentes a cambiar las ACL por miedo a romperlos y a
causar nuevos problemas. El análisis y el seguimiento de ruta de las ACL
permiten que el administrador visualice fácilmente flujos de tráfico y descubra
las entradas de ACL conflictivas, duplicadas o sombreadas.
APIC-EM proporciona
las siguientes herramientas para solucionar problemas en las entradas de las
ACL:
·
Análisis de ACL: Esta herramienta examina las ACL de los
dispositivos en busca de entradas redundantes, conflictivas o superpuestas. El
análisis de las ACL permite el examen y la interrogación de las ACL en toda la
red y expone los inconvenientes y los conflictos. En la Figura 1, se muestra
una pantalla de ejemplo de esta herramienta.
·
Rastreo de ruta de
ACL: Esta herramienta examina las ACL específicas
de la ruta entre los dos nodos terminales y muestra los posibles problemas. En
la Figura 2, se muestra una pantalla de ejemplo de esta herramienta.
Para obtener más
información sobre el análisis de ACL y el rastreo de ruta de ACL, mire este video:
https://www.youtube.com/watch?v=-acUj5PVFLU