Capítulo 15: Redes conmutadas
Las redes modernas continúan evolucionando para adaptarse a la manera cambiante en que las organizaciones realizan sus actividades diarias. Ahora los usuarios esperan tener acceso instantáneo a los recursos de una empresa, en cualquier momento y en cualquier lugar. Estos recursos incluyen no solo datos tradicionales, sino también de video y de voz. También hay una necesidad creciente de tecnologías de colaboración. Estas tecnologías permiten la distribución de recursos en tiempo real entre varias personas en sitios remotos, como si estuvieran en la misma ubicación física.
Los distintos dispositivos deben trabajar en conjunto sin inconvenientes para proporcionar una conexión rápida, segura y confiable entre los hosts. Los switches LAN proporcionan el punto de conexión a la red empresarial para los usuarios finales y también son los principales responsables del control de la información dentro del entorno LAN. Los routers facilitan la transmisión de información entre redes LAN y, en general, desconocen a los hosts individuales. Todos los servicios avanzados dependen de la disponibilidad de una infraestructura sólida de routing y switching que les sirva de base. Esta infraestructura se debe diseñar, implementar y administrar cuidadosamente para proporcionar una plataforma estable.
En este capítulo, se comienza con un examen del flujo de tráfico en una red moderna. Se examinan algunos de los modelos actuales de diseño de red y el modo en que los switches LAN crean tablas de reenvío y usan la información de direcciones MAC para conmutar datos entre los hosts de forma eficaz.
Complejidad creciente de las redes
El mundo digital está cambiando. La capacidad de acceder a Internet y a la red corporativa ya no se limita a oficinas físicas, ubicaciones geográficas o zonas horarias. En el lugar de trabajo globalizado actual, los empleados pueden acceder a los recursos desde cualquier lugar del mundo, y la información debe estar disponible en cualquier momento y en cualquier dispositivo. Estos requisitos impulsan la necesidad de armar redes de última generación que sean seguras, confiables y de alta disponibilidad.
Estas redes de última generación no solo deben ser compatibles con las expectativas y el equipamiento actuales, sino que también deben ser capaces de integrar plataformas antiguas. Se muestran algunos dispositivos antiguos comunes que con frecuencia se deben incorporar al diseño de red. En la figura 3, se muestran algunas de las plataformas más modernas (redes convergentes) que contribuyen a proporcionar el acceso a la red en cualquier momento, en cualquier lugar y en cualquier dispositivo.
Elementos de una red convergente
Para admitir la colaboración, las redes comerciales emplean soluciones convergentes mediante sistemas de voz, teléfonos IP, gateways de voz, soporte de video y videoconferencias. Las redes convergentes con soporte de colaboración pueden incluir características como las siguientes, incluidos los servicios de datos:
- Control de llamadas: procesamiento de llamadas telefónicas, identificador de llamadas, transferencia de llamadas, llamadas en espera y conferencias.
- Mensajería de voz: correo de voz.
- Movilidad: recepción de llamadas importantes en cualquier lugar.
- Contestador automático: se atiende a los clientes con mayor rapidez, ya que las llamadas se enrutan directamente al departamento o a la persona que corresponde.
Uno de los principales beneficios de la transición hacia una red convergente es que se debe instalar y administrar una sola red física. Esto permite ahorrar de manera considerable en la instalación y la administración de las redes de voz, de video y de datos independientes. Estas soluciones de redes convergentes integran la administración de TI para que cada movimiento, adición y modificación se complete con una interfaz de administración intuitiva. Además, las soluciones de redes convergentes admiten las aplicaciones de softphone para PC, así como de video punto a punto, de modo que los usuarios puedan disfrutar de las comunicaciones personales con la misma facilidad de administración y de uso de una llamada de voz.
La convergencia de servicios en la red dio lugar a una evolución de las redes, de la función tradicional de transporte de datos a una gran autopista para la comunicación de datos, voz y video. Esta red física se debe diseñar e implementar correctamente para permitir el manejo confiable de los diversos tipos de información que debe transportar. Para permitir la administración de este entorno complejo, se requiere un diseño estructurado.
Cisco Borderless Networks
Con las crecientes demandas de las redes convergentes, la red se debe desarrollar con un enfoque arquitectónico que integre inteligencia, simplifique las operaciones y sea escalable para satisfacer demandas futuras. Uno de los más recientes desarrollos en el diseño de red es Cisco Borderless Networks.
Cisco Borderless Network es una arquitectura de red que combina la innovación y el diseño. Permite que las organizaciones soporten una red sin fronteras que pueda conectarse con cualquier persona, en cualquier lugar, en cualquier momento, en cualquier dispositivo, en forma segura, confiable y sin inconvenientes. Esta arquitectura está diseñada para enfrentar los desafíos comerciales y de TI, como la admisión de redes convergentes y el cambio de los patrones de trabajo.
Cisco Borderless Networks ofrece la estructura para unificar el acceso cableado e inalámbrico que incluye funciones de seguridad, control del acceso y administración del rendimiento por medio de diversos tipos de dispositivos. Con esta arquitectura, la red sin fronteras se construye sobre una infraestructura jerárquica de hardware que es escalable y recuperable, como se muestra en la Figura 1. Al combinar esta infraestructura de hardware con las soluciones de software basadas en políticas, Cisco Borderless Networks ofrece dos conjuntos principales de servicios: servicios de red y servicios de terminales y usuarios que son todos administrados por una solución de administración integrada. Permite que los diferentes elementos de red trabajen en conjunto y permite que los usuarios accedan a los recursos desde cualquier lugar, en cualquier momento, a la vez que proporciona optimización, escalabilidad y seguridad.
Jerarquía en las redes conmutadas sin fronteras
La creación de una red conmutada sin fronteras requiere el uso de principios de diseño de red sólidos para asegurar la máxima disponibilidad, flexibilidad, seguridad y facilidad de administración. Las redes conmutadas sin fronteras deben funcionar según los requisitos actuales y los servicios y las tecnologías que se requerirán en el futuro. Las pautas de diseño de las redes conmutadas sin fronteras se basan en los siguientes principios:
- Jerarquía: facilita la comprensión de la función de cada dispositivo en cada nivel, simplifica la implementación, el funcionamiento y la administración, y reduce los dominios de error en cada nivel.
- Modularidad: permite la expansión de la red y la habilitación de servicios integrados sin inconvenientes y a petición.
- Capacidad de recuperación: satisface las expectativas del usuario al mantener la red siempre activa.
- Flexibilidad: permite compartir la carga de tráfico de forma inteligente mediante el uso de todos los recursos de red.
Estos no son principios independientes. Es fundamental comprender cómo encaja cada principio en el contexto de los demás. El diseño jerárquico de una red conmutada sin fronteras sienta una base que permite que los diseñadores de red superpongan las características de seguridad, movilidad y comunicación unificada. Los modelos de capas de tres y dos niveles.
Las tres capas fundamentales dentro de estos diseños con niveles son las capas de acceso, de distribución y de núcleo. Cada capa se puede considerar como un módulo estructurado bien definido, con funciones y roles específicos en la red de campus. La introducción de la modularidad en el diseño jerárquico del campus asegura aún más que la red del campus mantenga la resistencia y la flexibilidad suficientes para proporcionar servicios de red fundamentales. La modularidad también permite el crecimiento y los cambios que ocurren con el tiempo.
Capas de acceso, distribución y de núcleo central
Capa de acceso
La capa de acceso representa el perímetro de la red, por donde entra o sale el tráfico de la red del campus. Tradicionalmente, la función principal de los switches de capa de acceso es proporcionar acceso de red al usuario. Los switches de capa de acceso se conectan a los switches de capa de distribución, que implementan tecnologías de base de red como el routing, la calidad de servicio y la seguridad.
Para satisfacer las demandas de las aplicaciones de red y de los usuarios finales, las plataformas de switching de última generación ahora proporcionan servicios más convergentes, integrados e inteligentes a diversos tipos de terminales en el perímetro de la red. La incorporación de inteligencia en los switches de capa de acceso permite que las aplicaciones funcionen de manera más eficaz y segura en la red.
Capa de distribución
La capa de distribución interactúa entre la capa de acceso y la capa de núcleo para proporcionar muchas funciones importantes, incluidas las siguientes:
- Agregar redes de armario de cableado a gran escala.
- Agregar dominios de difusión de capa 2 y límites de routing de capa 3.
- Proporcionar funciones inteligentes de switching, de routing y de política de acceso a la red para acceder al resto de la red.
- Proporcionar una alta disponibilidad al usuario final mediante los switches de capa de distribución redundantes, y rutas de igual costo al núcleo.
- Proporcionar servicios diferenciados a distintas clases de aplicaciones de servicio en el perímetro de la red.
Capa de núcleo central
La capa de núcleo es el troncal de una red. Esta conecta varias capas de la red de campus. La capa de núcleo funciona como agregador para el resto de los bloques de campus y une el campus con el resto de la red. El propósito principal de la capa de núcleo es proporcionar el aislamiento de fallas y la conectividad de backbone de alta velocidad.
Para armar un diseño de disposición de cables físicos simplificado, escalable, rentable y eficaz, se recomienda armar una topología de red física en estrella extendida desde una ubicación central en un edificio hacia el resto de los edificios en el mismo campus.
En algunos casos donde no existe una red física o una escalabilidad de red extensa, no es necesario mantener capas principales y de distribución separadas. En las ubicaciones de campus más pequeñas donde hay menos usuarios que acceden a la red, o en los sitios de campus que constan de un único edificio, puede no ser necesario que las capas de núcleo y de distribución estén separadas. En esta situación, la recomendación es el diseño alternativo de red de campus de dos niveles, también conocido como “diseño de red de núcleo contraído”.
Función de las redes conmutadas
La función de las redes conmutadas evolucionó notablemente en las dos últimas décadas. No hace mucho tiempo, las redes conmutadas planas de capa 2 eran lo habitual. Las redes conmutadas planas de capa 2 dependían de Ethernet y del uso generalizado de los repetidores hub para propagar el tráfico LAN a través de una organización. Como se muestra en la figura 1, las redes se cambiaron básicamente por LAN conmutadas en la red jerárquica. Las LAN conmutadas brindan más flexibilidad, administración de tráfico y características adicionales:
- Calidad de servicio
- Seguridad adicional
- Compatibilidad con tecnología de redes y conectividad inalámbricas
- Compatibilidad con tecnologías nuevas, como la telefonía IP y los servicios de movilidad
Factores de forma
En las redes comerciales, se usan diversos tipos de switches: Es importante implementar los tipos de switches adecuados según los requisitos de la red.
Cuando se selecciona el tipo de switch, el diseñador de red debe elegir entre una configuración fija o una modular, y entre un dispositivo apilable o no apilable. Otra consideración es el grosor del switch, expresado en cantidad de unidades de rack. Esto es importante para los switches que se montan en un rack. Por ejemplo, los switches de configuración fija que se muestran en la figura 2 son todos de 1 unidad de rack (1U). Con frecuencia estas opciones se denominan factores de forma del switch.
Switches de configuración fija
Los switches de configuración fija no admiten características u opciones más allá de las que vienen originalmente con el switch. El modelo específico determina las características y opciones disponibles. Por ejemplo, un switch gigabit fijo de 24 puertos no admite puertos adicionales. En general, existen diferentes opciones de configuración que varían según la cantidad y el tipo de puertos incluidos en un switch de configuración fija.
Switches de configuración modular
Los switches de configuración modular ofrecen más flexibilidad en su configuración. Generalmente, estos switches vienen con bastidores de diferentes tamaños que permiten la instalación de diferentes números de tarjetas de líneas modulares. Las tarjetas de línea son las que contienen los puertos. La tarjeta de línea se ajusta al bastidor del switch de igual manera que las tarjetas de expansión se ajustan en la computadora. Cuanto más grande es el chasis, más módulos puede admitir. Existen muchos tamaños de chasis diferentes. Un switch modular con una única tarjeta de línea de 24 puertos podría tener instalada una tarjeta de línea de 24 puertos adicional para que la cantidad total de puertos ascienda a 48.
Switches de configuración apilable
Los switches de configuración apilable se pueden interconectar mediante un cable especial que proporciona un rendimiento de ancho de banda alto entre los switches. La tecnología Cisco StackWise permite la interconexión de hasta nueve switches. Los switches se pueden apilar unos sobre otros con cables que conectan los switches en forma de cadena margarita. Los switches apilados operan con efectividad como un switch único más grande. Los switches apilables son convenientes cuando la tolerancia a fallas y la disponibilidad de ancho de banda son críticas y resulta costoso implementar un switch modular. Al conectar de forma cruzada estos switches apilados, la red se puede recuperar rápidamente si falla un solo switch. Los switches apilables usan un puerto especial para las interconexiones. Muchos switches apilables Cisco también admiten la tecnología StackPower, que permite compartir la alimentación entre los miembros de la pila.
Switching como concepto general en tecnología de redes y telecomunicaciones
El concepto de switching y reenvío de tramas es universal en la tecnología de redes y en las telecomunicaciones. En las redes LAN, WAN y en la red pública de telefonía conmutada (PSTN), se usan diversos tipos de switches. El concepto fundamental de switching hace referencia a un dispositivo que toma una decisión según dos criterios:
- Puerto de entrada
- Dirección de destino
La decisión sobre cómo un switch reenvía el tráfico se toma en relación con el flujo de ese tráfico. El término “entrada” se usa para describir el lugar de un puerto por donde ingresa una trama al dispositivo. El término “salida” se usa para describir las tramas que salen del dispositivo desde un puerto determinado.
Los switches LAN mantienen una tabla que usan para determinar cómo reenviar el tráfico a través del switch. Haga clic en el botón Reproducir de la ilustración para ver una animación del proceso de switching. En este ejemplo:
- Si un mensaje ingresa al puerto 1 del switch y la dirección de destino es EA, el switch reenvía el tráfico por el puerto 4.
- Si un mensaje ingresa al puerto 5 del switch y la dirección de destino es EE, el switch reenvía el tráfico por el puerto 1.
- Si un mensaje ingresa al puerto 3 del switch y la dirección de destino es AB, el switch reenvía el tráfico por el puerto 6.
La única inteligencia que poseen los switches LAN es la capacidad de usar la tabla para reenviar el tráfico según el puerto de entrada y la dirección de destino de un mensaje. Con los switches LAN, hay solamente una tabla de switching principal que describe una asociación estricta entre las direcciones y los puertos; por lo tanto, un mensaje con una dirección de destino determinada siempre sale por el mismo puerto de salida, independientemente del puerto de entrada por el que ingresa.
Los switches Ethernet de capa 2 reenvían tramas de Ethernet según la dirección MAC de destino de las tramas.
Completado dinámico de la tabla de direcciones MAC de un switch
Los switches usan direcciones MAC para dirigir las comunicaciones de red a través del switch al puerto correspondiente hacia el destino. Un switch se compone de circuitos integrados y del software complementario que controla las rutas de datos a través del switch. Para definir qué puerto usar para transmitir una trama, el switch primero debe saber qué dispositivos existen en cada puerto. A medida que el switch descubre la relación entre puertos y dispositivos, crea una tabla denominada “tabla de direcciones MAC” o “tabla de memoria de contenido direccionable” (CAM). CAM es un tipo de memoria especial que se usa en las aplicaciones de búsqueda de alta velocidad.
Los switches LAN determinan cómo manejar las tramas de datos entrantes mediante una tabla de direcciones MAC. El switch genera la tabla de direcciones MAC mediante el registro de la dirección MAC de cada dispositivo conectado a cada uno de los puertos. El switch usa la información de la tabla de direcciones MAC para enviar las tramas destinadas a un dispositivo específico por el puerto que se asignó a ese dispositivo.
El siguiente proceso de dos pasos se realiza para cada trama de Ethernet que ingresa a un switch.
Paso 1: Aprendizaje: Examinar la dirección MAC de origen
Se revisa cada trama que ingresa a un switch para obtener información nueva. Esto se realiza examinando la dirección MAC de origen de la trama y el número de puerto por el que ingresó al switch:
- Si la dirección MAC de origen no existe, se la agrega a la tabla, junto con el número de puerto de entrada.
- Si la dirección MAC de origen existe, el switch actualiza el temporizador de actualización para esa entrada. De manera predeterminada, la mayoría de los switches Ethernet guardan una entrada en la tabla durante cinco minutos.
Nota: si la dirección MAC de origen existe en la tabla, pero en un puerto diferente, el switch la trata como una entrada nueva. La entrada se reemplaza con la misma dirección MAC, pero con el número de puerto más actual.
Paso 2: Reenvío: Examinar la dirección MAC de destino
Si la dirección MAC de destino es una dirección de unidifusión, el switch busca una coincidencia entre la dirección MAC de destino de la trama y una entrada de la tabla de direcciones MAC:
- Si la dirección MAC de destino está en la tabla, reenvía la trama por el puerto especificado.
- Si la dirección MAC de destino no está en la tabla, el switch reenvía la trama por todos los puertos, excepto el de entrada. Esto se conoce como unidifusión.
Nota: si la dirección MAC de destino es de difusión o de multidifusión, la trama también se envía por todos los puertos, excepto el de entrada.
Métodos de reenvío del switch
A medida que las redes fueron creciendo y las empresas comenzaron a experimentar un rendimiento de la red más lento, se agregaron puentes Ethernet (una versión anterior del switch) a las redes para limitar el tamaño de los dominios de colisiones. En la década de los noventa, los avances en las tecnologías de circuitos integrados permitieron que los switches LAN Ethernet reemplazaran a los puentes Ethernet. Estos switches podían transportar las decisiones de reenvío de capa 2 desde el software hasta los circuitos integrados de aplicación específica (ASIC). Los ASIC reducen el tiempo de manejo de paquetes dentro del dispositivo y permiten que el dispositivo pueda manejar una mayor cantidad de puertos sin disminuir el rendimiento. Este método de reenvío de tramas de datos en la capa 2 se denominaba “switching por almacenamiento y envío”. Este término lo diferenciaba del switching por método de corte.
El método de almacenamiento y reenvío toma una decisión de reenvío en una trama después de haber recibido la trama completa y revisado la trama para detectar errores mediante un mecanismo matemático de verificación de errores conocido como comprobación de redundancia cíclica (CRC).
Por el contrario, el método de corte, inicia el proceso de reenvío una vez que se determinó la dirección MAC de destino de una trama entrante y se estableció el puerto de salida.
Switching de almacenamiento y envío
El switching por almacenamiento y envío tiene dos características principales que lo diferencian del método de corte: la verificación de errores y el almacenamiento en buffer automático.
Verificación de errores
Los switches que usan switching por almacenamiento y envío realizan la verificación de errores de las tramas entrantes. Después de recibir la trama completa en el puerto de entrada, como se muestra en la ilustración, el switch compara el valor de secuencia de verificación de trama (FCS) en el último campo del datagrama con sus propios cálculos de FCS. FCS es un proceso de verificación de errores que contribuye a asegurar que la trama no contenga errores físicos ni de enlace de datos. Si la trama no posee errores, el switch la reenvía. De lo contrario, se la descarta.
Almacenamiento en buffer automático
El proceso de almacenamiento en buffer del puerto de entrada que usan los switches de almacenamiento y envío proporciona la flexibilidad para admitir cualquier combinación de velocidades de Ethernet. Por ejemplo, el manejo de una trama entrante que se traslada a un puerto Ethernet de 100 Mb/s y que se debe enviar por una interfaz de 1 Gb/s requiere el uso del método de almacenamiento y envío. Ante cualquier incompatibilidad de las velocidades de los puertos de entrada y salida, el switch almacena la trama completa en un buffer, calcula la verificación de FCS, la reenvía al buffer del puerto de salida y después la envía.
El switching por almacenamiento y envío es el método principal de switching LAN de Cisco.
Los switches de almacenamiento y reenvío descartan las tramas que no pasan la verificación de FCS y, por lo tanto, no reenvían las tramas no válidas. Por el contrario, los switches que usan el método de corte pueden reenviar tramas no válidas, ya que no realizan la verificación de FCS.
Switching por método de corte
Una ventaja del switching por método de corte es que el switch tiene la capacidad de iniciar el reenvío de una trama antes que con el switching por almacenamiento y envío. El switching por corte tiene dos características principales: el reenvío rápido de tramas y el switching libre de fragmentos.
Reenvío rápido de tramas
Como se indica en la ilustración, los switches que usan el método de corte pueden tomar una decisión de reenvío tan pronto como encuentran la dirección MAC de destino de la trama en la tabla de direcciones MAC. El switch no tiene que esperar a que el resto de la trama ingrese al puerto de entrada antes de tomar la decisión de reenvío.
Con los controladores MAC y los ASIC actuales, los switches que usan el método de corte pueden decidir rápidamente si necesitan examinar una mayor parte de los encabezados de una trama para propósitos de filtrado adicional. Por ejemplo, el switch puede analizar más allá de los primeros 14 bytes (la dirección MAC de origen, la dirección MAC de destino y los campos de EtherType) y examinar 40 bytes adicionales para llevar a cabo las funciones más sofisticadas relacionadas con las capas 3 y 4 de IPv4.
El switching por método de corte no descarta la mayoría de las tramas no válidas. Las tramas con errores se reenvían a otros segmentos de la red. Si hay un índice de error alto (tramas no válidas) en la red, el switching por método de corte puede tener un impacto negativo en el ancho de banda; de esta forma, se obstruye el ancho de banda con las tramas dañadas y no válidas.
Libre de fragmentos
El switching libre de fragmentos es una forma modificada del switching por método de corte en la cual el switch espera a que pase la ventana de colisión (64 bytes) antes de reenviar la trama. Esto significa que cada trama se registra en el campo de datos para asegurarse de que no se produzca la fragmentación. El switching libre de fragmentos proporciona una mejor verificación de errores que el de corte, con prácticamente ningún aumento de latencia.
La velocidad de latencia más baja del switching por corte hace que resulte más adecuado para las aplicaciones muy exigentes de tecnología informática de alto rendimiento (HPC) que requieren latencias de proceso a proceso de 10 microsegundos o menos.
Dominios de colisiones
En los segmentos Ethernet basados en hubs, los dispositivos de red compiten por el medio, porque los dispositivos deben turnarse durante la transmisión. Los segmentos de red que comparten el mismo ancho de banda entre dispositivos se conocen como dominios de colisión. Cuando dos o más dispositivos del mismo dominio de colisión tratan de comunicarse al mismo tiempo, se produce una colisión.
Si un puerto de switch Ethernet está funcionando en modo semidúplex, cada segmento se encuentra en su propio dominio de colisión. Sin embargo, los puertos de switch Ethernet que funcionan en modo dúplex completo eliminan las colisiones; por lo tanto, no hay dominio de colisión. De forma predeterminada, los puertos de switch Ethernet autonegocian el dúplex completo cuando el dispositivo adyacente también puede funcionar en modo dúplex completo. Si el puerto del switch está conectado a un dispositivo que funciona en semidúplex, como por ejemplo un hub antiguo, el puerto de switch funcionará en modo semidúplex. En el caso de semidúplex, el puerto de switch formará parte de un dominio de colisión.
Como se muestra en la figura, se elige dúplex completo si ambos dispositivos cuentan con la funcionalidad, junto con su ancho de banda común más elevado.
Dominios de difusión
Una serie de switches interconectados forma un dominio de difusión simple. Solo los dispositivos de capa de red, como los routers, pueden dividir un dominio de difusión de capa 2. Los routers se utilizan para segmentar los dominios de difusión, pero los también segmentan un dominio de colisión.
Cuando un dispositivo desea enviar una difusión de capa 2, la dirección MAC de destino de la trama se establece solo en números uno binarios.
El dominio de difusión de capa 2 se denomina “dominio de difusión MAC”. El dominio de difusión MAC consta de todos los dispositivos en la LAN que reciben tramas de difusión de un host.
Haga clic en Reproducir en la ilustración para verlo en la primera mitad de la animación.
Cuando un switch recibe una trama de difusión, la reenvía por cada uno de sus puertos, excepto el puerto de entrada en el que se recibió la trama de difusión. Cada dispositivo conectado al switch recibe una copia de la trama de difusión y la procesa. En ocasiones, las difusiones son necesarias para localizar inicialmente otros dispositivos y servicios de red, pero también reducen la eficacia de la red. El ancho de banda de red se usa para propagar el tráfico de difusión. Si hay demasiadas difusiones y una carga de tráfico intensa en una red, se puede producir una congestión, lo que reduce el rendimiento de la red.
Cuando hay dos switches conectados entre sí, se aumenta el dominio de difusión, como se ve en la segunda mitad de la animación. En este caso, se reenvía una trama de difusión a todos los puertos conectados en el switch S1. El switch S1 está conectado al switch S2. Luego, la trama se propaga a todos los dispositivos conectados al switch S2.
Alivio de la congestión en la red
Los switches LAN tienen características especiales que los hacen eficaces para aliviar la congestión de una red. De manera predeterminada, los puertos de switch interconectados tratan de establecer un enlace en dúplex completo y por lo tanto se eliminan los dominios de colisión. Cada puerto dúplex completo del switch ofrece el ancho de banda completo a los dispositivos conectados a dicho puerto. Una conexión dúplex completo puede transportar las señales transmitidas y recibidas al mismo tiempo. Las conexiones dúplex completo aumentaron notablemente el rendimiento de las redes LAN y se requieren para velocidades de Ethernet de 1 Gb/s y superiores.
Los switches interconectan segmentos LAN, usan una tabla de direcciones MAC para determinar el segmento al que deben enviar la trama y pueden reducir o eliminar las colisiones por completo. A continuación, se detallan algunas características importantes de los switches que contribuyen a aliviar la congestión de la red:
- Alta densidad de puertos: los switches tienen altas densidades de puertos; los switches de 24 y 48 puertos con frecuencia son solo una unidad de rack y funcionan a velocidades de 100 Mb/s, 1 Gb/s y 10 Gb/s. Los switches empresariales grandes pueden admitir cientos de puertos.
- Búfers grandes para tramas: la capacidad de almacenar más tramas recibidas antes de comenzar a descartarlas es útil, especialmente cuando puede haber puertos congestionados conectados a servidores o a otras partes de la red.
- Velocidad del puerto: según el costo de un switch, es posible que admita una combinación de velocidades. Los puertos de 100 Mb/s y de 1 Gb/s o 10 Gb/s son comunes (también puede haber de 100 Gb/s).
- Switching interno rápido: la capacidad de reenvío interno rápido promueve un alto rendimiento. El método que se usa puede ser un bus interno o una memoria compartida de gran velocidad, lo que afecta el rendimiento general del switch.
- Bajo costo por puerto: los switches proporcionan una alta densidad de puertos a menor costo.