Topología de red (centro de procesamiento de datos)

La topología de red de un centro de datos es el tipo de interconexión entre servidores y switches y se elige de acuerdo con las necesidades del negocio o negocio. La topología de red debe ser escalable y eficiente para conectar decenas o incluso cientos de miles de servidores para satisfacer la creciente demanda de computación en la nube.

Una posible clasificación para la topología de red de un centro de datos distingue las redes fijas de las flexibles después de que se construye físicamente. Las arquitecturas se clasifican como arquitecturas de topología fija o arquitecturas de topología flexible basadas en la capacidad de modificar la red una vez que está operativa. Las arquitecturas de topología fija pueden ser del tipo fat-tree, como la arquitectura propuesta por Al-Fares o las arquitecturas PortLand y Hedera. Otras arquitecturas de topología fija son las redes Clos y topologías recursivas como DCell y BCube, MDCube o FiConn. Las arquitecturas de topología flexibles pueden ser, por ejemplo, C-Through, Helios y Osa. Las redes de topología Flexible pueden basarse en una tecnología óptica (como la arquitectura de red Proteus): estas ofrecen un ancho de banda más alto que las basadas en cables eléctricos y su topología también se puede cambiar durante el funcionamiento del centro de datos. Otras topologías flexibles utilizan una tecnología híbrida, es decir, basada en un protocolo de conmutación de paquetes eléctrico y óptico. También hay redes de centros de datos flexibles llamadas medusas que adoptan la topología de un gráfico Aleatorio. En la mayoría de estas arquitecturas, el punto de partida es la elección de la topología, para evitar la implementación de un protocolo de enrutamiento; de hecho, cada nodo puede ejecutar un algoritmo específico para determinar el puerto de salida de un paquete basado en la dirección de destino. Se puede implementar un protocolo de enrutamiento multipath u otras técnicas para mejorar el rendimiento de la red.

La topología básica de árbol es una topología de árbol que consiste en dos o tres capas de switches / routers que tienen servidores como hojas (nodos finales de árbol). En una topología de 2 niveles hay un conmutador de nivel central en la raíz del árbol, conectado a una capa de conmutadores de nivel de borde conectados a su vez a los servidores. En una topología de 3 niveles, se interpone una capa de conmutación de nivel de agregación entre la capa de Nivel Central y la capa de nivel de borde. Cada nivel del árbol está conectado solo a los niveles superior e inferior, por lo que la comunicación entre los niveles no adyacentes es posible solo gracias a los niveles intermedios. Debido a que los conmutadores de nivel superior deben garantizar la comunicación entre un gran número de servidores, deben proporcionar un alto rendimiento y confiabilidad. Esto crea problemas de escalabilidad que se pueden resolver aprovechando otras topologías de red. La topología de la red de árboles gordos fue introducida por Charles E. Leirson en 1985. En una topología de red de árbol gordo, las ramas (vértices) cerca de la capa de nivel central son más gruesas, es decir, permiten un mayor ancho de banda que el árbol básico al emplear un mayor número de switches. La topología de red de Fat tree se basa en un árbol binario completo cuyos nodos son switches que tienen N puertos. Cada interruptor en el nivel edge está conectado a y / 2 {\displaystyle N / 2} servidor mientras que el resto y / 2 {\displaystyle N / 2} los puertos están conectados a otros y / 2 {\displaystyle N / 2} cambiar puertos pertenecientes al nivel de agregación. Le y / 2 {\displaystyle N / 2} puertos de conmutación de nivel de agregación, y / 2 {\displaystyle N / 2} puertos de interruptor de nivel de borde y reanentes y / 2 {\displaystyle N / 2} conectados a los servidores forman una célula elemental del árbol gordo llamada pod. Cada vaina tiene ( y / 2 ) 2 {\displaystyle (n/2)^{2}} enlaces al nivel básico, i. e. y / 2 {\displaystyle N / 2} rutas para cada uno de los y / 2 {\displaystyle N / 2} interruptor de borde de la cápsula. En el nivel de nivel básico hay ( y / 2 ) 2 {\displaystyle (n/2)^{2}} interruptores que tienen y {\displaystyle n} puertos, cada uno conectado a cada uno de los pods que forman parte de la red.

Una topología DCell es una topología de red de centros de datos propuesta por Chuanxiong Guo en 2008. La DCell es una estructura definida recursivamente en la que una DCell de alto nivel se construye a partir de varias Dcells de bajo nivel; cada una de ellas está completamente conectada con las otras. En la arquitectura DCell, un servidor está equipado con múltiples controladores de interfaz de red (NIC). Por lo general, el desafío más relevante en una red de centros de datos es cómo interconectar de manera eficiente un número exponencial de servidores. Por esta razón, hay tres objetivos de diseño para la red del centro de datos: una estructura DCell con un bajo grado de conexión puede soportar varios millones de servidores. La estructura DCell es tolerante a fallos porque no tiene un único punto de fallo, y su Protocolo de enrutamiento realiza el enrutamiento de ruta más corta incluso en presencia de errores graves de nodo o enlace. DCell ofrece una mayor capacidad de red que una estructura de árbol tradicional porque el tráfico de red se distribuye uniformemente entre servidores y entre enlaces en un servidor. El elemento más básico de una DCell se llama DCell 0 {\displaystyle _{0}} . A DCell 0 {\displaystyle _{0}} compuesto de y {\displaystyle n} servidor y un conmutador de puerto N; cada servidor en el DCell 0 {\displaystyle _{0}} está conectado al interruptor en el mismo DCell 0 {\displaystyle _{0}} . Una DCell de alto nivel se construye a partir de otras Dcell de nivel inferior. Considere una DCell k {\displaystyle _ {k}} perteneciente al k-ésimo nivel de toda la DCell. El primer paso es construir un DCell 1 {\displaystyle _ {1}} a partir de otras Dcells 0 {\displaystyle _{0}} . Cada DCell 1 {\displaystyle _ {1}} tener y + 1 {\displaystyle n+1} DCell 0 {\displaystyle _{0}} y cada servidor de cada DCell 0 {\displaystyle _{0}} dentro de una DCell 1 {\displaystyle _ {1}} está conectado al servidor de otro DCell respectivamente 0 {\displaystyle _{0}} . En un DCell k {\displaystyle _ {k}} cada servidor tendrá k + 1 {\displaystyle k+1} conexiones: la primera conexión o nivel-0 se conecta a un interruptor que forma una DCell 0 {\displaystyle _{0}} , y las capas-I están conectadas al servidor en el mismo DCell Me {\displaystyle _ {i}} pero con un DCelli diferente 1 {\displaystyle _ {1}} Suponiendo que cada DCell k − 1 {\displaystyle _ {k - 1}} tener t k − 1 {\displaystyle T_{K - 1}} servidores, llevaremos ese A DCell. k {\displaystyle _ {k}} consistirá en: t k {\displaystyle t_ {K}} DCell k 1 {\displaystyle _ {k_{1}}} s, y en consecuencia t k − 1 × t k {\displaystyle T_{K-1} \ times t_{K}} servidor El DCell 0 {\displaystyle _{0}} están conectados a todos los demás gracias a una conexión entre cada par de DCell 0 {\displaystyle _{0}} . Para construir el DCell k {\displaystyle _ {k}} podemos aplicar el mismo procedimiento usando diferentes DCell k − 1 {\displaystyle _ {k - 1}} s. Al final tendremos: t k = t k − 1 × ( t k − 1 + 1 ) {\displaystyle T_{K} = t_{K-1} \ times (t_{K-1} + 1)} servidor. El número de servidores en el DCell crece doblemente exponencialmente, y el número total de capas en el DCell está limitado por el número de NIC en él. La estructura DCell tiene la capacidad de escalar un gran número de servidores utilizando switches y servidores con muy pocos puertos. La arquitectura de red BCube adopta un enfoque centrado en el servidor para fabricar un centro de datos modular utilizando switches. El elemento principal de un BCube, llamado BCube 0 {\displaystyle _{0}} , es muy similar a un DCell 0 {\displaystyle _{0}} : y {\displaystyle n} los servidores están conectados a los puertos N de los switches. La principal diferencia entre BCube y DCell es su diferente forma de escalar: BCube hace un mayor uso de interruptores al construir una estructura de alto nivel. Al construir un BCube 1 {\displaystyle _ {1}} , se utilizan y {\displaystyle n} conmutadores adicionales conectados exactamente a un servidor en cada BCube 0 {\displaystyle _{0}} . Por lo tanto un BCube 1 {\displaystyle _ {1}} contiene N BCube 0 {\displaystyle _{0}} y y {\displaystyle n} interruptores adicionales (si los interruptores en el BCube 0 {\displaystyle _{0}} se tienen en cuenta, hay en total 2 y {\displaystyle 2n} interruptores en el BCube 1 {\displaystyle _ {1}} ). Más generalmente, un BCube k {\displaystyle _ {k}} está construido por y {\displaystyle n} BCube k − 1 {\displaystyle _ {k - 1}} e n k {\displaystyle ^{k}} interruptor adicional de n-puertos. Estos switches adicionales están conectados exactamente a un servidor en el BCube k − 1 {\displaystyle _ {k - 1}} . en la capa BCube-K, cada capa no necesita interruptores (cada uno de los cuales es un interruptor de puerto N). La topología BCube hace un mayor uso de switches en la construcción de una estructura de alto nivel, a diferencia de la topología DCell que utiliza solo un nivel-0 de switches con puertos N. En cualquier caso ambos necesitan servidores para tener k + 1 {\displaystyle k+1} PICNIC. La consecuencia es que los servidores estarán involucrados en pasar más paquetes en la topología de DCell que BCube. El número de niveles de bcube depende del número de puertos en los servidores. El número de servidores en el BCube crece exponencialmente con los niveles de una manera mucho más lenta que en DCell. Teniendo en cuenta que BCube es una arquitectura diseñada para centros de datos móviles basados en contenedores, este nivel de escalabilidad es más que suficiente.

Para comparar la escala de un gráfico que representa la red de un centro de datos puede variar: el número de puertos de un switch n (grado de conexión del nodo asociado al switch), el número de puertos de un servidor k (grado de conexión del nodo asociado al switch), y el número total de servidores N dentro del centro de datos. Se analiza la siguiente tabla, el grado de conexión a un servidor, el diámetro de la red (la más larga entre todas las rutas más cortas existentes entre dos servidores), el número de switches y el número de cables (los arcos del gráfico) en relación con los parámetros n, k y N de la topoligia fija específica. La siguiente tabla relaciona el número de servidores en una red por Centro de datos con el número de puertos en un conmutador n (grado de conexión del nodo asociado al conmutador) y el número de puertos en un servidor k (grado de conexión del nodo asociado al conmutador).

Telecomunicación

Gestión de datos

Algoritmo de Viterbi

El algoritmo de Viterbi es un algoritmo ideado por Andrew Viterbi y generalmente utilizado para encontrar la mejor secuencia de Estados (llamado Camino de Viter...

Uplink (telecomunicaciones)

En telecomunicaciones, el término enlace ascendente significa la posibilidad de que un dispositivo móvil o fijo envíe paquetes (o más genéricamente un flujo fin...

Algoritmo

Teoría de la computación

Teoría del código

Teoría de la información

Programación dinámica

Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad