
1. Todo lo concerniente a Hardware en la temática de Clúster, además deberán realizar el levantamiento de la información sobre cuál es la disponibilidad de los equipos de computo del ambiente de telemática, tanto del aula polivalente como del taller. (Sebastián).
Aunque los clústeres de servidores Windows detectar correctamente las tarjetas de red en un equipo, Clúster Server no puede verlos. Los siguientes requisitos se deben alcanzar para que Clúster Server utilizar las tarjetas de red:
• La tarjeta de red debe estar enlazada a TCP/IP.
• La tarjeta de red debe ser de tipo Ethernet, token ring o FDDI.
• La tarjeta de red debe estar en una subred diferente de otras tarjetas de red en el equipo. Si dos tarjetas de red están en la misma subred, Clúster Server utilizará sólo uno de ellos.
Nota: Se recomienda encarecidamente que cualquier adicional instalada tarjeta en Microsoft Clúster Server ser de tipo PCI. Además, para que se apruebe la validación de hardware, las tarjetas de red es necesario ser de tipo PCI.
________________________________________
La información de este artículo se refiere a:
• Microsoft Windows 2000 Advanced Server
• Microsoft Windows 2000 Datacenter Server
• Microsoft Windows NT Server 4.0 Enterprise Edition
CLUSTER NBL
Network Load Balancing (NLB) ofrece una solución de alta disponibilidad para aplicaciones de servidor basadas en TCP/IP, capaz de ofrecer escalabilidad y alto rendimiento.
A continuación se muestran varias recomendaciones a la utilización de Clúster NLB.
• Es recomendable utilizar dos o más tarjetas de Red en cada Clúster HOST, cada una con su propia dirección IP. Este tipo de configuraciones aporta dos tipos de ventajas:
o Permitir la creación de múltiples Clúster NLB (ej.: una tarjeta de red para la gestión del servidor, y cada una de las tarjetas de red adicionales para la creación de un Clúster NLB adicional).
o Utilizar varias tarjetas en cada Nodo para manejar el tráfico del mismo Cluster NLB. Es decir, del mismo modo que es posible formar un Clister NLB con dos Nodos, utilizando una tarjeta de red de cada uno de los nodos, evaluar la posibilidad de utilizar dos o más tarjetas de red en cada Nodo (Host) para forma el Cluster NLB, y así poder ofrecer un mejor tiempo de respuesta
Si decidimos utilizar múltiples tarjetas de Red, es muy recomendable utilizar una tarjeta de red dedicada para la gestión del servidor (muy recomendable, pero NO es un requisito). Este adaptador de red será utilizado para la comunicación con los equipos Host del Cluster NLB, como por ejemplo, conexión por Terminal Server, administración del Cluster NLB a través de la herramienta administrativa Network Load Balancing Manager (NLBMgr.exe), etc. Así, podemos utilizar el resto de tarjetas de red para formar uno o varios Clúster NLB, cada uno con la configuración más apropiada para su fin.
ClusterVision actualmente ofrecen racimos y servidores con las plataformas de CPU siguientes: Intel Pentium III, Intel Pentium 4, Intel Xeon, Intel Itanium 2, el AMD Athlon XP Y EL AMD Athlon DIPUTADO.
Intel Pentium 4 and Xeon
El último Pentium 4 está basado en el corazón Northwood, que usa una tecnología de 0.13 micras y actualmente corre en una velocidad de reloj máxima de 3.2 GHz. Aparte de SSE Y DPL, el P4 apoya SSE2, que permite a las dos unidades de punto flotante del P4 funcionar cuatro simple precisión o cuatro FRACASOS de doble precisión por ciclo de reloj. Llaman la versión de multiprocesador del P4 el Xeon y actualmente corre en una velocidad de reloj máxima de 3.2 GHz
NODOS DE PROCESADOR DUALES O SOLOS
La mayor parte de racimos son diseñados con nodos de esclavo de procesador duales. Los motivos principales para esto son el espacio y la rentabilidad, tanto en el boxes-on-shelves el alojamiento de la solución como en el rackmount el alojamiento de la solución. Nodos de esclavo de procesador duales son sobre todo más rentables cuando costoso de alta velocidad interconecta son usado, como el número de interconecta por procesador es la mitad él del número requirió usando nodos de esclavo de procesador solos
Aunque el diseño de procesador dual pueda incurrir en una pequeña pena de funcionamiento ya que las amplitudes de banda tanto del los interconectar como el autobús de memoria son compartidas por los dos procesadores, esto es por lo general la mejor solución para el precio/funcionamiento.
PLACA MADRE CHIPSETS
Diseñando un racimo es importante seleccionar una combinación processor/memory/chipset que da el mejor funcionamiento para usted el tipo particular de uso. La opción incorrecta de esta combinación seriamente puede afectar el funcionamiento de usted el racimo. Por ejemplo, algún chipsets actualmente disponible tiene una amplitud de banda limitada PCI y por lo tanto limita la amplitud de banda máxima del de alta velocidad interconectan
TECNOLOGÍA DE MEMORIA
DDR la SDRAM (la Doble SDRAM de Tarifa de Datos) DDR dobla la tarifa de datos entre la memoria y el procesador por doblando la velocidad de autobús, por ejemplo de 133 a 266 MHz Esto causa un doblamiento de las amplitudes de banda de memoria comparadas a la SDRAM. DDR la memoria por lo general etiquetan como, por ejemplo, " DDR266 PC2100 ", que quiere decir certificado para las velocidades de autobús de 266 MHz para dar una amplitud de banda de 2.1 GIGAOCTETOS/S
DDR SDRAM module
RDRAM (Rambus Dirigen la RAM) RDRAM usa una tecnología bastante diferente de la SDRAM y la RAM DDR. RDRAM usa muchos bancos de memoria más que permiten a más páginas de memoria para ser abiertas simultáneamente. Además, esto permite a la memoria para ser dividida en los canales de superposición diferentes que pueden ser tenidos acceso simulateneously. RDRAM usa una anchura de autobús de sólo 16 o 32 añicos, pero permite a velocidades mucho más altas de autobús, causando las amplitudes de banda de hasta 4.2 GIGAOCTETOS/S
RDRAM module
RED INTERCONECTA
Nuestros racimos siempre vienen con una 100 red de Ethernet Mbit/s como el estándar. La red de Ethernet es usada para la administración y la supervisión de tareas y para el sistema de fichas de red (NFS). Si ninguna red adicional de alta velocidad es usada, la red de Ethernet también es usada para el mensaje que pasa en empleos paralelos.
Además de la red de Ethernet, ofrecemos tres redes diferentes opcionales de alta velocidad: SCI de Dolphin/Scali, Myrinet de Myricom, y QsNET de Quadrics.
Todos los tres interconectan tienen sus propias bibliotecas dedicadas multiroscadas MPI para el intranodo y la comunicación de canuto, que directamente el interfaz al hardware de nivel bajo y OS funciona. Todos los tres también tienen un procesador de entrada - salida dedicado y la memoria de a bordo, que descarga el protocolo que se maneja de la CPU principal y asegura que toda la amplitud de banda disponible PCI es dedicada a la comunicación de datos. Todos los tres interconectan el apoyo el Acceso de Memoria Directo (DMA) y el empleo 64 bit PCI o el autobús PCI-X
Dolphin/Scali SCI el Delfín el Interfaz Escalable Coherente (SCI) interconecta
Es lo menos costoso de alta velocidad interconectan disponible y es lo más conveniente para más pequeños clusters. SCI tiene una amplitud de banda máxima mono direccional de 200 MB/S y una latencia mínima de 4 usec. SCI usa 2D o un 3D torus la topología de red en la cual un máximo de 5 nodos directamente es unido (conectado) a un toque (anillo) de red. Cada uno de los cinco nodos sobre un toque(anillo) puede ser la parte de otro toque(anillo) con un máximo de 5 nodos, limitando los nodos totales a 5x5 nodos sobre una 2D SCI la red y 5x5x5 sobre un 3D SCI la red. Esto distribuido interconecta la arquitectura elimina la necesidad de un interruptor centralizado. SCI usa el ScaMPI MPI bibliotecas de Scali.
Dolphin SCI PCI card
Myricom Myrinet
El Myricon Myrinet la red es nuestra red más popular de alta velocidad y consiste en tarjetas de interfaz e interruptores. Esto tiene una amplitud de banda máxima bidireccional de más de 400 Mbits/s y una latencia mínima de 6 usec. La balanza (las escalas) de red de Myrinet a hasta 8,192 nodos. Myrinet usa la versión GM DEL MPICH MPI bibliotecas...
Myrinet PCI card
Quadrics QsNet el Quadrics QsNet
La red es lo más costoso de alta velocidad interconectan. Esto tiene una amplitud de banda máxima bidireccional de 360 MB/S y una latencia mínima de 5 usec.
Las tarjetas de interfaz se unen por los interruptores Quadrics graduales de hasta 128 puertos, que usan una topología de árbol gorda. Los interruptores tienen una muy alta amplitud de banda bisectional, cual balanza (escalas) directamente la red cultiva en el tamaño. Las redes de hasta 1024 puertos pueden ser construidas usando interruptores supuestos federados.
Quadrics usa sus propias bibliotecas MPI así como la biblioteca de comunicaciones Shmem y el sistema de fichas ElanFS remoto protocal, optimizado para
Infortrend IDE RAID
No hay comentarios:
Publicar un comentario